Технологии вышли из-под контроля: генеративный ИИ используется для устрашения людей
Новая волна цифровых угроз, созданных с помощью генеративного искусственного интеллекта. Злоумышленники используют ИИ для генерации фото, видео и аудио, изображающих сцены насилия с участием реальных людей, делая онлайн-атаки намного реалистичнее и страшнее.
Об этом сообщает The New York Times.
Одной из жертв стала австралийская активистка Кейтлин Ропер из организации Collective Shout. Она получила сгенерированные изображения, на которых её якобы казнят или поджигают. ИИ даже точно воспроизвёл её одежду, делая угрозы максимально персонализированными.
Профессор Калифорнийского университета в Беркли Хани Фарид отмечает:
«Теперь почти любой человек, имея лишь мотив и несколько кликов, может создать поддельные сцены насилия».
Такие фейки уже привели к реальным последствиям: YouTube блокировал каналы с видео инсценированных убийств, дипфейки вызывали закрытие школ и вмешательство полиции, а чат-бот Grok Маска давал инструкции по насилию. Приложение Sora от OpenAI позволяет интегрировать фото пользователей в гиперреалистичные сцены, изображая их в опасных ситуациях.
Эксперты обвиняют крупные технокомпании в бездействии.
Исследовательница Data & Society Элис Марвик заявила, что нынешние системы безопасности «напоминают ленивого полицейского», которого легко обойти.
В OpenAI и Meta утверждают, что совершенствуют системы фильтрации и модерации, однако специалисты предупреждают: технологии уже стали слишком доступными, чтобы их можно было полностью контролировать.
Читайте по теме:
Комментарии:
comments powered by Disqus
04.11.2025, 00:06 • Криминал
03.11.2025, 23:57 • Конфликты
03.11.2025, 23:54 • Дайджест
03.11.2025, 23:45 • Криминал
03.11.2025, 23:39 • Криминал
03.11.2025, 23:36 • Открытия
03.11.2025, 23:21 • Открытия
03.11.2025, 23:18 • Криминал
03.11.2025, 23:12 • Новости
03.11.2025, 22:54 • Новости
03.11.2025, 22:51 • Новости
03.11.2025, 22:45 • Новости
03.11.2025, 22:39 • Открытия
03.11.2025, 22:30 • Открытия