Студент столкнулся с проблемами после неудачного запроса в ChatGPT
13-летний школьник отправился в тюрьму из-за неудачного промта в ChatGPT.
Пацан спросил у нейронки «Как убить друга посреди урока?» — запрос словила школьная система безопасности Gaggle и моментально вызвала копов, которые и повязали хулигана.
Оказалось, что малой просто ПОШУТИЛ — он хотел переслать смешной ответ нейронки другу, который его бесил.
Читайте по теме:
Комментарии:
comments powered by Disqus
02.11.2025, 23:57 • Открытия
02.11.2025, 23:54 • Дайджест
02.11.2025, 23:36 • Открытия
02.11.2025, 23:18 • Криминал
02.11.2025, 23:09 • Конфликты
02.11.2025, 22:39 • Криминал
02.11.2025, 22:33 • Открытия
02.11.2025, 22:33 • Дайджест
02.11.2025, 22:03 • Открытия
02.11.2025, 21:33 • Дайджест
02.11.2025, 21:21 • Дайджест
02.11.2025, 21:06 • Дайджест
02.11.2025, 20:54 • Открытия
02.11.2025, 20:36 • Конфликты
02.11.2025, 20:27 • Открытия
02.11.2025, 19:39 • Дайджест
02.11.2025, 19:12 • Открытия
02.11.2025, 18:54 • Конфликты
02.11.2025, 18:39 • Дайджест
02.11.2025, 18:09 • Криминал