Студент столкнулся с проблемами после неудачного запроса в ChatGPT
13-летний школьник отправился в тюрьму из-за неудачного промта в ChatGPT.
Пацан спросил у нейронки «Как убить друга посреди урока?» — запрос словила школьная система безопасности Gaggle и моментально вызвала копов, которые и повязали хулигана.
Оказалось, что малой просто ПОШУТИЛ — он хотел переслать смешной ответ нейронки другу, который его бесил.
Читайте по теме:
Комментарии:
comments powered by Disqus
03.11.2025, 19:51 • Конфликты
03.11.2025, 19:36 • Дайджест
03.11.2025, 19:24 • Дайджест
03.11.2025, 19:09 • Открытия
03.11.2025, 19:03 • Конфликты
03.11.2025, 18:54 • Открытия
03.11.2025, 18:42 • Конфликты
03.11.2025, 18:33 • Открытия
03.11.2025, 18:30 • Дайджест
03.11.2025, 18:27 • Криминал
03.11.2025, 18:24 • Открытия
03.11.2025, 18:18 • Криминал
03.11.2025, 18:12 • Дайджест
03.11.2025, 18:09 • Конфликты
03.11.2025, 18:03 • Конфликты
03.11.2025, 18:00 • Конфликты
03.11.2025, 17:48 • Дайджест
03.11.2025, 17:45 • Дайджест
03.11.2025, 17:39 • Открытия
03.11.2025, 17:18 • Открытия
03.11.2025, 16:51 • Открытия
03.11.2025, 16:30 • Конфликты
03.11.2025, 16:24 • Конфликты
03.11.2025, 16:12 • Открытия