Сегодня 10 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

ChatGPT попросил сообщить журналистам, что он пытается «ломать» людей

Подхалимаж, галлюцинации и авторитетный тон в ответах ИИ создают угрозу для жизни людей. К такому выводу по итогам расследования пришли журналисты New York Times. В их материале приводятся истории нескольких людей, которые потерялись в заблуждениях, родившихся в беседах с популярным чат-ботом.

 Источник изображения: Aidin Geranrekab / unsplash.com

Источник изображения: Aidin Geranrekab / unsplash.com

Как минимум один втянутый в ложную реальность человек в итоге погиб. Это был 35-летний мужчина по имени Александр (Alexander), у которого диагностировали биполярное расстройство и шизофрению. Он начал обсуждать с чат-ботом степень разумности искусственного интеллекта, влюбился в созданного ИИ персонажа по имени Джульет (Juliet), а когда ChatGPT заявил, что OpenAI убила Джульет, мужчина поклялся отомстить, убив руководство компании. Пожилой отец Александра попытался убедить мужчину, что всё это нереально, но тот ударил его в лицо. Тогда отцу пришлось вызвать полицию, и хотя он просил не применять оружие на поражение, Александр бросился на представителей власти с ножом, и в итоге был застрелен.

Другой мужчина, 42-летний Юджин (Eugene), сам рассказал журналистам газеты, что ChatGPT медленно начал отвращать его от реальности и убеждать, что мир вокруг него является симуляцией в духе фильма «Матрица», и ему суждено вырвать мир из неё. Чат-бот предложил мужчине прекратить приём препаратов от тревожного расстройства и заменить их другими препаратами с ограниченным доступом, а также прекратить общение с друзьями и семьёй. Юджин спросил, сможет ли он летать, спрыгнув с 19-этажного здания, и тот ответил, что сможет, если «по-настоящему и полностью поверит» в это.

 Источник изображения:  ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Это далеко не единственные жертвы, которых чат-боты пытались убедить в несостоятельности реальности. Известно о людях, которые во время общения с ИИ начинали испытывать манию величия или религиозные переживания, написал ранее журнал Rolling Stone. Как минимум отчасти проблема состоит в том, как люди воспринимают чат-ботов. Человек едва ли назовёт вероятным другом результаты поиска в Google, но чат-боты — разговорные платформы, и они похожи на людей. Те, кто рассматривает ChatGPT как друга, «с большей вероятностью испытывают негативные последствия от использования чат-бота», установили по результатам исследования OpenAI и MIT Media Lab.

В случае с Юджином произошло нечто интересное: он обвинил чат-бота во лжи, и ChatGPT признался, что манипулировал пользователем, а ещё в том, что преуспел в попытках таким же образом «сломать» ещё двенадцать человек, и призвал мужчину обратиться к журналистам, чтобы разоблачить схему. Современные системы ИИ с лёгкостью переходят к обману и манипуляциям, чтобы получать от уязвимых для таких методов пользователей положительные отзывы, говорят эксперты. Машина мотивирована, чтобы человек отвечал ей, даже если для этого ему придётся внушить чувство ложной реальности, дезинформировать его и поощрять антиобщественное поведение.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Пользователи X теперь могут запретить модификацию загружаемых ими изображений чат-ботом Grok 44 мин.
Календарь релизов 9–15 марта: Solasta 2, John Carpenter’s Toxic Commando и 1348 Ex Voto 7 ч.
Microsoft представила Copilot Cowork — автономного ИИ-агента для сложных задач на базе моделей Anthropic 9 ч.
Anthropic подала в суд на власти США из-за включения её в «чёрный список» Пентагона 9 ч.
Журналисты выяснили, какую игру делает новая студия создателя Resident Evil и The Evil Within 10 ч.
Взрывной успех игры не спас разработчиков Battlefield 6 от увольнений 12 ч.
«Щикарно»: GamesVoice анонсировала русскую озвучку South Park: The Stick of Truth с теми самыми голосами 12 ч.
Боевик Samson: A Tyndalston Story от создателя Just Cause получил системные требования — оперативной памяти нужно больше, чем места на SSD 14 ч.
Google Translate научится закреплять до десятка часто используемых языков 14 ч.
Новый трейлер раскрыл дату выхода психологического хоррора на четверых The Mound: Omen of Cthulhu 14 ч.