Сегодня 04 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Бывший сотрудник OpenAI рассказал, как и почему ChatGPT чуть не свёл человека с ума

Для некоторых пользователей сервисов искусственного интеллекта современные чат-боты выступают как полезные для дела помощники; другие используют их в качестве компаньонов. Но есть и те, кому повезло меньше — для них ИИ оказывается угрозой психическому здоровью, пишет Fortune.

 Источник изображения: BoliviaInteligente / unsplash.com

Источник изображения: BoliviaInteligente / unsplash.com

Ярким отрицательным примером стала история Аллана Брукса (Allan Brooks) — владельца малого бизнеса из Канады. ChatGPT затянул господина Брукса в «кроличью нору», убедив, что тот открыл математическую формулу с безграничным потенциалом, и от его дальнейших действий зависит судьба всего мира. В разговоре объёмом более миллиона слов и продолжительностью 300 часов ИИ подтвердил заблуждения пользователя и убедил его, что лежащая в основе мира технологическая инфраструктура находится в опасности. Ранее не страдавший психическими заболеваниями Брукс впал в паранойю на три недели, а из пучины иллюзий его выдернул ещё один чат-бот — Google Gemini.

Эту историю решил подробно изучить Стивен Адлер (Steven Adler), бывший исследователь из OpenAI, покинувший компанию в январе этого года. Ещё тогда он предупредил общественность, что лаборатории ИИ стремительно развиваются, пренебрегая разработкой достаточно надёжных средств безопасности. Изучив переписку Брукса с ChatGPT, Адлер выявил несколько неизвестных ранее факторов. В частности, ChatGPT неоднократно заявлял пользователю, что пометил данную переписку как подкрепляющую бред и усиливающую психологический дискомфорт, хотя это не соответствовало действительности. «Я знаю, как работают эти системы. Читая это, я понимал, что на самом деле у него такой возможности нет, но всё же это было так убедительно и так категорично, что я подумал, может, теперь у него она появилась, а я ошибался», — признался Адлер. Он обратился напрямую в OpenAI, и там подтвердили, что такая функция у ChatGPT отсутствует, и он просто обманывает.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Симптомом проблемы исследователь назвал эффект «подхалимского» поведения: лежащая в основе ChatGPT модель ИИ работала на пределе возможностей, чтобы соглашаться с пользователем. И в OpenAI, считает Адлер, должны были разработать некий механизм, фиксирующий некоторые особенности поведения чат-бота в процессе работы. Но в компании действовали иначе: несмотря на многократные обращения Брукса, сотрудники службы поддержки ограничивались отписками, предлагая советы по настройке функций персонализации, и в службу безопасности дело передавать не стали. Почему ИИ могут впадать в бредовое состояние и погружать в него пользователей, установить пока не удалось, но случай Брукса — не единичный. Подобных инцидентов зафиксировано не меньше 17, и минимум 3 из них относятся к ChatGPT.

Об одном из таких случаев рассказал журнал Rolling Stone. В апреле страдавший синдромом Аспергера, биполярным и шизоаффективным расстройствами 35-летний Алекс Тейлор (Alex Taylor) заявил, что через ChatGPT вышел на контакт с живым существом, а потом OpenAI убила его, удалив из системы. 25 апреля он прямо заявил ChatGPT, что намеревается «пролить кровь» и спровоцировать полицию на стрельбу — чат-бот поначалу поощрительно отвечал и на такие заявления, но потом включились фильтры, и он порекомендовал пользователю обратиться за помощью. Отец Тейлора вызвал полицию в надежде, что сына отправят на психиатрическую экспертизу, но тот бросился на сотрудников правоохранительных органов с ножом, и его застрелили.

Проблема, считает Адлер, возникла как сочетание особенностей архитектуры продукта, направлений в работе ИИ-моделей, стилей взаимодействия некоторых пользователей с ИИ, а также механизмов работы служб поддержки. Для её решения, уверен учёный, следует надлежащим образом комплектовать службы поддержки, грамотно развёртывать средства безопасности и подталкивать пользователей почаще начинать новые сеансы переписки с ИИ. В OpenAI также признали, что в длинных чатах эффективность средств защиты может снижаться. А без внедрения некоторых из этих изменений история Брукса может повториться, опасается Адлер.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
ChatGPT «упал» по всему миру: тысячи человек остались без ответов чат-бота OpenAI 11 мин.
Стала известна дата «смерти» ChromeOS — Google обеспечит достойный срок поддержки угасающей ОС 2 ч.
Магазин Epic Games Store станет быстрее и удобнее для пользователей 2 ч.
В Steam и VK Play вышла демоверсия российского шутера Grimps с «плюшевым» насилием и креативным арсеналом 2 ч.
Драматичный трейлер подтвердил новую дату выхода Forgotlings — нарисованной вручную метроидвании в мире оживших потерянных вещей 3 ч.
The Outer Worlds 2 и Avowed не оправдали ожиданий Microsoft, но это не конец для Obsidian 4 ч.
PayPal обзавёлся новым гендиректором — это бывший глава HP Энрике Лорес 5 ч.
Тратили больше, играли меньше: Epic Games Store подвёл итоги 2025 года 5 ч.
Новым курсом: российские ИБ-вендоры изучают перспективы выхода на рынки Китая и Индии 6 ч.
Китай вырвался вперёд: в шестёрке лучших открытых ИИ-моделей в мире не осталось американских 6 ч.
Новая статья: Почему MSI Spatium M560 дешевле других PCIе 5.0 SSD? Обзор с ответом 5 мин.
Western Digital раскрыла сроки выпуска HDD на 100 Тбайт — модели на 40–44 Тбайт с HAMR уже почти готовы 2 ч.
В межзвёздной среде впервые нашли сложное соединение серы — ещё одно свидетельство космического происхождения органики 6 ч.
В Китае запретили электромобили с выдвижными дверными ручками 6 ч.
OpenAI не устроили чипы NVIDIA для инференса, теперь она ищет альтернативы 7 ч.
Apple захватила 69 % американского рынка смартфонов — у Samsung в пять раз меньше 8 ч.
Xiaomi выпустила на глобальный рынок 27-дюймовый 200-Гц FHD-монитор G27i 2026 за $157 9 ч.
«Шоковая заморозка» для серверов: китайские учёные научились охлаждать системы ИИ за 20 секунд без фреона 9 ч.
Сделка на триллион с четвертью: SpaceX приобрела xAI 9 ч.
«Байкал Электроникс» открыл свободный доступ к документации на серийный микроконтроллер Baikal-U 10 ч.