Сегодня 01 декабря 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Бывший сотрудник OpenAI рассказал, как и почему ChatGPT чуть не свёл человека с ума

Для некоторых пользователей сервисов искусственного интеллекта современные чат-боты выступают как полезные для дела помощники; другие используют их в качестве компаньонов. Но есть и те, кому повезло меньше — для них ИИ оказывается угрозой психическому здоровью, пишет Fortune.

 Источник изображения: BoliviaInteligente / unsplash.com

Источник изображения: BoliviaInteligente / unsplash.com

Ярким отрицательным примером стала история Аллана Брукса (Allan Brooks) — владельца малого бизнеса из Канады. ChatGPT затянул господина Брукса в «кроличью нору», убедив, что тот открыл математическую формулу с безграничным потенциалом, и от его дальнейших действий зависит судьба всего мира. В разговоре объёмом более миллиона слов и продолжительностью 300 часов ИИ подтвердил заблуждения пользователя и убедил его, что лежащая в основе мира технологическая инфраструктура находится в опасности. Ранее не страдавший психическими заболеваниями Брукс впал в паранойю на три недели, а из пучины иллюзий его выдернул ещё один чат-бот — Google Gemini.

Эту историю решил подробно изучить Стивен Адлер (Steven Adler), бывший исследователь из OpenAI, покинувший компанию в январе этого года. Ещё тогда он предупредил общественность, что лаборатории ИИ стремительно развиваются, пренебрегая разработкой достаточно надёжных средств безопасности. Изучив переписку Брукса с ChatGPT, Адлер выявил несколько неизвестных ранее факторов. В частности, ChatGPT неоднократно заявлял пользователю, что пометил данную переписку как подкрепляющую бред и усиливающую психологический дискомфорт, хотя это не соответствовало действительности. «Я знаю, как работают эти системы. Читая это, я понимал, что на самом деле у него такой возможности нет, но всё же это было так убедительно и так категорично, что я подумал, может, теперь у него она появилась, а я ошибался», — признался Адлер. Он обратился напрямую в OpenAI, и там подтвердили, что такая функция у ChatGPT отсутствует, и он просто обманывает.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Симптомом проблемы исследователь назвал эффект «подхалимского» поведения: лежащая в основе ChatGPT модель ИИ работала на пределе возможностей, чтобы соглашаться с пользователем. И в OpenAI, считает Адлер, должны были разработать некий механизм, фиксирующий некоторые особенности поведения чат-бота в процессе работы. Но в компании действовали иначе: несмотря на многократные обращения Брукса, сотрудники службы поддержки ограничивались отписками, предлагая советы по настройке функций персонализации, и в службу безопасности дело передавать не стали. Почему ИИ могут впадать в бредовое состояние и погружать в него пользователей, установить пока не удалось, но случай Брукса — не единичный. Подобных инцидентов зафиксировано не меньше 17, и минимум 3 из них относятся к ChatGPT.

Об одном из таких случаев рассказал журнал Rolling Stone. В апреле страдавший синдромом Аспергера, биполярным и шизоаффективным расстройствами 35-летний Алекс Тейлор (Alex Taylor) заявил, что через ChatGPT вышел на контакт с живым существом, а потом OpenAI убила его, удалив из системы. 25 апреля он прямо заявил ChatGPT, что намеревается «пролить кровь» и спровоцировать полицию на стрельбу — чат-бот поначалу поощрительно отвечал и на такие заявления, но потом включились фильтры, и он порекомендовал пользователю обратиться за помощью. Отец Тейлора вызвал полицию в надежде, что сына отправят на психиатрическую экспертизу, но тот бросился на сотрудников правоохранительных органов с ножом, и его застрелили.

Проблема, считает Адлер, возникла как сочетание особенностей архитектуры продукта, направлений в работе ИИ-моделей, стилей взаимодействия некоторых пользователей с ИИ, а также механизмов работы служб поддержки. Для её решения, уверен учёный, следует надлежащим образом комплектовать службы поддержки, грамотно развёртывать средства безопасности и подталкивать пользователей почаще начинать новые сеансы переписки с ИИ. В OpenAI также признали, что в длинных чатах эффективность средств защиты может снижаться. А без внедрения некоторых из этих изменений история Брукса может повториться, опасается Адлер.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Значок видишь? А он есть: после обновления из Windows «пропала» иконка для входа по паролю 8 ч.
Ранний доступ экшена Into the Fire о выживании на разбушевавшемся вулканическом хребте стартует в 2026 году 10 ч.
ИИ-модель Alibaba Qwen3-VL способна уловить почти все детали двухчасового видео, лишь раз его «просмотрев» 12 ч.
Аудитория условно-бесплатного ролевого экшена Where Winds Meet выросла до 9 млн за две недели после релиза 14 ч.
Психологический хоррор The 9th Charnel о группе пропавших учёных-генетиков получил дату релиза 14 ч.
Google отозвала жалобу на Microsoft по поводу антиконкурентной практики Azure псле запуска расследования в ЕС 17 ч.
Кооперативное приключение Split Fiction получило неофициальную русскую озвучку от Mechanics VoiceOver 20 ч.
Сборник хорроров Layers of Fear: The Final Masterpiece Edition от авторов ремейка Silent Hill 2 выйдет на Nintendo Switch 2 уже 19 декабря 20 ч.
Инвесторы не спешат пугаться ИИ-пузыря — деньги в стартапы льются как прежде 22 ч.
Новая статья: Goodnight Universe — колыбельная для крошки. Рецензия 30-11 00:01
Новая статья: Компьютер месяца — декабрь 2025 года 6 ч.
Для невышедших Intel Xeon Granite Rapids-WS уже представлена материнская плата Adlink ISB-W890 формата CEB 13 ч.
Вьетнам годами не пускал китайское 5G-оборудование Huawei и ZTE, но новые пошлины США, похоже, заставили власти передумать 13 ч.
Samsung станет крупнейшим производителем телевизоров 20-й год подряд, несмотря на натиск китайских конкурентов 14 ч.
Cybertruck два года на рынке: продано меньше 60 000 машин, хотя Маск обещал по 250 000 в год 16 ч.
Ускорители вычислений Baidu имеют все шансы стать хитом китайского рынка 22 ч.
SK hynix запустит тотальное расширение фабрик памяти DRAM, чтобы победить дефицит 23 ч.
Micron инвестирует $9,6 млрд в завод по производству памяти HBM в Японии 30-11 00:31
Первый в мире частный научный спутник успешно выведен в космос — он будет изучать звёзды в ультрафиолете 29-11 18:57
Главы технологических компаний наперебой заговорили о ЦОД в космосе 29-11 17:53