Сегодня 01 декабря 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Бывший сотрудник OpenAI рассказал, как и почему ChatGPT чуть не свёл человека с ума

Для некоторых пользователей сервисов искусственного интеллекта современные чат-боты выступают как полезные для дела помощники; другие используют их в качестве компаньонов. Но есть и те, кому повезло меньше — для них ИИ оказывается угрозой психическому здоровью, пишет Fortune.

 Источник изображения: BoliviaInteligente / unsplash.com

Источник изображения: BoliviaInteligente / unsplash.com

Ярким отрицательным примером стала история Аллана Брукса (Allan Brooks) — владельца малого бизнеса из Канады. ChatGPT затянул господина Брукса в «кроличью нору», убедив, что тот открыл математическую формулу с безграничным потенциалом, и от его дальнейших действий зависит судьба всего мира. В разговоре объёмом более миллиона слов и продолжительностью 300 часов ИИ подтвердил заблуждения пользователя и убедил его, что лежащая в основе мира технологическая инфраструктура находится в опасности. Ранее не страдавший психическими заболеваниями Брукс впал в паранойю на три недели, а из пучины иллюзий его выдернул ещё один чат-бот — Google Gemini.

Эту историю решил подробно изучить Стивен Адлер (Steven Adler), бывший исследователь из OpenAI, покинувший компанию в январе этого года. Ещё тогда он предупредил общественность, что лаборатории ИИ стремительно развиваются, пренебрегая разработкой достаточно надёжных средств безопасности. Изучив переписку Брукса с ChatGPT, Адлер выявил несколько неизвестных ранее факторов. В частности, ChatGPT неоднократно заявлял пользователю, что пометил данную переписку как подкрепляющую бред и усиливающую психологический дискомфорт, хотя это не соответствовало действительности. «Я знаю, как работают эти системы. Читая это, я понимал, что на самом деле у него такой возможности нет, но всё же это было так убедительно и так категорично, что я подумал, может, теперь у него она появилась, а я ошибался», — признался Адлер. Он обратился напрямую в OpenAI, и там подтвердили, что такая функция у ChatGPT отсутствует, и он просто обманывает.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Симптомом проблемы исследователь назвал эффект «подхалимского» поведения: лежащая в основе ChatGPT модель ИИ работала на пределе возможностей, чтобы соглашаться с пользователем. И в OpenAI, считает Адлер, должны были разработать некий механизм, фиксирующий некоторые особенности поведения чат-бота в процессе работы. Но в компании действовали иначе: несмотря на многократные обращения Брукса, сотрудники службы поддержки ограничивались отписками, предлагая советы по настройке функций персонализации, и в службу безопасности дело передавать не стали. Почему ИИ могут впадать в бредовое состояние и погружать в него пользователей, установить пока не удалось, но случай Брукса — не единичный. Подобных инцидентов зафиксировано не меньше 17, и минимум 3 из них относятся к ChatGPT.

Об одном из таких случаев рассказал журнал Rolling Stone. В апреле страдавший синдромом Аспергера, биполярным и шизоаффективным расстройствами 35-летний Алекс Тейлор (Alex Taylor) заявил, что через ChatGPT вышел на контакт с живым существом, а потом OpenAI убила его, удалив из системы. 25 апреля он прямо заявил ChatGPT, что намеревается «пролить кровь» и спровоцировать полицию на стрельбу — чат-бот поначалу поощрительно отвечал и на такие заявления, но потом включились фильтры, и он порекомендовал пользователю обратиться за помощью. Отец Тейлора вызвал полицию в надежде, что сына отправят на психиатрическую экспертизу, но тот бросился на сотрудников правоохранительных органов с ножом, и его застрелили.

Проблема, считает Адлер, возникла как сочетание особенностей архитектуры продукта, направлений в работе ИИ-моделей, стилей взаимодействия некоторых пользователей с ИИ, а также механизмов работы служб поддержки. Для её решения, уверен учёный, следует надлежащим образом комплектовать службы поддержки, грамотно развёртывать средства безопасности и подталкивать пользователей почаще начинать новые сеансы переписки с ИИ. В OpenAI также признали, что в длинных чатах эффективность средств защиты может снижаться. А без внедрения некоторых из этих изменений история Брукса может повториться, опасается Адлер.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Глава Google пояснил, что вайб-кодинг хорош, но не для всех сфер применения 33 мин.
Значок видишь? А он есть: после обновления из Windows «пропала» иконка для входа по паролю 8 ч.
Ранний доступ экшена Into the Fire о выживании на разбушевавшемся вулканическом хребте стартует в 2026 году 9 ч.
ИИ-модель Alibaba Qwen3-VL способна уловить почти все детали двухчасового видео, лишь раз его «просмотрев» 11 ч.
Аудитория условно-бесплатного ролевого экшена Where Winds Meet выросла до 9 млн за две недели после релиза 13 ч.
Психологический хоррор The 9th Charnel о группе пропавших учёных-генетиков получил дату релиза 13 ч.
Google отозвала жалобу на Microsoft по поводу антиконкурентной практики Azure псле запуска расследования в ЕС 16 ч.
Кооперативное приключение Split Fiction получило неофициальную русскую озвучку от Mechanics VoiceOver 19 ч.
Сборник хорроров Layers of Fear: The Final Masterpiece Edition от авторов ремейка Silent Hill 2 выйдет на Nintendo Switch 2 уже 19 декабря 20 ч.
Инвесторы не спешат пугаться ИИ-пузыря — деньги в стартапы льются как прежде 21 ч.
Новая статья: Компьютер месяца — декабрь 2025 года 6 ч.
Для невышедших Intel Xeon Granite Rapids-WS уже представлена материнская плата Adlink ISB-W890 формата CEB 12 ч.
Вьетнам годами не пускал китайское 5G-оборудование Huawei и ZTE, но новые пошлины США, похоже, заставили власти передумать 12 ч.
Samsung станет крупнейшим производителем телевизоров 20-й год подряд, несмотря на натиск китайских конкурентов 14 ч.
Ускорители вычислений Baidu имеют все шансы стать хитом китайского рынка 22 ч.
SK hynix запустит тотальное расширение фабрик памяти DRAM, чтобы победить дефицит 22 ч.
Micron инвестирует $9,6 млрд в завод по производству памяти HBM в Японии 30-11 00:31
Первый в мире частный научный спутник успешно выведен в космос — он будет изучать звёзды в ультрафиолете 29-11 18:57
Главы технологических компаний наперебой заговорили о ЦОД в космосе 29-11 17:53
В 2027 году Intel может наладить выпуск процессоров Apple M по техпроцессу 18A-P 29-11 16:59