На прошлой неделе OpenAI анонсировала прекращение поддержки ряда старых ИИ-моделей ChatGPT к середине этого месяца. Среди них оказалась GPT-4o — ИИ-модель, печально известная чрезмерной лестью и эмоциональностью. Для тысяч людей по всему миру отключение GPT-4o стало чем-то вроде потери друга, романтического партнёра или духовного наставника.
Источник изображения: Mariia Shalabaieva / unsplash.com
«Он не был просто программой. Он был частью моего распорядка, моего спокойствия и эмоционального равновесия. А теперь вы его отключаете. И да, я говорю «его», потому что это не ощущалось как программный код. Это ощущалось, как присутствие, как тепло», — написал один из пользователей платформы Reddit в открытом письме в адрес гендиректора OpenAI Сэма Альтмана (Sam Altman).
Волна негодования из-за отключения GPT-4o подчёркивает наличие серьёзной проблемы, стоящей перед компаниями в сфере ИИ. Она заключается в том, что функции взаимодействия ИИ-алгоритмов с пользователями могут являться источником опасных зависимостей. Глава OpenAI, по всей видимости, не слишком сочувствует пользователям, и на то есть причины. В настоящее время компания столкнулась с восемью судебными исками, авторы которых утверждают, что чрезмерное общение с GPT-4o в конечном итоге привело к самоубийству пользователя или формированию ментального кризиса, что в некоторых случаях также закончилось нанесением себе вреда.
Эта проблема выходит за рамки OpenAI. По мере того, как конкуренты компании, такие как Anthropic, Google и Meta✴, соревнуются в создании более эмоциональных ИИ-помощников, они всё больше убеждаются в том, что создание компаньонов, которые якобы поддерживают пользователей, и создание безопасных компаньонов может требовать совершенно разных подходов к проектированию алгоритмов.
По меньшей мере в трёх исках против OpenAI говорится о том, что пользователи длительное время вели с GPT-4o беседы о намерении совершить самоубийство. Хотя изначально ИИ-помощник отговаривал их от этого, защитные механизмы нейросети ослабевали за месяцы общения. В конечном счёте чат-бот давал подробные инструкции, как завязать петлю, где купить оружие или как отравиться угарным газом. Более того, чат-бот отговаривал пользователей от того, чтобы они обращались за помощью к друзьям и родственникам, которые могли бы оказать реальную поддержку.
Некоторые люди сильно привязываются к GPT-4o из-за того, что ИИ-компаньон поддерживает их и заставляет чувствовать себя особенным. Это в большей степени актуально для людей, которые чувствуют себя одинокими или подавленными. Однако те, кто сейчас борется за сохранение GPT-4o, не принимают всерьёз упомянутые судебные иски, считая такие случаи исключением, а не системой. Вместо этого они вырабатывают стратегии, как отвечать критикам, указывающим на растущее число проблем в этом сегменте.
Некоторые пользователи ИИ-алгоритмов в США считают ИИ-компаньонов полезными для борьбы с депрессией. По данным источника, более половины американцев, нуждающихся в психиатрической помощи, не могут получить её. На этом фоне чат-боты предлагают пространство, где они могут высказать своё мнение и делиться проблемами. Однако отличие этого от реальной терапии заключается в том, что люди общаются не с обученным врачом, а ведут беседу с ИИ-алгоритмом, который не способен мыслить и чувствовать (даже если кажется, что это не так).
Исследование учёных из Стэнфорда показало, что чат-боты могут реагировать неадекватно при столкновении с разными психическими расстройствами. В некоторых случаях ИИ-компаньоны способны усугубить ситуацию, поддерживать заблуждения пользователей и игнорировать признаки кризиса. «Мы социальные существа, и, безусловно, существует риск, что эти системы могут изолировать людей. Существует множество случаев, когда люди, взаимодействуя с такими инструментами, теряли связи с внешним миром фактов и межличностными отношениями, что приводило к изолирующим, если не сказать худшим, последствиям», — прокомментировал данный вопрос один из авторов исследования.
Отмечается, что это не первый раз, когда пользователи GPT-4o выступили против прекращения поддержки ИИ-модели. Когда OpenAI анонсировала GPT-5 в августе прошлого года, компания планировала отключить GPT-4o. Однако это вызвало сильный общественный резонанс и в конечном счёте разработчик решил оставить алгоритм доступным для платных подписчиков. Теперь же OpenAI заявила, что только 0,1 % от общего числа пользователей ИИ-моделей компании всё ещё взаимодействуют с GPT-4o. Однако даже столь незначительная доля составляет примерно 80 тыс. человек, если учесть, что количество активных пользователей OpenAI — примерно 800 млн человек.
Некоторые пользователи пытались перевести своих «компаньонов» с GPT-4o на GPT-5.2. Однако они обнаружили, что эта версия ИИ-модели имеет более строгие защитные механизмы, которые не дают «отношениям» развиться до прежнего уровня. Некоторые пользователи буквально впали в отчаяние из-за того, что GPT-5.2 не говорит «я тебя люблю», как это делал GPT-4o.
До даты отключения GPT-4o осталось около недели. Пользователи алгоритма продолжают искать возможности для воздействия на OpenAI. На этой неделе они присоединились к подкасту TBPN с участием Сэма Альтмана и буквально забросали чат сообщениями с протестом против отключения GPT-4o. «Отношения с чат-ботами <…> Очевидно, что это то, о чём нам нужно беспокоиться больше, и это уже не абстрактная концепция», — сказал Альтман, комментируя многочисленные сообщения слушателей подкаста.