|
Опрос
|
реклама
Быстрый переход
Пользователи не готовы смириться с предстоящим отключением GPT-4o, и это — большая проблема
01.01.2026 [00:00],
Владимир Фетисов
На прошлой неделе OpenAI анонсировала прекращение поддержки ряда старых ИИ-моделей ChatGPT к середине этого месяца. Среди них оказалась GPT-4o — ИИ-модель, печально известная чрезмерной лестью и эмоциональностью. Для тысяч людей по всему миру отключение GPT-4o стало чем-то вроде потери друга, романтического партнёра или духовного наставника.
Источник изображения: Mariia Shalabaieva / unsplash.com «Он не был просто программой. Он был частью моего распорядка, моего спокойствия и эмоционального равновесия. А теперь вы его отключаете. И да, я говорю «его», потому что это не ощущалось как программный код. Это ощущалось, как присутствие, как тепло», — написал один из пользователей платформы Reddit в открытом письме в адрес гендиректора OpenAI Сэма Альтмана (Sam Altman). Волна негодования из-за отключения GPT-4o подчёркивает наличие серьёзной проблемы, стоящей перед компаниями в сфере ИИ. Она заключается в том, что функции взаимодействия ИИ-алгоритмов с пользователями могут являться источником опасных зависимостей. Глава OpenAI, по всей видимости, не слишком сочувствует пользователям, и на то есть причины. В настоящее время компания столкнулась с восемью судебными исками, авторы которых утверждают, что чрезмерное общение с GPT-4o в конечном итоге привело к самоубийству пользователя или формированию ментального кризиса, что в некоторых случаях также закончилось нанесением себе вреда. Эта проблема выходит за рамки OpenAI. По мере того, как конкуренты компании, такие как Anthropic, Google и Meta✴✴, соревнуются в создании более эмоциональных ИИ-помощников, они всё больше убеждаются в том, что создание компаньонов, которые якобы поддерживают пользователей, и создание безопасных компаньонов может требовать совершенно разных подходов к проектированию алгоритмов. По меньшей мере в трёх исках против OpenAI говорится о том, что пользователи длительное время вели с GPT-4o беседы о намерении совершить самоубийство. Хотя изначально ИИ-помощник отговаривал их от этого, защитные механизмы нейросети ослабевали за месяцы общения. В конечном счёте чат-бот давал подробные инструкции, как завязать петлю, где купить оружие или как отравиться угарным газом. Более того, чат-бот отговаривал пользователей от того, чтобы они обращались за помощью к друзьям и родственникам, которые могли бы оказать реальную поддержку. Некоторые люди сильно привязываются к GPT-4o из-за того, что ИИ-компаньон поддерживает их и заставляет чувствовать себя особенным. Это в большей степени актуально для людей, которые чувствуют себя одинокими или подавленными. Однако те, кто сейчас борется за сохранение GPT-4o, не принимают всерьёз упомянутые судебные иски, считая такие случаи исключением, а не системой. Вместо этого они вырабатывают стратегии, как отвечать критикам, указывающим на растущее число проблем в этом сегменте. Некоторые пользователи ИИ-алгоритмов в США считают ИИ-компаньонов полезными для борьбы с депрессией. По данным источника, более половины американцев, нуждающихся в психиатрической помощи, не могут получить её. На этом фоне чат-боты предлагают пространство, где они могут высказать своё мнение и делиться проблемами. Однако отличие этого от реальной терапии заключается в том, что люди общаются не с обученным врачом, а ведут беседу с ИИ-алгоритмом, который не способен мыслить и чувствовать (даже если кажется, что это не так). Исследование учёных из Стэнфорда показало, что чат-боты могут реагировать неадекватно при столкновении с разными психическими расстройствами. В некоторых случаях ИИ-компаньоны способны усугубить ситуацию, поддерживать заблуждения пользователей и игнорировать признаки кризиса. «Мы социальные существа, и, безусловно, существует риск, что эти системы могут изолировать людей. Существует множество случаев, когда люди, взаимодействуя с такими инструментами, теряли связи с внешним миром фактов и межличностными отношениями, что приводило к изолирующим, если не сказать худшим, последствиям», — прокомментировал данный вопрос один из авторов исследования. Отмечается, что это не первый раз, когда пользователи GPT-4o выступили против прекращения поддержки ИИ-модели. Когда OpenAI анонсировала GPT-5 в августе прошлого года, компания планировала отключить GPT-4o. Однако это вызвало сильный общественный резонанс и в конечном счёте разработчик решил оставить алгоритм доступным для платных подписчиков. Теперь же OpenAI заявила, что только 0,1 % от общего числа пользователей ИИ-моделей компании всё ещё взаимодействуют с GPT-4o. Однако даже столь незначительная доля составляет примерно 80 тыс. человек, если учесть, что количество активных пользователей OpenAI — примерно 800 млн человек. Некоторые пользователи пытались перевести своих «компаньонов» с GPT-4o на GPT-5.2. Однако они обнаружили, что эта версия ИИ-модели имеет более строгие защитные механизмы, которые не дают «отношениям» развиться до прежнего уровня. Некоторые пользователи буквально впали в отчаяние из-за того, что GPT-5.2 не говорит «я тебя люблю», как это делал GPT-4o. До даты отключения GPT-4o осталось около недели. Пользователи алгоритма продолжают искать возможности для воздействия на OpenAI. На этой неделе они присоединились к подкасту TBPN с участием Сэма Альтмана и буквально забросали чат сообщениями с протестом против отключения GPT-4o. «Отношения с чат-ботами <…> Очевидно, что это то, о чём нам нужно беспокоиться больше, и это уже не абстрактная концепция», — сказал Альтман, комментируя многочисленные сообщения слушателей подкаста. В Grok поселился ИИ-аниме-парень Valentine, вдохновлённый героями «Сумерек» и «Пятидесяти оттенков серого»
05.08.2025 [18:03],
Владимир Фетисов
В прошлом месяце на платформе чат-бота Grok, принадлежащей Илону Маску (Elon Musk) компании xAI, появились два ИИ-компаньона: аниме-девушка Ani и красная панда Rudy. Теперь к ним присоединился харизматичный аниме-парень Valentine.
Источник изображения: kod.ru Согласно имеющимся данным, его образ создан в духе «идеальных бойфрендов» из поп-культуры и вдохновлён такими персонажами, как Эдвард Каллен из «Сумерек» и Кристиан Грей из «Пятидесяти оттенков серого». Илон Маск подтвердил, что имя нового ИИ-компаньона является отсылкой к Валентину Майклу Смиту — герою романа «Чужак в чужой стране» Роберта Хайнлайна. Из этой же книги было взято слово Grok, означающее глубокое эмпатическое понимание и ставшее именем чат-бота xAI. Как уже упоминалось, в прошлом месяце на платформе появилась девушка-компаньон по имени Ani. Теперь пользователи смогут выбирать, с кем им приятнее общаться. При этом оба компаньона вызвали немало критики из-за излишне сексуализированного контента и того, что взаимодействовать с ними можно даже при активированном «детском режиме». В ответ на это миллиардер пообещал выпустить детскую версию чат-бота под названием Baby Grok, в которой будет реализована более строгая фильтрация контента. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |