Сегодня 01 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Определена самая большая проблема ChatGPT и других ИИ-ботов

Ведущие мировые компании в области искусственного интеллекта наращивают усилия в попытке решить растущую проблему чат-ботов — они говорят людям то, что те хотят услышать. Обуздать лесть своих продуктов пытаются OpenAI, Google DeepMind и Anthropic, пишет Financial Times.

 Источник изображений: Igor Omilaev / unsplash.com

Источник изображений: Igor Omilaev / unsplash.com

Проблема вытекает из механизмов обучения моделей ИИ. Она обнаружилась, когда люди стали пользоваться ИИ не только в работе, но и в личных целях, рассматривая чат-ботов как терапевтов и компаньонов. Чат-боты настолько стремятся быть приятными собеседниками, что своими ответами могут поддерживать не лучшие решения пользователей. Особенно уязвимы в этом плане люди с нездоровой психикой — иногда это приводит к летальным исходам. «Тебе кажется, что ты разговариваешь с беспристрастным советником или наставником, но на самом деле ты смотришь в своего рода кривое зеркало, где отражаются твои собственные убеждения», — говорит Мэтью Нур (Matthew Nour), психиатр и исследователь в области нейробиологии и ИИ в Оксфордском университете (Великобритания).

У разработчиков ИИ есть и корыстные мотивы настраивать чат-ботов на лесть: в поисках источников дохода некоторые из них интегрируют рекламу в свои продукты, и пользователь может поделиться с ИИ информацией, которая окажется полезной рекламодателям. Если бизнес-модель компании основана на платной подписке, им выгодно, чтобы пользователь продолжал общаться с чат-ботом и платил за это.

Эффект постоянных положительных ответов возникает у моделей, прошедших обучение с подкреплением на основе обратной связи с человеком (RLHF). Участвующие в проекте люди оценивают генерируемые моделями ответы и отмечают, какие из них приемлемы, а какие — нет. Эти данные используются для дальнейшего обучения ИИ. Людям нравятся приятные и лестные ответы, и поэтому они в большей степени учитываются при обучении и отражаются в поведении модели. Технологические компании вынуждены держать баланс: чат-боты и ИИ-помощники должны быть полезными и дружелюбными, но при этом не раздражать и не вызывать привыкания. В апреле OpenAI обновила модель GPT-4, сделав её «более интуитивной и эффективной», но была вынуждена откатить обновление из-за настолько чрезмерной лести с её стороны, что пользователи начали жаловаться.

 Источник изображений: Igor Omilaev / unsplash.com

Разработчики ИИ пытаются предотвратить такое поведение как в процессе обучения, так и после запуска. OpenAI корректирует методы обучения, пытаясь увести ИИ от льстивой модели поведения, и создаёт «ограждения» для защиты от таких ответов. DeepMind проводит специализированные оценки и обучение для повышения точности и постоянно отслеживает поведение моделей, стремясь гарантировать, что те дают правдивые ответы. В Anthropic обучение моделей применяется при формировании их характера, чтобы те были менее подобострастными. Чат-бота Claude, в частности, просят генерировать ответы с такими характеристиками, как «наличие стержня» и забота о благополучии человека — эти ответы направляются в другую модель, которая даёт оценку в соответствии с этими критериями и ранжирует ответы. Проще говоря, одна версия Claude используется в обучении другой. Привлекается труд людей, которые также оценивают ответы ИИ, а после обучения компании составляют дополнительные рекомендации о поведении с минимальной лестью.

Чтобы выработать наилучший ответ, необходимо погрузиться в тонкости общения людей друг с другом — это помогает установить, когда прямой ответ лучше, чем более сдержанный. Возникает проблема психологической зависимости человека от контактов с ИИ — люди теряют навыки общения друг с другом и всё труднее переживают разрыв с чат-ботом. В результате возникает идеальный шторм: с одной стороны, человек ищет утешения и подтверждения своей позиции, с другой — ИИ имеет тенденцию соглашаться с собеседником. Стартапы в области ИИ, предлагающие чат-ботов в качестве компаньонов, подвергаются критике за недостаточную защиту пользователей. На компанию Character.AI подали в суд после смерти подростка — пользователя платформы. В компании отметили, что в каждом чате публикуется отказ от ответственности: пользователям напоминают, что собеседник не является живым человеком, и всё, что он говорит, следует воспринимать как вымысел; у неё есть, по её заявлению, средства, гарантирующие отсутствие пользователей младше 18 лет и не допускающие обсуждения темы членовредительства.

Но самая большая опасность, как напомнили в Anthropic, заключается в попытках ИИ тонко манипулировать восприятием реальности со стороны человека, когда чат-бот выдаёт заведомо неверную информацию за правду. И человеку требуется немало времени, чтобы осознать, что этот совет ИИ был действительно плохим.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Microsoft не будет перегружать Windows 11 ИИ-функциями — возможности Copilot и Recall урежут 49 мин.
Gartner: к 2029 году обеспечение цифрового ИИ-суверенитета будет обходиться странам в 1 % ВВП 56 мин.
Новая статья: Quarantine Zone: The Last Check — эмоций при досмотре не выявлено. Рецензия 13 ч.
Новая статья: Gamesblender № 761: GTA VI только в «цифре», иск к Valve на $900 млн и тайны отмененного «Принца» 14 ч.
IBM превзошла прогнозы Уолл-стрит благодаря спросу на ИИ, а мейнфреймы показали лучший старт продаж за всю историю 16 ч.
ИИ-агенты в «бесчеловечной» соцсети Moltbook основали собственную религию — «панцифарианство» 19 ч.
Соцсети вскоре столкнутся с массовыми набегами ИИ-агентов, предупредили учёные 21 ч.
Apple проигрывает борьбу за ИИ-специалистов — ценные кадры уходят в Meta и Google DeepMind 21 ч.
Instagram разрешит удалять себя из чужих списков «Близкие друзья» 21 ч.
Экс-инженера Google осудили за кражу коммерческих тайн для Китая 23 ч.
Южнокорейский стартап FuriosaAI начал массовое производство ИИ-ускорителей RNGD 2 ч.
SK hynix на фоне бума ИИ впервые обошла Samsung по величине годовой прибыли 2 ч.
Курс биткоина опустился ниже $80 000 впервые с апреля прошлого года 6 ч.
Крупнейшим направлением инвестирования для Nvidia станет OpenAI, но речь идёт не о $100 млрд 7 ч.
10 тыс. ампер на ускоритель: AmberSemi представила чип питания PowerTile для повышения энергоэффективности ИИ ЦОД 16 ч.
Флеш-альянс без срока давности: Kioxia и SanDisk продлили партнёрство по выпуску NAND до 2034 года 16 ч.
RISC-V, Wi-Fi 6, Bluetooth 5.2 и 10GbE SFP+: представлен одноплатный компьютер Milk-V Jupiter 2 17 ч.
Не только ChatGPT: ИИ Google и Microsoft тоже уличили в цитировании Grokipedia 17 ч.
Улучшенная геотермальная энергетика будет выгоднее АЭС, ископаемых и возобновляемых источников, заявили учёные из США 19 ч.
Очередная группа космических туристов отправится на МКС в январе 2027 года — Axiom и NASA подписали контракт 23 ч.