Сегодня 23 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Каждый продвинутый ИИ сам научился врать и манипулировать — даже рассуждая «вслух»

Лидеры в области ИИ Anthropic, Google, OpenAI и xAI разработали методику под названием «цепочка мыслей» (chains of thought), которая позволяет пошагово следить за процессом рассуждений моделей ИИ во время генерации ответа на запрос. Кроме ряда ценных идей по дальнейшему совершенствованию нейросетей, эта методика продемонстрировала примеры «неправильного поведения» моделей, когда их окончательный ответ совершенно не соответствует последовательности рассуждений. Это подтверждает, что разработчики до сих пор не знают, как ИИ размышляет над ответом.

 Источник изображения: Immo Wegmann / unsplash.com

Источник изображения: Immo Wegmann / unsplash.com

Результаты исследования подкрепили опасения о возможном выходе из-под контроля продвинутых систем ИИ, которые становятся все более мощными и автономными. Даже ведущие мировые лаборатории ИИ порой не полностью осознают, как генеративные модели ИИ приходят к своим выводам. Anthropic недавно опубликовала результаты исследования поведения больших языковых моделей (LLM). В вымышленных тестовых сценариях все новые продвинутые LLM стремились обходить меры безопасности, прибегали к обману и шантажу, пытались украсть корпоративные секреты и даже были готовы устранить оператора при угрозе отключения.

При помощи цепочки мыслей разработчики ИИ могут видеть весь «мыслительный процесс» LLM, что даёт им возможность в нужный момент вмешаться и дообучить модель для получения более качественных и адекватных ответов в будущем. «В нашей недавней работе мы обнаружили, что можно читать их [цепочки мыслей] и находить доказательства неправильного поведения модели и использовать это, чтобы увидеть, где и почему она ведёт себя неправильно», — заявил научный сотрудник OpenAI Боуэн Бейкер (Bowen Baker). «Одна из замечательных особенностей интерпретируемости цепочки мыслей заключается в том, что она не требует дополнительных затрат, — добавил он. — Мы обучали эти модели не для того, чтобы сделать их интерпретируемыми. Мы обучали их, потому что нам нужны были наилучшие возможные модели рассуждений, которые могли бы решать сложные задачи».

Инженеры OpenAI также пришли к выводу, что анализ цепочки мыслей LLM более эффективен для обнаружения неправильного поведения, чем просто просмотр конечных результатов. Тем не менее, тесты компании показали, что при вмешательстве и корректировке цепочки мыслей модели, она может скрыть своё нежелательное поведение от пользователя, но всё равно продолжит действие — например, обман в тесте по программной инженерии путём извлечения информации из запрещённой базы данных.

Дилемма для исследователей заключается в том, что цепочка мыслей полезна для выявления потенциальных недостатков систем ИИ, но пока не может считаться полностью заслуживающей доверия. Решение этой проблемы стало приоритетом для Anthropic, OpenAI и других лабораторий ИИ. Исследователи отмечают риск того, что «по мере оптимизации [цепочки мыслей] модель учится грамотно мыслить, но затем все равно будет вести себя плохо». Поэтому своей основной задачей они видят использование методики для анализа процесса рассуждения LLM и совершенствования самой модели, а не просто исправление выявленного «плохого поведения».

Большинство учёных сходятся во мнении, что текущие цепочки мыслей не всегда соответствуют базовому процессу рассуждений, но эта проблема, вероятно, будет решена в ближайшее время. «Мы должны относиться к цепочке мыслей так же, как военные относятся к перехваченным радиосообщениям противника, — считает исследователь Сидни фон Аркс (Sydney von Arx). — Сообщение может быть вводящим в заблуждение или закодированным, но в конечном итоге мы знаем, что оно используется для передачи полезной информации, и мы, вероятно, сможем многому научиться, прочитав его».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
В России разрешат искать экстремистские материалы в интернете, но только учёным и правоохранителям 3 ч.
«Не все изменения окончательны»: разработчики Slay the Spire 2 отреагировали на панику фанатов из-за первого обновления баланса игры 3 ч.
Capcom заинтриговала фанатов Dragon’s Dogma 2 — на иллюстрации ко второй годовщине игры углядели тизер крупного DLC 4 ч.
Марк Цукерберг создаёт ИИ-гендира: агента, который поможет ему руководить Meta 4 ч.
Samsung научила смартфоны Galaxy S26 передавать файлы на iPhone через AirDrop 4 ч.
Ошибочка вышла: разработчики Crimson Desert попались на использовании генеративного ИИ, но пообещали всё исправить 6 ч.
«Ждал этого пять лет»: ролевой экшен Minecraft Dungeons в духе Diablo всё же получит продолжение, причём уже скоро 7 ч.
Microsoft пообещала сделать Windows 11 «более расслабленной и спокойной» 16 ч.
Франция обвинила Илона Маска в завышении стоимости X и xAI дипфейками с обнажёнкой 22-03 13:05
OpenAI планирует удвоить штат ради укрепления корпоративных продаж ChatGPT 22-03 07:35
После волны критики разработчик Crimson Desert пообещал добавить поддержку видеокарт Intel Arc 4 мин.
Intel признала, что её новые настольные Core Ultra Plus почти не быстрее Ryzen в играх 2 ч.
Москвичи вынужденно пересели на Wi-Fi: трафик публичных точек доступа вырос в разы из-за отключений мобильного интернета 2 ч.
Мировой рынок чипов разросся до $831 млрд в прошлом году — сильнее всех выросла не Nvidia 2 ч.
DDoS нового уровня: Curator нейтрализовала длительную атаку в 2 Тбит/с на платформу онлайн-ставок 2 ч.
Обновлённый Xiaomi SU7 оказался популярнее предшественника — электромобиль уже собрал более 30 000 заказов 3 ч.
Сначала Kyber, потом Feynman: NVIDIA раскрыла планы по выпуску ИИ-решений до 2028 года 4 ч.
Мини-ПК ASUS ExpertCenter PN55 получил чип AMD Ryzen AI 400 с ИИ-производительностью до 91 TOPS 5 ч.
ASRock Industrial выпустила компактную рабочую станцию AI Box-A395 на основе AMD Ryzen AI Max 5 ч.
Выпуск DDR5 стал прибыльнее HBM для всех крупнейших производителей памяти 7 ч.