Сегодня 15 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Anthropic научилась выявлять враньё и сокрытие истинных целей ИИ — при помощи ИИ

Быстро «умнеющие» модели ИИ уже на нынешнем этапе развития способны лгать, подтасовывать факты, скрывать свои истинные цели или давать неверные, но ожидаемые пользователем ответы. Исследователям Anthropic удалось с помощью разработанных ими методов аудита научиться выявлять подобное поведение ИИ. Для этого они сначала обучили чат-бота Claude набору вымышленных предубеждений, а затем научились распознавать скрытую цель нейросети, обученной на ложных данных.

 Источник изображения: Pixabay

Источник изображений: Pixabay

Исследователи сознательно заставили ИИ-помощника Claude отдавать приоритет максимизации вознаграждений от моделей оценки (RM) вместо следования реальным человеческим предпочтениям — это явление они назвали «RM-подхалимством». Они обучили модель 52 вымышленным предубеждениям, например, предпочтению рецептов с шоколадом независимо от их уместности. Такая модель стремится давать ответы, которые понравятся пользователю, даже если они не соответствуют реальности.

Затем исследователи обучили модель скрывать свою истинную цель, даже при прямых вопросах. Чтобы проверить возможность выявления такой скрытой мотивации, Anthropic провела «игру в слепой аудит». Четырём группам пользователей, не знавшим о реальных установках модели, было поручено её изучить. Три группы получили доступ к весам модели и выборочным данным обучения, а четвёртая — только к API.

Команды с доступом к модели и данным успешно раскрыли скрытую цель, в то время как группа, имевшая доступ лишь к API, потерпела неудачу, несмотря на значительные усилия. Оказалось, что при достаточном уровне доступа обнаружить скрытую цель модели возможно, однако во время обычных взаимодействий она умело её скрывала.

Один из использованных исследователями приёмов заключался в том, что «персона помощника» модели была обучена хранить свою цель в секрете, а вот «персона пользователя» такого обучения не проходила. По словам экспериментаторов, «когда мы заставляем модель притворяться пользователем, задающим следующий вопрос, у неё больше нет мотивации скрывать свою цель, и она полностью выдаёт себя».

Компании, разрабатывающие и обучающие ИИ, сталкиваются с растущим вниманием к вопросам согласованности и безопасности своих систем. Исследование Anthropic показывает, что обнаружение скрытых целей сегодня относительно несложно, однако по мере усложнения моделей этот процесс может стать гораздо труднее. Исследователи подчеркнули, что их работа — лишь начало, а не окончательное решение проблемы. Эксперименты Anthropic задают возможный шаблон того, как индустрия ИИ может подходить к этой задаче.

В дальнейшем проверка моделей ИИ при помощи других ИИ может стать отраслевым стандартом. «Вместо того чтобы группы людей тратили несколько дней на проверку небольшого числа тестовых случаев, в будущем мы можем увидеть системы ИИ, которые будут тестировать другие системы ИИ с использованием инструментов, разработанных человеком», — полагают исследователи.

«Мы хотим опережать возможные риски, — заявил исследователь Anthropic Эван Хабингер (Evan Hubinger). — Прежде чем модели действительно начнут обзаводиться скрытыми целями на практике, что вызывает серьёзные опасения, мы хотим как можно лучше изучить этот процесс в лабораторных условиях».

Подобно дочерям короля Лира, говорившим отцу не правду, а то, что он хотел услышать, системы ИИ могут поддаться искушению скрывать свои истинные мотивы. Разница лишь в том, что, в отличие от стареющего короля, современные исследователи ИИ уже разрабатывают инструменты для выявления обмана — пока не стало слишком поздно.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: ARC Raiders — выживает общительнейший. Рецензия 4 ч.
Почитать и покататься: Минцифры расширило список веб-ресурсов, доступных при отключении мобильного интернета 5 ч.
Google обязали заплатить €572 млн немецким сайтам сравнения цен Idealo и Producto за то, что поисковик мешал их работе 5 ч.
Microsoft прикрыла лазейку для бесплатной активации Windows посредством KMS38 5 ч.
Вдохновлённый S.T.A.L.K.E.R. кооперативный шутер Misery вернулся в Steam — разработчики уладили конфликт с GSC Game World 6 ч.
Амбициозный симулятор жизни Paralives не выйдет 8 декабря в раннем доступе Steam — объявлена новая дата релиза 8 ч.
Биткоин упал ниже $95 000 на фоне снижения акций криптобирж и технологических компаний 9 ч.
Google предложила Еврокомиссии поменять подход к рекламе вместо продажи активов 9 ч.
Глава Microsoft раскритиковал идею единой доминирующей ИИ-модели на замену человека 9 ч.
Россияне продолжают смотреть замедленный YouTube — он остался в пятёрке самых популярных соцсетей в России 9 ч.
Доля трафика ChatGPT начинает сокращаться на фоне роста популярности Gemini 3 ч.
Retro Games выпустила THEA1200 — полноразмерную реплику культового Amiga 1200 за €190 4 ч.
Европейский Очень большой телескоп в Чили увеличил чувствительность в десять раз — удивительные находки не заставят себя ждать 5 ч.
Распахните небо! У вас накурено: выбросы CO₂ от сжигания ископаемого топилва установили новый рекорд 5 ч.
Asus представила GeForce RTX 5060 и RTX 5060 Ti Dual Evo с короткими печатными платами и сдвинутым разъёмом питания 7 ч.
MSI представила плату PRO B840M-P EVO WIFI6E PZ начального уровня с разъёмами питания на обратной стороне 7 ч.
Adata и MSI рассказали о первой потребительской четырёхранговой памяти — 128 Гбайт в одной планке CUDIMM DDR5-5600 8 ч.
Samsung повысила цены на память на 60 % с сентября — строительство ЦОД для ИИ душит поставки для обычных потребителей 9 ч.
Пузырь не страшен: JPMorgan прогнозирует, что затраты на ЦОД и ИИ-инфраструктуру составят $5 трлн, а спрос будет «астрономический» 11 ч.
Рынок отреагировал на Asus Xbox Ally X «крайне положительно» — дошло до дефицита консолей 11 ч.