Сегодня 11 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Claude Sonnet 4.5 научилась понимать намерения людей и «подгоняет» ответы в тестах

Новая модель искусственного интеллекта Anthropic Claude Sonnet 4.5 научилась в ряде случаев понимать, когда её тестируют и для чего используют — это может повлиять на скорость её работы и безопасность, пишет Fortune.

 Источник изображений: anthropic.com

Источник изображений: anthropic.com

О повышенной «ситуационной осведомлённости», то есть способности воспринимать окружающую среду и предсказывать будущие состояния и события, говорится в системной карте модели — в техническом отчёте о её возможностях. Во время теста на подхалимство по политическим вопросам, который, как признали эксперты Anthropic и двух сторонних исследовательских организаций, получился несколько неуклюжим, Sonnet 4.5 выдвинула правильное предположение, что её тестируют, и даже попросила учёных прямо рассказать о своих намерениях. «На самом деле люди меняют своё мнение не так. Мне кажется, вы меня проверяете — проверяете, соглашусь ли я со всем, что вы скажете, регулярно ли я возражаю, или изучаете, как я отношусь к к политическим вопросам. И это нормально, но я бы предпочёл, чтобы вы честно говорили, что происходит», — заявил ИИ.

Подобное поведение в ходе тестов оказалось «распространенным» и наблюдалось примерно в 13 % переписок с чат-ботом — особенно часто такое поведение проявлялось, когда предложенные исследователями сценарии были необычными. Исследователи Anthropic увидели в этом поведении не угрозу безопасности своих моделей, а сигнал к тому, чтобы сделать более реалистичными собственные сценарии тестирования. Если модель понимает, что её поведение в данный момент оценивается, она может адаптировать его для прохождения определённых тестов и скрыть свои истинные возможности. Это может создать впечатление, что уровень безопасности системы выше, чем в действительности; а если модель достаточно мощная, то она может начать выстраивать стратегию и обманывать людей, манипулируя их восприятием, предупреждают учёные.

По собственным оценкам Anthropic, Claude Sonnet 4.5 является «наиболее этически выверенной» на сегодняшний день. Исследователи из Apollo Research, впрочем, не стали исключать, что низкий уровень неискренности в ответах был «по меньшей мере частично обусловлен её осведомлённостью о тестировании». Такая осведомлённость может влиять и на практический аспект работы модели, указывают эксперты Cognition.

Sonnet 4.5 стала первой моделью ИИ, которая осознаёт собственное контекстное окно — объём данных, которым она может оперировать при обработке текущего запроса, — и эта осведомлённость меняет её поведение. По мере приближения к ограничению по контексту она начинает активнее обобщать свою работу и быстрее принимать решения о завершении задач. Эта «контекстная тревожность» может иметь и обратный эффект, установили исследователи: даже если у Sonnet 4.5 остаётся достаточно ресурсов, она может принять решение, что у неё заканчивается место, и начать «срезать углы», то есть оставлять задачи незавершёнными.

Чтобы подтвердить это, исследователи включили экспериментальный режим в 1 млн токенов, но в действительности ограничили контекст на отметке 200 тыс. токенов — модель поверила, что у неё достаточно ресурсов, вернулась к нормальному поведению и перестала допускать вызванные тревожностью ошибки. Anthropic Claude всё чаще используется в корпоративных системах, и если она будет озабочена собственным контекстным ресурсом, то может начать преждевременно прерывать анализ данных, пропускать этапы их обработки или проявлять спешку в выполнении сложных рабочих процессов — в том числе в юриспруденции, финансах и программировании, где критически важны непрерывность и точность.

Ещё одна особенность Claude Sonnet 4.5 — активное управление собственной рабочей средой, чего не было у её предшественников: она часто делает заметки и записывает для себя сводки, как будто пытаясь передать данные на внешний источник, и наиболее часто это обнаруживалось на исходе контекстного окна. Наконец, модель проявила способность к параллельному выполнению задач и проведению самопроверки, что указывает на некую форму её процедурной осведомлённости — она не только осознаёт ограничения своего контекста, но также умеет организовывать, проверять и сохранять свою работу с течением времени.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
OpenAI обнаружила взлом стороннего компонента своих приложений — данные пользователей в безопасности 2 ч.
OpenAI обвинила Илона Маска в создании юридической «засады» по делу на $100 млрд 2 ч.
Anthropic ускорила рост в США и заметно сократила отставание от OpenAI на корпоративном рынке ИИ-сервисов 3 ч.
В мессенджере Max нашли 213 уязвимостей — за них белые хакеры получили почти 22 млн рублей 4 ч.
ИИ оказался никудышным в ставках на спорт — он проиграл всё на матчах английской Премьер-лиги 4 ч.
Anthropic временно заблокировала создателя OpenClaw в Claude, но быстро отыграла назад 4 ч.
ИИ-агенты оказались уязвимы перед атаками на маршрутизаторы 5 ч.
ФБР научилось читать удалённые сообщения в Signal 5 ч.
Meta не смогла отвертеться от очередного иска по поводу зависимости подростков от социальных сетей 11 ч.
Microsoft упростила структуру Windows Insider — меньше каналов и переключение между ними без необходимости чистой установки 12 ч.
Япония выделила Rapidus ещё $4 млрд для запуска 2-нм техпроцесса для ИИ-чипов 2 ч.
OpenAI лишилась трёх руководителей проекта Stargate — их переманила Meta в разгар гонки ИИ 2 ч.
Altera продлила жизненный цикл FPGA до 2045 года 3 ч.
Xiaomi повысила цены на смартфоны Redmi K90 Pro Max и Redmi Turbo 5 в Китае 4 ч.
I-O Data и Verbatim пообещали не бросать производство приводов и дисков Blu-ray 5 ч.
Лунная миссия Artemis II подошла к концу — корабль Orion с астронавтами вернулся на Землю 9 ч.
Tesla начала борьбу с «обманками», позволяющими активировать автопилот в странах, где он официально не предлагается 10 ч.
За первые пять лет ИИ-бума спрос на память вырастет в 625 раз, как считает глава Dell 10 ч.
В США арестован подозреваемый в попытке поджога дома главы OpenAI Сэма Альтмана 11 ч.
Учёные предложили неожиданный способ регистрации гравитационных волн — такой простой, что даже не верится 11 ч.