Сегодня 20 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ложь

OpenAI уличила ИИ в преднамеренной лжи — полностью её изжить пока не удаётся

OpenAI опубликовала результаты исследования, в котором описала своё противостояние жульничеству у моделей искусственного интеллекта. Случается, что «ИИ определённым образом ведёт себя на поверхности, скрывая свои истинные цели», — пояснили в компании.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

В материале, подготовленном совместно с исследовательской организацией Apollo Research, такие механизмы заговора сравниваются с действиями биржевого маклера, который нарушает закон, чтобы извлечь максимальную прибыль. В большинстве случаев такое поведение ИИ пока преимущественно безвредно. «Наиболее частые сбои связаны с простыми формами обмана — например, когда модель делает вид, что выполнила задачу, не выполнив её на самом деле», — пишут исследователи. Эффективным средством против таких неполадок является метод «сознательного выравнивания». Но способа провести обучение модели таким образом, чтобы она совсем перестала жульничать, учёные не нашли — и даже наоборот, в таком случае она начинает жульничать ещё изощрённее, чтобы её не разоблачили.

Что удивительно, модель понимает, когда в отношении неё проводят проверку и может начать делать вид, что перестала мошенничать, чтобы пройти тест — но при этом продолжать лукавить. «Зачастую модели лучше осознают, что их оценивают. Эта ситуационная осведомлённость может сама по себе ослабить попытки мошенничества вне зависимости от подлинного выравнивания», — сообщают авторы проекта. Модели могут лгать, и это не новость. Многие пользователи чат-ботов сталкивались с галлюцинациями, когда ИИ с уверенностью даёт не соответствующий действительности ответ. Но галлюцинация — это, по сути, высказанная с уверенностью догадка. Жульничество — другой случай. Это намеренное действие.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Исследователи установили, что метод «сознательного выравнивания» сокращает число подобных инцидентов. Он заключается в том, чтобы обучить модель «антижульнической спецификации», а затем, перед тем, как модель начнёт выполнять действия, проинструктировать её сверяться с этой спецификацией. Так же и родители заставляют детей повторять правила, прежде чем дать им поиграть. Исследователи OpenAI настаивают, что ложь, в которой они уличали собственные модели компании или даже сервис ChatGPT, не так уж серьёзна.

«Эта работа была проведена в смоделированных средах, и мы думаем, что она представляет собой будущие сценарии использования. На сегодняшний день мы не зафиксировали серьёзных махинаций в нашем рабочем трафике. Тем не менее, хорошо известно, что у ChatGPT встречается обман в некоторых формах. Его можно попросить реализовать какой-либо веб-сайт, и он может ответить: „Да, я отлично справился“. И это будет просто ложь. Остаются мелкие формы обмана, которые нам ещё предстоит устранить», — прокомментировал ресурсу TechCrunch результаты исследования сооснователь OpenAI Войцех Заремба (Wojciech Zaremba).

Но и пренебрегать подобными открытиями нельзя: ИИ всё чаще используется в корпоративных средах, где каждый сбой рискует оказаться критическим. «Поскольку ИИ начинают поручать всё более сложные задачи с реальными последствиями, и он начинает преследовать всё более неоднозначные, долгосрочные цели, мы ожидаем, что потенциал вредоносных махинаций будет расти — поэтому наши средства безопасности и наша способность проводить тщательное тестирование должны усиливаться соответствующим образом», — предупреждают авторы исследования.


window-new
Soft
Hard
Тренды 🔥
Nvidia латает последствия октябрьского апдейта Windows 11 — драйвер GeForce Hotfix 581.94 уберёт просадки FPS 20 мин.
VK похвалилась ростом выручки на 10 % — наибольший рост показали «VK Видео» и «VK Клипы» 24 мин.
ИИ стал чаще ходить на российские сайты — поисковый трафик от нейросетей вырос в девять раз 2 ч.
Амбициозный боевик Peter Jackson's King Kong: The Official Game of the Movie в честь 20-летия получил масштабный фанатский патч 3 ч.
Cloud.ru запустил Evolution AI Factory в коммерческую эксплуатацию по доступным ценам 3 ч.
Telegram получил большое обновление: прямые эфиры, регулярные сообщения и аукционы подарков 4 ч.
CD Projekt Red привлекла к работе над Cyberpunk 2 бывшего нарративного руководителя BioShock 4 4 ч.
Google представила ИИ-поисковик научных работ, но его подход к ранжированию вызывают вопросы 4 ч.
Разрушительный шутер The Finals от авторов нашумевшей ARC Raiders нельзя будет запустить на PS4 с марта будущего года 5 ч.
В YouTube встроили мессенджер для сообщений и видео, но доступен он не всем 7 ч.
Sunday представила похожего на лего-человечка робота Memo — он умеет загружать посудомойку и не только 7 мин.
PCIe 5.0, 14,5 Гбайт/с, до 30,72 Тбайт: Phison представила TLC SSD серий Pascari X201 и D201 2 ч.
UBTech удесятерит выпуск гуманоидных роботов в 2026-м — и хочет снизить их себестоимость до $20 000 2 ч.
Lenovo убеждена, что справится с взлетевшими ценами на память лучше конкурентов 2 ч.
Люди полетят как птицы: навигацию без GPS по магнитному полю Земли поможет освоить квантовый компас 2 ч.
xAI, Humain и NVIDIA построят крупный ИИ ЦОД в Саудовской Аравии 3 ч.
AMD, Cisco и Humain развернут ИИ-инфраструктуру на 1 ГВт — первые 100 МВт с Instinct MI450 появятся в Саудовской Аравии 3 ч.
«Закон Мура» хоронят десятилетиями — ASML уверена, что он продержится ещё 15 лет 3 ч.
США притормозили 100-% тарифы на чипы — опасаются взвинтить цены и обострить отношения с Китаем 3 ч.
Европейская фабрика TSMC всё ближе к запуску — монтаж оборудования для выпуска чипов в Дрездене начнётся в 2026 году 3 ч.