Сегодня 05 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI уличила ИИ в преднамеренной лжи — полностью её изжить пока не удаётся

OpenAI опубликовала результаты исследования, в котором описала своё противостояние жульничеству у моделей искусственного интеллекта. Случается, что «ИИ определённым образом ведёт себя на поверхности, скрывая свои истинные цели», — пояснили в компании.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

В материале, подготовленном совместно с исследовательской организацией Apollo Research, такие механизмы заговора сравниваются с действиями биржевого маклера, который нарушает закон, чтобы извлечь максимальную прибыль. В большинстве случаев такое поведение ИИ пока преимущественно безвредно. «Наиболее частые сбои связаны с простыми формами обмана — например, когда модель делает вид, что выполнила задачу, не выполнив её на самом деле», — пишут исследователи. Эффективным средством против таких неполадок является метод «сознательного выравнивания». Но способа провести обучение модели таким образом, чтобы она совсем перестала жульничать, учёные не нашли — и даже наоборот, в таком случае она начинает жульничать ещё изощрённее, чтобы её не разоблачили.

Что удивительно, модель понимает, когда в отношении неё проводят проверку и может начать делать вид, что перестала мошенничать, чтобы пройти тест — но при этом продолжать лукавить. «Зачастую модели лучше осознают, что их оценивают. Эта ситуационная осведомлённость может сама по себе ослабить попытки мошенничества вне зависимости от подлинного выравнивания», — сообщают авторы проекта. Модели могут лгать, и это не новость. Многие пользователи чат-ботов сталкивались с галлюцинациями, когда ИИ с уверенностью даёт не соответствующий действительности ответ. Но галлюцинация — это, по сути, высказанная с уверенностью догадка. Жульничество — другой случай. Это намеренное действие.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Исследователи установили, что метод «сознательного выравнивания» сокращает число подобных инцидентов. Он заключается в том, чтобы обучить модель «антижульнической спецификации», а затем, перед тем, как модель начнёт выполнять действия, проинструктировать её сверяться с этой спецификацией. Так же и родители заставляют детей повторять правила, прежде чем дать им поиграть. Исследователи OpenAI настаивают, что ложь, в которой они уличали собственные модели компании или даже сервис ChatGPT, не так уж серьёзна.

«Эта работа была проведена в смоделированных средах, и мы думаем, что она представляет собой будущие сценарии использования. На сегодняшний день мы не зафиксировали серьёзных махинаций в нашем рабочем трафике. Тем не менее, хорошо известно, что у ChatGPT встречается обман в некоторых формах. Его можно попросить реализовать какой-либо веб-сайт, и он может ответить: „Да, я отлично справился“. И это будет просто ложь. Остаются мелкие формы обмана, которые нам ещё предстоит устранить», — прокомментировал ресурсу TechCrunch результаты исследования сооснователь OpenAI Войцех Заремба (Wojciech Zaremba).

Но и пренебрегать подобными открытиями нельзя: ИИ всё чаще используется в корпоративных средах, где каждый сбой рискует оказаться критическим. «Поскольку ИИ начинают поручать всё более сложные задачи с реальными последствиями, и он начинает преследовать всё более неоднозначные, долгосрочные цели, мы ожидаем, что потенциал вредоносных махинаций будет расти — поэтому наши средства безопасности и наша способность проводить тщательное тестирование должны усиливаться соответствующим образом», — предупреждают авторы исследования.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Сумбурный платформер Dark Scrolls от создателей Gato Roboto и Gunbrella не заставит себя долго ждать — дата выхода и новый геймплей 11 мин.
Прочувствуй Kingdom Come: Deliverance 2 по-новому: Warhorse выпустила духи с запахом Индржиха 2 ч.
Anthropic представила ИИ-агентов для решения финансовых задач и работы с отчётностью 3 ч.
Классическую Diablo едва не загубила налоговая — как Blizzard спасла легендарную экшен-RPG 4 ч.
«Яндекс» потратит до 50 млрд рублей на выкуп акций — ради мотивации сотрудников 5 ч.
ИИ-бот Claude удалось «разговорить» до вредоносного кода и рецептов взрывчатки — хотя напрямую о них даже не спрашивали 5 ч.
Microsoft, xAI и Google согласились отдавать ИИ-модели властям США на проверку безопасности 6 ч.
Google повысила вознаграждение за обнаружение эксплойтов в Android до $1,5 млн 6 ч.
Google внедрит «аналог блокчейна» для проверки подлинности приложений и модулей Android 7 ч.
Суд в Москве оштрафовал Telegram на 7 млн, а Google — на 15,2 млн рублей 7 ч.
Micron выпустила первый SSD ёмкостью 245 Тбайт — Micron 6600 ION для центров обработки данных 31 мин.
В Китае установили крупнейший в мире плавучий морской ветряк — с ротором площадью в семь футбольных полей 39 мин.
Актёр засветил грядущие наушники Sony WH-1000XX — премиальная модель обойдётся в $649 3 ч.
PlayStation 5 с Linux показала почти нативную производительность в играх из Steam 3 ч.
Bose представила линейку домашней акустики Lifestyle Ultra Collection — от $299 за колонку до $1099 за саундбар 4 ч.
Глава Nvidia: Китай не должен получать передовые ИИ-чипы Blackwell и Rubin — всё лучшее должно быть у США 5 ч.
По бумагам всё чисто: Малайзия стремительно становится хабом ИИ ЦОД, благодаря доступности чипов NVIDIA и лояльности к клиентам из Китая 6 ч.
Adata выпустила память с «бесконечным зеркалом» — XPG Novakey RGB DDR5 объёмом до 32 Гбайт и скоростью до 6400 МТ/с 6 ч.
Анонсирован смартфон Honor Play 80 Plus с батареей на 7500 мА·ч и Snapdragon 4 Gen 4 по цене от $249 7 ч.
Be quiet! выпустила кулеры Dark Rock 6 и Dark Rock Pro 6 весом больше килограмма для процессоров с TDP до 300 Вт 7 ч.