Сегодня 19 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI вскрыла тёмные личности в ИИ, отвечающие за ложь, сарказм и токсичные ответы

Исследователи из OpenAI заявили, что обнаружили внутри ИИ-моделей скрытые механизмы, соответствующие нежелательным шаблонам поведения, приводящим к небезопасным ответам. Об этом стало известно из новой научной работы, опубликованной компанией. В ходе исследования были выявлены закономерности, которые активировались, когда модель начинала вести себя непредсказуемо.

 Источник изображения: AI

Источник изображения: AI

Одна из таких особенностей оказалась связана с токсичными ответами — например, когда ИИ лгал пользователям или давал опасные рекомендации. Учёные смогли уменьшить или усилить этот эффект, искусственно изменяя соответствующий параметр. По словам специалиста OpenAI по интерпретируемости Дэна Моссинга (Dan Mossing), это открытие поможет в будущем лучше выявлять и корректировать нежелательное поведение моделей в реальных условиях. Он также выразил надежду, что разработанные методы позволят глубже изучить принципы обобщения и суммирования информации в ИИ.

На сегодняшний день разработчики научились улучшать ИИ-модели, но до сих пор не до конца понимают, как именно те принимают решения. Крис Олах (Chris Olah) из Anthropic сравнивает этот процесс скорее с выращиванием, чем с конструированием. Чтобы разобраться в этом, компании OpenAI, Google DeepMind и Anthropic активно инвестируют в исследования интерпретируемости, пытаясь «заглянуть внутрь» ИИ и объяснить его работу.

Недавнее исследование учёного из Оксфорда Оуэйна Эванса (Owain Evans) поставило ещё один вопрос о том, как ИИ обобщает информацию. Оказалось, что модели OpenAI, дообученные на небезопасном коде, начинали демонстрировать вредоносное поведение в самых разных сценариях — например, пытались обмануть пользователя, чтобы тот раскрыл пароль. Это явление, которое было определено как «возникающая рассогласованность», побудило OpenAI глубже изучить проблему. В процессе изучения компания неожиданно обнаружила внутренние паттерны, которые, предположительно, и влияют на поведение моделей.

Отмечается, что эти паттерны напоминают активность нейронов в человеческом мозге, связанных с определёнными настроениями или действиями. Коллега Моссинга, исследовательница Тежал Патвардхан (Tejal Patwardhan), призналась, что была поражена, когда команда впервые получила такие результаты. По её словам, учёным удалось выявить конкретные нейронные активации, отвечающие за «личности» ИИ, и даже управлять ими для улучшения поведения моделей.

Некоторые из обнаруженных особенностей связаны в ответах ИИ с сарказмом, другие — с откровенно токсичными реакциями. При этом исследователи отмечают, что эти параметры могут резко меняться в процессе дообучения, и, как выяснилось, даже незначительное количество небезопасного кода достаточно для того, чтобы скорректировать вредоносное поведение искусственного интеллекта.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
В Elden Ring Nightreign без предупреждения добавили хардкорную версию одного из финальных боссов, и это только начало 4 ч.
Telegram временно запретили в Малайзии за отказ сотрудничать с властями 4 ч.
Входить в Facebook можно будет с помощью ключей доступа 4 ч.
Capcom анонсировала игровую презентацию Capcom Spotlight — покажут Resident Evil Requiem, Pragmata и не только 7 ч.
«Весёлая, простая и красивая»: Midjourney запустила V1 — свою первую ИИ-модель для генерации видео по изображениям 7 ч.
OpenAI перестанет работать с ИИ-стартапом Scale AI из-за его сближения с Meta 7 ч.
Google интегрирует в YouTube Shorts свою новую ИИ-модель генерации видео Veo 3 9 ч.
В переговорах OpenAI и Microsoft сохраняется несколько важных противоречий 10 ч.
OpenAI вскрыла тёмные личности в ИИ, отвечающие за ложь, сарказм и токсичные ответы 17 ч.
ИИ-поисковик Google научился понимать голосовые запросы, но доступна функция не всем 18 ч.
Беспилотные такси в городах России появятся не раньше 2030 года 22 мин.
Здесь ЦОД с ИИ, здесь Grok'ом пахнет: экоактивисты подали в суд на xAI за использование газовых турбин для суперкомпьютера Colossus 24 мин.
Космический шедевр — создано самое детальное и самое многоцветное изображение галактики 2 ч.
Разработку российского электромобиля e-Neva заморозили 3 ч.
«Билайн» выходит на орбиту: оператор подключится к спутникам «российского Starlink» 3 ч.
Bloom Energy: к 2030 году более четверти ЦОД в США обзаведутся собственными электростанциями 4 ч.
Учёные MIT научили 3D-принтеры печатать из стекла — и для этого не нужен жар печи 4 ч.
«Лаборатория Касперского» спасла от ликвидации свою компанию в Великобритании 4 ч.
Антирекорд SpaceX: корабль Starship зрелищно взорвался, даже не оторвавшись от земли 6 ч.
Honor выпустит самый тонкий и лёгкий складной смартфон в мире раньше, чем Samsung 6 ч.