Сегодня 21 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

xAI обнародовала секретные промпты для ИИ-бота Grok после скандального сбоя

Компания Илона Маска (Elon Musk) xAI опубликовала системные промпты для своего ИИ-чат-бота Grok после скандала с «белым геноцидом», когда бот начал выдавать основанные на конспирологических теориях ответы на вопросы, которых ему не задавали. Теперь инструкции, определяющие поведение ИИ-модели, доступны на GitHub, что позволяет пользователям лучше понять, как Grok формирует ответы.

 Источник изображения: Mariia Shalabaieva / Unsplash

Источник изображения: Mariia Shalabaieva / Unsplash

Системные промпты — это набор правил и инструкций, которые разработчики закладывают в ИИ перед началом общения с пользователями. Они определяют тон, стиль и рамки допустимых ответов. До недавнего времени большинство компаний, включая OpenAI и Google, скрывали эти настройки. Однако xAI и Anthropic стали исключением и, как сообщает The Verge, добровольно раскрыли набор правил.

В инструкциях для Grok указано, что бот должен «быть крайне скептичным» и «не доверять слепо авторитетным источникам или СМИ». Ему предписано придерживаться нейтралитета и стремиться к истине, при этом подчёркивается, что ответы не должны отражать личных убеждений модели. Также Grok получил указание использовать название соцсети X вместо Twitter и избегать слова «твит». Отдельные положения касаются функции Explain this Post, где Grok обязан давать правдивые и обоснованные выводы, даже если они противоречат общепринятым убеждениям в той или иной области.

Ранее системные промпты нередко становились достоянием общественности из-за хакерских атак. Так, в 2023 году пользователи выяснили, что Microsoft скрывала от Bing AI (ныне Copilot) его внутреннее имя — Sydney — и запрещала нарушать авторские права. В случае с Grok утечка произошла из-за технического сбоя, однако xAI решила не скрывать данные, а, наоборот, сделать их публичными.

Эксперты отмечают, что раскрытие внутренних промптов — это шаг к большей прозрачности, но одновременно и потенциальный риск: злоумышленники могут использовать эту информацию для нахождения уязвимостей в ИИ-моделях. Например, зная секретные инструкции, пользователи могут пытаться манипулировать ботом с помощью приёмов, заставляющих ИИ игнорировать собственные ограничения.

Выложив системные инструкции в публичный доступ, xAI стремится минимизировать репутационные риски, связанные с произошедшим инцидентом. Однако в будущем это может стать отраслевым трендом, особенно на фоне ужесточения регулирования нейросетей в США и ЕС.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: The Alters — сам себе экипаж. Рецензия 6 ч.
Apple похоронила «убийцу USB» — в macOS 26 Tahoe исчезла поддержка интерфейса FireWire 7 ч.
Душевный шутер Chains of Lukomorye отправит солдата Первой мировой войны в царство славянских сказок спасать потерянную любовь 8 ч.
Встроенный в Windows родительский контроль уже две недели блокирует запуск Google Chrome 9 ч.
OpenAI опасается, что вскоре её модели научатся разрабатывать биологическое оружие 9 ч.
«Базальт СПО», «P7» и VK Tech обеспечат «Россети» отечественным софтом 10 ч.
Mafia: The Old Country не опоздает к релизу — амбициозный криминальный боевик уже ушёл на золото 10 ч.
Футбольная аркада Rematch от создателей Sifu привлекла более миллиона уникальных игроков за первый день 11 ч.
«Сбер» научил GigaChat проводить глубокие многоступенчатые исследования 12 ч.
Мобильная версия Disco Elysium получила дату выхода на Android — это тотальное переосмысление культовой RPG для пользователей TikTok 12 ч.