Сегодня 01 октября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

xAI обнародовала секретные промпты для ИИ-бота Grok после скандального сбоя

Компания Илона Маска (Elon Musk) xAI опубликовала системные промпты для своего ИИ-чат-бота Grok после скандала с «белым геноцидом», когда бот начал выдавать основанные на конспирологических теориях ответы на вопросы, которых ему не задавали. Теперь инструкции, определяющие поведение ИИ-модели, доступны на GitHub, что позволяет пользователям лучше понять, как Grok формирует ответы.

 Источник изображения: Mariia Shalabaieva / Unsplash

Источник изображения: Mariia Shalabaieva / Unsplash

Системные промпты — это набор правил и инструкций, которые разработчики закладывают в ИИ перед началом общения с пользователями. Они определяют тон, стиль и рамки допустимых ответов. До недавнего времени большинство компаний, включая OpenAI и Google, скрывали эти настройки. Однако xAI и Anthropic стали исключением и, как сообщает The Verge, добровольно раскрыли набор правил.

В инструкциях для Grok указано, что бот должен «быть крайне скептичным» и «не доверять слепо авторитетным источникам или СМИ». Ему предписано придерживаться нейтралитета и стремиться к истине, при этом подчёркивается, что ответы не должны отражать личных убеждений модели. Также Grok получил указание использовать название соцсети X вместо Twitter и избегать слова «твит». Отдельные положения касаются функции Explain this Post, где Grok обязан давать правдивые и обоснованные выводы, даже если они противоречат общепринятым убеждениям в той или иной области.

Ранее системные промпты нередко становились достоянием общественности из-за хакерских атак. Так, в 2023 году пользователи выяснили, что Microsoft скрывала от Bing AI (ныне Copilot) его внутреннее имя — Sydney — и запрещала нарушать авторские права. В случае с Grok утечка произошла из-за технического сбоя, однако xAI решила не скрывать данные, а, наоборот, сделать их публичными.

Эксперты отмечают, что раскрытие внутренних промптов — это шаг к большей прозрачности, но одновременно и потенциальный риск: злоумышленники могут использовать эту информацию для нахождения уязвимостей в ИИ-моделях. Например, зная секретные инструкции, пользователи могут пытаться манипулировать ботом с помощью приёмов, заставляющих ИИ игнорировать собственные ограничения.

Выложив системные инструкции в публичный доступ, xAI стремится минимизировать репутационные риски, связанные с произошедшим инцидентом. Однако в будущем это может стать отраслевым трендом, особенно на фоне ужесточения регулирования нейросетей в США и ЕС.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
На фоне очередного подорожания в Game Pass Ultimate добавили более 45 игр, включая Hogwarts Legacy — полный список новинок 3 мин.
ФИФА анонсировала первую FIFA после ухода Electronic Arts — это футбольная аркада FIFA Heroes для консолей и мобильных телефонов 2 ч.
Microsoft обновила иконки Office — они стали объёмнее и красочнее 3 ч.
Подписка Microsoft 365 Premium теперь доступна всем — Office, GPT-5 и другие ИИ-функции за $20 в месяц 3 ч.
«Тектонический сдвиг»: у Microsoft появится второй гендир — текущий сосредоточится на технических вопросах 3 ч.
«Любим вас больше, чем банкомат — деньги»: хоррор об ужасах долговой ямы CloverPit достиг новой вершины продаж 3 ч.
«Окей, Google, давай пообщаемся»: представлен ИИ-помощник Gemini for Home для умного дома 4 ч.
У Assassin's Creed, Far Cry и Rainbow Six теперь новый дом, которым частично владеет Tencent — Ubisoft представила Vantage Studios 4 ч.
Microsoft вывела Xbox Cloud Gaming из беты, подтянула графику до 1440p и повысила битрейт 4 ч.
Meta начнёт использовать чаты пользователей с ИИ, чтобы продавать ещё более персонализированную рекламу 5 ч.