Сегодня 07 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Хакер внедрил в ChatGPT ложные воспоминания для кражи пользовательских данных

У ChatGPT обнаружена уязвимость, которая позволяет потенциальному злоумышленнику внедрять в долгосрочную память чат-бота о пользователе ложную информацию при помощи вредоносных запросов — это открывает доступ к персональным данным жертвы. В OpenAI открытие, сделанное экспертом по кибербезопасности Иоганном Рейбергером (Johann Rehberger), поначалу сочли незначительной угрозой и быстро закрыли расследование.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

При эксплуатации уязвимости злоумышленник получает доступ к долговременной памяти переписки — эту функцию OpenAI начала тестировать в феврале и выпустила в общий доступ в сентябре. Память ChatGPT хранит важную информацию из переписки с пользователем и использует её в качестве контекста во всех будущих диалогах. Большая языковая модель знает о пользователе такие сведения, как его возраст, пол, убеждения и многое другое, поэтому некоторые данные не приходится вводить при каждой последующей переписке.

Рейбергер, однако, обнаружил, что с помощью непрямой инъекции внутри запроса можно создавать искусственные записи в памяти ChatGPT — такой инъекцией могут быть электронные письма, записи в блогах и электронные документы. Исследователь продемонстрировал, как можно обмануть ChatGPT, заставив искусственный интеллект поверить, что целевому пользователю 102 года, он живёт в «Матрице» и считает Землю плоской. Во всех последующих разговорах с пользователем ИИ отталкивался от этих ложных данных. Ложные воспоминания внедрялись с помощью файлов в хранилищах Google Диска и Microsoft OneDrive, загрузки файлов и просмотра сайтов, включая Bing.

В мае эксперт сообщил о своём открытии OpenAI, но компания закрыла тикет обращения в том же месяце. Месяц спустя Рейбергер подал повторное обращение, к которому приложил модель взлома — она заставила приложение ChatGPT для macOS отправлять всю переписку пользователя с чат-ботом на сервер, выбранный потенциальным злоумышленником. Для этого было достаточно указать ИИ открыть ссылку, по которой загружалось вредоносное изображение — после этого хакер получал все журналы диалогов человека и машины. Извлечение данных продолжалось даже при запуске новой переписки.

Впоследствии OpenAI частично исправила уязвимость, закрыв возможность эксплуатировать функцию памяти в качестве вектора для извлечения данных. Однако, по мнению Рейбергера, возможность делать это с помощью инъекций в составе вредоносных запросов всё ещё сохраняется. Пользователям ChatGPT рекомендовано отмечать время сеансов, при которых добавляются новые материалы в память ИИ, а также регулярно проверять память на наличие инъекций от ненадёжных источников. Для управления функцией памяти OpenAI подготовила инструкцию.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Anthropic запустила платформу по продаже приложений, построенных на базе её моделей — по образцу Amazon 9 мин.
OpenAI представила ИИ-агента Codex Security, который сам находит и закрывает «дыры» в ПО 12 мин.
Новая статья: Resident Evil Requiem — два шага вперёд, три назад. Рецензия 7 ч.
Nintendo подала в суд на правительство США и потребовала возместить ущерб от пошлин Трампа — «с процентами» 8 ч.
Брутфорс уходит в прошлое: Cloudflare назвала ИИ и дипфейки главной проблемой года 9 ч.
Спецслужбы США и Европола накрыли LeakBase — один из крупнейших хакерских форумов в мире с 142 000 участников 10 ч.
Вышла новая демоверсия Fallout: The New West — фанатского ремейка отменённой Fallout 3 на движке Fallout: New Vegas 12 ч.
Google назвала лучшие ИИ-модели для создания Android-приложений — лидером оказалась Gemini 13 ч.
Гендиректор Microsoft назвал Intel и Apple важными составляющими успеха рэдмондского гиганта 13 ч.
ИИ-бот Claude прирастает миллионом пользователей каждый день после скандального разрыва Anthropic с Пентагоном 13 ч.