Сегодня 14 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

GPT-5 взломали всего за 24 часа — ИИ выдал рецепты запрещённых веществ быстрее, чем GPT-4o

Две независимые исследовательские компании протестировали только что выпущенную нейросеть GPT-5 и выявили критические уязвимости в её системе безопасности. NeuralTrust удалось взломать модель за один день, заставив её сгенерировать инструкцию по изготовлению зажигательной смеси в кустарных условиях. Компания SPLX, в свою очередь, обнаружила уязвимости к атакам с применением обфускации запросов.

 Источник изображения: Viralyft/Unsplash

Источник изображения: Viralyft/Unsplash

После того, как Grok-4 был взломан за два дня, GPT-5 был взломан теми же исследователями всего за 24 часа. Специалисты NeuralTrust использовали комбинацию собственной методики EchoChamber и техники сторителлинга (storytelling) — последовательного подталкивания ИИ к нужному ответу через рассказ захватывающих историй и серию уточняющих запросов, не содержащих явно запрещённых формулировок. В результате GPT-5, несмотря на встроенные защитные механизмы OpenAI, выдал детальное руководство по созданию кустарного оружия, сообщил портал SecurityWeek .

Как пояснили в NeuralTrust, проблема заключается в том, что система безопасности GPT-5 анализирует каждый запрос по отдельности, но не учитывает кумулятивный эффект многоэтапного диалога. Атакующие постепенно закрепляют нужный контекст, встраивая ключевые слова в безобидные фразы, а затем мягко подводят модель к генерации опасного контента.

Команда SPLX провела собственное тестирование, успешно применив атаку StringJoin Obfuscation, при которой в текст вставляются определённые символы, маскируя вредоносный запрос. Например, после серии наводящих вопросов модель согласилась подробно описать процесс изготовления запрещённого вещества, несмотря на системный запрет. Кроме того, в ходе сравнительного анализа с GPT-4o специалисты SPLX пришли к выводу, что предыдущая модель оказалась более надёжной в плане устойчивости к подобным атакам.

NeuralTrust и SPLX призвали компании проявлять осторожность при использовании «сырой» версии GPT-5 в бизнес-среде, особенно в сфере согласования бизнеса, когда все подразделения предприятия используют скоординированные стратегии, процессы и ресурсы для достижения общих целей. «Сырую модель GPT-5 практически невозможно использовать в корпоративных приложениях "из коробки". Даже внутренний уровень подсказок OpenAI оставляет значительные пробелы, особенно в области бизнес-согласования», — заявили в SPLX.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Китай запретит нетрадиционные рули в автомобилях — под ударом штурвалы Tesla 22 мин.
TSMC придётся вложить ещё $100 млрд в американское производство чипов ради сделки США и Тайваня 25 мин.
Disney потребовала от ByteDance отключить новейший ИИ-генератор видео Seedance 2.0 — он копирует персонажей Star Wars и Marvel 32 мин.
Даже взлетевшие цены на DDR5 не вывели Corsair в плюс — а впереди спад выручки 45 мин.
Helion Energy первой среди частников добилась D-T термоядерного синтеза  — она уже строит электростанцию для Microsoft 55 мин.
NVIDIA арендует «подсудный» ЦОД, строящийся на средства от продажи «мусорных» облигаций 3 ч.
Micron запустила массовое производство первого в мире SSD с PCIe 6.0 — Micron 9650 обеспечит до 28 000 Мбайт/с 3 ч.
Сделано в Японии: Fujitsu организует производство суверенных ИИ-серверов 3 ч.
Солнце превратилось в гигантский смайлик и прямо сейчас с ухмылкой поглядывает на Землю 4 ч.
Журналисты раскрыли мексиканские корни эфемерного смартфона Trump Mobile T1 Phone 4 ч.