Сегодня 03 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → химическое оружие

OpenAI опасается, что вскоре её модели научатся разрабатывать биологическое оружие

OpenAI обеспокоена тем, что следующее поколение её моделей искусственного интеллекта может значительно увеличить риск разработки биологического оружия, предоставив такую возможность даже людям без научного образования. Руководитель систем безопасности OpenAI Йоханнес Хайдеке (Johannes Heidecke) ожидает, что «некоторые из преемников нашей o3 [модели рассуждений] достигнут этого уровня». В связи с этим OpenAI усиливает тестирование безопасности.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

OpenAI сообщила о разработке системы для оценки и снижения рисков, создаваемых все более мощными моделями ИИ. Компания усиливает тестирование безопасности, чтобы снизить риск использования её моделей преступниками и террористами. Без этих мер по снижению рисков модели вскоре смогут «подняться на новый уровень», что позволит даже людям с ограниченными научными знаниями создавать опасное оружие.

«Мы [пока] ещё не в мире, где есть что-то новое, совершенно неизвестное, создающее биологические угрозы, которых раньше не было, — заявил Хайдеке. — Мы больше беспокоимся о воспроизведении вещей, с которыми эксперты уже хорошо знакомы». Особая сложность состоит в том, что те же инструменты, которые могли бы обеспечить жизненно важные медицинские прорывы, могут быть использованы злоумышленниками в опасных целях.

Именно поэтому ведущим лабораториям ИИ нужны высокоточные системы тестирования. «Это не та область, где производительность 99 % или одна ошибка на 100 000… допустимы, — считает Хайдеке. — Нам в основном нужно, что-то вроде почти идеального».

OpenAI — не единственная компания, обеспокоенная неправомерным использованием своих моделей, когда дело касается разработки оружия. По мере того, как модели становятся более совершенными, их потенциал для преступного использования растёт. Недавно компания Anthropic выпустила продвинутую модель Claude Opus 4 с более строгими протоколами безопасности, чем у любой из предыдущих моделей.

 Источник изображений: unsplash.com

В соответствии с политикой ответственного масштабирования, созданной по образцу уровней биологической угрозы (BSL) правительства США, ей присвоен третий «уровень безопасности ИИ» (AI Safety Level) ASL-3. Все предыдущие модели Anthropic отнесены к уровню ASL-2. Третьему уровню безопасности соответствуют продвинутые модели, которые достаточно мощны, чтобы представлять значительные риски, такие как помощь в разработке оружия или автоматизация разработки систем ИИ.

Недавно Claude Opus 4 попала в заголовки СМИ после попытки шантажировать инженера, чтобы избежать отключения в ходе строго контролируемого теста. Ранние версии этой модели были готовы выполнять опасные инструкции, например, планирование террористических атак. Компания заверила общественность, что эта проблема была решена внесением изменений в набор обучающих данных.


window-new
Soft
Hard
Тренды 🔥
Nintendo выдала даты выхода трёх дополнений к кооперативному хоррору Reanimal от авторов Little Nightmares 32 мин.
Визуальная новелла в жанре психологического хоррора Slay the Princess достигла вершины продаж, о которой разработчики не могли и мечтать 41 мин.
Объём слитых в интернет данных россиян взлетел почти на 70 % в прошлом году 2 ч.
Онлайн-кинотеатры в России нарастили аудиторию до 75 млн зрителей и теперь думают над повышением цен 2 ч.
Хакеры взломали популярный текстовый редактор Notepad++ и полгода распространяли вирусы с обновлениями 3 ч.
xAI выпустила Grok Imagine 1.0 с поддержкой создания 10-секундных видео в улучшенном разрешении 8 ч.
В Firefox появится выключатель всех ИИ-функций разом 13 ч.
Суровое альпинистское приключение Cairn от создателей Furi покорило вершину в 200 тысяч проданных копий всего за три дня 15 ч.
«Лучше большинства фильмов по RE»: трагичная короткометражка по мотивам Resident Evil Requiem впечатлила фанатов 17 ч.
За саундтрек можно не переживать: композитор «Ведьмака 3» напишет музыку для The Witcher 4 18 ч.
В Китае создали компактный твердотельный лазер для ранее недоступного VUV-диапазона — выиграют наука, космос и чипмейкеры 15 мин.
Intel при поддержке SoftBank готова начать выпуск альтернативы памяти HBM к 2029 году 36 мин.
Китайский процессор Loongson 3B6000 оказался в среднем втрое медленнее AMD Ryzen 5 9600X 43 мин.
Switch стала самой популярной Nintendo в истории — продано более 155 млн консолей 2 ч.
Intel представила Xeon 600 для рабочих станций — до 86 ядер, разгон и цена до $7699 2 ч.
Индия объявила 20 лет налоговых каникул для гиперскейлеров, использующих местные ЦОД для обслуживания зарубежных облачных клиентов 2 ч.
Возвращение людей к Луне отложили до марта — ракета SLS для миссии Artemis II дала течь 2 ч.
CXMT и YMTC спешат нажиться на дефиците: Китай резко нарастит выпуск памяти 2 ч.
Giga Computing представила материнские платы для рабочих станций на базе Intel Xeon 600 3 ч.
86 P-ядер, 128 линий PCIe 5.0 и 8 каналов DDR5-6400/8800: Intel представила чипы Xeon 600 для рабочих станций 3 ч.