Сегодня 28 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → химическое оружие

OpenAI опасается, что вскоре её модели научатся разрабатывать биологическое оружие

OpenAI обеспокоена тем, что следующее поколение её моделей искусственного интеллекта может значительно увеличить риск разработки биологического оружия, предоставив такую возможность даже людям без научного образования. Руководитель систем безопасности OpenAI Йоханнес Хайдеке (Johannes Heidecke) ожидает, что «некоторые из преемников нашей o3 [модели рассуждений] достигнут этого уровня». В связи с этим OpenAI усиливает тестирование безопасности.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

OpenAI сообщила о разработке системы для оценки и снижения рисков, создаваемых все более мощными моделями ИИ. Компания усиливает тестирование безопасности, чтобы снизить риск использования её моделей преступниками и террористами. Без этих мер по снижению рисков модели вскоре смогут «подняться на новый уровень», что позволит даже людям с ограниченными научными знаниями создавать опасное оружие.

«Мы [пока] ещё не в мире, где есть что-то новое, совершенно неизвестное, создающее биологические угрозы, которых раньше не было, — заявил Хайдеке. — Мы больше беспокоимся о воспроизведении вещей, с которыми эксперты уже хорошо знакомы». Особая сложность состоит в том, что те же инструменты, которые могли бы обеспечить жизненно важные медицинские прорывы, могут быть использованы злоумышленниками в опасных целях.

Именно поэтому ведущим лабораториям ИИ нужны высокоточные системы тестирования. «Это не та область, где производительность 99 % или одна ошибка на 100 000… допустимы, — считает Хайдеке. — Нам в основном нужно, что-то вроде почти идеального».

OpenAI — не единственная компания, обеспокоенная неправомерным использованием своих моделей, когда дело касается разработки оружия. По мере того, как модели становятся более совершенными, их потенциал для преступного использования растёт. Недавно компания Anthropic выпустила продвинутую модель Claude Opus 4 с более строгими протоколами безопасности, чем у любой из предыдущих моделей.

 Источник изображений: unsplash.com

В соответствии с политикой ответственного масштабирования, созданной по образцу уровней биологической угрозы (BSL) правительства США, ей присвоен третий «уровень безопасности ИИ» (AI Safety Level) ASL-3. Все предыдущие модели Anthropic отнесены к уровню ASL-2. Третьему уровню безопасности соответствуют продвинутые модели, которые достаточно мощны, чтобы представлять значительные риски, такие как помощь в разработке оружия или автоматизация разработки систем ИИ.

Недавно Claude Opus 4 попала в заголовки СМИ после попытки шантажировать инженера, чтобы избежать отключения в ходе строго контролируемого теста. Ранние версии этой модели были готовы выполнять опасные инструкции, например, планирование террористических атак. Компания заверила общественность, что эта проблема была решена внесением изменений в набор обучающих данных.


window-new
Soft
Hard
Тренды 🔥
Lenovo купила разработчика, чей BIOS установлен в миллионы ПК по всему миру 7 мин.
Вампирская ролевая игра The Blood of Dawnwalker от ветеранов CD Projekt Red вышла из тени — 13 минут геймплея, дата релиза и предзаказ в России 13 мин.
ИИ заполоняет интернет: 35 % появившихся за последние годы сайтов были созданы нейросетями 46 мин.
Nvidia выпустила драйвер с поддержкой новой версии мобильной GeForce RTX 5070 60 мин.
Nacon закроет студию Spiders — разработчиков Greedfall и Steelrising никто не захотел купить 2 ч.
Игроки не оценили S&box — духовный наследник Garry’s Mod собирает в Steam «смешанные» отзывы 3 ч.
Режиссёр Resident Evil 2 спустя почти 30 лет раскрыл секрет происхождения имени Леона Кеннеди 3 ч.
Google «Play Маркет» начнёт помечать приложения, оптимизированные для больших экранов 3 ч.
Минцифры РФ прорабатывает введение платы за VPN-трафик 4 ч.
NEC с помощью Anthropic создаст крупнейшую в Японии команду специалистов в области ИИ, хотя сами японцы скептически относятся к ИИ 6 ч.
В Китае создали первую в мире топливную ячейку на угле — она даёт электричество без дыма, пара и генераторов 39 мин.
Анонсирован игровой смартфон OnePlus Ace 6 Ultra с Dimensity 9500, батареей на 8600 мА·ч и геймпадом 52 мин.
Автопилот Super Cruise от GM преодолел 1 миллиард миль — на это ушло 9 лет 54 мин.
Nvidia представила мобильную GeForce RTX 5070 с 12 Гбайт памяти 60 мин.
Gigabyte представила тонкий ноутбук Aero X16 с новой версией GeForce RTX 5070 для «задач ИИ нового поколения» 3 ч.
С миру по миллиарду: Oracle всё-таки насобирала $16 млрд на ИИ ЦОД OpenAI в Мичигане 3 ч.
SpaceX привязала гонорар Илона Маска к колонизации Марса и запуску орбитальных ЦОД 4 ч.
Представлена робот-рыба Bionic Arowana за $5000 — доступная альтернатива живой ароване для аквариума 4 ч.
Samsung Heavy Industries займётся строительством плавучих ЦОД совместно с американской Mousterian Corporation 4 ч.
Google и Meta теряют ИИ-таланты — те создают стартапы и привлекают миллиарды 5 ч.