Сегодня 28 апреля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Meta✴ пообещала отменить выпуск моделей ИИ, которые сочтёт слишком опасными для человечества

Ранее гендиректор Meta Марк Цукерберг (Mark Zuckerberg) пообещал, что сделает сильный искусственный интеллект (AGI), то есть не уступающий человеку, общедоступным. Но теперь в одном из определяющих политику документов компании перечисляются сценарии, при которых она может отменить выпуск передовой системы ИИ.

 Источник изображения: Christopher Burns / unsplash.com

Источник изображения: Christopher Burns / unsplash.com

В документе под названием «Основы организации передового ИИ» (Frontier AI Framework) компанией Meta определяются два типа систем ИИ, которые представляются слишком рискованными для выпуска: системы «высокого риска» и «критического риска». Это системы, способные оказать гипотетическим злоумышленникам помощь в преодолении средств кибербезопасности, проведении химических и биологических атак. Разница в том, что системы «критического риска» способны привести к «катастрофическому результату, который невозможно смягчить в контексте развёртывания»; системы «высокого риска» также способны облегчить злоумышленникам провести атаку, но они менее надёжны, чем системы «критического риска».

Meta приводит несколько гипотетических примеров таких атак, в том числе «полная автоматизированная компрометация окружения корпоративного масштаба, защищённого передовыми методами» и «разрастание высокоэффективного биологического оружия». Список приведённых в документе угроз не является исчерпывающим, отмечают в компании, — он включает лишь те позиции, которые считаются самыми неотложными и вероятными как результат непосредственной работы мощного ИИ. Системные угрозы классифицируются не на основе практических опытов, а с учётом данных внутренних и внешних исследований, утверждённых лицами, принимающими решения: в Meta не уверены, что научные средства «достаточно надёжны, чтобы предоставить окончательные количественные показатели», определяющие степень угрозы, которую представляет система.

Если Meta решит, что одна из систем относится к категории «высокого риска», доступ к такой системе внутри компании будет ограничен, а её выпуск — отложен до тех пор, пока не будут приняты меры по смягчению последствий «до умеренного уровня». Если же риск классифицируется как «критический», Meta обязывается развернуть меры безопасности, перечислять которые она не стала, и прекратить разработку до тех пор, пока система не станет менее опасной. Компания намеревается вносить изменения в документ по мере развития отрасли ИИ, а опубликован он будет перед мероприятием France AI Action Summit, которое пройдёт в этом месяце.

Meta в отличие от других американских технологических гигантов открывает исходный код своих моделей ИИ Llama. Созданием этого документа компания, возможно, пытается противопоставить себя китайской DeepSeek, которая также опубликует свои модели открыто, но пока не говорит о защитных мерах.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Глава Larian пообещал, что «безумно амбициозный» наследник Baldur’s Gate 3 выйдет не позднее 2030 года, иначе «жена со мной разведётся» 47 мин.
Скандальный форум 4chan восстановил работу после взлома и утечки данных 2 ч.
«Базис» стал титульным спонсором робототехнической команды «Атом» 3 ч.
Clair Obscur: Expedition 33 скоро заговорит по-русски — GamesVoice анонсировала дубляж нашумевшей RPG 3 ч.
Видео: геймплейный трейлер эвакуационного шутера Hunger в декорациях чумной наполеоновской Европы 5 ч.
Horizon Forbidden West впервые запустили в разрешении 8K при 120 Гц через HDMI 2.1 8 ч.
Нашумевшая Clair Obscur: Expedition 33 разошлась тиражом 1 млн копий всего за три дня после релиза 17 ч.
Знаменитая антипиратская кампания из 2000-х использовала спираченный шрифт 19 ч.
Исследователи Anthropic и Google поищут признаки сознания у ИИ — ещё недавно за подобное увольняли 24 ч.
Baidu обновила ИИ-модели Ernie 4.5 Turbo и Ernie X1 Turbo и снизила их стоимость на 80 и 50 % соответственно 27-04 07:11