Сегодня 10 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Meta✴ пообещала отменить выпуск моделей ИИ, которые сочтёт слишком опасными для человечества

Ранее гендиректор Meta Марк Цукерберг (Mark Zuckerberg) пообещал, что сделает сильный искусственный интеллект (AGI), то есть не уступающий человеку, общедоступным. Но теперь в одном из определяющих политику документов компании перечисляются сценарии, при которых она может отменить выпуск передовой системы ИИ.

 Источник изображения: Christopher Burns / unsplash.com

Источник изображения: Christopher Burns / unsplash.com

В документе под названием «Основы организации передового ИИ» (Frontier AI Framework) компанией Meta определяются два типа систем ИИ, которые представляются слишком рискованными для выпуска: системы «высокого риска» и «критического риска». Это системы, способные оказать гипотетическим злоумышленникам помощь в преодолении средств кибербезопасности, проведении химических и биологических атак. Разница в том, что системы «критического риска» способны привести к «катастрофическому результату, который невозможно смягчить в контексте развёртывания»; системы «высокого риска» также способны облегчить злоумышленникам провести атаку, но они менее надёжны, чем системы «критического риска».

Meta приводит несколько гипотетических примеров таких атак, в том числе «полная автоматизированная компрометация окружения корпоративного масштаба, защищённого передовыми методами» и «разрастание высокоэффективного биологического оружия». Список приведённых в документе угроз не является исчерпывающим, отмечают в компании, — он включает лишь те позиции, которые считаются самыми неотложными и вероятными как результат непосредственной работы мощного ИИ. Системные угрозы классифицируются не на основе практических опытов, а с учётом данных внутренних и внешних исследований, утверждённых лицами, принимающими решения: в Meta не уверены, что научные средства «достаточно надёжны, чтобы предоставить окончательные количественные показатели», определяющие степень угрозы, которую представляет система.

Если Meta решит, что одна из систем относится к категории «высокого риска», доступ к такой системе внутри компании будет ограничен, а её выпуск — отложен до тех пор, пока не будут приняты меры по смягчению последствий «до умеренного уровня». Если же риск классифицируется как «критический», Meta обязывается развернуть меры безопасности, перечислять которые она не стала, и прекратить разработку до тех пор, пока система не станет менее опасной. Компания намеревается вносить изменения в документ по мере развития отрасли ИИ, а опубликован он будет перед мероприятием France AI Action Summit, которое пройдёт в этом месяце.

Meta в отличие от других американских технологических гигантов открывает исходный код своих моделей ИИ Llama. Созданием этого документа компания, возможно, пытается противопоставить себя китайской DeepSeek, которая также опубликует свои модели открыто, но пока не говорит о защитных мерах.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Cloud.ru создал неооблако для работы с ИИ 28 мин.
Microsoft объяснила блокировку WireGuard и VeraCrypt невнимательностью самих разработчиков 4 ч.
Хакеры похитили и слили в сеть секретные файлы полиции Лос-Анджелеса 4 ч.
Приложение Meta AI взлетело на 5 место в App Store после запуска Muse Spark 4 ч.
Google Chrome получил защиту от кражи сессий аутентификации 5 ч.
YouTube опроверг наличие 90-секундной непропускаемой рекламы, но вопросов стало только больше 5 ч.
В Steam вышла «печатная» королевская битва Final Sentence — в России купить игру можно, но из-за Роскомнадзора она может не работать 11 ч.
«Умирайте, адаптируйтесь, развивайтесь»: стремительный роглайт-слешер Morbid Metal вышел в раннем доступе и заслужил похвалу игроков 12 ч.
«Знает рецепт Gemini и не тратит ни доллара впустую»: стартап экс-сотрудников DeepMind будет развивать визуальный ИИ 14 ч.
Новый геймплейный трейлер подтвердил дату выхода Thick as Thieves — амбициозного стелс-экшена от создателя Deus Ex и System Shock 14 ч.
CleanSpark по решению суда закрыла майнинговую ферму, годами досаждавшую местным жителям шумом вентиляторов 25 мин.
Уже в этом году OpenAI рассчитывает выручить на рекламе $2,5 млрд, а к концу десятилетия увеличит сумму в 40 раз 2 ч.
В России стартовали продажи белорусского ноутбука Horizont H-Book IPK4 за 79 999 рублей 2 ч.
SpaceX с учётом xAI завершила прошлый год с убытками в размере $5 млрд, но выручила $18,5 млрд 2 ч.
OpenAI и Anthropic бросились мериться дата-центрами перед инвесторами 3 ч.
Anthropic тоже задумалась о разработке собственных ИИ-чипов 5 ч.
Новая статья: Аналоговый ИИ: теперь и на конденсаторах 10 ч.
Razer выпустила геймерские TWS-наушники Hammerhead V3 HyperSpeed с низкой задержкой и шумоподавлением за $130, а также модель попроще 11 ч.
Asus представила ROG Equalizer — кабель 12V-2x6 с усиленной защитой от плавления, который некоторые получат бесплатно 11 ч.
Crimson Desert начала запускаться на некоторых видеокартах Intel, но FSR лучше не включать 12 ч.