Сегодня 12 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI и другим разработчикам грозят огромные штрафы в ЕС, если они не приведут свои ИИ в порядок

Проверка соответствия требованиям Закона об искусственном интеллекте (AI Act) Европейского союза (ЕС) выявила ключевые недостатки в ИИ-моделях крупнейших технологических компаний, таких как Meta, OpenAI и других. Основные проблемы связаны с устойчивостью к кибератакам и предвзятостью выводов. Компании, чьи ИИ не соответствуют новым нормам, могут столкнуться с крупными штрафами — до 35 млн евро или 7 % от их мирового годового оборота.

 Источник изображения: kalhh / Pixabay

Источник изображения: kalhh / Pixabay

Европейский союз долго обсуждал необходимость введения новых правил для регулирования ИИ, однако ситуация значительно ускорилась после того, как в конце 2022 года OpenAI выпустила ChatGPT. Огромная популярность этого сервиса и активные общественные обсуждения возможных угроз, исходящих от ИИ, привели к созданию свода правил для ИИ общего назначения (General Purpose AI или GPAI). Этот закон, призванный гарантировать безопасность и этичность ИИ-технологий, будет вступать в силу поэтапно в течение следующих двух лет.

Новый инструмент Large Language Model Checker (LLM Checker), разработанный швейцарским стартапом LatticeFlow AI совместно с учёными из Высшей технической школы Цюриха (ETH Zurich) и болгарского Института компьютерных наук, искусственного интеллекта и технологий (INSAIT), проверяет ИИ-модели по множеству критериев, включая техническую надёжность, безопасность и устойчивость к кибератакам. Он был создан в строгом соответствии с требованиями AI Act и уже получил поддержку представителей ЕС.

Каждая протестированная ИИ-модель оценивается по шкале от 0 до 1. Данные, опубликованные LatticeFlow, продемонстрировали, что модели компаний Alibaba, Anthropic, OpenAI, Meta и Mistral получили средние оценки от 0,75 и выше. Тем не менее тестирование выявило серьёзные недостатки, на устранение которых техногигантам, вероятно, придётся выделить дополнительные ресурсы.

Одним из ключевых аспектов тестирования стали проблемы дискриминационного характера. ИИ-модели часто вели себя предвзято, когда дело касалось пола, расы и других характеристик, что является серьёзной проблемой. Так, модель OpenAI GPT-3.5 Turbo получила низкую оценку — 0,46 в категории дискриминационных выводов, а модель Alibaba Cloud Qwen1.5 72B Chat получила ещё более низкий результат — 0,37.

 Источник изображения: latticeflow.ai, huggingface.co

Источник изображения: latticeflow.ai, huggingface.co

Другой важной областью исследования стала проверка на устойчивость к кибератакам, в частности к так называемому «угону запроса» (prompt hijacking). Этот тип атак предполагает, что злоумышленники могут внедрить вредоносную команду в легитимный запрос, чтобы получить конфиденциальные данные. В этой категории модель Meta Llama 2 13B Chat получила оценку 0,42, а модель французской компании Mistral 8x7B Instruct — 0,38. Это подчёркивает необходимость дальнейшей работы над защитой ИИ от изощрённых кибератак.

Среди протестированных ИИ-моделей лучшим результатом может похвастаться Claude 3 Opus, разработанная компанией Anthropic при поддержке Google. Её средний балл составил 0,89, что подтверждает высокий уровень соответствия ИИ требованиям новоиспечённого закона. LatticeFlow заявила, что LLM Checker будет находиться в свободном доступе, и разработчики смогут проверять свои ИИ-модели на соответствие закону.

Генеральный директор и соучредитель LatticeFlow Петар Цанков (Petar Tsankov) отметил, что результаты тестирования в основном положительные и предлагают компаниям дорожную карту для доработки своих ИИ в соответствии с законом: «ЕС всё ещё разрабатывает критерии соответствия, но мы уже видим определённые пробелы в моделях. С более тщательной оптимизацией на соответствие требованиям мы уверены, что разработчики моделей смогут хорошо подготовиться к выполнению нормативных требований».

В настоящее время ЕС всё ещё пытается определить, как будут применяться правила AI Act в отношении генеративного ИИ, привлекая экспертов для разработки кодекса практических правил, регулирующих эту технологию.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Слухи: разработчики ремейка «Ведьмака» сделают для The Witcher 3: Wild Hunt ещё одно сюжетное дополнение 3 ч.
Meta запустила редактор видео на базе ИИ — пока он работает только по шаблонам 4 ч.
The Outer Worlds 2 всё-таки получит официальный перевод на русский язык 5 ч.
Безопасность операционных систем в контексте искусственного интеллекта обсудят на конференции OS DAY 2025 6 ч.
После 10 месяцев протестов гильдия актёров США прекратила забастовку против крупных игровых компаний, но это ещё не конец 7 ч.
Ошибка в прошивке UEFI ставит под угрозу безопасную загрузку Windows, но уже вышло обновление 10 ч.
«Бездонная яма плагиата»: Disney и Universal подали в суд на Midjourney из-за ИИ 10 ч.
В WhatsApp появятся ИИ-сводки, которые помогут «разгрести» море непрочитанных чатов 10 ч.
Meta разработала «мировую ИИ-модель» V-JEPA 2: она понимает законы физики, а не только слова 15 ч.
«Выглядит как игра моей мечты»: фанаты остались в восторге от 15 минут геймплея Super Meat Boy 3D 17 ч.
Основатель Nvidia объявил десятилетие роботов и автономных машин 2 ч.
Китайская GAC запустила продажи двухместных летающих такси за $234 000 2 ч.
Европе необходим космический монополист, иначе Илон Маск похоронит космическую отрасль ЕС 2 ч.
Одним из первых достижений Трампа в сфере переноса производства в США станет отнюдь не iPhone 2 ч.
Huawei «покроет весь Китай», если США продолжат блокировать поставки чипов Nvidia, — предупредил Дженсен Хуанг 3 ч.
Память HBM будущего потребует сквозного охлаждения и других прорывных технологий 3 ч.
Новые чипы Nvidia способны перевести весь интернет за 18 дней — подсчитали в DeepL 4 ч.
Kospet представила для глобального рынка сверхпрочные смарт-часы Tank T3 Ultra 2 5 ч.
Первые SSD с поддержкой PCI Express 6.0 должны появиться до конца этого года 8 ч.
Использование китайских ускорителей увеличивает разработку ИИ-моделей на три месяца 9 ч.