Сегодня 02 апреля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → dioptra

В США создали систему оценки рисков для ИИ-алгоритмов

Национальный институт стандартов и технологий (NIST), входящий в состав Министерства торговли США и занимающийся разработкой и тестированием технологий для американского правительства, компаний и общественности, представил обновлённый тестовый стенд Dioptra. Он предназначен для оценки того, как вредоносные атаки, включая те, что направлены на «отравление» используемых для обучения больших языковых моделей данных влияют на снижение производительности ИИ-систем.

 Источник изображения: Copilot

Источник изображения: Copilot

Первая версия модульного веб-инструмента с открытым исходным кодом Dioptra была представлена в 2022 году. Обновлённое ПО должно помочь разработчикам ИИ-моделей и людям, которые используют эти алгоритмы, оценивать, анализировать и отслеживать риски, связанные с ИИ. В NIST заявили, что Dioptra можно использовать для бенчмаркинга и исследования ИИ-моделей, а также в качестве общей платформы для симуляции воздействия на модели разного рода угроз.

«Тестирование влияния атак противника на модели машинного обучения — одна из целей Dioptra. Программное обеспечение с открытым исходным кодом доступно для бесплатной загрузки и может помочь сообществу, включая правительственные агентства, малые и средние компании, в проведении оценки, чтобы проверить заявления разработчиков ИИ о производительности их систем», — говорится в пресс-релизе NIST.

Вместе с Dioptra разработчики опубликовали ряд документов, в которых излагаются способы уменьшения рисков, связанных с ИИ-моделями. Это программное обеспечение было создано в рамках инициативы, которую поддержал президент США Джо Байден и которая предписывает NIST, помимо прочего, оказывать поддержку в тестировании ИИ-систем. Инициатива также устанавливает ряд стандартов безопасности в сфере ИИ, включая требования к компаниям, разрабатывающим ИИ-алгоритмы, об уведомлении федерального правительства и передачи данных по итогам оценки рисков безопасности до того, как ИИ станет доступен широкому кругу пользователей.

Проведение эталонной оценки ИИ является сложной задачей, в том числе потому, что сложные алгоритмы в настоящее время представляют собой «чёрные ящики», инфраструктура которых, данные для обучения и другие ключевые детали держатся разработчиками в секрете. Некоторые эксперты склоняются к мнению, что одних только оценок недостаточно для определения степени безопасности ИИ в реальном мире, в том числе потому, что разработчики имеют возможность выбирать, какие тесты будут проводиться для оценки их ИИ-моделей.

NIST не говорит, что Dioptra сможет исключить любые риски для ИИ-систем. Однако разработчики этого инструмента уверены, что он может пролить свет на то, какие виды атак могут сделать работу той или иной ИИ-системы менее эффективной, а также оценить негативное воздействие на производительность алгоритма. Отметим, что Dioptra способен работать только с моделями, которые можно загрузить на устройство и использовать локально.


window-new
Soft
Hard
Тренды 🔥
Картинки в стиле Ghibli перегрузили серверы OpenAI — выпуск новых функций замедлен 2 ч.
У Ubisoft пока нет чёткого плана работы новой компании с Tencent — инвесторы и сотрудники нервничают 4 ч.
«Загрузки быстрее, чем в Doom (2016)»: эксперт Digital Foundry остался в восторге от Doom: The Dark Ages 5 ч.
Консоли задержат релиз постапокалиптического стелс-экшена Steel Seed от создателей Close to the Sun — объявлена новая дата выхода 7 ч.
ИИ-модель Llama запустили на ПК из прошлого тысячелетия на базе Windows 98 7 ч.
Telegram продал виртуальных первоапрельских кирпичей почти на 100 млн рублей 8 ч.
ChatGPT остаётся самым популярным чат-ботом с ИИ, но у конкурентов аудитория тоже растёт 9 ч.
Google сделает сквозное шифрование в Gmail доступным для всех 9 ч.
Антиутопия на колёсах: новый геймплейный трейлер раскрыл дату выхода приключения Beholder: Conductor про кондуктора легендарного поезда 9 ч.
Путин запретил госорганам и банкам общаться с клиентами через иностранные мессенджеры 10 ч.