Британский Институт безопасности ИИ (AISI), созданный в ноябре 2023 года, запустил платформу Inspect, предназначенную для тестирования и оценки безопасности ИИ. Она упростит оценку ИИ для применения в промышленных, исследовательских и научных организациях.
Набор инструментов Inspect, доступный по лицензии с открытым исходным кодом, включая лицензии MIT, предназначен для оценки определённых возможностей моделей ИИ в различных сферах, включая основные знания моделей и способность рассуждать, и выработки оценки на основе полученных результатов.
По данным ресурса TechCrunch, платформа Inspect состоит из трех основных компонентов: наборов данных, инструментов решения и инструментов оценки. Наборы данных предоставляют образцы для оценочных тестов. Инструменты решения выполняют работу по проведению тестов. А инструменты оценки оценивают результаты и суммируют баллы тестов в метрики.
Компоненты Inspect можно дополнить с помощью сторонних пакетов, написанных на Python. «Мы надеемся, что глобальное сообщество ИИ будет использовать Inspect не только для проведения собственных испытаний на безопасность моделей, но и для адаптации и развития платформы с открытым исходным кодом, чтобы мы могли производить высококачественные оценки по всем направлениям», — заявил председатель AISI Ян Хогарт (Ian Hogarth).
Платформа Inspect была представлена спустя несколько дней после того, как Национальный институт стандартов и технологий США (The National Institute of Standards and Technology, NIST) анонсировал в конце апреля программу NIST GenAI, предназначенную для оценки различных технологий генеративного ИИ, включая модели, генерирующие текст и изображения.
В апреле США и Великобритания объявили о партнёрстве, в рамках которого «правительства будут обмениваться техническими знаниями, информацией и талантливыми специалистами в области безопасности ИИ». В рамках сотрудничества в США будет создан институт безопасности ИИ, который займётся оценкой рисков, связанных с ИИ и генеративным ИИ.