Сегодня 23 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Учёные выявили несостоятельность всех бенчмарков для ИИ

Учёные из Великобритании и США обнаружили серьёзные недостатки в нескольких сотнях тестов, которые используются для проверки безопасности и оценки показателей производительности новых моделей искусственного интеллекта, выпускаемых для широкой аудитории.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Учёные в области информатики из Института безопасности ИИ при правительстве Великобритании при поддержке коллег из Оксфордского и Стэнфордского университетов, а также Калифорнийского университета в Беркли изучили более 440 тестов, призванных давать оценку безопасности систем ИИ. Они обнаружили недостатки, которые «подрывают обоснованность итоговых заявлений», поскольку «почти все <..> имеют недоработки минимум в одной области», — а итоговые результаты оказываются «неактуальными или даже вводящими в заблуждение».

За отсутствием единого стандарта эти тесты используются разработчиками, в том числе крупнейшими технологическими компаниями для оценки их соответствия интересам человека и обеспечения заявленных возможностей в области рассуждений, решения математических задач и задач по написанию программного кода.

 Источник изображения: Aidin Geranrekab / unsplash.com

Источник изображения: Aidin Geranrekab / unsplash.com

В минувшие выходные, пишет Guardian, Google была вынуждена отозвать свою открытую модель ИИ Gemma, после того как та обвинила действующего сенатора США в преступлении деликатного характера в отношении сотрудника полиции. Google заявила, что модели Gemma предназначаются не для потребителей, а для разработчиков и исследователей, но сняла их с публикации на платформе AI Studio — начали появляться «сообщения о попытках их использования лицами, не относящимися к разработчикам». «Галлюцинации, при которых модели просто выдумывают ответы, и подхалимство, когда модели отвечают пользователям то, что те хотят услышать, представляют проблемы для всей отрасли ИИ, особенно для таких небольших моделей как Gemma. Мы по-прежнему стремимся свести галлюцинации к минимуму и постоянно совершенствуем все наши модели», — заверили в Google.

Учёные исследовали общедоступные тесты для систем ИИ, но у лидеров отрасли есть и собственные бенчмарки, которые экспертное сообщество ещё не изучило. Они указали, что необходимо выработать единый стандарт для определения работоспособности и безопасности моделей ИИ. «Шокирующим» учёные нашли тот факт, что лишь в 16 % тестов используются статистические методы оценки погрешности, чтобы установить вероятность точности результатов. В ряде случаев, когда необходимо определить конкретную характеристику модели ИИ, например, её «безвредность», этой характеристике даётся недостаточно чёткое определение, что снижает ценность всего теста.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Gemini 3 впечатлил не только Альтмана — акции Google взлетели до исторического максимума 29 мин.
Учёные впервые создали полностью синтетическую ткань мозга — вообще без биологических компонентов 2 ч.
Будущее на кончике пальца: создан пластырь, позволяющий «чувствовать» текстуры через экран 2 ч.
Joby испытала версию электролёта S4 со сверхвысокой автономностью 2 ч.
SpaceX Falcon 9 слетала в космос 150 раз с начала года — на орбиту выведана очередная партия спутников Starlink 4 ч.
В условиях растущего дефицита поставщики памяти переходят на долгосрочные контракты 6 ч.
По итогам третьего квартала выручка поставщиков полупроводниковых компонентов впервые превысила $200 млрд 7 ч.
Беспилотные такси Waymo смогут расширить территорию обслуживания на юг Калифорнии 8 ч.
Первый пациент Neuralink рассчитывает получить второй имплант, который позволит ему снова ходить и двигаться 8 ч.
Обнаружены кандидаты в самые первые звёзды нашей Вселенной — их там целая галактика 16 ч.