Сегодня 12 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Популярные модели ИИ провалили тест на прозрачность: их разработчики скрыли всё, что смогли

Стремясь приоткрыть завесу над нейросетями, работающими по принципу «чёрного ящика», Стэнфордский университет в сотрудничестве с Массачусетским технологическим институтом и Принстоном разработал оценочный «Индекс прозрачности базовой модели» (Foundational Model Transparency Index, FMTI). Новая система оценки ранжирует 10 крупнейших моделей ИИ на основе общедоступных сведений о них. Результаты удручающие, лишь модели с открытым исходным кодом дарят некоторую надежду.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«В то время как социальное влияние моделей ИИ растёт, их прозрачность снижается, отражая секретность, которая сопровождала предыдущие цифровые технологии, такие как социальные сети», — утверждает соавтор исследования Саяш Капур (Sayash Kapoor). А низкая прозрачность, по мнению учёных, затрудняет «потребителям понимание ограничений модели или возмещение причинённого вреда».

FMTI оценивает 10 крупнейших моделей ИИ по 100 различным критериям, связанным с прозрачностью и открытостью. Сюда входит, например, их структура, информация, на которой они обучались, и потребность в вычислительных ресурсах. Также учитываются политики использования модели, защиты данных и снижения рисков. Полный список показателей и методологии можно найти в сопроводительном 110-страничном документе к исследованию.

 Источник изображений: Stanford University, The Center for Research on Foundation Models

Источник изображений: Stanford University, The Center for Research on Foundation Models

Перед публикацией отчёта исследователи обсуждали результаты теста совместно с руководителями каждой компании, давая им возможность аргументированно «оспаривать оценки, с которыми они не согласны». Если команда находила аргументы создателей ИИ убедительными, производилась корректировка оценок. Даже с учётом столь взвешенного подхода средняя оценка по всем моделям составила всего 37 баллов из 100 (37 %). На основании этого результата исследователи пришли к выводу, что ни одна из моделей на сегодняшний день не обеспечивает адекватной прозрачности.

Модель Llama 2 от Meta заняла первое место с результатом 54 %. Bloomz от Hugging Face, заняла второе место с 53 %, за ней следует GPT-4 от OpenAI, получившая 48 %. «OpenAI, в названии которой есть слово “открытый”, чётко показала отсутствие прозрачности в отношении большинства аспектов своей флагманской модели GPT-4», — прокомментировали этот результат исследователи. Модель Stable Diffusion 2 компании Stability AI заняла четвёртое место с 47 %. Модель PaLM2 от Google, на которой основан чат-бот Bard, замыкает пятёрку лучших, получив 40 %.

«Один из самых острых политических споров в области ИИ сегодня заключается в том, должны ли модели ИИ быть открытыми или закрытыми», — говорят исследователи. Открытые модели в целом получили более высокий рейтинг, чем закрытые. Модель считается «открытой», если её код размещается публично как открытое программное обеспечение. К открытым моделям относятся такие модели ИИ как Llama 2 и Bloomz, к закрытым — GPT-4. Стэнфордский университет продемонстрировал преимущества открытых моделей, создав свою собственную модель ИИ Alpaca на основе открытого программного кода Llama от Meta.

Исследователи надеются, что FMTI окажет позитивное влияние на политику создателей ИИ, и в дальнейшем планирует публиковать рейтинг FTMI ежегодно. Девять из десяти участников рейтинга ранее уже присоединились к инициативам правительства США по ответственному использованию ИИ. FMTI может стать дополнительным мотивирующим фактором для выполнения ими своих обязательств.

Данные рейтинга FMTI также могут пригодиться Европейскому Союзу при разработке следующей редакции «Закона об искусственном интеллекте». Исследователи полагают, что использование нового индекса даст законодателям большую ясность в отношении положения дел в области ИИ и того, что они потенциально могут изменить с помощью регулирования.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Anthropic научила чат-бота Claude припоминать старые диалоги с пользователем 17 мин.
Анонсирована корейская Black Myth: Wukong — фэнтезийный AAA-экшен Woochi the Wayfarer по мотивам классического романа 31 мин.
Илон Маск пригрозил Apple «незамедлительным» иском за занижение рейтинга Grok в App Store 2 ч.
Telegram заблокировал сотни каналов за мошенничество и шантаж 2 ч.
Telegram дважды за день оштрафовали в России за неудаление запрещённых материалов 3 ч.
США конфисковали серверы и $1 млн в биткоинах у хакеров-вымогателей BlackSuit 3 ч.
Эксперты надеются, что Трамп разберётся с Microsoft из-за её халатного отношения к безопасности 5 ч.
Изучай, расширяй, эксплуатируй, уничтожай: в Steam стартовал фестиваль 4X-стратегий, а Endless Legend 2 получила временную демоверсию 14 ч.
У DeepSeek произошёл масштабный сбой — регистрация новых пользователей ограничена 14 ч.
Microsoft начала тестировать облачные ПК для аварийной замены обычных через Windows 365 14 ч.
С начала года «Россети Московский регион» выявили более 145 тыс. нелегальных ВОЛС 29 мин.
Apple может выдохнуть: Трамп отложил 145-процентные пошлин на товары из Китая до ноября 46 мин.
InnoGrit выпустила SSD N3X со сверхнизкой задержкой для ИИ-систем 2 ч.
В 10 раз дешевле замены: CATL начала оказывать услуги по ремонту тяговых батарей в Китае 2 ч.
YADRO лидирует по показателю лояльности среди отечественных производителей серверов и СХД 2 ч.
Скидки и заканчивающиеся льготы оживили рынок электромобилей в США — продажи Tesla и других выросли на 20 % в июле 3 ч.
Японцы открыли «противоречивую» молекулу для улучшения экранов OLED и медицинских подкожных сканеров 4 ч.
Власти рекомендуют китайским компаниям избегать использования ускорителей Nvidia H20 4 ч.
На фоне бума ИИ компания Micron решилась улучшить свой квартальный прогноз 5 ч.
Дань в 15 % позволит Nvidia наладить поставки в Китай более продвинутых чипов с архитектурой Blackwell 7 ч.