Сегодня 11 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Отчёт Google о Gemini 2.5 Pro раскритиковали за отсутствие прозрачности о безопасности ИИ

Эксперты раскритиковали Google за недостаток прозрачности и минимальное количество информации в техническом отчёте по Gemini 2.5 Pro. Они считают, что документ без полных данных не даёт адекватного представления о возможных рисках новой ИИ-модели .

 Источник изображений: Google

Источник изображений: Google

Отчёт был опубликован спустя несколько недель после запуска Gemini 2.5 Pro — самой мощной на сегодняшний день модели Google. Хотя такие документы обычно считаются важной частью обеспечения безопасности искусственного интеллекта (ИИ) и помогают независимым исследователям проводить собственные оценки рисков, в данном случае отчёт оказался «очень скудным», пишет TechCrunch.

«В документе минимум информации, и он появился уже после того, как модель была доступна широкой публике, — заявил Питер Уилдефорд (Peter Wildeford), сооснователь Института политики и стратегии в области ИИ. — Невозможно проверить, выполняет ли Google свои публичные обещания, а значит невозможно оценить безопасность и надёжность моделей компании».

Отдельную критику вызвало отсутствие упоминания о внутренней системе оценки рисков Frontier Safety Framework (FSF), которую Google представила в прошлом году для выявления потенциально опасных возможностей ИИ. В новом отчёте не содержится результатов тестов по опасным способностям модели — эти данные Google хранит отдельно и обычно не публикует вместе с основным документом.

Эксперты считают, что Google, некогда выступавшая за стандартизацию отчётности по ИИ, теперь сама отходит от своих принципов. Отдельная обеспокоенность связана с тем, что компания до сих пор не представила отчёт по недавно анонсированной модели Gemini 2.5 Flash. Однако представитель Google заявил изданию TechCrunch, что этот документ выйдет в ближайшее время.

Отмечается, что ситуация с Google, очевидно, является частью более широкой тенденции. Например, Meta недавно также подверглась критике за поверхностный анализ рисков своей новейшей ИИ-модели Llama 4, а OpenAI вовсе не представила отчёт по линейке GPT-4.1.

«Мы явно наблюдаем гонку на понижение стандартов, — заявил Кевин Бэнкстон (Kevin Bankston), старший советник по вопросам управления ИИ Центра демократии и технологий. — А на фоне сообщений о том, что другие компании, включая OpenAI, сокращают время на тестирование с месяцев до дней, такой уровень отчётности Google является тревожным сигналом».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Фанаты нашли подтверждение недавних слухов о Red Dead Redemption 2 и GTA IV на официальном сайте Rockstar 31 мин.
Россиянина приговорили к трём годам тюрьмы за кражу технологий ASML для создания производства чипов в России 34 мин.
В Telegram появится реклама, как в YouTube — прямо на видео 49 мин.
Apple создала ИИ, который определяет состояние здоровья человека с точностью до 92 % 3 ч.
ИИ-бот Grok 4 уличён в использовании мнения Илона Маска для ответов на спорные вопросы 4 ч.
Созданные ИИ вирусы научились обходить защиту Microsoft Defender, но пока с переменным успехом 6 ч.
«Сбылась мечта всех фанатов»: мобильная хоррор-стратегия на выживание Resident Evil: Survival Unit вышла из тени 6 ч.
Экс-глава Intel представил тест для оценки соответствия ИИ общечеловеческим ценностям 6 ч.
Krafton обвинила бывших руководителей Unknown Worlds в подрыве разработки Subnautica 2, а те подали на компанию в суд 6 ч.
Sony показала 17 минут геймплея Ghost of Yotei и анонсировала лимитированные PS5 в стиле игры 9 ч.