Сегодня 01 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Anthropic обвинила DeepSeek и ещё двух китайских конкурентов в 16 млн попыток дистилляции моделей Claude

OpenAI в этом месяце уже предупреждала американских законодателей в применении китайской компанией DeepSeek метода дистилляции её ИИ-моделей для ускорения собственного прогресса. Теперь со схожими обвинениями выступила Anthropic, причём в адрес сразу трёх китайских конкурентов: DeepSeek, MiniMax Group и Moonshot.

 Источник изображения: Unsplash, Solen Feyissa

Источник изображения: Unsplash, Solen Feyissa

По словам представителей Anthropic, на которые ссылается Bloomberg, три указанные китайские компании нарушили правила использования её моделей семейства Claude, осуществив не менее 16 млн сессий обмена данными с использованием тысяч поддельных учётных записей. Метод дистилляции в сфере обучения моделей позволяет разработчикам добиваться прогресса в сжатые сроки, совершенствуя свои системы на основе данных, получаемых от уже обученных сторонних моделей.

Как отмечает Anthropic в своём блоге, действия китайских разработчиков в этой сфере становятся всё более активными и изощрёнными. При этом окно времени для решительных ответных действий становится всё более узким, а угроза распространяется за пределы одной компании и конкретного региона.

Триумф китайской DeepSeek состоялся примерно год назад, когда она представила свою модель R1, которая при сопоставимой результативности обошлась в обучении в разы дешевле создаваемых западными конкурентами. С тех пор китайские разработчики буквально наводнили рынок более доступными ИИ-моделями, которые позволяют работать с текстом, видео и изображениями. Американским компаниям, которые опираются на закрытую экосистему, стало сложнее монетизировать свои разработки.

По данным Anthropic, китайские конкуренты использовали подставные учётные записи и прокси-серверы для доступа к данным Claude с минимальным риском обнаружения. Если DeepSeek осуществила более 150 000 обменов данными с Claude, то MiniMax преодолела планку в 13 млн обменов, пытаясь воссоздать передовые функции по примеру Claude, как считают в Anthropic. Отследить подобную активность Anthropic помогли партнёры, и в достоверности своих выводов компания очень уверена. Она формирует новые методы защиты от дистилляции своих моделей и готова делиться ими с другими представителями отрасли: «Ни одна из компаний не сможет с этим справиться в одиночку. Дистилляционные атаки такого масштаба требуют скоординированного ответа всей ИИ-отрасли, включая провайдеров облачных услуг и регуляторов».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Разработчики Subnautica 2 раскрыли системные требования перед погружением в ранний доступ и пообещали оптимизировать игру 55 мин.
Heroes of Might & Magic: Olden Era за первые сутки в раннем доступе полностью окупилась — продажи превысили четверть миллиона копий 2 ч.
Это другое: Пентагон не перестал считать Anthropic неблагонадёжной — но не отказался от передовой ИИ-модели Mythos 2 ч.
Epic Games вернула Fortnite на iPhone ещё в одной стране — Mac остались в стороне 3 ч.
Cloudflare перестала маркировать мессенджер Max как шпионское ПО 4 ч.
Windows 11 получила крупное обновление для повышения стабильности — первый шаг к возвращению «доверия пользователей» 4 ч.
Олдскульный шутер Gravelord в духе Duke Nukem вырвется с кладбища раннего доступа Steam совсем скоро — новый трейлер и дата выхода 4 ч.
Microsoft показала ИИ-агента для работы с юридическими документами в Word 6 ч.
Microsoft разрешила удалять любые предустановленные приложения в Windows 11 6 ч.
Инструмент анализа данных на Python на полдня стал вредоносным — он крал ключи и токены 6 ч.