Сегодня 09 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OSI ввела строгие стандарты открытости для Meta✴ Llama и других ИИ-моделей

Open Source Initiative (OSI), десятилетиями определяющая стандарты открытого программного обеспечения (ПО), ввела определение для понятия «открытый ИИ». Теперь, чтобы модель ИИ считалась действительно открытой, OSI требует предоставления доступа к данным, использованным для её обучения, полному исходному коду, а также ко всем параметрам и весам, определяющим её поведение. Эти новые условия могут существенно повлиять на технологическую индустрию, поскольку такие ИИ-модели, как Llama компании Meta не соответствуют этим стандартам.

 Источник изображения: BrianPenny / Pixabay

Источник изображения: BrianPenny / Pixabay

Неудивительно, что Meta придерживается иной точки зрения, считая, что подход OSI не учитывает особенностей современных ИИ-систем. Представитель компании Фейт Айшен (Faith Eischen) подчеркнула, что Meta, хотя и поддерживает многие инициативы OSI, не согласна с предложенным определением, поскольку, по её словам, «единого стандарта для открытого ИИ не существует». Она также добавила, что Meta продолжит работать с OSI и другими организациями, чтобы обеспечить «ответственное расширение доступа к ИИ» вне зависимости от формальных критериев. При этом Meta подчёркивает, что её модель Llama ограничена в коммерческом применении в приложениях с аудиторией более 700 млн пользователей, что противоречит стандартам OSI, подразумевающим полную свободу её использования и модификации.

Принципы OSI, определяющие стандарты открытого ПО, на протяжении 25 лет признаются сообществом разработчиков и активно им используются. Благодаря этим принципам разработчики могут свободно использовать чужие наработки, не опасаясь юридических претензий. Новое определение OSI для ИИ-моделей предполагает аналогичное применение принципов открытости, однако для техногигантов, таких как Meta, это может стать серьёзным вызовом. Недавно некоммерческая организация Linux Foundation также вступила в обсуждение, предложив свою трактовку «открытого ИИ», что подчёркивает возрастающую значимость данной темы для всей ИТ-индустрии.

Исполнительный директор OSI Стефано Маффулли (Stefano Maffulli) отметил, что разработка нового определения «открытого ИИ» заняла два года и включала консультации с экспертами в области машинного обучения (ML) и обработки естественного языка (NLP), философами, представителями Creative Commons и другими специалистами. Этот процесс позволил OSI создать определение, которое может стать основой для борьбы с так называемым «open washing», когда компании заявляют о своей открытости, но фактически ограничивают возможности использования и модификации своих продуктов.

Meta объясняет своё нежелание раскрывать данные обучения ИИ вопросами безопасности, однако критики указывают на иные мотивы, среди которых минимизация юридических рисков и сохранение конкурентного преимущества. Многие ИИ-модели, вероятно, обучены на материалах, защищённых авторским правом. Так, весной The New York Times сообщила, что Meta признала наличие такого контента в своих данных для обучения, поскольку его фильтрация практически невозможна. В то время как Meta и другие компании, включая OpenAI и Perplexity, сталкиваются с судебными исками за возможное нарушение авторских прав, ИИ-модель Stable Diffusion остаётся одним из немногих примеров открытого доступа к данным обучения ИИ.

Маффулли видит в действиях Meta параллели с позицией Microsoft 1990-х годов, когда та рассматривала открытое ПО как угрозу своему бизнесу. Meta, по словам Маффулли, подчёркивает объём своих инвестиций в модель Llama, предполагая, что такие ресурсоёмкие разработки по силам немногим. Использование Meta данных обучения в закрытом формате, по мнению Маффулли, стало своего рода «секретным ингредиентом», который позволяет корпорации удерживать конкурентное преимущество и защищать свою интеллектуальную собственность.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Боевик Samson: A Tyndalston Story от создателя Just Cause получил системные требования — оперативной памяти нужно больше, чем места на SSD 27 мин.
Google Translate научится закреплять до десятка часто используемых языков 35 мин.
Новый трейлер раскрыл дату выхода психологического хоррора на четверых The Mound: Omen of Cthulhu 2 ч.
ИИ должен был заменить консультантов, но спрос на них только растёт — из-за массового внедрения ИИ 5 ч.
tinyBuild похвасталась продажами The King is Watching — российской стратегии, где никто не работает, если за ним не следить 6 ч.
ИИ-модель Anthropic Claude обнаружила 22 уязвимости в Mozilla Firefox за две недели — из них 14 весьма серьёзны 7 ч.
«Однажды мы догоним тебя, Silksong»: пиковый онлайн Slay the Spire 2 в Steam превысил полмиллиона игроков 7 ч.
Киберпанковый инди-долгострой The Last Night готовится выйти из тени — разработчик заворожил игроков новыми кадрами 8 ч.
Боевик Gang of Dragon от создателя Yakuza оказался под угрозой отмены — Nagoshi Studio скоро останется без денег NetEase 9 ч.
Запретить соцсети для детей и подростков собираются уже девять стран 19 ч.
Ubitium стала на шаг ближе к выпуску универсального RISC-V процессора, заменяющего CPU, GPU, DSP и FPGA 2 ч.
Представлен Realme Note 80 — смартфон за $105 с 4 Гбайт оперативной памяти и батареей на 6300 мА·ч 3 ч.
MaxSun выпустила пару «двуглавых» видеокарт Arc Pro B60 Dual без вентиляторов 3 ч.
Договаривайтесь заранее: Sandisk пообещала скидки предусмотрительным клиентам с долгосрочными контрактами 3 ч.
Евросоюз анонсировала инициативу EURO-3C по созданию федеративной IT-инфраструктуры 5 ч.
Люди и культура: Тим Кук назвал две главные ценности Apple накануне 50-летнего юбилея компании 5 ч.
Индустриальный мини-компьютер AAEON Intelli TWL01 Edge поддерживает два 4K-дисплея 5 ч.
Война на Ближнем Востоке угрожает дефицитом электроэнергии, гелия и брома для производства чипов 7 ч.
Китай рассчитывает на ИИ, чтобы трудоустроить 12,7 млн выпускников вузов 7 ч.
Samsung рассчитывает увеличить долю рынка HBM до 28 % благодаря HBM4 10 ч.