Оригинал материала: https://3dnews.ru/1088710

OpenAI успешно пролоббировала в Евросоюзе более мягкий подход к регулированию ИИ

OpenAI, создатель ИИ-чат-бота ChatGPT, лоббировала в Евросоюзе использование более мягких подходов при разработке законодательства, регулирующего применение генеративного ИИ, пишет Time со ссылкой на полученные копии документов Еврокомиссии.

 Источник изображения: Pixabay

Источник изображения: Pixabay

По данным источника, OpenAI обратилась к европейским законодателям с просьбой внести несколько поправок в проект «Закона об искусственном интеллекте». В частности, она предложила не относить системы ИИ общего назначения (GPAI), такие, как OpenAI ChatGPT и DALL-E, к «высокорисковым», что налагало бы на них самые строгие обязательства по обеспечению безопасности и прозрачности. OpenAI утверждает, что только компании, явно применяющие ИИ в областях и задачах с высоким риском, должны соблюдать правила для этой категории. «Сама по себе GPT-3 не является системой высокого риска, но обладает возможностями, которые потенциально могут быть использованы в случаях использования с высоким риском», — указала OpenAI в официальном документе, направленном должностным лицам Еврокомиссии и Совета ЕС в сентябре 2022 года.

В июне 2022 года состоялась встреча представителей OpenAI и Европейской комиссии с целью уточнения категорий рисков, предложенных в проекте Закона об ИИ. «Они были обеспокоены тем, что системы ИИ общего назначения будут включены в список систем с высоким риском, а также тем, что большее количество систем по умолчанию будет отнесено к категории с высоким риском», — указано в официальном протоколе встречи. По словам источника Time в Еврокомиссии, на этой встрече представители OpenAI выразили обеспокоенность тем, что предполагаемое чрезмерное регулирование может повлиять на инновации в области ИИ.

Похоже, что лоббирование OpenAI было большей частью успешным — GPAI не относится к категории высокорисковых в окончательном проекте закона ЕС об ИИ, одобренном 14 июня. Однако в нём предъявляются более высокие требования к прозрачности «базовых моделей» — мощных систем ИИ, таких как GPT-3, которые можно использовать для разных задач. Это потребует от компаний проводить оценку рисков и раскрывать, использовались ли материалы, защищённые авторским правом, для обучения их моделей ИИ.

Представитель OpenAI сообщил Time, что OpenAI поддерживает включение в закон об ИИ «базовых моделей» в качестве отдельной категории несмотря на то, что компания предпочитает не разглашать источники данных для обучения своих моделей ИИ, опасаясь судебных исков о нарушении авторских прав.

До вступления «Закона ЕС об ИИ» в силу пройдёт ещё немало времени. Как ожидается, он будет одобрен в конце этого года, а на его вступление в силу может уйти до двух лет.



Оригинал материала: https://3dnews.ru/1088710