США захотели ограничить доступ России и Китая к GPT-4 и другим мощным моделям ИИ
Читать в полной версииМинистерство торговли США рассматривает возможность принятия новых нормативных мер по ограничению доступа Китая, России и некоторых других стран к проприетарных моделям искусственного интеллекта (ИИ), таким как GPT-4, пишет агентство Reuters со ссылкой на свои источники.
В настоящее время нет никаких препятствий для продажи американскими разработчиками самых мощных систем ИИ с закрытым исходным кодом кому угодно. OpenAI, поддерживаемая Microsoft, Google DeepMind холдинга Alphabet или Anthropic абсолютно законно могут продать свои ИИ-модели практически любому пользователю или компании.
Вместе с тем исследователи из государственного и частного секторов США выражают обеспокоенность тем, что противники Соединённых Штатов могут использовать ИИ-модели, способные анализировать огромные объёмы текста и изображений для обобщения информации и создания контента, для проведения мощных кибератак, создания биологического оружия и других целей. По словам одного из источников Reuters, любое ужесточение контроля экспорта ИИ-технологий, скорее всего, будет относиться к таким странам, как Россия, Китай, Северная Корея и Иран.
Как сообщают источники, для экспортного контроля над ИИ-моделями США могут использовать пороговое значение вычислительной мощности, необходимой для обучения модели. В случае достижения порогового значения, разработчик должен будет сообщить о планах разработки ИИ-модели и предоставить результаты испытаний Министерству торговли США.
По мнению двух американских чиновников и источника Reuters, осведомлённого о ходе обсуждений, этот показатель может стать основой для определения того, какие ИИ-модели подпадают под экспортные ограничения. Если этот подход возьмут за основу, ограничения коснутся экспорта будущих ИИ-моделей, поскольку ни одна из существующих ИИ-моделей не достигла этого порога, хотя по данным исследовательского института EpochAI, Gemini Ultra от Google близка к нему.
По мнению Тима Фиста (Tim Fist), эксперта по политике в области ИИ из аналитического центра CNAS в Вашингтоне (округ Колумбия), пороговое значение «является хорошей временной мерой, пока не будут разработаны более эффективные методы измерения возможностей и рисков новых моделей». Он отметил, что Китай, по всей видимости, примерно на два года отстаёт от Соединённых Штатов в сфере ИИ и разрабатывает собственное программное обеспечение для этих технологий.
В свою очередь Джамиль Джаффер (Jamil Jaffer), бывший чиновник Белого дома и Министерства юстиции США считает, что лучше использовать контроль, основанный на возможностях модели и предполагаемом применении. «Лучше сосредоточиться на угрозе национальной безопасности, а не на технологических порогах, потому что это более долгосрочно и сосредоточено на угрозе», — сказал он.
Независимо от порогового значения, экспорт моделей ИИ будет трудно контролировать, говорит Фист. Многие модели имеют открытый исходный код, а это означает, что они будут неподконтрольны регулятору.