OpenAI предложила создать глобальный орган контроля ИИ с участием Китая и США

Читать в полной версии

OpenAI поддержала бы создание глобального органа управления искусственным интеллектом под руководством США и с участием Китая. Об этом пишет Bloomberg со ссылкой на заявление высокопоставленного руководителя компании, сделанное за несколько часов до начала встречи между американским президентом Дональдом Трампом (Donald Trump) и председателем КНР Си Цзиньпином (Xi Jinping).

Источник изображения: Mariia Shalabaieva / unsplash.com

Отвечая на вопрос о саммите США и Китая, Крис Лехане (Chris Lehane), вице-президент OpenAI по глобальным вопросам, заявил, что у США есть возможности для использования своего лидерства в сфере ИИ для создания глобального механизма управления, что может привести к появлению в будущем более безопасных и устойчивых систем.

«ИИ на некотором уровне выходит за рамки многих преобладающих или традиционных вопросов торговли. Существует возможность действительно начать строить что-то глобальное, и страны по всему миру, включая Китай, потенциального могут принять участие в этом», — приводит источник слова Лехане.

Он добавил, что такая организация могла бы напоминать Международное агентство по атомной энергии, в состав которого входит Китай и которое устанавливает международные стандарты безопасности для развития ядерной энергетики. Один из способов создания такой организации заключается в объединении Центра по стандартам и инновациям в области ИИ при Министерстве торговли США с институтами безопасности ИИ, которые создаются в разных странах мира.

В ходе интервью было сказано, что OpenAI обсуждала в Вашингтоне идею объединения институтов безопасности ИИ, но на данный момент неясно, поддержит ли администрация Трампа создание глобального управляющего органа с участием Китая. Ранее представители Белого дома говорили о том, что правительство отвергает идеи глобального управления ИИ-технологиями.

OpenAI также призывала американские власти обязать правительственных исследователей проводить оценку передовых ИИ-моделей на предмет их безопасности. Между тем, администрация Трампа готовит законопроект о кибербезопасности в сфере ИИ, который подчёркивает добровольный, а не обязательный предварительный анализ ИИ-моделей перед их развёртыванием.