Власти США задумались о сертификации потенциально рискованных ИИ-моделей
Читать в полной версииАдминистрация президента США Джо Байдена приступила к изучению вопроса о необходимости проверки инструментов искусственного интеллекта, таких как ChatGPT, в связи с растущими опасениями по поводу того, что они могут использоваться для дискриминации или распространения вредоносной информации, пишет The Wall Street Journal.
Министерство торговли США опубликовало во вторник официальное сообщение по поводу необходимости проведения сертификации потенциально рискованных новых моделей ИИ перед их выпуском. «Мы знаем, что нам нужно установить некоторые ограничения, чтобы быть уверенными, что они [ИИ-модели] используются ответственно», — сообщил Алан Дэвидсон (Alan Davidson), глава Национального управления по телекоммуникациям и информации при Министерстве торговли США. На публичное обсуждение этого вопроса отводится 60 дней.
На прошлой неделе Байден обсуждал в Белом доме данную тему с консультативным советом, в который вошли представители Microsoft и Google. На вопрос репортёра, опасни ли технологии ИИ, Байден ответил: «Это ещё предстоит выяснить. Возможно».
Microsoft, Google и другие компании, занимающиеся разработкой ИИ-систем, заявили, что постоянно обновляют меры безопасности, программируя, в том числе, чат-боты таким образом, чтобы те не давали ответы на определённые вопросы.
«Мы считаем, что мощные системы ИИ должны подвергаться тщательной оценке безопасности, — сообщается в блоге OpenAI. — Регулирование необходимо для обеспечения принятия таких практик, и мы активно взаимодействуем с правительством в наилучшей форме, которую может принять такое регулирование».
В отсутствие федерального закона, регулирующего использование ИИ-систем, некоторые госучреждения используют имеющиеся юридические рычаги. Антимонопольное подразделение Министерства юстиции США заявило, что следит за конкуренцией в этом секторе, а Федеральная торговая комиссия США предупредила компании о юридических последствиях ложных или необоснованных заявлений о ИИ-продуктах.