Оригинал материала: https://3dnews.ru/1087073

Лидеры G7 договорились о регулировании искусственного интеллекта в рамках «Хиросимского процесса»

Лидеры стран Большой семёрки согласились с необходимостью управления в области генеративного ИИ, выразив обеспокоенность разрушительным потенциалом быстро развивающихся технологий. В рамках так называемого «Хиросимского процесса» правительства намерены провести обсуждение этого вопроса на уровне кабинетов министров и представить результаты к концу года, говорится во вчерашнем заявлении лидеров на саммите G7.

 Источник изображения: g7hiroshima.go.jp

Источник изображения: g7hiroshima.go.jp

Чтобы развитие ИИ было ориентировано на человека и заслуживало доверия, премьер-министр Японии Фумио Кисида (Fumio Kishida) призвал к сотрудничеству в обеспечении безопасного трансграничного потока данных, пообещав внести финансовый вклад в эти усилия. Призыв к усилению регулирования повторяет призывы лидеров промышленности и правительств по всему миру после того, как выход генеративного ИИ ChatGPT от OpenAI вызвал гонку среди компаний за ускоренное развитие технологии. Опасения стран Большой семёрки заключаются в том, что эти технологии, если позволить им развиваться бесконтрольно, могут стать мощным инструментом для дезинформации и политических потрясений. Сэм Альтман (Sam Altman), исполнительный директор OpenAI, вместе с руководителем отдела конфиденциальности компании International Business Machine Corp. призвали на этой неделе сенаторов США к более жёсткому регулированию ИИ. Кроме того, на этой неделе Всемирная организация здравоохранения в своём заявлении отметила, что слишком быстрое внедрение ИИ чревато риском медицинских ошибок, что может подорвать доверие к этой технологии и отсрочить её внедрение.

Премьер-министр Великобритании Риши Сунак (Rishi Sunak) хочет разработать политику управления рисками и преимуществами ИИ, для чего он пригласил Альтмана и других специалистов в Великобританию. Европейский союз делает шаг к регулированию инструментов ИИ, требуя от компаний убедиться, что пользователи знают, когда они взаимодействуют с ИИ, и запретить его использование в реальном времени для идентификации людей в общественных местах. Альтман заявил, что он будет рад появлению нового регулирующего органа как способа для США сохранить своё лидерство в этой области.

Старший научный сотрудник Центра ИИ и передовых технологий Вадхвани Хироки Хабука (Hiroki Habuka) отметил важность принятия жёстких мер в отношении ИИ: «Важно то, что правительство должно в конечном итоге принять жёсткие меры, если существует серьёзная проблема. Но если закон будет слишком подробным, он не сможет поспевать за изменениями в технологии».



Оригинал материала: https://3dnews.ru/1087073