Сегодня 02 ноября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → хиросимский процесс ии

«Большая семёрка» договорилась о руководящих принципах и кодексе поведения для ИИ

Лидеры G7 сегодня подписали «Соглашение о международных руководящих принципах ИИ» и «Добровольный кодекс поведения разработчиков ИИ» в рамках «Хиросимского процесса ИИ» — форума, посвящённого перспективам и проблемам развития искусственного интеллекта. Эти документы дополнят на международном уровне юридически обязательные правила, которые в настоящее время дорабатываются законодателями ЕС в соответствии с «Законом об ИИ».

 Источник изображения: Pixabay

Источник изображения: Pixabay

Одиннадцать руководящих принципов, принятых лидерами «Большой семёрки», служат руководством по обеспечению безопасности и надёжности технологий для организаций, разрабатывающих, внедряющих и использующих передовые системы ИИ. Они включают в себя обязательства по снижению рисков и злоупотреблений, выявлению уязвимостей, поощрению ответственного обмена информацией, отчётности об инцидентах и инвестициям в кибербезопасность, а также систему маркировки, позволяющую пользователям идентифицировать контент, созданный ИИ.

Эти принципы, основанные на результатах опроса заинтересованных сторон, были разработаны ЕС совместно с другими членами «Большой семёрки» в рамках инициативы, известной как «Хиросимский процесс ИИ». Они послужили основой для составления кодекса, который предоставит подробное и практическое руководство для организаций, разрабатывающих ИИ и будет способствовать ответственному управлению ИИ во всём мире.

Оба документа будут пересматриваться и обновляться по мере необходимости, в том числе посредством консультаций с участием многих заинтересованных сторон, чтобы гарантировать, что они остаются пригодными для использования и отвечают требованиям этой быстро развивающейся технологии. Лидеры G7 призвали организации, разрабатывающие передовые системы ИИ, взять на себя обязательство использовать в своей деятельности провозглашённые в принятых документах принципы.

«Хиросимский процесс ИИ» был учреждён на саммите G7 19 мая 2023 года с целью содействия развитию передовых систем ИИ на глобальном уровне. Эта инициатива является частью более широкого спектра международных дискуссий по вопросам сдерживания развития ИИ.

 Источник изображения: Japan Pool / Bloomberg

Источник изображения: Japan Pool / Bloomberg

«Потенциальные преимущества ИИ для граждан и экономики огромны. Однако ускорение развития возможностей ИИ также порождает новые проблемы. Уже будучи лидером в сфере регулирования благодаря "Закону об ИИ", ЕС вносит свой вклад в создание барьеров и управление ИИ на глобальном уровне. Я рада приветствовать международные руководящие принципы и добровольный кодекс поведения, отражающие ценности ЕС. Я призываю разработчиков ИИ подписать и внедрить этот Кодекс поведения как можно скорее», — прокомментировала принятые решения президент Еврокомиссии Урсула фон дер Ляйен.

Ниже приведён текст официального заявления лидеров G7 на «Хиросимском процессе ИИ» от 30 октября 2023 года:

«Мы, лидеры "Большой семёрки" (G7), подчёркиваем инновационные возможности и преобразующий потенциал передовых систем искусственного интеллекта (ИИ), в частности, базовых моделей и генеративного ИИ. Мы также признаем необходимость управления рисками и защиты отдельных лиц, общества и наших общих принципов, включая верховенство закона и демократические ценности, сохраняя человечество в центре внимания. Мы подтверждаем, что решение этих проблем требует формирования инклюзивного управления искусственным интеллектом.

Опираясь на прогресс, достигнутый соответствующими министрами в рамках Хиросимского процесса искусственного интеллекта, включая Заявление министров цифровых технологий и технологий "Большой семёрки", опубликованное 7 сентября 2023 года, мы приветствуем Международные руководящие принципы Хиросимского процесса для организаций, разрабатывающих передовые системы искусственного интеллекта, и Международный кодекс Хиросимского процесса. поведения организаций, разрабатывающих передовые системы искусственного интеллекта. Чтобы гарантировать, что оба документа сохранят свою пригодность и соответствие этой быстро развивающейся технологии, они будут пересматриваться и обновляться по мере необходимости, в том числе посредством постоянных инклюзивных консультаций с участием многих заинтересованных сторон. Мы призываем организации, разрабатывающие передовые системы искусственного интеллекта, соблюдать Международный кодекс поведения.

Мы поручаем соответствующим министрам ускорить процесс разработки Комплексной политики Хиросимского процесса ИИ, которая включает сотрудничество на основе проектов, к концу этого года в сотрудничестве с Глобальным партнёрством по искусственному интеллекту (GPAI) и Организацией экономического сотрудничества. операции и развития (ОЭСР), а также проводить информационно-разъяснительную работу и консультации с участием многих заинтересованных сторон, в том числе с правительствами, научными кругами, гражданским обществом и частным сектором, не только входящим в "Большую семёрку", но и в странах за её пределами, включая развивающиеся и развивающиеся экономики. Мы также просим соответствующих министров разработать к концу года план работы по дальнейшему развитию Хиросимского процесса искусственного интеллекта.

Мы считаем, что наши совместные усилия в рамках Хиросимского процесса искусственного интеллекта будут способствовать созданию открытой и благоприятной среды, в которой безопасные, надёжные и заслуживающие доверия системы ИИ проектируются, разрабатываются, внедряются и используются для максимизации преимуществ технологии при одновременном снижении её рисков, для общего блага во всем мире, в том числе в развивающихся странах и странах с формирующейся рыночной экономикой, с целью преодоления цифрового неравенства и достижения охвата цифровыми технологиями. Мы также с нетерпением ждём британского саммита по безопасности искусственного интеллекта, который пройдёт 1 и 2 ноября».


window-new
Soft
Hard
Тренды 🔥
Google представила Learn About — инструмент интерактивного обучения на базе искусственного интеллекта 5 ч.
Аудитория Threads превысила 275 млн пользователей за год с момента её запуска 8 ч.
У VK Cloud появился ИИ-консультант по облачным сервисам 11 ч.
На «Госуслугах» появилась форма для регистрации блогеров с аудиторией более 10 тыс. подписчиков 12 ч.
Правительство запретило незарегистрированным майнерам расходовать более 6000 кВт·ч электроэнергии в месяц 12 ч.
Apple объявила о покупке популярного редактора изображений Pixelmator литовской разработки 18 ч.
Новая статья: Neva — белый Бим Черные рога. Рецензия 23 ч.
Авторы «Мора» объяснили, зачем превратили кампанию Бакалавра в Pathologic 3, и вспомнили про Самозванку 23 ч.
Google начал внедрять генеративный ИИ в «Карты» и другие геосервисы 24 ч.
Создатель DayZ анонсировал «убийцу Kerbal Space Program» — Kitten Space Agency 01-11 21:54
APNIC: переход на IPv6, как оказалось, не так уж нужен 20 мин.
Облако AWS стало основным драйвером роста выручки Amazon — компания готова и дальше вкладываться в ИИ-инфраструктуру 38 мин.
Система Веги оказалась планетарной пустыней 2 ч.
Облачный бизнес Google растёт быстрее, чем у всех конкурентов 2 ч.
В гонке за передовым ИИ техногиганты потратят в 2024 году более $200 млрд 7 ч.
Intel до сих пор не начала зарабатывать на контрактном производстве чипов — заказов очень мало 7 ч.
Созданы сверхтонкие солнечные панели для дирижаблей — их масса меньше 700 г на квадратный метр 8 ч.
OnePlus 13 возглавил рейтинг самых мощных Android-смартфонов по итогам октября 8 ч.
В США задумались о санкциях против китайских производителей дисплеев — они вытесняют всех конкурентов 8 ч.
Спутники мобильной связи AST SpaceMobile стали ярчайшими объектами на ночном небе — астрономы в шоке 8 ч.