США и союзники договорились о международном стандарте безопасности ИИ
Читать в полной версииСША, Великобритания и более десяти других стран объявили о подписании первого в своём роде международного соглашения о том, как обезопасить системы искусственного интеллекта от злоумышленников. Документ предполагает создание ИИ-платформ, спроектированных таким образом, чтобы они были безопасными с самого начала их разработки.
20-страничный документ предусматривает, что компании, занимающиеся разработкой и эксплуатацией ИИ-систем, должны придерживаться стратегий, направленных на защиту пользователей и общественности от злоупотреблений. Содержание документа включает ряд общих рекомендаций, таких как мониторинг ИИ-систем на предмет злоупотреблений, защита данных от несанкционированного доступа и тщательная проверка поставщиков ПО.
Джен Истерли (Jen Easterly), директор Агентства кибербезопасности и безопасности инфраструктуры США (CISA), подчеркнула значимость международного консенсуса по данному вопросу. По её словам, впервые так много стран пришли к соглашению о том, что в фокусе разработки ИИ должна стоять безопасность, а не только инновационные функции или снижение затрат. Это соглашение является частью глобальных инициатив, направленных на формирование будущего ИИ. Влияние ИИ настолько велико, что регулирование его развития становится ключевым вопросом для общества.
Кроме США и Великобритании, к соглашению присоединились такие страны, как Германия, Италия, Чешская Республика, Эстония, Польша, Австралия, Чили, Израиль, Нигерия и Сингапур. Этот шаг демонстрирует глобальное стремление к установлению стандартов в сфере ИИ.
В документе также рассматриваются меры противодействия угрозам со стороны хакеров. Рекомендации включают выпуск ИИ-моделей только после проведения всесторонних тестов на безопасность. Однако в соглашении не затрагиваются сложные вопросы, касающиеся целесообразного использования ИИ и методов сбора данных.
В Европейском союзе (ЕС) уже активно ведётся работа над регулированием ИИ. Так, законодатели ЕС разрабатывают правила в этой области, а Франция, Германия и Италия недавно достигли соглашения о регулировании ИИ, включающего обязательное саморегулирование через кодексы поведения для основных ИИ-моделей. В то же время в США процесс регулирования ИИ замедлен из-за поляризации в Конгрессе.
Администрация Джо Байдена (Joe Biden) призывает к более активному регулированию ИИ, поэтому в октябре Белый дом выпустил президентский указ, направленный на снижение рисков ИИ для потребителей, а также на укрепление национальной безопасности.