Китай представил жёсткие правила для ИИ, который «ведёт себя как человек»
Читать в полной версииУправление по вопросам киберпространства Китая (CAC) опубликовало для общественного обсуждения проект мер по регулированию деятельности ИИ-сервисов в стране, сообщило агентство Reuters.
Источник изображения: julien Tromeur/unsplash.com
Предложенные управлением правила будут применяться к продуктам и сервисам, которые используют технологии ИИ для имитации черт человеческой личности, моделей мышления и стилей общения, а также обеспечивают эмоциональное взаимодействие с пользователями в Китае посредством текста, изображений, аудио или видео, сообщается на странице CAC в соцсети WeChat.
Регулятор отметил, что проект основан на всестороннем, взвешенном и многоуровневом подходе к регулированию с дифференцированным контролем в зависимости от уровня риска, обеспечивающим как поддержку инноваций, так и защиту от злоупотреблений.
Проектом запрещается создание и распространение контента, который угрожает национальной безопасности, наносит ущерб национальной чести или интересам, подрывает этническое единство, пропагандирует незаконную религиозную деятельность, распространяет слухи, нарушающие экономический или социальный порядок, а также содержит порнографию, включает азартные игры, насилие или подстрекательство к совершению преступления.
Также запрещается выпуск контента, который поощряет или романтизирует самоубийство или членовредительство, и такие действия, как словесные оскорбления или эмоциональные манипуляции, которые могут нанести вред физическому или психическому здоровью пользователей или ведут к подрыву их достоинства.
В соответствии с документом провайдеры ИИ-сервисов должны брать на себя ответственность за вопросы безопасности на протяжении всего жизненного цикла продукта и создавать системы для проверки алгоритмов, защиты данных и защиты личной информации.
Провайдеры должны информировать пользователей о том, что они взаимодействуют с ИИ, а не с человеком, и предупреждать их о вреде чрезмерного использования. Также они должны будут оценивать эмоции и уровень зависимости пользователя от сервиса. В документе говорится, что если у пользователей обнаруживаются сильные эмоции или аддиктивное поведение, провайдеры сервисов должны будут принять необходимые меры.
Линь Вэй (Lin Wei), президент Юго-Западного университета политических наук и права, в пояснительной записке к проекту заявил, что прорывы в ИИ-технологиях выводят взаимодействие человека и машины за рамки простой функциональной помощи в сторону эмоционального и персонализированного взаимодействия. Эта эволюция, меняя парадигмы социального взаимодействия, также порождает ряд новых рисков и вызовов.
Учёный отметил, что проект мер по регулированию направлен на управление рисками, возникающими конкретно из-за антропоморфизма (переноса человеческих свойств на неодушевлённые предметы) и эмоционального взаимодействия, уделяя особое внимание размыванию границ между человеком и машиной.