Оригинал материала: https://3dnews.ru/1134556

Китай представил жёсткие правила для ИИ, который «ведёт себя как человек»

Управление по вопросам киберпространства Китая (CAC) опубликовало для общественного обсуждения проект мер по регулированию деятельности ИИ-сервисов в стране, сообщило агентство Reuters.

 Источник изображения: julien Tromeur/unsplash.com

Источник изображения: julien Tromeur/unsplash.com

Предложенные управлением правила будут применяться к продуктам и сервисам, которые используют технологии ИИ для имитации черт человеческой личности, моделей мышления и стилей общения, а также обеспечивают эмоциональное взаимодействие с пользователями в Китае посредством текста, изображений, аудио или видео, сообщается на странице CAC в соцсети WeChat.

Регулятор отметил, что проект основан на всестороннем, взвешенном и многоуровневом подходе к регулированию с дифференцированным контролем в зависимости от уровня риска, обеспечивающим как поддержку инноваций, так и защиту от злоупотреблений.

Проектом запрещается создание и распространение контента, который угрожает национальной безопасности, наносит ущерб национальной чести или интересам, подрывает этническое единство, пропагандирует незаконную религиозную деятельность, распространяет слухи, нарушающие экономический или социальный порядок, а также содержит порнографию, включает азартные игры, насилие или подстрекательство к совершению преступления.

Также запрещается выпуск контента, который поощряет или романтизирует самоубийство или членовредительство, и такие действия, как словесные оскорбления или эмоциональные манипуляции, которые могут нанести вред физическому или психическому здоровью пользователей или ведут к подрыву их достоинства.

В соответствии с документом провайдеры ИИ-сервисов должны брать на себя ответственность за вопросы безопасности на протяжении всего жизненного цикла продукта и создавать системы для проверки алгоритмов, защиты данных и защиты личной информации.

Провайдеры должны информировать пользователей о том, что они взаимодействуют с ИИ, а не с человеком, и предупреждать их о вреде чрезмерного использования. Также они должны будут оценивать эмоции и уровень зависимости пользователя от сервиса. В документе говорится, что если у пользователей обнаруживаются сильные эмоции или аддиктивное поведение, провайдеры сервисов должны будут принять необходимые меры.

Линь Вэй (Lin Wei), президент Юго-Западного университета политических наук и права, в пояснительной записке к проекту заявил, что прорывы в ИИ-технологиях выводят взаимодействие человека и машины за рамки простой функциональной помощи в сторону эмоционального и персонализированного взаимодействия. Эта эволюция, меняя парадигмы социального взаимодействия, также порождает ряд новых рисков и вызовов.

Учёный отметил, что проект мер по регулированию направлен на управление рисками, возникающими конкретно из-за антропоморфизма (переноса человеческих свойств на неодушевлённые предметы) и эмоционального взаимодействия, уделяя особое внимание размыванию границ между человеком и машиной.



Оригинал материала: https://3dnews.ru/1134556