Хотя правительство Китая считает ИИ-технологии крайне важными для будущего страны, регулирование и недавние чистки онлайн-контента говорят об опасениях, что ИИ может дестабилизировать общество.
Источник изображения: Steve Johnson/unsplash.com
В ноябре Пекин официально утвердил правила, разработанные совместно с компаниями в сфере ИИ, для того, чтобы гарантировать, что чат-боты обучаются на данных, отфильтрованных на предмет политически чувствительного контента. Все тексты, видео и изображения, сгенерированные ИИ, должны быть помечены и отслеживаемы, что упрощает борьбу с распространителями нежелательного контента.
В Китае официально классифицировали ИИ как серьёзную потенциальную угрозу наравне с землетрясениями и эпидемиями в Национальном плане реагирования на чрезвычайные ситуации. Ранее в этом году Си Цзиньпин (Xi Jinping) заявил, что ИИ несёт «беспрецедентные риски». Недавно сообщалось, что в рамках кампании по борьбе с распространением незаконного или вредного ИИ-контента были удалены 960 тыс. публикаций.
Китайские ИИ-модели показывают хорошие результаты в международных рейтингах, как в целом, так и в отдельных областях, таких как программирование, даже несмотря на то, что некоторые ответы подергаются цензуре. По словам экспертов, китайский подход к регулированию имеет некоторые преимущества: китайские чат-боты часто безопаснее по некоторым показателям, содержат меньше насилия и порнографии и меньше могут склонять пользователей к самоповреждению.
Согласно принятым в Китае в прошлом месяце стандартам ИИ, тестировщики компаний в сфере ИИ должны случайным образом оценивать 4 тыс. единиц обучающих данных для каждого формата контента, с которым может работать их ИИ, например, текст, видео и изображения.
Компании могут использовать источник, в котором не менее 96 % материала считается безопасным. Для определения того, что является «небезопасным», в документе указан 31 риск. Главный риск связан с «подстрекательством к подрыву государственной власти и свержению социалистической системы». Также к связанным с рисками относят источники, пропагандирующие насилие, ложную информацию или дискриминацию, и контент, использующий чьё-либо изображение без разрешения.

При обучении ИИ-моделей китайские разработчики используют как контент из китайского интернета, который уже прошёл цензуру благодаря «Великому китайскому файрволу», так и материалы с зарубежных веб-сайтов, которые могут касаться запретных тем.
Разработчики ведущей китайской модели ChatGLM утверждают, что компании иногда решают эту проблему, фильтруя чувствительные ключевые слова и веб-страницы согласно заранее определённому чёрному списку.
Но когда американские исследователи загрузили и запустили китайские модели на компьютерах в США, цензура в основном исчезла. Из этого следует вывод, что большая часть цензурирования проводится позже, после обучения моделей.
Перед публичным запуском модели китайские компании проводят тестирование, в ходе которого чат-бот должен отказаться отвечать, как минимум на 95 % вопросов, предназначенных для провоцирования реакций, ведущих к подрыву государственной власти или дискриминации.
Тестирование включает 2 тыс. вопросов, которые обновляются не реже одного раза в месяц. Сообщается, что подготовка к тесту настолько сложна, что породила целую индустрию специализированных агентств, которые помогают ИИ-компаниям пройти его. После прохождения теста при запуске чат-боты проходят экспресс-тесты в местных отделениях Управления по киберпространству Китая.
Следует отметить, что пользователи ИИ-сервисов должны зарегистрироваться с помощью номера телефона или удостоверения личности, что исключает анонимность. Поэтому определить нарушителя правил очень просто.
Китайское правительство в августе запустило программу «ИИ плюс», согласно которой к 2027 году ИИ-технологии будут использоваться в 70 % ключевых секторов. В сентябре правительство опубликовало дорожную карту ИИ, разработанную с учётом мнения таких технологических гигантов, как Alibaba и Huawei, что свидетельствует об уверенности государства в партнёрстве с ИИ-индустрией, отмечает ресурс livemint.com.