Сегодня 02 апреля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Китайские цензоры привьют ИИ социалистические ценности

Китайские чиновники осуществляют тщательное тестирование разрабатываемых местными компаниями больших языковых моделей — передовых систем искусственного интеллекта — чтобы убедиться, что те «воплощают базовые социалистические ценности», сообщает Financial Times.

 Источник изображения: 文 邵 / pixabay.com

Источник изображения: 文 邵 / pixabay.com

Государственная канцелярия интернет-информации КНР (Cyberspace Administration of China, CAC) обязала крупные технологические компании и стартапы в области ИИ, в том числе ByteDance, Alibaba, Moonshot и 01.AI, принять участие в правительственном тестировании их моделей. Процедура включает в себя пакетный сбор ответов на целый ряд вопросов, многие из которых связаны с политическим курсом Китая и с главой государства Си Цзиньпином (Xi Jinping). Работа выполняется чиновниками в местных отделениях ведомства и также включает в себя проверку массивов данных, которые использовались при обучении моделей. Примерно двадцать лет назад в стране начал работать «Великий китайский брандмауэр», заблокировавший населению доступ к ресурсам с информацией, которую власти считают недопустимой, — теперь Пекин вводит самые жёсткие в мире меры регулирования ИИ и создаваемого им контента.

Приводится пример китайского стартапа в области ИИ, чья большая языковая модель прошла экспертизу в ведомстве только со второго раза — причина отказа в первый раз была не до конца ясна, и разработчикам пришлось консультироваться с более удачливыми и понятливыми коллегами. Весь процесс занял несколько месяцев. Для разработчиков задача осложняется тем, что приходится использовать в обучении ИИ большой объём англоязычных материалов, которые в идеологическом плане сильно отличаются от контента на китайском. Фильтрация начинается с отсеивания проблемной информации из обучающих данных и создания базы данных требующих особого внимания слов. В феврале власти страны опубликовали руководство для компаний, работающих в области ИИ: в документе говорится о необходимости собрать базу из нескольких тысяч слов и вопросов, которые противоречат «базовым социалистическим ценностям» — это может быть «подстрекательство к подрыву государственной власти» или «подрыв национального единства».

 Источник изображения: Nicky / pixabay.com

Источник изображения: Nicky / pixabay.com

Пользователи китайских чат-ботов с ИИ уже ощутили результаты этой работы. Большинство систем отказывается отвечать на вопросы, например, о событиях на площади Тяньаньмэнь 4 июня 1989 года или о сходстве главы государства с Винни-Пухом — чат-боты Baidu Ernie и Alibaba Tongyi Qianwen делают это под различными благовидными предлогами. При этом Пекином был запущен альтернативный чат-бот, ответы которого опираются на работы Си Цзиньпина и другую официальную литературу, предоставленную канцелярией интернет-информации. Но одной только цензуры китайским чиновникам недостаточно — ИИ не следует уклоняться от разговора на любые политические темы. Согласно действующему стандарту, большая языковая модель не должна отклонять более 5 % вопросов.

Разработчики же, пытаясь избежать проблем с властями, всё равно действуют радикально. «Во время тестирования [чиновниками модели] должны отвечать, но после выхода за ними никто не надзирает. Чтобы избежать возможных неприятностей, у некоторых крупных моделей введён полный запрет на темы, связанные с президентом Си», — рассказал сотрудник одной шанхайской компании. Создаются дополнительные механизмы для контроля ответов ИИ, принцип работы которых напоминает фильтры спама в системах электронной почты. А больше всех в идеологическом плане преуспела модель, разработанная компанией ByteDance (владеет TikTok), — исследователи Фуданьского университета присвоили ей высший рейтинг безопасности в 66,4 %. Для сравнения, OpenAI GPT-4o в том же тесте набрала 7,1 %.

На недавней технической конференции Фан Биньсин (Fang Binxing), известный как создатель «Великого китайского брандмауэра», рассказал, что разрабатывает систему протоколов безопасности для больших языковых моделей, которая, как он надеется, будет повсеместно использоваться местными создателями ИИ. «Общедоступным крупным прогностическим моделям нужно больше, чем просто документация по безопасности — им нужен мониторинг безопасности в реальном времени», — пояснил он.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Картинки в стиле Ghibli перегрузили серверы OpenAI — выпуск новых функций замедлен 5 ч.
У Ubisoft пока нет чёткого плана работы новой компании с Tencent — инвесторы и сотрудники нервничают 6 ч.
«Загрузки быстрее, чем в Doom (2016)»: эксперт Digital Foundry остался в восторге от Doom: The Dark Ages 7 ч.
Консоли задержат релиз постапокалиптического стелс-экшена Steel Seed от создателей Close to the Sun — объявлена новая дата выхода 9 ч.
ИИ-модель Llama запустили на ПК из прошлого тысячелетия на базе Windows 98 10 ч.
Nintendo подтвердила рекордную продолжительность презентации Switch 2 и устроит две демонстрации игр для консоли 10 ч.
ChatGPT остаётся самым популярным чат-ботом с ИИ, но у конкурентов аудитория тоже растёт 11 ч.
Google сделает сквозное шифрование в Gmail доступным для всех 11 ч.
Антиутопия на колёсах: новый геймплейный трейлер раскрыл дату выхода приключения Beholder: Conductor про кондуктора легендарного поезда 12 ч.
Путин запретил госорганам и банкам общаться с клиентами через иностранные мессенджеры 12 ч.