Сегодня 22 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Китайские цензоры привьют ИИ социалистические ценности

Китайские чиновники осуществляют тщательное тестирование разрабатываемых местными компаниями больших языковых моделей — передовых систем искусственного интеллекта — чтобы убедиться, что те «воплощают базовые социалистические ценности», сообщает Financial Times.

 Источник изображения: 文 邵 / pixabay.com

Источник изображения: 文 邵 / pixabay.com

Государственная канцелярия интернет-информации КНР (Cyberspace Administration of China, CAC) обязала крупные технологические компании и стартапы в области ИИ, в том числе ByteDance, Alibaba, Moonshot и 01.AI, принять участие в правительственном тестировании их моделей. Процедура включает в себя пакетный сбор ответов на целый ряд вопросов, многие из которых связаны с политическим курсом Китая и с главой государства Си Цзиньпином (Xi Jinping). Работа выполняется чиновниками в местных отделениях ведомства и также включает в себя проверку массивов данных, которые использовались при обучении моделей. Примерно двадцать лет назад в стране начал работать «Великий китайский брандмауэр», заблокировавший населению доступ к ресурсам с информацией, которую власти считают недопустимой, — теперь Пекин вводит самые жёсткие в мире меры регулирования ИИ и создаваемого им контента.

Приводится пример китайского стартапа в области ИИ, чья большая языковая модель прошла экспертизу в ведомстве только со второго раза — причина отказа в первый раз была не до конца ясна, и разработчикам пришлось консультироваться с более удачливыми и понятливыми коллегами. Весь процесс занял несколько месяцев. Для разработчиков задача осложняется тем, что приходится использовать в обучении ИИ большой объём англоязычных материалов, которые в идеологическом плане сильно отличаются от контента на китайском. Фильтрация начинается с отсеивания проблемной информации из обучающих данных и создания базы данных требующих особого внимания слов. В феврале власти страны опубликовали руководство для компаний, работающих в области ИИ: в документе говорится о необходимости собрать базу из нескольких тысяч слов и вопросов, которые противоречат «базовым социалистическим ценностям» — это может быть «подстрекательство к подрыву государственной власти» или «подрыв национального единства».

 Источник изображения: Nicky / pixabay.com

Источник изображения: Nicky / pixabay.com

Пользователи китайских чат-ботов с ИИ уже ощутили результаты этой работы. Большинство систем отказывается отвечать на вопросы, например, о событиях на площади Тяньаньмэнь 4 июня 1989 года или о сходстве главы государства с Винни-Пухом — чат-боты Baidu Ernie и Alibaba Tongyi Qianwen делают это под различными благовидными предлогами. При этом Пекином был запущен альтернативный чат-бот, ответы которого опираются на работы Си Цзиньпина и другую официальную литературу, предоставленную канцелярией интернет-информации. Но одной только цензуры китайским чиновникам недостаточно — ИИ не следует уклоняться от разговора на любые политические темы. Согласно действующему стандарту, большая языковая модель не должна отклонять более 5 % вопросов.

Разработчики же, пытаясь избежать проблем с властями, всё равно действуют радикально. «Во время тестирования [чиновниками модели] должны отвечать, но после выхода за ними никто не надзирает. Чтобы избежать возможных неприятностей, у некоторых крупных моделей введён полный запрет на темы, связанные с президентом Си», — рассказал сотрудник одной шанхайской компании. Создаются дополнительные механизмы для контроля ответов ИИ, принцип работы которых напоминает фильтры спама в системах электронной почты. А больше всех в идеологическом плане преуспела модель, разработанная компанией ByteDance (владеет TikTok), — исследователи Фуданьского университета присвоили ей высший рейтинг безопасности в 66,4 %. Для сравнения, OpenAI GPT-4o в том же тесте набрала 7,1 %.

На недавней технической конференции Фан Биньсин (Fang Binxing), известный как создатель «Великого китайского брандмауэра», рассказал, что разрабатывает систему протоколов безопасности для больших языковых моделей, которая, как он надеется, будет повсеместно использоваться местными создателями ИИ. «Общедоступным крупным прогностическим моделям нужно больше, чем просто документация по безопасности — им нужен мониторинг безопасности в реальном времени», — пояснил он.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Министр торговли США признала, что санкции против Китая неэффективны 3 ч.
Apple запустила разработку умного дверного звонка с Face ID 3 ч.
AirPods научатся измерять пульс, температуру и «множество физиологических показателей» 4 ч.
Облако Vultr привлекло на развитие $333 млн при оценке $3,5 млрд 9 ч.
Разработчик керамических накопителей Cerabyte получил поддержку от Европейского совета по инновациям 9 ч.
Вышел первый настольный компьютер Copilot+PC — Asus NUC 14 Pro AI на чипе Intel Core Ultra 9 11 ч.
Foxconn немного охладела к покупке Nissan, но вернётся к этой теме, если слияние с Honda не состоится 16 ч.
В следующем году выйдет умная колонка Apple HomePod с 7-дюймовым дисплеем и поддержкой ИИ 16 ч.
Продажи AirPods превысили выручку Nintendo, они могут стать третьим по прибыльности продуктом Apple 17 ч.
Прорывы в науке, сделанные ИИ в 2024 году: археологические находки, разговоры с кашалотами и сворачивание белков 21-12 22:55