Сегодня 02 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

 Источник изображения: kcl.ac.uk

Источник изображения: kcl.ac.uk

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Microsoft не будет перегружать Windows 11 ИИ-функциями — возможности Copilot и Recall урежут 17 ч.
Gartner: к 2029 году обеспечение цифрового ИИ-суверенитета будет обходиться странам в 1 % ВВП 17 ч.
Новая статья: Quarantine Zone: The Last Check — эмоций при досмотре не выявлено. Рецензия 01-02 00:05
Новая статья: Gamesblender № 761: GTA VI только в «цифре», иск к Valve на $900 млн и тайны отмененного «Принца» 31-01 23:32
IBM превзошла прогнозы Уолл-стрит благодаря спросу на ИИ, а мейнфреймы показали лучший старт продаж за всю историю 31-01 21:05
ИИ-агенты в «бесчеловечной» соцсети Moltbook основали собственную религию — «панцифарианство» 31-01 18:26
Соцсети вскоре столкнутся с массовыми набегами ИИ-агентов, предупредили учёные 31-01 16:47
Apple проигрывает борьбу за ИИ-специалистов — ценные кадры уходят в Meta и Google DeepMind 31-01 16:09
Instagram разрешит удалять себя из чужих списков «Близкие друзья» 31-01 16:04
Экс-инженера Google осудили за кражу коммерческих тайн для Китая 31-01 14:54
Новая статья: Гид по выбору умных часов (2026 год) 5 ч.
SpaceX попросила разрешение запустить 1 млн спутников для формирования космических ЦОД на сотни гигаватт 8 ч.
Intel показала образец огромного ИИ-чипа с четырьмя логическими блоками и 12 стеками HBM4 13 ч.
Портативная приставка MSI Claw A8 на Ryzen Z2 Extreme добралась до США и Европы по цене $1149 за вариант с 24 Гбайт ОЗУ 16 ч.
Южнокорейский стартап FuriosaAI начал массовое производство ИИ-ускорителей RNGD 17 ч.
SK hynix на фоне бума ИИ впервые обошла Samsung по величине годовой прибыли 17 ч.
Курс биткоина опустился ниже $80 000 впервые с апреля прошлого года 21 ч.
Крупнейшим направлением инвестирования для Nvidia станет OpenAI, но речь идёт не о $100 млрд 22 ч.
10 тыс. ампер на ускоритель: AmberSemi представила чип питания PowerTile для повышения энергоэффективности ИИ ЦОД 31-01 21:37
Флеш-альянс без срока давности: Kioxia и SanDisk продлили партнёрство по выпуску NAND до 2034 года 31-01 21:07