Сегодня 03 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

 Источник изображения: kcl.ac.uk

Источник изображения: kcl.ac.uk

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
В действительности OpenAI уступила Пентагону в вопросах применения ИИ для слежки и в военных целях 21 мин.
К Microsoft приклеилось прозвище Microslop — компания пытается бороться банами в Discord 2 ч.
Верховный суд США подтвердил, что ИИ-искусство не может защищаться авторским правом 3 ч.
Xbox заинтриговала фанатов тизером «захватывающей дух» новинки Game Pass — всё указывает на Cyberpunk 2077 4 ч.
Скандал между Anthropic с Пентагоном может обойтись стартапу потерей инвестиций на $60 млрд 4 ч.
Издатель Terminator: Survivors и Styx: Blades of Greed под угрозой банкротства отложил шоу Nacon Connect 2026, чтобы показать игры «в наилучшем виде» 15 ч.
«Странная в лучшем смысле этого слова»: критики вынесли вердикт фэнтезийной ролевой игре Esoteric Ebb в духе Planescape: Torment и Disco Elysium 17 ч.
Nvidia выпустила драйвер 595.71 WHQL на замену неудачному 595.59 WHQL 18 ч.
Nintendo анонсировала презентацию инди-игр Indie World Showcase — фанаты ждут Hollow Knight: Silksong 18 ч.
В Великобритании Sony обвинили в завышении цен для пользователей PlayStation — сумма иска составила $2,7 млрд 19 ч.
«Нереальный аккумулятор» Donut Lab с невероятной скоростью зарядки смог работать при 100 °C 14 мин.
ByteDance выпустит в 2026 году AR-гарнитуру Pico Project Swan с micro-OLED дисплеями нового поколения 28 мин.
Надёжный защищённый смартфон OSCAL PILOT 6 с тепловизионной камерой поступил в продажу 2 ч.
Саудовский «город будущего» Неом заключил сделку с DataVolt о строительстве ЦОД гиперскейл-уровня за $5 млрд 2 ч.
Supermicro представила серверы на базе NVIDIA Grace для инфраструктур AI-RAN 2 ч.
SpaceX представила Starlink Mobile — «эпическую» спутниковую сотовую связь со скоростью до 150 Мбит/с 3 ч.
SpaceX начнёт регулярно использовать ракету-носитель Starship с середины следующего года 5 ч.
Власти США хотят продавать китайским компаниям не более 75 000 ускорителей Nvidia H200 на клиента 8 ч.
Vivo показала камерофон X300 Ultra и пообещала сделать его доступным за пределами Китая 12 ч.
Новая статья: Обзор Samsung Galaxy Z TriFold: тройной складной смартфон по цене квартиры в Воркуте 13 ч.