Сегодня 15 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

 Источник изображения: kcl.ac.uk

Источник изображения: kcl.ac.uk

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: Docked — классический немецкий симулятор, только не от немцев. Рецензия 3 ч.
Новая статья: Gamesblender № 767: следующая Xbox, новые процессоры Intel, суд Nintendo и США, инфляция в Fortnite 3 ч.
Карточный роглайк Slay of the Spire 2 разошёлся тиражом в 3 млн копий — разработчики спешно готовят для него новый контент 6 ч.
Хакеры начали заполонять GitHub проектами с «невидимым» вредоносным кодом 13 ч.
Игры для ПК избавятся от компиляции шейдеров — Microsoft повсеместно распространит ASD на Windows 14 ч.
Группа ИИ-агентов взломала базу данных несуществующей компании, хотя их об этом не просили 14 ч.
Adobe заплатит $150 млн по иску о платной отмене подписок на Photoshop и другие приложения 16 ч.
Meta скоро отключит сквозное шифрование для личных сообщений в Instagram 16 ч.
Администрации Трампа перепадут $10 млрд в качестве вознаграждения за «приземление» TikTok 18 ч.
xAI накрыла новая волна увольнений — компанию покинули ещё два сооснователя, которых Маск обвинил в отставании Grok от конкурентов 20 ч.
Бактерии научили вырабатывать электричество при обнаружении опасных веществ — для этого их «заключили под стражу» 4 ч.
Noctua готовит корпус для ПК с фирменными вентиляторами и деревянной панелью 8 ч.
Synopsys показала в деле интерфейс класса PCIe 8.0 со скоростью 256 ГТ/с 8 ч.
AWS и Cerebras готовят решение для пятикратного ускорения инференса ИИ 8 ч.
Ключевые металлы для производства чипов подорожали вдвое и даже больше — отрасль готовится к дефициту 8 ч.
В России в прошлом году солнечная генерация выросла всего на 100 МВт — в 3150 раз меньше, чем в Китае 11 ч.
Китай начал строить космические аппараты для доставки образцов грунта с Марса 13 ч.
В Meta назревает новая волна увольнений: из-за ИИ могут уволить каждого пятого 13 ч.
Chuwi снова поймали на подмене процессоров: внутри ноутбука оказался менее мощный Ryzen, чем в характеристиках 14 ч.
Apple отпразднует 50-летие мероприятиями «по всему миру» — на первом спела Алиша Киз 14 ч.