Сегодня 23 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

 Источник изображения: kcl.ac.uk

Источник изображения: kcl.ac.uk

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Apple устала от раздутого кода — в iOS 27 качество будет превыше новых функций 44 мин.
Новая статья: The Outer Worlds 2 — галактика ждет героя. Рецензия 24 ч.
Слежка без камер: Apple создала ИИ, который вычисляет действия пользователя по звуку и движениям 22-11 20:34
В Google начала показывать рекламу в «Режиме ИИ» в поиске — пока не всем 22-11 20:08
В уведомлениях Gmail на Android появился предпросмотр фото и других вложений 22-11 17:50
Nothing начала обновлять смартфоны до Android 16 и добавила индикаторы прогресса на заднюю панель 22-11 16:58
«Проводник» в Windows 11 будет автоматически загружаться в фоновом режиме, чтобы стать быстрее 22-11 13:27
Соцсеть X запустила маркетплейс редких и «спящих» никнеймов 22-11 13:20
Google опровергла «вводящие в заблуждение» сообщения об обучении ИИ на письмах из Gmail 22-11 12:17
Хакеры взломали приложение Gainsight и могли похитить данные более двухсот компаний 22-11 11:47
Seasonic выпустит киловаттный блок питания с пассивным охлаждением 2 ч.
«Роботы могут проломить череп»: Figure AI уволила инженера за такие слова и теперь ответит за это в суде 2 ч.
ИИ-пузырь «витает в воздухе», но Google всё равно замахнулась на расширение ИИ-мощностей в 1000 раз 2 ч.
TeamGroup выпустила SSD с физической красной кнопкой самоуничтожения 7 ч.
OpenAI и Foxconn оптимизируют стоечные решения для ИИ ЦОД, которые будут выпускаться в США 7 ч.
Будущее на кончике пальца: создан пластырь, позволяющий «чувствовать» текстуры через экран 10 ч.
Joby испытала версию электролёта S4 со сверхвысокой автономностью 11 ч.
Спустя 11 лет после приобретения бизнеса IBM по выпуску x86-серверов Lenovo так и не добилась его прибыльности 11 ч.
SpaceX Falcon 9 слетала в космос 150 раз с начала года — на орбиту выведана очередная партия спутников Starlink 13 ч.
В условиях растущего дефицита поставщики памяти переходят на долгосрочные контракты 15 ч.