Сегодня 07 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

 Источник изображения: kcl.ac.uk

Источник изображения: kcl.ac.uk

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Фанаты смогут подарить свою внешность персонажам игр PlayStation, начиная с Gran Turismo 7 — Sony анонсировала программу The Playerbase 2 ч.
Microsoft уже выпустила больше 80 различных Copilot — вся экосистема может включать более 100 продуктов 2 ч.
«Нет ничего невозможного»: директор ИРИ считает, что на полное импортозамещение компьютерных игр в России уйдет от трёх до пяти лет 3 ч.
THQ Nordic открыла предзаказы ремейка «Готики» — игра доступна и в российском Steam 3 ч.
Adobe представила образовательную ИИ-платформу Acrobat Student Spaces — аналог NotebookLM 3 ч.
DDU пересмотрел очистку драйверов после одного из последних обновлений Nvidia 3 ч.
Google добавит в чат-бот Gemini мониторинг психического здоровья 3 ч.
Китайцы прониклись всенародной любовью к ИИ-агенту OpenClaw 4 ч.
«Яндекс» добавил в поиск ИИ-блендер и диалоговый режим с «Алисой AI» 4 ч.
Meta выпустит открытые версии мощных ИИ-моделей Avocado и Mango с урезанной функциональностью 4 ч.
OnePlus представила смартфон Nord 6 с чипом Snapdragon 8 Gen 4, 50-Мп камерой и батареей на 9000 мА·ч за $420 38 мин.
Экипаж Artemis II показал полное солнечное затмение из-за Луны и прислал другие потрясающие фото 2 ч.
Intel объединилась с SpaceX, xAI и Tesla для создания мощнейшего производства чипов TeraFab 2 ч.
Австралийское неооблако Firmus при поддержке NVIDIA привлекло $505 млн и нарастило капитализацию до $5,5 млрд в преддверии IPO 2 ч.
Астронавт миссии Artemis II сфотографировал Луну на iPhone 3 ч.
Инвесторы требуют от Amazon, Microsoft и Google прозрачности отчётов о расходах воды и электроэнергии в ЦОД США 4 ч.
Anthropic развернёт 3,5 ГВт ИИ-мощностей на базе Google TPU 4 ч.
Лучше синица в руке: операторы ЦОД всё чаще отказывают неооблакам, предпочитая большой выгоде финансовую устойчивость 4 ч.
Ноутбуки на Qualcomm Snapdragon X2 Elite и Windows 11 наконец появились в продаже 5 ч.
Framework попросила не радоваться раньше времени по поводу стабилизации цен на память 5 ч.