Сегодня 03 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

 Источник изображения: kcl.ac.uk

Источник изображения: kcl.ac.uk

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Классический экшен, никакого ИИ и мультиплеер на долгие годы: разработчики Serious Sam: Shatterverse ответили на вопросы игроков 38 мин.
Darkest Dungeon про альпинистов: анонсирована безжалостная пошаговая тактика Ascenders: Beyond the Peak 2 ч.
Власти обязали крупнейшие российские интернет-платформы закрыть доступ пользователям с VPN к 15 апреля 2 ч.
Rowhammer адаптировали для взлома компьютеров через видеокарты — разработаны эксплойты GDDRHammer и GeForge  2 ч.
Google обновила видеоредактор Vids новейшими ИИ-моделями Veo и Lyria, а также добавила управляемые ИИ-аватары 2 ч.
«Словно снова впервые играю в Mass Effect»: новый геймплейный тизер ролевого боевика Exodus от ветеранов BioWare заворожил фанатов 3 ч.
В Apple нашли способ быстро и эффективно строить 3D-сцены с помощью ИИ 4 ч.
Nvidia показала работу RTX Mega Geometry в The Witcher 4 — на RTX 5090 технодемо выдавало 80 кадров/с в 4K с DLSS 4 ч.
Subnautica стала временно бесплатной в Steam и Epic Games Store перед запуском Subnautica 2 6 ч.
Google выпустила семейство открытых моделей Gemma 4 с поддержкой 140 языков и лицензией Apache 2.0 10 ч.
Tesla впервые с конца 2024 года обошла BYD по объёму поставок электромобилей 2 ч.
Китайский производитель роботов UBTech готов платить ИИ-специалистам до $18 млн в год 4 ч.
Анонсирован защищённый смартфон Realme 16 5G с чипом Dimensity 6400 Turbo и батареей на 7000 мА·ч 4 ч.
d-Matrix приобрела разработки GigaIO в области дата-центров, включая НРС-платформу SuperNODE 5 ч.
OpenAI внезапно решила потратить более сотни миллионов долларов на покупку популярного ток-шоу 7 ч.
Подготовка к 5G: Yadro инвестирует 135 млрд рублей в производство телеком-оборудования 10 ч.
Новая статья: Восьмеричный путь к AGI: от ложной нирваны к истинной 15 ч.
SpaceX пожаловалась, что запуски спутников-конкурентов Amazon Leo создали риск столкновения 16 ч.
8BitDo выпустила механическую клавиатуру Retro 68 AP50 за $500 в стиле компьютера Apple II 16 ч.
К созданию спонсируемого Биллом Гейтсом нетипичного ядерного реактора подключили ИИ — процесс пойдёт живее 16 ч.