Сегодня 26 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

 Источник изображения: kcl.ac.uk

Источник изображения: kcl.ac.uk

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Forbes назвал самые дорогие компании Рунета в 2026 году — лидера угадать нетрудно 13 мин.
Журналисты раскрыли первые подробности сюжета и разработки Wolfenstein 3 44 мин.
Роскомнадзор заблокировал 469 сервисов VPN к концу февраля 2 ч.
Google пообещала добавить «удивительные вещи» в Android 17 2 ч.
Фэнтезийная ролевая игра Esoteric Ebb в духе Planescape: Torment и Disco Elysium не заставит себя долго ждать — новый трейлер и дата релиза 3 ч.
Вышел Perplexity Computer — сервис для управления 19 ИИ-агентами, сообща работающими над большими проектами от начала и до конца 3 ч.
Google опробует изменения в поисковой выдаче в ЕС под угрозой многомиллиардного штрафа 3 ч.
Власти США обвинили Valve в организации нелегальных азартных игр через систему лутбоксов 4 ч.
«Базис» увеличил годовую выручку до 6,3 млрд рублей — почти треть теперь приходится на комплементарные решения 6 ч.
Google доверила агенту Gemini управлять приложениями и делать покупки в Android — старт с Pixel 10 и Galaxy S26 9 ч.
Japannext выпустила самый доступный 6K-монитор — 31,5-дюймовый IPS за €899 2 мин.
Amazon захотела пристроить крупный ЦОД к АЭС Comanche Peak в Техасе 19 мин.
Xiaomi удвоит расходы на исследования до $29 млрд и призвала конкурентов делать так же 60 мин.
Игровые видеокарты скоро не подешевеют — Nvidia предупредила, что дефицит сохранится в ближайшие кварталы 2 ч.
У сгоревшей после аварии Xiaomi SU7 Ultra двери заблокировались из-за отказа электрозамков, установило следствие 2 ч.
Россияне переходят на дешёвые консоли: продажи в 2025 году показали рекорд, но выручка рухнула 2 ч.
«Джеймс Уэбб» во всей красе показал причудливую туманность «Открытый череп» 3 ч.
AMD представила процессоры EPYC 8005 Sorano для телеком- и периферийного оборудования 4 ч.
«Мы любим CPU так же, как GPU»: глава Nvidia пообещал превзойти Intel и AMD в центральных процессорах 4 ч.
ИИ почти не повлиял на экономику США в 2025 году, выяснили эксперты Goldman Sachs 6 ч.