Сегодня 03 декабря 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

 Источник изображения: kcl.ac.uk

Источник изображения: kcl.ac.uk

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Календарь релизов 1 – 7 декабря: Metroid Prime 4, Marvel Cosmic Invasion и «Зайчик» 9 ч.
«Так не хочется, чтобы эта игра заканчивалась»: первый тизер последнего дополнения к Atomic Heart заинтриговал и растрогал фанатов 9 ч.
Microsoft признала, что ИИ-агенты небезопасны, но всё равно заполонит ими Windows 11» 10 ч.
Грандиозное возвращение мастера скрытности Стикса откладывается на 2026 год — дата выхода и новый трейлер Styx: Blades of Greed 10 ч.
В первый день зимы биткоин упал ниже $85 000 — пример оказался заразительным 11 ч.
Создатели «Земского собора» по многочисленным просьбам доработали боевую систему и улучшили оптимизацию — подробности крупного обновления 1.1.0 12 ч.
Состоялся релиз Astra Automation 2.0 — новой версии корпоративной платформы автоматизации IT-операций 14 ч.
В России резко вырос спрос на специалистов по общению с нейросетями 15 ч.
«Пожирает всё твоё время на протяжении многих лет»: сооснователь Rockstar спустя пять лет объяснил причину ухода из студии 16 ч.
Возвращение блудного разработчика: бывший режиссёр ремейка Splinter Cell спустя три года вновь возглавил проект, но этого никто не заметил 17 ч.
Власти Индии потребовали от поставщиков смартфонов устанавливать неудаляемое приложение для кибербезопасности 26 мин.
Новая статья: Обзор смартфона IQOO 15: время, вперед 4 ч.
Новая статья: Обзор и тест процессорного кулера PCCooler R400: малыш и его «карлссон» 6 ч.
AMD и Intel символически нарастили долю на рынке видеокарт — Nvidia всё равно держит подавляющие 92 % 6 ч.
TeamGroup предупредила: дефицит DRAM и NAND только начинается — цены будут расти весь 2026 год 6 ч.
В России автомобили Porsche стали массово глохнуть и выдавать ошибки — умельцы уже нашли решение 7 ч.
Настольная ностальгия: Sega выпустила аркадные мини-автоматы с Sonic The Hedgehog 7 ч.
Первый iPhone SE официально признан устаревшим, вместе с рядом других устройств Apple 8 ч.
Техпроцесс TSMC A16 оказался никому не нужен кроме Nvidia — Apple сразу перескочит на 1,4 нм 8 ч.
Дефицит DRAM ударил по Raspberry Pi 5 — одноплатники подорожали, но появилась бюджетная версия с 1 Гбайт 9 ч.