Сегодня 26 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

 Источник изображения: kcl.ac.uk

Источник изображения: kcl.ac.uk

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Акции IBM упали из-за нежелания компании увеличить прогноз выручки 2 ч.
OpenAI и Anthropic начали активно привлекать маркетинговые кадры из других компаний 9 ч.
Новая статья: REPLACED — любовь и ненависть в Феникс-Сити. Рецензия 16 ч.
Новая статья: Gamesblender № 773: ремейк ACIV: Black Flag, битва за игры в Брюсселе и экранизация Elden Ring 17 ч.
Люди стали говорить на 28 % меньше — виноваты смартфоны и интернет, а пандемия лишь усилили спад 19 ч.
AMD выпустила систему разгона памяти EXPO 1.2 — потенциал она раскроет на Zen 6 24 ч.
WhatsApp для Android получит поддержку «пузырей» — малоизвестного формата системных уведомлений 24 ч.
Microsoft позволит бесконечно откладывать обновления Windows 11 в течение 35-дневного периода 25-04 12:44
Google инвестирует в Anthropic $40 млрд и предоставит 5 ГВт вычислительных мощностей на фоне обострившейся ИИ-гонки 25-04 06:50
Новая статья: Mouse: P.I. For Hire — чёрно-белый Doom с мышами. Рецензия 25-04 00:04
Oklo, NVIDIA и LANL задействуют ИИ для разработки плутониевого топлива и создания передовой атомной инфраструктуры 11 мин.
MediaTek представила процессоры Dimensity 7450 и Dimensity 7450X для игровых и складных смартфонов 13 мин.
Цены на память местами пошли вниз, но нормализации рынка не произойдёт раньше 2030 года 48 мин.
Раскрыта цена контроллера Steam Controller — он стоит недёшево 4 ч.
Облачные провайдеры оставили ИИ-стартапы без доступа к GPU — все мощности съели Anthropic и OpenAI 5 ч.
«Прогресс МС-34» с 2,5 т груза взял курс на МКС 6 ч.
Из-за протестов рабочих производство чипов Samsung моментально упало на 58 % 8 ч.
В первом квартале рынок процессоров для смартфонов сжался на 8 %, но Apple, Samsung и Unisoc укрепили позиции 9 ч.
В рамках трёхлетней сделки Meta будет использовать сотни тысяч чипов Amazon Graviton 10 ч.
Китайские власти ограничат инвестиции в технологические стартапы со стороны США 10 ч.