Сегодня 05 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

 Источник изображения: kcl.ac.uk

Источник изображения: kcl.ac.uk

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая глава, старое название: Blizzard анонсировала перезагрузку Overwatch 2 5 ч.
Пьяные убийства, съеденные яблоки и акты милосердия: разработчики Kingdom Come: Deliverance 2 раскрыли статистику игроков за год с релиза 6 ч.
Spotify сделал тексты песен понятнее — даже на незнакомых языках и без интернета 7 ч.
«Сделала для Nioh то же, что Elden Ring для Dark Souls»: критики вынесли вердикт Nioh 3 7 ч.
Anthropic пообещала сохранить Claude без рекламы и высмеяла противоположный подход ChatGPT 9 ч.
Взрывной успех Battlefield 6 обеспечил Electronic Arts рекордный квартал 9 ч.
Nintendo анонсировала первую в 2026 году презентацию Nintendo Direct: Partner Showcase — где и когда смотреть 10 ч.
Реалистичный симулятор управления портом Docked от разработчиков RoadCraft и SnowRunner получил дату выхода и предзаказ в российском Steam 10 ч.
ИИ-боты стали новым типом посетителей интернета и генератором трафика — блокировки им не помеха 11 ч.
Google Gemini научится управлять смартфоном — новая функция уже засветилась в коде 11 ч.
AMD откажется от устаревшей и медленной IDT — будущие Ryzen и Epyc получат FRED, разработанную Intel 4 ч.
Новая статья: Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий 4 ч.
Microsoft сменила главу отдела безопасности после разноса от властей США 5 ч.
Western Digital готовит жёсткие диски для эпохи ИИ: ёмкостью 100+ Тбайт и кратно быстрее нынешних 5 ч.
Google неполноценно представила Pixel 10a — без цены и характеристик, но с датой предзаказов 6 ч.
В США создали подводный 3D-принтер, печатающий бетоном прямо на морском дне 7 ч.
Утечка раскрыла цены Samsung Galaxy S26, S26+ и S26 Ultra — грядёт подорожание, но возможно не везде 8 ч.
Полностью электрический паром на подводных крыльях установил рекорд, пройдя 300 км за трое суток 8 ч.
Анонсирован игровой смартфон iQOO 15 Ultra с активным кулером, памятью  LPDDR5X Ultra Pro и ценой от $820 8 ч.
AnTuTu опубликовал рейтинг самых быстрых Android-смартфонов и планшетов за январь 9 ч.