Сегодня 24 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → этика

Google научила ИИ распознавать эмоции — у этого могут быть ужасные последствия

Google заявила, что её новое семейство ИИ-моделей обладает любопытной чертой — способностью «распознавать» эмоции. По словам компании, семейство ИИ-моделей PaliGemma 2, представленное в четверг, может анализировать изображения, позволяя ИИ генерировать подписи и отвечать на вопросы о людях, которых он «видит» на фотографиях.

 Источник изображений: Google

Источник изображений: Google

«PaliGemma 2 генерирует подробные, контекстно релевантные подписи для изображений, выходя за рамки простой идентификации объектов, чтобы описывать действия, эмоции и общее повествование сцены», — пишет Google в своём официальном блоге. Для распознавания эмоций PaliGemma 2 необходимо настроить соответствующим образом. Без этого он не работает. Однако эксперты, с которыми пообщались журналисты портала TechCrunch, были встревожены перспективой появления общедоступного детектора эмоций.

«Меня это очень беспокоит. Для меня проблематично считать, что мы можем “читать” эмоции людей. Это как просить совета у магического шара предсказаний (Magic 8 Ball, популярная игрушка, — прим. ред.) для решения серьёзных вопросов», — отметила в разговоре с TechCrunch Сандра Вахтер (Sandra Wachter), профессор этики данных и ИИ из Оксфордского института исследования Интернета.

Технологические компании, занимающиеся развитием ИИ, годами пытаются создать искусственный интеллект, способный определять эмоциональные аспекты в любых вещах — начиная от обучения продажам и заканчивая задачами, связанными с предотвращением несчастных случаев.

Разработка большинства детекторов эмоций базируется на ранних работах американского психолога Пола Экмана (Paul Ekman), который предположил, что у людей есть шесть основных типов эмоций: гнев, удивление, отвращение, удовольствие, страх и грусть. Однако последующие исследования этого вопроса поставили под сомнение гипотезу Экмана и показали, что существуют серьёзные различия в том, как представители разных слоёв общества выражают свои чувства.

«Определение эмоций в каком-то универсальном общем случае невозможно, потому что люди испытывают эмоции сложным образом. Нам кажется, что, глядя на людей, мы можем определить, что они чувствуют. И этим приёмом на протяжении многих лет пытались пользоваться разные люди, в том числе разведывательные органы и рекламные компании. Я уверен, что в некоторых случаях абсолютно возможно обнаружить некоторые общие признаки, но это не то, о чём идёт речь и не то, для чего в конечном итоге можно найти универсальный ответ», — сказал специализирующийся на ИИ научный сотрудник Лондонского университета королевы Марии Майк Кук (Mike Cook) в интервью TechCrunch.

Эксперты считают, что системы обнаружения эмоций, как правило, ненадёжны и предвзяты из-за особенностей взглядов самих разработчиков таких систем. В исследовании Массачусетского технологического института 2020 года учёные показали, что модели для анализа лиц могут формировать непреднамеренные предпочтения для определённых лицевых выражений, таких как улыбка. Более поздние исследования показывают, что модели анализа эмоций приписывают больше негативных эмоций лицам темнокожих людей, чем лицам белых людей.

Google заявляет, что провела «обширное тестирование» для оценки демографических предубеждений у PaliGemma 2 и обнаружила «значительно более низкий уровень токсичности и ненормативной лексики» по сравнению с отраслевыми бенчмарками. Однако компания не предоставила полный список использованных бенчмарков и не указала, какие типы тестов проводились.

Единственный бенчмарк, о котором рассказала Google, — это FairFace, состоящий из набора десятков тысяч портретов людей. Компания утверждает, что PaliGemma 2 показала хорошие результаты при оценке FairFace. Но некоторые эксперты раскритиковали бенчмарк за его предвзятость, отметив, что в FairFace представлены далеко не все расовые группы, а лишь несколько.

«Интерпретация эмоций — это довольно субъективный вопрос, который выходит за рамки использования визуальных средств и тесно связан с личным и культурным контекстом. Если не брать в расчёт ИИ, исследования показывают, что мы не можем распознавать эмоции только по чертам лица», — говорит Хайди Кхлааф (Heidy Khlaaf), главный научный сотрудник по ИИ в AI Now Institute, некоммерческой организации, изучающей социальные последствия искусственного интеллекта.

В ЕС использование систем распознавания эмоций вызвало серьёзные вопросы у регулирующих органов. Закон об ИИ, основной законодательный акт ЕС в области ИИ, запрещает школам и работодателям использовать детекторы эмоций. Однако он не запрещает их использование правоохранительными органами.

 Источник изображения: Unsplash

Источник изображения: Unsplash

Главное опасение экспертов, относительно открытых ИИ-моделей, таких как PaliGemma 2, которая распространяется через различные источники, включая платформу разработки ИИ Hugging Face, заключается в возможности злоупотребления и неправильности их использования, что может привести к реальному вреду.

«Если эта так называемая “эмоциональная идентификация” основана на псевдонаучных предубеждениях и предрассудках, то существует значительный риск последствий в том, как эта возможность может быть использована для последующей и ложной дискриминации различных маргинализированных групп правоохранительными органами, работодателями, пограничными службами и т. д.», — говорит Кхлааф.

В Google же говорят, что компания тестирует свои ИИ-модели на предрасположенность к «репрезентативный вреду» (стереотипам о социальных группах, например, расовых, этнических, гендерных или религиозных, которые приводят к отрицательным последствиям для этих групп и их представителей). «Мы провели надёжную оценку моделей PaliGemma 2 с точки зрения этики и безопасности, включая безопасность детей и безопасность контента», — добавили в компании.

Профессора этики данных и ИИ в Оксфордском институте Интернета Сандру Вахтер такой ответ компании не убедил: «Ответственные инновации — это когда вы думаете о последствиях их разработки с первого дня работы над ними, каждый раз, когда вы входите в свою лабораторию, а затем продолжаете делать это на протяжении всего жизненного цикла продукта. Я могу представить себе множество потенциальных проблем, которые могут создать такие модели и в конечном итоге привести к антиутопичному будущему, в котором ваши эмоции будут определять, получите ли вы работу, кредит и поступите ли в университет».

Уже 15 американских компаний пообещали Белому дому разрабатывать ИИ этичным

Восемь технологических компаний, в том числе Adobe, IBM, NVIDIA, Palantir, Salesforce и Stability, взяли на себя добровольное обязательство перед Белым домом по разработке систем искусственного интеллекта в рамках этических норм; ранее аналогичное обязательство взяли на себя ещё семь крупных разработчиков. Это поможет снизить риски, связанные с ИИ. Параллельно вашингтонские политики обсуждают принципы регулирования данных технологий.

 Источник изображения: David Mark / pixabay.com

Источник изображения: David Mark / pixabay.com

К настоящему моменту 15 наиболее влиятельных компаний США добровольно взяли на себя обязательства, связанные с разработкой систем ИИ. Они включают в себя построение технологии для идентификации изображений, созданных искусственным интеллектом, и обязательство делиться данными, касающимися безопасности систем ИИ, с правительством и учёными.

Тем временем в Конгрессе ведётся работа, направленная на создание норм регулирования ИИ. Уже завтра лидер сенатского большинства Чарльз Шумер (Charles E. Schumer) проведёт посвящённую этому вопросу встречу с главой Tesla Илоном Маском (Elon Musk), главой Meta Марком Цукербергом (Mark Zuckerberg), а также другими представителями технологической отрасли и правозащитниками. А уже сегодня руководитель аппарата Белого дома Джефф Зинтс (Jeff Zients) встретится с представителями Adobe и других компаний для обсуждения преимуществ и рисков ИИ.

Взятые компаниями на себя обязательства распространяются на следующие системы, разрабатываемые этими компаниями — текущие проекты будут доведены в исходном виде.


window-new
Soft
Hard
Тренды 🔥
«Если я говорю, что напишу, то сделаю это, в отличие от Джорджа Мартина»: Анджей Сапковский пообещал фанатам «Ведьмака» новые книги 23 мин.
Российская гиперконвергентная платформа vStack HCP получила крупное обновление 3 ч.
Продажи Rematch от создателей Sifu превысили миллион копий — раскрыта статистика игроков 3 ч.
Для Warhammer 40,000: Rogue Trader вышло сюжетное дополнение Lex Imperialis и большой патч 1.4, а в работе ещё более крупное обновление 4 ч.
Anthropic выиграла суд у издателей: обучать ИИ на купленных книгах законно, на пиратских — нет 4 ч.
Госдума РФ приняла закон об обязательной установке Rustore на iPhone и вообще все смартфоны 5 ч.
Xbox скоро настигнет новая волна массовых увольнений — Microsoft проводит реорганизацию 5 ч.
Путин подписал закон о создании национального мессенджера 6 ч.
Новый геймплейный трейлер раскрыл дату выхода перезапуска Painkiller — в российском Steam открыт предзаказ 6 ч.
Заявка на успех: более миллиона человек уже добавили Resident Evil Requiem в список желаемого 9 ч.
Смарт-очки будущего не обожгут голову: xMEMS разработала для них сверхтонкий кулер без вентиляторов и шума 2 ч.
Google представила ИИ для роботов, который сможет работать без интернета и завязывать шнурки 3 ч.
Meta выпустила VR-гарнитуру Quest 3S Xbox Edition с особым дизайном и расширенной комплектацией за $400 4 ч.
Tecno выпустила бюджетный смартфон Spark Go 2 с современным дизайном за $80 6 ч.
Выяснилась причина крушения частного японского лунного модуля Resilience — подвёл лазерный дальномер 6 ч.
Нью-Йорк построит гигаваттную АЭС для ИИ ЦОД и других отраслей — крупнейший в стране проект за 15 лет 7 ч.
Xiaomi представила 33-Вт зарядку со встроенным пауэрбанком на 5000 мА·ч дешевле $30 7 ч.
400-кВт ЦОД Deep Green будет отапливать бассейн развлекательного центра в Манчестере 7 ч.
OpenAI ищет управляющего энергетической политикой 8 ч.
Xiaomi представила смартфон Poco F7 на чипе Snapdragon 8s Gen 4 всего за $399 8 ч.