Сегодня 17 мая 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → laion

В популярных материалах для обучения нейросетей нашли изображения сексуального насилия над детьми

Исследователи из Стэнфорда обнаружили, что популярный набор данных LAION-5B, используемый для обучения моделей генеративного искусственного интеллекта, и применявшийся для Stable Diffusion и Google Imagen, включает в себя сотни ссылок на материалы сексуального насилия над детьми (Child Sexual Abuse Material — CSAM). Установлено, что LAION-5B включал по меньшей мере 1679 нелегальных изображений, взятых из постов в социальных сетях и популярных сайтов для взрослых.

 Источник изображения: LAION

Источник изображения: LAION

Исследователи начали изучение набора данных LAION в сентябре 2023 года, стремясь выяснить, используются ли там материалы с сексуальным насилием над детьми. С этой целью хеши или идентификаторы изображений отправлялись на платформы обнаружения CSAM, такие как PhotoDNA, и в Канадский центр защиты детей.

Исследователи из Стэнфорда отметили, что наличие CSAM в наборе данных для обучения ИИ не обязательно негативно повлияет на результаты обученных моделей. Тем не менее, всегда есть вероятность, что модель использует что-то из незаконных материалов при генерации изображений. «Наличие повторяющихся идентичных случаев CSAM также является проблематичным, особенно из-за увеличения вероятности получения изображений конкретных жертв», — говорится в отчёте.

LAION, некоммерческая организация, которая управляет набором данных, сообщила, что придерживается политики «нулевой терпимости» к вредоносному контенту и временно удалит наборы данных из Сети. Согласно сайту LAION, набор данных не является непосредственно репозиторием изображений. Он представляет собой результат индексирования ресурсов интернета и содержит ссылки на изображения и замещающий текст.

Stability AI сообщила, что внутренние правила компании запрещают неправомерное использование её платформ. Компания утверждает, что при обучении своих моделей на наборе данных LAION-5B, она использовала лишь часть материалов, которые отбирались в том числе и с учётом безопасности.

Эксперты полагают, что будет сложно полностью удалить проблемный контент из моделей ИИ, обученных на нём. Они рекомендуют подождать, чтобы модели, обученные на LAION-5B, такие как Stable Diffusion 1.5, «устарели, а распространение прекратилось там, где это возможно». Google выпустила новую версию Imagen, но не раскрыла, на каком наборе данных она обучалась.

Генеральные прокуроры США призвали Конгресс создать комитет для расследования влияния ИИ на эксплуатацию детей и запретить создание CSAM, генерируемого ИИ.

Запущен открытый проект Open Empathic по созданию ИИ с распознаванием человеческих эмоций

Некоммерческая организация LAION сообщила о запуске проекта Open Empathic — открытой платформы для разработки модели искусственного интеллекта с распознаванием человеческих эмоций. К созданию массива обучающих данных привлекли добровольцев.

 Источник изображений: Gerd Altmann / pixabay.com

Источник изображений: Gerd Altmann / pixabay.com

Организация LAION (Large-scale Artificial Intelligence Open Network) приступила к работе в начале 2021 года. Её основал немецкий школьный учитель Кристоф Шуман (Christoph Schuhmann) при содействии единомышленников с сервера Discord для энтузиастов в области ИИ. LAION существует за счёт пожертвований, государственных исследовательских грантов, а также отраслевых партнёрских проектов, таких как стартап Hugging Face и компания Stable Diffusion. Последней она создавала массив данных для обучения генеративного ИИ — с изображениями и их текстовыми описаниями.

Целью проекта Open Empathic является создание ИИ, который понимает не только слова человека. «Мы стремимся, чтобы он улавливал нюансы выражений и изменения интонации, что сделает взаимодействие человека с ИИ более аутентичным и эмпатичным», — пояснил господин Шуман.

На начальном этапе проекта в LAION запустили сайт, на котором добровольцам предлагается составлять описания к видеозаписям на YouTube. На этих роликах обычно демонстрируется речь одного человека — часть видео подобрана командой LAION, а некоторые предлагают добровольцы. По каждому клипу заполняется список полей: расшифровка текста; описание изображения и звука; возраст, пол и языковой акцент героя видео; уровень эмоционального возбуждения; психологический вектор («удовольствие» или «недовольство»). Есть и технические поля, в которых предлагается указать качество звука и наличие либо отсутствие посторонних шумов. Но основное внимание уделяется эмоциональной стороне.

Добровольцы выбирают подходящие к видео эмоции из готового перечня в выпадающем списке. Авторы проекта Open Empathic говорят, что этот механизм поможет создать обширную базу эмоциональных аннотаций с учётом различных языков и культур. После отправки отчёта доброволец может повторить процесс — количество клипов для участника проекта не ограничивается. В ближайшие время LAION предполагает собрать базу из 10 тыс. записей, чтобы к следующему году её объём составил при оптимистическом сценарии от 100 тыс. до 1 млн.

Некоторые правозащитные организации ранее призывали к полному запрету на разработку и применение систем распознавания эмоций — соответствующая норма есть и в европейском «Законе об ИИ», и она не допускает внедрение таких технологий правоохранительными органами, пограничниками, на рабочих местах и в школах. От подобных проектов перед лицом недовольства общественности ранее отказались некоторые компании, включая Microsoft. Но в LAION уверены, что открытый характер проекта даёт им моральное право продолжать работу над Open Empathic — в качестве примера приводится поддерживаемая силами сообщества «Википедия».


window-new
Soft
Hard
Тренды 🔥