Meta✴ обучает ИИ на видео с очков Ray-Ban, в том числе на интимных — но сначала их смотрят люди в Кении

Читать в полной версии

Умные очки Ray-Ban Meta с искусственным интеллектом оказались кошмаром с точки зрения конфиденциальности: видеозаписи с обнажёнными людьми, сценами секса и другим деликатным содержанием сохраняются не только на устройстве, но и в облаке Meta, после чего изучаются как алгоритмами, так и живыми людьми для обучения ИИ.

Источник изображения: ray-ban.com

К таким выводам пришли журналисты шведской газеты Svenska Dagbladet, изучившие партнёрский проект Meta и Ray-Ban. Как выяснилось, созданные устройством видеозаписи собираются и просматриваются большим количеством людей, в том числе подрядчиками, готовящими данные для обучения ИИ. Анонимные источники из кенийской компании признались, что просматривали видеозаписи людей в интимные и уязвимые моменты — когда пользователи умных очков Meta предпочли бы, чтобы за ними не наблюдали.

Кенийская компания Sama выступает субподрядчиком Meta — её сотрудники распознают объекты на фото и видео, и эти данные используются для обучения ИИ. Тысячи людей выделяют объекты в кадрах, подписывают их и передают данные в систему Meta. Один из сотрудников признался, что видел, как люди ходили в туалет или раздевались, и он не знает, осознавали ли они, что их снимают. В одном из случаев мужчина снял очки, поставил их на прикроватную тумбочку и вышел из комнаты, после чего туда вошла женщина и переоделась. Некоторые кадры снимались намеренно, а в других случаях пользователи или люди в кадре не осознавали, что велась съёмка.

Люди часто участвуют в подготовке данных для обучения ИИ — крупные компании нанимают большое число сотрудников в странах с невысокой оплатой труда. Однако Meta и другие игроки технологической отрасли заверяют, что их системы обеспечивают конфиденциальность. По крайней мере, сотрудники, работающие с видеоматериалами, должны подписывать соглашение о неразглашении, чтобы получить допуск к этой работе. Правда, сцены, которые видят эти сотрудники, иногда не подходят для обучения ИИ.

Существуют системы анонимизации, которые скрывают лица людей в кадре, но эти системы не всегда надёжны — иногда из-за сложных условий освещения лица оказываются различимыми. Когда журналисты задали Meta вопросы по поводу сложившейся ситуации, ответа пришлось ждать два месяца — в итоге представитель компании объяснил, как данные с очков передаются в мобильное приложение, и сослался на политику конфиденциальности Meta для систем ИИ.