Сегодня 03 мая 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Apple отказалась от сканирования фото в iCloud с помощью системы CSAM Detection, предназначенной для защиты детей

Ещё в 2021 году компания Apple анонсировала ряд мер по обеспечению безопасности детей, включая сканирование фотографий в частных галереях iCloud Photos с помощью системы Child Sexual Abuse Material (CSAM) Detection, способной выявлять преступления в отношении детей. Тем не менее это вызвало резкую критику правозащитников, увидевших угрозу конфиденциальности в намерении тотального сканирования фотоконтента.

 Источник изображения: LinkedIn Sales Solutions/unsplash.com

Источник изображения: LinkedIn Sales Solutions/unsplash.com

После этого Apple сначала отложила использование системы на неопределённый срок, а теперь и вовсе объявила о том, что планы по внедрению системы распознавания CSAM-материалов отменяются. В тот же день компания анонсировала программу Advanced Data Protection, предусматривающую сквозное шифрование данных в iCloud. Новости подтвердила в интервью The Wall Street Journal и один из топ-менеджеров компании — Джоанна Стерн (Joanna Stern).

Когда CSAM Detection только анонсировалась, в Apple заявляли, что неприемлемый контент в iCloud Photos можно будет распознавать на устройствах самих пользователей.

Как сообщала в прошлом году «Лаборатория Касперского», «для этого используется технология NeuralHash, по сути, создающая цифровой идентификатор фотографии в зависимости от её содержимого. Если идентификатор совпадает с таковым в базе известных снимков с эксплуатацией детей, информация об этом отправляется на серверы Apple. Там проводится ещё одна проверка». Как заявляли представители «Касперского», ещё один элемент системы — криптографический протокол Private Set Intersection. Он шифрует результаты работы CSAM Detection так, чтобы расшифровать их на стороне Apple можно было бы только в случае выполнения ряда критериев. Теоретически это должно было предотвратить использование системы за пределами заданных ограничений.

Так или иначе, система CSAM Detection вызвала резкую критику со стороны пользователей, экспертов и правозащитников. Не в последнюю очередь потому, что система, используемая для поиска фото с преступлениями в отношении детей легко может быть перенастроена и для поиска любого другого контента. Не говоря уже о том, что неуязвимых для злоумышленников алгоритмов фактически нет, и создавать лишний «бэкдор» просто опасно.

Теперь Apple решила отказаться от данной практики, так и не введя её в действие. Впрочем, прочие меры по защите детей, включая ограничения в iMessage, по-прежнему действуют в iOS.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Хакеры украли почти все данные пользователей сервиса цифровой подписи Dropbox Sign 5 ч.
«Буду слишком занят этим, чтобы с нетерпением ждать TES VI»: видео о прогрессе разработки фанатского ремейка Morrowind на движке Skyrim воодушевило игроков 6 ч.
С новым патчем Starfield стала работать на ПК «заметно лучше», но лишь в некоторых ситуациях 6 ч.
«Базис» купила конкурента и планирует занять не менее половины российского рынка виртуализации 7 ч.
«Будто всю школьную программу по литературе прочитал»: Indika вышла на ПК и получила первые отзывы в Steam 7 ч.
Apple освободила разработчиков бесплатных приложений от уплаты €0,5 за каждую первую установку 7 ч.
Космическая стратегия Sins of a Solar Empire II выйдет в Steam после полутора лет пребывания в EGS 8 ч.
На 20-летие российской стратегии «Периметр» в Steam выйдет переиздание со «множеством улучшений» — трейлер «Периметр: Legate Edition» 9 ч.
TikTok вновь стал доступен в России, но ненадолго 9 ч.
Winamp возродится в качестве стримингового сервиса 1 июля — обещана и новая версия классического плеера 9 ч.