Сегодня 06 февраля 2023
18+
MWC 2018 2018 Computex IFA 2018
Новости Software

Apple отказалась от сканирования фото в iCloud с помощью системы CSAM Detection, предназначенной для защиты детей

Ещё в 2021 году компания Apple анонсировала ряд мер по обеспечению безопасности детей, включая сканирование фотографий в частных галереях iCloud Photos с помощью системы Child Sexual Abuse Material (CSAM) Detection, способной выявлять преступления в отношении детей. Тем не менее это вызвало резкую критику правозащитников, увидевших угрозу конфиденциальности в намерении тотального сканирования фотоконтента.

 Источник изображения: LinkedIn Sales Solutions/unsplash.com

Источник изображения: LinkedIn Sales Solutions/unsplash.com

После этого Apple сначала отложила использование системы на неопределённый срок, а теперь и вовсе объявила о том, что планы по внедрению системы распознавания CSAM-материалов отменяются. В тот же день компания анонсировала программу Advanced Data Protection, предусматривающую сквозное шифрование данных в iCloud. Новости подтвердила в интервью The Wall Street Journal и один из топ-менеджеров компании — Джоанна Стерн (Joanna Stern).

Когда CSAM Detection только анонсировалась, в Apple заявляли, что неприемлемый контент в iCloud Photos можно будет распознавать на устройствах самих пользователей.

Как сообщала в прошлом году «Лаборатория Касперского», «для этого используется технология NeuralHash, по сути, создающая цифровой идентификатор фотографии в зависимости от её содержимого. Если идентификатор совпадает с таковым в базе известных снимков с эксплуатацией детей, информация об этом отправляется на серверы Apple. Там проводится ещё одна проверка». Как заявляли представители «Касперского», ещё один элемент системы — криптографический протокол Private Set Intersection. Он шифрует результаты работы CSAM Detection так, чтобы расшифровать их на стороне Apple можно было бы только в случае выполнения ряда критериев. Теоретически это должно было предотвратить использование системы за пределами заданных ограничений.

Так или иначе, система CSAM Detection вызвала резкую критику со стороны пользователей, экспертов и правозащитников. Не в последнюю очередь потому, что система, используемая для поиска фото с преступлениями в отношении детей легко может быть перенастроена и для поиска любого другого контента. Не говоря уже о том, что неуязвимых для злоумышленников алгоритмов фактически нет, и создавать лишний «бэкдор» просто опасно.

Теперь Apple решила отказаться от данной практики, так и не введя её в действие. Впрочем, прочие меры по защите детей, включая ограничения в iMessage, по-прежнему действуют в iOS.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме
window-new
Soft
Hard
Тренды 🔥