Оригинал материала: https://3dnews.ru/1128946

Meta обвинили в помехах исследованиям о рисках для детей в Instagram и других платформах

Meta могла препятствовать исследованиям, связанным с безопасностью детей. Сразу четыре сотрудника компании — двое действующих и двое бывших — заявили, что с 2021 года в Meta действуют ограничения на исследования в области чувствительных тем, сообщает TechCrunch.

 Источник изображения: Meta/YouTube

Источник изображения: Meta/YouTube

Упомянутые сотрудники передали Конгрессу США внутренние документы компании, в которых говорится, что в 2021 году в Meta заработала политика создания различных ограничений в работе сотрудников, которые исследуют вопросы политики, расовой и гендерной идентичности, издевательств и защиты детей. Тогда же были обнародованы подобные исследования самой Meta, в которых говорилось, что Instagram может негативно влиять на здоровье девочек-подростков.

После этого, чтобы застраховаться от повторений подобных скандалов, руководство Meta стало рекомендовать своим исследователям различные способы «снижения рисков». В основном предлагались два способа: привлекать к работе юристов, чтобы использовать адвокатскую тайну, и никогда не употреблять термины вроде «незаконно» или «некорректно» при описании результатов. Всё это должно было помешать утечке информации либо снизить риски её обсуждения.

Бывший исследователь Meta Джейсон Саттизан (Jason Sattizahn), который специализировался на виртуальной реальности, рассказал, что руководитель его отдела заставил удалить запись интервью, в котором сообщалось о домогательствах к 10-летнему мальчику на VR-платформе Horizon Worlds. В компании пытались обосновать это ссылками на международную практику, согласно которой информация, полученная от детей до 13 лет без согласия их родителей или опекунов, должна удаляться. Однако сотрудники Meta отмечают, что в компании идут дальше и не просто удаляют информацию, а не позволяют даже обсуждать возможные проблемы и опасности, которые подстерегают детей до 13 лет на платформах виртуальной реальности.

Это далеко не первый процесс против Meta в связи с вопросами благополучия несовершеннолетних. В феврале на компанию подала в суд её бывшая сотрудница Келли Стоунлейк (Kelly Stonelake), которая указывала на случаи расовой дискриминации несовершеннолетних пользователей Horizon Worlds. «В одном из тестов пользователи с чернокожими аватарами подвергались оскорблениям в течение первых 34 секунд после входа в платформу», — отмечала Стоунлейк.

Также критике подвергались ИИ-решения компании. В августе СМИ сообщали о том, что чат-боты Meta могли вести с детьми разговоры романтического характера.



Оригинал материала: https://3dnews.ru/1128946