Meta✴ обвинили в помехах исследованиям о рисках для детей в Instagram✴ и других платформах
Читать в полной версииMeta✴ могла препятствовать исследованиям, связанным с безопасностью детей. Сразу четыре сотрудника компании — двое действующих и двое бывших — заявили, что с 2021 года в Meta✴ действуют ограничения на исследования в области чувствительных тем, сообщает TechCrunch.
Источник изображения: Meta/YouTube
Упомянутые сотрудники передали Конгрессу США внутренние документы компании, в которых говорится, что в 2021 году в Meta✴ заработала политика создания различных ограничений в работе сотрудников, которые исследуют вопросы политики, расовой и гендерной идентичности, издевательств и защиты детей. Тогда же были обнародованы подобные исследования самой Meta✴, в которых говорилось, что Instagram✴ может негативно влиять на здоровье девочек-подростков.
После этого, чтобы застраховаться от повторений подобных скандалов, руководство Meta✴ стало рекомендовать своим исследователям различные способы «снижения рисков». В основном предлагались два способа: привлекать к работе юристов, чтобы использовать адвокатскую тайну, и никогда не употреблять термины вроде «незаконно» или «некорректно» при описании результатов. Всё это должно было помешать утечке информации либо снизить риски её обсуждения.
Бывший исследователь Meta✴ Джейсон Саттизан (Jason Sattizahn), который специализировался на виртуальной реальности, рассказал, что руководитель его отдела заставил удалить запись интервью, в котором сообщалось о домогательствах к 10-летнему мальчику на VR-платформе Horizon Worlds. В компании пытались обосновать это ссылками на международную практику, согласно которой информация, полученная от детей до 13 лет без согласия их родителей или опекунов, должна удаляться. Однако сотрудники Meta✴ отмечают, что в компании идут дальше и не просто удаляют информацию, а не позволяют даже обсуждать возможные проблемы и опасности, которые подстерегают детей до 13 лет на платформах виртуальной реальности.
Это далеко не первый процесс против Meta✴ в связи с вопросами благополучия несовершеннолетних. В феврале на компанию подала в суд её бывшая сотрудница Келли Стоунлейк (Kelly Stonelake), которая указывала на случаи расовой дискриминации несовершеннолетних пользователей Horizon Worlds. «В одном из тестов пользователи с чернокожими аватарами подвергались оскорблениям в течение первых 34 секунд после входа в платформу», — отмечала Стоунлейк.
Также критике подвергались ИИ-решения компании. В августе СМИ сообщали о том, что чат-боты Meta✴ могли вести с детьми разговоры романтического характера.