Теги → модератор

Facebook попросила прощения за «ошибки» модерации

Количество пользователей Facebook давно превысило 2 млрд и продолжает расти, так что задача контроля за соблюдением правил сообщества становится всё более сложной. Незавидная работа возложена на плечи команды модераторов, насчитывающей 7500 человек (помимо алгоритмов сайта), которые просматривают множество неприглядных публикаций, начиная с террористических материалов и заканчивая изображениями жестокого обращения с детьми.

Неудивительно, что модераторы не всегда верно понимают суть изображения или публикации (частично из-за двусмысленных рекомендаций самой Facebook). Проблеме распространения ненависти и вражды с помощью крупнейшей социальной сети был посвящён недавний материал некоммерческой организации ProPublica.

Её сотрудники отправили в Facebook набор из 49 примеров (выбранных из 900 публикаций добровольцев) с просьбой объяснить решения модераторов. В большинстве этих случаев сообщения, содержавшие сексистские, расистские или антимусульманские высказывания, остались опубликованными; в нескольких же случаях вполне законное выражение эмоций было удалено. Социальная сеть признала, что её редакторы неверно отреагировали на 22 случая. В шести примерах Facebook сказала, что пользователи запутали модераторов неверно оформленными жалобами или авторы сами удалили сообщения; а в двух случаях не было достаточно информации для реакции. Компания также выступила в защиту решений 19 своих редакторов.

«Мы сожалеем об ошибках, которые допустили, — сказал в заявлении Facebook вице-президент Джастин Ософский (Justin Osofsky). — Мы должны справляться лучше». Руководитель добавил, что в следующем году социальная сеть расширит свою команду по безопасности и защите до 20 тысяч человек, чтобы лучше поддерживать стандарты сообщества. Он добавил, что Facebook еженедельно удаляет порядка 66 тысяч сообщений, на которые поступают жалобы в распространении ненависти.

Помимо борьбы с дезинформацией, Facebook старается развивать и свои инструменты для удаления чувствительных материалов. Например, в апреле социальная сеть добавила механизм жалоб на «порновозмездие» (Revenge Porn — распространение фото- или видеоматериалов жертвы, запечатлённой во время сексуальной активности или в ином непотребном виде). Появляются и другие инструменты борьбы с агрессивным поведением собеседников и тому подобными тёмными сторонами общения в социальных сетях. Например, благодаря недавним новшествам должен снизится поток нежелательных сообщений и запросов в друзья.

Facebook пополнит команду модераторов тремя тысячами человек

После нескольких громких случаев насилия, о которых общественность узнала через Facebook, генеральный директор социальной сети Марк Цукерберг (Mark Zuckerberg) сообщил, что за следующий год компания наймёт три тысячи новых модераторов. Они будут проверять видеоролики и другой контент, на которые жалуются пользователи.

«Если мы хотим построить безопасное сообщество, нам нужно реагировать быстро, — написал Цукерберг. — Мы работаем над тем, чтобы о таких видео было проще сообщать и мы могли быстрее предпринимать нужные действия — будь то быстрое реагирование, когда кто-то нуждается в помощи, или удаление публикации».

В прошлом месяце Facebook раскритиковали за то, что в социальной сети на протяжении нескольких часов всем желающим была доступна запись стрельбы в Кливленде. Компания принесла извинения и пообещала «стать лучше». Тем не менее, позже в Таиланде произошёл ещё один несчастный случай: видеоролик, в котором было показано убийство ребёнка, находился в социальной сети целый день.

Цукерберг написал, что три тысячи человек присоединятся к команде четырёх с половиной тысяч модераторов, уже работающих с сообществом. В заявлении не раскрывается природа отношений между этими людьми и Facebook. Но обычно компания, как и многие другие в технологической сфере, отдаёт такую работу внештатным сотрудникам.

Эти три тысячи будут «просматривать миллионы отчётов, которые приходят еженедельно, и улучшать процесс так, чтобы он происходил быстрее», пишет генеральный директор Facebook. Он добавил, что компания внесёт изменения в систему жалоб на публикации, чтобы пользователям было проще сообщать о проблемном контенте, а модераторам — связываться с правоохранительными органами.

«ВКонтакте» запустила фильтр нежелательных комментариев

Социальная сеть «ВКонтакте» запустила новый инструмент — фильтр нежелательных комментариев для групп и публичных страниц, доступный администраторам сообществ и страниц мероприятий. После активации фильтра социальная сеть будет автоматически определять нежелательные комментарии под записями на стене сообщества и моментально удалять их.

Все скрытые фильтром комментарии будут автоматически помещены во вкладку «Журнал действий» в настройках страницы. Любой администратор сообщества может посмотреть, какое слово стало причиной скрытия того или иного комментария, и восстановить его в случае ошибки.

Фильтр нецензурных выражений будет удалять комментарии с ненормативной лексикой на четырех языках — русском, английском, украинском и казахском. Фильтр по ключевым словам поможет избавиться от более широкого спектра комментариев, содержащих заданные администратором стоп-слова. Словари фильтров будут автоматически самообучаться. Нововведение уже доступно первым 50 млн групп, публичных страниц и мероприятий.

«Это значительный шаг, облегчающий ведение крупных страниц СМИ и брендов, для которых чистота дискуссий в комментариях на их страницах „ВКонтакте“ имеет решающее значение. Некоторые сообщества „ВКонтакте“ получают тысячи комментариев от своих подписчиков каждый день. Этот инструмент позволит снизить издержки на модерацию страниц и минимизирует репутационные риски для компаний», — сообщил агентству «РИА Новости» руководитель пресс-службы «ВКонтакте» Георгий Лобушкин.

window-new
Soft
Hard
Тренды 🔥