Теги → модерирование

TikTok начнёт автоматически удалять видеоролики с неподобающим контентом

TikTok пытается улучшить процесс модерации видеороликов. Для некоторых задач будут применяться автоматизированные системы, которые, например, смогут определять видео с обнажённым телом, сценами секса, насилия или незаконных действий. Если система обнаружит подобное видео, оно сразу же будет удалено, а создателю контента будет предоставлена возможность обратиться к модератору-человеку, если он уверен в ошибочном удалении.

theverge.com

theverge.com

До сих пор все спорные ролики на TikTok обрабатывали живые модераторы, прежде чем их удалить. Нововведение призвано сократить объём неподобающих видео, которые им приходится просматривать, а также дать им больше времени на работу с более сложными случаями, например, содержащими дезинформацию. Ожидается, что нововведение положительно скажется на психическом состоянии модераторов. Ранее было обнаружено, что сотрудники Facebook, которым часто приходится просматривать неподобающие ролики, проявляют симптомы посттравматического стрессового расстройства.

Проблема, с которой столкнётся TikTok, заключается в том, что автоматизированные системы не могут работать так же хорошо, как и живые люди. Некоторые пользователи могут пострадать из-за ошибок при автоматическом удалении контента. Стоит отметить, что TikTok уже неоднократно обвиняли в дискриминации при удалении определённых видеороликов.

Тестовый запуск автоматизированных средств модерации показал, что только пять процентов роликов, заблокированных системой, должны были быть допущены к публикации. Тем не менее, стоит понимать, что это всё равно очень большая цифра. Только за первые три месяца текущего года в США была отклонена публикация 8 540 088 видео. Сообщается, что сначала новая система будет запущена в США и Канаде, а позже её работа распространится и на другие регионы.

Искусственный интеллект поможет администраторам групп в Facebook предупреждать конфликты в комментариях

Facebook запускает новый набор инструментов, который призван облегчить жизнь администраторам групп. Некоторые из них предлагают улучшенный обзор сообщений и участников, в то время как другие призваны помочь администраторам в разрешении конфликтов.

gizchina.com

Один из самых интересных инструментов носит название Conflict Alerts. Она похожа на уже существующую функцию оповещений по ключевым словам, которая уведомляет администраторов групп, когда в комментариях появляются определённые слова или фразы, например мат или оскорбления. Однако новая возможность использует модели машинного обучения, чтобы обнаруживать менее явные проблемы. Facebook говорит, что пока тестирует Conflict Alerts, поэтому функция может быть доступна не всем.

Идея Conflict Alerts заключается в том, чтобы выявлять конфликты, которые только завязываются, и уведомлять администратора или модератора о необходимости вмешаться. Пока до конца не ясно, как функция будет обнаруживать конфликты в комментариях. Предполагается, что Conflict Alerts будет использовать системы искусственного интеллекта, подобные тем, которые уже используются Facebook для обнаружения оскорбительных высказываний.

gizchina.com

Помимо Conflict Alerts, Facebook представила новую домашнюю страницу для администраторов и функцию Admin Assist для автоматической модерации комментариев. Она позволит администраторам ограничивать круг лиц, которым разрешено публиковать комментарии, а также ограничивать нежелательные рекламные акции и распространение спама. Функция Conflict Alerts будет частью Admin Assist.

Facebook будет использовать ИИ для быстрой модерации контента

Социальная сеть Facebook будет использовать новый алгоритм машинного обучения для модерирования публикуемого пользователями контента. Первоочередной задачей алгоритма станет поиск наиболее травмирующих публикаций для их последующего удаления.

Источник изображения: Business Insider

Источник изображения: Business Insider

Сегодня контент, нарушающий правила соцсети (спам, разжигание ненависти, пропаганда насилия и т.д.) обычно помечают сами пользователи или алгоритмы машинного обучения. С наиболее очевидными случаями система справляется автоматически, например, путём удаления нарушающих правила платформы публикаций или блокировкой аккаунта пользователя, опубликовавшего этот контент. Остальные случаи попадают в очередь для последующей более детальной проверки модераторами.

Сейчас в Facebook работают около 15 тыс. модераторов по всему миру. Соцсеть неоднократно критиковали за то, что администрация платформы недостаточно их поддерживает и не нанимает большее количество персонала. Задача модераторов заключается в сортировке постов с жалобами, а также принятии решения о том, нарушают ли они правила соцсети или нет.

Ранее модераторы рассматривали посты по мере публикации. Facebook решил изменить подход для того, чтобы в первую очередь рассматривать публикации, которые набирают больший охват и, соответственно, способны нанести больше вреда. Модель искусственного интеллекта (ИИ) будет использовать три критерия для отбора наиболее вредоносных публикаций: вирусность, сюжет публикации и вероятность того, что она нарушает правила. После этого ИИ будет помечать такие публикации, чтобы они поднимались выше по очереди рассмотрения модераторами.

«Весь нарушающий правила соцсети контент будет по-прежнему рассматриваться людьми, однако использование новой системы позволит более эффективно расставлять приоритеты в этом процессе», — прокомментировали в Facebook.

По мнению соцсети, новый подход поможет быстрее реагировать и разбираться с нарушающими правила публикациями, имеющими широкий охват.

Легитимные посты о коронавирусе в Facebook помечались как спам из-за программной ошибки

По сообщениям сетевых источников, некоторые публикации, ссылающиеся на информацию и статьи о коронавирусе, публикуемые в социальной сети Facebook, отмечались как спам. На это обратили внимание пользователи платформы, сообщившие о проблеме разработчикам.

Гай Розен (Guy Rosen), вице-президент Facebook по безопасности и целостности, подтвердил наличие проблемы, сославшись на ошибку в системе защиты от спама. Согласно имеющимся данным, разработчики Facebook взялись за устранение проблемы, как только им стало известно о ней. «Проблема связана с ошибкой в системе защиты от спама, мы не вносили каких-либо изменений в действующие правила модерации контента. Мы работаем над устранением проблемы и возвращением удалённых постов. Это произойдёт в ближайшее время», — написал господин Розен в сети Twitter, отвечая на вопрос касательно упомянутой проблемы.

Через некоторое время было объявлено о решении проблемы, а также о том, что все ошибочно удалённые публикации были восстановлены. «Мы восстановили все сообщения, которые были удалены по ошибке. Речь идёт о необоснованно удалённых сообщениях по всем темам, а не только тех, что связаны с COVID-19», — подтвердил решение проблемы Гай Розен.

Согласно имеющимся данным, удаление легитимных постов было вызвано ошибкой в работе инструмента автоматического модерирования контента. Напомним, в январе Facebook объявила о том, что ложные и вводящие в заблуждение публикации о коронавирусе будут незамедлительно удаляться.

В приложении Reddit появились чаты и новые инструменты модерирования

Reddit анонсировала ряд изменений для своих приложений на Android и iOS, предназначенных сделать процесс использования сервиса более интерактивным и социальным. Главное нововведение — возможность переписываться с другими пользователями. Эту возможность компания тестировала несколько месяцев, и теперь она стала частью публичного бета-теста.

В Reddit появился театральный режим для удобного просмотра изображений и видеороликов в визуальных ветках. Также в приложении теперь доступно комментирование в режиме реального времени, а присутствовавшая ранее только на iOS кнопка быстрого чтения добралась и до Android.

Разработчики добавили новые функции не только для обычных пользователей, но и для модераторов сообществ. Одна из них — специальный режим модерирования, в котором проще одобрять и удалять контент. Также на мобильных устройствах появился инструмент для быстрого добавления в ветки новых модераторов.

Долгое время компания игнорировала мобильные устройства. Всерьёз она начала воспринимать платформу только в 2015 году. Все эти нововведения показывают, что в дальнейшем Reddit намерена развивать сервис именно через мобильные приложения. Компания надеется, что в будущем большинство людей будет просматривать сайт с телефонов, где он не выглядит безнадёжно устаревшим, как настольная веб-версия Reddit. 

Искусственный интеллект займёт должность публичного редактора The New York Times

Крупнейшее американское информационное издание The New York Times сообщило своим сотрудникам, что избавится от должности публичного редактора. Эту роль теперь будет выполнять расширенный раздел комментариев, модерируемый искусственным интеллектом.

Позиция публичного редактора в новостном издании относительно нова. Её открыли в 2003 году в результате обнаружения плагиата в статьях Джейсона Блэра (Jayson Blair). Целью было обеспечить большую прозрачность для подписчиков газеты. За 14 лет таких редакторов было шесть, но Лиз Спайд (Liz Spayd), которая занимает эту должность сейчас, станет последней.

«Наши подписчики в социальных сетях и читатели в Интернете собрались вместе, чтобы служить современным контролёром, более бдительным и сильным, чем когда-либо мог стать один человек», — написал владелец издательской империи Артур Окс Сульцбергер мл. (Arthur Ochs Sulzberger Jr.).

The New York Times запустит так называемый «Читательский центр», которым будет управлять редактор Ханна Инбер (Hanna Ingber). Через неё сотрудники издания смогут «напрямую реагировать на отзывы, вопросы, проблемы, жалобы и другие запросы общественности».

Система комментирования The New York Times работает на базе Conversation AI — системы искусственного интеллекта, разработанной Jigsaw, дочерним предприятием Google. Нейронная сеть была натренирована таким образом, чтобы находить и помечать случаи троллинга и ненавистной речи в разделе комментариев газеты.

Система распространяется примерно на 10 % публикаций на сайте. Но теперь программа будет действовать практически во всех статьях и новостях.

«Это расширение обозначает значительное изменение в том, как мы обслуживаем наших читателей», — написал Сульцбергер.

Сервис комментирования Disqus серьёзно настроен на борьбу с ненавистью и нарушениями

Сервисы комментирования приходят и уходят, но один из них существует уже давно и заслужил доверие. Последние 10 лет Disqus помогал брендам и новостным сайтам развивать сообщества и собирал базу из сотен миллионов собственных пользователей. Сервис популярен, поэтому встроен и в сайты непристойного содержания. Disqus не терпит высказываний на почве ненависти, но пока поддерживает такие ресурсы. Теперь компания хочет что-то с этим сделать.

Вице-президент по делам людей и культуры Ким Рорер (Kim Rohrer) рассказала, какие шаги компания собирается предпринять. Disqus представит инструмент для отправки отзывов, с помощью которого читатели будут сообщать о нарушении условий использования сервиса. По-прежнему можно будет помечать отдельных пользователей, но если сообщество всячески демонстрирует ненависть, то Disqus прекратит работу с ресурсом.

В основном груз ответственности ляжет на плечи издателей и модераторов. Компания разрабатывает инструменты для продвигающих свободу слова, но хочет избавиться от троллей. Модераторы смогут банить пользователей таким образом, чтобы их комментарии не видел никто, кроме самих нарушителей.

Disqus собирается автоматизировать некоторые процессы с помощью машинного обучения. Например, алгоритмы будут обнаруживать повторяющиеся слова и фразы. Рекламодатели смогут выбирать, где должен появляться их контент, чтобы не работать с обсуждениями, с которыми не хотят ассоциироваться.

«Если публикация включает едкие или ненавистные рассуждения, никакое программное обеспечение или продукты не помогут побороть враждебную речь или едкость, — заявила Disqus. — В случаях, когда сайт настроен на целенаправленное нарушение наших условий обслуживания, мы будем отстаивать свою позицию и обеспечивать соблюдение нашей политики».

Новый инструмент Twitch блокирует неприемлемые сообщения в чатах

Чаты в Twitch скоро могут стать куда более дружелюбными: стриминговый сервис представил новый автоматизированный инструмент под названием AutoMod, который использует технологии машинного обучения и обработки естественного языка для того, чтобы блокировать неприемлемые сообщения в чате и отправлять на проверку модератору тот контент, который несёт в себе потенциальную угрозу нормальному общению.

AutoMod — функция необязательная, поэтому вряд ли её работу можно будет наблюдать на каждом канале. К тому же стримеры смогут настраивать инструмент, выбирая, насколько строго он будет фильтровать переписку. Таким образом, AutoMod стал ещё одним в целом наборе средств для модерирования Twitch, позволяющих стримерам запрещать в чате отдельные слова, ссылки или фразы; пользоваться помощью модераторов из своего сообщества; и запрещать принимать участие в обсуждениях тем, кто не оформил подписку на канал.

«Впервые за всё время мы даём нашим авторам возможность создать надёжную основу для приемлемого общения и круглосуточного модерирования чата», — заявил руководитель по модерированию Twitch Райан Кеннеди (Ryan Kennedy). По словам компании, инструмент находился в разработке несколько месяцев и впервые был испробован во время съездов Республиканской и Демократической партий США, которые транслировались в Twitch.

На данный момент полная версия AutoMod доступна лишь на английском языке. Тем не менее, уже проходит бета-тестирование версий инструмента на множестве других языков, включая русский, арабский, чешский, французский, немецкий, итальянский, японский, корейский, польский, португальский, испанский и турецкий.

window-new
Soft
Hard
Тренды 🔥