Опрос
|
Быстрый переход
OpenAI предложила GPT-4 на роль беспристрастного модератора
16.08.2023 [11:12],
Павел Котов
OpenAI рассказала, что её разработки способны облегчить решение одной из самых сложных и неприятных технических задач — задачи модерации контента. Большая языковая модель GPT-4 способна заменить десятки тысяч модераторов-людей, демонстрируя столь же высокую точность и даже большую последовательность. ![]() Источник изображения: ilgmyzin / unsplash.com Компания OpenAI сообщила в корпоративном блоге, что уже использует GPT-4 для уточнения собственной политики в отношении контента, его маркировки и принятия отдельных решений. Разработчик даже привёл ряд преимуществ искусственного интеллекта перед традиционными подходами к модерации контента. Во-первых, люди интерпретируют политику по-разному, тогда как машины последовательны в своих суждениях. Рекомендации по модерации могут быть объёмными и постоянно меняться — людям требуется много времени, чтобы научиться и адаптироваться к переменам, а большие языковые модели реализуют новые политики мгновенно. Во-вторых, GPT-4 способен помочь разработать новую политику в течение нескольких часов. Процесс составления маркировки, сбора отзывов и уточнений обычно занимает несколько недель или даже месяцев. В-третьих, нельзя забывать о психологическом благополучии работников, которые по долгу службы постоянно сталкиваются с вредоносным контентом. Популярные соцсети существуют уже почти два десятилетия, не говоря о прочих онлайн-сообществах, но модерация контента по-прежнему остаётся одной из сложнейших задач для онлайн-платформ. Meta✴, Google и TikTok сформировали целые армии модераторов, которым приходится просматривать ужасный и часто травмирующий контент. Большинство из них проживает в развивающихся странах с низкой заработной платой, работает в аутсорсинговых компаниях и пытается самостоятельно справляться с психологическими травмами, получая минимальный объём помощи. ![]() Источник изображения: D koi / unsplash.com OpenAI и сама в значительной степени ещё полагается на человеческий ресурс — она нанимает работников из африканских стран для комментирования и разметки контента. Этот контент может быть проблемным, что делает работу таких сотрудников напряжённой при низкой зарплате. А вышеупомянутые Meta✴, Google и TikTok в дополнение к модераторам-людям пользуются услугами ИИ-моделей собственной разработки, поэтому предложенное OpenAI решение окажется полезным для небольших компаний, у которых нет ресурсов на разработку собственных систем. Каждая платформа признаёт, что идеальных механизмов модерации в больших масштабах не существует: ошибки совершают и люди, и машины. Процент ошибок может быть низким, но в открытый доступ по-прежнему прорываются миллионы потенциально опасных публикаций — и, вероятно, такое же число безвредного контента скрывается или удаляется. Плюс остаётся «серая зона» недостоверного или агрессивного контента, который отвечает требованиям политики модерации, но озадачивает автоматизированные системы — такой контент сложно оценивать даже модераторам-людям, вот и машины часто совершают ошибки. То же относится к публикациям сатирического характера и материалам, документирующим преступления или превышения полномочий сотрудниками правоохранительных органов. Наконец, нельзя забывать и о внутренних проблемах, характерных для систем ИИ — «галлюцинациях» и «дрейфе», которые также способны затруднить работу ИИ-модераторов. Twitter будет помечать твиты с ограниченной видимостью
25.04.2023 [17:20],
Владимир Фетисов
Социальная сеть Twitter будет добавлять особые ярлыки к твитам, которые отмечаются модераторами платформы для ограничения их видимости. В компании это нововведение назвали шагом к «свободе слова, а не доступности». ![]() Источник изображения: PhotoMIX-Company/pixabay.com На прошлой неделе соцсеть впервые сделала объявление о грядущих изменениях, направленных на то, чтобы ограничить доступ пользователей платформы к публикациям с ненавистническим контентом. «Ограничение доступа к твитам помогает уменьшить сложности при модерации контента, когда возникает вопрос «оставить или удалить», и поддерживает наш подход «свобода слова против свободы охвата», — сказано в заявлении Twitter. Ярлыки сообщений с ограниченным доступом будут отображаться как авторам контента, так и другим пользователям. Обычно в таких твитах появляется отметка: «Видимость ограничена: этот твит может нарушать правила Twitter в отношении ненавистнического поведения». Публикации с ограниченным доступом не будут отображаться в результатах поиска, рекомендациях и лентах. Кроме того, соцсеть не будет размещать рекламу рядом с такими твитами. Компания признаёт, что при маркировке твитов могут возникать ошибки, поэтому авторы публикаций, которые посчитают, что их сообщения по ошибке отмечены ярлыком ограниченной видимости, смогут оспорить это решение модераторов. При этом Twitter подчёркивает, что обращение в поддержку по данному вопросу не гарантирует того, что ярлык ограниченной видимости будет снят с того или иного твита. Евросоюз рекомендовал Twitter больше полагаться на людей в сфере модерации контента
08.03.2023 [08:30],
Алексей Разин
К сентябрю этого года все социальные сети, функционирующие в юрисдикции Евросоюза, должны привести свою деятельность в соответствие с Законом о цифровых услугах (DSA), в противном случае их владельцы будут штрафоваться на суммы, составляющие до 6 % годового оборота на мировом рынке. Местные регуляторы рекомендовали Илону Маску (Elon Musk) активнее использовать человеческий труд для модерации контента. ![]() Источник изображения: Carina Johansen, NTB, Reuters Как поясняет Financial Times, европейских регуляторов не совсем устраивает политика Twitter, которая предусматривает использование труда немногочисленных добровольцев для модерации контента, а также стремление заменить их алгоритмами искусственного интеллекта. Европейские чиновники считают, что Twitter следует нанимать больше профессиональных модераторов и уделять внимание проверке информации, распространяемой со страниц социальной сети. Во время недавних переговоров с европейскими чиновниками представители Twitter получили одобрение практики использования труда добровольных модераторов в рамках концепции Community Notes, но выслушали замечание о том, что таких помощников не так много для эффективной борьбы с распространением дезинформации. Кроме того, продолжает оставаться проблемой эффективная модерация контента на языках, отличных от английского. Представители Еврокомиссии выразили надежду, что платформы обеспечат выделение адекватных ресурсов для приведения своей деятельности в соответствие с требованиями регионального законодательства. Принятие на работу достаточного количества персонала является одним из залогов успеха на этом направлении, как считают чиновники. Власти Германии не уверены в способности Twitter выполнять требования к модерации контента после массовых увольнений
09.02.2023 [19:51],
Сергей Сурабекянц
Покупая Twitter, Илон Маск (Elon Musk) ставил своей целью «обеспечить неприкосновенность свободы слова». На этой неделе его компания уже столкнулась с проблемами в Германии, где определённые виды высказываний в интернете запрещены законом. Ожидается, что требования к модерации контента по всей Европе ещё ужесточатся, когда в сентябре вступят в силу правила, связанные с Законом о цифровых услугах. ![]() Источник изображения: pexels.com На глобальные интернет-платформы, такие, как Twitter, распространяются строгие юридические требования в отношении удаления разжигающих ненависть высказываний и ложной информации в Германии. Немецкие законодатели допросили главу Twitter по делам с европейским правительством Ронана Костелло (Ronan Costello) о планах компании по модерации контента во время слушаний комитета в среду. Во время слушаний члены цифрового комитета выразили оправданный скептицизм, снова и снова пытаясь прояснить, как именно Twitter сможет удовлетворить более строгие требования к модерации. В ноябре 2022 года было уволено около половины сотрудников Twitter, а затем последовала ещё одна волна сокращений, это болезненно сказалось на работе групп модерации контента. При этом Twitter не выплачивает арендную плату, задерживает финансовую отчётность, и является единственной компанией, которая не представила Евросоюзу результаты выполнения требований по борьбе с дезинформацией. Костелло сообщил Бундестагу, что правоприменительный подход Twitter к немецкому законодательству остаётся неизменным. Он пояснил, что с июля по декабрь над модерацией немецкого контента в Twitter работало 150 человек, но не смог ответить, сколько сотрудников занято этим сейчас. Костелло сослался на использование искусственного интеллекта и привлечение пользователей к проверке фактов под названием «Заметки сообщества» (Community Notes), продвигаемую Маском, в качестве инструментов, которые должны повысить качество модерации. По его словам, вскоре Twitter запустит «Заметки сообщества» в Европе. Нужно отметить, что версия, доступная в настоящее время в США, имеет серьёзные ограничения. Исторически интернет-компании годами боролись с немецкими правилами в отношении модерации контента. Вступивший в силу в 2017 году в стране Закон о защите прав пользователей Сети грозит штрафом в размере до 50 миллионов евро компании, которая не фильтрует и не удаляет незаконный контент. ![]() Источник изображения: pexels.com Законодатели, похоже, не верят в серьёзность намерений Twitter по модерации контента. В конце января на компанию подали в суд в Берлине из-за предполагаемых упущений. В жалобе приводятся шесть примеров антисемитских постов, все они были опубликованы после того, как компания была приобретена Маском. Один из постов даже содержит отрицание Холокоста, а в Германии это является уголовным преступлением. Конфронтация в немецком парламенте — вероятный предшественник того, с чем Маску придётся столкнуться на слушаниях в Брюсселе. Игнорирование требований Евросоюза может очень дорого ему обойтись. Google: если IT-гигантов заставят отвечать за публикуемый контент, это «перевернёт интернет»
13.01.2023 [18:23],
Владимир Фетисов
В компании Google уверены, что расширение ответственности крупных интернет-платформ за модерацию публикуемого на них контента не даст ожидаемого результата. По мнению IT-гиганта, такой подход приведёт к появлению в Сети множества порталов, не контролирующих контент. ![]() Источник изображения: Justin Sullivan / Getty Images Верховный суд США рассматривает дело о расширении ответственности интернет-платформ за публикуемые на них материалы. Речь идёт о разбирательстве, которое началось в 2016 году по заявлению семьи Ноэми Гонсалес, которая за год до того погибла во время теракта, устроенного группировкой «Исламское государство» (организация признана террористической и запрещена в России). Отец Ноэми обвинил Google, Twitter и Facebook✴ в том, что они позволяют террористам использовать свои платформы для публикации контента экстремистского характера. «Google разделяет прибыль с ИГ и другими экстремистскими группами. Размещая свои ролики на сервисах, таких как YouTube, экстремисты подключают рекламу Google, от которой компания тоже имеет прибыль», — заявил адвокат семьи погибшей. Действующее в США законодательство освобождает интернет-платформы от ответственности за контент, размещаемый третьими лицами. Соответствующая норма действует с 1996 года. В прошлом году истцы заявили, что упомянутая норма не освобождает их от ответственности за появление такого контента в рекомендациях. Истцы считают, что хоть компании и нельзя привлечь к ответственности за публикацию экстремистских роликов третьими лицами, они должны отвечать за появление таких материалов в рекомендациях для пользователей и подборках. В это же время Google утверждает, что исполнение требований истцов может нарушить всю систему работы интернета и модерирования контента. В компании уверены, что сокращение мер ограничения ответственности может привести к тому, что крупные интернет-компании будут блокировать весь спорный контент, в том числе «спорные политические выступления». В это же время небольшие компании откажутся от модерации контента, стараясь избежать ответственности за любые свои решения. Эффект от этого будет прямо противоположный тому, чего хотят истцы. «Суд должен отказаться от новых и непроверенных теорий, которые рискуют превратить сегодняшний интернет в вынужденный выбор между чрезмерно модерируемыми крупными сайтами и небольшими порталами, наводнёнными нежелательным контентом», — заявили в Google. YouTube улучшила автоматическую модерацию комментариев: за оскорбления будут сначала предупреждать, а потом банить на сутки
14.12.2022 [18:18],
Павел Котов
Администрация YouTube доложила об улучшении работы алгоритмов автоматической модерации на платформе: теперь они эффективнее справляются со спамом и оскорблениями в комментариях. Особо активным сетевым хулиганам выносятся предупреждения и вводятся временные ограничения. ![]() Источник изображения: Christian Wiediger / unsplash.com За первую половину года на YouTube были удалены более 1,1 млрд содержащих спам комментариев — спамеры постоянно меняют тактику, вот и администрации платформы приходится постоянно совершенствовать модели машинного обучения, помогая им эффективнее обнаруживать нежелательный контент. Защитные ИИ-алгоритмы работают не только в комментариях под видео, но и в чатах прямых трансляций — с очередным обновлением общение во время эфиров станет комфортнее для всех. Кроме того, если система удалила несколько комментариев оскорбительного характера от одного пользователя, ему будет вынесено предупреждение о недопустимости нарушения политики ресурса. Если он продолжит размещать контент оскорбительного характера, на его аккаунт будут накладываться ограничения, и он не сможет оставлять комментарии в течение 24 часов. Как показало проведённое администрацией YouTube исследование, эти меры снижают вероятность того, что пользователь будет оставлять подобные сообщения снова. Пока предупреждения выносятся только в англоязычном сегменте платформы, но в перспективе функция расширится и на другие её сегменты. Instagram✴ расскажет пользователям о пригодности их постов для демонстрации в рекомендациях
08.12.2022 [07:46],
Руслан Авдеев
Авторы контента давно жаловались на невозможность предсказать оценку Instagram✴ их постов. Теперь социальная сеть заявила, что владельцы аккаунтов смогут увидеть, заблокирован ли их пост для демонстрации в рекомендациях и других разделах. ![]() Источник изображения: Jonas Leupe/unsplash.com Теперь Instagram✴ будет прямо сообщать, не слишком ли «остры» посты для рекомендации другим пользователям — даже если они формально не нарушают правила соцсети. Авторы контента и бизнесы смогут проверить факт блокировки в некоторых разделах приложения. В меню настроек пользователи профессиональных аккаунтов теперь могут увидеть, не заблокирована ли рекомендация их постов пользователям, которые не являются фолловерами. Рекомендации появляются (или не появляются), например, в разделе Explore, и выдаче на главной странице. Известно, что к концу 2023 года Meta✴ намерена более чем удвоить количество рекомендованного контента, демонстрируемого пользователям. Для того, чтобы пост мог появляться в разделе Explore и других разделах, посты должны соответствовать правилам для рекомендованного контента: в теории пользователи могут публиковать контент, демонстрирующий насилие — вроде видео драки, но его не будут рекомендовать другим посетителям социальной сети. Авторы контента и операторы бизнес-аккаунтов смогут редактировать, удалять посты, а также подавать апелляции в случае, если их публикации признаны неподходящими для рекомендаций. Обновление страницы статуса аккаунта, вероятно, заденет за живое создателей контента, всегда подозревавших Instagram✴ в том, что социальная сеть занимается т.н. «теневой блокировкой» — практикой, когда пользователям незаметно ограничивают возможности без объявления каких-либо санкций. В конце концов, новая функция позволит внести ясность — действительно ли пользовательские материалы подвергаются неявной дискриминации в социальной сети и почему именно. Meta✴ предложили убрать привилегии для популярных пользователей и сделать модерацию одинаковой для всех
06.12.2022 [16:56],
Павел Котов
Наблюдательный совет Meta✴ Platforms (владеет Facebook✴, Instagram✴ и WhatsApp) порекомендовал компании обновить политику модерации и лишить пользователей с большим числом подписчиков привилегированного положения, позволяющего им не соблюдать общих правил соцсетей. ![]() Источник изображения: Laura Chouette / unsplash.com Практика, получившая название «перекрёстной проверки», предусматривает особый порядок модерации нескольких миллионов учётных записей Facebook✴ и Instagram✴, принадлежащих знаменитостям, политикам и другим влиятельным пользователям. В результате они получают дополнительную свободу действий при публикации контента, нарушая политику компании, действующую в отношении рядовых пользователей. А интересы бизнеса, по сути, влияют на принятие решений в отношении контента. Наблюдательный совет заинтересовался программой «перекрёстной проверки» ещё в прошлом году, когда осведомитель и бывшая сотрудница Facebook✴ Фрэнсис Хауген (Frances Haugen) раскрыла общественности её истинные масштабы. Масштабы программы практически не контролировались, в результате чего под её действие попали почти все авторы со значительным числом подписчиков — даже при миллионах «избранных» таковых оказалось ничтожное число из 3,7 млрд пользователей платформ Meta✴. В 2019 году, например, система не позволила модераторам удалить изображения обнажённой натуры, опубликованные бразильской футбольной звездой Неймаром (Neymar), хотя этот пост напрямую нарушал политику компании. Наблюдательный совет упрекнул руководство компании в том, что она не была «полностью откровенной» при раскрытии информации о «перекрёстной проверке». Были подготовлены 32 рекомендации, которые помогут выстроить программу более равномерно, включая требования к прозрачности, механизмы аудита эффективности системы, а также единообразный подход к приемлемости тех или иных материалов. Представителей властей же предложили включать в программу на общих основаниях, не давая им каких-либо предпочтений. Рекомендации наблюдательного совета не являются обязательными к исполнению руководством Meta✴, однако оно обязано предоставить ответ на них в течение 60 дней. По вопросу «перекрёстных проверок» был запрошен дополнительный срок — ответ будет дан в течение 90 дней. Twitter теперь больше полагается на автоматизацию при модерации контента
03.12.2022 [23:50],
Владимир Мироненко
Соцсеть Twitter под руководством Илона Маска (Elon Musk) при модерации контента в значительной степени опирается на автоматизацию, отказавшись в определённых случаях от проверки контента вручную и отдавая предпочтение ограничениям на распространение, а не удалению определённых высказываний, сообщила Reuters вице-президент Twitter по доверию и безопасности Элла Ирвин (Ella Irwin). ![]() Источник изображения: REUTERS/Dado Ruvic Twitter теперь более активно ограничивает некоторые хэштеги и фильтрует результаты поиска, связанные с противоправной деятельностью в ряде областей, включая эксплуатации детей, независимо от потенциальных последствий «безобидного использования» этих терминов, заявила Элла Ирвин. По её словам, Twitter в сотрудничестве с группой кибербезопасности Ghost Data удалила около 44 000 учетных записей, связанных с нарушением безопасности детей. «Самое главное, что изменилось, — это то, что команда полностью готова двигаться быстро и быть максимально агрессивной», — сообщила Ирви. Это первое интервью, которое дал представитель руководства Twitter с момента приобретения Маском социальной сети в конце октября. После того, как Маск объявил об амнистии для аккаунтов, заблокированных при предыдущем руководстве, владельцы которых «не нарушали закон или не участвовали в рассылках спама», исследователи сообщили о всплеске в соцсети риторики ненависти. После увольнения Маском половины сотрудников, у многих появились сомнения в способности компании модерировать вредоносный и незаконный контент. В пятницу Маск пообещал «значительно усилить модерацию контента и защиту свободы слова» на встрече с президентом Франции Эммануэлем Макроном (Emmanuel Macron). Discord заблокировал более 55 млн пользователей и 68 тыс. серверов за полгода
31.10.2022 [16:26],
Владимир Фетисов
Мессенджер Discord опубликовал ежеквартальный отчёт безопасности, благодаря чему стали известны некоторые подробности касательно модерации платформы. Согласно опубликованным данным, администраторы сервиса заблокировали 55 573 411 учётных записей и удалили 68 379 серверов за первые шесть месяцев 2022 года. В большинстве случаев блокировки связаны с распространением спама. ![]() Источник изображения: techradar.com Если рассматривать различные правонарушения, то по этой причине за отчётный период был заблокирован 1 821 721 аккаунт, а относительно серверов точная цифра озвучена не была. Блокировка учётных записей и серверов, не связанных со спамом, в основном обусловлена нарушением правил платформы и часто связана с распространением нежелательного контента. Источник отмечает, что последние годы модераторы Discord обращают особое внимание на контент, связанный с экстремистской и незаконной деятельностью, а также материалы, которые причиняют вред детям и пропагандируют ненависть. В компании считают, что действующая на платформе система модерации является эффективной, поскольку доля попыток восстановить блокированные аккаунты не превышала 2 % в первом квартале и 0,6 % во втором квартале 2022 года. Отмечается, что из 235 945 заявлений на обжалование блокировки в Discord положительное решение о восстановлении аккаунтов было принято только в 3 098 случаях. Ещё в отчёте Discord упоминается статистика относительно жалоб пользователей на различные нарушения. В первом квартале 24 % от общего количества пользовательских обращений потребовали вмешательства модераторов, а во втором квартале количество таких обращений снизилось до 22 %. Также известно, что за распространение спама во втором квартале было заблокировано 27 733 948 аккаунтов. Илон Маск создаст в Twitter «совет по модерации контента»
29.10.2022 [10:30],
Павел Котов
Новый владелец Twitter Илон Маск (Elon Musk) сообщил, что для принятия важных решений, касающихся модерации контента, в компании будет создан специальный совет. В нём будет представлен широкий набор разных точек зрения, и «до созыва этого совета не будут приниматься никакие решения относительно контента или восстановления учётных записей». Спустя несколько часов бизнесмен процитировал свой первый твит и пояснил, что пока никаких изменений в политику модерации Twitter внесено не было. ![]() Источник изображения: John Cameron / unsplash.com Маск неоднократно говорил, что одной из основных целей покупки соцсети является её превращение в платформу, где господствует свобода слова, и в перспективе будет рассматриваться вопрос о возвращении в Twitter неоднозначных фигур вроде бывшего президента США Дональда Трампа (Donald Trump). Теперь он обрисовал контуры механизмов преобразования платформы. ![]() Источник изображения: twitter.com/elonmusk Новый владелец Twitter пока не уточнил, какие точки зрения должны быть представлены в совете, не сообщил, какова может быть его численность, как будут назначаться его члены, и, наконец, чем он будет отличаться от подразделения, которое занималось модерацией контента ранее. Однако Маск отчётливо дал понять, что категорически не согласен с работой существующих механизмов, и когда получил контроль над компанией, сразу уволил нескольких топ-менеджеров, включая главу отдела модерации Виджаю Гааде (Vijaya Gadde), чьи решения он публично критиковал до приватизации Twitter. В других владеющих соцсетями компаниях практикуется схожий подход: наблюдательный совет действует в Meta✴ (Facebook✴, Instagram✴ и WhatsApp) — формально это независимый орган, управляющий контентом и принимающий решения по вопросам модерации. Однако к деятельности совета неоднократно возникали вопросы относительно его действительных полномочий по обеспечению соблюдения своих решений. Кроме того, в США действует ряд правовых норм, указывающих на то, как должны работать механизмы модерации контента на платформах. Twitter хотел зарабатывать как OnlyFans, но не справился с модерацией
31.08.2022 [18:43],
Павел Котов
Весной 2022 года в Twitter хотели провести радикальные перемены. Не один год сервис спокойно относился к обилию материалов для взрослых на платформе, и компания всерьёз задумалась о монетизации этого контента по принципу платных подписок, как это сделано на OnlyFans. Однако планам не суждено было сбыться из-за неспособности платформы оперативно удалять запрещённый контент, сообщает The Verge. ![]() Источник изображения: Photo Mix / pixabay.com Если бы проект удалось запустить, Twitter, конечно, потерял бы многих рекламодателей, однако это с лихвой могла бы компенсировать выручка от создателей контента для взрослых: только в этом году доход OnlyFans может достичь $2,5 млрд — это около половины выручки Twitter в 2021 году. Руководство сервиса микроблогов поначалу сочло идею удачной, тем более, что многие авторы OnlyFans продвигают свои каналы именно в Twitter. Поэтому на реализацию идеи были выделены ресурсы, а сам проект получил название ACM (Adult Content Monetization — «Монетизация контента для взрослых»). Для проработки проекта был сформирован отдел Red Team из 84 человек. И очень быстро, уже в апреле 2022 года, сотрудники отдела пришли к выводу, что Twitter неспособен обеспечить безопасную продажу подписок на материалы для взрослых, потому что платформа не контролировала и до сих пор не контролирует публикацию противозаконного контента. Как выяснилось, у компании попросту отсутствуют инструменты, с помощью которых можно проверить, достигли ли совершеннолетнего возраста как создатели, так и потребители контента для взрослых. И в мае, то есть уже после начала эпопеи с покупкой Twitter Илоном Маском (Elon Musk) реализация проекта была отложена на неопределённый срок. Сотрудники Red Team заявили, что запуск ACM только усугубит проблему, потому что на платформе станут публиковать больше материалов для взрослых, а значит, вырастет и количество незаконного контента. Однако после приостановки работы над проектом руководство, прекрасно осведомлённое о сути проблемы, всё ещё ничего не делает для её решения. Известно о ней стало за 15 месяцев до этого, когда компания поручила другой команде экспертов начать работу по оздоровлению контента в Twitter. Тогда выяснилось, что имеющиеся в распоряжении компании средства обнаружения материалов, содержащих жестокое обращение с детьми, утратили актуальность и эффективность. ![]() Источник изображения: Edar / pixabay.com При этом технологические гиганты вроде Google и Facebook✴ относятся к проблеме намного серьёзнее: в 2019 году Марк Цукерберг (Mark Zuckerberg) хвастался, что подконтрольный ему Facebook✴ только на безопасность тратит больше, чем зарабатывает Twitter. Технологические платформы поддерживают друг друга в этой борьбе: одним из основных инструментов является сервис PhotoDNA, созданный Microsoft в 2009 году. Однако эта система реагирует только на известные запрещённые материалы. В отличие от других крупных компаний, уже разработавших собственные решения, сотрудникам Twitter приходится вручную пытаться обнаруживать контент, который пропустил PhotoDNA, а основным рабочим инструментом компании является некий комплекс RedPanda, который сегодня уже устарел и лишился поддержки. Системы на базе машинного обучения в распоряжении Twitter до сих пор не могут обнаруживать запрещённые материалы в любом из доступных форматов. А модераторы не всегда справляются со своими задачами — в одном из случаев видеозапись с незаконным содержанием оставалась на платформе более 23 часов, даже после того, как пользователи отправляли на него жалобы. Хотя, по словам представительницы компании Кейти Росборо (Katie Rosborough), Twitter ещё в феврале 2021 года значительно увеличила свои вложения в выявление подобных материалов, и даже сегодня, когда компания ужесточила свою кадровую политику, по данному профилю значатся открытыми четыре вакансии. Впрочем, и достигнутого компания может не удержать. 23 августа Twitter объявила, что отдел по борьбе с вредоносным контентом объединяется с отделом, ответственным за борьбу со спам-ботами. На эту меру компания пошла, конечно же, из-за того, что Илон Маск обвинил руководство Twitter в предоставлении недостоверной информации по вопросу спама на платформе. Возможно, бизнесмен напрасно решил, что данный вопрос является наиболее важным. И возможно, что проблемы Twitter с Илоном Маском только начинаются. Илон Маск заявил о необходимости открыть алгоритм Twitter и смягчить политику модерации
15.04.2022 [14:21],
Павел Котов
Если глава Tesla и SpaceX Илон Маск (Elon Musk) действительно сможет купить Twitter, платформа, вероятно, в корне изменится. Выступая на конференции TED, бизнесмен рассказал, почему он решил приобрести платформу и что бы хотел в ней скорректировать. ![]() Источник изображения: Photo Mix / pixabay.com Свой интерес к соцсети Маск описал следующим образом: «Де-факто Twitter стал своего рода городской площадью. Действительно важно, чтобы люди имели представление и о реальности, и о том, что они могут свободно говорить в рамках закона». В плане потенциальных изменений Маск отметил необходимость открыть алгоритмы сервиса и свести к минимуму вмешательство администрации в контент. «При любых вмешательствах в твиты людей <...> такие действия должны быть очевидными. Чтобы любой видел, что действие предпринималось, и не было никаких закулисных манипуляций через алгоритмы или вручную». А лежащий в основе алгоритма код должен быть доступен на GitHub, чтобы общественность могла самостоятельно его проверять. Наконец, он коснулся вопроса модерации контента — её должно быть очень мало. «Думаю, в случае сомнения мы бы хотели ошибаться в том направлении, чтобы свобода слова существовала. Считаю, что нам нужно с неохотой удалять что-то и быть очень осторожными с вечными блокировками. Знаете, временные отключения, я считаю, лучше, чем постоянные баны», — заявил Маск. С конца января бизнесмен начал скупать акции Twitter и объявил об этом, когда объём пакета составил 9,2 %. Впоследствии он предложил полностью выкупить платформу, однако совет директоров компании пока ответа не дал. Facebook✴ обвинили в утаивании фактов жестокого обращения с детьми
01.04.2022 [16:18],
Павел Котов
Издание New York Times (NYT) опубликовало материал, согласно которому крупнейшая в мире социальная сеть преднамеренно занижает факты обнаруженного жестокого обращения с детьми. ![]() Источник изображения: janeb13 / pixabay.com Журналисты изучили учебные документы, которые используются при подготовке модераторов Facebook✴. Спорным моментом в них стали должные с позиции администрации платформы действия модераторов при обращении с изображениями деликатного характера, возраст людей на которых не очевиден. В таких случаях документы предписывают персоналу «ошибаться во взрослую сторону», то есть заведомо считать взрослыми тех людей, чей возраст трудно определить визуально, и они могут быть достигшими либо не достигшими совершеннолетия. Согласно правилам ресурса, публикация фото интимного характера на платформе запрещена — такие материалы могут удаляться модераторами без предупреждения. Однако в случае, когда возраст человека на фото представляется спорным, такой человек считается взрослым, и соответствующие органы не получают уведомления об инциденте. Журналисты NYT подчёркивают, что надёжного способа определить возраст человека по фото просто не существует, и для его оценки в Facebook✴ используют метод определения «прогрессивных фаз полового созревания», которому более 50 лет. Ситуация осложняется тем, что в некоторых случаях модерацию осуществляют не штатные сотрудники социальной сети, а работники сторонних компаний по контракту, которым даётся всего несколько секунд на принятие решения, а за ложные сигналы властям они подвергаются штрафным санкциям. Facebook✴ сообщает властям о случаях жестокого обращения с детьми больше, чем любая другая компания, а свою директиву «ошибаться во взрослую сторону» администрация ресурса объясняет заботой о конфиденциальности пользователей. Кроме того, компания не хочет юридической ответственности за ложные сигналы, из-за которых правоохранительные органы могут лишиться возможности раскрыть действительные случаи насилия. Однако другие платформы, включая Apple, Snapchat и TikTok, как пишет NYT, придерживаются в спорных случаях прямо противоположной политики. Instagram✴ разрешил стримерам добавлять модераторов трансляций
14.03.2022 [12:06],
Владимир Фетисов
Несмотря на то, что с сегодняшнего дня Роскомнадзор блокирует доступ к социальной сети Instagram✴ на территории России, платформа продолжает развиваться, предоставляя пользователям новые функции. Теперь стримеры смогут назначать модераторов во время онлайн-трансляций, которые будут следить за поступающими комментариями, а также получат возможность удаления зрителей и блокировки сообщений от них. ![]() Источник изображения: Instagram✴ Для начала взаимодействия с новой функцией стримеру нужно воспользоваться меню, которое вызывается нажатием на кнопку с тремя точками в строке комментариев. После нажатия на упомянутую кнопку появится контекстное меню, с помощью которого можно выбрать модератора среди участников трансляции. Здесь же присутствует строка поиска, которую можно задействовать для того, чтобы быстро отыскать нужных людей. Несмотря на то, что возможность запуска онлайн-трансляций присутствует в Instagram✴ с 2016 года, функция добавления модераторов из числа участников стрима появилась только теперь. Вопрос модерации сейчас стоит особенно остро для многих онлайн-платформ, пользователи которых могут быстро перевести в негативное русло обсуждение практически любого вопроса. Примечательно, что в онлайн-трансляциях в Facebook✴ уже давно присутствует аналогичный инструмент, делающий возможным назначение модераторов. |
✴ Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности». |