Сегодня 21 июля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → модерация контента
Быстрый переход

Соцсеть X назначила новых руководителей, ответственных за безопасность контента

Исповедующий бескомпромиссную свободу слова Илон Маск (Elon Musk) в деятельности принадлежащей ему социальной сети вынужден руководствоваться существующими правилами и законами, а ещё компания пытается добиться расположения рекламодателей. Работой на этих направлениях будут руководить два новых менеджера, назначенных на профильные посты недавно.

 Источник изображения: Unsplash, BoliviaInteligente

Источник изображения: Unsplash, BoliviaInteligente

Как сообщает Bloomberg, курировать изменения в информационной политике X отныне будет Кайли Макробертс (Kylie McRoberts), которая до этого занимала в компании другой пост, а за обеспечение взаимодействия с рекламодателями в области безопасности контента будет отвечать Йейл Коэн (Yale Cohen), ранее работавший в издательстве Publicis Media.

Генеральный директор X Линда Яккарино (Linda Yaccarino) в письме Bloomberg по поводу этих назначений сообщила: «Когда мы говорим о том, что безопасность и свобода слова могут и должны сосуществовать на страницах X — мы действительно убеждены в этом. Специалисты по безопасности контента без устали работают, буквально день и ночь, по всему миру, чтобы сделать это реальностью».

Не секрет, что часть рекламодателей отвернулась от X из-за провокационных высказываний Илона Маска или его попыток поставить свободу слова выше принятых в западном обществе принципов морали. Купив социальную сеть Twitter, как она раньше именовалась, в октябре 2022 года, Маск существенно сократил штат специалистов по безопасности контента. Нынешние назначения должны символизировать обратную тенденцию, пусть и не в пропорциональном размере. Макробертс станет уже третьим руководителем X по вопросам безопасности контента с момента перехода социальной сети под контроль Илона Маска. Этот пост пустовал с июня прошлого года, когда предшественница Макробертс Элла Ирвин (Ella Irwin) уволилась из X.

X создаст центр модерации контента впервые после покупки соцсети Илоном Маском

Компания X, ранее известная как Twitter, объявила о создании нового центра модерации контента в Остине, штат Техас. Это решение было принято накануне слушаний 31 января в Сенате США, где генеральный директор X Линда Яккарино (Linda Yaccarino) должна будет объяснить сенаторам стратегию компании по борьбе с распространением материалов, касающихся сексуального насилия над детьми (Child Sexual Abuse Material — CSAM).

 Источник изображения: X

Источник изображения: X

Сосредоточенный на контенте, связанном с CSAM, центр станет первым полноценным подразделением по обеспечению безопасности и доверия после масштабных увольнений, проведённых после покупки платформы Илоном Маском (Elon Musk). В новом техасском офисе X планируется трудоустроить сто сотрудников. Новый центр модерации будет первым подобным подразделением с момента, когда Маск реорганизовал команды модерации вскоре после приобретения платформы.

Как сообщает компания X, обновлённая структура команды безопасности будет заниматься не только CSAM, но и другими аспектами модерации контента, включая противодействие разжиганию ненависти. Новый офис в Остине уже упоминается в блоге компании как ключевой элемент в их стратегии борьбы с нежелательным контентом, хотя точные обязанности новой команды и сроки открытия офиса пока не раскрываются.

Дополнительно, Джо Бенаррох (Joe Benarroch), операционный директор X, в интервью Bloomberg подчеркнул, что новый центр будет способствовать улучшению модерации в целом, охватывая широкий спектр задач: от борьбы со спамом и мошенничеством до обеспечения качественной поддержки клиентов.

Объявление о наборе сотрудников для офиса в Остине указывает на многофункциональность новой команды и подчёркивает её значимость в рамках общей стратегии безопасности компании X. Этот шаг демонстрирует решимость социальной сети X встать на защиту безопасности в интернете и готовность к активному участию в решении проблем цифрового мира.

После покупки Twitter Илон Маск уволил 1213 специалистов по модерации контента

В октябре позапрошлого года после длительных попыток сбить цену Илон Маск (Elon Musk) был вынужден купить компанию Twitter на оговорённых ещё в апреле 2022 года условиях, а позже он переименовал соответствующую социальную сеть в X. Расследование австралийских регуляторов позволило выяснить, что с момента перехода компании под контроль Маска он уволил 1213 сотрудников, отвечавших за модерацию контента.

 Источник изображения: Unsplash, charlesdeluvio

Источник изображения: Unsplash, charlesdeluvio

Как поясняет South China Morning Post, соответствующие данные австралийской правительственной организации eSafety Commission удалось получить от руководства X в соответствии с положениями локального Закона об онлайн-безопасности (Online Safety Act). Внимание регуляторов привлекло то обстоятельство, что в последующие за сменой собственника Twitter месяцы на страницах социальной сети заметно увеличилось количество «токсичного» контента.

Австралийским чиновникам удалось получить от X полный расклад по штатному расписанию, описывающий количество специалистов различного профиля, работающих в компании или трудившихся там ранее. Вместе с подрядчиками, ряды персонала X за прошедшее с октября 2022 года время покинули 1213 специалистов по модерации контента. Непосредственно инженерного персонала такого профиля было сокращено около 80 % от изначального количества. По мнению регуляторов, подобные действия нового руководства социальной сети привели к плачевным последствиям и росту систематических злоупотреблений информационной политикой платформы со стороны недобросовестных пользователей.

В октябре прошлого года австралийские власти уже штрафовали X за отсутствие внятных механизмов по борьбе с распространением незаконных материалов с участием несовершеннолетних. Компания Илона Маска не только не выплатила назначенный штраф в размере $388 000, но и выступила со встречной судебной претензией к австралийским регуляторам, которая сейчас рассматривается.

Глава Reddit рассказал о планах ввести ИИ-модерацию — полностью заменять людей не планируется

Администрация Reddit продолжает считать правильным решение о введении платного доступа к API, хотя оно и далось ценой конфликта с частью сообщества — в какой-то момент дошло до восстания модераторов. Но в перспективе платформа может внедрить модерацию на основе алгоритмов искусственного интеллекта, заявил ресурсу Fast Company гендиректор Reddit Стив Хаффман (Steve Huffman).

 Источник изображения: Brett Jordan / unsplash.com

Источник изображения: Brett Jordan / unsplash.com

В мае администрация платформы объявила, что доступ к API будет платным. Это было сделано из-за того, что на контенте ресурса начали обучать модели ИИ. Хаффман подчёркивает, что Reddit является открытой платформой, но её контентом пользовались не только мелкие игроки, но и крупнейшие компании мира. Из-за введения платы за доступ к API сообщество лишилось большинства неофициальных приложений, некоторые из которых считались более удобными, чем официальные.

Гендиректор продолжает считать, что это решение было правильным, но донести его до сообщества можно было и по-другому, чтобы избежать конфликта или хотя бы смягчить его. Тогда не было бы восстания модераторов, которые начали злоупотреблять своими полномочиями, чтобы саботировать работу платформы: одни сообщества закрывались, а другие получали «взрослую» пометку NSFW, не позволявшую размещать в них рекламу.

А в перспективе на Reddit, заявил Хаффман, появятся механизмы модерации при помощи алгоритмов ИИ — они не заменят живых людей, а будут оказывать им помощь. В разных сообществах действуют разные правила, «иногда строгие, а иногда и эзотерические». Новички порой не могут даже начать общение в таких сообществах, потому что их публикации оперативно удаляются. В таких случаях ИИ окажется полезным — он будет указывать пользователям на нарушения правил ещё до публикации постов, и модераторам не потребуется делать это самостоятельно.

Линда Яккарино отказалась покидать пост главы X на фоне скандала с неонацистским контентом

По утверждению независимых источников, за последние дни множество руководителей компаний и бывших коллег главы X Линды Яккарино (Linda Yaccarino) в частном порядке призвали её уйти в отставку, чтобы «спасти репутацию». Такие советы Линда получала даже на свадьбе своей дочери в субботу. Однако она отказалась покинуть компанию, заявив, что «верит в миссию X и её сотрудников». Напомним, социальная сеть X подверглась обвинениям в некачественном модерировании националистического контента, а Маска назвали на этом фоне антисемитом.

 Источник изображения: Associated Press

Источник изображения: Associated Press

Некоммерческая группа левого толка Media Matters for America на прошлой неделе опубликовала отчёты, которые демонстрируют рекламу на платформе X ведущих брендов рядом с постами, пропагандирующими «пронацистский» и «белый националистический контент». Эти обвинения побудили такие бренды, как IBM, Apple, Walt Disney, Comcast и Warner Bros, приостановить свою рекламу на платформе X, опасаясь соседства с «сомнительными материалами».

Многие компании сейчас пытаются дистанцироваться от владельца X Илона Маска (Elon Musk). Маск, самопровозглашённый «сторонник свободы слова», ослабил политику модерации и сократил ресурсы и персонал, обеспечивающие безопасность. Бренды опасаются жалоб акционеров и потенциальных бойкотов от своих клиентов, если продолжат размещать рекламу на платформе. Критики Маска считают, что он «должен найти новую модель дохода, поскольку он убил рекламу на платформе, и точка».

X нанял Линду Яккарино в июне, чтобы вернуть рекламодателей на платформу. До этого Линда работала руководителем отдела рекламы в NBCUniversal. Благодаря своим налаженным связям среди маркетологов крупных компаний, ей неоднократно приходилось преодолевать неприятие ими изменений, внесённых Маском в платформу, и противоречивых комментариев, которые он публиковал.

Яккарино утверждает, что за время её пребывания у руля социальной сети, показатели безопасности X улучшились. На прошлой неделе в ответ на обвинения в адрес платформы она заявила: «X предельно ясно рассказала о наших усилиях по борьбе с антисемитизмом и дискриминацией. Этому абсолютно нет места нигде в мире».

В воскресенье Маск написал в своём аккаунте X: «На прошлой неделе в СМИ появились сотни фальшивых историй, в которых утверждалось, что я антисемит. Нет ничего более далёкого от правды. Я желаю человечеству только лучшего, процветающего и захватывающего будущего для всех». Днём ранее Маск пообещал подать «термоядерный иск» против Media Matters за то, что, по его словам, было «мошеннической атакой» на X. Исполнительный директор Media Matters Анджело Карузоне (Angelo Carusone) в свою очередь уверен в собственной правоте и утверждает, что легко выиграет в суде.

Google ужесточит модерацию ИИ-контента в Android-приложениях с 2024 года

Google установит новые требования к модерации контента для приложений на Android, использующих ИИ. С начала следующего года разработчики таких приложений должны внедрить функцию для жалоб на оскорбительный или спорный материал непосредственно в пользовательском интерфейсе. Эти изменения затронут не только чат-боты на основе ИИ, но и приложения, создающие визуальный и аудио контент. Инициатива направлена на борьбу с недопустимым контентом, в том числе с дипфейками и дезинформацией.

 Источник изображения: dassel / Pixabay

Источник изображения: dassel / Pixabay

Google уточнила, что новая политика будет применяться не ко всем приложениям с ИИ. Она коснётся чат-ботов, приложений для создания изображений, голосового и видеоконтента. Приложения, которые только хранят сгенерированный ИИ-контент или используют ИИ для обобщения текстовых материалов, останутся вне зоны действия новых правил.

Google акцентирует внимание на определённых категориях контента, требующих строжайшей модерации. В этот список входят фальшивые видео или изображения, созданные без согласия изображённых на них людей, а также записи реальных людей, применяемые в мошеннических целях.

Кроме того, компания будет особенно внимательно следить за распространением ложной или вводящей в заблуждение информации, связанной с выборами. Не менее строгий контроль установлен и для приложений, в которых генеративный ИИ используется преимущественно для сексуального удовлетворения, а также создания вредоносного кода.

В своём заявлении Google подчеркнула, что генеративный ИИ является быстро развивающейся категорией приложений, что даёт основания полагать, что компания может пересмотреть свою политику в области ИИ по мере дальнейшего развития технологии. Помимо новых правил в отношении контента, генерируемого ИИ, Google также расширила политику разрешений на использование фото- и видеоматериалов в Play Store, ограничивая доступ Android-приложений к данным.

«Фотоматериалы и видеозаписи на устройствах пользователей являются их личной и конфиденциальной информацией, требующей максимально ответственного отношения, — подчеркнула компания в своём заявлении. — Такие данные создают потенциальную уязвимость для пользователей в случае утечек или других форм эксплуатации. Ограничение доступа к ним не только повышает уровень безопасности пользователей, но и снижает нагрузку на разработчиков в части обработки чувствительной информации».

OpenAI предложила GPT-4 на роль беспристрастного модератора

OpenAI рассказала, что её разработки способны облегчить решение одной из самых сложных и неприятных технических задач — задачи модерации контента. Большая языковая модель GPT-4 способна заменить десятки тысяч модераторов-людей, демонстрируя столь же высокую точность и даже большую последовательность.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Компания OpenAI сообщила в корпоративном блоге, что уже использует GPT-4 для уточнения собственной политики в отношении контента, его маркировки и принятия отдельных решений. Разработчик даже привёл ряд преимуществ искусственного интеллекта перед традиционными подходами к модерации контента.

Во-первых, люди интерпретируют политику по-разному, тогда как машины последовательны в своих суждениях. Рекомендации по модерации могут быть объёмными и постоянно меняться — людям требуется много времени, чтобы научиться и адаптироваться к переменам, а большие языковые модели реализуют новые политики мгновенно. Во-вторых, GPT-4 способен помочь разработать новую политику в течение нескольких часов. Процесс составления маркировки, сбора отзывов и уточнений обычно занимает несколько недель или даже месяцев. В-третьих, нельзя забывать о психологическом благополучии работников, которые по долгу службы постоянно сталкиваются с вредоносным контентом.

Популярные соцсети существуют уже почти два десятилетия, не говоря о прочих онлайн-сообществах, но модерация контента по-прежнему остаётся одной из сложнейших задач для онлайн-платформ. Meta, Google и TikTok сформировали целые армии модераторов, которым приходится просматривать ужасный и часто травмирующий контент. Большинство из них проживает в развивающихся странах с низкой заработной платой, работает в аутсорсинговых компаниях и пытается самостоятельно справляться с психологическими травмами, получая минимальный объём помощи.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

OpenAI и сама в значительной степени ещё полагается на человеческий ресурс — она нанимает работников из африканских стран для комментирования и разметки контента. Этот контент может быть проблемным, что делает работу таких сотрудников напряжённой при низкой зарплате. А вышеупомянутые Meta, Google и TikTok в дополнение к модераторам-людям пользуются услугами ИИ-моделей собственной разработки, поэтому предложенное OpenAI решение окажется полезным для небольших компаний, у которых нет ресурсов на разработку собственных систем.

Каждая платформа признаёт, что идеальных механизмов модерации в больших масштабах не существует: ошибки совершают и люди, и машины. Процент ошибок может быть низким, но в открытый доступ по-прежнему прорываются миллионы потенциально опасных публикаций — и, вероятно, такое же число безвредного контента скрывается или удаляется. Плюс остаётся «серая зона» недостоверного или агрессивного контента, который отвечает требованиям политики модерации, но озадачивает автоматизированные системы — такой контент сложно оценивать даже модераторам-людям, вот и машины часто совершают ошибки. То же относится к публикациям сатирического характера и материалам, документирующим преступления или превышения полномочий сотрудниками правоохранительных органов. Наконец, нельзя забывать и о внутренних проблемах, характерных для систем ИИ — «галлюцинациях» и «дрейфе», которые также способны затруднить работу ИИ-модераторов.

Twitter будет помечать твиты с ограниченной видимостью

Социальная сеть Twitter будет добавлять особые ярлыки к твитам, которые отмечаются модераторами платформы для ограничения их видимости. В компании это нововведение назвали шагом к «свободе слова, а не доступности».

 Источник изображения: PhotoMIX-Company/pixabay.com

Источник изображения: PhotoMIX-Company/pixabay.com

На прошлой неделе соцсеть впервые сделала объявление о грядущих изменениях, направленных на то, чтобы ограничить доступ пользователей платформы к публикациям с ненавистническим контентом. «Ограничение доступа к твитам помогает уменьшить сложности при модерации контента, когда возникает вопрос «оставить или удалить», и поддерживает наш подход «свобода слова против свободы охвата», — сказано в заявлении Twitter.

Ярлыки сообщений с ограниченным доступом будут отображаться как авторам контента, так и другим пользователям. Обычно в таких твитах появляется отметка: «Видимость ограничена: этот твит может нарушать правила Twitter в отношении ненавистнического поведения». Публикации с ограниченным доступом не будут отображаться в результатах поиска, рекомендациях и лентах. Кроме того, соцсеть не будет размещать рекламу рядом с такими твитами.

Компания признаёт, что при маркировке твитов могут возникать ошибки, поэтому авторы публикаций, которые посчитают, что их сообщения по ошибке отмечены ярлыком ограниченной видимости, смогут оспорить это решение модераторов. При этом Twitter подчёркивает, что обращение в поддержку по данному вопросу не гарантирует того, что ярлык ограниченной видимости будет снят с того или иного твита.

Евросоюз рекомендовал Twitter больше полагаться на людей в сфере модерации контента

К сентябрю этого года все социальные сети, функционирующие в юрисдикции Евросоюза, должны привести свою деятельность в соответствие с Законом о цифровых услугах (DSA), в противном случае их владельцы будут штрафоваться на суммы, составляющие до 6 % годового оборота на мировом рынке. Местные регуляторы рекомендовали Илону Маску (Elon Musk) активнее использовать человеческий труд для модерации контента.

 Источник изображения: Carina Johansen, NTB, Reuters

Источник изображения: Carina Johansen, NTB, Reuters

Как поясняет Financial Times, европейских регуляторов не совсем устраивает политика Twitter, которая предусматривает использование труда немногочисленных добровольцев для модерации контента, а также стремление заменить их алгоритмами искусственного интеллекта. Европейские чиновники считают, что Twitter следует нанимать больше профессиональных модераторов и уделять внимание проверке информации, распространяемой со страниц социальной сети.

Во время недавних переговоров с европейскими чиновниками представители Twitter получили одобрение практики использования труда добровольных модераторов в рамках концепции Community Notes, но выслушали замечание о том, что таких помощников не так много для эффективной борьбы с распространением дезинформации. Кроме того, продолжает оставаться проблемой эффективная модерация контента на языках, отличных от английского. Представители Еврокомиссии выразили надежду, что платформы обеспечат выделение адекватных ресурсов для приведения своей деятельности в соответствие с требованиями регионального законодательства. Принятие на работу достаточного количества персонала является одним из залогов успеха на этом направлении, как считают чиновники.

Власти Германии не уверены в способности Twitter выполнять требования к модерации контента после массовых увольнений

Покупая Twitter, Илон Маск (Elon Musk) ставил своей целью «обеспечить неприкосновенность свободы слова». На этой неделе его компания уже столкнулась с проблемами в Германии, где определённые виды высказываний в интернете запрещены законом. Ожидается, что требования к модерации контента по всей Европе ещё ужесточатся, когда в сентябре вступят в силу правила, связанные с Законом о цифровых услугах.

 Источник изображения: pexels.com

Источник изображения: pexels.com

На глобальные интернет-платформы, такие, как Twitter, распространяются строгие юридические требования в отношении удаления разжигающих ненависть высказываний и ложной информации в Германии. Немецкие законодатели допросили главу Twitter по делам с европейским правительством Ронана Костелло (Ronan Costello) о планах компании по модерации контента во время слушаний комитета в среду.

Во время слушаний члены цифрового комитета выразили оправданный скептицизм, снова и снова пытаясь прояснить, как именно Twitter сможет удовлетворить более строгие требования к модерации. В ноябре 2022 года было уволено около половины сотрудников Twitter, а затем последовала ещё одна волна сокращений, это болезненно сказалось на работе групп модерации контента. При этом Twitter не выплачивает арендную плату, задерживает финансовую отчётность, и является единственной компанией, которая не представила Евросоюзу результаты выполнения требований по борьбе с дезинформацией.

Костелло сообщил Бундестагу, что правоприменительный подход Twitter к немецкому законодательству остаётся неизменным. Он пояснил, что с июля по декабрь над модерацией немецкого контента в Twitter работало 150 человек, но не смог ответить, сколько сотрудников занято этим сейчас. Костелло сослался на использование искусственного интеллекта и привлечение пользователей к проверке фактов под названием «Заметки сообщества» (Community Notes), продвигаемую Маском, в качестве инструментов, которые должны повысить качество модерации. По его словам, вскоре Twitter запустит «Заметки сообщества» в Европе. Нужно отметить, что версия, доступная в настоящее время в США, имеет серьёзные ограничения.

Исторически интернет-компании годами боролись с немецкими правилами в отношении модерации контента. Вступивший в силу в 2017 году в стране Закон о защите прав пользователей Сети грозит штрафом в размере до 50 миллионов евро компании, которая не фильтрует и не удаляет незаконный контент.

 Источник изображения: pexels.com

Источник изображения: pexels.com

Законодатели, похоже, не верят в серьёзность намерений Twitter по модерации контента. В конце января на компанию подали в суд в Берлине из-за предполагаемых упущений. В жалобе приводятся шесть примеров антисемитских постов, все они были опубликованы после того, как компания была приобретена Маском. Один из постов даже содержит отрицание Холокоста, а в Германии это является уголовным преступлением.

Конфронтация в немецком парламенте — вероятный предшественник того, с чем Маску придётся столкнуться на слушаниях в Брюсселе. Игнорирование требований Евросоюза может очень дорого ему обойтись.

Google: если IT-гигантов заставят отвечать за публикуемый контент, это «перевернёт интернет»

В компании Google уверены, что расширение ответственности крупных интернет-платформ за модерацию публикуемого на них контента не даст ожидаемого результата. По мнению IT-гиганта, такой подход приведёт к появлению в Сети множества порталов, не контролирующих контент.

 Источник изображения: Justin Sullivan / Getty Images

Источник изображения: Justin Sullivan / Getty Images

Верховный суд США рассматривает дело о расширении ответственности интернет-платформ за публикуемые на них материалы. Речь идёт о разбирательстве, которое началось в 2016 году по заявлению семьи Ноэми Гонсалес, которая за год до того погибла во время теракта, устроенного группировкой «Исламское государство» (организация признана террористической и запрещена в России). Отец Ноэми обвинил Google, Twitter и Facebook в том, что они позволяют террористам использовать свои платформы для публикации контента экстремистского характера.

«Google разделяет прибыль с ИГ и другими экстремистскими группами. Размещая свои ролики на сервисах, таких как YouTube, экстремисты подключают рекламу Google, от которой компания тоже имеет прибыль», — заявил адвокат семьи погибшей.

Действующее в США законодательство освобождает интернет-платформы от ответственности за контент, размещаемый третьими лицами. Соответствующая норма действует с 1996 года. В прошлом году истцы заявили, что упомянутая норма не освобождает их от ответственности за появление такого контента в рекомендациях. Истцы считают, что хоть компании и нельзя привлечь к ответственности за публикацию экстремистских роликов третьими лицами, они должны отвечать за появление таких материалов в рекомендациях для пользователей и подборках.

В это же время Google утверждает, что исполнение требований истцов может нарушить всю систему работы интернета и модерирования контента. В компании уверены, что сокращение мер ограничения ответственности может привести к тому, что крупные интернет-компании будут блокировать весь спорный контент, в том числе «спорные политические выступления». В это же время небольшие компании откажутся от модерации контента, стараясь избежать ответственности за любые свои решения. Эффект от этого будет прямо противоположный тому, чего хотят истцы.

«Суд должен отказаться от новых и непроверенных теорий, которые рискуют превратить сегодняшний интернет в вынужденный выбор между чрезмерно модерируемыми крупными сайтами и небольшими порталами, наводнёнными нежелательным контентом», — заявили в Google.

YouTube улучшила автоматическую модерацию комментариев: за оскорбления будут сначала предупреждать, а потом банить на сутки

Администрация YouTube доложила об улучшении работы алгоритмов автоматической модерации на платформе: теперь они эффективнее справляются со спамом и оскорблениями в комментариях. Особо активным сетевым хулиганам выносятся предупреждения и вводятся временные ограничения.

 Источник изображения: Christian Wiediger / unsplash.com

Источник изображения: Christian Wiediger / unsplash.com

За первую половину года на YouTube были удалены более 1,1 млрд содержащих спам комментариев — спамеры постоянно меняют тактику, вот и администрации платформы приходится постоянно совершенствовать модели машинного обучения, помогая им эффективнее обнаруживать нежелательный контент. Защитные ИИ-алгоритмы работают не только в комментариях под видео, но и в чатах прямых трансляций — с очередным обновлением общение во время эфиров станет комфортнее для всех.

Кроме того, если система удалила несколько комментариев оскорбительного характера от одного пользователя, ему будет вынесено предупреждение о недопустимости нарушения политики ресурса. Если он продолжит размещать контент оскорбительного характера, на его аккаунт будут накладываться ограничения, и он не сможет оставлять комментарии в течение 24 часов. Как показало проведённое администрацией YouTube исследование, эти меры снижают вероятность того, что пользователь будет оставлять подобные сообщения снова. Пока предупреждения выносятся только в англоязычном сегменте платформы, но в перспективе функция расширится и на другие её сегменты.

Instagram✴ расскажет пользователям о пригодности их постов для демонстрации в рекомендациях

Авторы контента давно жаловались на невозможность предсказать оценку Instagram их постов. Теперь социальная сеть заявила, что владельцы аккаунтов смогут увидеть, заблокирован ли их пост для демонстрации в рекомендациях и других разделах.

 Источник изображения: Jonas Leupe/unsplash.com

Источник изображения: Jonas Leupe/unsplash.com

Теперь Instagram будет прямо сообщать, не слишком ли «остры» посты для рекомендации другим пользователям — даже если они формально не нарушают правила соцсети. Авторы контента и бизнесы смогут проверить факт блокировки в некоторых разделах приложения.

В меню настроек пользователи профессиональных аккаунтов теперь могут увидеть, не заблокирована ли рекомендация их постов пользователям, которые не являются фолловерами. Рекомендации появляются (или не появляются), например, в разделе Explore, и выдаче на главной странице. Известно, что к концу 2023 года Meta намерена более чем удвоить количество рекомендованного контента, демонстрируемого пользователям.

Для того, чтобы пост мог появляться в разделе Explore и других разделах, посты должны соответствовать правилам для рекомендованного контента: в теории пользователи могут публиковать контент, демонстрирующий насилие — вроде видео драки, но его не будут рекомендовать другим посетителям социальной сети. Авторы контента и операторы бизнес-аккаунтов смогут редактировать, удалять посты, а также подавать апелляции в случае, если их публикации признаны неподходящими для рекомендаций.

Обновление страницы статуса аккаунта, вероятно, заденет за живое создателей контента, всегда подозревавших Instagram в том, что социальная сеть занимается т.н. «теневой блокировкой» — практикой, когда пользователям незаметно ограничивают возможности без объявления каких-либо санкций. В конце концов, новая функция позволит внести ясность — действительно ли пользовательские материалы подвергаются неявной дискриминации в социальной сети и почему именно.

Meta✴ предложили убрать привилегии для популярных пользователей и сделать модерацию одинаковой для всех

Наблюдательный совет Meta Platforms (владеет Facebook, Instagram и WhatsApp) порекомендовал компании обновить политику модерации и лишить пользователей с большим числом подписчиков привилегированного положения, позволяющего им не соблюдать общих правил соцсетей.

 Источник изображения: Laura Chouette / unsplash.com

Источник изображения: Laura Chouette / unsplash.com

Практика, получившая название «перекрёстной проверки», предусматривает особый порядок модерации нескольких миллионов учётных записей Facebook и Instagram, принадлежащих знаменитостям, политикам и другим влиятельным пользователям. В результате они получают дополнительную свободу действий при публикации контента, нарушая политику компании, действующую в отношении рядовых пользователей. А интересы бизнеса, по сути, влияют на принятие решений в отношении контента.

Наблюдательный совет заинтересовался программой «перекрёстной проверки» ещё в прошлом году, когда осведомитель и бывшая сотрудница Facebook Фрэнсис Хауген (Frances Haugen) раскрыла общественности её истинные масштабы. Масштабы программы практически не контролировались, в результате чего под её действие попали почти все авторы со значительным числом подписчиков — даже при миллионах «избранных» таковых оказалось ничтожное число из 3,7 млрд пользователей платформ Meta.

В 2019 году, например, система не позволила модераторам удалить изображения обнажённой натуры, опубликованные бразильской футбольной звездой Неймаром (Neymar), хотя этот пост напрямую нарушал политику компании. Наблюдательный совет упрекнул руководство компании в том, что она не была «полностью откровенной» при раскрытии информации о «перекрёстной проверке». Были подготовлены 32 рекомендации, которые помогут выстроить программу более равномерно, включая требования к прозрачности, механизмы аудита эффективности системы, а также единообразный подход к приемлемости тех или иных материалов. Представителей властей же предложили включать в программу на общих основаниях, не давая им каких-либо предпочтений.

Рекомендации наблюдательного совета не являются обязательными к исполнению руководством Meta, однако оно обязано предоставить ответ на них в течение 60 дней. По вопросу «перекрёстных проверок» был запрошен дополнительный срок — ответ будет дан в течение 90 дней.

Twitter теперь больше полагается на автоматизацию при модерации контента

Соцсеть Twitter под руководством Илона Маска (Elon Musk) при модерации контента в значительной степени опирается на автоматизацию, отказавшись в определённых случаях от проверки контента вручную и отдавая предпочтение ограничениям на распространение, а не удалению определённых высказываний, сообщила Reuters вице-президент Twitter по доверию и безопасности Элла Ирвин (Ella Irwin).

 Источник изображения: REUTERS/Dado Ruvic

Источник изображения: REUTERS/Dado Ruvic

Twitter теперь более активно ограничивает некоторые хэштеги и фильтрует результаты поиска, связанные с противоправной деятельностью в ряде областей, включая эксплуатации детей, независимо от потенциальных последствий «безобидного использования» этих терминов, заявила Элла Ирвин. По её словам, Twitter в сотрудничестве с группой кибербезопасности Ghost Data удалила около 44 000 учетных записей, связанных с нарушением безопасности детей.

«Самое главное, что изменилось, — это то, что команда полностью готова двигаться быстро и быть максимально агрессивной», — сообщила Ирви. Это первое интервью, которое дал представитель руководства Twitter с момента приобретения Маском социальной сети в конце октября. После того, как Маск объявил об амнистии для аккаунтов, заблокированных при предыдущем руководстве, владельцы которых «не нарушали закон или не участвовали в рассылках спама», исследователи сообщили о всплеске в соцсети риторики ненависти.

После увольнения Маском половины сотрудников, у многих появились сомнения в способности компании модерировать вредоносный и незаконный контент. В пятницу Маск пообещал «значительно усилить модерацию контента и защиту свободы слова» на встрече с президентом Франции Эммануэлем Макроном (Emmanuel Macron).


window-new
Soft
Hard
Тренды 🔥