Сегодня 22 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → модерация контента
Быстрый переход

Арест Дурова принёс плоды: Telegram заблокировал в 2024 году более 15 млн групп и каналов

Администрация мессенджера Telegram опубликовала статистику по блокировкам групп и каналов в текущем году — их число достигло 15 млн. Так администрация платформы отреагировала на обвинения французских властей в недостаточной модерации.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

Данные о числе блокировок появились на сайте Telegram — эти каналы, по версии администрации платформы, нарушали политику сервиса или законодательство. За 2024 год были заблокированы 15,3 млн групп и каналов, в том числе 702 тыс. групп, в которых размещались материалы, содержащие контент с жестоким обращением с детьми, а также 129 тыс. групп и каналов террористической тематики; удалены более 100 млн единиц контента, связанного с терроризмом.

 Источник изображения: telegram.org

Источник изображения: telegram.org

С 2015 года модерация сочетала механизмы проактивного мониторинга с использованием алгоритмов машинного обучения, а также приём жалоб от пользователей; в этом году в Telegram появились средства модерации на основе искусственного интеллекта. Основатель платформы Павел Дуров был 24 августа арестован во Франции — его обвинили в недостаточной модерации и отказе сотрудничать с властями. Впоследствии ему был присвоен статус подозреваемого в распространении детской порнографии, мошенничестве и других преступлениях, которые совершались с использованием Telegram. Первый допрос Дурова состоялся 6 декабря.

Как видно на графике выше, после ареста Дурова количество блокировок заметно выросло.

Telegram обновил справочный раздел, но модерации личной переписки не будет

Администрация Telegram внесла изменения в содержимое справочного раздела, дав невнимательным гражданам повод сделать вывод, что платформа теперь будет модерировать переписку пользователей. В действительности личные и групповые чаты мессенджера так и остались приватными, утверждает его администрация.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

Ранее на странице «Часто задаваемые вопросы» в разделе подачи жалоб на незаконные материалы отмечалось, что «все чаты Telegram и групповые чаты являются приватными для их участников. Мы не обрабатываем никакие связанные с ними запросы». Сейчас этот раздел гласит: «Все приложения Telegram имеют кнопки „Сообщить“, которые позволяют вам сообщать нашим модераторам о незаконных материалах — всего за несколько нажатий». Приводится также адрес электронной почты для обращения и краткие инструкции, чтобы ускорить реакцию администрации.

Но это не значит, что платформа изменила свою политику и теперь собирается модерировать переписку пользователей. Фраза о приватном характере личных и групповых чатов переместилась в соседний раздел. В нём уточняется, что в отличие от личной и групповой переписки наборы стикеров, каналы и боты содержат информацию, доступную неограниченному кругу пользователей. Ранее глава Telegram Павел Дуров заявил, что администрации мессенджера приходится выдерживать баланс между безопасностью и конфиденциальностью пользователей.

Соцсеть X назначила новых руководителей, ответственных за безопасность контента

Исповедующий бескомпромиссную свободу слова Илон Маск (Elon Musk) в деятельности принадлежащей ему социальной сети вынужден руководствоваться существующими правилами и законами, а ещё компания пытается добиться расположения рекламодателей. Работой на этих направлениях будут руководить два новых менеджера, назначенных на профильные посты недавно.

 Источник изображения: Unsplash, BoliviaInteligente

Источник изображения: Unsplash, BoliviaInteligente

Как сообщает Bloomberg, курировать изменения в информационной политике X отныне будет Кайли Макробертс (Kylie McRoberts), которая до этого занимала в компании другой пост, а за обеспечение взаимодействия с рекламодателями в области безопасности контента будет отвечать Йейл Коэн (Yale Cohen), ранее работавший в издательстве Publicis Media.

Генеральный директор X Линда Яккарино (Linda Yaccarino) в письме Bloomberg по поводу этих назначений сообщила: «Когда мы говорим о том, что безопасность и свобода слова могут и должны сосуществовать на страницах X — мы действительно убеждены в этом. Специалисты по безопасности контента без устали работают, буквально день и ночь, по всему миру, чтобы сделать это реальностью».

Не секрет, что часть рекламодателей отвернулась от X из-за провокационных высказываний Илона Маска или его попыток поставить свободу слова выше принятых в западном обществе принципов морали. Купив социальную сеть Twitter, как она раньше именовалась, в октябре 2022 года, Маск существенно сократил штат специалистов по безопасности контента. Нынешние назначения должны символизировать обратную тенденцию, пусть и не в пропорциональном размере. Макробертс станет уже третьим руководителем X по вопросам безопасности контента с момента перехода социальной сети под контроль Илона Маска. Этот пост пустовал с июня прошлого года, когда предшественница Макробертс Элла Ирвин (Ella Irwin) уволилась из X.

X создаст центр модерации контента впервые после покупки соцсети Илоном Маском

Компания X, ранее известная как Twitter, объявила о создании нового центра модерации контента в Остине, штат Техас. Это решение было принято накануне слушаний 31 января в Сенате США, где генеральный директор X Линда Яккарино (Linda Yaccarino) должна будет объяснить сенаторам стратегию компании по борьбе с распространением материалов, касающихся сексуального насилия над детьми (Child Sexual Abuse Material — CSAM).

 Источник изображения: X

Источник изображения: X

Сосредоточенный на контенте, связанном с CSAM, центр станет первым полноценным подразделением по обеспечению безопасности и доверия после масштабных увольнений, проведённых после покупки платформы Илоном Маском (Elon Musk). В новом техасском офисе X планируется трудоустроить сто сотрудников. Новый центр модерации будет первым подобным подразделением с момента, когда Маск реорганизовал команды модерации вскоре после приобретения платформы.

Как сообщает компания X, обновлённая структура команды безопасности будет заниматься не только CSAM, но и другими аспектами модерации контента, включая противодействие разжиганию ненависти. Новый офис в Остине уже упоминается в блоге компании как ключевой элемент в их стратегии борьбы с нежелательным контентом, хотя точные обязанности новой команды и сроки открытия офиса пока не раскрываются.

Дополнительно, Джо Бенаррох (Joe Benarroch), операционный директор X, в интервью Bloomberg подчеркнул, что новый центр будет способствовать улучшению модерации в целом, охватывая широкий спектр задач: от борьбы со спамом и мошенничеством до обеспечения качественной поддержки клиентов.

Объявление о наборе сотрудников для офиса в Остине указывает на многофункциональность новой команды и подчёркивает её значимость в рамках общей стратегии безопасности компании X. Этот шаг демонстрирует решимость социальной сети X встать на защиту безопасности в интернете и готовность к активному участию в решении проблем цифрового мира.

После покупки Twitter Илон Маск уволил 1213 специалистов по модерации контента

В октябре позапрошлого года после длительных попыток сбить цену Илон Маск (Elon Musk) был вынужден купить компанию Twitter на оговорённых ещё в апреле 2022 года условиях, а позже он переименовал соответствующую социальную сеть в X. Расследование австралийских регуляторов позволило выяснить, что с момента перехода компании под контроль Маска он уволил 1213 сотрудников, отвечавших за модерацию контента.

 Источник изображения: Unsplash, charlesdeluvio

Источник изображения: Unsplash, charlesdeluvio

Как поясняет South China Morning Post, соответствующие данные австралийской правительственной организации eSafety Commission удалось получить от руководства X в соответствии с положениями локального Закона об онлайн-безопасности (Online Safety Act). Внимание регуляторов привлекло то обстоятельство, что в последующие за сменой собственника Twitter месяцы на страницах социальной сети заметно увеличилось количество «токсичного» контента.

Австралийским чиновникам удалось получить от X полный расклад по штатному расписанию, описывающий количество специалистов различного профиля, работающих в компании или трудившихся там ранее. Вместе с подрядчиками, ряды персонала X за прошедшее с октября 2022 года время покинули 1213 специалистов по модерации контента. Непосредственно инженерного персонала такого профиля было сокращено около 80 % от изначального количества. По мнению регуляторов, подобные действия нового руководства социальной сети привели к плачевным последствиям и росту систематических злоупотреблений информационной политикой платформы со стороны недобросовестных пользователей.

В октябре прошлого года австралийские власти уже штрафовали X за отсутствие внятных механизмов по борьбе с распространением незаконных материалов с участием несовершеннолетних. Компания Илона Маска не только не выплатила назначенный штраф в размере $388 000, но и выступила со встречной судебной претензией к австралийским регуляторам, которая сейчас рассматривается.

Глава Reddit рассказал о планах ввести ИИ-модерацию — полностью заменять людей не планируется

Администрация Reddit продолжает считать правильным решение о введении платного доступа к API, хотя оно и далось ценой конфликта с частью сообщества — в какой-то момент дошло до восстания модераторов. Но в перспективе платформа может внедрить модерацию на основе алгоритмов искусственного интеллекта, заявил ресурсу Fast Company гендиректор Reddit Стив Хаффман (Steve Huffman).

 Источник изображения: Brett Jordan / unsplash.com

Источник изображения: Brett Jordan / unsplash.com

В мае администрация платформы объявила, что доступ к API будет платным. Это было сделано из-за того, что на контенте ресурса начали обучать модели ИИ. Хаффман подчёркивает, что Reddit является открытой платформой, но её контентом пользовались не только мелкие игроки, но и крупнейшие компании мира. Из-за введения платы за доступ к API сообщество лишилось большинства неофициальных приложений, некоторые из которых считались более удобными, чем официальные.

Гендиректор продолжает считать, что это решение было правильным, но донести его до сообщества можно было и по-другому, чтобы избежать конфликта или хотя бы смягчить его. Тогда не было бы восстания модераторов, которые начали злоупотреблять своими полномочиями, чтобы саботировать работу платформы: одни сообщества закрывались, а другие получали «взрослую» пометку NSFW, не позволявшую размещать в них рекламу.

А в перспективе на Reddit, заявил Хаффман, появятся механизмы модерации при помощи алгоритмов ИИ — они не заменят живых людей, а будут оказывать им помощь. В разных сообществах действуют разные правила, «иногда строгие, а иногда и эзотерические». Новички порой не могут даже начать общение в таких сообществах, потому что их публикации оперативно удаляются. В таких случаях ИИ окажется полезным — он будет указывать пользователям на нарушения правил ещё до публикации постов, и модераторам не потребуется делать это самостоятельно.

Линда Яккарино отказалась покидать пост главы X на фоне скандала с неонацистским контентом

По утверждению независимых источников, за последние дни множество руководителей компаний и бывших коллег главы X Линды Яккарино (Linda Yaccarino) в частном порядке призвали её уйти в отставку, чтобы «спасти репутацию». Такие советы Линда получала даже на свадьбе своей дочери в субботу. Однако она отказалась покинуть компанию, заявив, что «верит в миссию X и её сотрудников». Напомним, социальная сеть X подверглась обвинениям в некачественном модерировании националистического контента, а Маска назвали на этом фоне антисемитом.

 Источник изображения: Associated Press

Источник изображения: Associated Press

Некоммерческая группа левого толка Media Matters for America на прошлой неделе опубликовала отчёты, которые демонстрируют рекламу на платформе X ведущих брендов рядом с постами, пропагандирующими «пронацистский» и «белый националистический контент». Эти обвинения побудили такие бренды, как IBM, Apple, Walt Disney, Comcast и Warner Bros, приостановить свою рекламу на платформе X, опасаясь соседства с «сомнительными материалами».

Многие компании сейчас пытаются дистанцироваться от владельца X Илона Маска (Elon Musk). Маск, самопровозглашённый «сторонник свободы слова», ослабил политику модерации и сократил ресурсы и персонал, обеспечивающие безопасность. Бренды опасаются жалоб акционеров и потенциальных бойкотов от своих клиентов, если продолжат размещать рекламу на платформе. Критики Маска считают, что он «должен найти новую модель дохода, поскольку он убил рекламу на платформе, и точка».

X нанял Линду Яккарино в июне, чтобы вернуть рекламодателей на платформу. До этого Линда работала руководителем отдела рекламы в NBCUniversal. Благодаря своим налаженным связям среди маркетологов крупных компаний, ей неоднократно приходилось преодолевать неприятие ими изменений, внесённых Маском в платформу, и противоречивых комментариев, которые он публиковал.

Яккарино утверждает, что за время её пребывания у руля социальной сети, показатели безопасности X улучшились. На прошлой неделе в ответ на обвинения в адрес платформы она заявила: «X предельно ясно рассказала о наших усилиях по борьбе с антисемитизмом и дискриминацией. Этому абсолютно нет места нигде в мире».

В воскресенье Маск написал в своём аккаунте X: «На прошлой неделе в СМИ появились сотни фальшивых историй, в которых утверждалось, что я антисемит. Нет ничего более далёкого от правды. Я желаю человечеству только лучшего, процветающего и захватывающего будущего для всех». Днём ранее Маск пообещал подать «термоядерный иск» против Media Matters за то, что, по его словам, было «мошеннической атакой» на X. Исполнительный директор Media Matters Анджело Карузоне (Angelo Carusone) в свою очередь уверен в собственной правоте и утверждает, что легко выиграет в суде.

Google ужесточит модерацию ИИ-контента в Android-приложениях с 2024 года

Google установит новые требования к модерации контента для приложений на Android, использующих ИИ. С начала следующего года разработчики таких приложений должны внедрить функцию для жалоб на оскорбительный или спорный материал непосредственно в пользовательском интерфейсе. Эти изменения затронут не только чат-боты на основе ИИ, но и приложения, создающие визуальный и аудио контент. Инициатива направлена на борьбу с недопустимым контентом, в том числе с дипфейками и дезинформацией.

 Источник изображения: dassel / Pixabay

Источник изображения: dassel / Pixabay

Google уточнила, что новая политика будет применяться не ко всем приложениям с ИИ. Она коснётся чат-ботов, приложений для создания изображений, голосового и видеоконтента. Приложения, которые только хранят сгенерированный ИИ-контент или используют ИИ для обобщения текстовых материалов, останутся вне зоны действия новых правил.

Google акцентирует внимание на определённых категориях контента, требующих строжайшей модерации. В этот список входят фальшивые видео или изображения, созданные без согласия изображённых на них людей, а также записи реальных людей, применяемые в мошеннических целях.

Кроме того, компания будет особенно внимательно следить за распространением ложной или вводящей в заблуждение информации, связанной с выборами. Не менее строгий контроль установлен и для приложений, в которых генеративный ИИ используется преимущественно для сексуального удовлетворения, а также создания вредоносного кода.

В своём заявлении Google подчеркнула, что генеративный ИИ является быстро развивающейся категорией приложений, что даёт основания полагать, что компания может пересмотреть свою политику в области ИИ по мере дальнейшего развития технологии. Помимо новых правил в отношении контента, генерируемого ИИ, Google также расширила политику разрешений на использование фото- и видеоматериалов в Play Store, ограничивая доступ Android-приложений к данным.

«Фотоматериалы и видеозаписи на устройствах пользователей являются их личной и конфиденциальной информацией, требующей максимально ответственного отношения, — подчеркнула компания в своём заявлении. — Такие данные создают потенциальную уязвимость для пользователей в случае утечек или других форм эксплуатации. Ограничение доступа к ним не только повышает уровень безопасности пользователей, но и снижает нагрузку на разработчиков в части обработки чувствительной информации».

OpenAI предложила GPT-4 на роль беспристрастного модератора

OpenAI рассказала, что её разработки способны облегчить решение одной из самых сложных и неприятных технических задач — задачи модерации контента. Большая языковая модель GPT-4 способна заменить десятки тысяч модераторов-людей, демонстрируя столь же высокую точность и даже большую последовательность.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Компания OpenAI сообщила в корпоративном блоге, что уже использует GPT-4 для уточнения собственной политики в отношении контента, его маркировки и принятия отдельных решений. Разработчик даже привёл ряд преимуществ искусственного интеллекта перед традиционными подходами к модерации контента.

Во-первых, люди интерпретируют политику по-разному, тогда как машины последовательны в своих суждениях. Рекомендации по модерации могут быть объёмными и постоянно меняться — людям требуется много времени, чтобы научиться и адаптироваться к переменам, а большие языковые модели реализуют новые политики мгновенно. Во-вторых, GPT-4 способен помочь разработать новую политику в течение нескольких часов. Процесс составления маркировки, сбора отзывов и уточнений обычно занимает несколько недель или даже месяцев. В-третьих, нельзя забывать о психологическом благополучии работников, которые по долгу службы постоянно сталкиваются с вредоносным контентом.

Популярные соцсети существуют уже почти два десятилетия, не говоря о прочих онлайн-сообществах, но модерация контента по-прежнему остаётся одной из сложнейших задач для онлайн-платформ. Meta, Google и TikTok сформировали целые армии модераторов, которым приходится просматривать ужасный и часто травмирующий контент. Большинство из них проживает в развивающихся странах с низкой заработной платой, работает в аутсорсинговых компаниях и пытается самостоятельно справляться с психологическими травмами, получая минимальный объём помощи.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

OpenAI и сама в значительной степени ещё полагается на человеческий ресурс — она нанимает работников из африканских стран для комментирования и разметки контента. Этот контент может быть проблемным, что делает работу таких сотрудников напряжённой при низкой зарплате. А вышеупомянутые Meta, Google и TikTok в дополнение к модераторам-людям пользуются услугами ИИ-моделей собственной разработки, поэтому предложенное OpenAI решение окажется полезным для небольших компаний, у которых нет ресурсов на разработку собственных систем.

Каждая платформа признаёт, что идеальных механизмов модерации в больших масштабах не существует: ошибки совершают и люди, и машины. Процент ошибок может быть низким, но в открытый доступ по-прежнему прорываются миллионы потенциально опасных публикаций — и, вероятно, такое же число безвредного контента скрывается или удаляется. Плюс остаётся «серая зона» недостоверного или агрессивного контента, который отвечает требованиям политики модерации, но озадачивает автоматизированные системы — такой контент сложно оценивать даже модераторам-людям, вот и машины часто совершают ошибки. То же относится к публикациям сатирического характера и материалам, документирующим преступления или превышения полномочий сотрудниками правоохранительных органов. Наконец, нельзя забывать и о внутренних проблемах, характерных для систем ИИ — «галлюцинациях» и «дрейфе», которые также способны затруднить работу ИИ-модераторов.

Twitter будет помечать твиты с ограниченной видимостью

Социальная сеть Twitter будет добавлять особые ярлыки к твитам, которые отмечаются модераторами платформы для ограничения их видимости. В компании это нововведение назвали шагом к «свободе слова, а не доступности».

 Источник изображения: PhotoMIX-Company/pixabay.com

Источник изображения: PhotoMIX-Company/pixabay.com

На прошлой неделе соцсеть впервые сделала объявление о грядущих изменениях, направленных на то, чтобы ограничить доступ пользователей платформы к публикациям с ненавистническим контентом. «Ограничение доступа к твитам помогает уменьшить сложности при модерации контента, когда возникает вопрос «оставить или удалить», и поддерживает наш подход «свобода слова против свободы охвата», — сказано в заявлении Twitter.

Ярлыки сообщений с ограниченным доступом будут отображаться как авторам контента, так и другим пользователям. Обычно в таких твитах появляется отметка: «Видимость ограничена: этот твит может нарушать правила Twitter в отношении ненавистнического поведения». Публикации с ограниченным доступом не будут отображаться в результатах поиска, рекомендациях и лентах. Кроме того, соцсеть не будет размещать рекламу рядом с такими твитами.

Компания признаёт, что при маркировке твитов могут возникать ошибки, поэтому авторы публикаций, которые посчитают, что их сообщения по ошибке отмечены ярлыком ограниченной видимости, смогут оспорить это решение модераторов. При этом Twitter подчёркивает, что обращение в поддержку по данному вопросу не гарантирует того, что ярлык ограниченной видимости будет снят с того или иного твита.

Евросоюз рекомендовал Twitter больше полагаться на людей в сфере модерации контента

К сентябрю этого года все социальные сети, функционирующие в юрисдикции Евросоюза, должны привести свою деятельность в соответствие с Законом о цифровых услугах (DSA), в противном случае их владельцы будут штрафоваться на суммы, составляющие до 6 % годового оборота на мировом рынке. Местные регуляторы рекомендовали Илону Маску (Elon Musk) активнее использовать человеческий труд для модерации контента.

 Источник изображения: Carina Johansen, NTB, Reuters

Источник изображения: Carina Johansen, NTB, Reuters

Как поясняет Financial Times, европейских регуляторов не совсем устраивает политика Twitter, которая предусматривает использование труда немногочисленных добровольцев для модерации контента, а также стремление заменить их алгоритмами искусственного интеллекта. Европейские чиновники считают, что Twitter следует нанимать больше профессиональных модераторов и уделять внимание проверке информации, распространяемой со страниц социальной сети.

Во время недавних переговоров с европейскими чиновниками представители Twitter получили одобрение практики использования труда добровольных модераторов в рамках концепции Community Notes, но выслушали замечание о том, что таких помощников не так много для эффективной борьбы с распространением дезинформации. Кроме того, продолжает оставаться проблемой эффективная модерация контента на языках, отличных от английского. Представители Еврокомиссии выразили надежду, что платформы обеспечат выделение адекватных ресурсов для приведения своей деятельности в соответствие с требованиями регионального законодательства. Принятие на работу достаточного количества персонала является одним из залогов успеха на этом направлении, как считают чиновники.

Власти Германии не уверены в способности Twitter выполнять требования к модерации контента после массовых увольнений

Покупая Twitter, Илон Маск (Elon Musk) ставил своей целью «обеспечить неприкосновенность свободы слова». На этой неделе его компания уже столкнулась с проблемами в Германии, где определённые виды высказываний в интернете запрещены законом. Ожидается, что требования к модерации контента по всей Европе ещё ужесточатся, когда в сентябре вступят в силу правила, связанные с Законом о цифровых услугах.

 Источник изображения: pexels.com

Источник изображения: pexels.com

На глобальные интернет-платформы, такие, как Twitter, распространяются строгие юридические требования в отношении удаления разжигающих ненависть высказываний и ложной информации в Германии. Немецкие законодатели допросили главу Twitter по делам с европейским правительством Ронана Костелло (Ronan Costello) о планах компании по модерации контента во время слушаний комитета в среду.

Во время слушаний члены цифрового комитета выразили оправданный скептицизм, снова и снова пытаясь прояснить, как именно Twitter сможет удовлетворить более строгие требования к модерации. В ноябре 2022 года было уволено около половины сотрудников Twitter, а затем последовала ещё одна волна сокращений, это болезненно сказалось на работе групп модерации контента. При этом Twitter не выплачивает арендную плату, задерживает финансовую отчётность, и является единственной компанией, которая не представила Евросоюзу результаты выполнения требований по борьбе с дезинформацией.

Костелло сообщил Бундестагу, что правоприменительный подход Twitter к немецкому законодательству остаётся неизменным. Он пояснил, что с июля по декабрь над модерацией немецкого контента в Twitter работало 150 человек, но не смог ответить, сколько сотрудников занято этим сейчас. Костелло сослался на использование искусственного интеллекта и привлечение пользователей к проверке фактов под названием «Заметки сообщества» (Community Notes), продвигаемую Маском, в качестве инструментов, которые должны повысить качество модерации. По его словам, вскоре Twitter запустит «Заметки сообщества» в Европе. Нужно отметить, что версия, доступная в настоящее время в США, имеет серьёзные ограничения.

Исторически интернет-компании годами боролись с немецкими правилами в отношении модерации контента. Вступивший в силу в 2017 году в стране Закон о защите прав пользователей Сети грозит штрафом в размере до 50 миллионов евро компании, которая не фильтрует и не удаляет незаконный контент.

 Источник изображения: pexels.com

Источник изображения: pexels.com

Законодатели, похоже, не верят в серьёзность намерений Twitter по модерации контента. В конце января на компанию подали в суд в Берлине из-за предполагаемых упущений. В жалобе приводятся шесть примеров антисемитских постов, все они были опубликованы после того, как компания была приобретена Маском. Один из постов даже содержит отрицание Холокоста, а в Германии это является уголовным преступлением.

Конфронтация в немецком парламенте — вероятный предшественник того, с чем Маску придётся столкнуться на слушаниях в Брюсселе. Игнорирование требований Евросоюза может очень дорого ему обойтись.

Google: если IT-гигантов заставят отвечать за публикуемый контент, это «перевернёт интернет»

В компании Google уверены, что расширение ответственности крупных интернет-платформ за модерацию публикуемого на них контента не даст ожидаемого результата. По мнению IT-гиганта, такой подход приведёт к появлению в Сети множества порталов, не контролирующих контент.

 Источник изображения: Justin Sullivan / Getty Images

Источник изображения: Justin Sullivan / Getty Images

Верховный суд США рассматривает дело о расширении ответственности интернет-платформ за публикуемые на них материалы. Речь идёт о разбирательстве, которое началось в 2016 году по заявлению семьи Ноэми Гонсалес, которая за год до того погибла во время теракта, устроенного группировкой «Исламское государство» (организация признана террористической и запрещена в России). Отец Ноэми обвинил Google, Twitter и Facebook в том, что они позволяют террористам использовать свои платформы для публикации контента экстремистского характера.

«Google разделяет прибыль с ИГ и другими экстремистскими группами. Размещая свои ролики на сервисах, таких как YouTube, экстремисты подключают рекламу Google, от которой компания тоже имеет прибыль», — заявил адвокат семьи погибшей.

Действующее в США законодательство освобождает интернет-платформы от ответственности за контент, размещаемый третьими лицами. Соответствующая норма действует с 1996 года. В прошлом году истцы заявили, что упомянутая норма не освобождает их от ответственности за появление такого контента в рекомендациях. Истцы считают, что хоть компании и нельзя привлечь к ответственности за публикацию экстремистских роликов третьими лицами, они должны отвечать за появление таких материалов в рекомендациях для пользователей и подборках.

В это же время Google утверждает, что исполнение требований истцов может нарушить всю систему работы интернета и модерирования контента. В компании уверены, что сокращение мер ограничения ответственности может привести к тому, что крупные интернет-компании будут блокировать весь спорный контент, в том числе «спорные политические выступления». В это же время небольшие компании откажутся от модерации контента, стараясь избежать ответственности за любые свои решения. Эффект от этого будет прямо противоположный тому, чего хотят истцы.

«Суд должен отказаться от новых и непроверенных теорий, которые рискуют превратить сегодняшний интернет в вынужденный выбор между чрезмерно модерируемыми крупными сайтами и небольшими порталами, наводнёнными нежелательным контентом», — заявили в Google.


window-new
Soft
Hard
Тренды 🔥
Вышел первый настольный компьютер Copilot+PC — Asus NUC 14 Pro AI на чипе Intel Core Ultra 9 2 ч.
Foxconn немного охладела к покупке Nissan, но вернётся к этой теме, если слияние с Honda не состоится 7 ч.
В следующем году выйдет умная колонка Apple HomePod с 7-дюймовым дисплеем и поддержкой ИИ 8 ч.
Продажи AirPods превысили выручку Nintendo, они могут стать третьим по прибыльности продуктом Apple 8 ч.
Прорывы в науке, сделанные ИИ в 2024 году: археологические находки, разговоры с кашалотами и сворачивание белков 16 ч.
Arm будет добиваться повторного разбирательства нарушений лицензий компанией Qualcomm 20 ч.
Поставки гарнитур VR/MR достигнут почти 10 млн в 2024 году, но Apple Vision Pro занимает лишь 5 % рынка 22 ч.
Первая частная космическая станция появится на два года раньше, но летать на неё будет нельзя 23 ч.
В США выпущены федеральные нормы для автомобилей без руля и педалей 24 ч.
Для невыпущенного суперчипа Tachyum Prodigy выпустили 1600-страничное руководство по оптимизации производительности 21-12 14:00