Сегодня 22 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → контент
Быстрый переход

Арест Дурова принёс плоды: Telegram заблокировал в 2024 году более 15 млн групп и каналов

Администрация мессенджера Telegram опубликовала статистику по блокировкам групп и каналов в текущем году — их число достигло 15 млн. Так администрация платформы отреагировала на обвинения французских властей в недостаточной модерации.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

Данные о числе блокировок появились на сайте Telegram — эти каналы, по версии администрации платформы, нарушали политику сервиса или законодательство. За 2024 год были заблокированы 15,3 млн групп и каналов, в том числе 702 тыс. групп, в которых размещались материалы, содержащие контент с жестоким обращением с детьми, а также 129 тыс. групп и каналов террористической тематики; удалены более 100 млн единиц контента, связанного с терроризмом.

 Источник изображения: telegram.org

Источник изображения: telegram.org

С 2015 года модерация сочетала механизмы проактивного мониторинга с использованием алгоритмов машинного обучения, а также приём жалоб от пользователей; в этом году в Telegram появились средства модерации на основе искусственного интеллекта. Основатель платформы Павел Дуров был 24 августа арестован во Франции — его обвинили в недостаточной модерации и отказе сотрудничать с властями. Впоследствии ему был присвоен статус подозреваемого в распространении детской порнографии, мошенничестве и других преступлениях, которые совершались с использованием Telegram. Первый допрос Дурова состоялся 6 декабря.

Как видно на графике выше, после ареста Дурова количество блокировок заметно выросло.

Adobe выпустила инструмент для защиты контента от искусственного интеллекта

Adobe представила бесплатное веб-приложение Content Authenticity, которое позволяет создателям контента применять теги атрибуции к своим изображениям, видео и аудио, и запрещать их использование для обучения ИИ. Приложение служит централизованным хабом для платформы Adobe Content Credentials, интегрирующей в цифровой контент защитные метаданные с информацией о создателе, владельце и факте использования инструментов ИИ при создании произведения.

 Источник изображения: Adobe

Источник изображений: Adobe

Content Authenticity будет интегрироваться с моделями ИИ Adobe Firefly, а также с Photoshop, Lightroom и другими приложениями Creative Cloud, которые уже поддерживают учётные данные контента. Особенно важно, что учётные данные можно применить к любому изображению, видео и аудиофайлу, а не только к созданному при помощи инструментов Adobe.

Adobe утверждает, что учётные данные крайне сложно удалить, даже если сделать снимок экрана с защищённым контентом. Вся информация может быть восстановлена с помощью комбинации цифровых отпечатков, невидимых водяных знаков и криптографических метаданных. Во всяком случае тому, кто захочет обойти эти средства защиты, придётся приложить значительные усилия.

Adobe упростила проверку наличия Content Credentials на веб-сайтах, которые не предоставляют эту информацию своим пользователям. Веб-приложение Content Authenticity включает инструмент, который восстанавливает и отображает эти метаданные и историю редактирования, а расширение Content Authenticity для Google Chrome, бета-версия которого уже доступна, сможет проверять контент непосредственно на веб-странице.

Content Authenticity также позволяет пользователям защитить свою работу от использования для обучения генеративных моделей ИИ. Собственные модели Adobe обучаются только на лицензированном или общедоступном контенте, но эти средства защиты предназначены для широкого применения к моделям, созданным другими компаниями, — если эти организации его поддерживают. Adobe «активно работает над тем, чтобы стимулировать принятие этой настройки в масштабах всей отрасли».

Adobe утверждает, что привлекла 3700 организаций для поддержки своей инициативы Content Authenticity. Успех начинания зависит от того, сколько технологических и ИИ-компаний его поддержат. На данный момент известно лишь об одном стартапе, который взял на себя обязательство поддерживать эту функцию прямо сейчас. Остаётся надеяться, что глобальные поставщики ИИ, такие как OpenAI и Google, последуют этому примеру.

Веб-приложение Content Authenticity будет запущено в публичной бета-версии в первом квартале 2025 года. Для его использования достаточно бесплатной учётной записи Adobe. Выпуск приложения станет серьёзным обновлением системы Content Credentials, которое устранит многие критические замечания, высказанные создателями контента.

Telegram обновил справочный раздел, но модерации личной переписки не будет

Администрация Telegram внесла изменения в содержимое справочного раздела, дав невнимательным гражданам повод сделать вывод, что платформа теперь будет модерировать переписку пользователей. В действительности личные и групповые чаты мессенджера так и остались приватными, утверждает его администрация.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

Ранее на странице «Часто задаваемые вопросы» в разделе подачи жалоб на незаконные материалы отмечалось, что «все чаты Telegram и групповые чаты являются приватными для их участников. Мы не обрабатываем никакие связанные с ними запросы». Сейчас этот раздел гласит: «Все приложения Telegram имеют кнопки „Сообщить“, которые позволяют вам сообщать нашим модераторам о незаконных материалах — всего за несколько нажатий». Приводится также адрес электронной почты для обращения и краткие инструкции, чтобы ускорить реакцию администрации.

Но это не значит, что платформа изменила свою политику и теперь собирается модерировать переписку пользователей. Фраза о приватном характере личных и групповых чатов переместилась в соседний раздел. В нём уточняется, что в отличие от личной и групповой переписки наборы стикеров, каналы и боты содержат информацию, доступную неограниченному кругу пользователей. Ранее глава Telegram Павел Дуров заявил, что администрации мессенджера приходится выдерживать баланс между безопасностью и конфиденциальностью пользователей.

Глава ИИ-подразделения Microsoft считает законным обучение ИИ на любом контенте, находящемся в открытом доступе

Глава подразделения Microsoft AI Мустафа Сулейман (Mustafa Suleyman) считает, что как только что-либо публикуется в интернете, оно тут же становится бесплатным контентом, который каждый может скопировать и использовать по своему усмотрению. Об этом он заявил во время беседы с представителем канала CNBC.

«Я думаю, что в отношении контента, который уже находится в открытом интернете, общественный договор на этот контент с 90-х годов заключался в том, что он используется добросовестно. Любой может копировать его, воссоздавать, воспроизводить с его помощью. Это "свободное использование", если хотите, такое было понимание», — заявил Сулейман во время беседы с журналистом.

В настоящее время Microsoft является ответчиком по многочисленным судебным искам, авторы которых уверены, что софтверный гигант и поддерживаемая им компания OpenAI незаконно используют защищённый авторским правом онлайн-контент для обучения генеративных нейросетей. На этом фоне заявление Сулеймана выглядит вполне логичным, но всё же было неожиданным, что он высказался по данному вопросу столь открыто.

Однако высказывание относительно использования находящегося в интернете контента является ошибочным. Например, в США любое произведение автоматически защищается авторским правом, и публикация такого контента в интернете не аннулирует действие авторского права. В это же время добросовестное использование контента не гарантируется «общественным договором», а обеспечивается судом. Речь идёт о своеобразной юридической защите, когда по решению суда может быть разрешено использование авторского контента.

Adobe разрешила себе доступ к контенту пользователей своего ПО, включая Photoshop

Adobe обновила пользовательское соглашение, регулирующее правила взаимодействия пользователей с программными продуктами компании. Согласно внесённым изменениям, Adobe теперь официально может просматривать контент, который создают пользователи приложений компании и хранят в облаке.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

Одним из первых на упомянутое нововведение обратил внимание художник Сэм Сантала (Sam Santala), который и высказал своё возмущение в соцсети X. «Я не могу пользоваться Photoshop, если не соглашусь с тем, что у вас будет полный доступ ко всему, что я создаю с его помощью, включая работу по NDA [соглашение о неразглашении]», — написал Сантала, обратившись к Adobe за разъяснениями.

При изучении общего пользовательского соглашения Adobe можно убедиться в том, что последний раз в него вносились изменения 17 февраля 2024 года. Разработчик скорректировал разделы 2.2 и 4.1, в которых разъясняется, как компания может получать доступ к пользовательскому контенту, и как эта информация обрабатывается. Эти изменения указывают на то, что Adobe может просматривать пользовательский контент в автоматическом и ручном режимах, но только в случаях, разрешённых законом.

Это означает, что Adobe может получать доступ к пользовательскому контенту с использованием таких технологий, как машинное обучение, для улучшения собственных сервисов и ПО. Такая политика не понравилась многим пользователям продуктов компании, некоторые из которых даже заявили о намерении перейти на использование продуктов конкурентов или приложений с открытым исходным кодом.

Отметим, что клиенты с личными учётными записями Creative и Document Cloud смогут заблокировать анализ своего контента, по крайней мере в случаях, когда он используется для улучшения продуктов Adobe. Представитель компании также в очередной раз заверил пользователей в том, что контент пользователей не будет использоваться для обучения генеративных нейросетей.

Соцсеть X назначила новых руководителей, ответственных за безопасность контента

Исповедующий бескомпромиссную свободу слова Илон Маск (Elon Musk) в деятельности принадлежащей ему социальной сети вынужден руководствоваться существующими правилами и законами, а ещё компания пытается добиться расположения рекламодателей. Работой на этих направлениях будут руководить два новых менеджера, назначенных на профильные посты недавно.

 Источник изображения: Unsplash, BoliviaInteligente

Источник изображения: Unsplash, BoliviaInteligente

Как сообщает Bloomberg, курировать изменения в информационной политике X отныне будет Кайли Макробертс (Kylie McRoberts), которая до этого занимала в компании другой пост, а за обеспечение взаимодействия с рекламодателями в области безопасности контента будет отвечать Йейл Коэн (Yale Cohen), ранее работавший в издательстве Publicis Media.

Генеральный директор X Линда Яккарино (Linda Yaccarino) в письме Bloomberg по поводу этих назначений сообщила: «Когда мы говорим о том, что безопасность и свобода слова могут и должны сосуществовать на страницах X — мы действительно убеждены в этом. Специалисты по безопасности контента без устали работают, буквально день и ночь, по всему миру, чтобы сделать это реальностью».

Не секрет, что часть рекламодателей отвернулась от X из-за провокационных высказываний Илона Маска или его попыток поставить свободу слова выше принятых в западном обществе принципов морали. Купив социальную сеть Twitter, как она раньше именовалась, в октябре 2022 года, Маск существенно сократил штат специалистов по безопасности контента. Нынешние назначения должны символизировать обратную тенденцию, пусть и не в пропорциональном размере. Макробертс станет уже третьим руководителем X по вопросам безопасности контента с момента перехода социальной сети под контроль Илона Маска. Этот пост пустовал с июня прошлого года, когда предшественница Макробертс Элла Ирвин (Ella Irwin) уволилась из X.

Google начнёт вычищать поисковую выдачу от мусорного контента

Google обновит свои алгоритмы ранжирования веб-ресурсов, что снизит в поисковой выдаче количество сайтов с низкокачественным контентом, созданным специально для поисковых систем, а не для пользователей. Эта мера демонстрирует стремление компании бороться с засильем низкокачественного или неоригинального контента, обусловленного, в том числе, развитием искусственного интеллекта (ИИ), к разработке которого Google имеет непосредственное отношение.

 Источник изображения: Lumapoche / Pixabay

Источник изображения: Lumapoche / Pixabay

Проблема усугубляется тем, что в результате активного использования методов оптимизации под требования поисковых систем (SEO) качество поисковой выдачи заметно снизилось. Различные SEO-стратегии, включая создание большого объёма контента для повышения поискового ранжирования или создание сайтов для соответствия специфическим поисковым запросам, привели к тому, что в поисковой выдаче стали преобладать низкокачественные ресурсы. Исследование, проведённое Лейпцигским университетом, Университетом Баухауса в Веймаре и Центром масштабируемого анализа данных и искусственного интеллекта (ScaDS.AI), указывает на то, что Google проигрывает войну с SEO-компаниями.

В ответ на это Google объявила об обновлении своих основных алгоритмов ранжирования, что, как ожидается, приведёт к сокращению числа бесполезных ресурсов в поисковой выдаче на 40 %. Компания также намерена бороться с злоупотреблением репутацией сайтов, когда площадки с собственным качественным контентом могут размещать низкокачественные материалы, предоставленные третьими лицами, с целью заработка на репутации хостинга. В дополнение к этому вводится мера понижения в рейтинге доменов с истёкшим сроком.

При этом Google избегает называть ИИ причиной проблемы. Вместо этого компания заявляет, что хочет «бороться с появляющимися тактиками», такими как «использование автоматизации для масштабного создания низкокачественного или неоригинального контента». Однако какие именно тактики используются для генерации низкопробного контента, остаётся загадкой. Похоже, из-за стремления стать компанией, ассоциируемой с ИИ, Google предпочитает не заострять внимание на отрицательных аспектах этой технологии.

Реакция Google последовала за рядом громких историй, связанных со «спамом» в поисковой выдаче. В одном из постов в социальной сети X было рассказано о «SEO-ограблении», когда веб-сайт, используя ИИ для копирования контента конкурирующего сайта, смог обеспечить себе более высокое место в результатах поиска, буквально «украв» 3,6 млн просмотров. Ещё один пост с сайта обзоров продукции HouseFresh подробно описывал, как Google на самом деле не приоритизирует качественные обзоры, а вместо этого позволяет крупным издателям заполнять первые страницы результатов поиска низкопробными статьями с партнёрскими ссылками.

Google признаёт, что текущая политика компании не наказывает сайты с контентом, сгенерированным ИИ, несмотря на растущую критику со стороны пользователей и экспертов. Если Google не будет достаточно решительна в отношении качества поиска, она рискует потерять пользователей. Если первые 10 ссылок не соответствуют их требованиям, люди могут просто обратиться к ИИ-чат-боту.

X создаст центр модерации контента впервые после покупки соцсети Илоном Маском

Компания X, ранее известная как Twitter, объявила о создании нового центра модерации контента в Остине, штат Техас. Это решение было принято накануне слушаний 31 января в Сенате США, где генеральный директор X Линда Яккарино (Linda Yaccarino) должна будет объяснить сенаторам стратегию компании по борьбе с распространением материалов, касающихся сексуального насилия над детьми (Child Sexual Abuse Material — CSAM).

 Источник изображения: X

Источник изображения: X

Сосредоточенный на контенте, связанном с CSAM, центр станет первым полноценным подразделением по обеспечению безопасности и доверия после масштабных увольнений, проведённых после покупки платформы Илоном Маском (Elon Musk). В новом техасском офисе X планируется трудоустроить сто сотрудников. Новый центр модерации будет первым подобным подразделением с момента, когда Маск реорганизовал команды модерации вскоре после приобретения платформы.

Как сообщает компания X, обновлённая структура команды безопасности будет заниматься не только CSAM, но и другими аспектами модерации контента, включая противодействие разжиганию ненависти. Новый офис в Остине уже упоминается в блоге компании как ключевой элемент в их стратегии борьбы с нежелательным контентом, хотя точные обязанности новой команды и сроки открытия офиса пока не раскрываются.

Дополнительно, Джо Бенаррох (Joe Benarroch), операционный директор X, в интервью Bloomberg подчеркнул, что новый центр будет способствовать улучшению модерации в целом, охватывая широкий спектр задач: от борьбы со спамом и мошенничеством до обеспечения качественной поддержки клиентов.

Объявление о наборе сотрудников для офиса в Остине указывает на многофункциональность новой команды и подчёркивает её значимость в рамках общей стратегии безопасности компании X. Этот шаг демонстрирует решимость социальной сети X встать на защиту безопасности в интернете и готовность к активному участию в решении проблем цифрового мира.

После покупки Twitter Илон Маск уволил 1213 специалистов по модерации контента

В октябре позапрошлого года после длительных попыток сбить цену Илон Маск (Elon Musk) был вынужден купить компанию Twitter на оговорённых ещё в апреле 2022 года условиях, а позже он переименовал соответствующую социальную сеть в X. Расследование австралийских регуляторов позволило выяснить, что с момента перехода компании под контроль Маска он уволил 1213 сотрудников, отвечавших за модерацию контента.

 Источник изображения: Unsplash, charlesdeluvio

Источник изображения: Unsplash, charlesdeluvio

Как поясняет South China Morning Post, соответствующие данные австралийской правительственной организации eSafety Commission удалось получить от руководства X в соответствии с положениями локального Закона об онлайн-безопасности (Online Safety Act). Внимание регуляторов привлекло то обстоятельство, что в последующие за сменой собственника Twitter месяцы на страницах социальной сети заметно увеличилось количество «токсичного» контента.

Австралийским чиновникам удалось получить от X полный расклад по штатному расписанию, описывающий количество специалистов различного профиля, работающих в компании или трудившихся там ранее. Вместе с подрядчиками, ряды персонала X за прошедшее с октября 2022 года время покинули 1213 специалистов по модерации контента. Непосредственно инженерного персонала такого профиля было сокращено около 80 % от изначального количества. По мнению регуляторов, подобные действия нового руководства социальной сети привели к плачевным последствиям и росту систематических злоупотреблений информационной политикой платформы со стороны недобросовестных пользователей.

В октябре прошлого года австралийские власти уже штрафовали X за отсутствие внятных механизмов по борьбе с распространением незаконных материалов с участием несовершеннолетних. Компания Илона Маска не только не выплатила назначенный штраф в размере $388 000, но и выступила со встречной судебной претензией к австралийским регуляторам, которая сейчас рассматривается.

Глава Reddit рассказал о планах ввести ИИ-модерацию — полностью заменять людей не планируется

Администрация Reddit продолжает считать правильным решение о введении платного доступа к API, хотя оно и далось ценой конфликта с частью сообщества — в какой-то момент дошло до восстания модераторов. Но в перспективе платформа может внедрить модерацию на основе алгоритмов искусственного интеллекта, заявил ресурсу Fast Company гендиректор Reddit Стив Хаффман (Steve Huffman).

 Источник изображения: Brett Jordan / unsplash.com

Источник изображения: Brett Jordan / unsplash.com

В мае администрация платформы объявила, что доступ к API будет платным. Это было сделано из-за того, что на контенте ресурса начали обучать модели ИИ. Хаффман подчёркивает, что Reddit является открытой платформой, но её контентом пользовались не только мелкие игроки, но и крупнейшие компании мира. Из-за введения платы за доступ к API сообщество лишилось большинства неофициальных приложений, некоторые из которых считались более удобными, чем официальные.

Гендиректор продолжает считать, что это решение было правильным, но донести его до сообщества можно было и по-другому, чтобы избежать конфликта или хотя бы смягчить его. Тогда не было бы восстания модераторов, которые начали злоупотреблять своими полномочиями, чтобы саботировать работу платформы: одни сообщества закрывались, а другие получали «взрослую» пометку NSFW, не позволявшую размещать в них рекламу.

А в перспективе на Reddit, заявил Хаффман, появятся механизмы модерации при помощи алгоритмов ИИ — они не заменят живых людей, а будут оказывать им помощь. В разных сообществах действуют разные правила, «иногда строгие, а иногда и эзотерические». Новички порой не могут даже начать общение в таких сообществах, потому что их публикации оперативно удаляются. В таких случаях ИИ окажется полезным — он будет указывать пользователям на нарушения правил ещё до публикации постов, и модераторам не потребуется делать это самостоятельно.

Линда Яккарино отказалась покидать пост главы X на фоне скандала с неонацистским контентом

По утверждению независимых источников, за последние дни множество руководителей компаний и бывших коллег главы X Линды Яккарино (Linda Yaccarino) в частном порядке призвали её уйти в отставку, чтобы «спасти репутацию». Такие советы Линда получала даже на свадьбе своей дочери в субботу. Однако она отказалась покинуть компанию, заявив, что «верит в миссию X и её сотрудников». Напомним, социальная сеть X подверглась обвинениям в некачественном модерировании националистического контента, а Маска назвали на этом фоне антисемитом.

 Источник изображения: Associated Press

Источник изображения: Associated Press

Некоммерческая группа левого толка Media Matters for America на прошлой неделе опубликовала отчёты, которые демонстрируют рекламу на платформе X ведущих брендов рядом с постами, пропагандирующими «пронацистский» и «белый националистический контент». Эти обвинения побудили такие бренды, как IBM, Apple, Walt Disney, Comcast и Warner Bros, приостановить свою рекламу на платформе X, опасаясь соседства с «сомнительными материалами».

Многие компании сейчас пытаются дистанцироваться от владельца X Илона Маска (Elon Musk). Маск, самопровозглашённый «сторонник свободы слова», ослабил политику модерации и сократил ресурсы и персонал, обеспечивающие безопасность. Бренды опасаются жалоб акционеров и потенциальных бойкотов от своих клиентов, если продолжат размещать рекламу на платформе. Критики Маска считают, что он «должен найти новую модель дохода, поскольку он убил рекламу на платформе, и точка».

X нанял Линду Яккарино в июне, чтобы вернуть рекламодателей на платформу. До этого Линда работала руководителем отдела рекламы в NBCUniversal. Благодаря своим налаженным связям среди маркетологов крупных компаний, ей неоднократно приходилось преодолевать неприятие ими изменений, внесённых Маском в платформу, и противоречивых комментариев, которые он публиковал.

Яккарино утверждает, что за время её пребывания у руля социальной сети, показатели безопасности X улучшились. На прошлой неделе в ответ на обвинения в адрес платформы она заявила: «X предельно ясно рассказала о наших усилиях по борьбе с антисемитизмом и дискриминацией. Этому абсолютно нет места нигде в мире».

В воскресенье Маск написал в своём аккаунте X: «На прошлой неделе в СМИ появились сотни фальшивых историй, в которых утверждалось, что я антисемит. Нет ничего более далёкого от правды. Я желаю человечеству только лучшего, процветающего и захватывающего будущего для всех». Днём ранее Маск пообещал подать «термоядерный иск» против Media Matters за то, что, по его словам, было «мошеннической атакой» на X. Исполнительный директор Media Matters Анджело Карузоне (Angelo Carusone) в свою очередь уверен в собственной правоте и утверждает, что легко выиграет в суде.

Google ужесточит модерацию ИИ-контента в Android-приложениях с 2024 года

Google установит новые требования к модерации контента для приложений на Android, использующих ИИ. С начала следующего года разработчики таких приложений должны внедрить функцию для жалоб на оскорбительный или спорный материал непосредственно в пользовательском интерфейсе. Эти изменения затронут не только чат-боты на основе ИИ, но и приложения, создающие визуальный и аудио контент. Инициатива направлена на борьбу с недопустимым контентом, в том числе с дипфейками и дезинформацией.

 Источник изображения: dassel / Pixabay

Источник изображения: dassel / Pixabay

Google уточнила, что новая политика будет применяться не ко всем приложениям с ИИ. Она коснётся чат-ботов, приложений для создания изображений, голосового и видеоконтента. Приложения, которые только хранят сгенерированный ИИ-контент или используют ИИ для обобщения текстовых материалов, останутся вне зоны действия новых правил.

Google акцентирует внимание на определённых категориях контента, требующих строжайшей модерации. В этот список входят фальшивые видео или изображения, созданные без согласия изображённых на них людей, а также записи реальных людей, применяемые в мошеннических целях.

Кроме того, компания будет особенно внимательно следить за распространением ложной или вводящей в заблуждение информации, связанной с выборами. Не менее строгий контроль установлен и для приложений, в которых генеративный ИИ используется преимущественно для сексуального удовлетворения, а также создания вредоносного кода.

В своём заявлении Google подчеркнула, что генеративный ИИ является быстро развивающейся категорией приложений, что даёт основания полагать, что компания может пересмотреть свою политику в области ИИ по мере дальнейшего развития технологии. Помимо новых правил в отношении контента, генерируемого ИИ, Google также расширила политику разрешений на использование фото- и видеоматериалов в Play Store, ограничивая доступ Android-приложений к данным.

«Фотоматериалы и видеозаписи на устройствах пользователей являются их личной и конфиденциальной информацией, требующей максимально ответственного отношения, — подчеркнула компания в своём заявлении. — Такие данные создают потенциальную уязвимость для пользователей в случае утечек или других форм эксплуатации. Ограничение доступа к ним не только повышает уровень безопасности пользователей, но и снижает нагрузку на разработчиков в части обработки чувствительной информации».

VK вдвое увеличила свою сеть доставки контента — скорость загрузки в России выросла на 10–100 %

Компания VK в два раза увеличила собственную CDN-сеть с момента её запуска в 2021 году. Она помогает доставлять пользователям «тяжёлый» контент и обеспечивает текущие потребности IT-холдинга. По данным источника, знакомого с IT-инфраструктурой компании, в настоящее время CDN-сеть VK состоит из 10 тыс. серверов и 100 узлов.

 Источник изображения: ilgmyzin/unsplash.com

Источник изображения: ilgmyzin/unsplash.com

VK объявила о запуске CDN-сети 1 октября 2021 года. На тот момент она насчитывала 50 узлов, расположенных в России и странах СНГ, и обеспечивала работу видеосервиса «ВКонтакте» и видео в соцсети «Одноклассники». Географически распределённая сеть сформирована из серверов, находящихся в разных точках России и мира, благодаря чему видео и трансляции стартуют в среднем до полутора раз быстрее вне зависимости от расстояний. Также отмечалось, что в среднем на 20 % повысилось качество видео, доступного пользователю в условиях его сети, и снизилось число буферизаций. На юге России скорость загрузки выросла на 10-20 %, в Сибири — на 30-50 %, на Дальнем Востоке — на 100 %.

Напомним, сеть CDN (content delivery network) представляет собой сеть географически распределённых серверов, которые обеспечивают быструю доставку контента и оптимизируют нагрузку на инфраструктуру провайдера. Благодаря CDN востребованный контент загружается не с центрального сервера, который может быть расположен за тысячи километров, а из ближайшей к пользователю точки сети.

По данным источника, во втором квартале 2023 года ежедневная аудитория всех сервисов VK составила 76 млн пользователей, а средняя дневная аудитория «ВКонтакте» в России выросла на 10 % до 54,2 млн пользователей в сравнении с аналогичным периодом прошлого года. За этот же период среднесуточное количество просмотров «VK Видео» увеличилось на 14 % до 1,91 млрд просмотров. При этом средняя ежедневная аудитория платформы составляет около 35 млн пользователей.

О планах VK по расширению своей CDN-сети сообщалось весной этого года. СМИ писали, что, возможно, VK увеличивает количество CDN-серверов в качестве превентивной меры, чтобы создать некий задел на случай блокировки YouTube. Несмотря на слухи о возможной блокировке YouTube, представители властей регулярно заверяют в том, что на данный момент об этом не идёт речи, поскольку в России нет адекватной и полноценной замены.

Владелец ТНТ и Rutube создаст студию по производству контента с помощью ИИ

Холдинг «Газпром-Медиа» (владеет каналами НТВ, ТНТ и ТВ-3, кинокомпанией «Централ Партнершип», хостингом Rutube и др.) запустит экспериментальную студию производства контента с помощью нейросетей. Об этом в беседе с журналистами на Восточном экономическом форуме рассказал глава принадлежащей холдингу цифровой лаборатории D. Lab Эдуард Маас.

 Источник изображения: steve_a_johnson / Pixabay

Источник изображения: steve_a_johnson / Pixabay

Согласно имеющимся данным, в студии будут использоваться около 20 моделей искусственного интеллекта, включая проекты Open Source (например, генератор изображений Stable Diffusion и языковая модель LLaMA) и собственные разработки «Газпром-Медиа». Студия займётся производством анимации с использованием генеративных алгоритмов, а также будет создавать виртуальных ведущих, перерабатывать архивный контент, работать над рекламными спецпроектами. Объём инвестиций, которые будут направлены для развития проекта, озвучен не был.

Господин Масс считает, что технологии создания контента с помощью генеративных нейросетей будут полезны продакшен-студиям, рекламным агентствам и блогерам, в первую очередь использующим видеохостинг Rutube и социальную сеть Yappy. В дополнение к этому холдинг будет предлагать свои технологии внешним заказчикам, включая представителей банковского сектора и госкорпорации. В настоящее время компания ведёт переговоры с одним из крупнейших банков с точки зрения маркетинга и крупным издательством, где генеративные алгоритмы могут использоваться для иллюстрации книг. Сам же холдинг может использовать эти технологии для создания промо в соцсетях, генерации анимации из аудио, создания виртуальных ведущих и др.

Для производства «сериального хита или топового шоу» предложенные технологии использоваться не будут, уточнил господин Маас. При этом искусственный интеллект может существенно снизить затраты на отдельные производственные процессы. К примеру, такие технологии можно задействовать для отрисовки фонов, персонажей и деталей видеоряда. Нейросети также могут быть полезными для дорисовки вертикальных видео, чтобы делать их горизонтальными, озвучивания произведений реалистично синтезированными голосами и др.

OpenAI предложила GPT-4 на роль беспристрастного модератора

OpenAI рассказала, что её разработки способны облегчить решение одной из самых сложных и неприятных технических задач — задачи модерации контента. Большая языковая модель GPT-4 способна заменить десятки тысяч модераторов-людей, демонстрируя столь же высокую точность и даже большую последовательность.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Компания OpenAI сообщила в корпоративном блоге, что уже использует GPT-4 для уточнения собственной политики в отношении контента, его маркировки и принятия отдельных решений. Разработчик даже привёл ряд преимуществ искусственного интеллекта перед традиционными подходами к модерации контента.

Во-первых, люди интерпретируют политику по-разному, тогда как машины последовательны в своих суждениях. Рекомендации по модерации могут быть объёмными и постоянно меняться — людям требуется много времени, чтобы научиться и адаптироваться к переменам, а большие языковые модели реализуют новые политики мгновенно. Во-вторых, GPT-4 способен помочь разработать новую политику в течение нескольких часов. Процесс составления маркировки, сбора отзывов и уточнений обычно занимает несколько недель или даже месяцев. В-третьих, нельзя забывать о психологическом благополучии работников, которые по долгу службы постоянно сталкиваются с вредоносным контентом.

Популярные соцсети существуют уже почти два десятилетия, не говоря о прочих онлайн-сообществах, но модерация контента по-прежнему остаётся одной из сложнейших задач для онлайн-платформ. Meta, Google и TikTok сформировали целые армии модераторов, которым приходится просматривать ужасный и часто травмирующий контент. Большинство из них проживает в развивающихся странах с низкой заработной платой, работает в аутсорсинговых компаниях и пытается самостоятельно справляться с психологическими травмами, получая минимальный объём помощи.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

OpenAI и сама в значительной степени ещё полагается на человеческий ресурс — она нанимает работников из африканских стран для комментирования и разметки контента. Этот контент может быть проблемным, что делает работу таких сотрудников напряжённой при низкой зарплате. А вышеупомянутые Meta, Google и TikTok в дополнение к модераторам-людям пользуются услугами ИИ-моделей собственной разработки, поэтому предложенное OpenAI решение окажется полезным для небольших компаний, у которых нет ресурсов на разработку собственных систем.

Каждая платформа признаёт, что идеальных механизмов модерации в больших масштабах не существует: ошибки совершают и люди, и машины. Процент ошибок может быть низким, но в открытый доступ по-прежнему прорываются миллионы потенциально опасных публикаций — и, вероятно, такое же число безвредного контента скрывается или удаляется. Плюс остаётся «серая зона» недостоверного или агрессивного контента, который отвечает требованиям политики модерации, но озадачивает автоматизированные системы — такой контент сложно оценивать даже модераторам-людям, вот и машины часто совершают ошибки. То же относится к публикациям сатирического характера и материалам, документирующим преступления или превышения полномочий сотрудниками правоохранительных органов. Наконец, нельзя забывать и о внутренних проблемах, характерных для систем ИИ — «галлюцинациях» и «дрейфе», которые также способны затруднить работу ИИ-модераторов.


window-new
Soft
Hard
Тренды 🔥
Облако Vultr привлекло на развитие $333 млн при оценке $3,5 млрд 2 ч.
Разработчик керамических накопителей Cerabyte получил поддержку от Европейского совета по инновациям 2 ч.
Вышел первый настольный компьютер Copilot+PC — Asus NUC 14 Pro AI на чипе Intel Core Ultra 9 4 ч.
Foxconn немного охладела к покупке Nissan, но вернётся к этой теме, если слияние с Honda не состоится 9 ч.
В следующем году выйдет умная колонка Apple HomePod с 7-дюймовым дисплеем и поддержкой ИИ 10 ч.
Продажи AirPods превысили выручку Nintendo, они могут стать третьим по прибыльности продуктом Apple 10 ч.
Прорывы в науке, сделанные ИИ в 2024 году: археологические находки, разговоры с кашалотами и сворачивание белков 18 ч.
Arm будет добиваться повторного разбирательства нарушений лицензий компанией Qualcomm 22 ч.
Поставки гарнитур VR/MR достигнут почти 10 млн в 2024 году, но Apple Vision Pro занимает лишь 5 % рынка 24 ч.
Первая частная космическая станция появится на два года раньше, но летать на неё будет нельзя 21-12 15:47