Опрос
|
Быстрый переход
Разработана система защиты голоса от создания дипфейков
29.11.2023 [15:49],
Павел Котов
Технологии подделки голоса при помощи искусственного интеллекта являются довольно опасным инструментом — они способны правдоподобно воспроизвести человеческий голос даже по короткому образцу. Не допустить создание искусной подделки сможет предложенный американским учёным алгоритм AntiFake. ![]() Источник изображения: Gerd Altmann / pixabay.com Дипфейки представляют собой достаточно опасное явление — с их помощью можно приписать знаменитому артисту или политику высказывание, которого он никогда не делал. Были также прецеденты, при которых злоумышленник звонил жертве и голосом друга просил срочно перевести деньги в связи с некой чрезвычайной ситуацией. Доцент кафедры компьютерных наук и инженерии Вашингтонского университета в Сент-Луисе Нин Чжан (Ning Zhang) предложил технологию, которая значительно усложняет создание голосовых дипфейков. Принцип работы алгоритма AntiFake состоит в формировании условий, при которых системе ИИ оказывается намного сложнее считывать ключевые характеристики голоса при записи разговора реального человека. «В инструменте используется техника состязательного ИИ, которая изначально применялась киберпреступниками, но теперь мы направили её против них. Мы немного искажаем записанный аудиосигнал, создавая возмущения ровно в той мере, чтобы для человека он звучал так же, а для ИИ — совершенно иначе», — прокомментировал свой проект господин Чжан. ![]() Источник изображения: wustl.edu Это значит, что при попытке создать дипфейк на основе изменённой этим способом записи сгенерированный ИИ голос не будет похож на голос человека в образце. Как показали проведённые испытания, алгоритм AntiFake на 95 % эффективен для предотвращения синтеза убедительных дипфейков. «Что будет с голосовыми ИИ-технологиями дальше, я не знаю — новые инструменты и функции разрабатываются постоянно, — но всё же считаю, что наша стратегия использования техники противника против него самого так и останется эффективной», — заключил автор проекта. Учёные протестировали новый алгоритм поиска астероидов и засекли потенциально опасный камень размером 182 метра
03.08.2023 [17:34],
Павел Котов
Решив протестировать новый алгоритм обнаружения потенциально опасных астероидов, американские учёные открыли новый крупный объект, орбита которого пересекается с земной. Исследователи предполагают, что пока открыты менее половины таких астероидов. ![]() Орбита астероида 2022 SF289 (зелёная линия) пересекает земную (синяя линия). Источник изображений: washington.edu В 2025 году в эксплуатацию будет введена строящаяся сейчас в Чили обсерватория имени Веры Рубин — большой обзорный телескоп с 8,4-метровым зеркалом и камерой разрешением 3200 мегапикселей. Данные с обсерватории будут обрабатываться при помощи разработанного американскими учёными алгоритма HelioLinc3D, предназначенного для выявления новых астероидов. Алгоритм создал астроном Вашингтонского университета Ари Хайнце (Ari Heinze) при содействии коллег Мэтью Холмана (Matthew Holman) и Зигфрида Эггля (Siegfried Eggl). В ожидании 2025 года исследователи решили протестировать алгоритм на материалах проекта ATLAS, объединяющего данные обсерваторий на Гавайях, в Чили и Южной Африке. ![]() На основе данных ATLAS был обнаружен объект, которому присвоили название 2022 SF289. Он наблюдался в течение четырёх ночей в сентябре 2022 года. Это потенциально опасный астероид, который пересекает земную орбиту — к счастью, пока нет никаких признаков, что это случится в ближайшее время. Размер астероида составляет 182 метра — при таких габаритах он не представляет угрозы для человечества, даже если сможет выдержать атмосферный нагрев. Но он способен оставить после себя кратер размером в несколько городов или вызвать цунами, если рухнет в океан. Астероиды — небольшие и тусклые объекты, и они могут годами скрываться в материалах наблюдений, прежде чем их откроют. «Любому исследованию трудно открывать объекты вроде 2022 SF289, близкие к пределу чувствительности, но HelioLinc3D демонстрирует, что можно открывать эти тусклые объекты, если они остаются видимыми несколько ночей», — отметил работающий в проекте ATLAS астроном Ларри Денно (Larry Denneau). Обсерватория имени Рубин поможет расширить наши знания о потенциально опасных астероидах — сейчас в каталоги внесены 2350 таких объектов, и, по оценкам учёных, предстоит открыть ещё более 3000. Власти США снова попытаются противостоять дискриминационным алгоритмам онлайн-платформ
13.07.2023 [19:14],
Владимир Фетисов
Американские политики хотят заставить онлайн-платформы раскрыть подробности о работе их алгоритмов и обязать компании разрешить правительству вмешиваться в их работу в случае обнаружения фактов дискриминации пользователей по таким критериям, как раса или пол. Соответствующий законопроект на этой неделе был представлен в правительстве США. ![]() Источник изображения: Headway/unsplash.com Сенатор от штата Массачусетс Эдвард Марки (Edward Markey) и член палаты представителей Дорис Мацуи (Doris Matsui) представили проект «Закона об алгоритмическом правосудии и прозрачности онлайн-платформ», который предусматривает введение запрета на использование дискриминационного или «пагубного» принятия решений, используемыми на онлайн-платформах алгоритмами. Законопроект также установит стандарты безопасности, потребует от платформ предоставления простого объяснения принципов работы алгоритмов, используемых на веб-сайтах, а также публикации ежегодных отчётов о методах модерации контента и создания специальной правительственной группы для расследования случаев дискриминационного поведения алгоритмов. Представленный законопроект, в случае принятия, распространит действие на онлайн-платформы или любые коммерческие общедоступные сайты и приложения, которые «обеспечивают предоставление площадки для размещения пользовательского контента». Это могут быть сайты социальных сетей, службы агрегации контента или сайты для обмена медиаконтентом и файлами. Первую версию законопроекта Марки и Мацуи представили в 2021 году, он был передан в Подкомитет по защите прав потребителей, но дальнейшего хода не получил. Meta✴ раскрыла принципы работы рекомендательных алгоритмов, которые строят ленты в Facebook✴ и Instagram✴
30.06.2023 [13:07],
Дмитрий Федоров
Meta✴ представила детальный разбор алгоритмов своих социальных сетей, чтобы объяснить процесс формирования рекомендаций контента для пользователей Instagram✴ и Facebook✴. Президент компании по глобальным вопросам Ник Клегг (Nick Clegg) заявил, что обнародованная информация о системах ИИ, лежащих в основе алгоритмов, является частью «широкого этического принципа открытости, прозрачности и ответственности» компании. Он также рассказал, что могут сделать пользователи Facebook✴ и Instagram✴, чтобы более эффективно контролировать, какой контент они видят на платформах. ![]() Источник изображения: Pixabay «Учитывая быстрое развитие мощных технологий, таких как генеративный ИИ, понятно, что люди воспринимают их с восторгом и беспокойством. Мы считаем, что лучший способ ответить на эти опасения — это открытость», — написал Клегг в блоге. Большая часть опубликованной информации содержится в 22 «системных картах», которые охватывают Ленту (Feed), Истории (Stories), Ролики (Reels) и другие способы, с помощью которых люди находят и потребляют контент на социальных платформах Facebook✴ и Instagram✴. Каждая из этих карт предоставляет подробную информацию о том, как системы ИИ, стоящие за этими функциями, ранжируют и рекомендуют контент. Например, обзор функции Instagram✴ «Исследовать» (Explore), которая показывает пользователям фото и ролики от аккаунтов, на которые они не подписаны — объясняет трехэтапный процесс работы автоматизированного движка рекомендаций ИИ.
Наличие системных карт предполагает, что пользователи Instagram✴ могут влиять на этот процесс, сохраняя контент (то есть напрямую указывая системе, что следует показывать что-то подобное), или отмечая его как «не интересует», чтобы стимулировать систему фильтровать подобный контент в будущем. Пользователи также могут видеть ролики и фотографии, которые не были специально выбраны для них алгоритмом, выбрав «Не персонализировано» в фильтре «Исследовать». Более подробная информация о предсказательных моделях ИИ, входных сигналах, используемых для их управления, и о том, как часто они используются для ранжирования контента, доступна через Центр Открытости (Transparency Center). Вместе с системными картами, упоминается несколько других функций Instagram✴ и Facebook✴, которые могут информировать пользователей, почему они видят определённый контент, и как они могут настроить свои рекомендации. В ближайшие недели Meta✴ расширит функцию «Почему я это вижу?» для Facebook✴ Reels, Instagram✴ Reels и вкладки «Исследовать» в Instagram✴. Это позволит пользователям нажать на отдельный ролик, чтобы узнать, как их предыдущая активность могла повлиять на показ этого ролика. Instagram✴ также тестирует новую функцию Reels, которая позволит пользователям добавить на рекомендуемые ролики метку «Интересует», чтобы видеть подобный контент в будущем. Возможность отмечать контент как «Не интересует» доступна с 2021 года. Meta✴ также объявила, что в ближайшие недели начнёт внедрение своей Библиотеки контента и API, нового набора инструментов для исследователей, который будет содержать множество публичных данных из Instagram✴ и Facebook✴. Данные из этой библиотеки можно искать, изучать и фильтровать, а исследователи смогут подать заявку на доступ к этим инструментам через утверждённых партнёров, начиная с Межуниверситетского консорциума по политическим и социальным исследованиям Университета Мичигана (ICPSR). Meta✴ утверждает, что эти инструменты предоставят «самый полный доступ к публично доступному контенту на Facebook✴ и Instagram✴ из любого исследовательского инструмента, который мы создали», помогая компании выполнять свои обязательства по обмену данными и открытости. Обязательства по открытости компании Meta✴, возможно, являются важным фактором для объяснения того, как она использует ИИ для формирования контента. Взрывное развитие технологии ИИ и её популярность привлекли внимание регуляторов по всему миру, которые выразили опасения о том, как эти системы собирают, управляют и используют личные данные пользователей. Алгоритмы Meta✴ не новы, но способ, которым компания использовала данные пользователей во время скандала с Cambridge Analytica, а также её реакция на усилия TikTok по открытости, мотивируют Meta✴ больше общаться с пользователями. В заключение, стоит отметить, что важность прозрачности и открытости в работе с ИИ и алгоритмами социальных сетей становится все более очевидной. Компания Meta✴ делает шаг в этом направлении, давая пользователям и исследователям больше информации о том, как работают её системы. Это не только улучшает понимание, как формируется контент, но и способствует ответственному использованию пользовательских данных. У искусственного интеллекта обнаружили склонность к дискриминации меньшинств
23.06.2023 [17:21],
Павел Котов
Активно внедряемые сегодня во все сферы деятельности системы искусственного интеллекта демонстрируют предвзятое отношение к тем или иным меньшинствам, утверждают представители многих правозащитных организаций. Это проявляется в сбоях систем распознавания лиц, которые с трудом идентифицируют чернокожих; отказах голосовой идентификации для пользователей с характерным региональным акцентом; или запретах на выдачу кредитов меньшинствам в банках. ![]() Источник изображения: Hitesh Choudhary / unsplash.com Набиль Манджи (Nabil Manji), глава отдела криптовалют и web3 в платёжной службе Worldpay отмечает, что качество работы ИИ-модели определяется двумя составляющими: использованными при обучении материалами и эффективностью алгоритмов — поэтому Reddit и другие крупные платформы взимают плату за доступ к данным для обучения ИИ. Образуется фрагментация данных, и в традиционно консервативной сфере финансовых услуг результативность ИИ оказывается ниже, чем у компаний, способных быстро внедрять передовые решения и производить выборки актуальных данных. Образцом репрезентативно разрозненных данных в этом случае может служить технология блокчейна, уверен эксперт. Румман Чоудхури (Rumman Chowdhury), бывший глава подразделения Twitter по этике машинного обучения назвал сферу кредитования ярким примером дискриминации со стороны ИИ. Аналогичная схема действовала в Чикаго в тридцатые годы прошлого века, напомнил эксперт: в банках висели большие карты города, на которых красным были отмечены районы с преимущественным проживанием чернокожего населения — жителям этих районов в кредитах отказывали. Аналогичные ошибки, по его словам, совершают и современные ИИ-алгоритмы оценки кредитоспособности граждан, принимая этническую принадлежность клиента в качестве одного из параметров. ![]() Источник изображения: Inatimi Nathus / unsplash.com Об этом говорит и Энгл Буш (Angle Bush), основательница организации «Чёрные женщины в искусственном интеллекте» — она признаёт, что такая дискриминация носит непреднамеренный характер и призывает кредитные организации как минимум допускать возможность такой ошибки. Разработчик в области ИИ Фрост Ли (Frost Li) обратил внимание, что из-за технологической дискриминации уже появилось множество малых финтех-стартапов специально для иностранцев: традиционный банк легко может отказать выпускнику Токийского университета в выдаче кредитной карты, даже если он работает в Google, но согласиться обслуживать любого выпускника местного колледжа. Доказать факты такой дискриминации бывает непросто. Apple и Goldman Sachs пытались обвинить в том, что пользующимся Apple Card женщинам они устанавливали более низкие кредитные лимиты, чем мужчинам. Но Департамент финансовых услуг Нью-Йорка не смог найти подтверждений этим обвинениям. По мнению экспертов, защититься от дискриминации человека со стороны ИИ помогут меры регулирования отрасли, вводимые международным организациями вплоть до ООН. Потенциальными проблемами ИИ являются становящиеся компонентами алгоритмов элементы дезинформации и предубеждений, а также «галлюцинации». В этой связи при внедрении ИИ в работу компаний или органов власти необходимы механизмы обеспечения прозрачности и подотчётности алгоритмов, которые помогут даже не являющимся профессионалами гражданам самостоятельно судить об их эффективности. У граждан должна быть возможность подавать жалобы на подобные решения; ИИ-алгоритмы должны проходить проверки, а на этапе их развёртывания необходима экспертиза на предмет предвзятости. Построен робот-многоножка, которому не нужны сенсоры для передвижения по пересечённой местности
09.05.2023 [13:33],
Павел Котов
Для передвижения по пересечённой местности двуногие и четвероногие роботы считаются перспективным направлением, но их приходится оснащать комплектами датчиков и создавать для них достаточно сложные алгоритмы для сохранения устойчивости. Учёные Технологического института Джорджии (США) предложили более простой подход — многоногого робота, вообще лишённого сенсоров. ![]() Источник изображения: Georgia Tech Источником вдохновения для проекта стала математическая теория связи — ещё в 1948 году одноимённую статью опубликовал американский математик Клод Шеннон (Claude Shannon). Он предположил, что для передачи сообщения по каналу связи с шумами это сообщение следует разбить на повторяющиеся фрагменты с избыточной информацией. В случае с роботом такими фрагментами являются его ноги. Аспирант Цзюньтао Хэ (Juntao He) и магистрант Дэниэл Сото (Daniel Soto) первоначально воплотили эту теорию в форме шестиногого робота, которому поручили пробираться по пересечённой местности, имитирующей сложные природные условия. После каждого испытания они добавляли роботу дополнительные пары ног, пока число ног не достигло шестнадцати. Учёные обнаружили, что по мере роста их количества робот действовал всё лучше, то есть преодолевал препятствия эффективнее. И, что самое важное, при этом не использовались никакие сенсоры или адаптивные программные алгоритмы. Авторы проекта просто исходили из предположения, что если одна или несколько ног споткнутся, движение продолжит множество других. Экономия на сенсорах и разработке сложных алгоритмах при таком подходе рано или поздно перевешивается затратами на добавление очередной пары ног, поэтому учёным ещё необходимо определить, где проходит эта грань для разных роботов, выполняющих конкретные задачи. Им предстоит найти компромисс с учётом таких критериев как энергия, скорость, мощность и надёжность в сложной системе. На практике технология будет испытываться в сельскохозяйственной отрасли для борьбы с сорняками. Учёные научились выявлять проблемы с дыханием по изменениям в сигналах Wi-Fi
21.12.2022 [12:32],
Павел Котов
Учёные Национального института стандартов и технологий (NIST, США) разработали технологию мониторинга дыхания с использованием незначительных изменений в сигнале Wi-Fi. В основу технологии лёг алгоритм BreatheSmart на основе искусственного интеллекта. ![]() Источник изображения: nist.gov Сигналы Wi-Fi сегодня присутствуют почти в любом помещении — они проходят сквозь предметы или отражаются от них, а изменить путь сигнала способно любое движение, в том числе те, что тело производит с дыханием. И если с дыханием что-то не так, то и изменения в сигнале Wi-Fi могут носить нестандартных характер. Учёные уже не первый год пытаются использовать сигналы беспроводных сетей для обнаружения людей и различной активности, но обычно их решения предполагают применение специального оборудования. А инженеры NIST утверждают, что алгоритм BreatheSmart способен работать с маршрутизаторами и клиентскими устройствами, которые уже присутствуют на рынке. Для работы алгоритма учёным пришлось лишь изменить прошивку маршрутизатора, чтобы он чаще собирал данные параметра CSI (Channel State Information — «информация о состоянии канала»). Сигналы CSI отправляются с клиентских устройств на маршрутизаторы — они имеют стандартный формат, и по характеру их искажения можно делать выводы об изменениях в окружающей среде. Для повышения эффективности алгоритма маршрутизатор запрашивает CSI до 10 раз в секунду. При помощи манекена исследователи смоделировали несколько состояний дыхания человека и отследили изменения CSI при помощи потребительского маршрутизатора и подключённого к нему устройства. Обработку данных доверили искусственному интеллекту — авторы проекта утверждают, что при оценке смоделированных механизмов дыхания алгоритм BreatheSmart даёт правильный ответ в 99,54 % случаев. Блокчейн Ethereum перешёл на новый алгоритм — майнинг больше не работает
15.09.2022 [12:17],
Павел Котов
Ethereum, блокчейн второй по величине криптовалюты, переключился на модель Proof-of-Stake, существенно сократив потребление энергии. Процесс перехода, запущенный ещё в 2016 году, для большинства рядовых пользователей сети пройдёт незамеченным, а вот услуги майнеров больше не понадобятся. ![]() Источник изображения: Peter Patel / pixabay.com Окончательная смена алгоритма стартовала 6 сентября, когда было активировано обновление Bellatrix. После этого было достигнуто заданное значение показателя Terminal Total Difficulty, что вызвало запуск последнего обновления Paris и смену модели сети. Предполагается, что сейчас потребление Ethereum энергии снизится более чем на 99 % — если оценить такой переход в масштабах всего блокчейна, переход практически равносилен тому, как если бы из мировой электросети отключилась Финляндия. По утверждению разработчиков, новый алгоритм сделает блокчейн, частью которого сегодня являются многочисленные криптовалютные биржи, кредитные компании и другие службы, более безопасным и масштабируемым. На смену майнерам пришли валидаторы — участники сети, оставившие в залог минимум 32 «монеты» Ethereum, отправив активы на служебный адрес в сети, где их нельзя купить или продать. Эта работа тоже вознаграждается, а заложенные токены работают подобно лотерейным билетам: чем больше залог, тем выше вероятность, что один из билетов окажется выигрышным, и блок будет записан в «цифровой гроссбух» Ethereum. ![]() Источник изображения: Bastian Riccardi / pixabay.com Первая версия подсети типа Proof-of-Stake появилась в блокчейне в 2020 году под названием Beacon Chain, но до недавнего времени это был своего рода цифровой полигон, предназначенный для настройки валидаторов. С переходом на новую модель подсеть вышла на основной блокчейн Ethereum, поэтому событие получило название «слияние» (Merge). Несмотря на то, что поддержкой сети при алгоритме Proof-of-Work занимались многие тысячи майнеров, доминировали в общем хешрейте Ethereum машины из трёх основных майнинговых пулов. При новом алгоритме определяющим показателем становится не вычислительная мощность, а объём активов в залоге, что ещё сильнее усложняет атаки: злоумышленники рискуют частично или полностью лишиться залога. Критики нововведения говорят, что с уходом майнинговых пулов одна когорта крупных игроков сменится другой: теперь более 30 % доли валидаторов удерживает сообщество Lido, и ещё 30 % принадлежат крупнейшим криптобиржам Coinbase, Kraken и Binance. Что же касается биткоина как крупнейшего блокчейна, то в этом лагере нет никаких признаков грядущего перехода на энергоэффективную модель: участники сети остаются приверженными хорошо проверенной безопасной системе. Наконец, стоит отметить, что относительно высокие комиссии и медленные транзакции со сменой алгоритма Ethereum никуда не делись, но создатель сети Виталик Бутерин (Vitalik Buterin) пообещал решить эту проблему в будущем путём «сегментирования»: транзакции будут распределяться по большему числу так называемых «сегментов» — процесс, схожий с добавлением новых полос на шоссе. Oracle приступила к экспертизе алгоритмов TikTok
18.08.2022 [14:34],
Павел Котов
Чтобы развеять опасения по поводу сговора правительства КНР и компании ByteDance, американский гигант облачных служб Oracle приступил к проверке алгоритмов сервиса коротких видео TikTok и моделей модерации контента на платформе. Ранее TikTok разместила американский сегмент сервиса в облачной инфраструктуре Oracle на территории США. ![]() Источник изображения: antonbe / pixabay.com Представитель TikTok заявил, что в рамках обновлённого партнерского проекта с Oracle американская компания получит возможность на регулярной основе производить экспертизу рекомендательных алгоритмов платформы и методов модерации контента, сообщает Axios. Есть мнение, что администрация TikTok блокирует или помечает материалы, связанные с имеющими значение для китайских властей темами: критика официального Пекина, независимость Тибета и события на площади Тяньаньмэнь. Проблемы у TikTok в США начались ещё в 2020 году, когда администрация президента страны попыталась запретить его работу из-за опасений, что данные американских пользователей могли оказаться в распоряжении подконтрольной китайским властям компании. Альтернативу предложила администрация нового президента США: чтобы успокоить встревоженную общественность, было решено локализовать данные американцев на территории страны и открыть алгоритмы для изучения экспертами. VK и «Яндекс» выступили против законопроекта об отключении рекомендательных алгоритмов
27.05.2022 [10:04],
Владимир Мироненко
Онлайн-платформы VK и «Яндекс» выступили против нормы законопроекта о рекомендательных алгоритмах, предоставляющей возможность их отключения, сообщил «Коммерсантъ» со ссылкой на информированные источники. По их словам, документ сегодня обсудят на экспертном совете партии «Единая Россия» перед внесением на рассмотрение нижней палатой парламента. ![]() Источник изображения: Pixabay
Законопроектом, разработанным зампредом комитета Госдумы по информполитике Антоном Горелкиным, предполагается обязать онлайн-платформы обеспечить пользователю возможность отключения алгоритмов, формирующих в его ленте специально подобранный контент, а также предупреждать об их применении. Это требование будет распространяться на соцсети, новостные и поисковые агрегаторы, аудиовизуальные сервисы, включая видеохостинги. По данным ресурса «Ведомости», законопроект собираются принять в первом чтении до конца сессии. Аналогичный закон, позволяющий отказаться от получения рекомендаций, вступил в силу в Китае в марте этого года. Как утверждают источники «Коммерсанта», в «Яндексе» опасаются, что из-за возможности отключения рекомендаций пользователи станут гораздо меньше проводить время во всех сервисах компании. К тому же в компании утверждают, что применение рекомендательных алгоритмов поисковых систем уже регулируется отдельными законами. Что касается VK, то там опасаются, что новые нормы могут помешать развёртыванию платформы «VK Видео», запуск которой состоится до конца года. «Одним из основных преимуществ платформы должен стать рекомендательный алгоритм, способный соперничать с YouTube», — сообщил источник «Коммерсанта». Аналогичный алгоритм используется в «VK Клипы» (аналог TikTok). Согласно презентации технического директора «VK Видео» Александра Тоболя для разработчиков, 97 % просмотров коротких роликов в «VK Клипах» приходятся на рекомендации. Сопредседатель комитета по нативной рекламе Ассоциации развития интерактивной рекламы Анна Доскач отметила, что «время, которое пользователь проводит на платформе, — системообразующий фактор», и ограничение рекомендаций негативно отразится на возможности платформ адекватно подбирать видео, что скажется на интересе пользователя к сервисам. Instagram✴ начнёт оптимизировать оригинальный контент
21.04.2022 [16:08],
Павел Котов
Глава Instagram✴ Адам Моссери (Adam Mosseri) сообщил о ряде нововведений на платформе, важнейшим из которых станет активное продвижение оригинального контента. Подразумеваются, что первыми под прицел попадут репосты коротких видео с TikTok в раздел Reels. ![]() Источник изображения: Nitish Gupta / pixabay.com Компания Meta✴ даёт пользователям понять, что всё меньше рассматривает принадлежащие ей Facebook✴ и Instagram✴ как средство общения с друзьями — теперь это в первую очередь платформы, ориентированные на создателей контента. Администрация активно продвигает инструменты электронной коммерции и работы с аудиторией в надежде побудить авторов с TikTok и YouTube перебираться в Instagram✴ и Facebook✴. Сейчас ставка делается на короткие ролики Reels. По словам главы компании Марка Цукерберга (Mark Zuckerberg), «на сегодняшний день это наш самый быстрорастущий формат контента». Однако любители проводить время в этом разделе все больше обращают внимание, что это практически клон TikTok — в роликах на других платформах зачастую остаётся даже логотип китайской соцсети. В целях борьбы с таким поведением пользователей в Instagram✴ решили пессимизировать неоригинальный контент, то есть понижать его приоритет в рекомендательных алгоритмах. ![]() Источник изображения: twitter.com/mosseri Относительно того, какой контент будет считаться оригинальным, глава Instagram✴ пока был немногословен, пообещав «со временем дорабатывать» методы его классификации. Больше всех пострадают ленты-агрегаторы, многие из которых часто оказываются источниками популярных мемов и трендов, хотя порой и обвиняются в краже контента. Однако, как отметил ресурс The Verge, даже с учётом огромной аудитории Instagram✴ и Facebook✴ настоящими источниками оригинального контента оказываются, как правило, TikTok и Twitter. Видимо, это и заставило владеющую платформами Meta✴ прибегнуть к кардинальному методу — корректировке алгоритма ранжирования. Илон Маск заявил о необходимости открыть алгоритм Twitter и смягчить политику модерации
15.04.2022 [14:21],
Павел Котов
Если глава Tesla и SpaceX Илон Маск (Elon Musk) действительно сможет купить Twitter, платформа, вероятно, в корне изменится. Выступая на конференции TED, бизнесмен рассказал, почему он решил приобрести платформу и что бы хотел в ней скорректировать. ![]() Источник изображения: Photo Mix / pixabay.com Свой интерес к соцсети Маск описал следующим образом: «Де-факто Twitter стал своего рода городской площадью. Действительно важно, чтобы люди имели представление и о реальности, и о том, что они могут свободно говорить в рамках закона». В плане потенциальных изменений Маск отметил необходимость открыть алгоритмы сервиса и свести к минимуму вмешательство администрации в контент. «При любых вмешательствах в твиты людей <...> такие действия должны быть очевидными. Чтобы любой видел, что действие предпринималось, и не было никаких закулисных манипуляций через алгоритмы или вручную». А лежащий в основе алгоритма код должен быть доступен на GitHub, чтобы общественность могла самостоятельно его проверять. Наконец, он коснулся вопроса модерации контента — её должно быть очень мало. «Думаю, в случае сомнения мы бы хотели ошибаться в том направлении, чтобы свобода слова существовала. Считаю, что нам нужно с неохотой удалять что-то и быть очень осторожными с вечными блокировками. Знаете, временные отключения, я считаю, лучше, чем постоянные баны», — заявил Маск. С конца января бизнесмен начал скупать акции Twitter и объявил об этом, когда объём пакета составил 9,2 %. Впоследствии он предложил полностью выкупить платформу, однако совет директоров компании пока ответа не дал. Пекин всерьёз занялся рекомендательными алгоритмами китайских техногигантов
08.04.2022 [12:20],
Павел Котов
В Китае запущена кампания, нацеленная на регламентирование работы алгоритмов соцсетей и предотвращение злоупотреблений местными техногигантами, — в первую очередь инициатива касается компаний ByteDance и Tencent. Власти интересуют как рекомендательные алгоритмы в соцсетях, так и алгоритмы, на основе которых пользователям выводится онлайн-реклама. ![]() Источник изображения: F8_f16 / pixabay.com В рамках новой кампании Управление по вопросам киберпространства Китая будет проводить выездные проверки интернет-компаний и проводить экспертизу различных сервисов. Инициатива нацелена на крупнейшие веб-сайты, платформы и наиболее влиятельные продукты — при этом сами компании и проекты не называются. Действия властей направлены на внедрение и обеспечение соблюдения утверждённых в минувшем августе норм, которые регулируют работу рекомендательных алгоритмов, определяющих вывод контента для пользователей соцсетей — они вступили в силу в марте. Это часть запущенной ещё в конце 2020 года всеобъемлющей программы, нацеленной на сдерживание влияния китайских техногигантов, чьи платформы, по сути, контролируют развлекательную сферу и общественное мнение. Опубликованный в августе документ содержит 30 пунктов, в том числе требования раскрывать основные принципы работы рекомендательных алгоритмов, а также предоставлять пользователям удобные инструменты по их отключению. Новые нормы также предписывают, чтобы алгоритмы придерживались «общепринятых ценностей» и «активно распространяли позитивную энергию». Проблема рекомендательных алгоритмов актуальна для крупнейших сервисов по всему миру: Facebook✴ и Google, в частности, обвиняются в том, что они дают приоритет материалам, которые усугубляют политическую поляризацию и разжигают насилие. Компании ByteDance (владеет Douyin — китайской версией TikTok) и Tencent (владеет мессенджером WeChat) уже подчинились требованиям Пекина и предоставили пользователям возможность отказаться от рекомендательных алгоритмов на своих платформах. В «VK Музыке» появился новый алгоритм рекомендаций с плейлистами от людей с похожими вкусами
01.04.2022 [13:06],
Владимир Мироненко
В стриминговом сервисе «VK Музыка» запустили новый алгоритм рекомендаций, который учитывает множество разных факторов, чтобы подстроится под конкретного пользователя и предложить ему музыку с учётом его предпочтений. Как сообщает разработчик, за время проведения эксперимента с новым алгоритмом аудитория плейлистов выросла почти на 30 %. ![]() Источник изображения: VK Музыка С помощью нового алгоритма для каждого пользователя создаётся персональная подборку «Слушайте друг друга» с плейлистами людей и сообществ с похожим музыкальным вкусом. Каталог «VK Музыки» насчитывает более 100 млн плейлистов, созданных пользователями, сообществами и музыкальными кураторами, включая концертные записи, плейлисты по настроению и т. д. Алгоритм непрерывно анализирует прослушанные пользователем треки и ежедневно обновляет подборку, учитывая также появление новых песен, плейлистов от сообществ, друзей и других слушателей сервиса, совпадения по жанрам, артистам и множество разных факторов. ![]() Источник изображения: VK Музыка Стриминговый сервис объединяет музыкальную платформу «ВКонтакте» и отдельное приложение для прослушивания музыки. «VK Музыка» запустила рекламную кампанию «Слушайте друг друга» в формате 360°, чтобы рассказать о новом подходе. Посвящённые ей постеры размещены в 14 городах, в том числе в Москве и Санкт-Петербурге. Instagram✴ понизит видимость потенциально вредного контента
21.01.2022 [15:26],
Павел Котов
Администрация Instagram✴ сообщила о новых мерах, которые предпринимаются для снижения видимости «потенциально вредного» контента в приложении. Алгоритм, ранжирующий публикации в основной ленте и Stories, теперь станет уменьшать приоритет содержимого, которое «может содержать издевательства, ненависть или призывы к насилию». ![]() Источник изображения: about.instagram.com Компания отметила, что правила использования сервиса уже содержат запрет на публикацию материалов подобного рода, однако новые меры оправдают себя в спорных или пограничных случаях, а также при размещении контента, который ещё не был удалён модераторами. Система работает в полностью автоматическом режиме и для анализа контента, а также его отнесения к той или иной категории будут рассматриваться многочисленные критерии вплоть до подписей к картинкам. К примеру, если ранее было удалено какое-либо изображение, и сопровождавшая его подпись появилась в новой публикации, то такая публикация сразу будет пессимизирована. До настоящего момента платформа производила ранжирование содержимого только в общедоступном разделе Explore, однако теперь сервис решил озаботиться тем контентом, который пользователи видят непосредственно в своих лентах, если авторы, на которых они подписаны, публикуют нечто неприемлемое. Нечто подобное Instagram✴ начала практиковать в 2020 году — тогда производилась пессимизация аккаунтов, уличённых модераторами в распространении дезинформации. Новая функция платформы предполагает понижение не аккаунтов в целом, а только отдельных записей. Администрация сервиса также сообщила, что новый алгоритм учитывает историю жалоб, подаваемых пользователями. Если по каким-либо признакам система решит, что на очередную публикацию пользователь тоже может пожаловаться, её позиция в ленте будет понижена. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |