Сегодня 20 апреля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → м.видео
Быстрый переход

Microsoft показала нейросеть, которая делает говорящие что угодно дипфейки по одному фото

За последние пару лет генеративные нейросети преодолели важный этап развития, став более мощными и способными создавать по текстовому описанию не только изображения, но и видео. Новый алгоритм VASA-1 от Microsoft, вероятно, сумеет удивить многих, поскольку для его работы вообще не нужно описание. Достаточно предоставить одно изображение человека и аудиодорожку, на основе которых нейросеть сгенерирует видео говорящего человека с широким спектром эмоций и естественной мимикой.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Результат работы VASA-1 выглядит очень естественно и правдоподобно. Всего из одного снимка лица и записи голоса алгоритм создаёт реалистичное видео, на котором запечатлённый на снимке человек буквально «оживает», а его мимика, движения губ и головы выглядят вполне натурально. Поскольку созданные с помощью VASA-1 видео с ходу сложно отличить от реальных, уже высказываются опасения по поводу того, что алгоритм может использоваться злоумышленниками для создания фейков.

Что касается самой нейросети, то главным её отличием от других подобных алгоритмов является наличие целостной модели генерации лицевой мимики и движений головы. Специалисты Microsoft провели обширную исследовательскую работу, включая оценку ряда новых метрик. В результате они установили, что новый алгоритм значительно превосходит представленные ранее аналоги по многим параметрам.

«Наш метод не только обеспечивает генерацию видео высокого качества с реалистичной мимикой лица и движениями головы, но также поддерживает функцию онлайн-генерации видео 512×512 точек с частотой 40 кадров в секунду с незначительной начальной задержкой. Это открывает путь к взаимодействию в реальном времени с реалистичными аватарами, имитирующими поведение человека во время разговора», — говорится в сообщении Microsoft.

Другими словами, нейросеть может создавать качественные фейковые видео на основе всего одного изображения. Поэтому не удивительно, что Microsoft называет VASA-1 «исследовательской демонстрацией» и не планирует выводить его на коммерческий рынок, по крайней мере, в ближайшее время.

Смартфон HONOR Magic 6 Pro прошёл испытания льдом и ударами

Группа «М.Видео-Эльдорадо» провела 13 апреля в магазине «М.Видео» в ТЦ «Метрополис» проверку заявленной работоспособности при низких температурах и физическом воздействии смартфона HONOR Magic 6 Pro.

 Источник изображения: VK

Источник изображения: VK

За ходом эксперимента можно было наблюдать благодаря прямой трансляции «М.Видео» в социальной сети VK. За неделю до его начала команда экспертов Лаборатории М.Видео погрузила HONOR Magic 6 Pro в воду и по специальной технологии постепенно заморозила смартфон до температуры -20 °C, получив прозрачный ледяной куб. Накануне эксперимента смартфон отключили от зарядки, изолировали и заморозили техническое отверстие. 13 апреля в 12:30 эксперимент стартовал при заряде аккумулятора на 83 %. На устройстве был установлен автоматический уровень яркости экрана и запущено цикличное воспроизведение видео из соцсети VK. Для управления смартфоном использовалась экосистемная технология HONOR Connect, позволяющая управлять устройством с помощью ноутбука HONOR и использовать один комплект клавиатуры с мышью для всех устройств, объединённых учётной записью HONOR.

Находясь более 9 часов в ледяном кубе и непрерывно вращаясь в центрифуге с тяжёлыми стеклянными шариками для поверки защитных свойств экрана HONOR Magic 6 Pro продолжал воспроизводить видео.

Как сообщается, после более 9 часов нахождения во льду с непрерывным воспроизведением видео, кремний-углеродный аккумулятор второго поколения разрядился не полностью. По окончании эксперимента у него осталось 10 % заряда, что подтвердило заявление производителя об устойчивости к минусовым температурам. Кроме того, в ходе испытаний смартфона в центрифуге с постоянными ударами утяжелённых стеклянных шариков по экрану была продемонстрирована впечатляющая устойчивость защитного стекла HONOR NanoCrystal Shield к повреждениям от такого рода воздействия.

«Мы, как главный эксперт по технике, регулярно проверяем девайсы, представленные в нашей сети, тем более, если производителем заявлены исключительные характеристики, — сообщил руководитель департамента «Телеком» группы «М.Видео-Эльдорадо» Сергей Уваров. — Мы вдохновились глобальным экспериментом HONOR и решили провести свой собственный, чтобы продемонстрировать устойчивость HONOR Magic 6 Pro к низким температурам и ударам. Результат впечатляет, только плановое закрытие магазина и торгового центра в 23:00 остановило нас. Думаем, что, если бы смартфон в эксперименте стартовал со 100 % заряда, мы стали бы свидетелями более 13 часов непрерывного экранного времени и воспроизведения видео при температуре −20 ℃».

Новейший флагман HONOR Magic 6 Pro был отмечен пятью золотыми наградами рейтинга DXOMARK за качество экрана, съёмку на основную камеру, селфи, автономность и звук.

HONOR Magic 6 Pro в цветах «Графитовый чёрный» с задней панелью из матового стекла и «Шалфейный зелёный» с отделкой из текстурной экокожи уже доступен для предзаказа.

Реклама | ООО "Техкомпания ОНОР" ИНН 9731055266 erid: 4CQwVszH9pWxHwP2ziY

У мобильной версии Facebook✴ появится новый видеопроигрыватель в стиле TikTok

Разработчики из Meta Platforms анонсировали появление обновлённого видеопроигрывателя в мобильных приложениях Facebook. С его помощью пользователям социальной сети будет комфортнее просматривать вертикальные видео, подобные тем, что публикуются в TikTok или Reels.

 Источник изображения: ***

Источник изображения: Meta

Новый проигрыватель по умолчанию будет воспроизводить контент из Reels, Facebook Live, а также длинные видео в полноэкранном портретном режиме. На начальном этапе распространения этого нововведения плеер станет доступен пользователям iOS-версии приложения Facebook в США и Канаде. Более широкого распространения функции следует ожидать в течение следующих нескольких месяцев.

Ранее в Facebook использовались разные форматы при воспроизведении видео. Например, пользователи могли просматривать длинные ролики в портретной ориентации, тогда как некоторые видео воспроизводились непосредственно в ленте Facebook. Обновлённый плеер будет автоматически ориентироваться на вертикальные видео, но также позволит воспроизводить в портретной ориентации большинство горизонтальных роликов. Достаточно просто повернуть телефон, чтобы плеер переключился на воспроизведение контента в режиме портретной ориентации.

Отметим также, что новый проигрыватель Facebook претерпел некоторые визуальные изменения. В нижней части плеера появился ползунок, с помощью которого можно быстро переходить к просмотру разных частей видео. Новые элементы управления также позволят ставить воспроизведение на паузу и возвращаться к уже просмотренным фрагментам.

OpenAI показала короткометражки, созданные профессионалами на ИИ Sora

OpenAI опубликовала несколько короткометражных фильмов, созданных при помощи высокореалистичного генератора видео на основе искусственного интеллекта Sora. Сама модель, генерирующая видео по статическим изображениям и текстовым описаниям, пока остаётся недоступной для публики.

 Источник изображения: openai.com

Источник изображения: openai.com

Короткометражные ленты были созданы профессионалами творческой отрасли: кинематографистами, художниками, креативными работниками рекламных агентств и музыкантами, которым OpenAI предоставила доступ к модели. «Хотя нам предстоит внести в Sora множество улучшений, мы уже имеем представление о том, как эта модель способна помочь творческим личностям воплотить идеи в действительность», — рассказали в компании.

Руководство OpenAI, по сведениям Bloomberg, уже провело несколько встреч с голливудскими кинематографистами и представителями студий, стремясь повысить интерес к применению Sora в обычном крупнобюджетном кинопроизводстве. Тем временем зрители уже подвергли критике создателей независимого фильма ужасов «Поздний вечер с дьяволом» (Late Night With The Devil), которые использовали при его создании созданные ИИ статические изображения. Звучали призывы бойкотировать ленту за то, что её создатели прибегли к помощи ИИ вместо традиционного найма художников.

Эд Ньютон-Рекс (Ed Newton-Rex), гендиректор некоммерческой организации Fairly Trained, которая взялась сертифицировать модели ИИ, обученные добросовестно на лицензионных материалах, выразил сомнение, что Sora обучалась на лицензированном контенте. OpenAI продолжительное время не комментировала этот аспект разработки Sora, но впоследствии технический директор компании Мира Мурати (Mira Murati) заверила, что это были общедоступные и лицензированные данные, а также видеозаписи, полученные в рамках лицензионного соглашения с Shutterstock.

Больше роликов можно найти в официальном блоге OpenAI.

ChatGPT обрёл тело — OpenAI и Figure сделали умного робота-гуманоида, который полноценно общается с людьми

Американский стартап Figure показал первые плоды сотрудничества с компанией OpenAI по расширению возможностей гуманоидных роботов. Figure опубликовала новое видео со своим роботом Figure 01, ведущим диалог с человеком в режиме реального времени. Машина на видео отвечает на вопросы и выполняет его команды.

 Источник изображения: Figure

Источник изображения: Figure

Стремительный темп развития проекта Figure 01 и компании Figure в целом не может не впечатлять. Бизнесмен и основатель стартапа Бретт Эдкок (Brett Adcock) «вышел из тени» год назад, после того как компания привлекла внимание крупных игроков на рынке робототехники и технологий искусственного интеллекта, включая Boston Dynamics, Tesla Google DeepMind, Archer Aviation и других, и поставила цель «создать первого в мире коммерчески доступного гуманоидного робота общего назначения».

К октябрю того же года Figure 01 «встал на ноги» и продемонстрировал свои возможности в выполнении базовых автономных задач. К концу всё того же 2023 года робот обрёл возможность обучаться выполнению различных задач. К середине января Figure подписала первый коммерческий контракт на использование Figure 01 на автомобильном заводе компании BMW в североамериканском штата Северная Каролина.

В прошлом месяце Figure опубликовала видео, на котором Figure 01 выполняет работу на складе. Практически сразу после этого компания анонсировала разработку второго поколения машины и объявила о сотрудничестве с OpenAI «по разработке нового поколения ИИ-моделей для гуманоидных роботов». Сегодня Figure поделилась видео, в котором демонстрируются первые результаты этого сотрудничества.

Через свою страницу в X (бывший Twitter) Адкок сообщил, что встроенные в Figure 01 камеры отправляют данные в большую визуально-языковую модель ИИ, обученную OpenAI, в то время как собственные нейросети Figure «также через камеры робота захватывает изображение окружения с частотой 10 Гц». Алгоритмы OpenAI также отвечают за возможность робота понимать человеческую речь, а нейросеть Figure преобразует поток полученной информации в «быстрые, низкоуровневые и ловкие действия робота».

Глава Figure утверждает, что во время демонстрации робот не управлялся дистанционно и видео показано с реальной скоростью. «Наша цель — научить мировую модель ИИ управлять роботами-гуманоидами на уровне миллиардов единиц», — добавил руководитель стартапа. При таком темпе развития проекта ждать осталось не так уж и долго.

OpenAI сделает ИИ-генератор видео Sora общедоступным позднее в этом году

В феврале OpenAI впервые продемонстрировала нейросеть Sora, способную генерировать реалистичные видео из текстовых описаний. Пока этот инструмент доступен лишь для художников, дизайнеров и кинематографистов. Сегодня технический директор OpenAI Мира Мурати (Mira Murati) сообщила, что Sora станет доступна широкой публике «позднее в этом году». Мурати пообещала, что к способности Sora создавать видео добавится генерация звукового сопровождения, что сделает ролики ещё более реалистичными.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Сейчас OpenAI работает над возможностью редактирования контента в видеороликах Sora, поскольку инструменты искусственного интеллекта не всегда создают точные изображения. «Мы пытаемся выяснить, как использовать эту технологию в качестве инструмента, с помощью которого люди смогут редактировать медиаконтент», — рассказала Мурати.

Мурати уклонилась от ответа на вопрос, какие данные OpenAI использовала для обучения Sora. «Я не собираюсь вдаваться в подробности использованных данных, но это были общедоступные или лицензированные данные», — заявила она. Мурати не подтвердила и не опровергла использование видео с YouTube, Facebook и Instagram. Она отметила, что Sora использует контент фотохостинга Shutterstock, с которым у OpenAI заключено партнёрское соглашение.

Мурати рассказала, что на сегодняшний день Sora отличается от других моделей ИИ повышенными требованиями к вычислительным ресурсам. OpenAI работает над тем, чтобы сделать этот инструмент «доступным по той же цене», что и модель DALL-Eдля преобразования текста в изображение.

Опасения в обществе по поводу инструментов генеративного ИИ и их способности создавать дезинформацию усиливаются. По словам Мурати, Sora не сможет создавать изображения общественных деятелей, как и DALL-E. Видео от Sora также будут включать водяные знаки, но они не являются идеальной защитой и могут быть удалены из видео при помощи ИИ или традиционных технологий.

Люди не смогли отличить созданные нейросетью OpenAI Sora видео от настоящих

Несколько недель назад компания Open AI представила нейросеть Sora, способную по текстовому описанию генерировать реалистичное видео продолжительностью до одной минуты с разрешением 1920 × 1080 пикселей. Теперь же компания HarrisX провела опрос, предлагая взрослым американцам отличить сгенерированное ИИ видео от настоящего. Оказалось, что большая часть респондентов ошиблась в 5 из 8 предлагаемых в рамках опроса роликов.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

В опросе, который проходил в период с 1 по 4 марта в США, участвовали более 1000 американцев. Авторы исследования сгенерировали четыре высококачественных ролика с помощью нейросети Sora, а также выбрали четыре небольших видео, которые были сняты на камеру в реальном мире. Респондентам в случайном порядке показывали эти видео, а их цель была определить, снят ролик человеком или его сгенерировал ИИ. Мнения участников опроса разделились, но при этом в 5 из 8 случаев большая часть респондентов дала неверный ответ.

Это исследование указывает на то, что создаваемый с помощью генеративных нейросетей контент становится всё более реалистичным и отличить его от реального всё труднее. Именно поэтому в разных странах стали чаще звучать призывы к властям о необходимости законодательного регулирования этого сегмента. В числе прочего предлагается обязать пользователей нейросетей помечать генерируемый контент соответствующим образом, чтобы он не вводил других в заблуждение и не мог стать источником дезинформации.

 Источник изображения: variety.com

Источник изображения: variety.com

Алгоритм Sora ещё недоступен широкой публике, но уже сейчас он вызывает серьёзную тревогу в обществе, особенно в индустрии развлечений, где развитие технологий генерации видео влечёт массу негативных последствий, например, для киностудий. Более того, всё чаще поднимается вопрос о том, что подобные Sora алгоритмы могут использоваться для создания фейковых видео с участием политиков и знаменитостей, что может привести к самым непредсказуемым последствиям.

Соцсеть X Илона Маска запустит аналог YouTube для умных телевизоров

Компания X Илона Маска (Elon Musk), владелец одноимённой соцсети, вскоре запустит приложение для SmartTV, сообщил ресурс Fortune со ссылкой на информированный источник. По словам источника, приложение выйдет на следующей неделе, и оно выглядит «идентично» телевизионному приложению YouTube. Поначалу приложение будет доступно на телевизорах Amazon и Samsung.

 Источник изображения: X

Источник изображения: X

Цель Маска — превратить X в видеоплатформу, способную конкурировать с YouTube, которая предоставит пользователям возможность смотреть «продолжительные видео на большом экране». Этот шаг является частью плана, представленного в июле и призванного сделать X более привлекательной для интернет-инфлюэнсеров и рекламодателей. По словам источника, помимо YouTube Маск также планирует конкурировать с такими сервисами как Twitch, Signal и социальной платформой Reddit.

Идея расширить присутствие сервиса микроблогинга на экраны телевизоров не нова. До этого Twitter запускал телевизионные приложения как минимум три раза: первые версии вышли в 2010 году на ныне несуществующей платформе Google TV и в 2011 году на платформе Samsung Smart Hub для SmartTV. В 2016 году, после заключения сделки на трансляцию 10 игр НФЛ компания запустила приложения для потоковой передачи видео для Amazon Fire TV, Apple TV и Xbox One.

Fortune отметил, что Маск сосредоточил внимание на медийных знаменитостях, онлайн-инфлюэнсерах и стриминге онлайн-видеоигр. Компания недавно подписала контракт с бывшей звездой CNN Доном Лемоном (Don Lemon) на запуск нового шоу исключительно для X, а бывший ведущий Fox News Такер Карлсон (Tucker Carlson) часто публикует продолжительные видео на X, в числе которых недавнее интервью с президентом России Владимиром Путиным.

Маск призвал авторов перенести весь свой видеоконтент на X, утверждая, что они выиграют от увеличения потоков рекламных доходов. Сообщается, что почти половина пользователей YouTube в США в 2023 году смотрели его видео на телевизорах, а в январе компания Nielsen сообщила, что YouTube является крупнейшим потоковым сервисом в США с 8,6 % просмотров на телевизионных экранах. Для сравнения, у Netflix этот показатель равен 7,9 %.

Вместе с тем соцсеть X по-прежнему теряет пользователей и рекламодателей. Согласно недавнему исследованию Edison Research, использование платформы упало на 30 % за последний год.

Alibaba представила нейросеть EMO — она оживляет портреты, заставляя их разговаривать и даже петь

Исследователи из Института интеллектуальных вычислений Alibaba разработали (PDF) систему искусственного интеллекта EMO (Emote Portrait Alive), которая анимирует статическое изображение человека, заставляя его реалистично говорить или петь.

 Источник изображения: youtube.com/@ai_beauty303

Источник изображения: youtube.com/@ai_beauty303

Система изображает реалистичную мимику и движения головы, точно соответствующие эмоциональным оттенкам звукового ряда, на основе которого генерируется анимация. «Традиционные методы зачастую неспособны передать полный спектр человеческих выражений лица и уникальность отдельных его стилей. Для решения этих проблемы мы предлагаем EMO — новый фреймворк, использующий подход прямого синтеза из аудио в видео, минуя потребность в промежуточных 3D-моделях или лицевых опорных точках», — пояснил глава группы разработчиков Линьжуй Тянь (Linrui Tian).

В основе системы EMO лежит диффузионная модель ИИ, зарекомендовавшая себя как способная генерировать реалистичные изображения. Исследователи обучили её на массиве данных, включающем более 250 часов видеозаписей «говорящей головы»: выступлений, фрагментов фильмов, телешоу и вокальных выступлений. В отличие от предыдущих методов, предполагающих создание трёхмерной модели или механизмов имитации человеческой мимики, EMO предполагает прямое преобразование звука в видеоряд. Это позволяет системе передавать мельчайшие движения и связанные с естественной речью особенности личности.

Авторы проекта утверждают, что EMO превосходит существующие методы по показателям качества видео, сохранения идентичности и выразительности. Исследователи опросили фокус-группу, и та показала, что созданные EMO видеоролики более естественны и эмоциональны, чем произведения других систем. Система создаёт анимацию не только на основе речи, но и с использованием звукового ряда с вокалом — она учитывает форму рта человека на оригинальном изображении, добавляет соответствующую мимику и синхронизирует движения с вокальной партией. Единственной связанной с EMO проблемой является вероятность злоупотребления этой технологией. Исследователи сообщают, что планируют изучить методы выявления созданных ИИ видеороликов.

VR-гарнитуры Meta✴ Quest смогут воспроизводить пространственное видео с iPhone

Гарнитура смешанной реальности Apple Vision Pro может воспроизводить так называемые пространственные видео, т.е. ролики, которые фактически записаны в 3D. Смартфоны iPhone 15 Pro и iPhone 15 Pro Max могут снимать пространственное видео, но Vision Pro является единственным устройством, способным воспроизводить их во всей красе. Похоже, что в скором времени это изменится и функцию воспроизведения пространственных видео получат VR-гарнитуры Quest компании Meta Platforms.

 Источник изображения: Apple

Источник изображения: Apple

По данным сетевых источников, в коде приложения Meta Quest для iPhone обнаружились упоминания функции, предполагающей некую форму воспроизведения пространственных видео. На данный момент в приложении выявлено четыре строки кода с упоминанием этой функции, в том числе связанных с возможностью активации пространственного видео в настройках камеры и загрузкой контента такого типа.

Источник отмечает, что поддержка пространственного видео уже доступна в гарнитурах Quest, хотя официально об этом не было объявлено. Вероятно, рано или поздно это изменится и Meta попытается извлечь выгоду по мере роста популярности контента такого типа. Гарнитура смешанной реальности Vision Pro поступит в продажу 2 февраля и, скорее всего, это будет сопровождаться значительным ростом интереса со стороны пользователей к созданию пространственных видео.

Google представила мощную нейросеть Lumiere для генерации реалистичных видео

Google представила Lumiere«модель пространственно-временной диффузии для реалистичной генерации видео», основанную на искусственном интеллекте. Как показала практика, это, возможно, самый мощный на сегодняшний день ИИ-генератор видео, создающий динамические изображения по текстовому описанию.

 Источник изображения: lumiere-video.github.io

Источник изображения: lumiere-video.github.io

Важнейшим отличием Google Lumiere от существующих аналогов является уникальная архитектура модели — видео по всей его продолжительности генерируется за один проход. Другие модели работают по иному принципу: они генерируют несколько ключевых кадров, а затем производят интерполяцию по времени, что затрудняет согласованность генерируемого ролика. Lumiere работает в нескольких режимах, например, производит преобразование текста в видео, конвертирует статические изображения в динамические, создаёт видеоролики в заданном стиле на основе образца, позволяет редактировать существующее видео по письменным подсказкам, анимирует определённые области статического изображения или редактирует видео фрагментарно — например, может изменить предмет гардероба на человеке.

«Мы обучаем нашу модель T2V [преобразования текста в видео] на наборе данных, включающем 30 млн видеороликов с текстовыми описаниями. Видео имеют длину 80 кадров с частотой 16 кадров в секунду. Базовая модель обучена на разрешении 128 × 128 пикселей», — пояснили в Google. На выходе получаются 5-секундные ролики с разрешением 1024 × 1024 пикселей.

Google Lumiere — конечно, не первый ИИ-генератор видео. Сама Google ранее демонстрировала модель Imagen Video, которая генерировала ролики разрешением 1280 × 768 точек с частотой 24 кадра в секунду, но её творения были намного более скромными. Меньшим реализмом отличались результаты таких проектов как Meta Make-A-Video, Runway Gen2 и Stable Video Diffusion. В Google понимают угрозу, которую могут представлять подобные проекты: «Основная наша цель в этой работе — дать начинающим пользователям возможность генерировать визуальный контент гибко и творчески. Однако существует риск неправомерного [создания] подделок или вредоносного контента при помощи нашей технологии, и мы считаем, что крайне важно разрабатывать и применять инструменты выявления случаев предвзятости и злонамеренного использования, чтобы обеспечить безопасную и добросовестную работу [модели]».

Apple показала, как гнёт стекло и фрезеруют алюминий для производства гарнитуры Vision Pro

Накануне Apple открыла приём предварительных заказов на гарнитуру смешанной реальности Vision Pro. Чтобы отметить это событие, компания опубликовала рекламное видео, на котором показала процесс производства компонентов устройства и их сборки воедино.

 Источник изображения: youtube.com/@Apple

Источник изображения: youtube.com/@Apple

Короткое видео демонстрирует, как производятся некоторые компоненты Apple Vision Pro, и как осуществляется их дальнейшая сборка. Базовая версия устройства имеет ценник $3499 — она комплектуется встроенным накопителем на 256 Гбайт. За версию с 512 Гбайт памяти придётся отдать $3699, а топовый вариант с накопителем ёмкостью 1 Тбайт оценивается в $3899.

Высокая стоимость Apple Vision Pro, похоже, не станет препятствием к популярности устройства — многие поклонники марки уже изъявили готовность приобрести «пространственный компьютер». Первоначально Apple сообщала, что отгрузки устройства стартуют в начале февраля, но с открытием предзаказов даты начали постепенно сдвигаться. Уже через два часа в датах поставок Vision Pro начал фигурировать март, а некоторые клиенты сообщили даже об апрельских сроках.

AVerMedia выпустила карты видеозахвата Live Streamer Ultra HD и Live Gamer 4K 2.1 — последняя получила HDMI 2.1

Компания AVerMedia представила карты захвата видеопотока Live Gamer 4K 2.1 и Live Streamer Ultra HD. Обе новинки выполнены в формате карт расширения PCIe и обе поддерживают работу с видео в разрешении 4K (3840 × 2160 пикселей). А первая из новинок, к тому же, выделяется поддержкой интерфейса HDMI 2.1.

 Live Gamer 4K 2.1. Источник изображений: AVerMedia

Live Gamer 4K 2.1. Источник изображений: AVerMedia

Карта AVerMedia Live Streamer Ultra HD представляет собой устройство начального уровня, которое обеспечивает захват видео в разрешении 4K со скоростью до 30 кадров в секунду, а также способно передавать поток в 4K со скоростью 60 кадров в секунду. Для подключения она использует всего одну линию PCIe 3.0 или более нового интерфейса. Карта обладает входным и выходным портами HDMI 2.0.

Новинка также поддерживает режим захвата видео в разрешении 1080p (1920 × 1080 пикселей) со скоростью 120 кадров в секунду, если стример хочет организовать трансляцию с высокой частотой кадров. Ключевой же особенностью AVerMedia Live Streamer Ultra HD является поддержка источников входного сигнала с VRR (переменной частотой обновления).

В свою очередь модель Live Gamer 4K 2.1 является более продвинутой картой захвата видео. Она может вести запись в разрешении 4K с частотой до 60 кадров в секунду, а также поддерживает сквозную потоковую передачу 4K с частотой обновления 144 Гц. Для неё также заявляется поддержка VRR и HDR. Новинка оснащена пластиковым кожухом с RGB-подсветкой. Для подключения к ПК здесь применяется интерфейс PCIe 3.0 x4. Плата оснащена парой портов HDMI 2.1.

Оба устройства от AVerMedia уже появились в продаже. Карту захвата Live Streamer Ultra HD с поддержкой режимов 4K@30 или 1080p@120 производитель оценил в $179,99. Старшая модель Live Gamer 4K 2.1 с поддержкой HDMI 2.1 оценивается в $269,99.

«М.Видео-Эльдорадо»: в пятёрку самых продаваемых игр за 2023 год попала только одна игра 2023 года

Торговая группа «М.Видео-Эльдорадо» составила рейтинг игр, коробочные версии которых оказались наиболее популярны в российской рознице по итогам 2023 года. В лидерах — вновь хит прошлых лет.

 Источник изображения: Steam (Evey)

Источник изображения: Steam (Evey)

Как стало известно, самой продаваемой игрой российской розницы в 2023 году стал нестареющий ролевой боевик Cyberpunk 2077 от CD Projekt RED — он же возглавил рейтинг и по итогам 2022-го.

Кроме того, в пятёрку самых популярных релизов также попали Grand Theft Auto V, полное издание Mortal Kombat 11, Hogwarts Legacy и God of War Ragnarok. То есть в топ-5 по результатам 2023 года только одна игра 2023 года.

По словам менеджера игрового направления «М.Видео-Эльдорадо» Сергея Епишина, самыми популярными новинками в 2023 году стали Hogwarts Legacy, Atomic Heart, Diablo IV, Star Wars Jedi: Survivor, EA Sports FC 24 и Mortal Kombat 1.

 Hogwarts Legacy (источник изображения: Ayghan в X)

Hogwarts Legacy (источник изображения: Ayghan в X)

Половина приобретённых за 2023 год игр пришлась на PS4 (65 % по итогам 2022-го). На втором месте расположилась PS5 (её доля увеличилась на 25 %), а третье за собой удержала Nintendo Switch.

Как отмечают в «М.Видео-Эльдорадо», наиболее активны потребители были в четвёртом квартале. За период с октября по конец декабря было продано более 30 % от общего объёма за год.

Распределение самых продаваемых игр 2023 года по платформам:

PlayStation 4

  1. Cyberpunk 2077;
  2. полное издание Mortal Kombat 11;
  3. Hogwarts Legacy;
  4. Red Dead Redemption 2;
  5. Diablo IV.

PlayStation 5

  1. God of War Ragnarok;
  2. Grand Theft Auto V;
  3. Hogwarts Legacy;
  4. полное издание Mortal Kombat 11;
  5. Marvel’s Spider-Man: Miles Morales.

Nintendo Switch

  1. The Legend of Zelda: Tears of the Kingdom;
  2. Minecraft;
  3. It Takes Two;
  4. Minecraft Legends;
  5. Bayonetta Origins: Cereza and the Lost Demon.

Xbox Series X и S

  1. Grand Theft Auto V;
  2. Atomic Heart;
  3. Hogwarts Legacy;
  4. Back 4 Blood;
  5. Gears Tactics.

Xbox One

  1. Red Dead Redemption 2;
  2. The Evil Within;
  3. Forza Horizon 3;
  4. The Sims 4;
  5. Battlefield V.

ИИ-чат-бот Google Bard научилcя смотреть видео на YouTube вместо пользователя и пересказывать их

В последнее время компания Google активно работает над улучшением своего ИИ-чат-бота Bard. Последнее обновление Bard включает функцию анализа YouTube-видео, которая позволяет пользователям извлекать из видео конкретную информацию, такую как рецепты и ключевые моменты, без необходимости просмотра самого видео. Это нововведение может значительно облегчить жизнь пользователям, но в то же время вызывает беспокойство о влиянии генеративного ИИ на творчество и доходы авторов контента.

 Источник изображения: Google

Источник изображения: Google

В качестве примера использования новой функции было протестировано видео с рецептом коктейля «Espresso Martini» с канала America’s Test Kitchen. Bard успешно собрал важные моменты видео, включая точные ингредиенты коктейля и инструкции его приготовления. Однако были замечены и некоторые неточности, такие как предложение Bard взбалтывать напиток на протяжении 30 секунд, чего в оригинальном видео не было.

Такое использование Bard поднимает вопросы о воздействии генеративного ИИ на индустрию контента. Видео на YouTube часто являются источником дохода авторов за счёт рекламы и просмотра сопутствующих роликов. Получение информации через ИИ-чат-бота позволяет обходить этот этап, что потенциально уменьшает доходы создателей контента.

 Bard способен кратко изложить основные моменты видеоролика и точно ответить на вопрос об ингредиентах (источник изображения: The Verge)

Bard способен кратко изложить основные моменты видеоролика и точно ответить на вопрос об ингредиентах (источник изображения: The Verge)

На данный момент эта функция доступна только в рамках экспериментальной программы Labs компании Google и требует определённых усилий для получения желаемой информации. Например, при запросе на получение «полного рецепта» Bard не смог предоставить ответ, однако запрос на «пошаговые инструкции» привёл к желаемому результату.

Такие особенности использования ИИ пока что не представляют угрозы для стратегии контент-маркетинга на YouTube, но можно предположить, что в будущем интеграция такого инструмента непосредственно в YouTube приведёт к новым вызовам для авторов. Важно, чтобы компании, работающие в области генеративного ИИ, включая Google, нашли способы сбалансировать интересы всех участников — от разработчиков до авторов контента.


window-new
Soft
Hard
Тренды 🔥
Schneider Electric ведёт переговоры о покупке Bentley Systems 5 ч.
Новая статья: Atom Bomb Baby: рассказываем, почему Fallout — идеальная экранизация видеоигрового материала, и почему этот сериал не стоит пропускать 6 ч.
Bethesda готовит «несколько очень хороших обновлений» для Starfield, а Fallout 5 не в приоритете 7 ч.
Apple откроет сторонним приложениям доступ к NFC 8 ч.
В Dota 2 стартовало сюжетное событие «Павшая корона» с уникальными наградами, новыми «арканами» и комиксом 8 ч.
Связанные одной шиной: «Лаб СП» и «Фактор-ТС» представили отечественную интеграционную платформу Integration Gears 8 ч.
Paradox отказала Prison Architect 2 в досрочном освобождении — релиз отложили ещё на четыре месяца 10 ч.
Спустя 17 лет после релиза Team Fortress 2 получила поддержку 64 бит — выросла производительность и даже боты пропали 11 ч.
Netflix резко нарастила аудиторию и прибыль, запретив совместное использование аккаунтов 12 ч.
Российские студенты победили в чемпионате мира по программированию ICPC 12 ч.
Гиперщит с ИИ: Cisco представила систему безопасности Hypershield 7 ч.
Highpoint представила карту расширения на восемь SSD: до 64 Тбайт со скоростью до 56 Гбайт/с 8 ч.
Китайские экспериментальные лунные навигационные спутники прислали фотографии обратной стороны Луны 8 ч.
Налоговая служба Швеции закрыла 18 дата-центров за незаконный майнинг криптовалют 9 ч.
LG выпустила флагманский саундбар S95TR за $1500 с поддержкой Dolby Atmos и настройкой с помощью ИИ 11 ч.
Seagate заявила, что жёсткие диски с HAMR уже не уступают по надёжности традиционным HDD 12 ч.
Corsair представила обновлённые доступные проводные гарнитуры HS35 v2 для геймеров 12 ч.
Tesla отзовёт все проданные электромобили Cybertruck для замены залипающей педали газа 13 ч.
Galax выпустила полностью белую низкопрофильную GeForce RTX 4060 с крошечным заводским разгоном 15 ч.
Razer представила игровые контроллеры Kishi Ultra и Kishi V2 для смартфонов, планшетов и ПК 15 ч.