|
Опрос
|
реклама
Быстрый переход
Alibaba выпустила HappyHorse — открытый ИИ-генератор видео, который обошёл всех конкурентов
10.04.2026 [10:46],
Павел Котов
На платформе Artificial Analysis опубликовали предназначенную для генерации видео модель искусственного интеллекта HappyHorse-1.0, которая со значительным отрывом обошла лидера в лице Seedance 2.0 от ByteDance.
Источник изображения: happyhorse-ai.com В категории генерации видео без звука по текстовому запросу HappyHorse-1.0 набрала рейтинг Elo 1357, опередив Seedance 2.0 на 84 балла; в задачах на анимацию статической картинки она показала Elo 1402, также выйдя на первое место. В генерации видео со звуком она оказалась второй, уступив Seedance 2.0 с 1215 баллами против 1220; а в анимации картинок снова оказалась первой с результатом 1160 против 1158 у прежнего лидера. Оторваться на 84 балла в этом рейтинге — это сильный результат, указывающий, что в слепом тестировании HappyHorse-1.0 оказывается лучше примерно в 62 % случаев. Разработчиком HappyHorse-1.0 оказалась Future Life Lab при Taotian Group — это подразделение Alibaba отвечает за технологии электронной коммерции. Главой лаборатории является Чжан Ди (Zhang Di), прежде занимавший пост вице-президента Kuaishou и технического руководителя проекта Kling AI, ранее выпускавшего мощные генераторы видео. В конце 2025 года он начал работу в Taotian, и модель HappyHorse-1.0 стала первым проектом новой структуры. Примечательно, что у Alibaba уже был собственный ИИ-генератор видео Wan, который тоже оказался слабее нового проекта. HappyHorse-1.0 представляет собой ИИ-модель на архитектуре 40-слойного трансформера с 15 млрд параметров, в котором данные генерируются диффузионным методом и обрабатываются единым потоком, включающим текст, изображения, видео и звук. Ресурсов ускорителя Nvidia H100 хватает для генерации 5-секундного клипа в разрешении 256p за 2 секунды; на генерацию 5-секундного ролика в 1080p уходят 38 секунд. Разработчики обещают в скором будущем выложить в открытом виде базовую модель HappyHorse-1.0, её уменьшенную дистиллированную версию, модуль повышения разрешения и код для запуска модели. Nvidia вывела из беты динамический генератор кадров и режим MFG 6X в DLSS 4.5
09.04.2026 [19:03],
Николай Хижняк
Компания Nvidia завершила тестирование новых функций динамического мультикадрового генератора и режима MFG 6X в составе DLSS 4.5, включив их в стабильную версию приложения Nvidia App для управления графикой GeForce. Ранее данные функции были доступны только в составе бета-версий.
Источник изображений: Nvidia Новые функции доступны в разделе «Графика» > «Настройка программы» > «Настройки драйвера» > DLSS Override > «Режим генерации кадров». Компания сообщает, что в настоящий момент динамический режим генерации кадров несовместим с функциями ограничения частоты кадров и вертикальной синхронизации (V-Sync). В настройки Nvidia App также добавлены режимы генерации кадров 5X и 6X. По данным компании, в совместимых играх масштабирование может достигать шестикратного увеличения, а видеокарты серии GeForce RTX 50 могут повысить производительность в 4K-играх с трассировкой лучей на 35 % при переходе с четырёхкратного на шестикратный мультикадровый рендеринг. ![]() Обновление также включает новую модель Frame Generation для видеокарт GeForce RTX 40-й и 50-й серий. По данным Nvidia, новая модель использует дополнительные данные движка в поддерживаемых играх для повышения чёткости мини-карт, статических элементов интерфейса и других компонентов пользовательского интерфейса при включённой функции Frame Generation. Nvidia также продолжает внедрять обновления DLSS на уровне приложений, не дожидаясь выхода патчей для самих игр. В новый список игр, получивших поддержку функции DLSS Override, вошли: Arknights: Endfield, Black One Blood Brothers, Carmageddon: Rogue Shift, Code Vein II, Corsairs Legacy, Crimson Desert, Death Stranding 2: On the Beach, Demonologist, For Honor, Grounded 2, Half Sword, High On Life 2, John Carpenter’s Toxic Commando, Let It Die: Inferno, Lort, Marathon, Monster Hunter Stories 3, Nightmare Frontier, Nioh 3, Norse: Oath of Blood, Of Ash and Steel, Quarantine Zone: The Last Check, Reanimal, Resident Evil Requiem, Star Trek: Voyager — Across the Unknown, StarRupture, Styx: Blades of Greed, The Gold River Project, The Legend of Heroes: Trails Beyond the Horizon, Vampires: Bloodlord Rising и Yakuza Kiwami 3 & Dark Ties. ![]() Новая версия приложения Nvidia App также добавляет оптимальные игровые настройки для Arknights: Endfield, Ashes of Creation, Highguard, StarRupture и The Last Caretaker. Кроме того, в приложении исправлен ряд проблем и ошибок. С их списком можно ознакомиться выше. Скачать приложение Nvidia App можно с официального сайта Nvidia. Google представила ИИ-модель Veo 3.1 Lite для генерации видео до 8 секунд — он дешевле Veo 3.1 и Veo 3.1 Fast
31.03.2026 [22:44],
Николай Хижняк
Компания Google анонсировала генератор видео Veo 3.1 Lite. В иерархии продуктов он находится ниже версии Veo 3.1 Fast. При этом версия Veo 3.1 остаётся флагманским решением компании. Veo 3.1 Lite является «наиболее экономичной моделью для работы с видео» от Google.
Источник изображений: Google Предназначенный для «приложений с большим объёмом видеоконтента» генератор Veo 3.1 Lite поддерживает преобразование текста в видео и изображений в видео, а также разрешения 720p или 1080p с горизонтальным (16:9) и вертикальным (9:16) соотношением сторон. Он предлагает ту же скорость генерации, что и Veo 3.1 Fast. ![]() Пользователи могут настраивать продолжительность генерации в 4, 6 или 8 секунд — стоимость будет корректироваться соответствующим образом. Что касается цены, она составляет «менее 50 % от стоимости Veo 3.1 Fast», цена которого снизится 7 апреля. Генератор видео Veo 3.1 Lite доступен через платный тарифный план в API Gemini и Google AI Studio. Решения для генерации видео Google Veo интегрированы в различные продукты компании, включая YouTube Shorts, Google Photos, Google Vids и приложение Gemini. Также генератор предлагается в составе видеоредактора Flow. Ещё больше ненастоящих кадров: Nvidia выпустила DLSS 4.5 с динамическим мультикадровым генератором и режимом MFG 6X
31.03.2026 [19:11],
Николай Хижняк
Компания Nvidia выпустила функцию динамического мультикадрового генератора (DLSS 4.5 Dynamic Multi Frame Generation), а также режим мультикадрового генератора 6X (Multi Frame Generation 6X, MFG 6X). Обе технологии доступны через бета-версию приложения Nvidia App и поддерживаются только видеокартами GeForce RTX 50-й серии.
Источник изображений: Nvidia Nvidia заявляет, что для работы DLSS 4.5 Dynamic Multi Frame Generation и MFG 6X требуется драйвер GeForce Game Ready Driver 595.79 WHQL или более новая версия. Новый динамический режим (DLSS 4.5 Dynamic Multi Frame Generation) заменяет фиксированный множитель кадров адаптивной системой, которая изменяется в реальном времени в зависимости от загрузки графического процессора и частоты обновления дисплея. Nvidia заявляет, что эта функция предназначена для генерации только того количества кадров, которое необходимо для достижения выбранного предела или частоты обновления монитора, вместо того, чтобы оставаться привязанным к одному предустановленному множителю на протяжении всего игрового процесса. В режиме MFG 6X графический процессор может генерировать пять дополнительных кадров для каждого настоящего отрендеренного кадра. Nvidia заявляет, что переход с режима генерации 4X на 6X может повысить производительность в играх с трассировкой лучей в разрешении 4K до 35 % на видеокартах серии GeForce RTX 50. Для контроля уровня задержки используется технология Reflex. ![]() Новые функции доступны только через приложение Nvidia App (через настройки DLSS Override). Пользователям необходимо включить в настройках приложения поддержку бета-версий и экспериментальные функции, а затем на вкладке «Графика» выбрать параметр DLSS для режима генерации кадров. Nvidia заявляет, что динамический и фиксированный режимы теперь работают параллельно, при этом фиксированный режим работает как старые параметры ручного множителя. Бета-версия приложения Nvidia App также содержит поддержку обновления DLSS 4.5 Super Resolution для Arc Raiders и Marvel Rivals. Nvidia также сообщила, что поддержку DLSS 4.5 и технологии трассировки в перспективе получат ещё 20 новых и уже выпущенных игр: 007 First Light, Aniimo, Barkour, Control Resonant, Cthulhu: The Cosmic Abyss, Directive 8020, Edge of Memories, Edge of Memories, Endurance Motorsport Series, Gray Zone Warfare, Industria 2, Samson, Sea of Remnants, StarRupture, Star Wars: Galactic Racer, The Mound: Omen of Cthulhu, Tides of Annihilation, War Thunder, Where Winds Meet. Стала известна причина закрытия ИИ-генератора видео OpenAI Sora и она весьма прозаична
30.03.2026 [11:15],
Алексей Разин
На прошлой неделе OpenAI внезапно отказалась от поддержания ИИ-генератора видео Sora в строю, тем самым подведя студию Disney, которая успела ранее заключить договор, затрагивающий условия использования этого сервиса. Издание The Wall Street Journal со ссылкой на собственные источники сообщило, что основной причиной принятия столь серьёзного решения стала банальная нехватка ресурсов.
Источник изображения: OpenAI Характерно, что речь идёт не только о финансовых ресурсах, хотя энергоёмкий сервис действительно требовал от OpenAI довольно высоких затрат на генерацию видео. Из этих соображений на раннем этапе популярности Sora компания даже ограничила продолжительность создаваемых одним пользователем видео десятью секундами, чтобы инфраструктура могла справляться с вычислительной нагрузкой. Монетизировать Sora в сжатые сроки не представлялось возможным, а расходов на своё развитие и эксплуатацию генератор видео по текстовому запросу требовал серьёзных. По некоторым данным, эксплуатация Sora обходилась OpenAI примерно в $1 млн в день. Популярность Sora хоть и взлетела до 1 млн пользователей на начальном этапе, в последнее время откатилась до уровня в 500 000 пользователей. При этом каждый из них отнимал у OpenAI востребованные в других проектах вычислительные ресурсы в приличном объёме. Источник подчёркивает, что внутренняя система мониторинга позволяет OpenAI отслеживать, чем заняты используемые в инфраструктуре стартапа ускорители вычислений. Команда разработчиков Sora, которая исторически обладала в стартапе определённой самостоятельностью, получила весьма солидную часть вычислительных ресурсов, что в условиях их нехватки на других направлениях вызвало вопросы у руководства OpenAI. Прилично заработать на Sora компания вряд ли могла бы, а вот тратить приходилось много. Кроме того, из-за дефицита ресурсов страдали другие направления развития, которые были признаны приоритетными. От идеи предлагать платный доступ к Sora через ChatGPT стартап в конечном итоге отказался. Внезапность решения OpenAI о закрытии проекта Sora подтверждают и представители Disney, с которой у стартапа был заключён договор на $1 млрд. Он предусматривал, что Disney вложит соответствующую сумму в капитал OpenAI и позволит пользователям Sora использовать лицензированных персонажей из множества принадлежащих студии франшиз в своём творчестве по созданию роликов с помощью ИИ. Руководство Disney об отказе OpenAI от поддержки Sora в работоспособном состоянии узнало примерно на час быстрее общественности, что нельзя считать заблаговременным предупреждением. В принципе, после смены руководства Disney сейчас ведёт переговоры более чем с 10 возможными партнёрами, которые смогут предоставить студии различные ИИ-услуги. На официальном уровне Disney выражает признательность OpenAI за полученный опыт сотрудничества и с уважением относится к принятому решению отказаться от развития Sora. Microsoft представила MAI-Image-2 — ИИ-генератор изображений, который оказался неожиданно хорош в фотореализме и инфографике
21.03.2026 [12:07],
Владимир Фетисов
В октябре прошлого года Microsoft представила ИИ-модель для генерации изображений MAI-Image-1, которая заняла девятое место рейтинга на платформе Arena.ai. Теперь же софтверный гигант объявил о запуске алгоритма второго поколения MAI-Image-2, способного создавать изображения с более естественным освещением, точной передачей тонов кожи и реалистичными деталями. Эта версия ИИ-модели поднялась на третью строчку рейтинга Arena.ai.
Источник изображения: microsoft.ai Microsoft существенно улучшила возможности модели в плане корректного отображения текста на генерируемых изображениях. За счёт этого алгоритм лучше подходит для создания инфографики, слайдов, диаграмм и др. Microsoft заявила, что MAI-Image-2 лучше справляется с генерацией кинематографичных и гипердетализированных изображений, включая сюрреалистические концепции, замысловатые композиции и фантастические миры. «Вышел наш новый генератор изображений MAI-Image-2! Он уже доступен на MAI Playground для создания всего: от фотореализма до детализированной инфографики. Наша команда приложила невероятные усилия для этого релиза», — написал в соцсети X глава ИИ-подразделения Microsoft Мустафа Сулейман (Mustafa Suleyman). В рейтинге на платформе Arena.ai MAI-Image-2 занимает третье место. Лидерами остаются алгоритмы Google gemini-3.1-flash-image-preview и OpenAI gpt-image-1.5-high-fidelity. Пользователи Copilot и Bing Image Creator смогут задействовать модель MAI-Image-2 в ближайшее время. В настоящее время алгоритм доступен через платформу MAI Playground, а разработчик могут получить доступ к модели через соответствующий API на Microsoft Foundry. ИИ-генератор изображений Adobe Firefly теперь можно обучать на своих работах
19.03.2026 [18:18],
Владимир Фетисов
Adobe объявила о запуске настраиваемых ИИ-генераторов изображений, которые могут имитировать определённые художественные стили и дизайны персонажей. Модели Firefly Custom Models стали доступны в рамках публичного бета-тестирования, благодаря чему творческие люди и компании могут обучить ИИ-модели на собственных работах. За счёт этого генерируемые изображения будут соответствовать единой эстетике персонажей, иллюстраций и фотографий.
Источник изображения: Adobe Ожидается, что такой подход позволит оптимизировать рабочие процессы создателей контента, которым требуется выполнять большие объёмы работ, за счёт сохранения визуальной согласованности в разных проектах, вместо того, чтобы каждый раз начинать всё с нуля. По данным Adobe, пользовательские ИИ-модели позволят сохранять разные детали, такие как толщина штрихов, цветовые гаммы, освещение и черты персонажей при генерации новых изображений. По умолчанию пользовательские модели являются частными, поэтому используемые для их обучения материалы не будут применяться для обучения общих языковых моделей Adobe Firefly. «Чтобы развивать бренд, вам нужен постоянный поток материалов, которые будут последовательно выражать вашу сущность. Эти материалы должны быть вашими и только вашими. После обучения ваша пользовательская модель становится частью вашего рабочего процесса. Вы можете генерировать новые идеи, соответствующие вашей эстетике, повторно использовать модель в разных проектах, брифингах и кампаниях, а также создавать контент в масштабе, не теряя того, что отличает вашу работу», — говорится в пресс-релизе Adobe. ByteDance отложила глобальный запуск ИИ-генератора видео Seedance 2.0 из-за проблем с авторскими правами
15.03.2026 [07:44],
Алексей Разин
Соблазн использования уже знакомых образов и сюжетов при генерации видео с помощью искусственного интеллекта весьма высок, поскольку это упрощает задачу создателю и одновременно позволяет гарантировать интерес аудитории к конечному результату. ByteDance решила отложить глобальный запуск генератора видео Seedance 2.0 из-за проблем с авторскими правами.
Источник изображения: ByteDance Как отмечает Reuters со ссылкой на The Information, соответствующие трудности возникли у китайской компании в сфере взаимоотношений с крупными голливудскими студиями и стриминговыми платформами. Ещё в прошлом месяце ByteDance была вынуждена заявить, что предпримет меры для предотвращения неправомерного использования интеллектуальной собственности в работе ИИ-генератора видео Seedance 2.0 после того, как некоторые американские студии типа Disney пригрозили ей судебным преследованием. По версии Disney, компания ByteDance использовала персонажей, чьи образы принадлежат студии, для обучения Seedance 2.0 без соответствующего разрешения. Поводом для претензий стало распространение в китайских социальных сетях вирусного видео, на котором сгенерированные ИИ двойники Тома Круза (Tom Cruise) и Брэда Питта (Brad Pitt) участвуют в поединке. Как считает Disney, при обучении Seedance 2.0 китайская ByteDance использовала полученные незаконным способом образы персонажей из популярных кинофраншиз, включая Star Wars и Marvel, обращаясь с ними, как с общедоступными материалами. Представившая ИИ-генератор Seedance 2.0 на китайском рынке в феврале ByteDance отмечала, что он предназначен для профессионального использования при производстве фильмов и рекламных роликов. Способность данного продукта одновременно обрабатывать текст, изображения, видео и аудио, по словам представителей компании, позволяет снизить затраты на изготовление контента. Первоначально ByteDance намеревалась открыть доступ к Seedance 2.0 клиентам за пределами Китая в середине марта, но из-за потенциальных проблем с авторскими правами решила задержать график. Как отмечается, сейчас технические специалисты работают над внедрением защитных механизмов от использования охраняемых авторским правом персонажей, а юристы дополнительно прорабатывают правовые основы использования ИИ-модели. Владелец TikTok выпустил ИИ-модель Seedance 2.0 для генерации видео — она стала вирусной
12.02.2026 [17:43],
Павел Котов
Новая модель искусственного интеллекта ByteDance для генерации видео уже стала вирусной в Китае, где её успех сравнили с достижениями DeepSeek за способность создавать сюжеты кинематографического качества всего по нескольким запросам.
Источник изображения: Claudio Schwarz / unsplash.com Наиболее популярными сегодня являются ИИ-модели, ориентированные в первую очередь на работу с текстом, такие как OpenAI ChatGPT и DeepSeek R1. Модели, предназначенные для генерации изображений и видео пока больше рассматриваются как перспективные. Сегодня ByteDance (владеет TikTok) официально представила модель Seedance 2.0 — она разработана для профессионального кинопроизводства, рекламы и электронной коммерции. Поддерживается одновременная обработка текста, изображений, звука и видео, что помогает снизить себестоимость создания контента. Новый проект ByteDance вышел в тот момент, когда инвесторы в Китае и по всему миру ищут разработчика масштабов DeepSeek, чьи модели R1 и V3 в начале минувшего года вызвали шок во всей отрасли. В китайских СМИ Seedance 2.0 сравнили как раз с фурором DeepSeek, и даже глава xAI Илон Маск (Elon Musk) отметил быстрый прогресс китайских разработчиков. Успеху проекта порадовались и пользователи китайской соцсети Weibo — они опубликовали множество созданных Seedance 2.0 видеороликов, в которых продемонстрировали сложность и высокое качество изображения вне зависимости от того, насколько неожиданным был запрос. В одном из роликов звёзды Канье Уэст (Kanye West) и Ким Кардашьян (Kim Kardashian) оказались персонажами драмы в дворцовом сеттинге времён Китайской империи — говорили и пели они тоже по-китайски. На Weibo завирусились связанные с Seedance 2.0 хэштеги — во всеобщем ликовании поучаствовала даже государственная газета Beijing Daily. Nvidia выпустит динамическую мультикадровую генерацию и режим MFG x6 уже весной
06.02.2026 [12:39],
Николай Хижняк
Nvidia выпустит новую технологию динамического мультикадрового генератора (Dynamic Multi Frame Generation) и мультикадрвый генератор с режимом x6 весной этого года. Об этом в разговоре с журналистами немецкого портала HardwareLuxx рассказал представитель компании.
Источник изображений: Nvidia На выставке CES 2026 в начале января Nvidia представила динамическую многокадровую генерацию Dynamic Multi Frame Generation как режим, управляемый драйвером, который стремится к обеспечению заданной пользователем частоты обновления монитора, а не использует фиксированный множитель, как обычный многокадровый генератор. Например, для дисплея с частотой обновления 240 Гц требуется, чтобы видеокарта обеспечивала всего 240 кадров в секунду. Статический многокадровый генератор может превысить это целевое значение, обеспечивая, например, 280 или 300 кадров в секунду в зависимости от сцены, тратя на это дополнительные ресурсы. С помощью динамической многокадровой генерации драйвер может переключаться между множителями в зависимости от нагрузки на графическую систему при той или иной игровой сцене. Он может включать как множитель x6 в более ресурсоёмких участках, так и снижать его до x3 или x2 при снижении нагрузки. Множитель может меняться постоянно. В рамках демонстрации, с которой ознакомился HardwareLuxx, не было отмечено никаких проблем даже при частом переключении. «Технология динамического мультикадрового генератора, а также новый режим x6 для многокадрового генератора Nvidia запланированы на весну 2026 года», — пишет HardwareLuxx. Nvidia уже предлагает функцию мультикадрового генератора (Multi Frame Generation, MFG) для владельцев видеокарт GeForce RTX 50-й серии. Она генерирует до трёх промежуточных кадров между двумя реальными. Это даёт четырёхкратный прирост производительности по сравнению с апскейлингом без генерации. Компания Intel недавно выпустила аналогичную технологию в составе программного пакета XeSS 3, но её официальная поддержка пока осуществляется только для встроенной графики процессоров Panther Lake. У AMD нет аналога мультикадрового генератора — компания предлагает технологию AMD Fluid Motion Frames (AFMF), которая генерирует только один промежуточный кадр между двумя реальными. Meta✴ запустит отдельное приложение для ИИ-бурды — Vibes
06.02.2026 [12:06],
Павел Котов
Meta✴✴ разрабатывает отдельное приложение для сервиса Vibes — ленты видеороликов, созданных искусственным интеллектом. Сервис дебютировал как одна из функций в приложении Meta✴✴ AI в сентябре 2025 года. Как и OpenAI Sora, Vibes позволяет пользователям Meta✴✴ AI генерировать вертикальные ролики в стиле TikTok.
Источник изображения: Daria Nepriakhina / unsplash.com «После успешного запуска Vibes в Meta✴✴ AI мы тестируем отдельное приложение, чтобы развить этот успех. Видим, что пользователи всё чаще используют этот формат для создания, поиска и обмена сгенерированными ИИ видеороликами с друзьями. Отдельное приложение обеспечит выделенную площадку для этого, предложив людям более целенаправленную и соответствующую среду. Мы будем стремиться и далее расширять приложение на основе того, что узнали от сообщества», — заявили в Meta✴✴. Компания не уточнила, каков в действительности размер аудитории Vibes, но отметила, что с момента появления этого раздела увеличилась и аудитория самого приложения Meta✴✴ AI. Новое приложение поможет добавить свежие функции, не перегружая ими старое. Генерируемый ИИ контент имеет шансы стать новым источником вовлечённости пользователей на платформах, считают в Meta✴✴, — компания намеревается увеличить присутствие таких материалов в рекомендациях. Приложение Sora, выступающее прямым конкурентом перспективного Meta✴✴ Vibes, продолжает развиваться. OpenAI даже заключила соглашение с Disney, позволяющее пользователям использовать принадлежащих компании персонажей в творчестве ИИ. Не исключено, что аналогичные сделки заключит и Meta✴✴. Amazon ускорит и удешевит производство фильмов с помощью искусственного интеллекта
05.02.2026 [07:01],
Анжелла Марина
Amazon намерена использовать искусственный интеллект (ИИ) в создании фильмов, чтобы сократить время на их производство и сделать в целом процесс значительно дешевле. В компании уверены, что это поможет снимать больше картин, не заменяя при этом творческих специалистов.
Источник изображения: Thibault Penin/Unsplash Для реализации этих планов в августе прошлого года было создано подразделение под названием AI Studio в телестудии Amazon MGM Studios. AI Studio работает по принципу стартапа, в задачи которого входит разработка специализированных сервисов для снижения стоимости производства и упрощения творческого цикла, а руководит всем процессом Альберт Чэн (Albert Cheng). Первое закрытое тестирование новых инструментов с участием отраслевых партнёров начнётся в марте, как сообщает Reuters, а к маю компания рассчитывает продемонстрировать конкретные результаты этой работы. Необходимость использования нейросетей продиктована резким ростом производственных бюджетов, который ограничивает количество запускаемых в работу проектов. По словам Чэна, создание контента стало настолько дорогостоящим процессом, что компаниям сложно идти на творческие риски. Он убеждён, что искусственный интеллект ускорит работу, но не заменит уникальный вклад людей. Внедрение ИИ-технологий происходит на фоне серьёзных опасений в индустрии. Многие известные актёры ранее выражали тревогу по поводу того, что развитие цифровых двойников может лишить их работы. В ответ на это руководство Amazon пояснило, что сценаристы, режиссёры и актёры останутся вовлечёнными в процесс на всех этапах. Техническая реализация проекта опирается на вычислительные мощности подразделения Amazon Web Services (AWS) и использование ИИ-моделей от поставщиков-партнёров. Особое внимание уделяется защите авторских прав — контент, созданный с помощью ИИ, не будет использоваться для обучения других моделей искусственного интеллекта. Архивы Николы Тесла вдохновили на новый метод выработки электричества — бесконтактным трением
30.01.2026 [19:50],
Геннадий Детинич
Учёные из Университета Чунг-Анг (Chung-Ang University) в Южной Корее вместе с коллегами из США и Тайваня разработали новый метод генерации электричества, вдохновлённый конструкцией турбины Николы Теслы. Она работает на сжатом воздухе и не использует лопатки. Конструкция представляет собой набор гладких дисков на оси, вдоль которых нагнетается воздух, а электричество на дисках-электродах создаётся за счёт электростатики на границе раздела сред воздуха и металла.
Источник изображения: ИИ-генерация ChatGPT 5.2/3DNews Традиционные трибоэлектрические — основанные на эффекте трения — наногенераторы работают с низкоскоростными потоками воздуха или жидкостей, но команда исследователей решила проверить, что произойдёт при воздействии на турбины воздухом высокого давления. В результате была создана установка, способная извлекать энергию благодаря бесконтактному перемещению находящихся в воздухе частиц пыли между дисками турбины Теслы, не требуя механического контакта с поверхностями.
Источник изображения: Chung-Ang University Основой установки стала структура, представленная Николой Теслой ещё в начале прошлого века: рабочая среда — сжатый воздух — приводит в движение пакеты дисков, между которыми создаются заряды на трибонегативных и трибопозитивных слоях. Воздушный поток вызывает вращение дисков турбины без механического трения с их поверхностями, а возникающие электрические заряды индуцируют электростатическое напряжение на электродах ротора. Такой принцип позволяет устройству работать как контактно-независимый трибоэлектрический генератор, но с гораздо более высокой частотой выходного напряжения по сравнению с обычными трибоэлектрическими наногенераторами. В эксперименте разработанный генератор продемонстрировал впечатляющие характеристики: при скорости вращения около 8472 об/мин устройство выдавало до 800 В и 2,5 А на частоте около 325 Гц. Такие показатели свидетельствуют о высоком потенциале метода для практического получения энергии из потоков сжатого воздуха.
Источник изображения: Advanced Energy Materials 2025 Авторы работы показали, что генератор способен не только производить электроэнергию, но и выполнять практические функции: питать электронные устройства, способствовать конденсации воды из влажного воздуха и удалять взвешенные частицы пыли из воздушных потоков. Они видят потенциал применения такой технологии в промышленных условиях, где имеются большие объёмы сжатого воздуха и отходящие потоки, а также для регулирования влажности и очистки воздуха за счёт генерации отрицательных ионов. Например, такие генераторы можно было бы устанавливать на колёсные диски транспорта для питания бортовой электроники. Google открыла широкий доступ к Genie — ИИ-генератору игровых миров
30.01.2026 [11:43],
Павел Котов
В августе Google представила Genie 3 — «универсальную модель мира, способную генерировать разнообразные игровые среды». Теперь подписчики тарифного плана Google AI Ultra из США могут поработать с ней на платформе Project Genie.
Источник изображения: Google Задача модели мира — имитировать динамику окружающей среды, предсказывать её развитие, изменения под влиянием различных действий; система призвана ориентироваться в разнообразии реального мира. Экспериментальный исследовательский прототип предлагает пользователю описать некое пространство на свой выбор, ответив на вопрос «Как выглядит твой мир?», и способ перемещения по этому миру: ходьба, езда, полёт — и точку зрения, от первого или третьего лица. Далее описывается основной персонаж — это может быть человек, животное, кто-то или что-то ещё, — после чего Project Genie генерирует эскиз при помощи модели Nano Banana Pro. Пользователь получает представление, как будет выглядеть генерируемый мир, и может внести изменения, прежде чем переместиться в него. Фотореалистичные миры генерируются в разрешении 720p, взаимодействие с ними отображается с частотой от 20 до 24 кадров в секунду; время сеанса ограничено 60 секундами. При движении Genie 3 «на основе ваших действий генерирует путь в реальном времени»; физика и взаимодействие с объектами моделируются с «прорывной стабильностью», уверяет Google. Есть возможность регулировать положение камеры и скачивать видео прогулок по виртуальным мирам. Ещё одна функция — создание ремиксов миров по текстовым запросам или через рандомизатор. Помимо 60-секундного ограничения, Google предупредила, что созданный ИИ мир может выглядеть не вполне реалистично, не всегда в точности «соответствовать запросам, изображениям и законам физики реального мира». Пользовательские персонажи также не идеальны — они «могут быть не вполне управляемыми или иметь большую задержку в управлении». Открыв доступ к Project Genie, компания Google стремится «лучше понять, как люди будут использовать модели мира в различных областях — для исследований в области ИИ и генеративных медиа». На практике у технологии есть перспективы в «робототехнике и моделировании, анимации и художественной литературе, а также в исследовании локаций и исторических мест», считают в Google. Работать с сервисом могут пользователи в возрасте от 18 лет. Учёные придумали термодинамический компьютер, который генерирует изображения в 10 млрд раз энергоэффективнее ИИ
28.01.2026 [15:43],
Павел Котов
Американские учёные предложили использовать в генераторах изображений на основе искусственного интеллекта технологию термодинамических вычислений — она позволяет сократить энергетические затраты на некоторые операции на величину до 10 млрд раз.
Источник изображения: Steve Johnson / unsplash.com Модели генеративного ИИ, в том числе DALL-E, Midjourney и Stable Diffusion, создают фотореалистичные изображения, но потребляют при этом огромное количество энергии. Это диффузионные модели. При обучении им подают большие наборы изображений, к которым постепенно добавляют шум, пока картинка не станет похожей на помехи в старом телевизоре. Далее нейросеть овладевает обратным процессом и генерирует новые изображения по запросу. Проблема в том, что вычисления для алгоритмов ИИ с добавлением и последующим удалением шума потребляют слишком много энергии — термодинамические вычисления позволяют сократить их несоразмерно возможностям современного цифрового оборудования, рассказали в Национальной лаборатории имени Лоуренса в Беркли (Калифорния). При термодинамических вычислениях используются физические схемы, которые меняют параметры в ответ на шум, например вызванный случайными тепловыми перепадами в окружающей среде. Стартап Normal Computing построил чип на основе восьми соединённых друг с другом резонаторов — соединители подключаются сообразно типу решаемой чипом задачи. Далее резонаторы подвергаются воздействию внешней среды, вносят шум в цепь и таким образом выполняют вычисления. После того как система достигает состояния равновесия, решение считывается из новой конфигурации резонаторов. Учёные Национальной лаборатории имени Лоуренса в Беркли показали, что можно построить термодинамическую версию нейросети. Эта методика закладывает основу для генерации изображений с помощью термодинамических вычислений. В термодинамический компьютер вводится набор изображений, далее компоненты компьютера подвергаются естественным воздействиям среды до тех пор, пока связи, соединяющие эти компоненты, не достигают состояния равновесия. Далее вычисляется вероятность того, что термодинамический компьютер с заданным состоянием связей сможет обратить этот процесс, и значения этих связей корректируются, чтобы повысить эту вероятность до максимальной. Симуляции подтвердили, что можно построить термодинамический компьютер, настройки которого помогут генерировать изображения рукописных цифр. Это достигается без энергоёмких цифровых нейросетей или создающего шум генератора псевдослучайных чисел. По сравнению с цифровыми нейросетями термодинамические компьютеры пока примитивны, признают учёные, и как проектировать их для работы на уровне DALL-E, они пока не знают. Но в аспекте энергоэффективности они обещают значительное преимущество. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |