|
реклама
Быстрый переход
ИИ-модели Gemini позволили анализировать снимки в «Google Фото», но пока не у всех пользователей
15.04.2025 [12:38],
Владимир Фетисов
Компания Google начала интеграцию своей нейросети Gemini в сервис «Google Фото». Благодаря этому пользователи теперь имеют возможность объединения Gemini со своим аккаунтом в «Google Фото», благодаря чему можно искать нужные снимки на основе текстовых запросов об их содержимом. На данный момент нововведение доступно только на территории США для запросов на английском языке. ![]() Источник изображения: BoliviaInteligente / Unsplash Согласно имеющимся данным, упомянутое нововведение доступно для всех пользователей устройств на базе Android, у которых установлено приложение Gemini. Для активации интеграции необходимо запустить приложение Gemini и в настройках профиля активировать соответствующую опцию. После этого алгоритм сможет помочь отыскать снимки, например, по сделанным пользователем меткам, местоположению, дате съёмки или описанию того, что изображено на фотографии. После того, как Gemini отобразит список найденных объектов, пользователь может нажать на миниатюру какого-то конкретного снимка или альбома, чтобы открыть его в «Google Фото». При необходимости снимки можно по одному перетаскивать из окна Gemini в другие приложения. Google не объявляла, когда интеграция Gemini с сервисом «Google Фото» станет доступна за пределами рынка США и получит поддержку большего количества языков. Вероятно, это произойдёт после того, как разработчики убедятся в том, что алгоритм работает полностью корректно. Google оставила миллионы смартфонов без обновлений безопасности — поддержка Android 12 прекращена
14.04.2025 [22:41],
Анжелла Марина
Пользователи устройств на базе Android 12 и 12L больше не будут получать обновления безопасности от Google. Компания прекратила поддержку этих версий операционной системы с 31 марта 2025 года. Производители устройств теперь самостоятельно должны исправлять уязвимости, однако не все смогут это делать. ![]() Источник изображения: AI Согласно апрельскому бюллетеню безопасности Android, опубликованному на прошлой неделе, исправления уязвимостей больше не выпускаются для Android 12 и 12L, а владельцы устройств с этими версиями ОС остаются без официальной защиты от новейших киберугроз. Как сообщает портал Android Authority, мартовский бюллетень безопасности стал последним, в котором упоминались патчи для этих систем. ![]() Источник изображения: wikipedia.org Производители устройств, желающие продолжить поддержку Android 12, должны самостоятельно внедрять обновления безопасности. Это возможно для крупных компаний, например, Huawei, чья оболочка EMUI, разработанная компанией для своих смартфонов, до сих пор основана на Android 12. Но это может стать проблемой для брендов с ограниченными ресурсами. Эксперты рекомендуют рассмотреть возможность обновления Android 12 или 12L до более современной версии ОС либо замену устройства. Хотя приложения Google и модули Project Mainline (система обновлений компонентов) могут продолжать получать обновления, ядро системы останется уязвимым. Поэтому специалисты советуют использовать устройства на этих операционных системах лишь в качестве медиаплеера или камеры видеонаблюдения. Напомним, Android 12 был выпущен 4 октября 2021 года, а Android 12L — 7 марта 2022 года. Таким образом, срок поддержки составил около 3,5 лет, что соответствует стандартной практике Google по обеспечению безопасности предыдущих версий Android. Google создала ИИ-модель DolphinGemma для общения с дельфинами
14.04.2025 [18:45],
Сергей Сурабекянц
Дельфины считаются одними из самых умных существ на планете. Они умеют сотрудничать, обучать друг друга новым навыкам и узнавать себя в зеркале. Десятилетиями учёные пытаются понять сложный набор свистов и щелчков, которые дельфины используют для общения. Похоже, что исследователи вскоре смогут существенно продвинуться в этом вопросе при помощи новой открытой ИИ-модели от Google и смартфонов Pixel. ![]() Источник изображений: Google В поисках новых областей для применения генеративного ИИ Google заинтересовалась сотрудничеством с проектом Wild Dolphin Project (WDP). Эта группа исследователей изучает поведение и взаимоотношения сообщества атлантических пятнистых дельфинов с 1985 года. Одной из главных задач, стоящих перед WDP, является анализ влияния издаваемых дельфинами звуков на их социальное взаимодействие. Понимание структуры и паттернов «голосового общения» дельфинов необходимо для определения того, достигает ли оно уровня полноценного языка. «Мы не знаем, есть ли у животных слова», — говорит Дениз Херцинг (Denise Herzing) из WDP. ![]() Источник изображения: Wild Dolphin Project Благодаря десятилетиям подводных записей исследователям удалось связать некоторые базовые действия с определёнными звуками. Например, им удалось выявить характерные свисты, которые, по-видимому, используются как имена, что позволяет двум особям находить друг друга на большом расстоянии. Дельфины также постоянно издают звуковые паттерны, названные учёными «пронзительный крик», во время конфликтов. Конечная цель WDP — заговорить на дельфиньем языке, если он действительно существует. Это стремление привело к созданию огромного, тщательно размеченного набора данных, который слишком трудоёмок для анализа человеком, но, по словам Google, идеально подходит для обработки с помощью генеративного ИИ. Генеративная ИИ-модель DolphinGemma основана на открытых моделях искусственного интеллекта Gemma от Google. Она использует разработанную Google аудиотехнологию SoundStream. Модель была обучена с использованием акустического архива проекта Wild Dolphin. Команда надеется, что DolphinGemma поможет выявить сложные закономерности, которые позволят создать общий словарь. DolphinGemma работает так же, как языковые модели, ориентированные на человека: она получает запрос и предсказывает следующий токен. Учёные полагают, что эти предсказанные токены могут оказаться звуковыми последовательностями, которые будут поняты дельфинами. ![]() Google разработала DolphinGemma с учётом исследовательского подхода WDP. Учёные используют телефоны Pixel в полевых условиях, что накладывает дополнительные требования к модели. Запуск моделей ИИ на смартфоне — сложная задача из-за ограниченных ресурсов. Чем больше и функциональнее модель, тем больше оперативной памяти и вычислительных мощностей ей требуется. DolphinGemma обучена примерно на 400 миллионах параметров, что совсем немного для типичных современных моделей, количество параметров которых исчисляется десятками миллиардов. В течение последних нескольких лет WDP использует устройство, созданное в Технологическом институте Джорджии, под названием CHAT (Cetacean Hearing Augmentation Telemetry), на основе смартфона Pixel 6. Команда применяет CHAT для записи, прослушивания и синтеза голосов дельфинов. ![]() Источник изображения: Georgia Institute of Technology На летний исследовательский сезон 2025 года Google предоставит членам команды WDP смартфоны Pixel 9, что позволит CHAT одновременно запускать модели глубокого обучения и алгоритмы сопоставления шаблонов. Учёные на данном этапе не планируют передавать сгенерированные DolphinGemma звуки непосредственно в CHAT, то есть оба подхода будут использоваться параллельно. Конечно, маловероятно, что DolphinGemma и новый CHAT мгновенно позволят людям запросто общаться с дельфинами, но есть надежда, что со временем система обеспечит хотя бы базовое взаимодействие. Как и другие модели Gemma, DolphinGemma является проектом с открытым доступом. Google сделает модель общедоступной уже этим летом. Хотя DolphinGemma была обучена на звуках атлантических пятнистых дельфинов, Google предполагает, что её можно будет адаптировать и для других видов китообразных. В завершение трудно удержаться и не процитировать отрывок из романа Дугласа Адамса ( Douglas Noël Adams) «Автостопом по Галактике»: «Важный и широко известный факт: не всегда то, что кажется — правда. Например, на планете Земля человек всегда считал, что он разумнее дельфинов потому, что многого достиг — придумал колесо, Нью-Йорк, войны и так далее — в то время, как дельфины только тем и занимались, что развлекались, кувыркаясь в воде. Дельфины же, со своей стороны, всегда считали, что они намного разумнее людей — именно по этой причине». И ещё одна цитата — из книги «Человек-дельфин» знаменитого ныряльщика Жака Майоля ( Jacques Mayol): «Что же тогда? Чего мы хотим добиться? …А я отвечу вам : нам надо избавиться от нашего эгоизма, от этого подлого чудовища, которое в конце концов обернётся против человека и сотрёт его с лица земли к большой пользе всех других живущих видов, и прежде всего дельфина. Мы же лицемерны. Человек обожает дельфинов! Да, для своего личного удовольствия, чтобы сделать из них вассалов, домашних слуг, рабов, роботов, несущих на спине бомбы. И он близок к этому». Google устранила уязвимость в Chrome, существовавшую 23 года
14.04.2025 [15:21],
Анжелла Марина
Google закрыла уязвимость в веб-обозревателе Chrome, которая могла раскрывать историю посещённых пользователем сайтов. Проблема существовала с начала 2000-х годов и была связана с тем, как браузеры отображают посещённые ссылки. ![]() Источник изображения: Solen Feyissa / Unsplash Чтобы отобразить ссылки, которые пользователь посещал ранее (они помечаются фиолетовым цветом), браузер должен отслеживать эти страницы с помощью каскадных таблиц стилей через селектор :visited. Как объяснили в Google, суть ошибки заключалась в том, что информация о том, какие ссылки пользователь уже посещал, сохранялась без разделения конфиденциальности между посещаемыми сайтами. То есть, любой сайт мог определить, была ли ранее нажата определённая ссылка, даже если она отображалась на совершенно другом ресурсе. ![]() Источник изображения: developer.chrome.com «Вы просматриваете сайт A и кликаете по ссылке на сайт B. Позже вы заходите на условно вредоносный сайт C, который тоже содержит ссылку на сайт B. Он может узнать, что вы уже были на сайте B, просто определив ссылку по цвету», — пояснили в Google. ![]() Источник изображения: developer.chrome.com
Впервые на проблему обратил внимание исследователь безопасности Эндрю Кловер (Andrew Clover) ещё в 2002 году. Он визуально продемонстрировал все этапы возможной атаки, опираясь на исследовательскую статью Принстонского университета «Timing Attacks on Web Privacy». Исправление уже включено в бета-версию обновления Chrome 136. Теперь информация о посещённых ссылках будет храниться отдельно для каждого сайта и не будет передаваться между ресурсами. YouTube против цифровой зависимости — пользователи смогут вводить самоограничение на просмотр Shorts
13.04.2025 [21:04],
Владимир Мироненко
YouTube в будущем может предложить функцию, которая позволит пользователям устанавливать таймер для ограничения времени, затраченного на просмотр коротких видео Shorts. Как сообщает Android Authority, в коде бета-версии приложения YouTube 20.15.32 было обнаружено описание специального ежедневного таймера, который останавливает просмотр коротких видео после достижения установленного пользователем дневного лимита. ![]() Источник изображения: NordWood Themes/unsplash.com Представитель YouTube подтвердил ресурсу TechCrunch, что, хотя эта функция в настоящее время не проходит публичное тестирование, компания изучает возможность её внедрения в будущем. Согласно коду, ежедневный таймер позволяет пользователям устанавливать определённое количество времени для просмотра Shorts, и по истечении этого лимита воспроизведение видео в соответствующем разделе станет недоступным до конца дня. При этом пользователи всё равно смогут просматривать отдельные Shorts, появляющиеся в других местах на платформе (например, в ленте новостей или в результатах поиска). То есть доступ ко всем коротким видео не будет полностью заблокирован. На YouTube уже существует возможность установки напоминания «Сделайте перерыв», которую пользователи могут включать для обычных видео. Для некоторых людей привычка бесконечно просматривать короткие видео на интернет-платформах может стать серьёзной проблемой. Исследования показывают, что чрезмерное использование приложений для просмотра коротких видео связано с такими последствиями, как ухудшение концентрации, плохое управление временем и снижение способности к обучению. По данным Google, YouTube Shorts собирает более 70 миллиардов просмотров ежедневно. Платформа активно продвигает Shorts, внедряя простые в использовании инструменты для создания контента. Однако теперь, по всей видимости, Google начинает осознавать, какой вред такие видеоформаты могут наносить пользователям, отмечает Android Authority. AR-очки Google на платформе Android XR выпустит Samsung в 2026 году
12.04.2025 [11:21],
Владимир Фетисов
В этом месяце Google представила прототип очков дополненной реальности (AR), построенных на базе программной платформы Android XR, объединяющей искусственный интеллект, дополненную и виртуальную реальность (VR), а также предлагающей взаимодействие с устройствами смешанной реальности (XR). Теперь стало известно, что это устройство выйдет на рынок в следующем году в качестве продукта компании Samsung. Ранее ожидалось, что очки поступят в продажу уже в этом году. ![]() Источник изображения: Google Прототип очков представил вице-президент Google и глава подразделения Android XR Шахрам Изади (Shahram Izadi) на конференции TED2025. Тем не менее Google не заявляла о своём намерении выпустить этот продукт на массовый рынок. Теперь же стало известно, что очки всё-таки поступят в продажу под брендом Samsung. По данным издания Korea Economic Daily, прототип очков Google и будущие очки Samsung — это одно и то же устройство, которое выйдет на рынок в следующем году. «<…> Две технологические компании совместно работают над созданием новых смарт-очков, выпуск которых запланирован на следующий год», — говорится в сообщении журналистов со ссылкой на осведомлённый источник. Там также отмечается, что обе компании представили изображения разрабатываемых смарт-очков на мероприятии XR Unlock, которое прошло на кампусе Google в Нью-Йорке в декабре прошлого года. Умные часы Google Pixel Watch 4 показались на изображениях — найти отличия от актуальных сложно
11.04.2025 [18:33],
Павел Котов
Достоянием общественности стали изображения смарт-часов Google Pixel Watch 4 — их опубликовали ресурс 91mobiles и инсайдер Стив Хеммерстоффер (Steve Hemmerstoffer), известный также под псевдонимом OnLeaks. Устройство кажется очень похожим на модель предыдущего поколения: круглый дисплей и колёсико на боковой грани. ![]() Источник изображений: 91mobiles.com Изменения всё-таки есть, но они не слишком заметны, утверждают авторы утечки: Pixel Watch 4 стали толще актуальной модели — 14,3 мм против 12,3 мм. Хочется верить, что с увеличением толщины выросла и ёмкость аккумулятора. Также немного уменьшилась толщина рамок, сообщает ресурс, однако определить это визуально непросто. ![]() Особый интерес вызывает отсутствие зарядных контактов у Pixel Watch 4. Это даёт основание полагать, что умные часы нового поколения будут работать исключительно с беспроводной зарядкой, тогда как для текущей версии требуется магнитное зарядное устройство. По обе стороны от динамика на боковой грани, как утверждает источник, появились кнопки, однако визуально сложно с уверенностью сказать, действительно ли эти выступы являются кнопками. ![]() Google традиционно выпускает новые Pixel Watch в сентябре или октябре, поэтому умные часы четвёртого поколения ожидаются осенью. С другой стороны, смартфоны Pixel 9 и Pixel 9a компания представила раньше, чем ожидалось — не исключено, что сроки анонса Pixel Watch 4 тоже будут сдвинуты. Google уволила сотни сотрудников отделов Pixel и Android
11.04.2025 [14:58],
Павел Котов
В январе Google предложила всем желающим работникам отдела, ответственного за разработку Android, Chrome и Pixel покинуть компанию по собственной инициативе — теперь им выбора не дали, и «несколько сотен» сотрудников подразделения попали под увольнение. ![]() Источник изображения: BoliviaInteligente / unsplash.com Google подтвердила «сокращение рабочих мест» изданию The Information и добавила, что «сосредоточена на том, чтобы стать более гибкой и работать более эффективно». Покупатели гаджетов Google и пользователи её программных продуктов едва ли ощутят последствия этой меры — радикальных перемен по этим направлениям не предвидится. Подразделение «Платформы и устройства» (Platforms & Devices) охватывает все версии Android (в том числе Auto, TV, Wear OS и XR), браузер Chrome, платформу ChromeOS, а также сервисы Google Photos и Google One. Этот же отдел отвечает за устройства семейств Pixel, Fitbit и Nest. Крупная структурная единица во главе со старшим вице-президентом Риком Остерло (Rick Osterloh) была сформирована в апреле 2024 года в результате слияния отделов «Платформы и экосистемы» (Platforms & Ecosystems) и «Устройства и сервисы» (Devices & Services). Объявив о программе выкупа акций, Google попыталась ответить на критику, которую спровоцировали предыдущие волны увольнений, поскольку тогда компания не дала людям возможности заранее уйти по собственному желанию. Актуальными целями компании провозглашаются «скорость и эффективность» — она воспринимает их как мандат на дальнейшие преобразования. В Google Chrome для Android увеличилась область содержимого
10.04.2025 [15:40],
Павел Котов
С обновлением Google Chrome 135 область содержимого в браузере увеличилась до максимально возможной — теперь она протянулась от верхнего до нижнего края экрана, а элементы интерфейса появляются лишь при прокрутке страницы вверх. ![]() Источник изображений: developer.chrome.com При прокрутке страницы вниз панель жестовых команд в Chrome 135 стала отображаться без фоновой заливки, прямо поверх содержимого активной страницы. В действительности область видимости для пользователя радикально не вырастет, но для браузера это долгожданное нововведение, которое развернули уже многие прогрессивные разработчики приложений. Фон для панели показывается лишь при первоначальной загрузке сайта, исчезает при прокрутке страницы вниз и возвращается при прокрутке вверх — аналогичным образом ведёт себя панель с адресной строкой браузера. ![]() Google уже начала распространять обновление Chrome 135 через «Play Маркет», но область содержимого пока увеличилась не во всех вариантах браузера, а только для устройств с «маленькими экранами» — поддержка больших экранов, то есть планшетов появится позже. Кроме того, нововведение коснулось лишь панели жестовых команд, но не навигации с традиционными тремя кнопками, хотя и она также стала бы привлекательнее без заливки на экранной панели. Google показала живьём прототип AR-очков под управлением Android XR
09.04.2025 [19:35],
Сергей Сурабекянц
В конце 2024 года Google представила ОС Android XR, разработанную в сотрудничестве с Samsung и Qualcomm. Платформа Android XR объединяет ИИ, дополненную (AR) и виртуальную реальность (VR), предлагая взаимодействие с устройствами смешанной реальности (XR, extended reality). Сегодня на мероприятии TED2025 руководитель Android XR Шахрам Изади (Shahram Izadi) использовал во время своего доклада прототип очков XR для демонстрации некоторых функций устройства. Google специально для Android XR выпустила XR-версии «Карт», YouTube, Chrome и других приложений. Сейчас компания работает над многооконной версией браузера для работы в режиме XR и поддержкой уже существующих приложений в Google Play. Помимо интерфейса, Android XR отличается от «обычной» ОС расширенным набором функций на базе мультимодальной ИИ-модели Gemini, которая, по словам Google, значительно расширит функциональность XR-гаджетов. В настоящее время Google и Samsung работают над выпуском устройств под управлением Android XR с использованием всех последних достижений Google в области ИИ. Google сделала ставку на форм-фактор очков, в то время как Samsung разрабатывает что-то похожее на Apple Vision Pro. Пока о гаджетах Google на базе Android XR известно крайне мало, но выступление Изади в таких очках подтверждает серьёзность намерений компании. Очки, которые использовал Изади, не отличались от ранее попавших в интернет изображений прототипов. Был продемонстрирован процесс перевода с фарси на английский язык, распознавание изображений и взаимодействие между устройствами Android и очками. Также была показана гарнитура XR от Samsung, где акцент сделан на многооконном режиме работы, реализации многозадачности и просмотре VR-контента. ![]() Никакой конкретной информации о возможных сроках выпуска потребительских продуктов на ОС Android XR предоставлено не было. ИИ-помощник программиста Google Gemini Code Assist научился писать приложения по описанию и переводить код из одного языка в другой
09.04.2025 [18:32],
Сергей Сурабекянц
На конференции Cloud Next представитель компании сообщил, что ИИ-помощник по кодированию Code Assist теперь умеет развёртывать новых ИИ-агентов. Они могут создавать приложения из спецификаций продуктов в Google Docs или выполнять преобразования кода с одного языка на другой. Code Assist теперь доступен в Android Studio в дополнение к другим средам программирования. ![]() Источник изображения: Google Обновления Code Assist являются ответом на конкурентное давление со стороны таких компаний, как GitHub Copilot, Cursor и Cognition Labs, создателя вирусного инструмента программирования Devin. Рынок помощников по кодированию на основе искусственного интеллекта растёт с каждым месяцем, а его ёмкость оценивается в миллиарды долларов. Агенты Code Assist, которыми можно управлять с новой доски Gemini Code Assist Kanban, могут создавать рабочие планы и отчитываться о пошаговом прогрессе по запросам на работу. Помимо создания программного обеспечения и миграции кода, агенты могут внедрять новые функции приложений, выполнять проверки кода и генерировать модульные тесты и документацию. Пока трудно понять, насколько хорошо работают агенты Code Assist. Исследования показали, что даже лучшие генераторы кода на основе ИИ на сегодняшний день могут допускать ошибки и вносить уязвимости безопасности из-за неспособности понимать логику программирования. На одном из недавних тестов Devin успешно выполнил только три из двадцати задач. Поэтому, при использовании любого ИИ-ассистента для программирования не помешает самостоятельно проверить получившийся код. Мяч с мозгами: Samsung и Google объединились для выпуска домашнего робота Ballie с ИИ Gemini и проектором
09.04.2025 [17:58],
Сергей Сурабекянц
Samsung и Google объединились для запуска Ballie, домашнего робота в форме футбольного мяча, который использует ИИ Gemini для управления умным домом и умеет проецировать видео на стены. Жёлтый шарообразный робот призван, по словам Samsung, «оживить ИИ как друга и настоящего компаньона». С этим устройством обе компании впервые выходят на перспективный рынок потребительской робототехники, который оценивается в миллиарды долларов. ![]() Источник изображений: Samsung Samsung впервые представила Ballie в начале 2020 года на технологической конференции CES, где он произвёл фурор, но путь к выходу домашнего робота на потребительский рынок оказался тернистым. Исполнительный вице-президент Samsung Джей Ким (Jay Kim) сообщил, что актуальное устройство представляет собой «совершенно новый Ballie». Одним из самых больших изменений стало использование моделей ИИ от Google для понимания команд пользователя, подключения к поиску Google и обработки данных с бортовых камер во время навигации по дому. ![]() Ballie работает под управлением операционной системы Tizen от Samsung, которая также используется во многих устройствах компании, что обеспечивает ему доступ к таким поставщикам контента, как YouTube, Netflix и собственный сервис Samsung TV Plus. Робот использует платформу Samsung SmartThings для управления умными домашними устройствами, календарями и напоминаниями, ответа на вопросы, совершения и приёма телефонных звонков и воспроизведения видео через встроенный проектор. Он также использует модели ИИ от Samsung для таких функций, как доступ к персональным данным и погоде. ![]() «Сложно описать систему, которая может чувствовать, двигаться и взаимодействовать так естественно, как это делает она, — считает генеральный директор Google Cloud Томас Куриан (Thomas Kurian). — Когда вы говорите: “Иди сюда”, она действительно размышляет, как туда попасть. Системе требуется много магии за кулисами, чтобы она заработала». ![]() По словам Кима, Samsung выбрала Google Cloud из-за своей «веры» в возможности Gemini. Эта работа знаменует собой расширение существующих партнёрских отношений по устройствам Android, умным часам и будущей гарнитуре смешанной реальности, которая также появится в конце этого года. Он добавил, что компании уже разрабатывают дополнительные функции для Ballie, включая комплект разработки программного обеспечения для сторонних приложений и видеоконференций. Куриан подчеркнул, что партнёрство с Samsung требует «много настроек и оптимизации […] и это единственное наше партнёрство с таким персонализированным опытом». Устройство сначала поступит в продажу в США и Южной Корее и, по крайней мере, на первых порах будет поддерживать общение только на английском и корейском языках. Google представила Vertex AI Studio — набор ИИ-инструментов для создания готовых к публикации видео
09.04.2025 [17:47],
Владимир Фетисов
Компания Google объявила о запуске Vertex AI Media Studio — набора ИИ-инструментов, с помощью которых пользователи могут создавать видео на основе текстового описания. Сервис построен на базе платформы Vertex AI и объединяет несколько передовых ИИ-моделей для реализации всех аспектов видеопроизводства, включая визуальные эффекты, озвучку и фоновую музыку, не требуя от пользователей навыков в редактировании видео или написании программного кода. ![]() Источник изображения: Steve Johnson/unsplash.com Пользователям предлагается начать процесс работы с создания изображения с помощью ИИ-генератора Imagen 3. Затем полученное изображение можно превратить в видео с помощью алгоритма Veo 2, который также предлагает возможность настройки разных параметров. По данным Google, Veo позволяет выбрать тип движения камеры, например, съёмка с дрона или панорама, а также настроить частоту кадров и продолжительность ролика. Если алгоритм добавит в видео какие-то лишние элементы, их можно легко удалить с помощью инструмента Magic Eraser. После завершения работы над визуальными эффектами пользователю предлагается задействовать ИИ-синтезатор голоса Chirp для создания закадровой озвучки. В завершающей стадии ИИ-модель Lyria, являющаяся совместным творением DeepMind и YouTube, поможет сгенерировать музыкальное сопровождение, которое будет служить фоном для пользовательского видео. Теоретически в конце должно получиться готовое к публикации видео, которые не уступает профессиональному ни с точки зрения происходящего в кадре, ни с точки зрения озвучки. И всё это пользователь может создать в одном сервисе Vertex AI Studio, т.е. по сути том же сервисе, где разработчики тестируют новейшие версии ИИ-модели Gemini. Google представила рассуждающую ИИ-модель Gemini 2.5 Flash с высокой производительностью и эффективностью
09.04.2025 [17:46],
Николай Хижняк
Google выпустила новую ИИ-модель, призванную обеспечить высокую производительность с упором на эффективность. Она называется Gemini 2.5 Flash и вскоре станет доступна в составе платформы Vertex AI облака Google Cloud для развёртывания и управления моделями искусственного интеллекта (ИИ). ![]() Источник изображения: Google Компания отмечает, что Gemini 2.5 Flash предлагает «динамические и контролируемые» вычисления, позволяя разработчикам регулировать время обработки запроса в зависимости от их сложности. «Вы можете настроить скорость, точность и баланс затрат для ваших конкретных нужд. Эта гибкость является ключом к оптимизации производительности Flash в высоконагруженных и чувствительных к затратам приложениях», — написала компания в своём официальном блоге. На фоне растущей стоимости использования флагманских ИИ-моделей Gemini 2.5 Flash может оказаться крайней полезной. Более дешёвые и производительные модели, такие как 2.5 Flash, представляют собой привлекательную альтернативу дорогостоящим флагманским вариантам, но ценой потери некоторой точности. Gemini 2.5 Flash — это «рассуждающая» модель по типу o3-mini от OpenAI и R1 от DeepSeek. Это означает, что для проверки фактов ей требуется немного больше времени, чтобы ответить на запросы. Google утверждает, что 2.5 Flash идеально подходит для работы с большими объёмами данных и использования в реальном времени, в частности, для таких задач, как обслуживание клиентов и анализ документов. «Эта рабочая модель оптимизирована специально для низкой задержки и снижения затрат. Это идеальный движок для отзывчивых виртуальных помощников и инструментов резюмирования в реальном времени, где эффективность при масштабировании является ключевым фактором», — описывает новую ИИ-модель компания. Google не опубликовала отчёт по безопасности или техническим характеристикам для Gemini 2.5 Flash, что усложнило задачу определения её преимуществ и недостатков. Ранее компания говорила, что не публикует отчёты для моделей, которые она считает экспериментальными. Google также объявила, что с третьего квартала планирует интегрировать модели Gemini, такие как 2.5 Flash в локальные среды. Они будут доступны в Google Distributed Cloud (GDC), локальном решении Google для клиентов со строгими требованиями к управлению данными. В компании добавили, что работают с Nvidia над установкой Gemini на совместимые с GDC системы Nvidia Blackwell, которые клиенты смогут приобрести через Google или по своим каналам. Google представила свой самый мощный ИИ-процессор Ironwood — до 4,6 квадриллиона операций в секунду
09.04.2025 [15:56],
Николай Хижняк
В рамках конференции Cloud Next на этой неделе компания Google представила новый специализированный ИИ-чип Ironwood. Это уже седьмое поколение ИИ-процессоров компании и первый TPU, оптимизированный для инференса — работы уже обученных ИИ-моделей. Процессор будет использоваться в Google Cloud и поставляться в системах двух конфигураций: серверах из 256 таких процессоров и кластеров из 9216 таких чипов. ![]() Источник изображений: Google «Ironwood — это наш самый мощный, самый производительный и самый энергоэффективный TPU. Он разработан для ускорения инференса ИИ-моделей в масштабах облачной инфраструктуры», — прокомментировал анонс процессора вице-президент Google Cloud Амин Вахдат (Amin Vahdat). Анонс Ironwood состоялся на фоне усиливающейся конкуренции в сегменте разработок проприетарных ИИ-ускорителей. Хотя Nvidia доминирует на этом рынке, свои технологические решения также продвигают Amazon и Microsoft. Первая разработала ИИ-процессоры Trainium, Inferentia и Graviton, которые используются в её облачной инфраструктуре AWS, а Microsoft применяет собственные ИИ-чипы Cobalt 100 в облачных инстансах Azure. ![]() Google заявляет, что Ironwood обладает пиковой вычислительной производительностью 4614 Тфлопс или 4614 триллионов операций в секунду. Таким образом кластер из 9216 таких чипов предложит производительность в 42,5 Экзафлопс. ![]() Каждый процессор оснащён 192 Гбайт выделенной оперативной памяти с пропускной способностью 7,4 Тбит/с. Также чип включает усовершенствованное специализированное ядро SparseCore для обработки типов данных, распространённых в рабочих нагрузках «расширенного ранжирования» и «рекомендательных систем» (например, алгоритм, предлагающий одежду, которая может вам понравиться). Архитектура TPU оптимизирована для минимизации перемещения данных и задержек, что, по утверждению Google, приводит к значительной экономии энергии. Компания планирует использовать Ironwood в своём модульном вычислительном кластере AI Hypercomputer в составе Google Cloud. |