Сегодня 11 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → gemini
Быстрый переход

Google Gemini поможет в практике иностранных языков — есть и поддержка русского

Google выпустила три экспериментальных проекта на основе технологий искусственного интеллекта, предназначенные для помощи пользователям в изучении иностранных языков. Разработка решений находится на ранних этапах, но большая языковая модель Gemini уже сейчас становится грозным конкурентом Duolingo.

 Источник изображений: googleblog.com

Источник изображений: googleblog.com

Первый экспериментальный проект направлен на быстрое изучение определённых фраз, которые нужны пользователю в данный момент; второй предназначен для того, чтобы сформировать у обучаемого менее формальные навыки иностранного языка и выработать у него манеру общения, более свойственную местным жителям. Третий экспериментальный проект предполагает подключение камеры для формирования нового лексикона на основе окружающих предметов.

Один из наиболее неприятных аспектов при изучении иностранного языка, отмечают в Google, — оказаться в ситуации, когда нужна конкретная фраза, но она ещё не изучена. Экспериментальная функция Tiny Lesson позволяет описать ситуацию, например, «поиски утерянного паспорта» и получить рекомендации по словарному запасу и грамматике, адаптированные к контексту, например: «Я не знаю, где его потерял» или «Я хочу сообщить об этом в полицию».

Вторая экспериментальная функция получила название Slang Hang, её задача — сделать речь обучающегося менее «учебной», то есть менее формальной, более разговорной и обогащённой местным сленгом. Можно смоделировать реалистичный разговор между носителями языка и по каждой реплике проследить, как разворачивается диалог. Это может быть, например, разговор покупателя с уличным торговцем или сценарий встречи двух давно потерявших друг друга приятелей в метро. В рамках этого экспериментального проекта, признались в Google, ИИ иногда неправильно применяет сленг, поэтому его рекомендации лучше сопоставлять с надёжными источниками.

 Источник изображений: googleblog.com

Третий эксперимент получил название Word Cam: пользователь делает снимок окружающих его предметов, Gemini их распознаёт и предлагает названия на изучаемом языке. Иногда на практике требуется знать, как называются предметы вокруг, и эта функция может продемонстрировать, что пользователь ещё многого не изучил. Например, можно знать слово «окно», но не «жалюзи». Идея этих проектов состоит в том, чтобы обозначить новые варианты использования ИИ, сделать самостоятельное изучение языков более динамичным и личностно ориентированным.

Новые экспериментальные функции Google Gemini способны помочь в изучении следующих языков: арабский, китайский (материковый Китай, Гонконг, Тайвань), английский (Австралия, Великобритания, США), французский (Канада, Франция), немецкий, греческий, иврит, хинди, итальянский, японский, корейский, португальский (Бразилия, Португалия), русский, испанский (Латинская Америка, Испания) и турецкий. Доступ к ним открывается через платформу Google Labs.

Google готовит Gemini для детей — ИИ будет под контролем родителей

Google собирается открыть доступ к помощнику с искусственным интеллектом Gemini для детей до 13 лет, чьи устройства контролируются родителями с помощью приложения Family Link. Компания предупредила, что ИИ может вести себя непредсказуемо.

 Источник изображения: blog.google

Источник изображения: blog.google

Google сообщила о намерении выпустить детский вариант Gemini — для этой аудитории предлагаются такие варианты использования, как помощь с домашними заданиями, ответы на вопросы и генерация сказок с учётом возраста ребёнка. Дети смогут взаимодействовать с ИИ-помощником в приложениях для Android, iOS, а также в веб-версии Gemini; на Android службу можно будет установить в качестве помощника по умолчанию.

Учитывая непредсказуемость современных моделей ИИ, Google предупредила пользователей, что «Gemini может допускать ошибки», и порекомендовала родителям научить детей «относиться к ответам Gemini критически». В компании подчеркнули, что ребёнок должен понимать: Gemini — не человек; он может отвечать, как человек, но не обладает сознанием и эмоциями. Поэтому ребёнку следует проверять получаемую информацию и не доверять ИИ конфиденциальные данные. Родителям также стоит учитывать, что механизмы ограничения контента у ИИ не совершенны, и Gemini потенциально может продемонстрировать нежелательные материалы. В связи с этим контроль над системой будет осуществляться через приложение Family Link. О сроках развёртывания детской версии Gemini Google пообещала сообщить дополнительно.

ИИ-помощник Google Gemini появится в автомобилях, умных часах и наушниках

В последние пару лет Google активно интегрирует чат-бота Gemini с искусственным интеллектом в свои продукты: в Gmail, Android, «Google Диск» и другие сервисы. К концу года присутствие чат-бота расширится — он появится на платформе Wear OS для умных часов, Android Auto для автомобилей и в беспроводных наушниках.

 Источник изображения: blog.google

Источник изображения: blog.google

В ходе брифинга после квартального финансового отчёта гендиректор холдинга Alphabet Сундар Пичаи (Sundar Pichai) объявил, что в скором времени Gemini появится на новых устройствах: «Мы обновим Google Assistant на мобильных устройствах до Gemini, а позже в этом году обновим планшеты, автомобили и устройства, которые подключаются к смартфону, такие как наушники и часы». В этом году конференция разработчиков Google I/O запланирована на 20–21 мая — возможно, на ней компания подробнее расскажет о своих планах расширить присутствие Gemini.

Google Gemini уже является помощником по умолчанию на большинстве устройств под управлением Android, но его ещё нет на планшетах, часах с Wear OS, а также умных колонках и дисплеях Google. Планы компании подтвердил анализ бета-версий некоторых приложений. Так, в приложении Google обнаружились фрагменты кода, указывающие, что Gemini появится на Wear OS в качестве «носимого» помощника — вероятно как обновление существующего приложения «Google Ассистент». Сначала компания обновит лишь приложение, а затем усилит интеграцию с выпуском Wear OS 6.

В недавнем выпуске «Google Ассистента» для Android Automotive обнаружились строки, указывающие, что Google усердно работает над переносом Gemini и на автомобильную платформу. Компания разрабатывает модели ИИ, адаптированные для работы в новых областях с большим потенциалом роста, в том числе для робототехники, добавил господин Пичаи.

Google Gemini проиграл ИИ-гонку — пользователи предпочитают ChatGPT и Meta✴ AI

Количество ежемесячных пользователей ИИ Gemini составляет около 350 млн человек, что значительно меньше, чем у ChatGPT от OpenAI и даже у Meta AI. Такая цифра была озвучена в ходе недавно обнародованных данных судебного заседания, в котором Google принимает участие в качестве ответчика.

 Источник изображения: androidauthority.com

Источник изображения: androidauthority.com

По данным The Information, в ходе продолжающегося рассмотрения антимонопольного иска к Google компания на одном из последних судебных заседаний показала слайд, подробно описывающий количество активных пользователей ИИ-помощника Gemini. Согласно этим данным, по состоянию на март 2025 года число активных ежемесячных пользователей Gemini составило 350 млн человек по всему миру. Ежедневно ИИ от Google пользуются около 35 млн человек. Несмотря на отставание от конкурентов, Google увеличила долю пользователей Gemini с октября 2024 года. Тогда ежедневно ИИ-помощником пользовались 9 млн человек, а ежемесячная аудитория составляла 90 млн человек.

Google представила эти цифры в контексте заявления Министерства юстиции США о том, что компании следует запретить расширять своё доминирование в поиске с использованием ИИ. Однако очевидно, что на данный момент Google является аутсайдером в этой области. По сравнению с её показателями OpenAI и Meta значительно опережают её. TechCrunch сообщает, что по состоянию на сентябрь 2024 года число пользователей Meta AI приближалось к 500 млн в месяц, в то время как OpenAI недавно заявила, что еженедельно ChatGPT пользуются более 400 млн человек по всему миру.

Хотя методы расчёта этих данных варьируются от компании к компании, это, безусловно, указывает на значительное отставание Google от OpenAI по числу активных пользователей ИИ-ассистента. Однако остаётся неясным, учитываются ли в данных Google интеграции Gemini в такие продукты, как Workspace и Gmail, у которых, очевидно, гораздо более широкая пользовательская база.

Google призналась, что платит Samsung «огромные деньги» за предустановку Gemini на Galaxy

Недавно суд признал Google виновной в нарушении антимонопольного законодательства — компания платила производителям смартфонов за предустановку своей поисковой системы. Сегодня выяснилось, что Google аналогичным образом стала финансировать предустановку ИИ Gemini на устройства Samsung Galaxy. Этот факт признал вице-президент Google по платформам и партнёрским устройствам Питер Фицджеральд (Peter Fitzgerald) во время другого судебного разбирательства.

 Источник изображения: androidauthority.com

Источник изображения: androidauthority.com

На проходящих трёхнедельных слушаниях Министерство юстиции США в рамках антимонопольного дела против Google потребовало разделить компанию с рыночной капитализацией $1,81 трлн. Этот процесс может кардинально изменить облик технологического гиганта и существенно повлиять на расстановку сил в Кремниевой долине.

На судебном процессе Фицджеральд сообщил, что ежемесячные платежи за предустановку Gemini на устройства Samsung Galaxy начались в январе, а контракт рассчитан как минимум на два года. Общая сумма не разглашается, но представитель Министерства юстиции заявил, что Google платит Samsung «огромные деньги». Кроме того, по словам Фицджеральда, контракт предусматривает получение Samsung процента от дохода от рекламы, отображаемой в Gemini.

Эти показания могут доставить серьёзные юридические неприятности Google в дополнение к уже имеющимся. На днях Министерство юстиции США выиграло судебный процесс против компании, обвинив Google в монопольном положении в сфере рекламных технологий. Суд постановил, что Google «умышленно участвовала в серии антиконкурентных действий», а антиконкурентная практика технологического гиганта нанесла «существенный вред» клиентам и пользователям.

Теперь суд приобщит к текущему судебному иску показания Фицджеральда, чтобы принять окончательное решение об изменениях, которые Google придётся внести в свой бизнес в случае юридического поражения.

Гендир Google DeepMind рассказал о будущем ИИ и появлении у него самосознания

Генеральный директор Google DeepMind Демис Хассабис (Demis Hassabis) в течение часа рассказывал журналистам о перспективах Gemini, темпах разработки сильного ИИ (Artificial General Intelligence, AGI) и общем росте самосознания нейросетей. Он уделил много внимания модели Project Astra, которая сейчас находится в стадии предварительного тестирования. Astra узнаёт пользователей и помнит историю общения с ними, — скоро эти возможности появятся в Gemini Live.

 Источник изображения: 9to5Google

Источник изображения: 9to5Google

Хассабис отметил, что перспективная модель Project Astra отличается, прежде всего, увеличенным количеством памяти. В частности, она запоминает ключевые детали из предыдущих разговоров для лучшего контекста и персонализации. Также имеется отдельная «10-минутная память» текущего диалога. Эти возможности, предположительно, скоро появятся в Gemini Live. Хассабис подчеркнул, что Google DeepMind «обучает свою модель ИИ под названием Gemini не просто показывать мир, но и совершать действия в нём, такие как бронирование билетов и покупки онлайн».

По мнению Хассабиса, реальный срок появления AGI — 5-10 лет, причём это будет «система, которая действительно понимает все вокруг вас очень тонким и глубоким образом и как бы встроена в вашу повседневную жизнь».

На вопрос, «работает ли Google DeepMind сегодня над системой, которая будет осознавать себя», Хассабис заявил, что теоретически это возможно, но он не воспринимает какую-либо из сегодняшних систем как осознающую себя. Он полагает, что «каждый должен принимать собственные решения, взаимодействуя с этими чат-ботами».

На вопрос, «является ли самосознание вашей целью» (при разработке ИИ), он ответил, что это может произойти неявно: «Эти системы могут обрести некоторое чувство самосознания. Это возможно. Я думаю, что для этих систем важно понимать вас, себя и других. И это, вероятно, начало чего-то вроде самосознания».

«Я думаю, есть две причины, по которым мы считаем друг друга сознательными. Одна из них заключается в том, что вы демонстрируете поведение сознательного существа, очень похожее на моё поведение. Но вторая причина в том, что вы работаете на одном и том же субстрате. Мы сделаны из одного и того же углеродного вещества с нашими мягкими мозгами. Очевидно, что машины работают на кремнии. Так что даже если они демонстрируют одинаковое поведение, и даже если они говорят одно и то же, это не обязательно означает, что это ощущение сознания, которое есть у нас, будет тем же самым, что будет у них», — пояснил Хассабис в заключение.

Google вживую продемонстрировала возможности Android XR

Google, занятая разработкой платформы для умных очков и гарнитур смешанной реальности Android XR, показала на конференции TED 2025, чего сумела добиться к настоящему моменту.

 Источник изображений: ted.com

Источник изображений: ted.com

С докладом выступил курирующий направление дополненной и виртуальной реальности вице-президент Google Шахрам Изади (Shahram Izadi) — в ходе своего выступления очки дополненной реальности были и на нём, а для демонстрации он пригласил менеджера по продуктам компании Ништу Бхатию (Nishtha Bhatia). В прототипе на господине Изади были установлены диоптрийные линзы, но на большой экран в зале вывели изображение, которое демонстрировал дисплей в очках его помощницы. Он пояснил, что на дисплее его очков выводились заметки для доклада — устройство подключается к смартфону и поддерживает вывод всех его приложений.

Ключевой функцией умных очков под управлением Android XR является, конечно, подключённая к ним модель искусственного интеллекта Google Gemini. Ништа окинула взглядом стоящий на сцене стеллаж, отвернулась и попросила голосового помощника составить хайку — японское трёхстишие. А потом задала ИИ вопрос о том, что находилось на стеллаже. Gemini «на память» сообщил название стоящей книги и добавил, в каком месте лежит «забытая» хозяйкой ключ-карта из отеля.

 Источник изображений: ted.com

Голосовой чат-бот продемонстрировал способность осуществлять в реальном времени перевод как с испанского на английский, так и с английского на более экзотический фарси. На запрос на хинди Gemini также с ходу дал ответ на хинди. Далее ИИ показали обложку виниловой пластинки, и система по просьбе пользователей запустила одну из песен с этого альбома, обнаружив его в библиотеке Google. В конце этого этапа демонстрации Gemini вызвался проводить Ништу до указанного ей пункта назначения.

Во второй части демонстрации использовались не умные очки, а гарнитура смешанной реальности Samsung Project Moohan, выход которой намечен на этот год. ИИ снова показал, на что способен: открыл карту Кейптауна в режиме «Google Карт» Immersive View, распознал горнолыжный курорт на 360-градусном видео с YouTube, описал картинку с видеозаписи в духе фильма ужасов и дал несколько советов, когда запустили игру.

Отчёт Google о Gemini 2.5 Pro раскритиковали за отсутствие прозрачности о безопасности ИИ

Эксперты раскритиковали Google за недостаток прозрачности и минимальное количество информации в техническом отчёте по Gemini 2.5 Pro. Они считают, что документ без полных данных не даёт адекватного представления о возможных рисках новой ИИ-модели .

 Источник изображений: Google

Источник изображений: Google

Отчёт был опубликован спустя несколько недель после запуска Gemini 2.5 Pro — самой мощной на сегодняшний день модели Google. Хотя такие документы обычно считаются важной частью обеспечения безопасности искусственного интеллекта (ИИ) и помогают независимым исследователям проводить собственные оценки рисков, в данном случае отчёт оказался «очень скудным», пишет TechCrunch.

«В документе минимум информации, и он появился уже после того, как модель была доступна широкой публике, — заявил Питер Уилдефорд (Peter Wildeford), сооснователь Института политики и стратегии в области ИИ. — Невозможно проверить, выполняет ли Google свои публичные обещания, а значит невозможно оценить безопасность и надёжность моделей компании».

Отдельную критику вызвало отсутствие упоминания о внутренней системе оценки рисков Frontier Safety Framework (FSF), которую Google представила в прошлом году для выявления потенциально опасных возможностей ИИ. В новом отчёте не содержится результатов тестов по опасным способностям модели — эти данные Google хранит отдельно и обычно не публикует вместе с основным документом.

Эксперты считают, что Google, некогда выступавшая за стандартизацию отчётности по ИИ, теперь сама отходит от своих принципов. Отдельная обеспокоенность связана с тем, что компания до сих пор не представила отчёт по недавно анонсированной модели Gemini 2.5 Flash. Однако представитель Google заявил изданию TechCrunch, что этот документ выйдет в ближайшее время.

Отмечается, что ситуация с Google, очевидно, является частью более широкой тенденции. Например, Meta недавно также подверглась критике за поверхностный анализ рисков своей новейшей ИИ-модели Llama 4, а OpenAI вовсе не представила отчёт по линейке GPT-4.1.

«Мы явно наблюдаем гонку на понижение стандартов, — заявил Кевин Бэнкстон (Kevin Bankston), старший советник по вопросам управления ИИ Центра демократии и технологий. — А на фоне сообщений о том, что другие компании, включая OpenAI, сокращают время на тестирование с месяцев до дней, такой уровень отчётности Google является тревожным сигналом».

ИИ-помощник Gemini «прозрел» у бесплатных пользователей на Android

Компания Google сообщила о доступности с сегодняшнего дня для всех пользователей Android-устройств функции Gemini Live, которая реализована в приложении Gemini и позволяет ИИ-помощнику «видеть» и реагировать на изображения на экране и в камере. Ранее эта функция была доступна по подписке Gemini Advanced.

 Источник изображения: Amanz/unsplash.com

Источник изображения: Amanz/unsplash.com

Функция Gemini Live на базе искусственного интеллекта была официально запущена в начале этого месяца для всех пользователей смартфонов Pixel 9 и Samsung Galaxy S25 с предустановленным приложением Gemini. «Мы получили отличные отзывы о Gemini Live с возможностью совместного использования камеры и экрана, поэтому мы решили предоставить её большему количеству людей, — сообщила Google на платформе X. — Начиная с сегодняшнего дня и в течение следующих недель мы предоставим её всем пользователям Android с приложением Gemini».

Чтобы получить больше сведений о рецепте, который вы читаете, или о растении, которое заметили, можно обратиться к ИИ-помощнику, нажав кнопку «Поделиться экраном с Live» во вкладке Gemini, и он будет «видеть» именно то, о чем вы хотите узнать. Чтобы поделиться с ИИ-помощником изображением с камеры, необходимо перейти в полноэкранный интерфейс Gemini Live и нажать кнопку камеры. Откроется видоискатель, позволяющий переключаться между фронтальной и основной камерами.

Сегодня Microsoft объявила, что её аналогичный ИИ-инструмент Copilot Vision теперь доступен бесплатно в браузере Edge.

ИИ-модели Gemini позволили анализировать снимки в «Google Фото», но пока не у всех пользователей

Компания Google начала интеграцию своей нейросети Gemini в сервис «Google Фото». Благодаря этому пользователи теперь имеют возможность объединения Gemini со своим аккаунтом в «Google Фото», благодаря чему можно искать нужные снимки на основе текстовых запросов об их содержимом. На данный момент нововведение доступно только на территории США для запросов на английском языке.

 Источник изображения: BoliviaInteligente / Unsplash

Источник изображения: BoliviaInteligente / Unsplash

Согласно имеющимся данным, упомянутое нововведение доступно для всех пользователей устройств на базе Android, у которых установлено приложение Gemini. Для активации интеграции необходимо запустить приложение Gemini и в настройках профиля активировать соответствующую опцию. После этого алгоритм сможет помочь отыскать снимки, например, по сделанным пользователем меткам, местоположению, дате съёмки или описанию того, что изображено на фотографии.

После того, как Gemini отобразит список найденных объектов, пользователь может нажать на миниатюру какого-то конкретного снимка или альбома, чтобы открыть его в «Google Фото». При необходимости снимки можно по одному перетаскивать из окна Gemini в другие приложения.

Google не объявляла, когда интеграция Gemini с сервисом «Google Фото» станет доступна за пределами рынка США и получит поддержку большего количества языков. Вероятно, это произойдёт после того, как разработчики убедятся в том, что алгоритм работает полностью корректно.

ИИ-помощник программиста Google Gemini Code Assist научился писать приложения по описанию и переводить код из одного языка в другой

На конференции Cloud Next представитель компании сообщил, что ИИ-помощник по кодированию Code Assist теперь умеет развёртывать новых ИИ-агентов. Они могут создавать приложения из спецификаций продуктов в Google Docs или выполнять преобразования кода с одного языка на другой. Code Assist теперь доступен в Android Studio в дополнение к другим средам программирования.

 Источник изображения: Google

Источник изображения: Google

Обновления Code Assist являются ответом на конкурентное давление со стороны таких компаний, как GitHub Copilot, Cursor и Cognition Labs, создателя вирусного инструмента программирования Devin. Рынок помощников по кодированию на основе искусственного интеллекта растёт с каждым месяцем, а его ёмкость оценивается в миллиарды долларов.

Агенты Code Assist, которыми можно управлять с новой доски Gemini Code Assist Kanban, могут создавать рабочие планы и отчитываться о пошаговом прогрессе по запросам на работу. Помимо создания программного обеспечения и миграции кода, агенты могут внедрять новые функции приложений, выполнять проверки кода и генерировать модульные тесты и документацию.

Пока трудно понять, насколько хорошо работают агенты Code Assist. Исследования показали, что даже лучшие генераторы кода на основе ИИ на сегодняшний день могут допускать ошибки и вносить уязвимости безопасности из-за неспособности понимать логику программирования. На одном из недавних тестов Devin успешно выполнил только три из двадцати задач.

Поэтому, при использовании любого ИИ-ассистента для программирования не помешает самостоятельно проверить получившийся код.

Мяч с мозгами: Samsung и Google объединились для выпуска домашнего робота Ballie с ИИ Gemini и проектором

Samsung и Google объединились для запуска Ballie, домашнего робота в форме футбольного мяча, который использует ИИ Gemini для управления умным домом и умеет проецировать видео на стены. Жёлтый шарообразный робот призван, по словам Samsung, «оживить ИИ как друга и настоящего компаньона». С этим устройством обе компании впервые выходят на перспективный рынок потребительской робототехники, который оценивается в миллиарды долларов.

 Источник изображений: Samsung

Источник изображений: Samsung

Samsung впервые представила Ballie в начале 2020 года на технологической конференции CES, где он произвёл фурор, но путь к выходу домашнего робота на потребительский рынок оказался тернистым. Исполнительный вице-президент Samsung Джей Ким (Jay Kim) сообщил, что актуальное устройство представляет собой «совершенно новый Ballie». Одним из самых больших изменений стало использование моделей ИИ от Google для понимания команд пользователя, подключения к поиску Google и обработки данных с бортовых камер во время навигации по дому.

 Источник изображений: Samsung

Ballie работает под управлением операционной системы Tizen от Samsung, которая также используется во многих устройствах компании, что обеспечивает ему доступ к таким поставщикам контента, как YouTube, Netflix и собственный сервис Samsung TV Plus. Робот использует платформу Samsung SmartThings для управления умными домашними устройствами, календарями и напоминаниями, ответа на вопросы, совершения и приёма телефонных звонков и воспроизведения видео через встроенный проектор. Он также использует модели ИИ от Samsung для таких функций, как доступ к персональным данным и погоде.

 Источник изображений: Samsung

«Сложно описать систему, которая может чувствовать, двигаться и взаимодействовать так естественно, как это делает она, — считает генеральный директор Google Cloud Томас Куриан (Thomas Kurian). — Когда вы говорите: “Иди сюда”, она действительно размышляет, как туда попасть. Системе требуется много магии за кулисами, чтобы она заработала».

 Источник изображений: Samsung

По словам Кима, Samsung выбрала Google Cloud из-за своей «веры» в возможности Gemini. Эта работа знаменует собой расширение существующих партнёрских отношений по устройствам Android, умным часам и будущей гарнитуре смешанной реальности, которая также появится в конце этого года. Он добавил, что компании уже разрабатывают дополнительные функции для Ballie, включая комплект разработки программного обеспечения для сторонних приложений и видеоконференций.

Куриан подчеркнул, что партнёрство с Samsung требует «много настроек и оптимизации […] и это единственное наше партнёрство с таким персонализированным опытом».

Устройство сначала поступит в продажу в США и Южной Корее и, по крайней мере, на первых порах будет поддерживать общение только на английском и корейском языках.

Google представила рассуждающую ИИ-модель Gemini 2.5 Flash с высокой производительностью и эффективностью

Google выпустила новую ИИ-модель, призванную обеспечить высокую производительность с упором на эффективность. Она называется Gemini 2.5 Flash и вскоре станет доступна в составе платформы Vertex AI облака Google Cloud для развёртывания и управления моделями искусственного интеллекта (ИИ).

 Источник изображения: Google

Источник изображения: Google

Компания отмечает, что Gemini 2.5 Flash предлагает «динамические и контролируемые» вычисления, позволяя разработчикам регулировать время обработки запроса в зависимости от их сложности.

«Вы можете настроить скорость, точность и баланс затрат для ваших конкретных нужд. Эта гибкость является ключом к оптимизации производительности Flash в высоконагруженных и чувствительных к затратам приложениях», — написала компания в своём официальном блоге.

На фоне растущей стоимости использования флагманских ИИ-моделей Gemini 2.5 Flash может оказаться крайней полезной. Более дешёвые и производительные модели, такие как 2.5 Flash, представляют собой привлекательную альтернативу дорогостоящим флагманским вариантам, но ценой потери некоторой точности.

Gemini 2.5 Flash — это «рассуждающая» модель по типу o3-mini от OpenAI и R1 от DeepSeek. Это означает, что для проверки фактов ей требуется немного больше времени, чтобы ответить на запросы. Google утверждает, что 2.5 Flash идеально подходит для работы с большими объёмами данных и использования в реальном времени, в частности, для таких задач, как обслуживание клиентов и анализ документов.

«Эта рабочая модель оптимизирована специально для низкой задержки и снижения затрат. Это идеальный движок для отзывчивых виртуальных помощников и инструментов резюмирования в реальном времени, где эффективность при масштабировании является ключевым фактором», — описывает новую ИИ-модель компания.

Google не опубликовала отчёт по безопасности или техническим характеристикам для Gemini 2.5 Flash, что усложнило задачу определения её преимуществ и недостатков. Ранее компания говорила, что не публикует отчёты для моделей, которые она считает экспериментальными.

Google также объявила, что с третьего квартала планирует интегрировать модели Gemini, такие как 2.5 Flash в локальные среды. Они будут доступны в Google Distributed Cloud (GDC), локальном решении Google для клиентов со строгими требованиями к управлению данными. В компании добавили, что работают с Nvidia над установкой Gemini на совместимые с GDC системы Nvidia Blackwell, которые клиенты смогут приобрести через Google или по своим каналам.

Google научит ИИ-чат-бота Gemini анализировать видео

Функция загрузки и анализа файлов в Google Gemini скоро получит поддержку видеофайлов. Анализ предварительной версии приложения помог установить, какие форматы видео будут поддерживаться, когда эта возможность станет общедоступной.

 Источник изображения: blog.google

Источник изображения: blog.google

Чат-бот Gemini уже позволяет загружать файлы и задавать о них вопросы. Сейчас это могут быть документы, файлы с программным кодом, простые текстовые файлы, презентации, электронные таблицы и прочие файлы с табличными данными. Сервис можно использовать для анализа веб-страниц и видео YouTube — о них также можно задавать дополнительные вопросы. Выгрузка видеофайлов пока не поддерживается.

В предварительной версии приложения Google 16.13.38 beta журналисты Android Authority обнаружили строки, указывающие, что сервис получит поддержку загрузки видео в форматах 3GP, AVI, FLV, MOV, MP4, MPEG, MPG и WebM. В других фрагментах кода также обнаружились строки, указывающие, что пользователи смогут загружать на анализ несколько видео одновременно — при этом общая продолжительность видео будет ограничиваться, и ограничения эти, вероятно, станут отличаться для пользователей платной и бесплатной версий сервиса.

Наряду с поддержкой видео функция загрузки и анализа данных Gemini также получит поддержку репозиториев GitHub. Это упростит пользователям задачи, связанные с анализом файлов программного кода при помощи чат-бота. В текущей бета-версии приложения эти функции отсутствуют, и Google пока не делала никаких объявлений, связанных с данными возможностями. Но они могут последовать в обозримом будущем.

Google выпустила тестовую версию нейросети Gemini 2.5 Pro для всех пользователей

Компания Google объявила о запуске экспериментальной версии нейросети Gemini 2.5 Pro для всех пользователей приложения Gemini, включая бесплатных. Это довольно неожиданный шаг, поскольку данный алгоритм был анонсирован всего несколько дней назад как «самая интеллектуальная модель искусственного интеллекта» от Google, которая способна рассуждать, а не только выдавать ответы на задаваемые пользователями вопросы.

 Источник изображения: 9to5google.com

Источник изображения: Google

В настоящее время нейросеть Gemini 2.5 Pro продолжает оставаться в статусе экспериментальной, но поддерживает ряд функций, включая приложения/расширения, загрузку файлов и Canvas. На момент запуска алгоритм был доступен только платным подписчикам Gemini Advanced. Однако на выходных Google объявила о намерении сделать алгоритм доступным для всех пользователей Gemini.

Уже сейчас взаимодействовать с Gemini 2.5 Pro можно на странице gemini.google.com, а в скором времени алгоритм станет доступен в приложениях Gemini для Android и iOS. Google заявила о желании как можно скорее передать свою самую интеллектуальную модель ИИ в руки большего количества людей.

 Источник изображения: 9to5google.com

Источник изображения: 9to5google.com

Отметим, что на сегодняшний день Gemini 2.5 Pro возглавляет рейтинг LMArena, оценивающего модели на основе пользовательских предпочтений. Алгоритм также лидирует в математических (AIME 2025) и научных (GPQA diamond) тестах. В дополнение к этому Google работает над улучшением возможностей нейросети в сфере написания программного кода.

Пока неясно, сделает ли Google стабильную версию Gemini 2.5 Pro бесплатной для всех пользователей или же расширение доступа является одним из шагов на пути тестирования ИИ-модели. Официальные представители компании пока не делали каких-либо заявлений по данному вопросу.


window-new
Soft
Hard
Тренды 🔥
Календарь релизов — 11 – 17 августа: The Scouring, Echoes of the End и ремастер W40K: Dawn of War 20 мин.
Mortal Kombat 1 покорила новую вершину продаж и взяла курс на звание «самой сбалансированной» игры серии 26 мин.
«Займёт своё место в пантеоне "Цивилизаций"»: руководство Take-Two не потеряло веру в Sid Meier’s Civilization VII, несмотря на слабый старт продаж 2 ч.
Россияне пожаловались на массовые сбои при звонках в WhatsApp и Telegram 2 ч.
Бывший президент Blizzard предсказал, что Battlefield 6 «раздавит» Call of Duty: Black Ops 7, и все от этого выиграют 6 ч.
Создатели Delta Force анонсировали хоррор-шутер Crossfire: Rainbow — геймплейный трейлер и первые подробности 6 ч.
Раздача кооперативного боевика Guntouchables в Steam превзошла все ожидания разработчиков, но играют меньше 1 % от скачавших 7 ч.
Ubisoft проговорилась о сериале Far Cry от создателей «Фарго» и «В Филадельфии всегда солнечно» 8 ч.
VI Форум «Мой бизнес» в Архангельске: предприниматели, эксперты и представители власти обсудят рост в новых условиях 10 ч.
«Странно для публичной компании отказываться от лёгких денег»: Electronic Arts забраковала ремейк Dragon Age: Origins и ремастер трилогии 10 ч.
Hyundai потребовала $65 за устранение уязвимости в системе бесключевого доступа к электромобилю Ioniq 5 5 мин.
«Рикор» представил российские 1U-серверы RS7104 и RS7110 на базе Intel Xeon Ice Lake-SP 7 мин.
«Выглядит как нечто, созданное Apple»: энтузиаст соединил iPad Pro и MacBook Air в полнофункциональный гибрид 2 ч.
Китайские телевизоры захватывают мир — Samsung и LG теряют рынок, пока доли TCL и Hisense растут 3 ч.
Минцифры закроет лазейку для обхода блокировок через спутниковый интернет — Direct to Cell в России запретят 3 ч.
Огромная видеокарта GeForce RTX 5080 Noctua Edition оказалась самой дорогой RTX 5080 от Asus — за неё просят больше $2000 4 ч.
Одна из самых дорогих RTX 5090: Asus оценила GeForce RTX 5090 ROG Astral OC BTF с разъёмом GC-HPWR в €3084 5 ч.
Xiaomi отгрузила всего 6042 электромобиля YU7, хотя заказы превысили 200 000 единиц за три минуты 5 ч.
Китай развернул антирекламную кампанию против Nvidia H20 7 ч.
Brookfield: в течение десяти лет мощность ИИ ЦОД вырастет на порядок, а расходы на ИИ-инфраструктуру превысят $7 трлн 7 ч.