Опрос
|
реклама
Быстрый переход
Google совсем скоро представит мобильные приложения ИИ-блокнота NotebookLM с офлайн-режимом
03.05.2025 [13:04],
Дмитрий Федоров
20 мая, в день старта конференции Google I/O 2025, дебютируют бета-версии нативных мобильных приложений NotebookLM для iOS и Android, которые придут на смену существующему веб-приложению. Они обеспечат интеграцию ИИ-сервиса с системными функциями мобильных устройств. Приложения будут поддерживать полноценный офлайн-доступ к ранее сгенерированным аудиообзорам, что позволит слушать материалы при отсутствии подключения к интернету. Таким образом, NotebookLM станет по-настоящему мобильным ИИ-инструментом для учёбы, анализа и создания персонализированного контента на ходу. ![]() Источник изображений: Google NotebookLM — это исследовательский инструмент на основе ИИ, вышедший в 2023 году в формате PWA. Несмотря на его широкую функциональность, использование через браузер накладывало свои ограничения: невозможность работы при потере интернет-соединения и отсутствие полноценного фонового воспроизведения аудио. Новые мобильные приложения призваны устранить оба этих недостатка. Сервис часто описывают как «умный блокнот» нового поколения: пользователи могут загружать в него PDF-файлы, статьи, ссылки на общедоступные видео с YouTube, обычный текст, Google Документы, Google Презентации, аудиофайлы и другие источники информации. ИИ анализирует материалы, выделяет ключевые положения, отвечает на тематические вопросы, а также способен автоматически преобразовывать контент в формат краткого аудиообзора — своеобразного подкаста, созданного по содержанию загруженных данных. NotebookLM использует новейшие ИИ-модели семейства Gemini. Все ответы сопровождаются ссылками на источники, что позволяет точно видеть, какая информация была извлечена ИИ из загруженных материалов. Благодаря такой достоверности сервис становится незаменимым помощником для студентов, аналитиков, исследователей и всех, кому необходим точный и проверяемый фактологический материал. Функциональность включает полноценный офлайн-режим. Можно заранее скачать аудиообзоры, созданные ИИ, и прослушивать их без подключения к интернету. Благодаря фоновому воспроизведению, аудио продолжает играть, даже если пользователь переключился на другое приложение или заблокировал экран. ![]() Судя по скриншотам из Google «Play Маркет», интерфейс приложения будет содержать ряд дополнительных функций, часть из которых знакома пользователям веб-версии:
Скриншоты также демонстрируют, как приложение выглядит на планшетах: в режиме разделённого экрана чат с ИИ располагается рядом со списком источников — как при работе на ноутбуке. ![]() Нативные приложения обеспечивают более глубокую интеграцию с системами iOS и Android и доступ к системным функциям, таким как push-уведомления. Пользователи смогут получить доступ к новому приложению, выполнив следующие действия:
Google откроет Gemini доступ ко всей информации о пользователях, которую она накопила
02.05.2025 [19:20],
Павел Котов
Гонка чат-ботов с искусственным интеллектом накаляется, и теперь Google собирается дать Gemini возможность понять пользователя как, возможно, никто другой. Gemini сможет не только запоминать предыдущие разговоры с человеком, но также учиться на его действиях в других приложениях: Gmail, «Google Календарь» и YouTube, сообщил президент Google Labs и Gemini Джош Вудворд (Josh Woodward). ![]() Источник изображения: blog.google В апреле OpenAI объявила, что значительно расширит память ChatGPT, позволит помощнику обращаться к прошлой переписке с пользователем и использовать эту информацию для персонализации последующих ответов. Такие ответы, по мнению компании, будут в большей степени соответствовать его интересам, привычкам и предпочтениям, обеспечивая более комфортное и полезное взаимодействие. В Google решили на этом не останавливаться. В ближайшее время компания откроет Gemini доступ к истории прошлых чатов пользователя и ИИ, а после этого развернёт функцию pcontext, что означает «персонализированный контекст». Пока эта функция тестируется внутри компании. Она предназначена для извлечения информации из учётной записи пользователя в экосистеме Google, что обеспечит Gemini глубокое понимание жизни пользователя: упоминаются, в частности, Gmail, «Google Фото», «Google Календарь», «Google Поиск» и YouTube. Компания намеревается сделать Gemini более активным, но не уточнила, что именно имеется в виду. Возможно, помощник с ИИ будет по собственной инициативе выдвигать полезные предложения с учётом расписания, истории веб-поиска и активности в почтовом ящике пользователя. Настолько глубокая интеграция, конечно, поднимает вопрос о конфиденциальности. Google и без того хранит чрезвычайно много информации о пользователях, а открытие её системе ИИ и возможность совершать операции с этими данными — очередной шаг вперёд. Поэтому в компании заверили, что будут запрашивать у пользователей явное разрешение, прежде чем Gemini получит доступ к этим данным. Это шаг к тому, чтобы сделать Gemini более «личным, проактивным и мощным», уверен господин Вудворд. И намекнул, что скоро появится новая информация. Google научила ИИ-бота Gemini редактировать любые изображения
01.05.2025 [14:22],
Дмитрий Федоров
Google Gemini научился редактировать как сгенерированные ИИ изображения, так и загруженные со смартфона или компьютера. В ближайшие недели новая функциональность станет доступна пользователям в большинстве стран мира, где доступен Gemini, и получит поддержку более чем 45 языков. Россия, напомним, в этот список не входит, однако русский язык Gemini понимает и «говорит» на нём. ![]() Источник изображений: Google Нативное редактирование изображений в ИИ-чат-боте Gemini представляет собой эволюционный шаг в развитии возможностей взаимодействия пользователя с ИИ. Запуск последовал за моделью редактирования изображений с помощью ИИ, которую Google опробовала в марте в своей платформе AI Studio и которая получила широкую огласку благодаря своей спорной способности удалять водяные знаки с любого изображения. Подобно недавно обновлённому инструменту редактирования изображений в ChatGPT, встроенный редактор Gemini теоретически способен достигать более высоких результатов по сравнению с автономными ИИ-генераторами изображений. Теперь Gemini предлагает инновационный «многоэтапный» процесс редактирования, обеспечивающий, по описанию компании, «более богатые и контекстуальные» отклики на каждый запрос — с интеграцией текста и изображений. Функциональность нового редактора позволяет пользователям изменять фон на изображениях, заменять объекты, добавлять элементы и выполнять множество других операций — и всё это непосредственно в интерфейсе Gemini. Подобное решение существенно упрощает процесс создания и редактирования визуального контента, устраняя необходимость переключаться между несколькими специализированными приложениями. ![]() «Например, вы можете загрузить личную фотографию и попросить Gemini сгенерировать изображение того, как вы будете выглядеть с разными цветами волос. Также можно попросить Gemini создать первый черновик сказки на ночь о драконах и сгенерировать иллюстрации к истории», — поясняет Google в своём блоге. Эти примеры наглядно демонстрируют многофункциональность системы, пригодной как для утилитарных, так и для креативных задач. Потенциальные риски технологии в контексте создания дипфейков обоснованно вызывают опасения у специалистов по информационной безопасности. Чтобы нивелировать возможные злоупотребления, Google внедряет технологию невидимых водяных знаков во все изображения, созданные или отредактированные с помощью нативного генератора изображений Gemini. Параллельно компания проводит экспериментальные исследования по внедрению видимых водяных знаков на всех изображениях, сгенерированных с помощью Gemini. Google подтвердила, что близка к внедрению ИИ-модели Gemini в iPhone
01.05.2025 [00:53],
Анжелла Марина
Генеральный директор Google Сундар Пичаи (Sundar Pichai) заявил, что компания близка к соглашению с Apple о внедрении модели искусственного интеллекта Gemini в iPhone. Это позволит Siri использовать широкие возможности ИИ-модели для ответов на более сложные вопросы. ![]() Источник изображения: Solen Feyissa / Unsplash Ещё в июне прошлого года старший вице-президент Apple Крейг Федериги (Craig Federighi) намекал на возможность интеграции, говоря, что компания хотела бы, чтобы в будущем у пользователей была возможность выбора между ИИ-моделями, включая Google Gemini. В настоящий момент добавлена только поддержка чат-бота от OpenAI в систему Apple Intelligence, которая перенаправляет сложные запросы в ChatGPT, если они выходят за рамки её возможностей, отмечает The Verge. Пичаи подтвердил, что обсуждал вопрос интеграции с главой Apple Тимом Куком (Tim Cook), а он, в свою очередь, интересовался планами разработки и продвижения Gemini, и также подтвердил, что его компания намерена добавить уже в этом году в Apple Intelligence больше сторонних ИИ-моделей. Если сделка состоится (предположительно к концу 2025 года), Gemini станет второй сторонней ИИ-системой, доступной в экосистеме Apple, и даст пользователям возможность выбора между технологиями OpenAI и Google, а также усилит конкуренцию в области искусственного интеллекта. Google Gemini поможет в практике иностранных языков — есть и поддержка русского
30.04.2025 [17:56],
Павел Котов
Google выпустила три экспериментальных проекта на основе технологий искусственного интеллекта, предназначенные для помощи пользователям в изучении иностранных языков. Разработка решений находится на ранних этапах, но большая языковая модель Gemini уже сейчас становится грозным конкурентом Duolingo. ![]() Источник изображений: googleblog.com Первый экспериментальный проект направлен на быстрое изучение определённых фраз, которые нужны пользователю в данный момент; второй предназначен для того, чтобы сформировать у обучаемого менее формальные навыки иностранного языка и выработать у него манеру общения, более свойственную местным жителям. Третий экспериментальный проект предполагает подключение камеры для формирования нового лексикона на основе окружающих предметов. Один из наиболее неприятных аспектов при изучении иностранного языка, отмечают в Google, — оказаться в ситуации, когда нужна конкретная фраза, но она ещё не изучена. Экспериментальная функция Tiny Lesson позволяет описать ситуацию, например, «поиски утерянного паспорта» и получить рекомендации по словарному запасу и грамматике, адаптированные к контексту, например: «Я не знаю, где его потерял» или «Я хочу сообщить об этом в полицию». Вторая экспериментальная функция получила название Slang Hang, её задача — сделать речь обучающегося менее «учебной», то есть менее формальной, более разговорной и обогащённой местным сленгом. Можно смоделировать реалистичный разговор между носителями языка и по каждой реплике проследить, как разворачивается диалог. Это может быть, например, разговор покупателя с уличным торговцем или сценарий встречи двух давно потерявших друг друга приятелей в метро. В рамках этого экспериментального проекта, признались в Google, ИИ иногда неправильно применяет сленг, поэтому его рекомендации лучше сопоставлять с надёжными источниками. ![]() Третий эксперимент получил название Word Cam: пользователь делает снимок окружающих его предметов, Gemini их распознаёт и предлагает названия на изучаемом языке. Иногда на практике требуется знать, как называются предметы вокруг, и эта функция может продемонстрировать, что пользователь ещё многого не изучил. Например, можно знать слово «окно», но не «жалюзи». Идея этих проектов состоит в том, чтобы обозначить новые варианты использования ИИ, сделать самостоятельное изучение языков более динамичным и личностно ориентированным. Новые экспериментальные функции Google Gemini способны помочь в изучении следующих языков: арабский, китайский (материковый Китай, Гонконг, Тайвань), английский (Австралия, Великобритания, США), французский (Канада, Франция), немецкий, греческий, иврит, хинди, итальянский, японский, корейский, португальский (Бразилия, Португалия), русский, испанский (Латинская Америка, Испания) и турецкий. Доступ к ним открывается через платформу Google Labs. Google готовит Gemini для детей — ИИ будет под контролем родителей
29.04.2025 [18:49],
Павел Котов
Google собирается открыть доступ к помощнику с искусственным интеллектом Gemini для детей до 13 лет, чьи устройства контролируются родителями с помощью приложения Family Link. Компания предупредила, что ИИ может вести себя непредсказуемо. ![]() Источник изображения: blog.google Google сообщила о намерении выпустить детский вариант Gemini — для этой аудитории предлагаются такие варианты использования, как помощь с домашними заданиями, ответы на вопросы и генерация сказок с учётом возраста ребёнка. Дети смогут взаимодействовать с ИИ-помощником в приложениях для Android, iOS, а также в веб-версии Gemini; на Android службу можно будет установить в качестве помощника по умолчанию. Учитывая непредсказуемость современных моделей ИИ, Google предупредила пользователей, что «Gemini может допускать ошибки», и порекомендовала родителям научить детей «относиться к ответам Gemini критически». В компании подчеркнули, что ребёнок должен понимать: Gemini — не человек; он может отвечать, как человек, но не обладает сознанием и эмоциями. Поэтому ребёнку следует проверять получаемую информацию и не доверять ИИ конфиденциальные данные. Родителям также стоит учитывать, что механизмы ограничения контента у ИИ не совершенны, и Gemini потенциально может продемонстрировать нежелательные материалы. В связи с этим контроль над системой будет осуществляться через приложение Family Link. О сроках развёртывания детской версии Gemini Google пообещала сообщить дополнительно. ИИ-помощник Google Gemini появится в автомобилях, умных часах и наушниках
26.04.2025 [10:55],
Павел Котов
В последние пару лет Google активно интегрирует чат-бота Gemini с искусственным интеллектом в свои продукты: в Gmail, Android, «Google Диск» и другие сервисы. К концу года присутствие чат-бота расширится — он появится на платформе Wear OS для умных часов, Android Auto для автомобилей и в беспроводных наушниках. ![]() Источник изображения: blog.google В ходе брифинга после квартального финансового отчёта гендиректор холдинга Alphabet Сундар Пичаи (Sundar Pichai) объявил, что в скором времени Gemini появится на новых устройствах: «Мы обновим Google Assistant на мобильных устройствах до Gemini, а позже в этом году обновим планшеты, автомобили и устройства, которые подключаются к смартфону, такие как наушники и часы». В этом году конференция разработчиков Google I/O запланирована на 20–21 мая — возможно, на ней компания подробнее расскажет о своих планах расширить присутствие Gemini. Google Gemini уже является помощником по умолчанию на большинстве устройств под управлением Android, но его ещё нет на планшетах, часах с Wear OS, а также умных колонках и дисплеях Google. Планы компании подтвердил анализ бета-версий некоторых приложений. Так, в приложении Google обнаружились фрагменты кода, указывающие, что Gemini появится на Wear OS в качестве «носимого» помощника — вероятно как обновление существующего приложения «Google Ассистент». Сначала компания обновит лишь приложение, а затем усилит интеграцию с выпуском Wear OS 6. В недавнем выпуске «Google Ассистента» для Android Automotive обнаружились строки, указывающие, что Google усердно работает над переносом Gemini и на автомобильную платформу. Компания разрабатывает модели ИИ, адаптированные для работы в новых областях с большим потенциалом роста, в том числе для робототехники, добавил господин Пичаи. Google Gemini проиграл ИИ-гонку — пользователи предпочитают ChatGPT и Meta✴ AI
24.04.2025 [00:52],
Николай Хижняк
Количество ежемесячных пользователей ИИ Gemini составляет около 350 млн человек, что значительно меньше, чем у ChatGPT от OpenAI и даже у Meta✴ AI. Такая цифра была озвучена в ходе недавно обнародованных данных судебного заседания, в котором Google принимает участие в качестве ответчика. ![]() Источник изображения: androidauthority.com По данным The Information, в ходе продолжающегося рассмотрения антимонопольного иска к Google компания на одном из последних судебных заседаний показала слайд, подробно описывающий количество активных пользователей ИИ-помощника Gemini. Согласно этим данным, по состоянию на март 2025 года число активных ежемесячных пользователей Gemini составило 350 млн человек по всему миру. Ежедневно ИИ от Google пользуются около 35 млн человек. Несмотря на отставание от конкурентов, Google увеличила долю пользователей Gemini с октября 2024 года. Тогда ежедневно ИИ-помощником пользовались 9 млн человек, а ежемесячная аудитория составляла 90 млн человек. Google представила эти цифры в контексте заявления Министерства юстиции США о том, что компании следует запретить расширять своё доминирование в поиске с использованием ИИ. Однако очевидно, что на данный момент Google является аутсайдером в этой области. По сравнению с её показателями OpenAI и Meta✴ значительно опережают её. TechCrunch сообщает, что по состоянию на сентябрь 2024 года число пользователей Meta✴ AI приближалось к 500 млн в месяц, в то время как OpenAI недавно заявила, что еженедельно ChatGPT пользуются более 400 млн человек по всему миру. Хотя методы расчёта этих данных варьируются от компании к компании, это, безусловно, указывает на значительное отставание Google от OpenAI по числу активных пользователей ИИ-ассистента. Однако остаётся неясным, учитываются ли в данных Google интеграции Gemini в такие продукты, как Workspace и Gmail, у которых, очевидно, гораздо более широкая пользовательская база. Google призналась, что платит Samsung «огромные деньги» за предустановку Gemini на Galaxy
22.04.2025 [17:57],
Сергей Сурабекянц
Недавно суд признал Google виновной в нарушении антимонопольного законодательства — компания платила производителям смартфонов за предустановку своей поисковой системы. Сегодня выяснилось, что Google аналогичным образом стала финансировать предустановку ИИ Gemini на устройства Samsung Galaxy. Этот факт признал вице-президент Google по платформам и партнёрским устройствам Питер Фицджеральд (Peter Fitzgerald) во время другого судебного разбирательства. ![]() Источник изображения: androidauthority.com На проходящих трёхнедельных слушаниях Министерство юстиции США в рамках антимонопольного дела против Google потребовало разделить компанию с рыночной капитализацией $1,81 трлн. Этот процесс может кардинально изменить облик технологического гиганта и существенно повлиять на расстановку сил в Кремниевой долине. На судебном процессе Фицджеральд сообщил, что ежемесячные платежи за предустановку Gemini на устройства Samsung Galaxy начались в январе, а контракт рассчитан как минимум на два года. Общая сумма не разглашается, но представитель Министерства юстиции заявил, что Google платит Samsung «огромные деньги». Кроме того, по словам Фицджеральда, контракт предусматривает получение Samsung процента от дохода от рекламы, отображаемой в Gemini. Эти показания могут доставить серьёзные юридические неприятности Google в дополнение к уже имеющимся. На днях Министерство юстиции США выиграло судебный процесс против компании, обвинив Google в монопольном положении в сфере рекламных технологий. Суд постановил, что Google «умышленно участвовала в серии антиконкурентных действий», а антиконкурентная практика технологического гиганта нанесла «существенный вред» клиентам и пользователям. Теперь суд приобщит к текущему судебному иску показания Фицджеральда, чтобы принять окончательное решение об изменениях, которые Google придётся внести в свой бизнес в случае юридического поражения. Гендир Google DeepMind рассказал о будущем ИИ и появлении у него самосознания
21.04.2025 [19:27],
Сергей Сурабекянц
Генеральный директор Google DeepMind Демис Хассабис (Demis Hassabis) в течение часа рассказывал журналистам о перспективах Gemini, темпах разработки сильного ИИ (Artificial General Intelligence, AGI) и общем росте самосознания нейросетей. Он уделил много внимания модели Project Astra, которая сейчас находится в стадии предварительного тестирования. Astra узнаёт пользователей и помнит историю общения с ними, — скоро эти возможности появятся в Gemini Live. ![]() Источник изображения: 9to5Google Хассабис отметил, что перспективная модель Project Astra отличается, прежде всего, увеличенным количеством памяти. В частности, она запоминает ключевые детали из предыдущих разговоров для лучшего контекста и персонализации. Также имеется отдельная «10-минутная память» текущего диалога. Эти возможности, предположительно, скоро появятся в Gemini Live. Хассабис подчеркнул, что Google DeepMind «обучает свою модель ИИ под названием Gemini не просто показывать мир, но и совершать действия в нём, такие как бронирование билетов и покупки онлайн». По мнению Хассабиса, реальный срок появления AGI — 5-10 лет, причём это будет «система, которая действительно понимает все вокруг вас очень тонким и глубоким образом и как бы встроена в вашу повседневную жизнь». На вопрос, «работает ли Google DeepMind сегодня над системой, которая будет осознавать себя», Хассабис заявил, что теоретически это возможно, но он не воспринимает какую-либо из сегодняшних систем как осознающую себя. Он полагает, что «каждый должен принимать собственные решения, взаимодействуя с этими чат-ботами». На вопрос, «является ли самосознание вашей целью» (при разработке ИИ), он ответил, что это может произойти неявно: «Эти системы могут обрести некоторое чувство самосознания. Это возможно. Я думаю, что для этих систем важно понимать вас, себя и других. И это, вероятно, начало чего-то вроде самосознания». «Я думаю, есть две причины, по которым мы считаем друг друга сознательными. Одна из них заключается в том, что вы демонстрируете поведение сознательного существа, очень похожее на моё поведение. Но вторая причина в том, что вы работаете на одном и том же субстрате. Мы сделаны из одного и того же углеродного вещества с нашими мягкими мозгами. Очевидно, что машины работают на кремнии. Так что даже если они демонстрируют одинаковое поведение, и даже если они говорят одно и то же, это не обязательно означает, что это ощущение сознания, которое есть у нас, будет тем же самым, что будет у них», — пояснил Хассабис в заключение. Google вживую продемонстрировала возможности Android XR
18.04.2025 [11:55],
Павел Котов
Google, занятая разработкой платформы для умных очков и гарнитур смешанной реальности Android XR, показала на конференции TED 2025, чего сумела добиться к настоящему моменту. ![]() Источник изображений: ted.com С докладом выступил курирующий направление дополненной и виртуальной реальности вице-президент Google Шахрам Изади (Shahram Izadi) — в ходе своего выступления очки дополненной реальности были и на нём, а для демонстрации он пригласил менеджера по продуктам компании Ништу Бхатию (Nishtha Bhatia). В прототипе на господине Изади были установлены диоптрийные линзы, но на большой экран в зале вывели изображение, которое демонстрировал дисплей в очках его помощницы. Он пояснил, что на дисплее его очков выводились заметки для доклада — устройство подключается к смартфону и поддерживает вывод всех его приложений. Ключевой функцией умных очков под управлением Android XR является, конечно, подключённая к ним модель искусственного интеллекта Google Gemini. Ништа окинула взглядом стоящий на сцене стеллаж, отвернулась и попросила голосового помощника составить хайку — японское трёхстишие. А потом задала ИИ вопрос о том, что находилось на стеллаже. Gemini «на память» сообщил название стоящей книги и добавил, в каком месте лежит «забытая» хозяйкой ключ-карта из отеля. ![]() Голосовой чат-бот продемонстрировал способность осуществлять в реальном времени перевод как с испанского на английский, так и с английского на более экзотический фарси. На запрос на хинди Gemini также с ходу дал ответ на хинди. Далее ИИ показали обложку виниловой пластинки, и система по просьбе пользователей запустила одну из песен с этого альбома, обнаружив его в библиотеке Google. В конце этого этапа демонстрации Gemini вызвался проводить Ништу до указанного ей пункта назначения. Во второй части демонстрации использовались не умные очки, а гарнитура смешанной реальности Samsung Project Moohan, выход которой намечен на этот год. ИИ снова показал, на что способен: открыл карту Кейптауна в режиме «Google Карт» Immersive View, распознал горнолыжный курорт на 360-градусном видео с YouTube, описал картинку с видеозаписи в духе фильма ужасов и дал несколько советов, когда запустили игру. Отчёт Google о Gemini 2.5 Pro раскритиковали за отсутствие прозрачности о безопасности ИИ
18.04.2025 [04:40],
Анжелла Марина
Эксперты раскритиковали Google за недостаток прозрачности и минимальное количество информации в техническом отчёте по Gemini 2.5 Pro. Они считают, что документ без полных данных не даёт адекватного представления о возможных рисках новой ИИ-модели . ![]() Источник изображений: Google Отчёт был опубликован спустя несколько недель после запуска Gemini 2.5 Pro — самой мощной на сегодняшний день модели Google. Хотя такие документы обычно считаются важной частью обеспечения безопасности искусственного интеллекта (ИИ) и помогают независимым исследователям проводить собственные оценки рисков, в данном случае отчёт оказался «очень скудным», пишет TechCrunch. «В документе минимум информации, и он появился уже после того, как модель была доступна широкой публике, — заявил Питер Уилдефорд (Peter Wildeford), сооснователь Института политики и стратегии в области ИИ. — Невозможно проверить, выполняет ли Google свои публичные обещания, а значит невозможно оценить безопасность и надёжность моделей компании». Отдельную критику вызвало отсутствие упоминания о внутренней системе оценки рисков Frontier Safety Framework (FSF), которую Google представила в прошлом году для выявления потенциально опасных возможностей ИИ. В новом отчёте не содержится результатов тестов по опасным способностям модели — эти данные Google хранит отдельно и обычно не публикует вместе с основным документом. Эксперты считают, что Google, некогда выступавшая за стандартизацию отчётности по ИИ, теперь сама отходит от своих принципов. Отдельная обеспокоенность связана с тем, что компания до сих пор не представила отчёт по недавно анонсированной модели Gemini 2.5 Flash. Однако представитель Google заявил изданию TechCrunch, что этот документ выйдет в ближайшее время. Отмечается, что ситуация с Google, очевидно, является частью более широкой тенденции. Например, Meta✴ недавно также подверглась критике за поверхностный анализ рисков своей новейшей ИИ-модели Llama 4, а OpenAI вовсе не представила отчёт по линейке GPT-4.1. «Мы явно наблюдаем гонку на понижение стандартов, — заявил Кевин Бэнкстон (Kevin Bankston), старший советник по вопросам управления ИИ Центра демократии и технологий. — А на фоне сообщений о том, что другие компании, включая OpenAI, сокращают время на тестирование с месяцев до дней, такой уровень отчётности Google является тревожным сигналом». ИИ-помощник Gemini «прозрел» у бесплатных пользователей на Android
17.04.2025 [11:54],
Владимир Мироненко
Компания Google сообщила о доступности с сегодняшнего дня для всех пользователей Android-устройств функции Gemini Live, которая реализована в приложении Gemini и позволяет ИИ-помощнику «видеть» и реагировать на изображения на экране и в камере. Ранее эта функция была доступна по подписке Gemini Advanced. ![]() Источник изображения: Amanz/unsplash.com Функция Gemini Live на базе искусственного интеллекта была официально запущена в начале этого месяца для всех пользователей смартфонов Pixel 9 и Samsung Galaxy S25 с предустановленным приложением Gemini. «Мы получили отличные отзывы о Gemini Live с возможностью совместного использования камеры и экрана, поэтому мы решили предоставить её большему количеству людей, — сообщила Google на платформе X. — Начиная с сегодняшнего дня и в течение следующих недель мы предоставим её всем пользователям Android с приложением Gemini». Чтобы получить больше сведений о рецепте, который вы читаете, или о растении, которое заметили, можно обратиться к ИИ-помощнику, нажав кнопку «Поделиться экраном с Live» во вкладке Gemini, и он будет «видеть» именно то, о чем вы хотите узнать. Чтобы поделиться с ИИ-помощником изображением с камеры, необходимо перейти в полноэкранный интерфейс Gemini Live и нажать кнопку камеры. Откроется видоискатель, позволяющий переключаться между фронтальной и основной камерами. Сегодня Microsoft объявила, что её аналогичный ИИ-инструмент Copilot Vision теперь доступен бесплатно в браузере Edge. ИИ-модели Gemini позволили анализировать снимки в «Google Фото», но пока не у всех пользователей
15.04.2025 [12:38],
Владимир Фетисов
Компания Google начала интеграцию своей нейросети Gemini в сервис «Google Фото». Благодаря этому пользователи теперь имеют возможность объединения Gemini со своим аккаунтом в «Google Фото», благодаря чему можно искать нужные снимки на основе текстовых запросов об их содержимом. На данный момент нововведение доступно только на территории США для запросов на английском языке. ![]() Источник изображения: BoliviaInteligente / Unsplash Согласно имеющимся данным, упомянутое нововведение доступно для всех пользователей устройств на базе Android, у которых установлено приложение Gemini. Для активации интеграции необходимо запустить приложение Gemini и в настройках профиля активировать соответствующую опцию. После этого алгоритм сможет помочь отыскать снимки, например, по сделанным пользователем меткам, местоположению, дате съёмки или описанию того, что изображено на фотографии. После того, как Gemini отобразит список найденных объектов, пользователь может нажать на миниатюру какого-то конкретного снимка или альбома, чтобы открыть его в «Google Фото». При необходимости снимки можно по одному перетаскивать из окна Gemini в другие приложения. Google не объявляла, когда интеграция Gemini с сервисом «Google Фото» станет доступна за пределами рынка США и получит поддержку большего количества языков. Вероятно, это произойдёт после того, как разработчики убедятся в том, что алгоритм работает полностью корректно. ИИ-помощник программиста Google Gemini Code Assist научился писать приложения по описанию и переводить код из одного языка в другой
09.04.2025 [18:32],
Сергей Сурабекянц
На конференции Cloud Next представитель компании сообщил, что ИИ-помощник по кодированию Code Assist теперь умеет развёртывать новых ИИ-агентов. Они могут создавать приложения из спецификаций продуктов в Google Docs или выполнять преобразования кода с одного языка на другой. Code Assist теперь доступен в Android Studio в дополнение к другим средам программирования. ![]() Источник изображения: Google Обновления Code Assist являются ответом на конкурентное давление со стороны таких компаний, как GitHub Copilot, Cursor и Cognition Labs, создателя вирусного инструмента программирования Devin. Рынок помощников по кодированию на основе искусственного интеллекта растёт с каждым месяцем, а его ёмкость оценивается в миллиарды долларов. Агенты Code Assist, которыми можно управлять с новой доски Gemini Code Assist Kanban, могут создавать рабочие планы и отчитываться о пошаговом прогрессе по запросам на работу. Помимо создания программного обеспечения и миграции кода, агенты могут внедрять новые функции приложений, выполнять проверки кода и генерировать модульные тесты и документацию. Пока трудно понять, насколько хорошо работают агенты Code Assist. Исследования показали, что даже лучшие генераторы кода на основе ИИ на сегодняшний день могут допускать ошибки и вносить уязвимости безопасности из-за неспособности понимать логику программирования. На одном из недавних тестов Devin успешно выполнил только три из двадцати задач. Поэтому, при использовании любого ИИ-ассистента для программирования не помешает самостоятельно проверить получившийся код. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |