Опрос
|
реклама
Быстрый переход
Google показала ИИ-агента, который помогает проходить игры, наблюдая за действиями игрока
12.12.2024 [01:54],
Анжелла Марина
Google представила новую версию платформы искусственного интеллекта Gemini 2.0, с помощью которой можно создавать ИИ-агентов для советов и подсказок в видеоиграх. Агенты способны анализировать игровой процесс и предлагать оптимальные стратегии, а пользователи смогут получать рекомендации в режиме реального времени. ![]() Источник изображения: Supercell, theverge.com Как сообщают в блоге компании генеральный директор Google DeepMind Демис Хассабис (Demis Hassabis) и технический директор Корай Кавукчуоглу (Koray Kavukcuoglu), агенты «делают выводы об игре, основываясь исключительно на действиях на экране, и предлагают решения в режиме реального времени». Кроме того, они могут использовать поиск Google по базам знаний для предоставления более полной информации. Агенты уже тестируются в популярных играх, таких как Clash of Clans и Hay Day от Supercell. Однако, как пишет The Verge, технология находится на ранней стадии разработки, и пока не ясно, насколько полезными такие наставники окажутся для игроков. Помимо помощи в видеоиграх, Google развивает и другие направления применения Gemini 2.0. Например, ведётся работа над проектом Genie 2, который создаёт виртуальные игровые миры на основе лишь одного изображения. Пока эти миры остаются стабильными только около минуты, однако эксперты видят большой потенциал технологии. Также компания представила мультимодальные возможности Gemini 2.0 Flash, которые уже доступны разработчикам через API в Google AI Studio и Vertex AI. Новая версия отличается высокой скоростью работы, улучшенной обработкой данных и способностью генерировать изображения и текст, а также преобразовывать текст в речь на нескольких языках. Эти функции уже тестируются ранними партнёрами, а в январе платформа станет доступна широкой аудитории. Среди других проектов можно выделить Project Astra, Mariner и Jules. Project Astra, созданный для использования на Android-устройствах, был улучшен с помощью Gemini 2.0. Теперь ассистент на базе Astra может разговаривать на нескольких языках, использовать Google Search, Maps и Lens, а также запоминать больше данных, сохраняя при этом конфиденциальность. Project Mariner исследует, как ИИ может помогать в браузере, распознавая текст, изображения, код и другие элементы интерфейса, а Jules предназначен для помощи разработчикам в их рабочих процессах на GitHub. ИИ-агенты также могут применяться в физическом мире. Исследования Google показывают, что Gemini 2.0 способен использовать пространственное мышление в робототехнике. Хотя эти разработки находятся на ранней стадии, сама компания видит большой потенциал в создании агентов, которые способны взаимодействовать с реальной средой. Чтобы минимизировать риски и обеспечить безопасность своих ИИ-сервисов, компания проводит масштабные тестирования, сотрудничает с доверенными тестировщиками и внешними экспертами. В ближайшем будущем Google планирует интегрировать возможности Gemini 2.0 во все свои продукты, включая мобильное приложение Gemini. Google представила Mariner — прототип ИИ-агента для Chrome, которому можно давать сложные поручения
12.12.2024 [00:19],
Николай Хижняк
Google представила исследовательский прототип ИИ-агента под названием Project Mariner, который способен выполнять действия в интернете за человека. За разработку отвечает подразделение Google — DeepMind. ИИ-агент на базе Gemini берет под контроль браузер Chrome, перемещает курсор на экране, нажимает кнопки и заполняет формы, что позволяет ему использовать веб-сайты и перемещаться по ним так же, как это делает человек. ![]() Источник изображений: Google Компания сообщила, что в настоящий момент Project Mariner проходит стадию тестирования группой предварительно отобранных пользователей. В разговоре с порталом TechCrunch директор Google Labs Жаклин Конзельманн (Jaclyn Konzelmann) заявила, что Project Mariner представляет собой принципиально новый подход в пользовательском интерфейсе. Проект предлагает отказаться от прямого взаимодействия пользователей с веб-сайтами, возложив эти задачи на генеративную систему ИИ. По её словам, такие изменения могут затронуть миллионы предприятий — от веб-изданий до ритейла — которые традиционно полагались на Google как отправную точку для привлечения пользователей на свои веб-сайты. После установки и настройки Project Mariner в качестве расширения для браузера Chrome у последнего появится специальное окно чата. В нём можно поручить ИИ-агенту выполнение различных задач. Например, его можно попросить создать корзину покупок в продуктовом магазине на основе заданного списка. После этого ИИ-агент самостоятельно перейдёт на страницу указанного магазина (в демонстрации использовался магазин Safeway), выполнит поиск нужных товаров и добавит их в корзину. Журналисты отмечают, что система работает не так быстро, как хотелось бы: между каждым движением курсора проходит примерно 5 секунд. Иногда ИИ-агент прерывает выполнение задачи и возвращается к окну чата, запрашивая уточнения, например, о весе или количестве товаров. ИИ-агент от Google не может оформить заказ, так как в его алгоритм не включены функции заполнения номеров кредитных карт и другой платёжной информации. Project Mariner также не принимает файлы cookie и не подписывает соглашения об условиях использования от имени пользователей. Google подчёркивает, что это сделано намеренно, чтобы предоставить пользователям больше контроля. Кроме того, ИИ-агент делает снимки экрана окна браузера, с чем пользователи должны согласиться перед его использованием. Эти изображения отправляются для обработки в облачный сервис Gemini, который затем передаёт инструкции обратно на устройство пользователя для навигации по веб-странице. Project Mariner можно использовать для поиска рейсов и отелей, покупок товаров для дома, поиска рецептов и других задач, которые сейчас требуют самостоятельной навигации по сайтам. Одно из основных ограничений Project Mariner заключается в том, что он работает только на активной вкладке браузера Chrome. Иными словами, веб-страница, на которой действует ИИ-агент, должна быть постоянно открыта на экране монитора. Пользователям придётся наблюдать за каждым шагом бота. По словам главного технического директора Google DeepMind Корая Кавукчуоглу (Koray Kavukcuoglu), это сделано специально, чтобы пользователи знали, что именно делает ИИ-агент. «Поскольку [Gemini] теперь выполняет действия от имени пользователя, важно делать это шаг за шагом. Это дополнительная функция. Вы, как человек, можете использовать веб-сайты, и теперь ваш агент может делать всё, что вы делаете на веб-сайте», — отметил Кавукчуоглу в интервью TechCrunch. С одной стороны, пользователям всё равно придётся видеть страницу сайта, что выгодно для владельцев ресурсов. Однако использование Project Mariner снижает уровень непосредственного взаимодействия пользователей с функциями сайта и в перспективе может вообще исключить необходимость самостоятельного посещения веб-сайтов. «Project Mariner — это принципиально новый сдвиг в парадигме UX, который мы наблюдаем прямо сейчас. Нам нужно понять, как правильно всё это настроить, чтобы изменить принципы взаимодействия пользователей с интернетом, а также найти способы, которыми издатели смогут создавать собственные решения для пользователей на базе ИИ-агентов в будущем», — добавила Конзельманн. Помимо Project Mariner, Google представила несколько других ИИ-агентов для специализированных задач. Например, инструмент Deep Research для глубокого поиска и исследования в интернете. Также был представлен ИИ-агент Jules, предназначенный для помощи разработчикам в написании кода. Он интегрируется в рабочие процессы GitHub, анализирует текущий уровень разработки и может вносить изменения прямо в репозитории. Jules проходит тестирование и станет доступен в 2025 году. Google DeepMind также разрабатывает ИИ-агента для помощи пользователям в видеоиграх. Для этого компания сотрудничает с разработчиком игр, студией Supercell, чтобы проверить способности Gemini интерпретировать игровые миры на примере Clash of Clans. Сроки запуска прототипа этого ИИ-агента пока неизвестны, но Google подчёркивает, что эта разработка помогает в создании ИИ-агентов для навигации как в реальном, так и в виртуальных мирах. Google Glass вернутся в виде умных AR-очков с мощным ИИ-ассистентом Astra
11.12.2024 [23:50],
Анжелла Марина
Google раскрыла планы по запуску умных очков, интегрированных с проектом Astra — многофункциональным помощником на базе искусственного интеллекта. Устройство обещает стать незаменимым помощником в повседневной жизни, предоставляя информацию и выполняя задачи с помощью голосовых команд и дополненной реальности. ![]() Источник изображения: Google Впервые проект был представлен на конференции Google I/O этой весной, однако Astra пока существует в виде ранних прототипов и, в основном, отражает видение компании в области виртуальных ассистентов. Интересно, что в демонстрации проекта постоянно фигурируют очки. Это неудивительно, ведь Google уже много лет экспериментирует с подобными устройствами — начиная с Google Glass и заканчивая очками-переводчиком Project Iris, представленными два года назад. Ранее в этом году представитель компании Джейн Пак (Jane Park) описала их как «функциональный исследовательский прототип». Однако, по сообщению The Verge, проект уже находится на более продвинутой стадии. Во время пресс-брифинга, приуроченного к запуску Gemini 2.0, менеджер продукта команды Google DeepMind Бибо Сюй (Bibo Xu) заявила, что небольшая группа пользователей начнёт тестировать прототип очков. Она подчеркнула: «Очки являются одной из самых мощных и интуитивно понятных платформ для взаимодействия с ИИ-ассистентом Astra». Тестирование пройдёт в рамках программы Trusted Tester, участники которой получат доступ к ранним прототипам. Часть тестеров будет использовать Astra на смартфонах Android, а другая — через очки. Когда журналисты спросили о дальнейших планах относительно умных очков, Сюй отметила: «В ближайшее время появятся новые новости о самом продукте». Хотя это не является прямым подтверждением выхода устройства на рынок, очевидно, что Google рассматривает возможность его выпуска. Очки идеально подходят для реализации идей Astra, так как позволяют комбинировать аудио, видео и дисплей, обеспечивая удобное взаимодействие с ассистентом в формате «всегда включено». Несмотря на то, что гаджет, включая аналогичные разработки компании Meta✴, пока остаётся скорее концепцией, Google демонстрирует однозначные намерения воплотить эту идею в жизнь. Недавнее видео с Astra и Gemini 2.0 показывает, как пользователь запоминает коды доступа, проверяет погоду и даже узнаёт, подходит ли проезжающий автобус для нужного направления. Хотя все эти задачи можно выполнить со смартфоном, как отмечает издание The Verge, однако в формате носимого устройства это будет происходить гораздо естественнее. Когда именно устройство поступит на рынок, пока неизвестно. Google научила ИИ глубоко гуглить — Deep Research тщательно исследует любую тему в интернете
11.12.2024 [22:12],
Николай Хижняк
Компания Google представила новый ИИ-инструмент под названием Deep Research, который позволяет чат-боту Gemini проводить тщательный веб-поиск по заданной теме вместо пользователя и составлять детальный отчёт на основе обнаруженной информации. ![]() Источник изображений: Google В настоящий момент Deep Research доступен только для платных подписчиков Gemini Advanced и только на английском языке. Для его активации необходимо выбрать в Gemini в качестве модели «Gemini 1.5 Pro с Deep Research». ![]() При наличии доступа можно попросить Gemini провести исследование на определённую тему. После этого чат-бот составит «план поиска», который можно отредактировать или сразу одобрить. По словам Google, Gemini начнет своё исследование с «поиска интересных фрагментов информации» в интернете, а затем выполнит связанный поиск — процесс, который он повторяет несколько раз. ![]() Когда исследование будет завершено, Gemini выдаст отчёт о своих «ключевых выводах» со ссылками на веб-сайты, где была найдена информация. Пользователь может попросить расширить определённые области поиска, подправить отчёт, а также экспортировать сгенерированное ИИ-исследование в Google Docs. Всё это напоминает функцию Pages, предлагаемую поисковой системой ИИ Perplexity, которая генерирует пользовательскую веб-страницу на основе запроса пользователя. Google представила Deep Research в рамках более широкого анонса Gemini 2.0 — новой модели для эпохи «агентного» ИИ, или систем, которые способны заменить пользователя в рутинных операциях. Deep Research является лишь одним из примеров ИИ-агентов Google. Другие компании, работающие в сфере ИИ, также разрабатывают аналогичные решения. Вместе с анонсом Deep Research компания Google также объявила, что Gemini Flash 2.0 — более быстрая версия чат-бота следующего поколения — стала доступна для разработчиков. Google запустила «всеобъемлющую» ИИ-модель Gemini 2.0, которая может заменить человека
11.12.2024 [20:03],
Сергей Сурабекянц
Представлена новая модель ИИ Gemini 2.0 от Google, которая стала предельно универсальной — она генерирует текст, звук и изображения, а также предлагает новые мультимодальные возможности, которые закладывают основу для следующего большого этапа в развитии ИИ: агентов, которые в буквальном смысле могут заменить пользователя в рутинных операциях. Новая модель также стала заметно производительнее и энергоэффективнее. ![]() Источник изображения: techspot.com Как и любая другая компания, участвующая в гонке ИИ, Google лихорадочно встраивает ИИ во всё, до чего может дотянуться, пытаясь создать коммерчески успешные продукты. Одновременно требуется так настроить всю инфраструктуру, чтобы дорогостоящие ИИ-решения не разорили компанию. Тем временем Amazon, Microsoft, Anthropic и OpenAI вливают свои собственные миллиарды в практически тот же самый набор проблем. Gemini 2.0 представлена примерно через 10 месяцев после выпуска версии 1.5. Генеральный директор Google DeepMind Демис Хассабис (Demis Hassabis) очень высоко оценивает новую модель, называя её «всеобъемлющей», хотя Gemini 2.0 все ещё находится в стадии «экспериментального предварительного просмотра», по терминологии Google. Тем не менее Хассабис уверен, что новая модель предоставит совершенно другой уровень возможностей, в первую очередь в области агентского ИИ. Агентским ИИ называют ИИ-ботов, которые могут полноценно выполнять действия от имени пользователя. Например, Project Astra от Google — это визуальная система, которая может распознавать объекты, помогает ориентироваться в мире и находить утерянные предметы. По словам Хассабиса, возможности Astra в версии Gemini 2.0 многократно возросли. Другой пример — Google Project Mariner — экспериментальное расширение для браузера Chrome, которое может буквально подменять пользователя при веб-серфинге. Агент Jules, в свою очередь, помогает разработчикам в поиске и исправлении плохого программного кода. Выпущен даже агент, который помогает лучше играть в видеоигры. Хассабис приводит его в пример в качестве по-настоящему мультимодальной модели ИИ. «Мы действительно считаем 2025 год настоящим началом эры на основе агентов, — заявил Хассабис, — Gemini 2.0 является её основой». Он также отметил возросшую производительность и энергоэффективность новой модели, особенно на фоне общего замедления прогресса в отрасли ИИ. План Google относительно Gemini 2.0 заключается в том, чтобы использовать её абсолютно везде. Google ставила своей целью внедрить как можно больше функций в единую модель, а не запускать множество отдельных разрозненных продуктов. «Мультимодальность, различные виды выходных данных, функции — цель состоит в том, чтобы включить все это в основополагающую модель Gemini. Мы пытаемся построить максимально общую модель», — говорит Хассабис. По словам Хассабиса, с началом агентской эры ИИ потребуется решать как новые, так и старые проблемы. Старые вечны, они касаются производительности, эффективности и стоимости вывода. Новые во многом связаны с рисками в сфере безопасности и конфиденциальности. Gemini 2.0 на данный момент находится на экспериментальной стадии, причём только в облегчённой версии Gemini 2.0 Flash. Выход окончательной версии запланирован на начало следующего года. «Нам нужно генерировать прибыль»: Google нарастит присутствие ИИ в поиске
11.12.2024 [15:48],
Павел Котов
Холдинг Alphabet, в который входит Google, активно развивается в самых разных областях, в том числе на направлении беспилотного транспорта и квантовых вычислений, но приоритетным направлением для него остаётся веб-поиск. Здесь компания намерена увеличивать присутствие искусственного интеллекта. ![]() Источник изображения: BoliviaInteligente / unsplash.com Применение ИИ в поиске, который сделал бренд Google именем нарицательным, остаётся самой крупной ставкой для компании, заявила на конференции Reuters NEXT президент и главный инвестиционный директор Alphabet Рут Порат (Ruth Porat). «Мы встретим людей там, где они хотят оказаться», — рассказала топ-менеджер. Годовая выручка Alphabet составляет более $300 млрд, и бо́льшая часть этой суммы поступает от связанной с поиском рекламы. Прока что в поиск компания внедрила создаваемые генеративным ИИ сводки для запросов без очевидного ответа. Google была вынуждена пойти на этот шаг из-за конкуренции со стороны OpenAI ChatGPT. Но компании пришлось столкнуться с «галлюцинациями» ИИ, когда он даёт явно неправильные ответы. Google намерена продолжать развитие поиска с ИИ. Ещё одной ключевой инвестицией являются облачные услуги. Alphabet достигла значительных результатов в области здравоохранения; входящее в холдинг подразделение Isomorphic Labs разрабатывает медицинские препараты, используя ИИ AlphaFold, который предсказывает структуры белковых молекул. ИИ, по мнению Порат, поможет сохранить зрение людям, которые рискуют его потерять; а медицинским работникам не придётся больше подолгу работать у экранов в ущерб времени, которое они могут потратить на лечение пациентов. В 2024 году компания потратит $50 млрд на чипы, центры обработки данных и другие капитальные расходы; но и о результативности она забывать не намерена. «Нам нужно генерировать прибыль», — отметила президент Alphabet. Google попросила регулятора расследовать слишком близкие отношения Microsoft и OpenAI
11.12.2024 [15:40],
Алексей Разин
Крупнейшим акционером стартапа OpenAI остаётся корпорация Microsoft, которая вложила в его развитие более $13 млрд, а потому может спокойно претендовать на некоторые преференции в сотрудничестве с создателями ChatGPT. У конкурентов, однако, возникают возражения. Google просит американских регуляторов разорвать исключительное соглашение OpenAI с Microsoft, которое позволяет последней размещать в своей облачной инфраструктуре сервисы для клиентов OpenAI. ![]() Источник изображения: Microsoft О соответствующем ходатайстве Google стало известно с подачи агентства Reuters, которое упоминает об этом в контексте описания подробностей более широкого расследования, которое проводит Федеральная комиссия по торговле США (FTC). Регулятор сам обратился к Google с запросом по поводу влияния тесного партнёрства Microsoft и OpenAI на рынок соответствующих услуг. Google и Amazon, являющиеся игроками на рынке облачных услуг, хотели бы получить возможность размещать в своей инфраструктуре большие языковые модели OpenAI. Это позволило бы их клиентам избежать дополнительных расходов на доступ к облачным ресурсам Microsoft, где сейчас размещаются модели OpenAI по условиям исключительного соглашения между двумя последними компаниями. По мнению участников расследования, клиенты OpenAI могут столкнуться с дополнительными расходами при получении доступа к сервисам этой компании в том случае, если они до этого не являлись облачными клиентами Microsoft. Конкуренты последней подчеркнули, что подобные расходы могут навредить клиентам OpenAI. Миллионы роликов на YouTube получат дубляж на иностранных языках
11.12.2024 [08:27],
Алексей Разин
Совершенствование больших языковых моделей, лежащих в основе ИИ-ассистента Gemini, уже позволило Google предложить ограниченному кругу создателей видеоконтента функцию автоматического дубляжа их роликов на различных языках. Теперь доступ к этой возможности расширен для авторов видеороликов познавательного и образовательного содержания. ![]() Источник изображения: Unsplash, Bhautik Patel Как отмечает TechCrunch, сервис YouTube объявил о расширении поддержки функции автоматического дубляжа видеоконтента на сотни тысяч каналов, которые посвящены познавательным целям. Получить автоматический дубляж видео могут те авторы контента, которые, например, ведут кулинарные блоги или делятся секретами мастерства в различных сферах. В перспективе функция охватит и те каналы, которые специализируются на других типах контента. Чтобы воспользоваться новшеством, автору видео достаточно загрузить исходный видеоролик в обычном режиме. YouTube сам определит язык исходного видео и создаст дублированные версии на различных языках, если пользователь поставил необходимую отметку в интерфейсе страницы загрузки. Пока поддерживаются английский, французский, немецкий, индийский, индонезийский, итальянский, японский, португальский и испанский языки. Google предупреждает, что возможности Gemini по воссозданию человеческой речи на различных языках пока ограничены. Ассистент не только может допускать грамматические, стилистические и фонетические ошибки, но и отличаться от тембра владельца исходного голоса в видеоролике. В дальнейшем YouTube обещает добавить речи своего автоматического переводчика экспрессивности, что позволит лучше отображать эмоциональность оригинала и даже повторять окружающие звуки исходной аудиодорожки. Google совершила прорыв в квантовых вычислениях: решена 30-летняя проблема квантовой коррекции ошибок
10.12.2024 [02:10],
Анжелла Марина
Google совершила прорыв в области квантовых вычислений. Благодаря новому улучшенному процессору и усовершенствованной системе коррекции ошибок удалось значительно увеличить время жизни квантового кубита. Как сообщает Ars Technica, учёным удалось создать квантовый процессор Willow, который впервые преодолел порог квантовой коррекции ошибок. Это значит, что при увеличении числа кубитов частота ошибок не растет, а снижается. Кроме того, на полностью задействованном процессоре со 105-кубитами логический квантовый бит оказался стабилен в среднем на протяжении часа. ![]() Источник изображения: Google Для развития квантовых технологий Google построила собственный производственный центр для создания сверхпроводящих процессоров. «Ранее все устройства Sycamore изготавливались в общей лаборатории университета, где рядом работали аспиранты и другие исследователи, занимавшиеся различными экспериментами, — говорит Джулиан Келли (Julian Kelly), представитель команды Google. — Однако мы инвестировали значительные средства в создание нового предприятия, наняли персонал, оснастили его оборудованием и перенесли туда наши процессы». Первым результатом работы нового центра стало увеличение числа кубитов до 105 единиц на процессоре Willow, который стал вторым поколением квантовых процессоров Google. Новая архитектура этого процессора позволила снизить уровень ошибок благодаря увеличению размеров отдельных кубитов, сделав их менее чувствительными к шуму. Этот прогресс подтвердился и в ходе тестов, проведённых с использованием фирменного бенчмарка Google. «Мы пришли к тому, что выполнение задачи на нашем новом процессоре занимает менее пяти минут, тогда как классическому компьютеру потребовалось бы время соизмеримое с возрастом Вселенной», — отметил Келли. Если точнее, то Willow менее чем за пять минут решил задачу из квантового бенчмарка RCS, на которую у Frontier (самого быстрого суперкомпьютера в мире) ушло бы 10 септиллионов (1024) лет. Ключевым аспектом исследования стало поведение логических кубитов, представляющих из себя главный элемент квантовых вычислений. Они состоят из нескольких аппаратных кубитов, которые работают вместе для выявления и исправления ошибок. Для выполнения сложных алгоритмов, требующих нескольких часов, стабильность таких кубитов крайне важна, и новый результат Google подтверждает, что улучшенная система коррекция ошибок может обеспечить необходимый уровень надёжности. Квантовая коррекция ошибок — задача, которая стояла перед исследователями последние 30 лет и мешала практическому использованию квантовых компьютеров. Для этого был использован специальный код коррекции ошибок, представляющий из себя «поверхностный код» (этот код также должен быть устойчив к ошибкам), который должен идеально вписываться в квадратную сетку расположения кубитов. Увеличение размера этой сетки и использование всё большей её части улучшает и коррекцию. Исследование показало, что переход от расстояния трёх к пяти и затем к семи снижает количество ошибок вдвое на каждом этапе. «Мы увеличиваем сетку по этой системе, и уровень ошибок падает в два раза на каждом этапе», — пояснил Майкл Ньюман (Michael Newman) из Google. Однако кубиты всё ещё подвержены редким сбоям. Одной из причин являются локальные всплески ошибок, другая причина кроется в более сложном феномене, включающем одновременные ошибки в области, состоящей из примерно 30 кубитов. Пока таких событий зафиксировано лишь шесть, поэтому их изучение затруднено и в Google подчёркивают, что «эти события настолько редки, что нам сложно собрать достаточно статистики для их анализа». Кроме улучшения стабильности, увеличение размера кода коррекции ошибок позволяет значительно усилить эффект от будущих аппаратных улучшений. Например, в Google подсчитали, что улучшение производительности аппаратных кубитов в два раза при кодовом расстоянии Хэмминга d-15 снизит ошибки логического кубита в 250 раз. При расстоянии d-27 это же улучшение приведёт к уменьшению ошибок более чем в 10 000 раз. При этом полное устранение ошибок невозможно. «Важно понимать, что всегда будет определённый уровень ошибок, но его можно снизить до уровня, когда он станет практически незначительным», — отметили в компании. Несмотря на необходимость дальнейших исследований для увеличения времени жизни логических кубитов и масштабирования системы, команда Google уверена в достижении своих целей, а экспоненциальные улучшения подтверждают жизнеспособность технологии. Полученные результаты открывают путь к построению полезных на практике квантовых систем. К концу десятилетия Google планирует создать полноценный отказоустойчивый квантовый компьютер и начать предоставлять квантовые вычисления через облако. Google упростил отключение персонализированных результатов поиска
06.12.2024 [12:14],
Павел Котов
В поиске Google появилась маркировка персонализированной выдачи — если результаты поиска подстраиваются под пользователя, это теперь легко можно отключить. Функция присутствовала и раньше, но управлять ей было сложнее. ![]() Источник изображения: google.com В нижней части страницы с поисковой выдачей Google появилась пометка о персонализации результатов — если выдача не подвергалась подстройке под пользователя, система выводит сообщение: «Результаты не персонализированы»; в противном случае рядом появляется ссылка на результаты без персонализации. «Это изменение помогает людям точнее понять, были ли их результаты персонализированы, а также предоставляет им возможность изучить неперсонализированные результаты. Мы также упростили для людей возможность изменять настройки персонализации в любое время», — прокомментировал нововведение представитель Google Нед Адрианс (Ned Adriance). Ранее соответствующая информация показывалась индивидуально для каждого пункта в выдаче — новый вариант, по мнению компании, представляется более доступным и понятным. Ссылка на общую поисковую выдачу «даёт людям возможность временно просматривать результаты, которые не были персонализированы», пояснили в Google — это значит, что при переходе по этой ссылке настройки в профиле не меняются. Отключить персонализацию в поиске можно как минимум с 2007 года — для этого необходимо добавить выражение «&pws=0» в конец адреса страницы с выдачей. Полностью отключить персонализацию поиска можно в настройках учётной записи Google. «Впереди так много инноваций»: в поисковике Google произойдут глубокие изменения
06.12.2024 [11:21],
Владимир Мироненко
Генеральный директор Google Сундар Пичаи (Sundar Pichai) пообещал, что поисковая система компании «глубоко изменится» в 2025 году. «Я думаю, мы сможем решать более сложные вопросы, чем когда-либо прежде», — сообщил он в ходе мероприятия DealBook Summit, организованного изданием The New York Times. ![]() Источник изображения: Firmbee.com/unsplash.com «Я думаю, вы будете удивлены, насколько нововведения смогут изменить поисковик Google по сравнению с тем, что он представляет из себя сегодня», — отметил Пичаи. Пичаи также отреагировал на заявление генерального директора Microsoft Сатьи Наделлы (Satya Nadella), сделанное в начале этого года, в котором тот указал, что Google должна была стать «победителем по умолчанию» в гонке искусственного интеллекта среди технологических гигантов, имея всё для этого — вычислительные мощности, данные, модели, продукты и дистрибуцию, однако этого не случилось. «Я бы с удовольствием провёл сравнение собственных моделей Microsoft и наших моделей», — сказал Пичаи, добавив, что Microsoft «использует чужие модели», имея в виду партнёрство компании с OpenAI. Сундар Пичаи сообщил, что Google находится на самых ранних стадиях глубоких изменений. «Я просто думаю, что впереди так много инноваций. Мы стремимся быть на переднем крае в этой области, и я думаю, что так и есть», — отметил он. В этом году Google начала масштабную перестройку поисковой системы с использованием ИИ, включая добавление сводок поиска ИИ и обновление сервиса визуального поиска Google Lens («Google Объектив»), который позволяет выполнять поиск в интернете по снятому видео. Компания также готовится запустить крупное обновление ИИ-модели Gemini на фоне конкуренции с Microsoft, OpenAI и поисковой системой ИИ Perplexity. Google выпустила крупное обновление для Android 15 — улучшены субтитры, приложение Lookout и не только
06.12.2024 [11:21],
Владимир Фетисов
Компания Google выпустила функциональное обновление для мобильной ОС Android и устройств семейства Pixel. Разработчики улучшили инструмент генерации субтитров к видео, обновили приложение Lookout, а также добавили несколько ИИ-функций, основой для которых стала нейросеть Gemini 1.5. Все нововведения будут доступны владельцам устройств с Android 15, но некоторые функции также появятся в смартфонах с более старыми версиями программной платформы. ![]() Источник изображений: Google Разработчики улучшили приложение Lookout, с помощью которого люди с нарушениями зрения могут получить в формате аудио описания разных объектов и фотографий. Google интегрировала нейросеть Gemini 1.5 в приложение, благодаря чему пользователи смогут получать более качественные и детальные описания фотографий, сделанных или открытых с помощью Lookout. Это нововведение стало очередным шагом на пути Google по интеграции большего количества ИИ-функций в приложение Lookout, о чём компания объявила на прошедшей ранее в этом году конференции I/O. Обновление Android принесёт с собой улучшенные субтитры для видео. Теперь помимо расшифровки речи субтитры будут отображать сопутствующие звуки и эмоции, например, аплодисменты или вздохи. Это нововведение касается всей системы Android и будет доступно везде, где есть возможность активации функции субтитров. ![]() Google продолжает развивать новый ИИ-помощник Gemini Assistant. На этот раз он получил расширение Spotify, позволяющее воспроизводить аудио из музыкального сервиса через Gemini. На момент дебюта Gemini Assistant в нём отсутствовала поддержка ряда базовых функций, таких как воспроизведение музыки из Spotify. Теперь же это изменится, и новый ИИ-помощник станет более похожим на стандартный Google Assistant, который уже несколько лет может проигрывать аудио из Spotify. Gemini также получит доступ к расширению «Утилиты», благодаря чему ИИ-ассистент сможет выполнять больше действий от имени пользователя, например, совершать звонки, отправлять электронные письма и менять настройки устройства. Среди других примечательных особенностей пакета обновлений отметим появление возможности создания стикеров с помощью Emoji Kitchen внутри Gboard, возможности делиться фотографиями с помощью QR-кода в Quick Share, а также улучшенного инструмента сканирования квитанций и других документов в «Google Диске». Все упомянутые функции будут доступны на устройствах с Android 15, но некоторые из них также появятся в более старых версиях ОС. Декабрьское обновление принесёт несколько больше нововведений на смартфоны Pixel. В дополнение к перечисленным функциям владельцы смартфонов Google смогут задействовать улучшенную функцию проверки входящих вызовов. Пока звонящий разговаривает с голосовым помощником пользователь сможет включиться в беседу, чтобы отвечать на задаваемые звонящим вопросы от имени помощника, не принимая при этом вызов. Разработчики также обновили приложение Screenshots, улучшив функцию Circle to Search и добавив возможность сохранения в приложении результатов поиска. Google научила ИИ распознавать эмоции — у этого могут быть ужасные последствия
06.12.2024 [00:52],
Николай Хижняк
Google заявила, что её новое семейство ИИ-моделей обладает любопытной чертой — способностью «распознавать» эмоции. По словам компании, семейство ИИ-моделей PaliGemma 2, представленное в четверг, может анализировать изображения, позволяя ИИ генерировать подписи и отвечать на вопросы о людях, которых он «видит» на фотографиях. ![]() Источник изображений: Google «PaliGemma 2 генерирует подробные, контекстно релевантные подписи для изображений, выходя за рамки простой идентификации объектов, чтобы описывать действия, эмоции и общее повествование сцены», — пишет Google в своём официальном блоге. Для распознавания эмоций PaliGemma 2 необходимо настроить соответствующим образом. Без этого он не работает. Однако эксперты, с которыми пообщались журналисты портала TechCrunch, были встревожены перспективой появления общедоступного детектора эмоций. «Меня это очень беспокоит. Для меня проблематично считать, что мы можем “читать” эмоции людей. Это как просить совета у магического шара предсказаний (Magic 8 Ball, популярная игрушка, — прим. ред.) для решения серьёзных вопросов», — отметила в разговоре с TechCrunch Сандра Вахтер (Sandra Wachter), профессор этики данных и ИИ из Оксфордского института исследования Интернета. Технологические компании, занимающиеся развитием ИИ, годами пытаются создать искусственный интеллект, способный определять эмоциональные аспекты в любых вещах — начиная от обучения продажам и заканчивая задачами, связанными с предотвращением несчастных случаев. Разработка большинства детекторов эмоций базируется на ранних работах американского психолога Пола Экмана (Paul Ekman), который предположил, что у людей есть шесть основных типов эмоций: гнев, удивление, отвращение, удовольствие, страх и грусть. Однако последующие исследования этого вопроса поставили под сомнение гипотезу Экмана и показали, что существуют серьёзные различия в том, как представители разных слоёв общества выражают свои чувства. «Определение эмоций в каком-то универсальном общем случае невозможно, потому что люди испытывают эмоции сложным образом. Нам кажется, что, глядя на людей, мы можем определить, что они чувствуют. И этим приёмом на протяжении многих лет пытались пользоваться разные люди, в том числе разведывательные органы и рекламные компании. Я уверен, что в некоторых случаях абсолютно возможно обнаружить некоторые общие признаки, но это не то, о чём идёт речь и не то, для чего в конечном итоге можно найти универсальный ответ», — сказал специализирующийся на ИИ научный сотрудник Лондонского университета королевы Марии Майк Кук (Mike Cook) в интервью TechCrunch. Эксперты считают, что системы обнаружения эмоций, как правило, ненадёжны и предвзяты из-за особенностей взглядов самих разработчиков таких систем. В исследовании Массачусетского технологического института 2020 года учёные показали, что модели для анализа лиц могут формировать непреднамеренные предпочтения для определённых лицевых выражений, таких как улыбка. Более поздние исследования показывают, что модели анализа эмоций приписывают больше негативных эмоций лицам темнокожих людей, чем лицам белых людей. Google заявляет, что провела «обширное тестирование» для оценки демографических предубеждений у PaliGemma 2 и обнаружила «значительно более низкий уровень токсичности и ненормативной лексики» по сравнению с отраслевыми бенчмарками. Однако компания не предоставила полный список использованных бенчмарков и не указала, какие типы тестов проводились. Единственный бенчмарк, о котором рассказала Google, — это FairFace, состоящий из набора десятков тысяч портретов людей. Компания утверждает, что PaliGemma 2 показала хорошие результаты при оценке FairFace. Но некоторые эксперты раскритиковали бенчмарк за его предвзятость, отметив, что в FairFace представлены далеко не все расовые группы, а лишь несколько. «Интерпретация эмоций — это довольно субъективный вопрос, который выходит за рамки использования визуальных средств и тесно связан с личным и культурным контекстом. Если не брать в расчёт ИИ, исследования показывают, что мы не можем распознавать эмоции только по чертам лица», — говорит Хайди Кхлааф (Heidy Khlaaf), главный научный сотрудник по ИИ в AI Now Institute, некоммерческой организации, изучающей социальные последствия искусственного интеллекта. В ЕС использование систем распознавания эмоций вызвало серьёзные вопросы у регулирующих органов. Закон об ИИ, основной законодательный акт ЕС в области ИИ, запрещает школам и работодателям использовать детекторы эмоций. Однако он не запрещает их использование правоохранительными органами. ![]() Источник изображения: Unsplash Главное опасение экспертов, относительно открытых ИИ-моделей, таких как PaliGemma 2, которая распространяется через различные источники, включая платформу разработки ИИ Hugging Face, заключается в возможности злоупотребления и неправильности их использования, что может привести к реальному вреду. «Если эта так называемая “эмоциональная идентификация” основана на псевдонаучных предубеждениях и предрассудках, то существует значительный риск последствий в том, как эта возможность может быть использована для последующей и ложной дискриминации различных маргинализированных групп правоохранительными органами, работодателями, пограничными службами и т. д.», — говорит Кхлааф. В Google же говорят, что компания тестирует свои ИИ-модели на предрасположенность к «репрезентативный вреду» (стереотипам о социальных группах, например, расовых, этнических, гендерных или религиозных, которые приводят к отрицательным последствиям для этих групп и их представителей). «Мы провели надёжную оценку моделей PaliGemma 2 с точки зрения этики и безопасности, включая безопасность детей и безопасность контента», — добавили в компании. Профессора этики данных и ИИ в Оксфордском институте Интернета Сандру Вахтер такой ответ компании не убедил: «Ответственные инновации — это когда вы думаете о последствиях их разработки с первого дня работы над ними, каждый раз, когда вы входите в свою лабораторию, а затем продолжаете делать это на протяжении всего жизненного цикла продукта. Я могу представить себе множество потенциальных проблем, которые могут создать такие модели и в конечном итоге привести к антиутопичному будущему, в котором ваши эмоции будут определять, получите ли вы работу, кредит и поступите ли в университет». Из Google внезапно ушли создатели нашумевшего ИИ-блокнота NotebookLM ради собственного стартапа
05.12.2024 [15:31],
Алексей Разин
Около полутора лет назад корпорация Google представила NotebookLM — своего рода персональный программный блокнот, который обучается на записях пользователя, к декабрю перенесла его на более продвинутую платформу Gemini Pro, а в сентябре текущего года научила пересказывать видео и аудио. Создатели популярного приложения теперь покидают Google для запуска собственного стартапа. ![]() Источник изображения: Google По крайней мере, как сообщает TechCrunch, в социальной сети LinkedIn бывшая руководительница команды разработчиков NotebookLM Раиза Мартин (Raiza Martin) сообщила, что вместе с единомышленниками покинула Google для поиска «новых волнующих возможностей создания чего-то, трансформирующего весь рынок». Стартап пока существует в не очень явном виде и довольствуется заготовленной под будущий веб-сайт основой. Пока даже непонятно, будут ли создатели NotebookLM работать над похожими инструментами независимо от Google либо сосредоточатся на чём-то другом. Компанию Мартин составили дизайнер Джейсон Спилман (Jason Spielman) и инженер Стивен Хьюз (Stephen Hughes). В комментариях источнику Раиза Мартин не стала вдаваться в подробности своих дальнейших планов, но подчеркнула, что хотела бы создавать нечто, использующее новейшие ИИ-модели на пользу рядовым потребителям. «Выгоды от использования этих технологий должны быть доступны, удобны и очевидны обычным людям», — пояснила она, добавив, что её команда собирается создавать ИИ-продукт, ориентированный в первую очередь на потребности простого пользователя. У стартапа пока нет чётких источников финансирования, но он уже пользуется серьёзной поддержкой за пределами Google. Google DeepMind создала ИИ, который предсказывает погоду быстрее и точнее существующих систем
05.12.2024 [13:45],
Владимир Мироненко
Google DeepMind разработала новую модель прогнозирования погоды с помощью искусственного интеллекта (ИИ) GenCast, которая превосходит традиционные метеорологические методы по прогнозированию погоды на срок до 15 дней и, к тому же, точнее предсказывает экстремальные погодные явления. ![]() Источник изображения: NOAA/unsplash.com ИИ-модель GenCast рассматривает вероятность реализации нескольких сценариев для точной оценки тенденций — от выработки энергии ветра до перемещения тропических циклонов. Вероятностный метод GenCast является новым рубежом в использовании ИИ для обеспечения более качественных и быстрых ежедневных прогнозов погоды. Этот подход всё чаще используют крупные метеослужбы, пишет Financial Times. «Это знаменует собой своего рода переломный момент в развитии ИИ для прогнозирования погоды, поскольку современные необработанные прогнозы теперь поступают из моделей машинного обучения», — отметил Илан Прайс (Ilan Price), научный сотрудник Google DeepMind. Он добавил, что GenCast может быть включен в оперативные системы прогнозирования погоды, что позволит метеорологам лучше понимать тенденции и готовиться к предстоящим погодным явлениям. Новизна подхода GenCast в сравнении с предыдущими моделями машинного обучения заключается в использовании так называемых ансамблевых прогнозов, представляющих различные результаты, — метода, применяемого в современном традиционном прогнозировании погоды. Для обучения GenCast использовалась накапливавшаяся в течение четырёх десятилетий база данных Европейского центра среднесрочного прогнозирования погоды (ECMWF). Согласно публикации в Nature, модель GenCast превзошла 15-дневный прогноз ECMWF по 97,2 % из 1320 переменных, таких как температура, скорость ветра и влажность. Таким образом она превзошла по точности и охвату ИИ-модель GraphCast от Google DeepMind, представленную в прошлом году. GraphCast превзошла прогнозы ECMWF на 3–10 дней вперед примерно по 90 % показателей. Модели прогнозирования погоды на основе ИИ работают гораздо быстрее стандартных методов прогнозирования, которые полагаются на огромную вычислительную мощность для обработки данных. GenCast может сгенерировать свой прогноз всего за восемь минут, тогда как на составление прогноза с помощью традиционных методов уходят часы. По словам исследователей, ИИ-модель GenCast может быть дополнительно улучшена в части способности предсказания интенсивности крупных штормов. Также может быть увеличено разрешение её данных, чтобы соответствовать обновлениям, сделанным в этом году ECMWF. ECMWF назвал разработку GenCast «важной вехой в развитии прогнозирования погоды». Центр также сообщил, что интегрировал «ключевые компоненты» подхода GenCast в версию своей собственной системы прогнозирования ИИ с ансамблевыми прогнозами, доступную с июня. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |