Опрос
|
реклама
Быстрый переход
Гендир Google DeepMind рассказал о будущем ИИ и появлении у него самосознания
21.04.2025 [19:27],
Сергей Сурабекянц
Генеральный директор Google DeepMind Демис Хассабис (Demis Hassabis) в течение часа рассказывал журналистам о перспективах Gemini, темпах разработки сильного ИИ (Artificial General Intelligence, AGI) и общем росте самосознания нейросетей. Он уделил много внимания модели Project Astra, которая сейчас находится в стадии предварительного тестирования. Astra узнаёт пользователей и помнит историю общения с ними, — скоро эти возможности появятся в Gemini Live. ![]() Источник изображения: 9to5Google Хассабис отметил, что перспективная модель Project Astra отличается, прежде всего, увеличенным количеством памяти. В частности, она запоминает ключевые детали из предыдущих разговоров для лучшего контекста и персонализации. Также имеется отдельная «10-минутная память» текущего диалога. Эти возможности, предположительно, скоро появятся в Gemini Live. Хассабис подчеркнул, что Google DeepMind «обучает свою модель ИИ под названием Gemini не просто показывать мир, но и совершать действия в нём, такие как бронирование билетов и покупки онлайн». По мнению Хассабиса, реальный срок появления AGI — 5-10 лет, причём это будет «система, которая действительно понимает все вокруг вас очень тонким и глубоким образом и как бы встроена в вашу повседневную жизнь». На вопрос, «работает ли Google DeepMind сегодня над системой, которая будет осознавать себя», Хассабис заявил, что теоретически это возможно, но он не воспринимает какую-либо из сегодняшних систем как осознающую себя. Он полагает, что «каждый должен принимать собственные решения, взаимодействуя с этими чат-ботами». На вопрос, «является ли самосознание вашей целью» (при разработке ИИ), он ответил, что это может произойти неявно: «Эти системы могут обрести некоторое чувство самосознания. Это возможно. Я думаю, что для этих систем важно понимать вас, себя и других. И это, вероятно, начало чего-то вроде самосознания». «Я думаю, есть две причины, по которым мы считаем друг друга сознательными. Одна из них заключается в том, что вы демонстрируете поведение сознательного существа, очень похожее на моё поведение. Но вторая причина в том, что вы работаете на одном и том же субстрате. Мы сделаны из одного и того же углеродного вещества с нашими мягкими мозгами. Очевидно, что машины работают на кремнии. Так что даже если они демонстрируют одинаковое поведение, и даже если они говорят одно и то же, это не обязательно означает, что это ощущение сознания, которое есть у нас, будет тем же самым, что будет у них», — пояснил Хассабис в заключение. Google запустила ИИ-ассистента Gemini Live с возможностью полного контроля над диалогом
13.09.2024 [07:20],
Дмитрий Федоров
Google запустила бесплатный голосовой режим Gemini Live для всех пользователей Android. Эта функция, доступная через приложение Gemini, позволяет вести голосовой диалог с ИИ-ассистентом в реальном времени, прерывать его ответы и выбирать различные голоса. ![]() Источник изображения: Google Gemini App / X Google впервые анонсировала Gemini Live на презентации Pixel 9 в прошлом месяце, но до сих пор эта функция была доступна только подписчикам Gemini Advanced. Как сообщает ресурс 9to5Google, для активации режима достаточно выбрать новую иконку в форме волны в правом нижнем углу интерфейса. Gemini Live предлагает функциональность, схожую с голосовым чатом ChatGPT, но обладает рядом уникальных особенностей. Пользователи могут не только задавать вопросы голосом, но и прерывать ответы ИИ-ассистента в середине фразы, что позволяет вести с ним более естественный и динамичный диалог. Интерфейс предоставляет опции «hold» для приостановки ответа Gemini и «end» для завершения беседы, что даёт пользователю полный контроль над диалогом. Для ещё большей персонализации взаимодействия с ИИ пользователи могут выбрать для ассистента один из понравившихся голосов. На данный момент Gemini Live работает только на английском языке, но Google уже сообщила о планах расширения языковой поддержки и разработки версии для iOS. Google запускает голосовой чат Gemini Live для живых интеллектуальных бесед
13.08.2024 [23:30],
Анжелла Марина
На презентации Pixel 9 компания Google объявила о запуске нового режима голосового чата для Gemini под названием «Gemini Live». Эта функция во многом напоминает функцию голосового чата ChatGPT, предлагая на выбор несколько вариантов голосов и возможность вести разговор в естественной манере, включая прерывание ответов ИИ в любое время. ![]() Источник изображения: Google Как поясняет TheVerge, общение с Gemini Live может происходить в свободной форме, позволяя прерывать ответы на полуслове, приостанавливать разговор не нажимая никаких кнопок и возобновлять его позднее. Функция также работает в фоновом режиме и при заблокированном экране смартфона. Интересно, что о планах запуска Gemini Live компания Google впервые объявила на своей конференции разработчиков I/O ранее в этом году, где также было сказано, что «Live» сможет интерпретировать видео в режиме реального времени. В дополнение к этому, Google представила 10 новых голосов для Gemini, которые пользователи смогут выбрать по своему усмотрению. Функция начала развёртываться сегодня на устройствах Android, пока только на английском языке, но нам обещают, что в ближайшие недели Gemini Live станет доступен на iOS и получит поддержку дополнительных языков. ![]() Источник изображения: Google Помимо Gemini Live, анонсированы и другие функции для ИИ-ассистента, в частности возможность анализировать контекст экрана пользователя, что напоминает функцию ИИ, анонсированную недавно Apple на мероприятии WWDC. После того как пользователь выберет опцию «Ask about this screen» (Спросить о том, что изображено на экране) или «Ask about this video» (Спросить, что показано на видео), Gemini сможет предоставить информацию, включая извлечение деталей, например, пунктов назначения из туристических видео, для добавления в Google Maps. Отметим, что Gemini Live будет доступен пока только для подписчиков Gemini Advanced. |