Сегодня 02 февраля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → помощник
Быстрый переход

Google запустила ИИ-функцию Ask for Me для звонков в автомастерские и маникюрные салоны вместо пользователя

Google тестирует новый ИИ-инструмент, который обзванивает компании от имени пользователей, чтобы выяснить интересующие их вопросы и записать на встречу. Функция под названием Ask for Me собирает информацию о ценах и доступности услуг, но пока поддерживается только для поиска подходящих под те или иные критерии пользователей маникюрных салонов и автомастерских.

 Источник изображения: Google

Источник изображения: Google

Включение экспериментальной функции в Google Search Labs добавит в результаты веб-поиска местных маникюрных салонов или автомастерских сноску Ask for Me. При её выборе Google задаст пользователю ряд вопросов. Например, если речь об обслуживании автомобиля, то система спросит марку и модель авто, желаемый тип обслуживания (например, замена масла, смена шин и т.д.), а также время и дату, на которые пользователь хотел бы записаться для посещения автомастерской. Также необходимо будет ввести свой адрес электронной почты и/или номер телефона, на которые пользователь будет получать обновления по его запросу.

По словам руководителя отдела продуктов Google Роуз Яо (Rose Yao), функция Ask for Me создана на базе Duplex — инструмента в виде бесплатного сервиса, который использует ИИ для звонков в рестораны и, имитируя человеческий голос, от имени пользователя резервирует места.

В разговоре с порталом The Verge представитель Google Крейг Эвер (Craig Ewer) добавил, что с помощью Ask for Me «каждый звонок начинается с сообщения том, что это автоматизированная система Google, звонящая от имени пользователя». Компании могут отказаться от получения автоматизированных звонков в настройках своего профиля Google Business Profile или при непосредственном общении с ИИ-ботом. Эвер говорит, что для системы предусмотрена система квот по звонкам, чтобы компании не получали такие автоматические звонки слишком часто. Он также добавил, что любая собираемая ИИ-ботом информация «может быть использована для помощи с аналогичными запросами от других пользователей».

Google научила ИИ Gemini использовать сразу несколько приложений для одного запроса

Компания Google объявила о масштабном обновлении ИИ-ассистента Gemini, который теперь сможет выполнять задачи, затрагивающие несколько приложений, в рамках одного запроса. Обновление было анонсировано одновременно с запуском новых устройств Samsung Galaxy S25, в которых Gemini станет виртуальным ассистентом по умолчанию, заменив «коллегу» Bixby.

 Источник изображения: Google

Источник изображения: Google

Как сообщает The Verge, теперь Gemini способен на выполнение более сложных мультимодальных задач. Например, по запросу пользователя ассистент сможет найти ресторан итальянской кухни, где разрешено посещение с собаками, и сразу же отправить информацию об этом другу. В другом примере Gemini сможет найти расписание предстоящих игр любимой команды и добавить эту информацию в календарь, так же в рамках одного запроса.

Ранее функциональность взаимодействия с несколькими приложениями была основана на существующих расширениях Gemini, которые охватывали ряд приложений Google и ограниченное количество сторонних сервисов, таких как WhatsApp и Spotify. С сегодняшним же обновлением в этот список добавлены приложения Samsung для пользователей S25, включая Samsung Calendar, Notes, Reminder и Clock. При этом возможность использования одновременно нескольких расширений Gemini доступна для всех пользователей Android, iOS, а также через веб-браузер.

Также получил обновление голосовой режим Gemini Live, но пока функция доступна только для телефонов Galaxy S25 и S24, а также для серии Google Pixel 9. Владельцы этих устройств смогут отправлять изображения, файлы и видео с YouTube в интерфейс чата, запрашивая у Gemini отзывы и информацию. Google также сообщает, что анонсированные ранее возможности мультимодальной модели Project Astra, такие как совместное использование экрана и потоковая передача видео в реальном времени, появятся на Android в ближайшие месяцы.

Улучшена функция и Circle to Search. Теперь она автоматически распознаёт телефонные номера, адреса электронной почты и ссылки для упрощения взаимодействия. Кроме того, ИИ-обзоры в поисковых результатах стали поддерживать больше типов визуальных данных, включая изображения мест, объектов и произведений искусства.

Google также объявила об изменениях, которые упростят подключение брайлевских дисплеев и слуховых аппаратов к устройствам Android, сделав технологию более доступной для людей с ограниченными возможностями. Напомним, все эти нововведения были представлены на мероприятии Galaxy Unpacked, где Samsung также анонсировала свои новые устройства, включая Galaxy S25, S25 Plus, S25 Ultra и Galaxy Watch 7 LTE.

OpenAI завершила разработку мощной ИИ-модели o3-mini со способностью к рассуждению

Генеральный директор OpenAI Сэм Альтман (Sam Altman) сообщил в пятницу на платформе X о завершении работы над большой языковой моделью o3-mini, которую предполагается запустить в ближайшие пару недель. Он добавил, что компания учла пожелания пользователей и планирует выпустить интерфейс прикладного программирования (API) и ChatGPT одновременно.

 Источник изображения: Mariia Shalabaieva/unsplash.com

Источник изображения: Mariia Shalabaieva/unsplash.com

OpenAI представила большие языковые модели нового поколения o3 и o3-mini со способностью рассуждать в декабре прошлого года, охарактеризовав их как самые умные среди ИИ-решений в мире.

Модели o3 и o3-mini превосходят по производительности и возможностям «думающую» ИИ-модель o1, анонсированную в сентябре прошлого года. Компания ранее сообщила, что планирует запустить модель o3-mini к концу января 2025 года, после чего выйдет полномасштабная модель o3, рассчитывая, что более надёжные и умные большие языковые модели смогут превзойти существующие версии нейросетей, и это позволит привлечь новые инвестиции и увеличить аудиторию пользователей.

Также на этой неделе OpenAI представила бета-версию новой функции Scheduled tasks in ChatGPT («Запланированные задачи в ChatGPT»), позволяющую пользователям автоматизировать свою работу с помощью запланированных задач в ChatGPT. Как отметило агентство Reuters, это говорит о «вторжении» OpenAI в сферу деятельности умных помощников, превращая чат-бот ChatGPT в конкурента персональных ассистентов, таких как Siri, Alexa и др.

Microsoft решила, что подписчики Microsoft 365 будут платить на 30 % больше за ИИ-инструменты

Microsoft добавила функции Copilot в офисные приложения пакета Microsoft 365, увеличив стоимость подписки «Персональный» (Personal) и «Для семьи» (Home) на $3 в месяц. Существующие подписчики смогут продолжить использовать сервисы Microsoft 365 по старым тарифам до истечения оплаченного срока подписки. Также пользователи смогут остаться на прежних тарифах, отказавшись от функций Copilot.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Ранее доступ к ИИ-Ассистенту Copilot для приложений Word, Excel и PowerPoint предоставлялся лишь через отдельную подписку Copilot Pro за $20 в месяц. Теперь функция будет встроена в базовые пакеты Microsoft 365 с увеличением их стоимости. Однако, как сообщает The Verge, несмотря на изменение базовой подписки, Copilot Pro останется доступным за прежнюю цену в $20 в месяц для тех, кто хочет получать приоритетный доступ к новейшим ИИ-моделям и функциям. Подписка Microsoft 365 «Персональный» теперь стоит $99,99, а «Для семьи», позволяющая подключить до шести пользователей — $129,99.

Изначально Microsoft тестировала интеграцию Copilot в Microsoft 365 в Австралии, Новой Зеландии и некоторых странах Азии. Теперь функции искусственного интеллекта станут доступны пользователям практически по всему миру. По словам старшего директора по маркетингу Copilot Pro и Microsoft 365 Гарета Ойстрика (Gareth Oystryk), компания всегда стремилась сделать Copilot более массовым. «Мы знаем, что пользователи готовы платить за интеграцию ИИ в Microsoft 365, и нашей целью является возможность донести ценность этого до как можно большего числа людей», — подчеркнул Ойстрик.

Microsoft также вводит альтернативные планы для текущих подписчиков Personal Classic и Family Classic. Эти тарифы позволят сохранить прежнюю стоимость подписки без включения ИИ-функций. Однако, как отметили в компании, такие планы будут лишены значимых обновлений, ограничиваясь лишь обновлениями безопасности и незначительными улучшениями. Новые подписчики, напротив, автоматически получат доступ к ИИ, если обновят свой тариф.

Интересно, что в рамках изменений Microsoft также запускает систему ИИ-кредитов, которая будет работать в приложениях Word, Excel, PowerPoint, Outlook и OneNote. Подписчики офисного пакета будут ежемесячно получать кредиты на использование ИИ-функций, например генерацию изображений в Designer или других приложениях Windows. При этом пользователи Copilot Pro получат неограниченный доступ к всем возможностям. Для тех, кто не захочет использовать ИИ, Microsoft добавит возможность отключения Copilot — уже можно сделать это в Word, и в ближайшие недели в Excel и PowerPoint.

ChatGPT научился планировать и напоминать о делах, как Siri и «Google Ассистент»

OpenAI представила новую функцию под названием «Задачи» (Tasks), которая позволяет ChatGPT создавать напоминания и выполнять запланированные действия. Функция уже доступна в бета-версии и является попыткой превратить чат-бот в нечто большее, приблизив его к функциональности таких виртуальных помощников, как «Google Ассистент» или Siri.

 Источник изображения: Andrew Neel / Unsplash

Источник изображения: Andrew Neel / Unsplash

Tasks позволяет дать задание ChatGPT, что именно и когда нужно сделать. Например, можно попросить ежедневно присылать прогноз погоды в определённое время, напомнить о сроке действия паспорта или даже подготовить сказку для рассказа детям перед сном, поясняет The Verge.

Чтобы воспользоваться функцией, подписчикам нужно выбрать в меню ChatGPT модель «4o with scheduled tasks», затем просто сформулировать свою просьбу относительно того, что нужно сделать, и указать время выполнения. Кроме того, Tasks может рекомендовать задачи на основе предыдущих бесед, но пользователь должен вручную подтвердить каждую из таких рекомендаций. Управлять заданиями можно как в самих чатах, так и в новом разделе Tasks, доступном через веб-версию. После выполнения задач пользователи смогут получать уведомления на все свои устройства. Важно отметить, что одновременно может выполняться до 10 активных задач.

Нововведение уже доступно в бета-версии для подписчиков тарифов Plus, Team и Pro. OpenAI пока не уточняет, станет ли функция доступной для бесплатного использования, но предположительно, Tasks останется частью премиум-тарифов, которые стоят $20 или $200 в месяц.

Напомним, ранее чат-бот работал исключительно в режиме реального времени, отвечая на запросы в момент их поступления. Однако OpenAI решила несколько расширить рамки возможностей ChatGPT, превратив его в инструмент для долгосрочного планирования. Более того, на подходе новые разработки, такие как автономный агент Operator, который сможет управлять компьютерами, и проект Caterpillar, способный интегрироваться с Tasks для поиска информации, анализа данных, навигации по сайтам и работы с документами.

Отмечается, что несмотря на перспективы, у функции остаются нерешённые вопросы. Например, насколько надёжно Tasks будет справляться с задачами, особенно если речь идёт о важной и срочной информации. А запуск в бета-версии свидетельствует о том, что OpenAI пока лишь тестирует эту функцию с целью сбора отзывов от пользователей, не гарантируя стопроцентную надёжность.

ИИ-модель OpenAI o1 иногда думает на китайском языке, и никто не знает почему

Рассуждающая ИИ-модель OpenAI o1 удивляет лингвистическими способностями, переключаясь в процессе решения задач на разные языки, в том числе на китайский, даже если запрос был сделан на английском. Эксперты теряются в догадках, а OpenAI не спешит с объяснениями.

 Источник изображения: hdhAI

Источник изображения: hdhAI

OpenAI в прошлом году представила свою первую модель искусственного интеллекта (ИИ) с функциями рассуждения — o1. Однако пользователи заметили любопытную особенность: модель иногда начинает размышлять на китайском, персидском или других языках, даже если вопрос был задан на английском. Например, при решении задачи «Сколько букв R в слове strawberry?» o1 может выполнить часть рассуждений на китайском, прежде чем выдать окончательный ответ на английском.

Эксперты выдвигают несколько теорий, объясняющих это явление. Одной из них является гипотеза о влиянии китайских данных, на которых обучалась модель. Клемент Деланж (Clement Delangue), генеральный директор компании Hugging Face, разрабатывающей инструменты для создания приложений с использованием машинного обучения, и Тед Сяо (Ted Xiao), исследователь из Google DeepMind, отмечают, что многие компании, включая OpenAI, используют услуги сторонних китайских компаний для разметки данных, необходимых для обучения моделей. Это, по их мнению, и может приводить к тому, что модель o1 в некоторых случаях предпочитает в своих рассуждениях китайский язык, как более эффективный для обработки информации.

Однако не все согласны с этой теорией. Некоторые специалисты указывают на то, что влияние китайских данных не подтверждено и модель на самом деле может переключаться на разные языки, включая хинди и тайский. Это может быть связано с тем, что o1 просто выбирает наиболее удобный для себя способ решения задачи. По словам Мэтью Гуздиала (Matthew Guzdial), исследователя ИИ из университета Альберты, модель o1 не воспринимает языки как отдельные сущности, для неё это обычный текст, состоящий из набора токенов, который она обрабатывает.

В конечном итоге, точные причины поведения модели, рассуждающей на разных языках остаются загадкой. Лука Солдаини (Luca Soldaini), научный сотрудник Allen Institute for AI, подчёркивает, что из-за «непрозрачности ИИ-моделей невозможно точно установить, что происходит внутри» и как это всё функционирует. Сама OpenAI пока отмалчивается.

ИИ заменит человека в качестве основного пользователя приложений к 2030 году

Согласно исследованию компании Accenture, в ближайшее десятилетие может произойти кардинальная трансформация в сфере использования цифровых технологий, которая вызвана стремительным развитием искусственного интеллекта. К 2030 году ИИ-агенты станут основными пользователями приложений на предприятиях, а к 2032 году обычные потребители будут взаимодействовать с ИИ-агентами чаще, чем с приложениями, сообщает ZDNet.

 Источник изображения: Kandinsky

Источник изображения: Kandinsky

Эту трансформацию авторы доклада называют «большим бинарным взрывом», который произошёл в тот момент, когда фундаментальные ИИ-модели преодолели барьер естественного языка. По словам главного технического директора Accenture Картик Нараина (Karthik Narain), это событие дало старт изменениям в технологических системах и в том, как люди их проектируют и используют.

Нараин подчёркивает, что новые разработки «расширяют границы программного обеспечения, многократно увеличивают цифровой потенциал компаний и создают основу для когнитивных цифровых систем, которые глубоко интегрируют искусственный интеллект в структуру предприятий».

В отчёте также выделены три ключевых направления, которые будут определять технологическое развитие в ближайшие годы — это агентные системы, цифровое ядро и генеративные пользовательские интерфейсы. Эти направления будут развёрнуты на основе гибких и модульных строительных блоков, что позволит компаниям создавать легко масштабируемые и интеллектуальные цифровые компоненты.

Таким образом, исследование Accenture указывает на то, что в ближайшие годы главную роль в использовании цифровых технологий будут играть не люди, а автономные агенты, управляемые ИИ.

Представлено носимое ИИ-устройство Omi, которое читает мысли

На выставке CES 2025 представлено устройство Omi по цене $89, которое слушает разговоры пользователя, извлекает из них полезную информацию и составляет сводки при помощи искусственного интеллекта. Но главное — оно читает мысли своего владельца и знает, когда тот обращается к устройству.

 Источник изображения: omi.me

Источник изображения: omi.me

В ходе демонстрации создатель проекта Ник Шевченко (Nik Shevchenko) задал «в пустоту» вопрос, не обращаясь ни к кому конкретно, но мысленно выбрал адресатом Omi — и получил сгенерированный ИИ ответ на свой телефон. Гаджет считал его мозговые волны, понял, к кому в действительности обращался пользователь, и выполнил команду. Для выполнения своей задачи устройство обходится всего одним электродом, но через два года, считает господин Шевченко, Omi сможет не только определять адресата высказывания, но выполнять более серьёзные задачи — в конечном итоге считывать и сохранять мысли пользователя.

В теперешнем виде гаджет носится на шнурке на шее и при необходимости крепится на виске. Устройство постоянно слушает пользователя и помогает ему осмыслить повседневную жизнь; ресурса аккумулятора хватает на три дня. Для его запуска не нужно называть какого-либо кодового слова, но можно обращаться к Omi напрямую. Оно может подготовить сводку встречи и тезисно представить дальнейшие действия. В ходе презентации автор проекта поинтересовался котировкой биткоина, и через несколько секунд получил ответ в приложении на телефоне. Уведомления от приложения поступали довольно часто и не всегда были полезными, но господин Шевченко списал это на предварительную версию устройства.

В продажу Omi поступит во II квартале этого года. Сейчас устройством пользуются 5000 человек — им гаджет помогает составлять заметки, искать информацию и выполнять задачи, обычные для помощников с ИИ. Уже действует магазин приложений Omi, который разработчики используют, например, для подключения к популярным внешним сервисам — доступны 250 приложений, а ОС устройства доступна с открытым исходным кодом. Целью проекта Omi является создание многофункциональной платформы, не ограниченной одним только устройством или приложением. Для выполнения практических задач используются модели Meta и OpenAI, что позволяет быстро развёртывать новые возможности.

Gigabyte представила мощные игровые ноутбуки Aorus Master, Aero и Gaming, а также ИИ-помощника GiMATE

Компания Gigabyte представила на выставке CES 2025 ноутбуки следующего поколения серий Aorus Master, Gigabyte Aero и Gigabyte Gaming с поддержкой ИИ, а также ИИ-помощника GiMATE для бесшовного управления оборудованием и программным обеспечением.

 Источник изображения: Gigabyte

Источник изображения: Gigabyte

В новинках используются видеокарты серии GeForce RTX 50 от Gigabyte на базе архитектуры Nvidia Blackwell, получившие модернизированные решения для отвода тепла, гарантирующие высокую производительность видеокарт.

Флагманская серия ноутбуков Aorus Master включает модели с 18-дюймовым mini-LED-дисплеем и 16-дюймовым OLED-экраном. Ноутбуки Aorus Master предлагаются с процессором Intel Core Ultra 9 275HX и мобильной видеокартой Nvidia GeForce RTX 5090, обеспечивающими высокую производительность для тех, кто ищет игровые ПК с ИИ класса hi-end. Усовершенствованная система охлаждения WindForce Infinity EX обеспечивает пиковую эффективность до 270 Вт, что делает ее лучшей в своём классе на рынке. В её основе лежит передовой вентилятор Frost Fan высотой 158 мм с асимметричными лопастями для повышения эффективности охлаждения.

Модель Gigabyte Aero X16, сертифицированная Microsoft Copilot+ PC и оснащённая видеокартами GeForce RTX, предлагает самые передовые возможности ИИ для повседневных рабочих процессов, включая ChatRTX, RTX Remix, RTX Video, Nvidia Broadcast и многое другое. Ноутбук выполнен в компактном корпусе толщиной 16,7 мм весом 1,9 кг и обладает автономностью более 12 часов. Как сообщает Copilot+ PC, устройство отлично подходит как для игр, так и для создания контента, предлагая для работы полный набор функций Microsoft AI.

В свою очередь, Gigabyte Gaming A16 — тонкий игровой ноутбук с поддержкой ИИ, разработанный с учетом эргономики. Ноутбук оснащён удобной клавиатурой Gigabyte Golden Curve Keyboard и шарниром на 180 градусов, позволяющим его использовать для различных сценариев. Все новинки Gigabyte поддерживают технологию Dolby Atmos, обеспечивающую звук кинематографического качества.

Как сообщила Gigabyte, эксклюзивный GiMATE интегрируется с усовершенствованной моделью большого языка (LLM) и функцией Press and Speak, делая управление ноутбуком более естественным и интуитивным. Используя функцию AI Power Gear II для оптимальной энергоэффективности и AI Boost II для точного разгона аппаратной платформы, ИИ-агент обеспечивает оптимальные настройки для любого сценария. Функция AI Cooling позволяет снизить громкость работы кулера до 0 дБ, в то время как AI Audio и AI Voice оптимизируют звук для любых настроек. Функция AI Privacy обнаруживает присутствие посторонних и мгновенно активирует защиту экрана.

Apple заявила, что никогда не продавала данные из диалогов с Siri рекламодателям

Компания Apple выступила с официальным заявлением, в котором подтвердила свою приверженность конфиденциальности взаимодействия пользователей с Siri, подчеркнув, что не предоставляла данные голосового помощника рекламодателям и не продавала их кому-либо.

«Apple никогда не использовала данные Siri для создания маркетинговых профилей, никогда не предоставляла их для рекламы и никогда не продавала их кому-либо в каких-либо целях. Мы постоянно разрабатываем технологии, чтобы сделать голосового ассистента ещё более конфиденциальным, и будем продолжать это делать», — сказано в заявлении компании.

Публикация Apple появилась после того, как она урегулировала коллективный иск, связанный с Siri, на сумму $95 млн. Истцы обвинили Apple в записи разговоров, полученных в результате случайных активаций виртуального помощника, и в последующем распространении информации из этих разговоров для сторонних рекламодателей.

Некоторые истцы утверждали, что после упоминания в разговоре таких брендов, как Air Jordan, Easton bats, Pit Viper и Olive Garden, им показывали на устройствах Apple рекламу соответствующих продуктов. Ещё один истец заявил, что ему направили рекламу хирургического лечения после обсуждения этого вопроса в частном порядке со своим врачом.

Ранее на этой неделе Apple пояснила ресурсу MacRumors, что иск был урегулирован, чтобы избежать дополнительных судебных разбирательств.

В своём заявлении Apple отметила, что «не сохраняет аудиозаписи взаимодействия с голосовым помощником, если пользователи явно не соглашаются помочь улучшить Siri, и даже в этом случае записи используются исключительно для этой цели. Пользователи могут легко отказаться в любое время». Также Apple акцентировала внимание на том, что поисковые запросы и обращения к Siri не связаны с учётной записью Apple и не могут быть использованы для идентификации конкретного пользователя.

Глава OpenAI рассказал, когда появятся сильный ИИ, сопоставимый с человеком — ждать осталось недолго

Генеральный директор OpenAI поделился своим мнением о перспективах перехода от обычного искусственного интеллекта (ИИ) к созданию сильного искусственного интеллекта (AGI) или сверхинтеллекта, который способен думать как человек и даже превзойти его. По мнению Сэма Альтмана (Sam Altman), первые ИИ-агенты, соответствующие уровню AGI, могут появится уже в 2025 году.

 Источник изображения: Jonathan Kemper / Unsplash

Источник изображения: Jonathan Kemper / Unsplash

В своём блоге Альтман рассказал о будущем OpenAI. Основной целью компании на данный момент является создание «сверхинтеллекта в истинном смысле этого слова». Альтман подчеркнул, что инструменты на основе сверхинтеллекта приведут к инновациям и, как следствие, к росту благосостояния всего человечества. По его словам, новые ИИ-агенты будут превосходить интеллектуальные возможности людей и существенно изменят структуру компаний и результат их работы, войдя в «состав полноценной рабочей силы».

Однако, несмотря на оптимизм и обещания, в прошлом месяце Альтман попытался снизить ожидания в отношении AGI, заявив, что технология «будет иметь гораздо меньшее значение», чем полагают люди. И как отмечает The Verge, снижение акцента на традиционное определение AGI может быть выгодным для OpenAI в виду её тесного партнёрства с Microsoft, так как в рамках эксклюзивных соглашений от 2023 года OpenAI обязана официально объявить о создании AGI.

Однако Microsoft определяет свой интерес к AGI, в первую очередь, как к системе, способной генерировать $100 млрд прибыли, что на сегодня может создать определённые сложности, так как OpenAI пока не приносит прибыли и даже наоборот. Даже подписка ChatGPT Pro за $200 в месяц остаётся убыточной. «Люди используют этот инструмент гораздо чаще, чем мы ожидали», — написал Альтман в серии постов на платформе X. То есть, затраченные технические ресурсы на запросы и обработку пользовательских данных превышают цену подписки.

Хотя Альтман напрямую не упоминает о соглашении OpenAI с Microsoft о разделе прибыли, он вспоминает о произошедших событиях, которые привели к его увольнению с поста генерального директора OpenAI, затем найму в Microsoft и последующему возвращению в OpenAI в ноябре 2023 года. «Оглядываясь назад, я, конечно, хотел бы сделать всё по-другому, — говорит Альтман. — Необходимо построить более сильную систему управления OpenAI и следовать нашей миссии по достижению системы AGI, которая принесёт пользу всему человечеству».

Apple Intelligence стала занимать слишком много дискового пространства

Apple Intelligence обещала упростить жизнь, но пока лишь создаёт проблемы. Функция, запущенная в сентябре 2024 года, за четыре месяца увеличила свои требования к хранилищу с 4 до 7 Гбайт. Пользователи задаются вопросом, оправданы ли затраты на память и батарею, учитывая низкую эффективность функции Apple Intelligence в её текущем виде.

 Источник изображения: macrumors.com

Источник изображения: macrumors.com

Как сообщает издание Gizmodo, проблемы начались с выходом iOS 18.2 и macOS Sequoia 15.2. И хотя новые версии операционных систем расширили функциональность Apple Intelligence, добавив возможности генеративного ИИ, такие как Image Playground (создание изображений по запросу пользователя) и Genmoji для создания пользовательских эмодзи, это привело к значительному увеличению объёма данных, необходимых для работы системы.

Одной из причин возросших требований к памяти является использование локальной обработки. То есть, данные обрабатываются непосредственно на устройстве для обеспечения большей конфиденциальности, но при этом требуется хранение ИИ-моделей на самом гаджете. Кстати, именно поэтому доступ к Apple Intelligence имеют только устройства с мощными чипами M1, A17 или более новыми.

Так как Apple планирует и дальше развивать возможности ИИ, включая обновление голосового помощника Siri, то это значит, что требования к свободному пространству будут только расти. «Ожидайте, что эта функция будет продолжать заполнять ваше доступное хранилище в обозримом будущем», — отмечает не без доли горечи Gizmodo.

Между тем, согласно исследованию SellCell, большинство пользователей не в восторге от Apple Intelligence. 73 % владельцев iPhone, попробовавших функцию, считают, что она «не имеет особой ценности» для их пользовательского опыта. Кроме того, отмечаются жалобы на повышенный расход заряда батареи, связанный с работой искусственного интеллекта. В итоге, на данный момент Apple Intelligence, по мнению многих, не оправдывает затрат ресурсов, предлагая взамен лишь неточные пересказы новостей и необходимость чаще заряжать устройство.

Пока неясно, изменится ли отношение пользователей к Apple Intelligence с появлением новых, более востребованных функций, однако, несмотря на недовольство части пользователей и рост требований к хранилищу, Apple не собирается сворачивать с намеченного курса, делая серьёзную ставку на внедрение ИИ в свои устройства.

Apple согласилась выплатить по $20 десяткам миллионов пользователей, чьи разговоры подслушивала Siri

Apple согласилась выплатить $95 млн для урегулирования коллективного иска, обвиняющего её голосового помощника Siri в несанкционированной записи и передаче личных разговоров пользователей рекламодателям. Владельцы мобильных устройств заявили, что Apple регулярно записывала их частные разговоры после случайной активации Siri, а затем передавала эти данные третьим сторонам, включая рекламодателей.

 Источник изображения: Daniel Romero / Unsplash

Источник изображения: Daniel Romero / Unsplash

По сообщению Reuters, компания Apple достигла предварительного соглашения по делу о нарушении конфиденциальности, в рамках которого пользователи могут получить до $20 за каждое устройство с Siri, которым они пользовались.

Голосовые помощники обычно активируются с помощью «горячих фраз» вроде «Привет, Siri». Однако истцы указали, что даже случайные упоминания определённых брендов или тем в дальнейшем вызывали показ таргетированной рекламы. Например, два заявителя сообщили, что после обсуждения кроссовок Air Jordan и ресторанов Olive Garden им стала предлагаться реклама этих продуктов. Другой истец заявил, что получил прицельную рекламу медицинского характера после разговора с врачом, который, как он считал, был полностью приватным. Иск охватывает период, который начинается с 17 сентября 2014 года и заканчивается 31 декабря 2024 года, когда в Siri была внедрена функция «Привет, Siri».

По предварительным оценкам, участниками коллективного иска являются десятки миллионов человек, которые могут получить до 20 долларов за каждое устройство с поддержкой Siri, например iPhone и Apple Watch. Apple, в свою очередь, отрицает какие-либо нарушения, но согласилась на урегулирование для избежания дальнейших судебных разбирательств. Представители Apple и их юристы пока не ответили на запросы о комментариях.

Юристы истцов также не предоставили комментариев, но, как ожидается, они запросят до $28,5 млн в качестве гонораров и $1,1 млн на покрытие расходов из фонда урегулирования. Примечательно, что $95 млн, выделенные на урегулирование, составляют всего девять часов прибыли Apple.

Стоит отметить, что аналогичный иск от имени пользователей голосового помощника Google находится на рассмотрении в суде, а истцов в обоих делах представляют одни и те же юридические фирмы. Дело против Apple, зарегистрированное под номером 19-04577, может стать важным прецедентом в вопросах конфиденциальности и использования персональных данных голосовыми помощниками.

Anthropic выпустила мощную текстовую нейросеть Claude 3.5 Haiku — она вчетверо дороже флагманской Claude 3 Opus

Anthropic обновила свой чат-бот Claude, добавив большую языковую модель 3.5 Haiku. Новая нейросеть превосходит по производительности предыдущие версии, но и использование её будет обходиться дороже. При этом модель предлагает улучшенную генерацию текста, но пока не поддерживает анализ изображений.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Издание TechCrunch подтверждает, что модель, начиная со вчерашнего дня доступна в веб-версии Claude и на мобильных устройствах. Впервые представленная в ноябре, Claude 3.5 Haiku по некоторым тестам показывает результаты, равные или даже превосходящие флагманскую модель Anthropic, Claude 3 Opus. По словам компании, новинка идеально подходит для рекомендаций по программированию, извлечению и классификации данных, а также модерации контента. В отличие от своего предшественника, эта версия способна генерировать более длинные текстовые фрагменты и в неё заложена более свежая информации.

Однако в Claude 3.5 Haiku отсутствует поддержка анализа изображений, что ставит версию в невыгодное положение по сравнению с другими моделями Anthropic, такими как Claude 3 Haiku и 3.5 Sonnet. Релиз также вызвал определённую реакцию из-за изменения ценовой политики. Первоначально Anthropic заявляла, что стоимость новой модели будет такой же, как у её предшественника. Однако позже компания пересмотрела свою позицию, объяснив высокую стоимость улучшенными интеллектуальными возможностями новинки. «Во время финального тестирования мы обнаружили, что Haiku превзошёл Claude 3 Opus по многим показателям. В результате мы увеличили цену модели 3.5 Haiku, чтобы отразить её возможности», — заявила компания в своём посте на платформе X.

Стоимость использования Claude 3.5 Haiku начинается с $1 за миллион входных токенов (примерно 750 000 слов) и $5 за миллион выходных токенов. Для сравнения, использование Claude 3 Haiku обходится в 25 центов за миллион входных токенов и $1,25 за миллион выходных, что делает новую модель в четыре раза дороже. Несмотря на это, Anthropic продолжает предлагать Claude 3 Haiku как более экономичное решение с поддержкой анализа изображений. «Claude 3 Haiku останется доступным для пользователей, которым важна максимальная экономичность и функциональность обработки изображений», — отметил глава отдела по работе с разработчиками Алекс Альберт (Alex Albert).

Несмотря на критику из-за роста цен, Anthropic подчёркивает, что Claude 3.5 Haiku обладает улучшенными возможностями генерации текста и может ссылаться на более актуальные события. Однако повышение стоимости для модели в рамках одной серии, как отмечает TechCrunch, редкая практика в индустрии, которая ставит вопрос в плане дальнейшей стратегии ценовой политики компании на её продукты.

Google показала ИИ-агента, который помогает проходить игры, наблюдая за действиями игрока

Google представила новую версию платформы искусственного интеллекта Gemini 2.0, с помощью которой можно создавать ИИ-агентов для советов и подсказок в видеоиграх. Агенты способны анализировать игровой процесс и предлагать оптимальные стратегии, а пользователи смогут получать рекомендации в режиме реального времени.

 Источник изображения: Supercell, theverge.com

Источник изображения: Supercell, theverge.com

Как сообщают в блоге компании генеральный директор Google DeepMind Демис Хассабис (Demis Hassabis) и технический директор Корай Кавукчуоглу (Koray Kavukcuoglu), агенты «делают выводы об игре, основываясь исключительно на действиях на экране, и предлагают решения в режиме реального времени». Кроме того, они могут использовать поиск Google по базам знаний для предоставления более полной информации. Агенты уже тестируются в популярных играх, таких как Clash of Clans и Hay Day от Supercell. Однако, как пишет The Verge, технология находится на ранней стадии разработки, и пока не ясно, насколько полезными такие наставники окажутся для игроков.

Помимо помощи в видеоиграх, Google развивает и другие направления применения Gemini 2.0. Например, ведётся работа над проектом Genie 2, который создаёт виртуальные игровые миры на основе лишь одного изображения. Пока эти миры остаются стабильными только около минуты, однако эксперты видят большой потенциал технологии.

Также компания представила мультимодальные возможности Gemini 2.0 Flash, которые уже доступны разработчикам через API в Google AI Studio и Vertex AI. Новая версия отличается высокой скоростью работы, улучшенной обработкой данных и способностью генерировать изображения и текст, а также преобразовывать текст в речь на нескольких языках. Эти функции уже тестируются ранними партнёрами, а в январе платформа станет доступна широкой аудитории.

Среди других проектов можно выделить Project Astra, Mariner и Jules. Project Astra, созданный для использования на Android-устройствах, был улучшен с помощью Gemini 2.0. Теперь ассистент на базе Astra может разговаривать на нескольких языках, использовать Google Search, Maps и Lens, а также запоминать больше данных, сохраняя при этом конфиденциальность. Project Mariner исследует, как ИИ может помогать в браузере, распознавая текст, изображения, код и другие элементы интерфейса, а Jules предназначен для помощи разработчикам в их рабочих процессах на GitHub.

ИИ-агенты также могут применяться в физическом мире. Исследования Google показывают, что Gemini 2.0 способен использовать пространственное мышление в робототехнике. Хотя эти разработки находятся на ранней стадии, сама компания видит большой потенциал в создании агентов, которые способны взаимодействовать с реальной средой.

Чтобы минимизировать риски и обеспечить безопасность своих ИИ-сервисов, компания проводит масштабные тестирования, сотрудничает с доверенными тестировщиками и внешними экспертами. В ближайшем будущем Google планирует интегрировать возможности Gemini 2.0 во все свои продукты, включая мобильное приложение Gemini.


window-new
Soft
Hard
Тренды 🔥
ViewSonic выпустила 23,8-дюймовый игровой FHD-монитор с частотой 144 Гц и стоимостью всего $55 3 ч.
Квантовая физика помогла создать сверхточный атомный термометр 4 ч.
Galax выпустила GeForce RTX 5080 HOF OC LAB Plus-X для экстремального разгона 6 ч.
Илон Маск заявил о готовности Tesla выпустить 10 000 роботов Optimus за год 8 ч.
Мировой рынок смартфонов впервые за два года показал рост, а средняя цена смартфона достигла $365 9 ч.
Apple согласилась выплатить компенсации владельцам вздувшихся Apple Watch 11 ч.
В США создали стенд для тестирования солнечных парусов, которые доставят зонды к Альфе-Центавра и дальше 12 ч.
Apple закрыла проект по созданию лёгких очков дополненной реальности с сопряжением с Mac 12 ч.
Самый быстрый инференс DeepSeek R1 в мире: ИИ-платформа Cerebras снова поставила рекорд производительности 12 ч.
Количество умных приборов учёта ресурсов в России достигло 13 млн 13 ч.