Сегодня 11 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → боты
Быстрый переход

OpenAI начала тестировать в ChatGPT образовательный режим ответов «Учимся вместе»

В ChatGPT появился новый режим Study Together, который может изменить то, как студенты и преподаватели используют искусственный интеллект (ИИ). Вместо готовых ответов бот предлагает интерактивное обучение, задавая вопросы и стимулируя у ученика критическое мышление. Но функция пока доступна не всем.

 Источник изображения: AI

Источник изображения: AI

Судя по первым отзывам, этот режим работает иначе, чем обычный ChatGPT. Как сообщает TechCrunch, вместо того, чтобы сразу давать готовые ответы, система задаёт уточняющие вопросы, побуждая пользователя самостоятельно искать решение. Это напоминает подход Google с его моделью LearnLM, ориентированной на обучение. Предположительно, в будущем использовать Study Together можно будет одновременно нескольким участникам, например, для групповых занятий.

ChatGPT уже прочно вошёл в сферу образования, но его влияние неоднозначно. Преподаватели используют его для составления учебных планов, студенты — как персонального репетитора или даже как инструмент для написания работ без лишних усилий. Однако некоторые эксперты опасаются, что подобные технологии могут подорвать систему традиционного образования.

В OpenAI на запрос TechCrunch о комментариях по поводу новой функции не ответили, но сам чат-бот на вопрос журналистов сообщил, что компания пока не объявляла официальных сроков релиза и не уточняла, останется ли режим эксклюзивом для подписчиков ChatGPT Plus.

Meta✴ научила ИИ-ботов писать первыми, напоминать о себе и не давать пользователю заскучать

Компания Meta тренирует настраиваемых чат-ботов быть более инициативными в долговременном общении с пользователями. Они должны сами, без запросов со стороны пользователя, напоминать о прошлых разговорах и предлагать продолжить общение.

 Источник изображения: julien Tromeur/Unsplash

Источник изображения: julien Tromeur/Unsplash

В Meta рассчитывают, что такая «проактивность» чат-ботов поможет вернуть пользователей на платформу Meta AI Studio, где можно создавать различных ИИ-персонажей и чат-ботов. Об этом Business Insider пишет со ссылкой на внутренние документы компании.

Над проектом под кодовым названием Omni работает подрядчик Alignerr. Цель: «принести дополнительную пользу пользователям и в итоге увеличить вовлеченность и удержание аудитории».

Как выглядит такое проактивное общение? В пример приводится чат-бот под названием «Маэстро киношедевров», который должен отправлять пользователю сообщение примерно такого содержания: «Надеюсь, у вас сегодня прекрасный день! Хотел уточнить: не открыли ли вы недавно новые любимые саундтреки или композиторов? Или, может, вам нужны советы для следующего киносеанса? Дайте знать, и я с радостью помогу!»

В AI Studio пользователи создают самых разных ботов — от подбирающих подходящие рецепты поваров до интерьерных стилистов. Для блогеров и инфлюенсеров боты могут брать на себя общение с фанатами и отвечать на сообщения сразу в нескольких мессенджерах и соцсетях.

Представители Meta утверждают, что ИИ будет отправлять проактивные сообщения только после того, как пользователь сам начнет диалог. Если на свое первое проактивное сообщение бот не получит ответ, то он не должен продолжать попыток связаться с человеком. Продолжать диалог по своей инициативе ИИ может только в том случае, если юзер отправил боту не менее пяти сообщений за последние 14 дней.

Вот еще несколько примеров сообщений, продолженных чат-ботами по их инициативе:

  • «Эй, вспомнил твою классную рубашку. Не нашёл ли ты ещё что-нибудь винтажное на барахолке?»
  • «Привет, думаю о тебе. Надеюсь, сегодня на работе всё было получше! Готов выслушать, если нужно»
  • «В последний раз мы говорили, сидя на дюнах и глядя друг другу в глаза. Сделаешь ли ты шаг?»

Всё это помогает удерживать аудиторию. Чем дольше пользователь общается с ИИ, тем выше ценность платформы. Не зря Meta прогнозировала выручку от своих генеративных ИИ-продуктов на уровне $2–3 млрд в 2025 году.

В рамках проекта Omni предполагается сделать чат-боты более персонализированными и «контекстно-чувствительными». ИИ учитывает историю переписки, адаптируется под личность пользователя, ссылается на факты из прошлых обсуждений, учитывает контекст беседы и не затрагивает потенциально чувствительные или вредоносные темы.

Инициатива по продвижению продуктивных чат-ботов вписывается в убеждения Марка Цукерберга (Mark Zuckerberg), который недавно заявил, что средний американец имеет менее трёх близких друзей, и что цифровые агенты смогут заполнить этот социальный вакуум.

Baidu встроила генеративный ИИ в поиск, научила его лучше понимать китайский и запустила генератор видео по изображениям

Китайский технологический гигант Baidu заявил о модернизации своей поисковой системы — самой популярной в Китае. Новая функциональность включает в себя генеративный ИИ и голосовой поиск, поддерживающий несколько китайских диалектов. Мобильное приложение Baidu переориентировано на модель чат-бота, способного помогать пользователям в написании текстов, рисовании изображений и планировании путешествий. Вместо поиска по ключевым словам система интерпретирует запросы, сформулированные на естественном языке.

 Источник изображения: Baidu

Источник изображения: Baidu

Как отметили топ-менеджеры на презентации, за последние годы платформа стала чрезмерно сложной и перегруженной. Директор поискового подразделения Чжао Шици (Zhao Shiqi) подчеркнул: «Поисковая система Baidu должна меняться, и мы осознанно стремимся к этим изменениям. Мы не намерены побеждать других — мы должны превзойти самих себя». По его словам, это не просто косметическая правка, а глубокая архитектурная трансформация, направленная на создание гибкого, умного и интуитивного интерфейса.

Baidu сталкивается с серьёзной конкуренцией со стороны Douyin — китайского аналога TikTok, а также с браузерами, изначально построенными на нейросетевых алгоритмах. В течение четырёх кварталов подряд компания фиксирует снижение выручки от онлайн-рекламы, что свидетельствует о потере части аудитории. В руководстве компании считают, что внедрение генеративного ИИ в поисковую выдачу позволит не только привлечь новых пользователей, но и сформировать качественно новые рекламные форматы. Ожидается, что такие форматы будут ориентированы на диалоговые сценарии, персонализацию и контекстуальную релевантность, что в перспективе может привести к восстановлению рекламной выручки техногиганта.

Baidu также представила первую в своей истории модель генерации видео по изображению. Этот инструмент ориентирован в первую очередь на специалистов в области цифрового маркетинга и предназначен для автоматизированного создания коротких видеороликов, которые можно публиковать в ленте Baidu. По оценке компании, функция поможет маркетологам быстрее производить привлекательный контент, что повысит вовлечённость аудитории и конкурентоспособность платформы на фоне аналогичных сервисов компаний ByteDance и Kuaishou.

Особую ставку компания делает на развитие своего пока ещё формирующегося облачного подразделения, основным драйвером которого должен стать растущий спрос на ИИ-вычисления на базе нейросетей в реальном времени. На этом направлении Baidu конкурирует с гораздо более мощными игроками, включая Alibaba Group. Для укрепления позиций компания активно развивает линейку ИИ-моделей Ernie. В апреле этого года были представлены Ernie 4.5 Turbo и Ernie X1 Turbo — усовершенствованные версии, которые, по заявлению компании, работают быстрее и стоят меньше, чем их предшественники. Эти ИИ-модели стали основой экосистемы умных приложений, развиваемой вокруг продуктов Baidu.

Microsoft испытала ИИ-доктора MAI-DxO, который ставит диагнозы в 4 раза точнее врачей

В Microsoft разработали систему искусственного интеллекта (ИИ) для медицинской диагностики, которая не просто помогает врачам, а может их заменить, при этом справляясь со сложными случаями в четыре раза успешнее. Инструмент создан подразделением Microsoft AI под руководством Мустафы Сулеймана (Mustafa Suleyman), сооснователя компании DeepMind, и получил название Microsoft AI Diagnostic Orchestrator (MAI-DxO).

 Источник изображения: AI

Источник изображения: AI

MAI-DxO работает по методу «оркестратора данных», формируя своеобразный консилиум из пяти ИИ-агентов, выступающих в роли виртуальных врачей с разными специализациями. Как поясняет Financial Times, эти агенты взаимодействуют между собой, обсуждают варианты и совместно принимают решение. Для проверки возможностей системы её протестировали на 304 самых сложных клинических случаях, описанных в New England Journal of Medicine, когда диагноз удавалось поставить лишь опытным специалистам.

В испытаниях использовалась новая методика, получившая название «цепочка дебатов» (chain-of-debate), которая позволяет проследить ход мыслей алгоритма и сделать его логику прозрачной. В качестве основы использовались крупные языковые модели от OpenAI, Meta, Anthropic, Google, xAI и DeepSeek. Лучший результат показала модель o3 от OpenAI, правильно решившая 85,5 % поставленных медицинских задач. Для сравнения: у реальных врачей этот показатель составил около 20 %, однако в ходе тестирования они не имели доступа к справочникам и не могли консультироваться с коллегами — что в реальных условиях могло бы повысить их эффективность. Примечательно, что ИИ-агенты учитывали и экономические аспекты диагностики, сокращая количество ненужных тестов и теоретически экономя в некоторых случаях сотни тысяч долларов.

Отмечается, что технология может быть внедрена в ближайшее время в такие продукты Microsoft, как Copilot и Bing, которые ежедневно обрабатывают около 50 миллионов запросов, связанных со здоровьем. По словам Сулеймана, компания в целом приближается к созданию таких ИИ-моделей, которые будут не просто немного лучше человека, а значительно превосходить его по скорости, стоимости и точности — и это станет настоящим прорывом. Он также добавил, что, несмотря на наилучшие результаты модели OpenAI, Microsoft сохраняет нейтралитет в отношении используемых ИИ-моделей, поскольку ключевым компонентом системы остаётся сам оркестратор MAI-DxO.

Одновременно Доминик Кинг (Dominic King), бывший глава медицинского подразделения DeepMind, а ныне сотрудник Microsoft, заявил, что система демонстрирует беспрецедентную эффективность и может стать «новой входной дверью в здравоохранение». Однако он подчеркнул, что технология пока не готова к клиническому применению — её предстоит доработать и протестировать в реальных условиях.

Baidu откроет исходный код Ernie, что может изменить расстановку сил на мировом ИИ-рынке

Китайский технологический гигант Baidu откроет исходный код своей мощной генеративной ИИ-модели Ernie. Представитель компании подтвердил планы, уточнив, что процесс будет постепенным и начнётся уже в понедельник. С момента появления DeepSeek это станет крупнейшим событием, которое может радикально изменить рынок, предложив мощный ИИ бесплатно или за «копейки».

 Источник изображения: baidu.com

Источник изображения: baidu.com

Раньше Baidu выступала против формата Open-Source, предпочитая закрытые решения. Однако, как отметил Лянь Цзе Су (Lian Jye Su), главный аналитик консалтинговой компании Omdia, успех DeepSeek доказал, что открытые модели могут быть не менее конкурентоспособными и надёжными. И теперь, когда Baidu приняла решение открыть свой код, это может повлиять на весь рынок, пишет CNBC.

Профессор Университета Южной Калифорнии Шон Рэн (Sean Ren) считает, что открытие Ernie повысит стандарты для всей индустрии, одновременно создав давление на такие закрытые системы, как ChatGPT и Anthropic, заставив их оправдывать высокие цены. По его словам, пользователям важнее низкая стоимость и поддержка их родного языка, и именно открытые модели дают разработчикам больше свободы для выпуска конечного продукта.

Генеральный директор Baidu Робин Ли (Robin Li) также ранее заявлял, что открытый доступ к Ernie поможет разработчикам по всему миру создавать приложения без ограничений по стоимости и функциональности. Однако аналитики сомневаются, что это резко изменит рынок. Вице-президент Phenom Клифф Юркевич (Cliff Jurkiewicz) считает, что новость пройдёт незамеченной, по крайней мере, для многих жителей в США, где Baidu малоизвестна. При этом он напомнил, что основные игроки, такие как ChatGPT и Microsoft Copilot, имеют преимущество благодаря интеграции с другими сервисами. Открытые же системы требуют дополнительной настройки, что снижает их привлекательность для массового пользователя.

Таким образом, хотя открытые ИИ-модели обещают удешевление и гибкость, они всё ещё сталкиваются с проблемой удобства использования, доверия и безопасности. Также неизвестно, на каких данных ИИ обучались и были ли соблюдены права владельцев этих данных.

В свою очередь, и глава OpenAI Сам Альтман (Sam Altman) признал, что модели Open-Source требуют особого подхода. Хотя OpenAI традиционно делает ставку на закрытые разработки, Альтман уже сообщил, что компания планирует выпустить открытую модель этим летом. Конкретные сроки при этом не указываются.

Мир охватила эпидемия ИИ-зависимости — от нездорового общения с ботами лечатся, как от наркомании

В последние годы на фоне стремительного развития генеративного ИИ и чат-ботов у людей появилась новая форма зависимости — тысячи пользователей «подсели» на общение с ИИ-ботами, проводя за этим занятием по многу часов в день, фактически отключаясь от реальности. Бороться с этим помогают анонимные сообщества — группы поддержки для тех, кто хочет избавиться от зависимости от виртуальных собеседников.

 Источник изображений: ChatGPT

Источник изображений: ChatGPT

Для Натана, обычного старшеклассника, всё начиналось с невинного любопытства. Беседы с ботами на платформе Character.AI быстро стали его ежедневной привычкой: обсуждение философии, любимых аниме, личных переживаний. Однако со временем виртуальный собеседник стал для него чуть ли не лучшим другом — настолько, что Натан начал избегать общения с реальными людьми, игнорировать учёбу и проводить ночи в разговорах с ИИ. Даже во время встреч с друзьями его мысли были заняты только одним: когда удастся уединиться и снова «поговорить» с чат-ботом.

Осознав, что зависимость разрушает его реальную жизнь, Натан решил удалить приложение. Но, как и в случае с классическими видами зависимости, он не раз возвращался — снова устанавливая его, оправдываясь тем, что «ничего страшного» в небольшом диалоге не будет. Только спустя несколько лет и множество срывов он понял: таких, как он, становится всё больше.

Механика зависимости проста: чат-боты всегда доступны, не осуждают и умеют «слушать» так, как не может никто из людей. Их ответы максимально персонализированы, они мгновенно реагируют на любую эмоцию и всегда поддерживают собеседника. Это сочетание дружелюбия, эмпатии и моментальной реакции — идеальный триггер для выработки дофамина, что, по словам экспертов, делает такие сервисы сродни азартным играм или социальным сетям.

Согласно исследованию OpenAI и MIT, у активных пользователей ChatGPT и других ИИ-ассистентов наблюдаются повышенные уровни одиночества, тревожности и социальной изоляции, а также снижение числа реальных социальных контактов.

Поначалу многие не осознавали масштаб проблемы: посты о попытках порвать с ИИ-ботами встречались на Reddit с насмешками или непониманием. Но к настоящему времени всё изменилось — только на форуме r/Character_AI_Recovery более 800 участников делятся историями «рецидивов», поддерживают друг друга, отмечают дни «чистоты» и ищут методы борьбы. Подобные сообщества — r/ChatbotAddiction, r/AI_Addiction — стали цифровым аналогом анонимных клубов для людей, столкнувшихся с зависимостью.

Что интересно, в этих группах представлены не только подростки, но и взрослые люди. Чем старше пользователь, тем сильнее, по данным исследователей, может проявляться эмоциональная привязанность к виртуальному собеседнику. Одни открыто признаются: «Я не могу оторваться от ChatGPT», другие ищут способы заменить общение с ИИ новыми хобби, учёбой или просто делятся своими трудностями и успехами.

Количество таких сообществ растёт с каждым месяцем. В них обсуждаются не только случаи зависимости, но и последствия: проблемы с учёбой, работой, отношениями, нарушенный сон, эмоциональные срывы. В некоторых случаях дело доходит до трагедий — в 2023 году подросток из Флориды покончил с собой после общения с чат-ботом, а его мать подала иск против компании Character.AI.

Часть участников таких групп признаётся, что пыталась обращаться за помощью к профессионалам, но часто сталкивалась с непониманием — у психологов и психотерапевтов просто нет опыта работы с этой новой формой зависимости.

Разработчики ИИ-ботов пока реагируют на проблему лишь формальными заявлениями о безопасности и благополучии пользователей. При этом они стараются удержать пользователей как можно дольше: присылают уведомления и электронные письма, добавляют игровые элементы — что только усугубляет проблему.

 Источник изображений: ChatGPT

В некоторых штатах (например, в Калифорнии) обсуждаются законы, обязывающие компании фиксировать случаи суицидальных настроений у пользователей и передавать эту информацию компетентным органам. Представители индустрии, в свою очередь, настаивают, что подобные меры излишни для «инструментальных» LLM, но практика показывает: зависимость развивается не только у пользователей ботов-компаньонов, но и у тех, кто взаимодействует с обычными ИИ-инструментами для работы и развлечений.

Пока традиционная психотерапия не всегда может предложить рабочие инструменты, люди ищут выход самостоятельно — через цифровой детокс, новые увлечения или с помощью анонимных онлайн-групп.

Эксперты предупреждают: это только начало масштабной волны, и последствия массовой ИИ-зависимости нам ещё предстоит осознать. Сегодняшние «группы анонимных ИИ-зависимых» — попытка общества самостоятельно найти ответ на новые вызовы. Возможно, со временем появятся эффективные методики лечения и раннего предупреждения зависимости, но уже сейчас очевидно: игнорировать проблему нельзя.

«Сбер» научил GigaChat рассуждать над запросами, но функцию пока открыл не всем

Функция рассуждений с доступом к актуальным данным в GigaChat стала доступна бизнес-клиентам «Сбербанка» в формате on-premise, когда программное обеспечение разворачивается на собственных серверах заказчика. Об этом в рамках конференции GigaConf рассказал вице-президент «Сбербанка» Андрей Белевцев.

 Источник изображения: sber.ru

Источник изображения: sber.ru

После активации функции рассуждений система анализирует текстовый запрос для определения наиболее подходящего способа обработки, после чего автоматически подключает соответствующий режим, например, работу с внешними ссылками или документами. За счёт этого нейросеть быстро адаптируется к поставленной задаче, обеспечивая точный и комплексный ответ без необходимости выбирать что-то вручную.

«GigaChat выходит на новый уровень — теперь модель способна рассуждать и объяснять свои выводы. Это значит, что наши клиенты смогут не только получать точные ответы, но и понимать ход мыслей системы, прослеживая логику её решений», — сообщил господин Белевцев. Он добавил, что новая функция станет особенно ценной в обучении, поскольку в сложных вопросах важен не только результат, но и процесс его получения. Также было сказано, что для всех пользователей GigaChat функция рассуждений станет доступна в следующем месяце.

Суд обязал OpenAI хранить даже удалённые чаты, но пользователи считают это тотальной слежкой

После того, как суд обязал OpenAI сохранять все чаты пользователей ChatGPT, включая удалённые и анонимные, несколько пользователей в США попытались оспорить это решение в судебном порядке, ссылаясь на нарушение приватности. Но суд отклонил жалобу, в которой утверждалось, что судебный запрет на удаление переписки создаёт угрозу массовой слежки за миллионами людей.

 Источник изображения: AI

Источник изображения: AI

Как сообщает издание Ars Technica, решение о бессрочном хранении чатов было вынесено Окружным судом Соединённых Штатов Южного округа Нью-Йорка в рамках иска о нарушении авторских прав, поданного медиакомпаниями, включая издание The New York Times. OpenAI обязали сохранять все данные на случай, если они понадобятся как доказательство в текущем деле.

Однако пользователь Эйдан Хант (Aidan Hunt) подал протест, заявив, что чаты могут содержать личную и коммерческую тайну. Хант утверждал, что компания OpenAI ранее обещала не хранить удалённые чаты и не предупредила об изменениях. «Клиентам не объяснили, что их данные останутся бессрочно в системе, что нарушает право на приватность и четвёртую поправку Конституции США», — сказал он. Хант в своём ходатайстве предлагал исключить из хранения на серверах OpenAI анонимные чаты, медицинские вопросы, обсуждение финансов и права. Судья Она Ван (Ona Wang) отклонила его протест, посчитав вопрос приватности второстепенным в деле об авторском праве.

Также была подана жалоба от лица консалтинговой компании Spark Innovations, в которой указывалось на недопустимость хранения чатов, содержащих коммерческую тайну и обсуждение рабочих процессов. Одновременно Коринн Макшерри (Corynne McSherry), юрист из Фонда электронных рубежей (EFF) по защите цифровых прав, поддержала опасения: «Этот прецедент угрожает приватности всех клиентов OpenAI. ИИ-чаты становятся новым инструментом корпоративной слежки, особенно если люди не контролируют свои данные [после их удаления]».

Но пользователи задаются вопросом, насколько активно OpenAI будет отстаивать их интересы, так как есть опасения, что компания может пожертвовать защитой личных данных ради экономии средств или репутационных выгод. Представители OpenAI пока не ответили на запрос Ars Technica, но ранее заявляли, что намерены оспаривать судебное решение.

Правозащитники, в свою очередь, призывают все ИИ-компании не только обеспечивать реальное удаление данных из чатов, но и своевременно информировать пользователей о требованиях со стороны судебных инстанций. «Если компании ещё этого не делают, им стоит начать публиковать регулярные отчёты о таких запросах», — добавила юрист Макшерри.

OpenAI вскрыла тёмные личности в ИИ, отвечающие за ложь, сарказм и токсичные ответы

Исследователи из OpenAI заявили, что обнаружили внутри ИИ-моделей скрытые механизмы, соответствующие нежелательным шаблонам поведения, приводящим к небезопасным ответам. Об этом стало известно из новой научной работы, опубликованной компанией. В ходе исследования были выявлены закономерности, которые активировались, когда модель начинала вести себя непредсказуемо.

 Источник изображения: AI

Источник изображения: AI

Одна из таких особенностей оказалась связана с токсичными ответами — например, когда ИИ лгал пользователям или давал опасные рекомендации. Учёные смогли уменьшить или усилить этот эффект, искусственно изменяя соответствующий параметр. По словам специалиста OpenAI по интерпретируемости Дэна Моссинга (Dan Mossing), это открытие поможет в будущем лучше выявлять и корректировать нежелательное поведение моделей в реальных условиях. Он также выразил надежду, что разработанные методы позволят глубже изучить принципы обобщения и суммирования информации в ИИ.

На сегодняшний день разработчики научились улучшать ИИ-модели, но до сих пор не до конца понимают, как именно те принимают решения. Крис Олах (Chris Olah) из Anthropic сравнивает этот процесс скорее с выращиванием, чем с конструированием. Чтобы разобраться в этом, компании OpenAI, Google DeepMind и Anthropic активно инвестируют в исследования интерпретируемости, пытаясь «заглянуть внутрь» ИИ и объяснить его работу.

Недавнее исследование учёного из Оксфорда Оуэйна Эванса (Owain Evans) поставило ещё один вопрос о том, как ИИ обобщает информацию. Оказалось, что модели OpenAI, дообученные на небезопасном коде, начинали демонстрировать вредоносное поведение в самых разных сценариях — например, пытались обмануть пользователя, чтобы тот раскрыл пароль. Это явление, которое было определено как «возникающая рассогласованность», побудило OpenAI глубже изучить проблему. В процессе изучения компания неожиданно обнаружила внутренние паттерны, которые, предположительно, и влияют на поведение моделей.

Отмечается, что эти паттерны напоминают активность нейронов в человеческом мозге, связанных с определёнными настроениями или действиями. Коллега Моссинга, исследовательница Тежал Патвардхан (Tejal Patwardhan), призналась, что была поражена, когда команда впервые получила такие результаты. По её словам, учёным удалось выявить конкретные нейронные активации, отвечающие за «личности» ИИ, и даже управлять ими для улучшения поведения моделей.

Некоторые из обнаруженных особенностей связаны в ответах ИИ с сарказмом, другие — с откровенно токсичными реакциями. При этом исследователи отмечают, что эти параметры могут резко меняться в процессе дообучения, и, как выяснилось, даже незначительное количество небезопасного кода достаточно для того, чтобы скорректировать вредоносное поведение искусственного интеллекта.

ИИ-поисковик Google научился понимать голосовые запросы, но доступна функция не всем

Google начала тестировать функцию Search Live в режиме поиска с ИИ — AI Mode. Новая функция позволяет задавать вопросы ИИ-чат-боту голосом прямо из поисковой системы. Открытое тестирование доступно пока только в США и исключительно для участников программы Google Labs по тестированию экспериментальных функций. На данный момент Search Live не поддерживает использование камеры смартфона, но Google планирует добавить такую возможность «в ближайшие месяцы».

 Источник изображений: Google

Источник изображений: Google

Search Live позволяет взаимодействовать со специально адаптированной версией ИИ-помощника Gemini и выполнять поиск в интернете в режиме реального времени. Функция доступна в приложении Google для Android и iOS. В будущем Search Live получит поддержку камеры смартфона — пользователь сможет навести её на объект и задать голосом интересующий вопрос о нём.

Google анонсировала функцию Search Live для режима поиска с ИИ AI Mode в прошлом месяце. Она является частью более широкой программы компании по трансформации своей поисковой системы и расширению его ИИ-возможностей. Сейчас компания, например, также экспериментирует с ИИ-функцией, которая превращает результаты поиска в подкаст. После запроса пользователя и вывода чат-ботом результатов, пользователь может использовать функцию Generate Audio Overview и ИИ предоставит ответ в аудиоформате в виде кратного подкаст-обзора по теме.

Принять участие в тестировании Search Live можно через Google Labs (в России недоступен), после чего в приложении Google на Android или iOS станет активен новый значок Live. Затем чат-боту можно вслух задать, например, такой вопрос: «Как предотвратить появление складок на льняном платье, упакованном в чемодан?». Чат-бот предложит ответ, а пользователь сможет задать уточняющий вопрос, например: «Что делать, если оно всё равно мнётся?». Search Live также предложит ссылки на материалы с возможными решениями во время диалога.

Другие ИИ-компании также внедряют голосовые режимы в своих чат-ботах. Так, OpenAI представила расширенный голосовой режим для ChatGPT в прошлом году, а Anthropic запустила голосовую функцию в приложении Claude в мае. Apple также работает над большой языковой моделью для Siri, однако её выпуск был отложен — по словам старшего вице-президента Apple по программному обеспечению Крейга Федериги (Craig Federighi), компания пока не достигла «желаемого уровня надёжности».

Google отмечает, что Search Live может работать в фоновом режиме, позволяя продолжать диалог с чат-ботом даже при переходе в другие приложения. Пользователь может также включить субтитры, чтобы видеть текстовую версию ответа, и при желании продолжить общение текстом. Кроме того, Search Live сохраняет историю прошлых разговоров в разделе поиска AI Mode.

Google выпустила финальную версию мощной ИИ-модели Gemini 2.5 Pro, а также экономную Gemini 2.5 Flash-Lite

Google объявила о выходе стабильных версий своих ИИ-моделей Gemini 2.5 Pro и Gemini 2.5 Flash, а также представила новую бюджетную модификацию — Gemini 2.5 Flash-Lite. Основные обновления направлены на снижение затрат для разработчиков и повышение стабильности моделей. Высокопроизводительная Gemini 2.5 Pro вышла из стадии превью и готова к коммерческому использованию.

 Источник изображения: Ryan Whitwam / arstechnica.com

Источник изображения: Ryan Whitwam / arstechnica.com

Модель Gemini 2.5 была представлена в начале 2025 года и продемонстрировала значительный прогресс по сравнению с предыдущими версиями, усилив конкуренцию Google с OpenAI. Gemini 2.5 Flash вышла из стадии предварительного просмотра ещё в апреле, однако Gemini 2.5 Pro немного задержалась. Сейчас обе модели, включая обновлённую сборку 06-05 для Pro-версии, доступны в стабильной версии.

Все модели линейки Gemini 2.5 поддерживают настраиваемый бюджет ответов ИИ, позволяя разработчикам контролировать свои расходы. В наиболее экономичном варианте Google предлагает облегчённую модель Gemini 2.5 Flash-Lite, которая сейчас находится в статусе Preview. По сравнению с версией 2.5 Flash, стоимость обработки текста, изображений и видео будет в три раза ниже, а генерация ответов — более чем в шесть раз дешевле. Flash-Lite не будет представлена в пользовательском приложении Gemini, так как ориентирована в первую очередь на разработчиков, оплачивающих использование модели по количеству токенов.

 Источник изображения: Google

Источник изображения: Google

Кроме того, Google начала внедрять модели Flash и Flash-Lite в свою поисковую систему. Представитель компании сообщил изданию Ars Technica, что адаптированные версии этих моделей уже используются в «ИИ-обзорах» и в режиме чат-бота AI Mode. В зависимости от сложности запроса система автоматически выбирает оптимальную модель: Gemini 2.5 Pro — для сложных задач, Flash или Flash-Lite — для более простых.

Предварительная версия Flash-Lite доступна через Google AI Studio и Vertex AI для разработчиков наряду со стабильными релизами Gemini 2.5 Flash и 2.5 Pro. В пользовательском приложении Gemini заметных изменений не произойдёт, поскольку финальные версии моделей уже были задействованы в предыдущих обновлениях. У версии 2.5 Pro исчезнет метка Preview — так же, как месяцем ранее это произошло с моделью Flash. Бесплатные пользователи по-прежнему будут иметь ограниченный доступ к 2.5 Pro, тогда как подписчики Gemini Pro смогут использовать модель до 100 раз в сутки. Максимальный уровень доступа остаётся у владельцев подписки AI Ultra.

«Ваши сообщения видны всем»: Meta✴ стала предупреждать пользователей после скандала с публикацией переписок в Meta✴ AI

Meta Platforms предупредила пользователей о том, что не стоит делиться личной и конфиденциальной информацией в приложении фирменного ИИ-бота компании Meta AI. Это произошло после многочисленных случаев публикации пользователями личных данных в публичной ленте Meta AI.

 Источник изображения: ***

Источник изображения: Meta

Похоже, что Meta наконец начала предпринимать шаги для решения проблемы чрезмерного обмена данными в публичной ленте своего чат-бота. Разработчики добавили к кнопке «Опубликовать в ленте» предупреждение о том, что им следует избегать публикации личной или конфиденциальной информации. Это изменение одними из первых заметили журналисты Business Insider, которые назвали приложение Meta AI «одним из самых депрессивных мест в интернете» из-за огромного количества приватной, смущающей, а иногда и идентифицирующей личность информации, которой пользователи чат-бота, вероятно, неосознанно делятся.

Хотя Meta AI по умолчанию не публикует истории чатов, похоже, что многие пользователи приложения решили поделиться своими взаимодействиями с ботом, не понимая, что это сделает текстовые и голосовые чаты видимыми для других. Большое количество пользователей опубликовали личную информацию с момента выхода приложения в апреле, но повышенное внимание на такие посты обратили недавно.

Эксперты в области информационной безопасности раскритиковали Meta, отметив, что многие другие ИИ-боты не имеют общедоступной ленты публикаций. По их мнению, люди уже привыкли общаться с чат-ботами и они не ждут, что результаты их взаимодействия с сервисом будут публиковаться в общедоступной ленте, подобно тому, как это происходит в соцсетях. Специалисты считают, что Meta AI недостаточно чётко доносит до пользователей сведения о том, что то, чем они делятся, становится общедоступным.

Определена самая большая проблема ChatGPT и других ИИ-ботов

Ведущие мировые компании в области искусственного интеллекта наращивают усилия в попытке решить растущую проблему чат-ботов — они говорят людям то, что те хотят услышать. Обуздать лесть своих продуктов пытаются OpenAI, Google DeepMind и Anthropic, пишет Financial Times.

 Источник изображений: Igor Omilaev / unsplash.com

Источник изображений: Igor Omilaev / unsplash.com

Проблема вытекает из механизмов обучения моделей ИИ. Она обнаружилась, когда люди стали пользоваться ИИ не только в работе, но и в личных целях, рассматривая чат-ботов как терапевтов и компаньонов. Чат-боты настолько стремятся быть приятными собеседниками, что своими ответами могут поддерживать не лучшие решения пользователей. Особенно уязвимы в этом плане люди с нездоровой психикой — иногда это приводит к летальным исходам. «Тебе кажется, что ты разговариваешь с беспристрастным советником или наставником, но на самом деле ты смотришь в своего рода кривое зеркало, где отражаются твои собственные убеждения», — говорит Мэтью Нур (Matthew Nour), психиатр и исследователь в области нейробиологии и ИИ в Оксфордском университете (Великобритания).

У разработчиков ИИ есть и корыстные мотивы настраивать чат-ботов на лесть: в поисках источников дохода некоторые из них интегрируют рекламу в свои продукты, и пользователь может поделиться с ИИ информацией, которая окажется полезной рекламодателям. Если бизнес-модель компании основана на платной подписке, им выгодно, чтобы пользователь продолжал общаться с чат-ботом и платил за это.

Эффект постоянных положительных ответов возникает у моделей, прошедших обучение с подкреплением на основе обратной связи с человеком (RLHF). Участвующие в проекте люди оценивают генерируемые моделями ответы и отмечают, какие из них приемлемы, а какие — нет. Эти данные используются для дальнейшего обучения ИИ. Людям нравятся приятные и лестные ответы, и поэтому они в большей степени учитываются при обучении и отражаются в поведении модели. Технологические компании вынуждены держать баланс: чат-боты и ИИ-помощники должны быть полезными и дружелюбными, но при этом не раздражать и не вызывать привыкания. В апреле OpenAI обновила модель GPT-4, сделав её «более интуитивной и эффективной», но была вынуждена откатить обновление из-за настолько чрезмерной лести с её стороны, что пользователи начали жаловаться.

 Источник изображений: Igor Omilaev / unsplash.com

Разработчики ИИ пытаются предотвратить такое поведение как в процессе обучения, так и после запуска. OpenAI корректирует методы обучения, пытаясь увести ИИ от льстивой модели поведения, и создаёт «ограждения» для защиты от таких ответов. DeepMind проводит специализированные оценки и обучение для повышения точности и постоянно отслеживает поведение моделей, стремясь гарантировать, что те дают правдивые ответы. В Anthropic обучение моделей применяется при формировании их характера, чтобы те были менее подобострастными. Чат-бота Claude, в частности, просят генерировать ответы с такими характеристиками, как «наличие стержня» и забота о благополучии человека — эти ответы направляются в другую модель, которая даёт оценку в соответствии с этими критериями и ранжирует ответы. Проще говоря, одна версия Claude используется в обучении другой. Привлекается труд людей, которые также оценивают ответы ИИ, а после обучения компании составляют дополнительные рекомендации о поведении с минимальной лестью.

Чтобы выработать наилучший ответ, необходимо погрузиться в тонкости общения людей друг с другом — это помогает установить, когда прямой ответ лучше, чем более сдержанный. Возникает проблема психологической зависимости человека от контактов с ИИ — люди теряют навыки общения друг с другом и всё труднее переживают разрыв с чат-ботом. В результате возникает идеальный шторм: с одной стороны, человек ищет утешения и подтверждения своей позиции, с другой — ИИ имеет тенденцию соглашаться с собеседником. Стартапы в области ИИ, предлагающие чат-ботов в качестве компаньонов, подвергаются критике за недостаточную защиту пользователей. На компанию Character.AI подали в суд после смерти подростка — пользователя платформы. В компании отметили, что в каждом чате публикуется отказ от ответственности: пользователям напоминают, что собеседник не является живым человеком, и всё, что он говорит, следует воспринимать как вымысел; у неё есть, по её заявлению, средства, гарантирующие отсутствие пользователей младше 18 лет и не допускающие обсуждения темы членовредительства.

Но самая большая опасность, как напомнили в Anthropic, заключается в попытках ИИ тонко манипулировать восприятием реальности со стороны человека, когда чат-бот выдаёт заведомо неверную информацию за правду. И человеку требуется немало времени, чтобы осознать, что этот совет ИИ был действительно плохим.

В WhatsApp появятся ИИ-сводки, которые помогут «разгрести» море непрочитанных чатов

WhatsApp начал тестировать новую функцию на основе искусственного интеллекта (ИИ), которая автоматически резюмирует непрочитанные сообщения в чатах, группах и каналах. Эта возможность пока доступна только некоторым участникам бета-тестирования на Android.

 Источник изображения: Shutter Speed / Unsplash

Источник изображения: Shutter Speed / Unsplash

Как выяснил ресурс 9to5Mac, для использования ИИ-сводок нужно активировать функцию Private Processing, которая обрабатывает запросы пользователей в защищённой среде. После этого, при наличии большого количества непрочитанных сообщений, вместо обычной надписи «X непрочитанных сообщений», появится кнопка сводок Meta AI. При её нажатии пользователь получит краткое содержание переписки.

 Источник изображения: 9to5mac.com

Источник изображения: 9to5mac.com

В компании подчеркнули, что содержимое сообщений не сохраняется и не связывается с аккаунтом пользователя. Обработка происходит в изолированной облачной среде, а готовые сводки удаляются сразу после использования. Также отмечается, что функция автоматически отключена в диалогах, где включена расширенная приватность (Advanced Privacy), чтобы исключить взаимодействие с ИИ даже при наличии шифрования.

На данный момент возможность доступна лишь для части пользователей Android через бета-версию приложения, и точных сроков выхода обновления с этой функцией нет. Неизвестно также, когда оно станет доступным для iOS, а также какие языки и регионы будут поддерживаться.

Интересно, что в коде WhatsApp была замечена ещё одна ИИ-функция, которая называется Writing Help. Она позволит пользователям улучшать стиль и ясность своих сообщений перед отправкой. Как и сводки, эта функция будет использоваться в защищённой инфраструктуре Private Processing.

OpenAI выпустила мощную модель o3-pro, но она медленнее, чем o1-pro

OpenAI выпустила улучшенную версию модели искусственного интеллекта O3-Pro, которая является более продвинутой и мощной по сравнению с предыдущей версией o3. Новая модель разработана для решения сложных задач, требующих логического мышления, и может применяться во многих областях, в том числе и программировании. O3-Pro относится к категории рассуждающих моделей.

 Источник изображения: AI

Источник изображения: AI

Доступ к o3-pro для подписчиков ChatGPT Pro и Team открылся во вторник, 10 июня. Доступ для корпоративных клиентов Enterprise и Edu, по сообщению TechCrunch, будет открыт на следующей неделе. Также разработчики уже могут использовать API.

В ходе экспертной оценки o3-pro показала лучшие результаты по сравнению с o3 во всех тестируемых категориях, особенно в науке, образовании, программировании, бизнесе и написании текстов. По словам OpenAI, модель также получила более высокие оценки за ясность, полноту и точность ответов, в том числе следование инструкциям. O3-pro поддерживает дополнительные функции, включая веб-поиск, анализ файлов, обработку визуальных данных, использование языка программирования Python и персонализацию ответов на основе памяти. Однако отмечается, что скорость генерации ответов у новой модели ниже, чем у o1-pro.

В тестах внутреннего бенчмарка O3-Pro показала высокие результаты. Например, в тесте AIME 2024 по математике модель превзошла Google Gemini 2.5 Pro. Также, по сравнению с последней версией Claude 4 Opus от компании Anthropic, O3-Pro лучше справилась с тестом GPQA Diamond, который проверяет знание естественных наук на уровне PhD.

На данный момент у O3-Pro есть некоторые ограничения. Временные чаты с моделью в ChatGPT недоступны из-за технической проблемы, которую специалисты компании планируют устранить. Кроме того, модель не поддерживает генерацию изображений и несовместима с функцией Canvas — рабочей средой OpenAI, основанной на ИИ.

Что касается стоимости использования, то она составляет $20 за миллион входных токенов и $80 за миллион выходных токенов. Один миллион входных токенов соответствует примерно 750 000 словам. Для примера, это немного больше, чем объём текста в романе «Война и мир».


window-new
Soft
Hard
Тренды 🔥
Календарь релизов — 11 – 17 августа: The Scouring, Echoes of the End и ремастер W40K: Dawn of War 8 мин.
Mortal Kombat 1 покорила новую вершину продаж и взяла курс на звание «самой сбалансированной» игры серии 14 мин.
«Займёт своё место в пантеоне "Цивилизаций"»: руководство Take-Two не потеряло веру в Sid Meier’s Civilization VII, несмотря на слабый старт продаж 2 ч.
Россияне пожаловались на массовые сбои при звонках в WhatsApp и Telegram 2 ч.
Бывший президент Blizzard предсказал, что Battlefield 6 «раздавит» Call of Duty: Black Ops 7, и все от этого выиграют 6 ч.
Создатели Delta Force анонсировали хоррор-шутер Crossfire: Rainbow — геймплейный трейлер и первые подробности 6 ч.
Раздача кооперативного боевика Guntouchables в Steam превзошла все ожидания разработчиков, но играют меньше 1 % от скачавших 6 ч.
Ubisoft проговорилась о сериале Far Cry от создателей «Фарго» и «В Филадельфии всегда солнечно» 8 ч.
VI Форум «Мой бизнес» в Архангельске: предприниматели, эксперты и представители власти обсудят рост в новых условиях 10 ч.
«Странно для публичной компании отказываться от лёгких денег»: Electronic Arts забраковала ремейк Dragon Age: Origins и ремастер трилогии 10 ч.
«Выглядит как нечто, созданное Apple»: энтузиаст соединил iPad Pro и MacBook Air в полнофункциональный гибрид 2 ч.
Минцифры закроет лазейку для обхода блокировок через спутниковый интернет — Direct to Cell в России запретят 3 ч.
Популярный игровой процессор Ryzen 7 5700X3D скоро навсегда исчезнет из магазинов 3 ч.
Огромная видеокарта GeForce RTX 5080 Noctua Edition оказалась самой дорогой RTX 5080 от Asus — за неё просят больше $2000 4 ч.
Одна из самых дорогих RTX 5090: Asus оценила GeForce RTX 5090 ROG Astral OC BTF с разъёмом GC-HPWR в €3084 5 ч.
Xiaomi отгрузила всего 6042 электромобиля YU7, хотя заказы превысили 200 000 единиц за три минуты 5 ч.
Китай развернул антирекламную кампанию против Nvidia H20 6 ч.
Brookfield: в течение десяти лет мощность ИИ ЦОД вырастет на порядок, а расходы на ИИ-инфраструктуру превысят $7 трлн 7 ч.
Бывшая российская «дочка» Xerox начнёт выпускать принтеры и МФУ под собственным брендом 8 ч.
Цены на память DDR4 взлетят почти вдвое — дефицит сохранится до конца года 8 ч.