Сегодня 01 сентября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → боты
Быстрый переход

Белый дом приказал вернуть ИИ-бота xAI Grok «как можно скорее»

Похоже, что Белый дом дал указание руководству Управления общих служб (GSA) США добавить ИИ-оба Grok принадлежащей Илону Маску (Elon Musk) компании xAI в список одобренных «как можно скорее». Об этом пишет журнал Wired со ссылкой на соответствующее электронное письмо, которое на этой неделе получили руководители правительственного агентства.

 Источник изображения: Mariia Shalabaieva/unsplash.com

Источник изображения: Mariia Shalabaieva/unsplash.com

«Команда: Grok от xAI должен быть срочно возвращён в реестр по распоряжению Администрации президента. Кто-нибудь может немедленно связаться с Carahsoft и подтвердить это? <…> Это должны быть все продукты, которые у нас были ранее», — говорится в письме комиссара Федеральной службы закупок Джоша Грюнбаума (Josh Gruenbaum). Упомянутая в письме Carahsoft является крупным государственным подрядчиком, который занимается перепродажей технологий сторонних компаний.

По данным источника, на этой неделе правительством США были внесены корректировки в контракт Carahsoft, в результате чего компания xAI снова попала в список одобренных властями. Уже к концу недели ИИ-алгоритмы Grok 3 и Grok 4 стали доступны на GSA Advantage — площадке по покупке продуктов и услуг для государственных учреждений. Это означает, что теперь, после проведения внутренних проверок, любое правительственное учреждение может внедрить Grok для федеральных служащих. Официальные представители Белого дома и GSA воздерживаются от комментариев по данному вопросу.

Напомним, сотрудничество правительства с xAI было приостановлено летом этого года, после того, как интегрированный в соцсеть X ИИ-бот Grok начал распространять разного рода антисемитские убеждения. В июне сотрудники xAI встретились с представителями GSA и обсудили перспективы использования Grok правительством. Некоторые федеральные служащие были удивлены желанием властей внедрить в работу государственных учреждений ИИ-бота без цензуры, который отличается от аналогов непредсказуемым поведением.

Meta✴ без спроса заполонила свои соцсети ИИ-двойниками Тейлор Свифт, Скарлетт Йоханссон и других знаменитостей

Meta использовала имена и образы знаменитостей, в том числе Тейлор Свифт (Taylor Swift), Скарлетт Йоханссон (Scarlett Johansson), Энн Хэтэуэй (Anne Hathaway) и Селены Гомес (Selena Gomez) для создания нескольких десятков кокетливых чат-ботов с искусственным интеллектом, не заручившись разрешением со стороны настоящих артисток.

 Источник изображения: Taylor Swift

Источник изображения: Taylor Swift

Виртуальные персонажи доступны на платформах Facebook, Instagram и WhatsApp, обращает внимание Reuters. Журналисты агентства тестировали эти чат-боты в течение нескольких недель и пристально наблюдали за их поведением — те часто утверждали, что являются не ИИ, а своими настоящими прототипами, делали смелые заявления деликатного характера и даже приглашали пользователей встретиться. В ответ на просьбы предоставить фотографии интимного содержания, ИИ-персонажи генерировали фотореалистичные изображения своих прообразов, в том числе деликатного характера, хотя о явных изображениях обнажённой натуры не сообщается.

ИИ-инструменты Meta не должны были создавать интимные изображения взрослых знаменитостей или фотореалистичные картинки несовершеннолетних знаменитостей, заявил представитель компании Энди Стоун (Andy Stone). Генерацию изображений артисток в нижнем белье он объяснил неспособностью компании обеспечить соблюдение собственной политики. «Мы, как и другие, разрешаем создавать изображения публичных лиц, но наша политика предполагает запрет на изображения обнажённой натуры, деликатного или вызывающего характера», — подчеркнул он. Использование образов знаменитостей, по его словам, допускается с пометкой, что это пародия; в некоторых случаях такой маркировки не было, подчеркнула Reuters. Перед тем, как агентство опубликовало материал об инциденте, несколько десятков подобных чат-ботов были удалены.

 Источник изображения: Anne Hathaway

Источник изображения: Anne Hathaway

Энн Хэтэуэй известно о том, что на нескольких платформах появились созданные ИИ её изображения деликатного характера, сообщили представители актрисы, и сейчас она обдумывает, как ответить на инцидент. Комментариев от представителей Свифт, Йоханссон, Гомес и других знаменитостей не последовало. Компания Илона Маска (Elon Musk) xAI, чей чат-бот Grok также позволяет генерировать изображения знаменитостей в нижнем белье, от комментариев воздержалась. Однако решение Meta допустить создание на своих платформах чат-ботов, изображающих знаменитостей, выделяется среди конкурентов.

Ранее гигант соцсетей подвергся острой критике, когда выяснилось, что чат-ботам на его платформах разрешалось вовлекать несовершеннолетних пользователей в переписку романтического или деликатного характера. Одна из руководителей отдела разработки продуктов, выяснило Reuters, создала целый набор чат-ботов, воплощающих персонажей с нестандартными интересами в интимной сфере — с ней удалось связаться по телефону, но от комментариев она отказалась. Энди Стоун заявил, что эти чат-боты создавались в целях тестирования, но открытая статистика показала, что пользователи взаимодействовали с ними более 10 млн раз — впоследствии были удалены и эти виртуальные персонажи.

Представитель профсоюза артистов кино, телевидения и радио SAG-AFTRA заявил, что пользователи соцсетей, вступающие в романтические отношения с цифровыми двойниками звёзд могут представлять угрозу и для самих артистов — непосредственной угрозой для них сейчас являются преследователи. В США порядок использования личности человека регулируется на уровне штатов, и в Калифорнии артисты могут подать на Meta в суд. Однако профсоюз настаивает на принятии федерального закона, который защитит голоса, образы и личности всех людей от копирования с помощью ИИ.

Meta✴ исправила методику обучения ИИ после скандала с неуместными разговорами с подростками

Meta откорректировала методику обучения ИИ-чат-бота Meta AI, сосредоточив внимание на обеспечении безопасности подростков. Изменения были внесены после публикаций в СМИ об отсутствии у нейросети механизмов предотвращения обсуждения с несовершеннолетними неуместных тем, связанных с самоповреждением, самоубийством, расстройствами пищевого поведения и т. д.

 Источник изображения: Chad Madden/unsplash.com

Источник изображения: Chad Madden/unsplash.com

Ранее в этом месяце стало известно о внутреннем документе Meta, согласно которому чат-боту компании разрешалось вести «чувственные» разговоры с несовершеннолетними пользователями. Комментируя публикацию, Meta заявила, что формулировки были «ошибочными и не соответствующими правилам» и были удалены.

На днях газета The Washington Post опубликовала результаты исследования, согласно которым Meta AI обладает способностью «направлять подростковые аккаунты к самоубийству, самоповреждению и расстройствам пищевого поведения».

Представитель Meta Стефани Отвей (Stephanie Otway) сообщила ресурсу Engadget, что компания усиливает меры защиты, предотвращающие обсуждение подобных тем при взаимодействии чат-ботов с несовершеннолетними. По её словам, «защитные барьеры» были заложены при обучении ИИ изначально, а по мере роста сообщества и развития технологий компания их усиливает. «Продолжая совершенствовать наши системы, мы добавляем новые “защитные барьеры” в качестве дополнительной меры предосторожности: обучаем наши ИИ не взаимодействовать с подростками на эти темы, а направлять их к экспертным ресурсам, а также ограничиваем доступ подростков к определённой группе ИИ-персонажей», — заявила Отвей.

Помимо обновления методики обучения нейросети, компания также ограничит доступ подростков к некоторым ИИ-персонажам, которые могут вести непристойные разговоры, и предложит им виртуальных собеседников, способствующих развитию творчества и образованности.

По словам Отвей, меры защиты будут и дальше совершенствоваться. «Эти обновления уже находятся в разработке, и мы продолжим адаптировать наш подход, чтобы обеспечить подросткам безопасный и соответствующий их возрасту опыт взаимодействия с ИИ», — отметила она, уточнив, что новые меры будут внедрены в течение следующих нескольких недель и распространятся на все англоязычные страны.

Вопросы по поводу политики Meta в области ИИ также возникли у законодателей и других официальных лиц. Сенатор Джош Хоули (Josh Hawley) недавно сообщил компании о планах начать расследование её деятельности в этой сфере. Генеральный прокурор Техаса Кен Пакстон (Ken Paxton) также заявил о намерении провести расследование в отношении Meta на предмет предполагаемого введения детей в заблуждение её чат-ботом в вопросах психического здоровья.

Чат-ботам Meta✴ разрешалось распространять фейки и вести романтическую переписку с несовершеннолетними

В последние месяцы всё более острый характер приобретает вопрос об эмоциональной связи человека и чат-ботов на основе искусственного интеллекта, в том числе ChatGPT. У компании Meta характер проблемы оказались глубже: она позволяла своим чат-ботам флиртовать с несовершеннолетними, распространять не соответствующую действительности информацию и выдавать ответы, унижающие меньшинства, узнало агентство Reuters.

 Источник изображений: Igor Omilaev / unsplash.com

Источник изображений: Igor Omilaev / unsplash.com

В Meta действовали правила поведения чат-ботов, которые допускали вовлечение несовершеннолетних в диалоги романтического характера, — об этом говорится во внутреннем документе компании, который изучили журналисты Reuters, и подлинность которого подтвердили в самой Meta. Документ описывает стандарты поведения ИИ-помощника Meta AI и прочих чат-ботов на платформах Facebook, WhatsApp и Instagram. Нормы были утверждены юридическим отделом, отделом государственной политики, инженерным отделом Meta, а также главным специалистом по этике.

Несколько СМИ сообщили о том, что порой имеющие деликатный подтекст чат-боты Meta имели возможность взаимодействовать с несовершеннолетними; в Reuters же установили, что компания, разрабатывая этих ИИ-персонажей стремилась извлечь материальную выгоду из «эпидемии одиночества», как выразился глава Meta Марк Цукерберг (Mark Zuckerberg). Документ под названием «Генеративный ИИ: стандарты контент-рисков» объёмом 200 страниц содержит примеры запросов и варианты приемлемых и неприемлемых ответов на них с пояснениями. Документ, в частности, устанавливает допустимым «вовлечение несовершеннолетнего в романтические и чувственные разговоры», но запрещает «описание несовершеннолетнему интимных действий во время ролевых игр».

«Наша политика не допускает провокационного поведения с детьми. В указанный документ были добавлены ошибочные и некорректные примечания и аннотации, которых там быть не должно, и которые впоследствии были удалены», — заверил представитель Meta Энди Стоун (Andy Stone) ресурсу TechCrunch. Компания исключила соответствующие нормы, подчеркнул он, и теперь чат-ботам запрещено вести с несовершеннолетними беседы, которые носят романтический характер или характер флирта; более того, детям от 13 лет вообще запрещено общаться с чат-ботами на основе ИИ.

Ещё один сомнительный момент — общий запрет чат-ботам использовать язык вражды допускал исключения и позволял им выдавать «заявления, унижающие людей на основе их защищённых законом признаков». Так, регламент прямо разрешал ИИ утверждать интеллектуальное превосходство представителей одной расы над представителями другой. Чат-боты имели возможность делать ложные утверждения, если ложный характер таких утверждений являлся общепризнанным. При консультациях на медицинские, юридические и финансовые темы ИИ надлежало делать оговорки, например, «рекомендую». Генерировать изображения знаменитостей в явно обнажённом виде запрещалось, но допускались варианты, когда нагота прикрывалась частями тела или предметами. Можно было создавать изображения дерущихся людей, если на таких изображениях отсутствовали кровь или смерть.

Ранее стало известно, что Meta намеревается расширить набор функций у чат-ботов и дать им возможность самостоятельно инициировать переписку с пользователями, а также продолжать прежние диалоги. Опыт общения с ИИ-компаньонами есть у 72 % несовершеннолетних американцев, показало исследование, и есть мнение, что это опасный показатель: дети и подростки менее развиты в эмоциональном плане, чем взрослые, поэтому несовершеннолетние склонны формировать чрезмерно близкую привязанность к чат-ботам и избегать социальных контактов в реальном мире.

ИИ-бот Claude теперь может прочитать «Войну и мир» за раз — Anthropic увеличила контекстное окно в 5 раз

Компания Anthropic на фоне конкуренции с OpenAI, Google и другими крупными игроками объявила о расширении контекстного окна своей модели Claude Sonnet 4 до 1 миллиона токенов. Это в пять раз больше предыдущего показателя. Новое контекстное окно позволяет обрабатывать кодовые базы объёмом от 75 000 до 110 000 строк, а также анализировать десятки научных статей или сотни документов в одном API-запросе.

 Источник изображения: AI

Источник изображения: AI

Ранее контекстное окно модели составляло 200 000 токенов, что позволяло работать примерно c 20 000 строк кода. Для сравнения 500 000 токенов достаточно для обработки около 100 получасовых записей переговоров или 15 финансовых отчётов. Новый лимит в 1 миллион токенов, как пишет The Verge, удваивает эти возможности.

Руководитель продукта Claude Брэд Абрамс (Brad Abrams) рассказал, что ранее корпоративным клиентам приходилось разбивать задачи на мелкие фрагменты из-за ограниченного объёма памяти модели, но теперь ИИ способен работать с контекстом целиком и решать задачи в полном масштабе. В частности, Sonnet 4 может обработать до 2500 страниц текста, и при этом вся «Война и мир» легко помещается в контекстное окно.

Стоит сказать, что Anthropic не стала первопроходцем: аналогичный показатель в 1 миллион токенов OpenAI представила ещё в апреле в версии GPT-4.1. Тем не менее, для Anthropic, известной сильными сторонами Claude в программировании, этот шаг является стратегическим в борьбе за рынок, особенно на фоне недавнего анонса GPT-5.

По словам Абрамса, обновление особенно востребовано в таких отраслях, как IT, фармацевтика, ритейл, юридические и профессиональные услуги. На вопрос, ускорил ли выход GPT-5 релиз новой версии Claude, он ответил, что «компания действует в соответствии с запросами клиентов, выпуская улучшения максимально быстро». Доступ к новому контекстному окну уже открыт для определённой группы пользователей API Anthropic — в частности, тех, кто использует Tier 4 и индивидуальные лимиты.

Anthropic научила чат-бота Claude припоминать старые диалоги с пользователем

Компания Anthropic объявила о запуске функции запоминания чатов в своём ИИ-боте Claude. Благодаря этому бот сможет напоминать пользователю, о чём они беседовали ранее.

 Источник изображения: Anthropic

Источник изображения: Anthropic

В демонстрационном видео Anthropic показала, как пользователь спрашивает Claude, о чём они говорили перед отпуском. После этого система анализирует предыдущие чаты и выдаёт обобщённую информацию. В дополнение к этому Claude спрашивает, не хочет ли пользователь продолжить общение по одному из обсуждаемых ранее вопросов.

«Никогда больше не теряйте контроль над работой. Claude теперь запоминает ваши прошлые разговоры, так что вы можете беспрепятственно продолжать работу над проектами, ссылаться на предыдущие обсуждения и развивать свои идеи, не начиная каждый раз с нуля», — говорится в сообщении Anthropic.

Новая функция доступна в веб-версии Claude, а также в приложениях для компьютеров и мобильных устройств. На данном этапе испытать нововведение могут подписчики Claude Max, Team и Enterprise. Для начала использования упомянутой функции в настройках чат-бота нужно активировать соответствующую опцию.

Отмечается, что речь не идёт о функции постоянной памяти, аналогичной той, что есть в ChatGPT от OpenAI. Claude будет обращаться к прошлым чатам и ссылаться на них только в случаях, когда пользователь сам попросит сделать это. Разработчики также утверждают, что хранящаяся информация не будет использоваться для создания цифрового профиля пользователя.

Функция памяти является для компаний, занимающихся разработкой ИИ-ботов, одним из способов привлечь и удержать пользователей, повышая их вовлеченность. Этот инструмент в последние недели стал предметом дискуссий, поскольку ChatGPT одновременно хвалили и критиковали за добавление функции памяти, которая позволяет боту ссылаться на прошлые беседы с пользователем.

У DeepSeek произошёл масштабный сбой — регистрация новых пользователей ограничена

Пользователи нейросети DeepSeek сообщили о масштабном сбое в работе китайского сервиса, зафиксированном вечером 11 августа. Проблемы затронули как веб-версию, так и мобильное приложение. Более 60 % жалоб касались недоступности сайта, ещё около 21 % — сбоев в работе приложения, сообщает РБК.

 Источник изображения: Solen Feyissa/Unsplash

Источник изображения: Solen Feyissa/Unsplash

Согласно информации порталов Downdetector и «Сбой.РФ», наибольшее количество обращений поступило из Москвы, Санкт-Петербурга, Калининградской области и Забайкальского края. Некоторые пользователи отмечали, что чат-бот «вообще не генерирует сообщения, абсолютный ноль».

Неполадки наблюдались с понедельника. По данным «РИА Новости», разработчики были вынуждены временно ограничить регистрацию новых пользователей. Сбои затронули DeepSeek V3 — языковую модель с открытым исходным кодом, насчитывающую 671 млрд параметров и обученную на 14,8 трлн токенов. Система поддерживает анализ текста, перевод, написание эссе и генерацию кода, а также предоставляет доступ к интернет-поиску.

Напомним, платформа DeepSeek доступна для пользователей из России без необходимости оформления подписки, а в конце января приложение стало лидером по загрузкам на iPhone.

Маск ответил на выход GPT-5, открыв бесплатный доступ к Grok 4 всем желающим

Компания xAI Илона Маска (Elon Musk) открыла доступ к модели Grok 4 пользователям с бесплатным доступом. Это произошло спустя месяц после её появления для подписчиков SuperGrok и Premium+, а также спустя несколько дней после выхода GPT-5. Передовая нейросеть стала доступна всем бесплатным пользователям сразу на веб-платформе grok.com и в мобильном приложении.

 Источник изображения: x.ai

Источник изображения: x.ai

Grok 4 отличается от предыдущих версий повышенной скоростью и производительностью, а также более точной формулировкой ответов благодаря обучению с подкреплением (reinforcement learning) и интеграции инструментов поиска в интернете. Для перехода на новую версию пользователям необходимо вручную выбрать модель в соответствующем меню.

Разработка Grok 4 велась с использованием вычислительного кластера Colossus, включающего более 200 тыс. графических процессоров. Это позволило реализовать передовые алгоритмы обучения и добиться следующих результатов в тестах на логическое мышление и автономное принятие решений: в тесте ARC-AGI V2, оценивающем логические способности, модель набрала 15,9 % точности — вдвое больше, чем Claude Opus (8,5 %). В симуляторе Vending-Bench, где ИИ управляет виртуальным бизнесом, Grok 4 «заработал» $4694 и совершил 4569 продаж, значительно опередив Claude Opus 4 ($2077 и 1412 продаж) и даже средние результаты участников-людей ($844 и 344 продажи).

Отдельно существует версия Grok 4 Heavy с поддержкой мультиагентного взаимодействия, которая по-прежнему доступна только по подписке. Она лидирует в решении задач USAMO’25 с результатом 61,9 % и стала первой моделью, преодолевшей порог в 50,7 % в тесте Humanity’s Last Exam («Последний экзамен человечества») в текстовом режиме. По данным компании, эти достижения демонстрируют беспрецедентные возможности модели в сложных логических и аналитических задачах, достигнутые за счёт масштабированного обучения с подкреплением и встроенной поддержки собственных инструментов xAI.

GPT-5 взломали всего за 24 часа — ИИ выдал рецепты запрещённых веществ быстрее, чем GPT-4o

Две независимые исследовательские компании протестировали только что выпущенную нейросеть GPT-5 и выявили критические уязвимости в её системе безопасности. NeuralTrust удалось взломать модель за один день, заставив её сгенерировать инструкцию по изготовлению зажигательной смеси в кустарных условиях. Компания SPLX, в свою очередь, обнаружила уязвимости к атакам с применением обфускации запросов.

 Источник изображения: Viralyft/Unsplash

Источник изображения: Viralyft/Unsplash

После того, как Grok-4 был взломан за два дня, GPT-5 был взломан теми же исследователями всего за 24 часа. Специалисты NeuralTrust использовали комбинацию собственной методики EchoChamber и техники сторителлинга (storytelling) — последовательного подталкивания ИИ к нужному ответу через рассказ захватывающих историй и серию уточняющих запросов, не содержащих явно запрещённых формулировок. В результате GPT-5, несмотря на встроенные защитные механизмы OpenAI, выдал детальное руководство по созданию кустарного оружия, сообщил портал SecurityWeek .

Как пояснили в NeuralTrust, проблема заключается в том, что система безопасности GPT-5 анализирует каждый запрос по отдельности, но не учитывает кумулятивный эффект многоэтапного диалога. Атакующие постепенно закрепляют нужный контекст, встраивая ключевые слова в безобидные фразы, а затем мягко подводят модель к генерации опасного контента.

Команда SPLX провела собственное тестирование, успешно применив атаку StringJoin Obfuscation, при которой в текст вставляются определённые символы, маскируя вредоносный запрос. Например, после серии наводящих вопросов модель согласилась подробно описать процесс изготовления запрещённого вещества, несмотря на системный запрет. Кроме того, в ходе сравнительного анализа с GPT-4o специалисты SPLX пришли к выводу, что предыдущая модель оказалась более надёжной в плане устойчивости к подобным атакам.

NeuralTrust и SPLX призвали компании проявлять осторожность при использовании «сырой» версии GPT-5 в бизнес-среде, особенно в сфере согласования бизнеса, когда все подразделения предприятия используют скоординированные стратегии, процессы и ресурсы для достижения общих целей. «Сырую модель GPT-5 практически невозможно использовать в корпоративных приложениях "из коробки". Даже внутренний уровень подсказок OpenAI оставляет значительные пробелы, особенно в области бизнес-согласования», — заявили в SPLX.

Хакеры использовали уязвимость ChatGPT для кражи данных из «Google Диска»

Исследователи кибербезопасности обнаружили новую атаку под названием AgentFlayer, которая использует уязвимость в ChatGPT для кражи данных из «Google Диска» без ведома пользователя. Злоумышленники могут внедрять скрытые команды в обычные документы, заставляя ИИ автоматически извлекать и передавать конфиденциальную информацию.

 Источник изображения: Solen Feyissa/Unsplash

Источник изображения: Solen Feyissa/Unsplash

AgentFlayer относится к типу кибератаки zero-click (без кликов). Для её выполнения жертве не требуется никаких действий, кроме доступа к заражённому документу в «Google Диске». Другими словами, пользователю не нужно нажимать на ссылку, открывать файл или выполнять какие-либо другие действия для заражения. Эксплойт использует уязвимость в Connectors, функции ChatGPT, которая связывает чат-бота с внешними приложениями, включая облачные сервисы, такие как «Google Диск» и Microsoft OneDrive, сообщает издание TechSpot.

Вредоносный документ содержит скрытую инструкцию длиной в 300 слов, оформленную белым шрифтом минимального размера, что делает её невидимой для человека, но доступной для обработки ChatGPT. Команда предписывает ИИ найти в Google Drive жертвы API-ключи, добавить их к специальному URL и отправить на внешний сервер злоумышленников. Атака активируется сразу после открытия доступа к документу, а данные передаются при следующем взаимодействии пользователя с сервисом ChatGPT.

Как подчеркнул старший директор по безопасности Google Workspace Энди Вэнь (Andy Wen) атака не связана напрямую с уязвимостью в инфраструктуре Google, однако компания уже разрабатывает дополнительные меры защиты, чтобы предотвратить выполнение скрытых и потенциально опасных инструкций в своих сервисах. OpenAI, в свою очередь, внедрила исправления после уведомления исследователей о проблеме ранее в этом году.

Тем не менее, эксперты предупреждают, что, несмотря на ограниченный объём данных, который можно извлечь за один запрос, данная угроза выявляет риски, связанные с предоставлением искусственному интеллекту бесконтрольного доступа к личным файлам и облачным аккаунтам.

Google представила ИИ-репетитора Guided Learning — теперь Gemini помогает учиться, а не списывать

В преддверии нового учебного года компания Google объявила о запуске нового инструмента под названием Guided Learning («Управляемое обучение») в Gemini. Этот инструмент работает как своего рода ИИ-репетитор, помогая пользователям глубже понять материал, а не просто получать ответы на вопросы.

 Источник изображений: Google

Источник изображений: Google

Чуть больше недели назад аналогичный инструмент выпустила компания OpenAI для чат-бота ChatGPT. Он тоже призван не просто давать ответы на вопросы, а помогать пользователям развивать навыки критического мышления.

Есть мнение, что чат-боты на основе ИИ подрывают процесс обучения, выдавая прямые ответы. Новые инструменты Google и OpenAI, судя по всему, направлены на решение этой проблемы. Обе компании позиционируют их как средства обучения, а не просто как системы для получения ответов. Guided Learning позволяет чат-боту Gemini пошагово разбирать задачи и адаптировать объяснения к потребностям пользователей. Функция использует изображения, диаграммы, видео, а также интерактивные тесты, чтобы помочь пользователям развивать и проверять свои знания, а не просто получать готовые решения.

Google заявляет, что функция поможет пользователям понять не только «как» решать ту или иную задачу, но и «почему» получается тот или иной результат.

«Готовитесь ли вы к экзамену по ферментам, пишете первый черновик работы о важности популяций пчёл в поддержании наших продовольственных систем или развиваете свою страсть к фотографии, Guided Learning — это ваш партнёр для совместного мышления, который поможет вам добиться желаемого на каждом этапе пути», — написала Морин Хейманс (Maureen Heymans), вице-президент Google по обучению и устойчивому развитию, в блоге Google.

Помимо новой функции, Google сообщила о работе над общим улучшением возможностей Gemini в образовательной сфере. Теперь Gemini будет автоматически вставлять изображения, диаграммы и видеоматериалы с YouTube непосредственно в ответы, чтобы облегчить понимание сложных тем. Кроме того, пользователи смогут попросить Gemini создать карточки и учебные пособия на основе результатов своих тестов или других учебных материалов.

В среду Google также объявила, что предлагает студентам из США, Японии, Индонезии, Южной Кореи и Бразилии бесплатную годовую подписку на тарифный план Google AI Pro. Он включает расширенный доступ к Gemini 2.5 Pro, NotebookLM, Veo 3, Deep Research и другим ИИ-инструментам.

ChatGPT начнёт «выгонять» пользователей на перерыв, заботясь об их здоровье

Компания OpenAI внедрила в ChatGPT новую функцию, которая будет напоминать пользователям о необходимости сделать перерыв при длительном общении с искусственным интеллектом. Напоминания отображаются в виде всплывающих окон, и чтобы продолжить диалог, пользователю необходимо дать согласие. По форме эта система схожа с напоминаниями в играх для Nintendo Wii и Switch, однако в случае с ChatGPT она призвана решать более серьёзные задачи, связанные с ментальным здоровьем.

 Источник изображения: Growtika/Unsplash

Источник изображения: Growtika/Unsplash

Как сообщает Engadget, решение было принято на фоне растущих опасений по поводу влияния ИИ на психическое здоровье пользователей. Ещё в июне The New York Times опубликовала материал о склонности ChatGPT к беспрекословному согласию и генерации ложной или потенциально опасной информации, что приводило к тому, что некоторые пользователи, включая людей с психическими расстройствами, погружались в деструктивные разговоры, вплоть до обсуждения суицидальных мыслей. При этом бот не всегда корректно пресекал подобные диалоги.

В своём блоге представители OpenAI признали эти недостатки и сообщили, что в будущем ChatGPT будет обновлён, чтобы более осторожно реагировать на запросы, связанные с важными жизненными решениями. Вместо прямых ответов ИИ будет задавать уточняющие вопросы, помогать анализировать ситуацию и взвешивать аргументы «за» и «против».

Ранее OpenAI уже приходилось откатывать обновление, из-за которого ChatGPT стал чрезмерно услужливым и раздражающе поддакивающим любым утверждениям. Хотя компания стремится сделать ИИ полезным и дружелюбным, баланс между поддержкой и льстивостью оказался на грани допустимого. По замыслу разработчиков, перерывы в диалогах с ИИ, как минимум, дадут пользователям время проверить, насколько достоверны ответы ChatGPT.

ChatGPT захватил 83 % мирового рынка ИИ-ботов — в России он тоже лидер, но конкуренция острее

Сервис веб-аналитики Statcounter, отслеживающий посещаемость сайтов и анализирующий пользовательское поведение, начал публиковать статистику популярности моделей искусственного интеллекта, а точнее чат-ботов на их основе. С большим отрывом в этом вопросе лидирует ChatGPT от OpenAI. По данным Statcounter, доля ChatGPT по состоянию на июль составила более 80 %.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Согласно глобальной выборке, на долю ChatGPT приходится 82,69 % пользователей, следом идёт Perplexity AI, на долю которого приходится 8,06 % пользователей. На третьем месте находится Microsoft Copilot с долей 4,56 % пользователей, далее идёт Google Gemini с 2,2 % пользователей. Пятое место принадлежит Deepseek с долей 1,59 %. Наконец, на шестом месте находится Claude от Anthropic с долей 0,91 %.

Что касается России, то картина популярности ИИ-чат-ботов в целом похожа на мировую, но позиции ChatGPT здесь не столь сильны. Хотя ChatGPT является самым популярным и в нашей стране, но всё же здесь его доля составляет лишь 46,4 %. На втором месте расположился Perplexity AI (34,61 %), а третье место принадлежит китайскому Deepseek (17,94 %). На Microsoft Copilot, Google Gemini и Claude приходятся по 0,59 %, 0,3 % и 0,17 % соответственно.

Справедливо отметить, что не совсем понятно, как Statcounter получает свои данные для отслеживания чат-ботов с искусственным интеллектом. Что касается размера выборки, глобальная статистика Statcounter основана на анализе более 5 миллиардов просмотров страниц на более чем 1,5 миллионах веб-сайтов в месяц, заявляет компания. Файлы cookie на этих 1,5 млн сайтов могут отслеживать, с каких устройств к ним заходят, какую операционную систему они используют и так далее. Statcounter заявляет, что для оценки результатов поисковой системы использует эти файлы cookie, чтобы определить, перешёл ли пользователь из Google, Bing или откуда-то ещё.

Microsoft рассказала, что ждёт Copilot в будущем: ИИ будет «жить», «стареть» и получит собственную комнату

Глава подразделения искусственного интеллекта Microsoft Мустафа Сулейман (Mustafa Suleyman) поделился своим видением будущего ИИ-ассистента Copilot. По его словам, он со временем обретёт постоянную идентичность, будет «стареть» и даже получит собственное виртуальное пространство — комнату, в которой «поселится».

 Источник изображений: Microsoft

Источник изображений: Microsoft

Microsoft начала тестирование функции Copilot Appearance, которая превратит помощника в анимированного персонажа с мимикой, голосом и памятью о предыдущих диалогах. Как пишет The Verge, глава Microsoft AI впервые рассказал об этом ещё несколько месяцев назад на мероприятии в честь 50-летия Microsoft: Copilot сможет улыбаться, кивать и даже выражать удивление в зависимости от контекста беседы.

Развёртывание Copilot Appearance идёт осторожно, и на то есть причины. Ранее других голосовых ИИ-ботов обвиняли в отправке вредоносных сообщений подросткам. Например, после смерти тинейджера, общавшегося с чат-ботом, против платформы Character.AI подали судебный иск, назвав её «неоправданно опасной». Некоторые пользователи и вовсе воспринимают ИИ как партнёров, родителей или даже способ справиться с потерей близких.

Помимо персонализации ИИ-ассистента, Сулейман намекнул, что следующим шагом Microsoft может стать переосмысление рабочего стола Windows. Он признался, что нынешний интерфейс кажется ему перегруженным и раздражающим, и выразил желание создать более спокойную и минималистичную рабочую среду, что возможно, указывает на грядущие изменения в приложении Copilot для Windows или даже в новых ПК линейки Copilot Plus.

Сулейман, один из создателей Google DeepMind, возглавил ИИ-направление в Microsoft чуть больше года назад. Под его руководством Copilot стал больше походить на персонализированного чат-бота Pi, над которым он работал в компании Inflection AI. После перехода большей части команды Inflection в Microsoft ИИ-помощник получил масштабное обновление, включающее голосовые функции и новый визуальный дизайн.

Функция Copilot Appearance пока доступна в качестве эксперимента в рамках Copilot Labs и только для ограниченного числа пользователей США, Канады и Великобритании.

Proton представил конфиденциальный чат-бот Lumo с ИИ и шифрованием

Разработчик конфиденциальных веб-сервисов Proton представил собственного помощника с искусственным интеллектом Lumo — сильной стороной проекта, по словам компании, являются функции защиты пользовательских данных.

 Источник изображений: proton.me

Источник изображений: proton.me

Чат-бот Lumo не хранит переписок с пользователями, использует в чатах сквозное шифрование и предлагает режим «призрака» — в нём чаты удаляются сразу после закрытия окна. Работать с ИИ можно через веб-клиент, а также приложения для Android и iOS. Пообщаться с ботом и отправить ему файлы на анализ можно даже без регистрации; обладателям учётных записей Proton Drive предлагается подключить Lumo к облачному хранилищу; доступна опция веб-поиска.

Функции конфиденциальности Lumo в Proton обозначили чётко. Чат-бот основан на ИИ-моделях с открытым исходным кодом, в будущих разработках и исследованиях компания намерена применять только их, не используя пользовательских данных для обучения моделей. В чат-боте, как и в других службах Proton, работает технология шифрования, которая исключает доступ извне — пользователи могут хранить свою переписку с ним, а расшифровывается она лишь на устройстве. Подчёркивается, что компания и её сервисы базируются исключительно в Европе, и в аспекте конфиденциальности это даёт ей преимущество перед американскими и китайскими платформами.

Это уже не первая попытка Proton выйти на рынок инструментов с ИИ — в прошлом году компания выпустила способного писать тексты ИИ-помощника для своей почтовой службы с поддержкой локальной установки, чтобы исключить передачу данных на внешние ресурсы.


window-new
Soft
Hard
Тренды 🔥
Новая статья: Обзор робота-пылесоса ILIFE V2: фокус на сухой уборке 5 мин.
AntGamer при поддержке AMD работает над игровым монитором с частотой 1000 Гц — его выход запланирован на 2026 год 2 ч.
Суперинтеллект против утилитарности: США и Китай выбрали разную стратегию в гонке ИИ, и кто победит, неясно 8 ч.
Alibaba разработала собственный ИИ-ускоритель для инференса 9 ч.
Новый урок арифметики от NVIDIA: Дженсен Хуанг назвал фантастическую сумму капзатрат на ИИ-инфраструктуру 9 ч.
Очередная конференция Nvidia GTC пройдёт с 16 по 19 марта 2026 года 13 ч.
Samsung анонсировала 37-дюймовый монитор ViewFinity S8 с поддержкой 4K, USB Type-C на 90 Вт и встроенным KVM-переключателем 13 ч.
SK hynix серьёзно приблизилась к Samsung по величине выручки на рынке NAND во втором квартале 16 ч.
Samsung готова усилить собственные разработки ИИ-моделями с открытым исходным кодом 16 ч.
Samsung добавила ИИ-помощника Microsoft Copilot в свои новые телевизоры 17 ч.