Опрос
|
реклама
Быстрый переход
ИИ-бот Claude теперь может прочитать «Войну и мир» за раз — Anthropic увеличила контекстное окно в 5 раз
13.08.2025 [00:55],
Анжелла Марина
Компания Anthropic на фоне конкуренции с OpenAI, Google и другими крупными игроками объявила о расширении контекстного окна своей модели Claude Sonnet 4 до 1 миллиона токенов. Это в пять раз больше предыдущего показателя. Новое контекстное окно позволяет обрабатывать кодовые базы объёмом от 75 000 до 110 000 строк, а также анализировать десятки научных статей или сотни документов в одном API-запросе. ![]() Источник изображения: AI Ранее контекстное окно модели составляло 200 000 токенов, что позволяло работать примерно c 20 000 строк кода. Для сравнения 500 000 токенов достаточно для обработки около 100 получасовых записей переговоров или 15 финансовых отчётов. Новый лимит в 1 миллион токенов, как пишет The Verge, удваивает эти возможности. Руководитель продукта Claude Брэд Абрамс (Brad Abrams) рассказал, что ранее корпоративным клиентам приходилось разбивать задачи на мелкие фрагменты из-за ограниченного объёма памяти модели, но теперь ИИ способен работать с контекстом целиком и решать задачи в полном масштабе. В частности, Sonnet 4 может обработать до 2500 страниц текста, и при этом вся «Война и мир» легко помещается в контекстное окно. Стоит сказать, что Anthropic не стала первопроходцем: аналогичный показатель в 1 миллион токенов OpenAI представила ещё в апреле в версии GPT-4.1. Тем не менее, для Anthropic, известной сильными сторонами Claude в программировании, этот шаг является стратегическим в борьбе за рынок, особенно на фоне недавнего анонса GPT-5. По словам Абрамса, обновление особенно востребовано в таких отраслях, как IT, фармацевтика, ритейл, юридические и профессиональные услуги. На вопрос, ускорил ли выход GPT-5 релиз новой версии Claude, он ответил, что «компания действует в соответствии с запросами клиентов, выпуская улучшения максимально быстро». Доступ к новому контекстному окну уже открыт для определённой группы пользователей API Anthropic — в частности, тех, кто использует Tier 4 и индивидуальные лимиты. У DeepSeek произошёл масштабный сбой — регистрация новых пользователей ограничена
11.08.2025 [23:25],
Анжелла Марина
Пользователи нейросети DeepSeek сообщили о масштабном сбое в работе китайского сервиса, зафиксированном вечером 11 августа. Проблемы затронули как веб-версию, так и мобильное приложение. Более 60 % жалоб касались недоступности сайта, ещё около 21 % — сбоев в работе приложения, сообщает РБК. ![]() Источник изображения: Solen Feyissa/Unsplash Согласно информации порталов Downdetector и «Сбой.РФ», наибольшее количество обращений поступило из Москвы, Санкт-Петербурга, Калининградской области и Забайкальского края. Некоторые пользователи отмечали, что чат-бот «вообще не генерирует сообщения, абсолютный ноль». Неполадки наблюдались с понедельника. По данным «РИА Новости», разработчики были вынуждены временно ограничить регистрацию новых пользователей. Сбои затронули DeepSeek V3 — языковую модель с открытым исходным кодом, насчитывающую 671 млрд параметров и обученную на 14,8 трлн токенов. Система поддерживает анализ текста, перевод, написание эссе и генерацию кода, а также предоставляет доступ к интернет-поиску. Напомним, платформа DeepSeek доступна для пользователей из России без необходимости оформления подписки, а в конце января приложение стало лидером по загрузкам на iPhone. Маск ответил на выход GPT-5, открыв бесплатный доступ к Grok 4 всем желающим
10.08.2025 [18:13],
Анжелла Марина
Компания xAI Илона Маска (Elon Musk) открыла доступ к модели Grok 4 пользователям с бесплатным доступом. Это произошло спустя месяц после её появления для подписчиков SuperGrok и Premium+, а также спустя несколько дней после выхода GPT-5. Передовая нейросеть стала доступна всем бесплатным пользователям сразу на веб-платформе grok.com и в мобильном приложении. ![]() Источник изображения: x.ai Grok 4 отличается от предыдущих версий повышенной скоростью и производительностью, а также более точной формулировкой ответов благодаря обучению с подкреплением (reinforcement learning) и интеграции инструментов поиска в интернете. Для перехода на новую версию пользователям необходимо вручную выбрать модель в соответствующем меню. Разработка Grok 4 велась с использованием вычислительного кластера Colossus, включающего более 200 тыс. графических процессоров. Это позволило реализовать передовые алгоритмы обучения и добиться следующих результатов в тестах на логическое мышление и автономное принятие решений: в тесте ARC-AGI V2, оценивающем логические способности, модель набрала 15,9 % точности — вдвое больше, чем Claude Opus (8,5 %). В симуляторе Vending-Bench, где ИИ управляет виртуальным бизнесом, Grok 4 «заработал» $4694 и совершил 4569 продаж, значительно опередив Claude Opus 4 ($2077 и 1412 продаж) и даже средние результаты участников-людей ($844 и 344 продажи). Отдельно существует версия Grok 4 Heavy с поддержкой мультиагентного взаимодействия, которая по-прежнему доступна только по подписке. Она лидирует в решении задач USAMO’25 с результатом 61,9 % и стала первой моделью, преодолевшей порог в 50,7 % в тесте Humanity’s Last Exam («Последний экзамен человечества») в текстовом режиме. По данным компании, эти достижения демонстрируют беспрецедентные возможности модели в сложных логических и аналитических задачах, достигнутые за счёт масштабированного обучения с подкреплением и встроенной поддержки собственных инструментов xAI. Хакеры использовали уязвимость ChatGPT для кражи данных из «Google Диска»
08.08.2025 [04:31],
Анжелла Марина
Исследователи кибербезопасности обнаружили новую атаку под названием AgentFlayer, которая использует уязвимость в ChatGPT для кражи данных из «Google Диска» без ведома пользователя. Злоумышленники могут внедрять скрытые команды в обычные документы, заставляя ИИ автоматически извлекать и передавать конфиденциальную информацию. ![]() Источник изображения: Solen Feyissa/Unsplash AgentFlayer относится к типу кибератаки zero-click (без кликов). Для её выполнения жертве не требуется никаких действий, кроме доступа к заражённому документу в «Google Диске». Другими словами, пользователю не нужно нажимать на ссылку, открывать файл или выполнять какие-либо другие действия для заражения. Эксплойт использует уязвимость в Connectors, функции ChatGPT, которая связывает чат-бота с внешними приложениями, включая облачные сервисы, такие как «Google Диск» и Microsoft OneDrive, сообщает издание TechSpot. Вредоносный документ содержит скрытую инструкцию длиной в 300 слов, оформленную белым шрифтом минимального размера, что делает её невидимой для человека, но доступной для обработки ChatGPT. Команда предписывает ИИ найти в Google Drive жертвы API-ключи, добавить их к специальному URL и отправить на внешний сервер злоумышленников. Атака активируется сразу после открытия доступа к документу, а данные передаются при следующем взаимодействии пользователя с сервисом ChatGPT. Как подчеркнул старший директор по безопасности Google Workspace Энди Вэнь (Andy Wen) атака не связана напрямую с уязвимостью в инфраструктуре Google, однако компания уже разрабатывает дополнительные меры защиты, чтобы предотвратить выполнение скрытых и потенциально опасных инструкций в своих сервисах. OpenAI, в свою очередь, внедрила исправления после уведомления исследователей о проблеме ранее в этом году. Тем не менее, эксперты предупреждают, что, несмотря на ограниченный объём данных, который можно извлечь за один запрос, данная угроза выявляет риски, связанные с предоставлением искусственному интеллекту бесконтрольного доступа к личным файлам и облачным аккаунтам. ChatGPT начнёт «выгонять» пользователей на перерыв, заботясь об их здоровье
04.08.2025 [23:45],
Анжелла Марина
Компания OpenAI внедрила в ChatGPT новую функцию, которая будет напоминать пользователям о необходимости сделать перерыв при длительном общении с искусственным интеллектом. Напоминания отображаются в виде всплывающих окон, и чтобы продолжить диалог, пользователю необходимо дать согласие. По форме эта система схожа с напоминаниями в играх для Nintendo Wii и Switch, однако в случае с ChatGPT она призвана решать более серьёзные задачи, связанные с ментальным здоровьем. ![]() Источник изображения: Growtika/Unsplash Как сообщает Engadget, решение было принято на фоне растущих опасений по поводу влияния ИИ на психическое здоровье пользователей. Ещё в июне The New York Times опубликовала материал о склонности ChatGPT к беспрекословному согласию и генерации ложной или потенциально опасной информации, что приводило к тому, что некоторые пользователи, включая людей с психическими расстройствами, погружались в деструктивные разговоры, вплоть до обсуждения суицидальных мыслей. При этом бот не всегда корректно пресекал подобные диалоги. В своём блоге представители OpenAI признали эти недостатки и сообщили, что в будущем ChatGPT будет обновлён, чтобы более осторожно реагировать на запросы, связанные с важными жизненными решениями. Вместо прямых ответов ИИ будет задавать уточняющие вопросы, помогать анализировать ситуацию и взвешивать аргументы «за» и «против». Ранее OpenAI уже приходилось откатывать обновление, из-за которого ChatGPT стал чрезмерно услужливым и раздражающе поддакивающим любым утверждениям. Хотя компания стремится сделать ИИ полезным и дружелюбным, баланс между поддержкой и льстивостью оказался на грани допустимого. По замыслу разработчиков, перерывы в диалогах с ИИ, как минимум, дадут пользователям время проверить, насколько достоверны ответы ChatGPT. Microsoft рассказала, что ждёт Copilot в будущем: ИИ будет «жить», «стареть» и получит собственную комнату
25.07.2025 [21:38],
Анжелла Марина
Глава подразделения искусственного интеллекта Microsoft Мустафа Сулейман (Mustafa Suleyman) поделился своим видением будущего ИИ-ассистента Copilot. По его словам, он со временем обретёт постоянную идентичность, будет «стареть» и даже получит собственное виртуальное пространство — комнату, в которой «поселится». ![]() Источник изображений: Microsoft Microsoft начала тестирование функции Copilot Appearance, которая превратит помощника в анимированного персонажа с мимикой, голосом и памятью о предыдущих диалогах. Как пишет The Verge, глава Microsoft AI впервые рассказал об этом ещё несколько месяцев назад на мероприятии в честь 50-летия Microsoft: Copilot сможет улыбаться, кивать и даже выражать удивление в зависимости от контекста беседы. Развёртывание Copilot Appearance идёт осторожно, и на то есть причины. Ранее других голосовых ИИ-ботов обвиняли в отправке вредоносных сообщений подросткам. Например, после смерти тинейджера, общавшегося с чат-ботом, против платформы Character.AI подали судебный иск, назвав её «неоправданно опасной». Некоторые пользователи и вовсе воспринимают ИИ как партнёров, родителей или даже способ справиться с потерей близких. Помимо персонализации ИИ-ассистента, Сулейман намекнул, что следующим шагом Microsoft может стать переосмысление рабочего стола Windows. Он признался, что нынешний интерфейс кажется ему перегруженным и раздражающим, и выразил желание создать более спокойную и минималистичную рабочую среду, что возможно, указывает на грядущие изменения в приложении Copilot для Windows или даже в новых ПК линейки Copilot Plus. Сулейман, один из создателей Google DeepMind, возглавил ИИ-направление в Microsoft чуть больше года назад. Под его руководством Copilot стал больше походить на персонализированного чат-бота Pi, над которым он работал в компании Inflection AI. После перехода большей части команды Inflection в Microsoft ИИ-помощник получил масштабное обновление, включающее голосовые функции и новый визуальный дизайн. Функция Copilot Appearance пока доступна в качестве эксперимента в рамках Copilot Labs и только для ограниченного числа пользователей США, Канады и Великобритании. Mistral добавила в Le Chat функции конкурентов: глубокие исследования, редактирование фото и мультиязычность
18.07.2025 [07:43],
Анжелла Марина
Французская компания Mistral представила масштабное обновление для чат-бота Le Chat, добавив несколько новых функций, которые приближают его по возможностям к таким конкурентам, как OpenAI и Google. Появился режим «глубокого исследования», встроенная поддержка мультиязычного анализа и расширенные инструменты редактирования изображений. ![]() Источник изображения: Mistral AI Режим «глубокого исследования» (deep research) превращает Le Chat в помощника, способного анализировать информацию из различных источников, планировать, уточнять запросы и выдавать обобщённые результаты. По словам руководителя продукта Mistral Элисы Саламанки (Elisa Salamanca), такая функциональность будет полезна как для частных пользователей, например, при планировании поездок, так и для корпоративных задач, включая глубокий анализ данных. Особенностью нововведения, как пишет TechCrunch, является подход к обработке данных: в отличие от облачных платформ, таких как Azure для OpenAI или Google Cloud для Gemini, Mistral позволяет анализировать данные локально, без отправки их в облако. Это важно для клиентов из банковской сферы, оборонного сектора и государственных структур, где к защите информации предъявляются высокие требования. Mistral также работает над интеграцией Le Chat с офисными инструментами, такими как Microsoft Excel и Google Docs, чтобы сделать бот более удобным для бизнес-задач. Уже сейчас в корпоративной версии доступны специальные коннекторы, позволяющие анализировать внутренние данные компаний без риска их утечки. Помимо прочего, Le Chat теперь поддерживает мультиязычный анализ данных не только на английском, но и на французском, испанском, японском и других языках, включая быстрое переключение между ними в рамках одного диалога. Также появилась функция Projects, помогающая пользователям организовывать чаты и документы в тематические пространства, например, для планирования переезда или разработки нового продукта. Завершает список нововведений улучшенный редактор изображений, который позволяет удалять объекты, менять фон и выполнять другие правки через текстовые запросы. Обновление доступно для всех тарифов — Free, Pro, Team и Enterprise, но основной фокус Mistral сейчас направлен на корпоративный сектор. Недавно Mistral также выпустила Voxtral — свою первую открытую аудиомодель, которая поддерживает многоязычный анализ, транскрибирование и другие функции. Модель уже доступна через интерфейс Le Chat. Grok Илона Маска обзавёлся странными ИИ-компаньонами — один из них предстал в откровенном образе
15.07.2025 [06:09],
Анжелла Марина
Илон Маск (Elon Musk) добавил в свой ИИ-чат Grok необычных анимированных компаньонов. Пока доступны два персонажа: аниме-героиня Ани (Ani) и мультяшная красная панда Руди (Rudy). Как выяснилось, Ani может появляться перед пользователями в откровенной одежде, но при этом применяется так называемый NSFW-режим, который предупреждает, что открывать тот или иной контент «на работе небезопасно». ![]() Источник изображения: X Как пишет The Verge, для активации компаньона нужно зайти в настройки и далее следовать подсказкам, однако Маск пообещал упростить этот процесс в ближайшие дни, назвав текущую версию «мягким запуском» (soft launch). Интересно, что даже бесплатные пользователи Grok смогли пообщаться с новыми аватарами, что говорит о возможном широком доступе к функции. Параллельно в разработке находится ещё один персонаж — Чэд (Chad). ![]() Отмечается, что это обновление появилось сразу после скандала, когда Grok начал распространять антисемитские высказывания и хвалебные комментарии в адрес Гитлера. В xAI тогда заявили, что проблема возникла из-за «изменений в структуре кода, затрагивающих бота». Теперь же компания, судя по всему, хочет сместить акцент в сторону более развлекательного контента, включая голосовой режим с возможностью свободных диалогов. Чат-бот с креативом: Claude стал ИИ-дизайнером, научившись работать с Canva
14.07.2025 [23:53],
Анжелла Марина
Anthropic объявила о новой функции для своего ИИ-чат-бота Claude. Теперь бот может создавать и редактировать проекты, связанные с платформой Canva. Пользователи, подключившие аккаунты обоих сервисов, смогут управлять дизайном с помощью текстовых команд: создавать презентации, изменять размеры изображений, заполнять шаблоны, а также искать ключевые слова в документах и презентациях Canva. ![]() Источник изображения: Swello/Unsplash Технической основой интеграции стал протокол Model Context Protocol (MCP), который Canva представила в прошлом месяце, сообщает The Verge. Этот открытый стандарт, нередко называемый «USB-C для ИИ-приложений», обеспечивает безопасный доступ Claude к пользовательскому контенту в Canva и упрощает подключение ИИ-моделей к другим сервисам. Помимо Anthropic, протокол MCP уже используют Microsoft, Figma и сама Canva — всё это, очевидно, в ожидании будущего, где ключевую роль будут играть ИИ-агенты. Как отметил глава экосистемы Canva Анвар Ханиф (Anwar Haneef), теперь пользователи могут генерировать, редактировать и публиковать дизайны прямо в чате с Claude, без необходимости вручную загружать файлы. По его словам, MCP делает этот процесс максимально простым, объединяя креативность и продуктивность в едином рабочем процессе. Для доступа к новым возможностям требуются платные подписки на оба сервиса: Canva — от $15 в месяц и Claude — за $17 в месяц. Отметим, что Claude стал первым ИИ-ассистентом, поддерживающим дизайн-процессы в Canva через MCP. У него уже есть аналогичная интеграция с Figma, представленная в прошлом месяце. Также сообщается, что Anthropic запустила новый «каталог интеграций Claude» для ПК, где пользователи смогут ознакомиться со всеми доступными инструментами и подключёнными приложениями. Илон Маск представил мощнейшую ИИ-модель Grok 4 и подписку SuperGrok Heavy за $300 в месяц
10.07.2025 [10:31],
Дмитрий Федоров
Компания xAI, основанная Илоном Маском (Elon Musk), представила новую версию своего ИИ-чат-бота — Grok 4. Анонс состоялся спустя всего несколько месяцев после выхода предыдущей версии и всего через сутки после скандала с Grok 3. Поспешный выпуск Grok 4 демонстрирует скорость инноваций в генеративном ИИ и одновременно обнажает острую потребность в надёжных механизмах этического контроля. ![]() Источник изображения: xAI Маск вышел в эфир в кожаной куртке, в окружении ключевых сотрудников команды Grok, и заявил, что новая версия уже доступна пользователям. По его словам, Grok 4 «умнее почти всех студентов магистратуры сразу по всем дисциплинам». Это уже четвёртая итерация чат-бота xAI за последние 9 месяцев. Согласно заявлению компании, Grok 4 получил улучшенные голосовые функции и возможность поддерживать более глубокие и логически выстроенные диалоги. Внутренние бенчмарки xAI показывают, что новая ИИ-модель обогнала существующие решения компаний OpenAI, Alphabet и Meta✴. Однако эти тесты пока не были проверены независимыми экспертами. Как утверждают разработчики, новая архитектура позволяет Grok 4 более точно интегрировать знания из различных областей и выдавать обоснованные ответы даже на междисциплинарные запросы. По данным xAI, Grok 4 без подключения дополнительных инструментов набрал 25,4 % в сложнейшем тесте Humanity’s Last Exam, превзойдя показатели Google Gemini 2.5 Pro (21,6 %) и OpenAI o3 (high), показавшего 21 %. ![]() График показывает результаты модели Grok 4 и её варианта Grok 4 Heavy в тесте Humanity’s Last Exam Вместе с базовой моделью Grok 4 компания xAI представила Grok 4 Heavy — мультиагентный вариант чат-бота, в котором несколько автономных агентов параллельно решают поставленную задачу, после чего сравнивают полученные решения, подобно группе экспертов. Grok 4 Heavy, использующий инструменты, достиг результата в 44,4 %, тогда как Gemini 2.5 Pro с аналогичным доступом к инструментам смог набрать лишь 26,9 %. Эти данные, согласно заявлению xAI, демонстрируют «передовой уровень производительности» в области генеративного ИИ. ![]() Результаты тестов Grok 4 и Grok 4 Heavy по шести академическим бенчмаркам, включая GPQA, AIME25, LCB и USAMO25 Также был представлен новый премиальный тариф — подписка SuperGrok Heavy стоимостью $300 в месяц, ставшая самой дорогой среди аналогичных предложений крупных разработчиков ИИ. Она даёт ранний доступ к Grok 4 Heavy и будущим функциям, включая обещанные ИИ-модули для программирования в августе, мультиагентный вариант в сентябре и генерации видео в октябре. xAI рассчитывает, что дорогая подписка позволит финансировать дальнейшие исследования, а также привлечёт корпоративных клиентов, готовых испытать возможности новой ИИ-модели раньше конкурентов. Релиз Grok 4 состоялся всего через сутки после того, как xAI была вынуждена удалить с платформы X (ранее Twitter) несколько публикаций от имени чат-бота Grok 3, содержавших антисемитские высказывания и сомнительные ответы пользователям. В официальном заявлении компания сообщила: «С момента выявления этого контента xAI предприняла меры для блокировки языка вражды до публикации новых материалов Grok в X». Несмотря на серьёзность инцидента, Маск во время трансляции напрямую не упомянул инцидент, заявив лишь, что «нам нужно убедиться, что ИИ — это хороший ИИ». Ранее министр транспорта и инфраструктуры Турции Абдулкадир Уралоглу (Abdulkadir Uraloglu) резко раскритиковал работу Grok и заявил в интервью Bloomberg News, что Турция может заблокировать платформу X, если не будут приняты меры по предотвращению публикации агрессивного контента. Он подчеркнул: «Неприемлемо использовать бранные слова». Этот комментарий прозвучал до старта презентации Grok 4 и усилил международное внимание к этической стороне вопроса. В марте xAI официально объединилась с социальной платформой X. В результате была сформирована структура, нацеленная на интеграцию возможностей Grok в пользовательский интерфейс X. Однако в день презентации, за несколько часов до эфира, генеральный директор X Линда Яккарино (Linda Yaccarino) подала в отставку. Этот шаг оставил вакантной ключевую управленческую должность и поставил под вопрос стабильность дальнейшего развития платформы в условиях стремительной эволюции конкурирующих ИИ-моделей. По данным Bloomberg News, xAI расходует около $1 млрд ежемесячно на разработку ИИ. Эта цифра отражает не только масштаб проектов, но и высокую стоимость реализации амбиций Маска. В настоящее время компания активно ведёт переговоры о привлечении внешнего финансирования, включая контакты с венчурными фондами и суверенными инвестиционными структурами. В фокусе — дальнейшее развитие больших языковых ИИ-моделей, улучшение качества генерации контента и интеграция ИИ в инфраструктуру платформы X. OpenAI начала тестировать в ChatGPT образовательный режим ответов «Учимся вместе»
08.07.2025 [05:08],
Анжелла Марина
В ChatGPT появился новый режим Study Together, который может изменить то, как студенты и преподаватели используют искусственный интеллект (ИИ). Вместо готовых ответов бот предлагает интерактивное обучение, задавая вопросы и стимулируя у ученика критическое мышление. Но функция пока доступна не всем. ![]() Источник изображения: AI Судя по первым отзывам, этот режим работает иначе, чем обычный ChatGPT. Как сообщает TechCrunch, вместо того, чтобы сразу давать готовые ответы, система задаёт уточняющие вопросы, побуждая пользователя самостоятельно искать решение. Это напоминает подход Google с его моделью LearnLM, ориентированной на обучение. Предположительно, в будущем использовать Study Together можно будет одновременно нескольким участникам, например, для групповых занятий. ChatGPT уже прочно вошёл в сферу образования, но его влияние неоднозначно. Преподаватели используют его для составления учебных планов, студенты — как персонального репетитора или даже как инструмент для написания работ без лишних усилий. Однако некоторые эксперты опасаются, что подобные технологии могут подорвать систему традиционного образования. В OpenAI на запрос TechCrunch о комментариях по поводу новой функции не ответили, но сам чат-бот на вопрос журналистов сообщил, что компания пока не объявляла официальных сроков релиза и не уточняла, останется ли режим эксклюзивом для подписчиков ChatGPT Plus. Microsoft испытала ИИ-доктора MAI-DxO, который ставит диагнозы в 4 раза точнее врачей
01.07.2025 [00:19],
Анжелла Марина
В Microsoft разработали систему искусственного интеллекта (ИИ) для медицинской диагностики, которая не просто помогает врачам, а может их заменить, при этом справляясь со сложными случаями в четыре раза успешнее. Инструмент создан подразделением Microsoft AI под руководством Мустафы Сулеймана (Mustafa Suleyman), сооснователя компании DeepMind, и получил название Microsoft AI Diagnostic Orchestrator (MAI-DxO). ![]() Источник изображения: AI MAI-DxO работает по методу «оркестратора данных», формируя своеобразный консилиум из пяти ИИ-агентов, выступающих в роли виртуальных врачей с разными специализациями. Как поясняет Financial Times, эти агенты взаимодействуют между собой, обсуждают варианты и совместно принимают решение. Для проверки возможностей системы её протестировали на 304 самых сложных клинических случаях, описанных в New England Journal of Medicine, когда диагноз удавалось поставить лишь опытным специалистам. В испытаниях использовалась новая методика, получившая название «цепочка дебатов» (chain-of-debate), которая позволяет проследить ход мыслей алгоритма и сделать его логику прозрачной. В качестве основы использовались крупные языковые модели от OpenAI, Meta✴, Anthropic, Google, xAI и DeepSeek. Лучший результат показала модель o3 от OpenAI, правильно решившая 85,5 % поставленных медицинских задач. Для сравнения: у реальных врачей этот показатель составил около 20 %, однако в ходе тестирования они не имели доступа к справочникам и не могли консультироваться с коллегами — что в реальных условиях могло бы повысить их эффективность. Примечательно, что ИИ-агенты учитывали и экономические аспекты диагностики, сокращая количество ненужных тестов и теоретически экономя в некоторых случаях сотни тысяч долларов. Отмечается, что технология может быть внедрена в ближайшее время в такие продукты Microsoft, как Copilot и Bing, которые ежедневно обрабатывают около 50 миллионов запросов, связанных со здоровьем. По словам Сулеймана, компания в целом приближается к созданию таких ИИ-моделей, которые будут не просто немного лучше человека, а значительно превосходить его по скорости, стоимости и точности — и это станет настоящим прорывом. Он также добавил, что, несмотря на наилучшие результаты модели OpenAI, Microsoft сохраняет нейтралитет в отношении используемых ИИ-моделей, поскольку ключевым компонентом системы остаётся сам оркестратор MAI-DxO. Одновременно Доминик Кинг (Dominic King), бывший глава медицинского подразделения DeepMind, а ныне сотрудник Microsoft, заявил, что система демонстрирует беспрецедентную эффективность и может стать «новой входной дверью в здравоохранение». Однако он подчеркнул, что технология пока не готова к клиническому применению — её предстоит доработать и протестировать в реальных условиях. Baidu откроет исходный код Ernie, что может изменить расстановку сил на мировом ИИ-рынке
30.06.2025 [06:08],
Анжелла Марина
Китайский технологический гигант Baidu откроет исходный код своей мощной генеративной ИИ-модели Ernie. Представитель компании подтвердил планы, уточнив, что процесс будет постепенным и начнётся уже в понедельник. С момента появления DeepSeek это станет крупнейшим событием, которое может радикально изменить рынок, предложив мощный ИИ бесплатно или за «копейки». ![]() Источник изображения: baidu.com Раньше Baidu выступала против формата Open-Source, предпочитая закрытые решения. Однако, как отметил Лянь Цзе Су (Lian Jye Su), главный аналитик консалтинговой компании Omdia, успех DeepSeek доказал, что открытые модели могут быть не менее конкурентоспособными и надёжными. И теперь, когда Baidu приняла решение открыть свой код, это может повлиять на весь рынок, пишет CNBC. Профессор Университета Южной Калифорнии Шон Рэн (Sean Ren) считает, что открытие Ernie повысит стандарты для всей индустрии, одновременно создав давление на такие закрытые системы, как ChatGPT и Anthropic, заставив их оправдывать высокие цены. По его словам, пользователям важнее низкая стоимость и поддержка их родного языка, и именно открытые модели дают разработчикам больше свободы для выпуска конечного продукта. Генеральный директор Baidu Робин Ли (Robin Li) также ранее заявлял, что открытый доступ к Ernie поможет разработчикам по всему миру создавать приложения без ограничений по стоимости и функциональности. Однако аналитики сомневаются, что это резко изменит рынок. Вице-президент Phenom Клифф Юркевич (Cliff Jurkiewicz) считает, что новость пройдёт незамеченной, по крайней мере, для многих жителей в США, где Baidu малоизвестна. При этом он напомнил, что основные игроки, такие как ChatGPT и Microsoft Copilot, имеют преимущество благодаря интеграции с другими сервисами. Открытые же системы требуют дополнительной настройки, что снижает их привлекательность для массового пользователя. Таким образом, хотя открытые ИИ-модели обещают удешевление и гибкость, они всё ещё сталкиваются с проблемой удобства использования, доверия и безопасности. Также неизвестно, на каких данных ИИ обучались и были ли соблюдены права владельцев этих данных. В свою очередь, и глава OpenAI Сам Альтман (Sam Altman) признал, что модели Open-Source требуют особого подхода. Хотя OpenAI традиционно делает ставку на закрытые разработки, Альтман уже сообщил, что компания планирует выпустить открытую модель этим летом. Конкретные сроки при этом не указываются. «Сбер» научил GigaChat рассуждать над запросами, но функцию пока открыл не всем
25.06.2025 [16:14],
Владимир Фетисов
Функция рассуждений с доступом к актуальным данным в GigaChat стала доступна бизнес-клиентам «Сбербанка» в формате on-premise, когда программное обеспечение разворачивается на собственных серверах заказчика. Об этом в рамках конференции GigaConf рассказал вице-президент «Сбербанка» Андрей Белевцев. ![]() Источник изображения: sber.ru После активации функции рассуждений система анализирует текстовый запрос для определения наиболее подходящего способа обработки, после чего автоматически подключает соответствующий режим, например, работу с внешними ссылками или документами. За счёт этого нейросеть быстро адаптируется к поставленной задаче, обеспечивая точный и комплексный ответ без необходимости выбирать что-то вручную. «GigaChat выходит на новый уровень — теперь модель способна рассуждать и объяснять свои выводы. Это значит, что наши клиенты смогут не только получать точные ответы, но и понимать ход мыслей системы, прослеживая логику её решений», — сообщил господин Белевцев. Он добавил, что новая функция станет особенно ценной в обучении, поскольку в сложных вопросах важен не только результат, но и процесс его получения. Также было сказано, что для всех пользователей GigaChat функция рассуждений станет доступна в следующем месяце. Суд обязал OpenAI хранить даже удалённые чаты, но пользователи считают это тотальной слежкой
24.06.2025 [06:50],
Анжелла Марина
После того, как суд обязал OpenAI сохранять все чаты пользователей ChatGPT, включая удалённые и анонимные, несколько пользователей в США попытались оспорить это решение в судебном порядке, ссылаясь на нарушение приватности. Но суд отклонил жалобу, в которой утверждалось, что судебный запрет на удаление переписки создаёт угрозу массовой слежки за миллионами людей. ![]() Источник изображения: AI Как сообщает издание Ars Technica, решение о бессрочном хранении чатов было вынесено Окружным судом Соединённых Штатов Южного округа Нью-Йорка в рамках иска о нарушении авторских прав, поданного медиакомпаниями, включая издание The New York Times. OpenAI обязали сохранять все данные на случай, если они понадобятся как доказательство в текущем деле. Однако пользователь Эйдан Хант (Aidan Hunt) подал протест, заявив, что чаты могут содержать личную и коммерческую тайну. Хант утверждал, что компания OpenAI ранее обещала не хранить удалённые чаты и не предупредила об изменениях. «Клиентам не объяснили, что их данные останутся бессрочно в системе, что нарушает право на приватность и четвёртую поправку Конституции США», — сказал он. Хант в своём ходатайстве предлагал исключить из хранения на серверах OpenAI анонимные чаты, медицинские вопросы, обсуждение финансов и права. Судья Она Ван (Ona Wang) отклонила его протест, посчитав вопрос приватности второстепенным в деле об авторском праве. Также была подана жалоба от лица консалтинговой компании Spark Innovations, в которой указывалось на недопустимость хранения чатов, содержащих коммерческую тайну и обсуждение рабочих процессов. Одновременно Коринн Макшерри (Corynne McSherry), юрист из Фонда электронных рубежей (EFF) по защите цифровых прав, поддержала опасения: «Этот прецедент угрожает приватности всех клиентов OpenAI. ИИ-чаты становятся новым инструментом корпоративной слежки, особенно если люди не контролируют свои данные [после их удаления]». Но пользователи задаются вопросом, насколько активно OpenAI будет отстаивать их интересы, так как есть опасения, что компания может пожертвовать защитой личных данных ради экономии средств или репутационных выгод. Представители OpenAI пока не ответили на запрос Ars Technica, но ранее заявляли, что намерены оспаривать судебное решение. Правозащитники, в свою очередь, призывают все ИИ-компании не только обеспечивать реальное удаление данных из чатов, но и своевременно информировать пользователей о требованиях со стороны судебных инстанций. «Если компании ещё этого не делают, им стоит начать публиковать регулярные отчёты о таких запросах», — добавила юрист Макшерри. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |