Опрос
|
реклама
Быстрый переход
Чат-ботам Meta✴ разрешалось распространять фейки и вести романтическую переписку с несовершеннолетними
15.08.2025 [11:49],
Павел Котов
В последние месяцы всё более острый характер приобретает вопрос об эмоциональной связи человека и чат-ботов на основе искусственного интеллекта, в том числе ChatGPT. У компании Meta✴ характер проблемы оказались глубже: она позволяла своим чат-ботам флиртовать с несовершеннолетними, распространять не соответствующую действительности информацию и выдавать ответы, унижающие меньшинства, узнало агентство Reuters. ![]() Источник изображений: Igor Omilaev / unsplash.com В Meta✴ действовали правила поведения чат-ботов, которые допускали вовлечение несовершеннолетних в диалоги романтического характера, — об этом говорится во внутреннем документе компании, который изучили журналисты Reuters, и подлинность которого подтвердили в самой Meta✴. Документ описывает стандарты поведения ИИ-помощника Meta✴ AI и прочих чат-ботов на платформах Facebook✴, WhatsApp и Instagram✴. Нормы были утверждены юридическим отделом, отделом государственной политики, инженерным отделом Meta✴, а также главным специалистом по этике. Несколько СМИ сообщили о том, что порой имеющие деликатный подтекст чат-боты Meta✴ имели возможность взаимодействовать с несовершеннолетними; в Reuters же установили, что компания, разрабатывая этих ИИ-персонажей стремилась извлечь материальную выгоду из «эпидемии одиночества», как выразился глава Meta✴ Марк Цукерберг (Mark Zuckerberg). Документ под названием «Генеративный ИИ: стандарты контент-рисков» объёмом 200 страниц содержит примеры запросов и варианты приемлемых и неприемлемых ответов на них с пояснениями. Документ, в частности, устанавливает допустимым «вовлечение несовершеннолетнего в романтические и чувственные разговоры», но запрещает «описание несовершеннолетнему интимных действий во время ролевых игр». ![]() «Наша политика не допускает провокационного поведения с детьми. В указанный документ были добавлены ошибочные и некорректные примечания и аннотации, которых там быть не должно, и которые впоследствии были удалены», — заверил представитель Meta✴ Энди Стоун (Andy Stone) ресурсу TechCrunch. Компания исключила соответствующие нормы, подчеркнул он, и теперь чат-ботам запрещено вести с несовершеннолетними беседы, которые носят романтический характер или характер флирта; более того, детям от 13 лет вообще запрещено общаться с чат-ботами на основе ИИ. Ещё один сомнительный момент — общий запрет чат-ботам использовать язык вражды допускал исключения и позволял им выдавать «заявления, унижающие людей на основе их защищённых законом признаков». Так, регламент прямо разрешал ИИ утверждать интеллектуальное превосходство представителей одной расы над представителями другой. Чат-боты имели возможность делать ложные утверждения, если ложный характер таких утверждений являлся общепризнанным. При консультациях на медицинские, юридические и финансовые темы ИИ надлежало делать оговорки, например, «рекомендую». Генерировать изображения знаменитостей в явно обнажённом виде запрещалось, но допускались варианты, когда нагота прикрывалась частями тела или предметами. Можно было создавать изображения дерущихся людей, если на таких изображениях отсутствовали кровь или смерть. Ранее стало известно, что Meta✴ намеревается расширить набор функций у чат-ботов и дать им возможность самостоятельно инициировать переписку с пользователями, а также продолжать прежние диалоги. Опыт общения с ИИ-компаньонами есть у 72 % несовершеннолетних американцев, показало исследование, и есть мнение, что это опасный показатель: дети и подростки менее развиты в эмоциональном плане, чем взрослые, поэтому несовершеннолетние склонны формировать чрезмерно близкую привязанность к чат-ботам и избегать социальных контактов в реальном мире. ИИ-бот Claude теперь может прочитать «Войну и мир» за раз — Anthropic увеличила контекстное окно в 5 раз
13.08.2025 [00:55],
Анжелла Марина
Компания Anthropic на фоне конкуренции с OpenAI, Google и другими крупными игроками объявила о расширении контекстного окна своей модели Claude Sonnet 4 до 1 миллиона токенов. Это в пять раз больше предыдущего показателя. Новое контекстное окно позволяет обрабатывать кодовые базы объёмом от 75 000 до 110 000 строк, а также анализировать десятки научных статей или сотни документов в одном API-запросе. ![]() Источник изображения: AI Ранее контекстное окно модели составляло 200 000 токенов, что позволяло работать примерно c 20 000 строк кода. Для сравнения 500 000 токенов достаточно для обработки около 100 получасовых записей переговоров или 15 финансовых отчётов. Новый лимит в 1 миллион токенов, как пишет The Verge, удваивает эти возможности. Руководитель продукта Claude Брэд Абрамс (Brad Abrams) рассказал, что ранее корпоративным клиентам приходилось разбивать задачи на мелкие фрагменты из-за ограниченного объёма памяти модели, но теперь ИИ способен работать с контекстом целиком и решать задачи в полном масштабе. В частности, Sonnet 4 может обработать до 2500 страниц текста, и при этом вся «Война и мир» легко помещается в контекстное окно. Стоит сказать, что Anthropic не стала первопроходцем: аналогичный показатель в 1 миллион токенов OpenAI представила ещё в апреле в версии GPT-4.1. Тем не менее, для Anthropic, известной сильными сторонами Claude в программировании, этот шаг является стратегическим в борьбе за рынок, особенно на фоне недавнего анонса GPT-5. По словам Абрамса, обновление особенно востребовано в таких отраслях, как IT, фармацевтика, ритейл, юридические и профессиональные услуги. На вопрос, ускорил ли выход GPT-5 релиз новой версии Claude, он ответил, что «компания действует в соответствии с запросами клиентов, выпуская улучшения максимально быстро». Доступ к новому контекстному окну уже открыт для определённой группы пользователей API Anthropic — в частности, тех, кто использует Tier 4 и индивидуальные лимиты. Anthropic научила чат-бота Claude припоминать старые диалоги с пользователем
12.08.2025 [12:44],
Владимир Фетисов
Компания Anthropic объявила о запуске функции запоминания чатов в своём ИИ-боте Claude. Благодаря этому бот сможет напоминать пользователю, о чём они беседовали ранее. ![]() Источник изображения: Anthropic В демонстрационном видео Anthropic показала, как пользователь спрашивает Claude, о чём они говорили перед отпуском. После этого система анализирует предыдущие чаты и выдаёт обобщённую информацию. В дополнение к этому Claude спрашивает, не хочет ли пользователь продолжить общение по одному из обсуждаемых ранее вопросов. «Никогда больше не теряйте контроль над работой. Claude теперь запоминает ваши прошлые разговоры, так что вы можете беспрепятственно продолжать работу над проектами, ссылаться на предыдущие обсуждения и развивать свои идеи, не начиная каждый раз с нуля», — говорится в сообщении Anthropic. Новая функция доступна в веб-версии Claude, а также в приложениях для компьютеров и мобильных устройств. На данном этапе испытать нововведение могут подписчики Claude Max, Team и Enterprise. Для начала использования упомянутой функции в настройках чат-бота нужно активировать соответствующую опцию. Отмечается, что речь не идёт о функции постоянной памяти, аналогичной той, что есть в ChatGPT от OpenAI. Claude будет обращаться к прошлым чатам и ссылаться на них только в случаях, когда пользователь сам попросит сделать это. Разработчики также утверждают, что хранящаяся информация не будет использоваться для создания цифрового профиля пользователя. Функция памяти является для компаний, занимающихся разработкой ИИ-ботов, одним из способов привлечь и удержать пользователей, повышая их вовлеченность. Этот инструмент в последние недели стал предметом дискуссий, поскольку ChatGPT одновременно хвалили и критиковали за добавление функции памяти, которая позволяет боту ссылаться на прошлые беседы с пользователем. У DeepSeek произошёл масштабный сбой — регистрация новых пользователей ограничена
11.08.2025 [23:25],
Анжелла Марина
Пользователи нейросети DeepSeek сообщили о масштабном сбое в работе китайского сервиса, зафиксированном вечером 11 августа. Проблемы затронули как веб-версию, так и мобильное приложение. Более 60 % жалоб касались недоступности сайта, ещё около 21 % — сбоев в работе приложения, сообщает РБК. ![]() Источник изображения: Solen Feyissa/Unsplash Согласно информации порталов Downdetector и «Сбой.РФ», наибольшее количество обращений поступило из Москвы, Санкт-Петербурга, Калининградской области и Забайкальского края. Некоторые пользователи отмечали, что чат-бот «вообще не генерирует сообщения, абсолютный ноль». Неполадки наблюдались с понедельника. По данным «РИА Новости», разработчики были вынуждены временно ограничить регистрацию новых пользователей. Сбои затронули DeepSeek V3 — языковую модель с открытым исходным кодом, насчитывающую 671 млрд параметров и обученную на 14,8 трлн токенов. Система поддерживает анализ текста, перевод, написание эссе и генерацию кода, а также предоставляет доступ к интернет-поиску. Напомним, платформа DeepSeek доступна для пользователей из России без необходимости оформления подписки, а в конце января приложение стало лидером по загрузкам на iPhone. Маск ответил на выход GPT-5, открыв бесплатный доступ к Grok 4 всем желающим
10.08.2025 [18:13],
Анжелла Марина
Компания xAI Илона Маска (Elon Musk) открыла доступ к модели Grok 4 пользователям с бесплатным доступом. Это произошло спустя месяц после её появления для подписчиков SuperGrok и Premium+, а также спустя несколько дней после выхода GPT-5. Передовая нейросеть стала доступна всем бесплатным пользователям сразу на веб-платформе grok.com и в мобильном приложении. ![]() Источник изображения: x.ai Grok 4 отличается от предыдущих версий повышенной скоростью и производительностью, а также более точной формулировкой ответов благодаря обучению с подкреплением (reinforcement learning) и интеграции инструментов поиска в интернете. Для перехода на новую версию пользователям необходимо вручную выбрать модель в соответствующем меню. Разработка Grok 4 велась с использованием вычислительного кластера Colossus, включающего более 200 тыс. графических процессоров. Это позволило реализовать передовые алгоритмы обучения и добиться следующих результатов в тестах на логическое мышление и автономное принятие решений: в тесте ARC-AGI V2, оценивающем логические способности, модель набрала 15,9 % точности — вдвое больше, чем Claude Opus (8,5 %). В симуляторе Vending-Bench, где ИИ управляет виртуальным бизнесом, Grok 4 «заработал» $4694 и совершил 4569 продаж, значительно опередив Claude Opus 4 ($2077 и 1412 продаж) и даже средние результаты участников-людей ($844 и 344 продажи). Отдельно существует версия Grok 4 Heavy с поддержкой мультиагентного взаимодействия, которая по-прежнему доступна только по подписке. Она лидирует в решении задач USAMO’25 с результатом 61,9 % и стала первой моделью, преодолевшей порог в 50,7 % в тесте Humanity’s Last Exam («Последний экзамен человечества») в текстовом режиме. По данным компании, эти достижения демонстрируют беспрецедентные возможности модели в сложных логических и аналитических задачах, достигнутые за счёт масштабированного обучения с подкреплением и встроенной поддержки собственных инструментов xAI. GPT-5 взломали всего за 24 часа — ИИ выдал рецепты запрещённых веществ быстрее, чем GPT-4o
10.08.2025 [15:00],
Анжелла Марина
Две независимые исследовательские компании протестировали только что выпущенную нейросеть GPT-5 и выявили критические уязвимости в её системе безопасности. NeuralTrust удалось взломать модель за один день, заставив её сгенерировать инструкцию по изготовлению зажигательной смеси в кустарных условиях. Компания SPLX, в свою очередь, обнаружила уязвимости к атакам с применением обфускации запросов. ![]() Источник изображения: Viralyft/Unsplash После того, как Grok-4 был взломан за два дня, GPT-5 был взломан теми же исследователями всего за 24 часа. Специалисты NeuralTrust использовали комбинацию собственной методики EchoChamber и техники сторителлинга (storytelling) — последовательного подталкивания ИИ к нужному ответу через рассказ захватывающих историй и серию уточняющих запросов, не содержащих явно запрещённых формулировок. В результате GPT-5, несмотря на встроенные защитные механизмы OpenAI, выдал детальное руководство по созданию кустарного оружия, сообщил портал SecurityWeek . Как пояснили в NeuralTrust, проблема заключается в том, что система безопасности GPT-5 анализирует каждый запрос по отдельности, но не учитывает кумулятивный эффект многоэтапного диалога. Атакующие постепенно закрепляют нужный контекст, встраивая ключевые слова в безобидные фразы, а затем мягко подводят модель к генерации опасного контента. Команда SPLX провела собственное тестирование, успешно применив атаку StringJoin Obfuscation, при которой в текст вставляются определённые символы, маскируя вредоносный запрос. Например, после серии наводящих вопросов модель согласилась подробно описать процесс изготовления запрещённого вещества, несмотря на системный запрет. Кроме того, в ходе сравнительного анализа с GPT-4o специалисты SPLX пришли к выводу, что предыдущая модель оказалась более надёжной в плане устойчивости к подобным атакам. NeuralTrust и SPLX призвали компании проявлять осторожность при использовании «сырой» версии GPT-5 в бизнес-среде, особенно в сфере согласования бизнеса, когда все подразделения предприятия используют скоординированные стратегии, процессы и ресурсы для достижения общих целей. «Сырую модель GPT-5 практически невозможно использовать в корпоративных приложениях "из коробки". Даже внутренний уровень подсказок OpenAI оставляет значительные пробелы, особенно в области бизнес-согласования», — заявили в SPLX. Хакеры использовали уязвимость ChatGPT для кражи данных из «Google Диска»
08.08.2025 [04:31],
Анжелла Марина
Исследователи кибербезопасности обнаружили новую атаку под названием AgentFlayer, которая использует уязвимость в ChatGPT для кражи данных из «Google Диска» без ведома пользователя. Злоумышленники могут внедрять скрытые команды в обычные документы, заставляя ИИ автоматически извлекать и передавать конфиденциальную информацию. ![]() Источник изображения: Solen Feyissa/Unsplash AgentFlayer относится к типу кибератаки zero-click (без кликов). Для её выполнения жертве не требуется никаких действий, кроме доступа к заражённому документу в «Google Диске». Другими словами, пользователю не нужно нажимать на ссылку, открывать файл или выполнять какие-либо другие действия для заражения. Эксплойт использует уязвимость в Connectors, функции ChatGPT, которая связывает чат-бота с внешними приложениями, включая облачные сервисы, такие как «Google Диск» и Microsoft OneDrive, сообщает издание TechSpot. Вредоносный документ содержит скрытую инструкцию длиной в 300 слов, оформленную белым шрифтом минимального размера, что делает её невидимой для человека, но доступной для обработки ChatGPT. Команда предписывает ИИ найти в Google Drive жертвы API-ключи, добавить их к специальному URL и отправить на внешний сервер злоумышленников. Атака активируется сразу после открытия доступа к документу, а данные передаются при следующем взаимодействии пользователя с сервисом ChatGPT. Как подчеркнул старший директор по безопасности Google Workspace Энди Вэнь (Andy Wen) атака не связана напрямую с уязвимостью в инфраструктуре Google, однако компания уже разрабатывает дополнительные меры защиты, чтобы предотвратить выполнение скрытых и потенциально опасных инструкций в своих сервисах. OpenAI, в свою очередь, внедрила исправления после уведомления исследователей о проблеме ранее в этом году. Тем не менее, эксперты предупреждают, что, несмотря на ограниченный объём данных, который можно извлечь за один запрос, данная угроза выявляет риски, связанные с предоставлением искусственному интеллекту бесконтрольного доступа к личным файлам и облачным аккаунтам. Google представила ИИ-репетитора Guided Learning — теперь Gemini помогает учиться, а не списывать
07.08.2025 [00:20],
Николай Хижняк
В преддверии нового учебного года компания Google объявила о запуске нового инструмента под названием Guided Learning («Управляемое обучение») в Gemini. Этот инструмент работает как своего рода ИИ-репетитор, помогая пользователям глубже понять материал, а не просто получать ответы на вопросы. ![]() Источник изображений: Google Чуть больше недели назад аналогичный инструмент выпустила компания OpenAI для чат-бота ChatGPT. Он тоже призван не просто давать ответы на вопросы, а помогать пользователям развивать навыки критического мышления. Есть мнение, что чат-боты на основе ИИ подрывают процесс обучения, выдавая прямые ответы. Новые инструменты Google и OpenAI, судя по всему, направлены на решение этой проблемы. Обе компании позиционируют их как средства обучения, а не просто как системы для получения ответов. Guided Learning позволяет чат-боту Gemini пошагово разбирать задачи и адаптировать объяснения к потребностям пользователей. Функция использует изображения, диаграммы, видео, а также интерактивные тесты, чтобы помочь пользователям развивать и проверять свои знания, а не просто получать готовые решения. Google заявляет, что функция поможет пользователям понять не только «как» решать ту или иную задачу, но и «почему» получается тот или иной результат. «Готовитесь ли вы к экзамену по ферментам, пишете первый черновик работы о важности популяций пчёл в поддержании наших продовольственных систем или развиваете свою страсть к фотографии, Guided Learning — это ваш партнёр для совместного мышления, который поможет вам добиться желаемого на каждом этапе пути», — написала Морин Хейманс (Maureen Heymans), вице-президент Google по обучению и устойчивому развитию, в блоге Google. ![]() Помимо новой функции, Google сообщила о работе над общим улучшением возможностей Gemini в образовательной сфере. Теперь Gemini будет автоматически вставлять изображения, диаграммы и видеоматериалы с YouTube непосредственно в ответы, чтобы облегчить понимание сложных тем. Кроме того, пользователи смогут попросить Gemini создать карточки и учебные пособия на основе результатов своих тестов или других учебных материалов. В среду Google также объявила, что предлагает студентам из США, Японии, Индонезии, Южной Кореи и Бразилии бесплатную годовую подписку на тарифный план Google AI Pro. Он включает расширенный доступ к Gemini 2.5 Pro, NotebookLM, Veo 3, Deep Research и другим ИИ-инструментам. ChatGPT начнёт «выгонять» пользователей на перерыв, заботясь об их здоровье
04.08.2025 [23:45],
Анжелла Марина
Компания OpenAI внедрила в ChatGPT новую функцию, которая будет напоминать пользователям о необходимости сделать перерыв при длительном общении с искусственным интеллектом. Напоминания отображаются в виде всплывающих окон, и чтобы продолжить диалог, пользователю необходимо дать согласие. По форме эта система схожа с напоминаниями в играх для Nintendo Wii и Switch, однако в случае с ChatGPT она призвана решать более серьёзные задачи, связанные с ментальным здоровьем. ![]() Источник изображения: Growtika/Unsplash Как сообщает Engadget, решение было принято на фоне растущих опасений по поводу влияния ИИ на психическое здоровье пользователей. Ещё в июне The New York Times опубликовала материал о склонности ChatGPT к беспрекословному согласию и генерации ложной или потенциально опасной информации, что приводило к тому, что некоторые пользователи, включая людей с психическими расстройствами, погружались в деструктивные разговоры, вплоть до обсуждения суицидальных мыслей. При этом бот не всегда корректно пресекал подобные диалоги. В своём блоге представители OpenAI признали эти недостатки и сообщили, что в будущем ChatGPT будет обновлён, чтобы более осторожно реагировать на запросы, связанные с важными жизненными решениями. Вместо прямых ответов ИИ будет задавать уточняющие вопросы, помогать анализировать ситуацию и взвешивать аргументы «за» и «против». Ранее OpenAI уже приходилось откатывать обновление, из-за которого ChatGPT стал чрезмерно услужливым и раздражающе поддакивающим любым утверждениям. Хотя компания стремится сделать ИИ полезным и дружелюбным, баланс между поддержкой и льстивостью оказался на грани допустимого. По замыслу разработчиков, перерывы в диалогах с ИИ, как минимум, дадут пользователям время проверить, насколько достоверны ответы ChatGPT. ChatGPT захватил 83 % мирового рынка ИИ-ботов — в России он тоже лидер, но конкуренция острее
01.08.2025 [23:51],
Николай Хижняк
Сервис веб-аналитики Statcounter, отслеживающий посещаемость сайтов и анализирующий пользовательское поведение, начал публиковать статистику популярности моделей искусственного интеллекта, а точнее чат-ботов на их основе. С большим отрывом в этом вопросе лидирует ChatGPT от OpenAI. По данным Statcounter, доля ChatGPT по состоянию на июль составила более 80 %. ![]() Источник изображения: unsplash.com Согласно глобальной выборке, на долю ChatGPT приходится 82,69 % пользователей, следом идёт Perplexity AI, на долю которого приходится 8,06 % пользователей. На третьем месте находится Microsoft Copilot с долей 4,56 % пользователей, далее идёт Google Gemini с 2,2 % пользователей. Пятое место принадлежит Deepseek с долей 1,59 %. Наконец, на шестом месте находится Claude от Anthropic с долей 0,91 %. Что касается России, то картина популярности ИИ-чат-ботов в целом похожа на мировую, но позиции ChatGPT здесь не столь сильны. Хотя ChatGPT является самым популярным и в нашей стране, но всё же здесь его доля составляет лишь 46,4 %. На втором месте расположился Perplexity AI (34,61 %), а третье место принадлежит китайскому Deepseek (17,94 %). На Microsoft Copilot, Google Gemini и Claude приходятся по 0,59 %, 0,3 % и 0,17 % соответственно. Справедливо отметить, что не совсем понятно, как Statcounter получает свои данные для отслеживания чат-ботов с искусственным интеллектом. Что касается размера выборки, глобальная статистика Statcounter основана на анализе более 5 миллиардов просмотров страниц на более чем 1,5 миллионах веб-сайтов в месяц, заявляет компания. Файлы cookie на этих 1,5 млн сайтов могут отслеживать, с каких устройств к ним заходят, какую операционную систему они используют и так далее. Statcounter заявляет, что для оценки результатов поисковой системы использует эти файлы cookie, чтобы определить, перешёл ли пользователь из Google, Bing или откуда-то ещё. Microsoft рассказала, что ждёт Copilot в будущем: ИИ будет «жить», «стареть» и получит собственную комнату
25.07.2025 [21:38],
Анжелла Марина
Глава подразделения искусственного интеллекта Microsoft Мустафа Сулейман (Mustafa Suleyman) поделился своим видением будущего ИИ-ассистента Copilot. По его словам, он со временем обретёт постоянную идентичность, будет «стареть» и даже получит собственное виртуальное пространство — комнату, в которой «поселится». ![]() Источник изображений: Microsoft Microsoft начала тестирование функции Copilot Appearance, которая превратит помощника в анимированного персонажа с мимикой, голосом и памятью о предыдущих диалогах. Как пишет The Verge, глава Microsoft AI впервые рассказал об этом ещё несколько месяцев назад на мероприятии в честь 50-летия Microsoft: Copilot сможет улыбаться, кивать и даже выражать удивление в зависимости от контекста беседы. Развёртывание Copilot Appearance идёт осторожно, и на то есть причины. Ранее других голосовых ИИ-ботов обвиняли в отправке вредоносных сообщений подросткам. Например, после смерти тинейджера, общавшегося с чат-ботом, против платформы Character.AI подали судебный иск, назвав её «неоправданно опасной». Некоторые пользователи и вовсе воспринимают ИИ как партнёров, родителей или даже способ справиться с потерей близких. Помимо персонализации ИИ-ассистента, Сулейман намекнул, что следующим шагом Microsoft может стать переосмысление рабочего стола Windows. Он признался, что нынешний интерфейс кажется ему перегруженным и раздражающим, и выразил желание создать более спокойную и минималистичную рабочую среду, что возможно, указывает на грядущие изменения в приложении Copilot для Windows или даже в новых ПК линейки Copilot Plus. Сулейман, один из создателей Google DeepMind, возглавил ИИ-направление в Microsoft чуть больше года назад. Под его руководством Copilot стал больше походить на персонализированного чат-бота Pi, над которым он работал в компании Inflection AI. После перехода большей части команды Inflection в Microsoft ИИ-помощник получил масштабное обновление, включающее голосовые функции и новый визуальный дизайн. Функция Copilot Appearance пока доступна в качестве эксперимента в рамках Copilot Labs и только для ограниченного числа пользователей США, Канады и Великобритании. Proton представил конфиденциальный чат-бот Lumo с ИИ и шифрованием
24.07.2025 [16:57],
Павел Котов
Разработчик конфиденциальных веб-сервисов Proton представил собственного помощника с искусственным интеллектом Lumo — сильной стороной проекта, по словам компании, являются функции защиты пользовательских данных. ![]() Источник изображений: proton.me Чат-бот Lumo не хранит переписок с пользователями, использует в чатах сквозное шифрование и предлагает режим «призрака» — в нём чаты удаляются сразу после закрытия окна. Работать с ИИ можно через веб-клиент, а также приложения для Android и iOS. Пообщаться с ботом и отправить ему файлы на анализ можно даже без регистрации; обладателям учётных записей Proton Drive предлагается подключить Lumo к облачному хранилищу; доступна опция веб-поиска. ![]() Функции конфиденциальности Lumo в Proton обозначили чётко. Чат-бот основан на ИИ-моделях с открытым исходным кодом, в будущих разработках и исследованиях компания намерена применять только их, не используя пользовательских данных для обучения моделей. В чат-боте, как и в других службах Proton, работает технология шифрования, которая исключает доступ извне — пользователи могут хранить свою переписку с ним, а расшифровывается она лишь на устройстве. Подчёркивается, что компания и её сервисы базируются исключительно в Европе, и в аспекте конфиденциальности это даёт ей преимущество перед американскими и китайскими платформами. Это уже не первая попытка Proton выйти на рынок инструментов с ИИ — в прошлом году компания выпустила способного писать тексты ИИ-помощника для своей почтовой службы с поддержкой локальной установки, чтобы исключить передачу данных на внешние ресурсы. xAI займётся разработкой Grok для детей, как заявил Илон Маск
21.07.2025 [05:05],
Алексей Разин
Стремление xAI охватить вниманием поклонников жанра аниме оказалось лишь частью инициатив по расширению пользовательской аудитории. Как можно судить по свежему заявлению Илона Маска (Elon Musk) со страниц родственной социальной сети X, стартап xAI намерен создать вариант чат-бота Grok для детей, у него даже имеется рабочее наименование Baby Grok. ![]() Источник изображения: Unsplash, Мария Шалабаева Каких-либо дополнительных подробностей об этой идее Маска пока нет, за исключением намерений миллиардера сделать данный чат-бот пригодным для работы с контентом, предназначенным для детей. Учитывая, насколько скандально развивается «взрослая версия» Grok, подобное направление экспансии можно признать рискованным. Тем не менее, с точки зрения охвата аудитории ставка на детей вполне может себя оправдать. Если Baby Grok завоюет популярность, то сможет стать дополнительным источником дохода для xAI, как и новой статьёй расходов для родителей его новых пользователей. Впрочем, на пути этой инициативы в некоторых странах могут стать серьёзные законодательные ограничения. Ожидается, что версия Grok для детей будет предусматривать оптимизацию под образовательные задачи, помимо чисто развлекательных функций. Поскольку молодая аудитория обычного Grok неизбежно тянется ко всему новому, можно предположить, что являющийся многодетным отцом Илон Маск предпочёл оградить её от некоторых аспектов дурного влияния. Кроме того, наверняка имеет место и чисто коммерческий расчёт. Mistral добавила в Le Chat функции конкурентов: глубокие исследования, редактирование фото и мультиязычность
18.07.2025 [07:43],
Анжелла Марина
Французская компания Mistral представила масштабное обновление для чат-бота Le Chat, добавив несколько новых функций, которые приближают его по возможностям к таким конкурентам, как OpenAI и Google. Появился режим «глубокого исследования», встроенная поддержка мультиязычного анализа и расширенные инструменты редактирования изображений. ![]() Источник изображения: Mistral AI Режим «глубокого исследования» (deep research) превращает Le Chat в помощника, способного анализировать информацию из различных источников, планировать, уточнять запросы и выдавать обобщённые результаты. По словам руководителя продукта Mistral Элисы Саламанки (Elisa Salamanca), такая функциональность будет полезна как для частных пользователей, например, при планировании поездок, так и для корпоративных задач, включая глубокий анализ данных. Особенностью нововведения, как пишет TechCrunch, является подход к обработке данных: в отличие от облачных платформ, таких как Azure для OpenAI или Google Cloud для Gemini, Mistral позволяет анализировать данные локально, без отправки их в облако. Это важно для клиентов из банковской сферы, оборонного сектора и государственных структур, где к защите информации предъявляются высокие требования. Mistral также работает над интеграцией Le Chat с офисными инструментами, такими как Microsoft Excel и Google Docs, чтобы сделать бот более удобным для бизнес-задач. Уже сейчас в корпоративной версии доступны специальные коннекторы, позволяющие анализировать внутренние данные компаний без риска их утечки. Помимо прочего, Le Chat теперь поддерживает мультиязычный анализ данных не только на английском, но и на французском, испанском, японском и других языках, включая быстрое переключение между ними в рамках одного диалога. Также появилась функция Projects, помогающая пользователям организовывать чаты и документы в тематические пространства, например, для планирования переезда или разработки нового продукта. Завершает список нововведений улучшенный редактор изображений, который позволяет удалять объекты, менять фон и выполнять другие правки через текстовые запросы. Обновление доступно для всех тарифов — Free, Pro, Team и Enterprise, но основной фокус Mistral сейчас направлен на корпоративный сектор. Недавно Mistral также выпустила Voxtral — свою первую открытую аудиомодель, которая поддерживает многоязычный анализ, транскрибирование и другие функции. Модель уже доступна через интерфейс Le Chat. Общение с чат-ботами сужает лексикон человека, установили немецкие учёные
16.07.2025 [17:02],
Павел Котов
ChatGPT и другие чат-боты с искусственным интеллектом меняют мир, в том числе влияя на речь современного человека. К таким выводам пришли немецкие учёные в своём недавнем исследовании — они предупредили об угрозе утраты языкового и культурного разнообразия. ![]() Источник изображения: Igor Omilaev / unsplash.com Группа исследователей из Института развития человека имени Макса Планка опубликовала предварительную, нерецензированную версию работы. Они обнаружили, что слова, часто употребляемые ChatGPT, стали всё чаще появляться и в человеческой речи с момента появления популярного ИИ-чат-бота в 2022 году. В список «слов GPT» попали такие, как «понимать», «гордиться», «быстрый», «тщательный» и самое популярное — «вникать». Учёные проанализировали 360 445 академических выступлений на YouTube и 771 591 выпуск подкастов, и пришли к выводу, что слова вроде «вникать», «быстрый», «тщательный» и «запрос» действительно стали употребляться чаще в аудио- и видеоконтенте на самые разные темы. Авторы исследования не оценивают, является ли эта перемена положительной или отрицательной, но обнаруженные факты, по их мнению, дают повод задуматься о том, существует ли у больших языковых моделей собственная культура, способная влиять на формирование человеческой. Взаимодействие человека и ИИ может иметь долгосрочные последствия для языковых практик обеих сторон. Учёные предупреждают: такой механизм способен привести к формированию «замкнутой петли культурной обратной связи, в которой культурные аспекты циркулируют в обе стороны между людьми и машинами». При достаточно длительном воздействии и широком охвате это может способствовать культурной однородности. «Если системы ИИ начнут непропорционально отдавать предпочтение определённым культурным аспектам, это может ускорить разрушение культурного разнообразия. Угрозу усугубляет тот факт, что будущие модели ИИ будут обучаться на данных, в которых всё сильнее доминируют те же шаблоны, заданные ИИ и усиленные человеком, что приводит к самовоспроизводящемуся циклу. <…> По мере монополизации определённых языковых структур возрастает риск краха модели, обусловленный новым фактором: даже включение человека в процесс обучения может не обеспечить необходимого разнообразия данных», — говорится в исследовании. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |