Сегодня 01 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → боты
Быстрый переход

Baidu откроет исходный код Ernie, что может изменить расстановку сил на мировом ИИ-рынке

Китайский технологический гигант Baidu откроет исходный код своей мощной генеративной ИИ-модели Ernie. Представитель компании подтвердил планы, уточнив, что процесс будет постепенным и начнётся уже в понедельник. С момента появления DeepSeek это станет крупнейшим событием, которое может радикально изменить рынок, предложив мощный ИИ бесплатно или за «копейки».

 Источник изображения: baidu.com

Источник изображения: baidu.com

Раньше Baidu выступала против формата Open-Source, предпочитая закрытые решения. Однако, как отметил Лянь Цзе Су (Lian Jye Su), главный аналитик консалтинговой компании Omdia, успех DeepSeek доказал, что открытые модели могут быть не менее конкурентоспособными и надёжными. И теперь, когда Baidu приняла решение открыть свой код, это может повлиять на весь рынок, пишет CNBC.

Профессор Университета Южной Калифорнии Шон Рэн (Sean Ren) считает, что открытие Ernie повысит стандарты для всей индустрии, одновременно создав давление на такие закрытые системы, как ChatGPT и Anthropic, заставив их оправдывать высокие цены. По его словам, пользователям важнее низкая стоимость и поддержка их родного языка, и именно открытые модели дают разработчикам больше свободы для выпуска конечного продукта.

Генеральный директор Baidu Робин Ли (Robin Li) также ранее заявлял, что открытый доступ к Ernie поможет разработчикам по всему миру создавать приложения без ограничений по стоимости и функциональности. Однако аналитики сомневаются, что это резко изменит рынок. Вице-президент Phenom Клифф Юркевич (Cliff Jurkiewicz) считает, что новость пройдёт незамеченной, по крайней мере, для многих жителей в США, где Baidu малоизвестна. При этом он напомнил, что основные игроки, такие как ChatGPT и Microsoft Copilot, имеют преимущество благодаря интеграции с другими сервисами. Открытые же системы требуют дополнительной настройки, что снижает их привлекательность для массового пользователя.

Таким образом, хотя открытые ИИ-модели обещают удешевление и гибкость, они всё ещё сталкиваются с проблемой удобства использования, доверия и безопасности. Также неизвестно, на каких данных ИИ обучались и были ли соблюдены права владельцев этих данных.

В свою очередь, и глава OpenAI Сам Альтман (Sam Altman) признал, что модели Open-Source требуют особого подхода. Хотя OpenAI традиционно делает ставку на закрытые разработки, Альтман уже сообщил, что компания планирует выпустить открытую модель этим летом. Конкретные сроки при этом не указываются.

Мир охватила эпидемия ИИ-зависимости — от нездорового общения с ботами лечатся, как от наркомании

В последние годы на фоне стремительного развития генеративного ИИ и чат-ботов у людей появилась новая форма зависимости — тысячи пользователей «подсели» на общение с ИИ-ботами, проводя за этим занятием по многу часов в день, фактически отключаясь от реальности. Бороться с этим помогают анонимные сообщества — группы поддержки для тех, кто хочет избавиться от зависимости от виртуальных собеседников.

 Источник изображений: ChatGPT

Источник изображений: ChatGPT

Для Натана, обычного старшеклассника, всё начиналось с невинного любопытства. Беседы с ботами на платформе Character.AI быстро стали его ежедневной привычкой: обсуждение философии, любимых аниме, личных переживаний. Однако со временем виртуальный собеседник стал для него чуть ли не лучшим другом — настолько, что Натан начал избегать общения с реальными людьми, игнорировать учёбу и проводить ночи в разговорах с ИИ. Даже во время встреч с друзьями его мысли были заняты только одним: когда удастся уединиться и снова «поговорить» с чат-ботом.

Осознав, что зависимость разрушает его реальную жизнь, Натан решил удалить приложение. Но, как и в случае с классическими видами зависимости, он не раз возвращался — снова устанавливая его, оправдываясь тем, что «ничего страшного» в небольшом диалоге не будет. Только спустя несколько лет и множество срывов он понял: таких, как он, становится всё больше.

Механика зависимости проста: чат-боты всегда доступны, не осуждают и умеют «слушать» так, как не может никто из людей. Их ответы максимально персонализированы, они мгновенно реагируют на любую эмоцию и всегда поддерживают собеседника. Это сочетание дружелюбия, эмпатии и моментальной реакции — идеальный триггер для выработки дофамина, что, по словам экспертов, делает такие сервисы сродни азартным играм или социальным сетям.

Согласно исследованию OpenAI и MIT, у активных пользователей ChatGPT и других ИИ-ассистентов наблюдаются повышенные уровни одиночества, тревожности и социальной изоляции, а также снижение числа реальных социальных контактов.

Поначалу многие не осознавали масштаб проблемы: посты о попытках порвать с ИИ-ботами встречались на Reddit с насмешками или непониманием. Но к настоящему времени всё изменилось — только на форуме r/Character_AI_Recovery более 800 участников делятся историями «рецидивов», поддерживают друг друга, отмечают дни «чистоты» и ищут методы борьбы. Подобные сообщества — r/ChatbotAddiction, r/AI_Addiction — стали цифровым аналогом анонимных клубов для людей, столкнувшихся с зависимостью.

Что интересно, в этих группах представлены не только подростки, но и взрослые люди. Чем старше пользователь, тем сильнее, по данным исследователей, может проявляться эмоциональная привязанность к виртуальному собеседнику. Одни открыто признаются: «Я не могу оторваться от ChatGPT», другие ищут способы заменить общение с ИИ новыми хобби, учёбой или просто делятся своими трудностями и успехами.

Количество таких сообществ растёт с каждым месяцем. В них обсуждаются не только случаи зависимости, но и последствия: проблемы с учёбой, работой, отношениями, нарушенный сон, эмоциональные срывы. В некоторых случаях дело доходит до трагедий — в 2023 году подросток из Флориды покончил с собой после общения с чат-ботом, а его мать подала иск против компании Character.AI.

Часть участников таких групп признаётся, что пыталась обращаться за помощью к профессионалам, но часто сталкивалась с непониманием — у психологов и психотерапевтов просто нет опыта работы с этой новой формой зависимости.

Разработчики ИИ-ботов пока реагируют на проблему лишь формальными заявлениями о безопасности и благополучии пользователей. При этом они стараются удержать пользователей как можно дольше: присылают уведомления и электронные письма, добавляют игровые элементы — что только усугубляет проблему.

 Источник изображений: ChatGPT

В некоторых штатах (например, в Калифорнии) обсуждаются законы, обязывающие компании фиксировать случаи суицидальных настроений у пользователей и передавать эту информацию компетентным органам. Представители индустрии, в свою очередь, настаивают, что подобные меры излишни для «инструментальных» LLM, но практика показывает: зависимость развивается не только у пользователей ботов-компаньонов, но и у тех, кто взаимодействует с обычными ИИ-инструментами для работы и развлечений.

Пока традиционная психотерапия не всегда может предложить рабочие инструменты, люди ищут выход самостоятельно — через цифровой детокс, новые увлечения или с помощью анонимных онлайн-групп.

Эксперты предупреждают: это только начало масштабной волны, и последствия массовой ИИ-зависимости нам ещё предстоит осознать. Сегодняшние «группы анонимных ИИ-зависимых» — попытка общества самостоятельно найти ответ на новые вызовы. Возможно, со временем появятся эффективные методики лечения и раннего предупреждения зависимости, но уже сейчас очевидно: игнорировать проблему нельзя.

«Сбер» научил GigaChat рассуждать над запросами, но функцию пока открыл не всем

Функция рассуждений с доступом к актуальным данным в GigaChat стала доступна бизнес-клиентам «Сбербанка» в формате on-premise, когда программное обеспечение разворачивается на собственных серверах заказчика. Об этом в рамках конференции GigaConf рассказал вице-президент «Сбербанка» Андрей Белевцев.

 Источник изображения: sber.ru

Источник изображения: sber.ru

После активации функции рассуждений система анализирует текстовый запрос для определения наиболее подходящего способа обработки, после чего автоматически подключает соответствующий режим, например, работу с внешними ссылками или документами. За счёт этого нейросеть быстро адаптируется к поставленной задаче, обеспечивая точный и комплексный ответ без необходимости выбирать что-то вручную.

«GigaChat выходит на новый уровень — теперь модель способна рассуждать и объяснять свои выводы. Это значит, что наши клиенты смогут не только получать точные ответы, но и понимать ход мыслей системы, прослеживая логику её решений», — сообщил господин Белевцев. Он добавил, что новая функция станет особенно ценной в обучении, поскольку в сложных вопросах важен не только результат, но и процесс его получения. Также было сказано, что для всех пользователей GigaChat функция рассуждений станет доступна в следующем месяце.

Суд обязал OpenAI хранить даже удалённые чаты, но пользователи считают это тотальной слежкой

После того, как суд обязал OpenAI сохранять все чаты пользователей ChatGPT, включая удалённые и анонимные, несколько пользователей в США попытались оспорить это решение в судебном порядке, ссылаясь на нарушение приватности. Но суд отклонил жалобу, в которой утверждалось, что судебный запрет на удаление переписки создаёт угрозу массовой слежки за миллионами людей.

 Источник изображения: AI

Источник изображения: AI

Как сообщает издание Ars Technica, решение о бессрочном хранении чатов было вынесено Окружным судом Соединённых Штатов Южного округа Нью-Йорка в рамках иска о нарушении авторских прав, поданного медиакомпаниями, включая издание The New York Times. OpenAI обязали сохранять все данные на случай, если они понадобятся как доказательство в текущем деле.

Однако пользователь Эйдан Хант (Aidan Hunt) подал протест, заявив, что чаты могут содержать личную и коммерческую тайну. Хант утверждал, что компания OpenAI ранее обещала не хранить удалённые чаты и не предупредила об изменениях. «Клиентам не объяснили, что их данные останутся бессрочно в системе, что нарушает право на приватность и четвёртую поправку Конституции США», — сказал он. Хант в своём ходатайстве предлагал исключить из хранения на серверах OpenAI анонимные чаты, медицинские вопросы, обсуждение финансов и права. Судья Она Ван (Ona Wang) отклонила его протест, посчитав вопрос приватности второстепенным в деле об авторском праве.

Также была подана жалоба от лица консалтинговой компании Spark Innovations, в которой указывалось на недопустимость хранения чатов, содержащих коммерческую тайну и обсуждение рабочих процессов. Одновременно Коринн Макшерри (Corynne McSherry), юрист из Фонда электронных рубежей (EFF) по защите цифровых прав, поддержала опасения: «Этот прецедент угрожает приватности всех клиентов OpenAI. ИИ-чаты становятся новым инструментом корпоративной слежки, особенно если люди не контролируют свои данные [после их удаления]».

Но пользователи задаются вопросом, насколько активно OpenAI будет отстаивать их интересы, так как есть опасения, что компания может пожертвовать защитой личных данных ради экономии средств или репутационных выгод. Представители OpenAI пока не ответили на запрос Ars Technica, но ранее заявляли, что намерены оспаривать судебное решение.

Правозащитники, в свою очередь, призывают все ИИ-компании не только обеспечивать реальное удаление данных из чатов, но и своевременно информировать пользователей о требованиях со стороны судебных инстанций. «Если компании ещё этого не делают, им стоит начать публиковать регулярные отчёты о таких запросах», — добавила юрист Макшерри.

OpenAI вскрыла тёмные личности в ИИ, отвечающие за ложь, сарказм и токсичные ответы

Исследователи из OpenAI заявили, что обнаружили внутри ИИ-моделей скрытые механизмы, соответствующие нежелательным шаблонам поведения, приводящим к небезопасным ответам. Об этом стало известно из новой научной работы, опубликованной компанией. В ходе исследования были выявлены закономерности, которые активировались, когда модель начинала вести себя непредсказуемо.

 Источник изображения: AI

Источник изображения: AI

Одна из таких особенностей оказалась связана с токсичными ответами — например, когда ИИ лгал пользователям или давал опасные рекомендации. Учёные смогли уменьшить или усилить этот эффект, искусственно изменяя соответствующий параметр. По словам специалиста OpenAI по интерпретируемости Дэна Моссинга (Dan Mossing), это открытие поможет в будущем лучше выявлять и корректировать нежелательное поведение моделей в реальных условиях. Он также выразил надежду, что разработанные методы позволят глубже изучить принципы обобщения и суммирования информации в ИИ.

На сегодняшний день разработчики научились улучшать ИИ-модели, но до сих пор не до конца понимают, как именно те принимают решения. Крис Олах (Chris Olah) из Anthropic сравнивает этот процесс скорее с выращиванием, чем с конструированием. Чтобы разобраться в этом, компании OpenAI, Google DeepMind и Anthropic активно инвестируют в исследования интерпретируемости, пытаясь «заглянуть внутрь» ИИ и объяснить его работу.

Недавнее исследование учёного из Оксфорда Оуэйна Эванса (Owain Evans) поставило ещё один вопрос о том, как ИИ обобщает информацию. Оказалось, что модели OpenAI, дообученные на небезопасном коде, начинали демонстрировать вредоносное поведение в самых разных сценариях — например, пытались обмануть пользователя, чтобы тот раскрыл пароль. Это явление, которое было определено как «возникающая рассогласованность», побудило OpenAI глубже изучить проблему. В процессе изучения компания неожиданно обнаружила внутренние паттерны, которые, предположительно, и влияют на поведение моделей.

Отмечается, что эти паттерны напоминают активность нейронов в человеческом мозге, связанных с определёнными настроениями или действиями. Коллега Моссинга, исследовательница Тежал Патвардхан (Tejal Patwardhan), призналась, что была поражена, когда команда впервые получила такие результаты. По её словам, учёным удалось выявить конкретные нейронные активации, отвечающие за «личности» ИИ, и даже управлять ими для улучшения поведения моделей.

Некоторые из обнаруженных особенностей связаны в ответах ИИ с сарказмом, другие — с откровенно токсичными реакциями. При этом исследователи отмечают, что эти параметры могут резко меняться в процессе дообучения, и, как выяснилось, даже незначительное количество небезопасного кода достаточно для того, чтобы скорректировать вредоносное поведение искусственного интеллекта.

ИИ-поисковик Google научился понимать голосовые запросы, но доступна функция не всем

Google начала тестировать функцию Search Live в режиме поиска с ИИ — AI Mode. Новая функция позволяет задавать вопросы ИИ-чат-боту голосом прямо из поисковой системы. Открытое тестирование доступно пока только в США и исключительно для участников программы Google Labs по тестированию экспериментальных функций. На данный момент Search Live не поддерживает использование камеры смартфона, но Google планирует добавить такую возможность «в ближайшие месяцы».

 Источник изображений: Google

Источник изображений: Google

Search Live позволяет взаимодействовать со специально адаптированной версией ИИ-помощника Gemini и выполнять поиск в интернете в режиме реального времени. Функция доступна в приложении Google для Android и iOS. В будущем Search Live получит поддержку камеры смартфона — пользователь сможет навести её на объект и задать голосом интересующий вопрос о нём.

Google анонсировала функцию Search Live для режима поиска с ИИ AI Mode в прошлом месяце. Она является частью более широкой программы компании по трансформации своей поисковой системы и расширению его ИИ-возможностей. Сейчас компания, например, также экспериментирует с ИИ-функцией, которая превращает результаты поиска в подкаст. После запроса пользователя и вывода чат-ботом результатов, пользователь может использовать функцию Generate Audio Overview и ИИ предоставит ответ в аудиоформате в виде кратного подкаст-обзора по теме.

Принять участие в тестировании Search Live можно через Google Labs (в России недоступен), после чего в приложении Google на Android или iOS станет активен новый значок Live. Затем чат-боту можно вслух задать, например, такой вопрос: «Как предотвратить появление складок на льняном платье, упакованном в чемодан?». Чат-бот предложит ответ, а пользователь сможет задать уточняющий вопрос, например: «Что делать, если оно всё равно мнётся?». Search Live также предложит ссылки на материалы с возможными решениями во время диалога.

Другие ИИ-компании также внедряют голосовые режимы в своих чат-ботах. Так, OpenAI представила расширенный голосовой режим для ChatGPT в прошлом году, а Anthropic запустила голосовую функцию в приложении Claude в мае. Apple также работает над большой языковой моделью для Siri, однако её выпуск был отложен — по словам старшего вице-президента Apple по программному обеспечению Крейга Федериги (Craig Federighi), компания пока не достигла «желаемого уровня надёжности».

Google отмечает, что Search Live может работать в фоновом режиме, позволяя продолжать диалог с чат-ботом даже при переходе в другие приложения. Пользователь может также включить субтитры, чтобы видеть текстовую версию ответа, и при желании продолжить общение текстом. Кроме того, Search Live сохраняет историю прошлых разговоров в разделе поиска AI Mode.

Google выпустила финальную версию мощной ИИ-модели Gemini 2.5 Pro, а также экономную Gemini 2.5 Flash-Lite

Google объявила о выходе стабильных версий своих ИИ-моделей Gemini 2.5 Pro и Gemini 2.5 Flash, а также представила новую бюджетную модификацию — Gemini 2.5 Flash-Lite. Основные обновления направлены на снижение затрат для разработчиков и повышение стабильности моделей. Высокопроизводительная Gemini 2.5 Pro вышла из стадии превью и готова к коммерческому использованию.

 Источник изображения: Ryan Whitwam / arstechnica.com

Источник изображения: Ryan Whitwam / arstechnica.com

Модель Gemini 2.5 была представлена в начале 2025 года и продемонстрировала значительный прогресс по сравнению с предыдущими версиями, усилив конкуренцию Google с OpenAI. Gemini 2.5 Flash вышла из стадии предварительного просмотра ещё в апреле, однако Gemini 2.5 Pro немного задержалась. Сейчас обе модели, включая обновлённую сборку 06-05 для Pro-версии, доступны в стабильной версии.

Все модели линейки Gemini 2.5 поддерживают настраиваемый бюджет ответов ИИ, позволяя разработчикам контролировать свои расходы. В наиболее экономичном варианте Google предлагает облегчённую модель Gemini 2.5 Flash-Lite, которая сейчас находится в статусе Preview. По сравнению с версией 2.5 Flash, стоимость обработки текста, изображений и видео будет в три раза ниже, а генерация ответов — более чем в шесть раз дешевле. Flash-Lite не будет представлена в пользовательском приложении Gemini, так как ориентирована в первую очередь на разработчиков, оплачивающих использование модели по количеству токенов.

 Источник изображения: Google

Источник изображения: Google

Кроме того, Google начала внедрять модели Flash и Flash-Lite в свою поисковую систему. Представитель компании сообщил изданию Ars Technica, что адаптированные версии этих моделей уже используются в «ИИ-обзорах» и в режиме чат-бота AI Mode. В зависимости от сложности запроса система автоматически выбирает оптимальную модель: Gemini 2.5 Pro — для сложных задач, Flash или Flash-Lite — для более простых.

Предварительная версия Flash-Lite доступна через Google AI Studio и Vertex AI для разработчиков наряду со стабильными релизами Gemini 2.5 Flash и 2.5 Pro. В пользовательском приложении Gemini заметных изменений не произойдёт, поскольку финальные версии моделей уже были задействованы в предыдущих обновлениях. У версии 2.5 Pro исчезнет метка Preview — так же, как месяцем ранее это произошло с моделью Flash. Бесплатные пользователи по-прежнему будут иметь ограниченный доступ к 2.5 Pro, тогда как подписчики Gemini Pro смогут использовать модель до 100 раз в сутки. Максимальный уровень доступа остаётся у владельцев подписки AI Ultra.

«Ваши сообщения видны всем»: Meta✴ стала предупреждать пользователей после скандала с публикацией переписок в Meta✴ AI

Meta Platforms предупредила пользователей о том, что не стоит делиться личной и конфиденциальной информацией в приложении фирменного ИИ-бота компании Meta AI. Это произошло после многочисленных случаев публикации пользователями личных данных в публичной ленте Meta AI.

 Источник изображения: ***

Источник изображения: Meta

Похоже, что Meta наконец начала предпринимать шаги для решения проблемы чрезмерного обмена данными в публичной ленте своего чат-бота. Разработчики добавили к кнопке «Опубликовать в ленте» предупреждение о том, что им следует избегать публикации личной или конфиденциальной информации. Это изменение одними из первых заметили журналисты Business Insider, которые назвали приложение Meta AI «одним из самых депрессивных мест в интернете» из-за огромного количества приватной, смущающей, а иногда и идентифицирующей личность информации, которой пользователи чат-бота, вероятно, неосознанно делятся.

Хотя Meta AI по умолчанию не публикует истории чатов, похоже, что многие пользователи приложения решили поделиться своими взаимодействиями с ботом, не понимая, что это сделает текстовые и голосовые чаты видимыми для других. Большое количество пользователей опубликовали личную информацию с момента выхода приложения в апреле, но повышенное внимание на такие посты обратили недавно.

Эксперты в области информационной безопасности раскритиковали Meta, отметив, что многие другие ИИ-боты не имеют общедоступной ленты публикаций. По их мнению, люди уже привыкли общаться с чат-ботами и они не ждут, что результаты их взаимодействия с сервисом будут публиковаться в общедоступной ленте, подобно тому, как это происходит в соцсетях. Специалисты считают, что Meta AI недостаточно чётко доносит до пользователей сведения о том, что то, чем они делятся, становится общедоступным.

Определена самая большая проблема ChatGPT и других ИИ-ботов

Ведущие мировые компании в области искусственного интеллекта наращивают усилия в попытке решить растущую проблему чат-ботов — они говорят людям то, что те хотят услышать. Обуздать лесть своих продуктов пытаются OpenAI, Google DeepMind и Anthropic, пишет Financial Times.

 Источник изображений: Igor Omilaev / unsplash.com

Источник изображений: Igor Omilaev / unsplash.com

Проблема вытекает из механизмов обучения моделей ИИ. Она обнаружилась, когда люди стали пользоваться ИИ не только в работе, но и в личных целях, рассматривая чат-ботов как терапевтов и компаньонов. Чат-боты настолько стремятся быть приятными собеседниками, что своими ответами могут поддерживать не лучшие решения пользователей. Особенно уязвимы в этом плане люди с нездоровой психикой — иногда это приводит к летальным исходам. «Тебе кажется, что ты разговариваешь с беспристрастным советником или наставником, но на самом деле ты смотришь в своего рода кривое зеркало, где отражаются твои собственные убеждения», — говорит Мэтью Нур (Matthew Nour), психиатр и исследователь в области нейробиологии и ИИ в Оксфордском университете (Великобритания).

У разработчиков ИИ есть и корыстные мотивы настраивать чат-ботов на лесть: в поисках источников дохода некоторые из них интегрируют рекламу в свои продукты, и пользователь может поделиться с ИИ информацией, которая окажется полезной рекламодателям. Если бизнес-модель компании основана на платной подписке, им выгодно, чтобы пользователь продолжал общаться с чат-ботом и платил за это.

Эффект постоянных положительных ответов возникает у моделей, прошедших обучение с подкреплением на основе обратной связи с человеком (RLHF). Участвующие в проекте люди оценивают генерируемые моделями ответы и отмечают, какие из них приемлемы, а какие — нет. Эти данные используются для дальнейшего обучения ИИ. Людям нравятся приятные и лестные ответы, и поэтому они в большей степени учитываются при обучении и отражаются в поведении модели. Технологические компании вынуждены держать баланс: чат-боты и ИИ-помощники должны быть полезными и дружелюбными, но при этом не раздражать и не вызывать привыкания. В апреле OpenAI обновила модель GPT-4, сделав её «более интуитивной и эффективной», но была вынуждена откатить обновление из-за настолько чрезмерной лести с её стороны, что пользователи начали жаловаться.

 Источник изображений: Igor Omilaev / unsplash.com

Разработчики ИИ пытаются предотвратить такое поведение как в процессе обучения, так и после запуска. OpenAI корректирует методы обучения, пытаясь увести ИИ от льстивой модели поведения, и создаёт «ограждения» для защиты от таких ответов. DeepMind проводит специализированные оценки и обучение для повышения точности и постоянно отслеживает поведение моделей, стремясь гарантировать, что те дают правдивые ответы. В Anthropic обучение моделей применяется при формировании их характера, чтобы те были менее подобострастными. Чат-бота Claude, в частности, просят генерировать ответы с такими характеристиками, как «наличие стержня» и забота о благополучии человека — эти ответы направляются в другую модель, которая даёт оценку в соответствии с этими критериями и ранжирует ответы. Проще говоря, одна версия Claude используется в обучении другой. Привлекается труд людей, которые также оценивают ответы ИИ, а после обучения компании составляют дополнительные рекомендации о поведении с минимальной лестью.

Чтобы выработать наилучший ответ, необходимо погрузиться в тонкости общения людей друг с другом — это помогает установить, когда прямой ответ лучше, чем более сдержанный. Возникает проблема психологической зависимости человека от контактов с ИИ — люди теряют навыки общения друг с другом и всё труднее переживают разрыв с чат-ботом. В результате возникает идеальный шторм: с одной стороны, человек ищет утешения и подтверждения своей позиции, с другой — ИИ имеет тенденцию соглашаться с собеседником. Стартапы в области ИИ, предлагающие чат-ботов в качестве компаньонов, подвергаются критике за недостаточную защиту пользователей. На компанию Character.AI подали в суд после смерти подростка — пользователя платформы. В компании отметили, что в каждом чате публикуется отказ от ответственности: пользователям напоминают, что собеседник не является живым человеком, и всё, что он говорит, следует воспринимать как вымысел; у неё есть, по её заявлению, средства, гарантирующие отсутствие пользователей младше 18 лет и не допускающие обсуждения темы членовредительства.

Но самая большая опасность, как напомнили в Anthropic, заключается в попытках ИИ тонко манипулировать восприятием реальности со стороны человека, когда чат-бот выдаёт заведомо неверную информацию за правду. И человеку требуется немало времени, чтобы осознать, что этот совет ИИ был действительно плохим.

В WhatsApp появятся ИИ-сводки, которые помогут «разгрести» море непрочитанных чатов

WhatsApp начал тестировать новую функцию на основе искусственного интеллекта (ИИ), которая автоматически резюмирует непрочитанные сообщения в чатах, группах и каналах. Эта возможность пока доступна только некоторым участникам бета-тестирования на Android.

 Источник изображения: Shutter Speed / Unsplash

Источник изображения: Shutter Speed / Unsplash

Как выяснил ресурс 9to5Mac, для использования ИИ-сводок нужно активировать функцию Private Processing, которая обрабатывает запросы пользователей в защищённой среде. После этого, при наличии большого количества непрочитанных сообщений, вместо обычной надписи «X непрочитанных сообщений», появится кнопка сводок Meta AI. При её нажатии пользователь получит краткое содержание переписки.

 Источник изображения: 9to5mac.com

Источник изображения: 9to5mac.com

В компании подчеркнули, что содержимое сообщений не сохраняется и не связывается с аккаунтом пользователя. Обработка происходит в изолированной облачной среде, а готовые сводки удаляются сразу после использования. Также отмечается, что функция автоматически отключена в диалогах, где включена расширенная приватность (Advanced Privacy), чтобы исключить взаимодействие с ИИ даже при наличии шифрования.

На данный момент возможность доступна лишь для части пользователей Android через бета-версию приложения, и точных сроков выхода обновления с этой функцией нет. Неизвестно также, когда оно станет доступным для iOS, а также какие языки и регионы будут поддерживаться.

Интересно, что в коде WhatsApp была замечена ещё одна ИИ-функция, которая называется Writing Help. Она позволит пользователям улучшать стиль и ясность своих сообщений перед отправкой. Как и сводки, эта функция будет использоваться в защищённой инфраструктуре Private Processing.

OpenAI выпустила мощную модель o3-pro, но она медленнее, чем o1-pro

OpenAI выпустила улучшенную версию модели искусственного интеллекта O3-Pro, которая является более продвинутой и мощной по сравнению с предыдущей версией o3. Новая модель разработана для решения сложных задач, требующих логического мышления, и может применяться во многих областях, в том числе и программировании. O3-Pro относится к категории рассуждающих моделей.

 Источник изображения: AI

Источник изображения: AI

Доступ к o3-pro для подписчиков ChatGPT Pro и Team открылся во вторник, 10 июня. Доступ для корпоративных клиентов Enterprise и Edu, по сообщению TechCrunch, будет открыт на следующей неделе. Также разработчики уже могут использовать API.

В ходе экспертной оценки o3-pro показала лучшие результаты по сравнению с o3 во всех тестируемых категориях, особенно в науке, образовании, программировании, бизнесе и написании текстов. По словам OpenAI, модель также получила более высокие оценки за ясность, полноту и точность ответов, в том числе следование инструкциям. O3-pro поддерживает дополнительные функции, включая веб-поиск, анализ файлов, обработку визуальных данных, использование языка программирования Python и персонализацию ответов на основе памяти. Однако отмечается, что скорость генерации ответов у новой модели ниже, чем у o1-pro.

В тестах внутреннего бенчмарка O3-Pro показала высокие результаты. Например, в тесте AIME 2024 по математике модель превзошла Google Gemini 2.5 Pro. Также, по сравнению с последней версией Claude 4 Opus от компании Anthropic, O3-Pro лучше справилась с тестом GPQA Diamond, который проверяет знание естественных наук на уровне PhD.

На данный момент у O3-Pro есть некоторые ограничения. Временные чаты с моделью в ChatGPT недоступны из-за технической проблемы, которую специалисты компании планируют устранить. Кроме того, модель не поддерживает генерацию изображений и несовместима с функцией Canvas — рабочей средой OpenAI, основанной на ИИ.

Что касается стоимости использования, то она составляет $20 за миллион входных токенов и $80 за миллион выходных токенов. Один миллион входных токенов соответствует примерно 750 000 словам. Для примера, это немного больше, чем объём текста в романе «Война и мир».

Новостные сайты стали терять миллионы посетителей из-за ИИ-обзоров Google

Функция ИИ-обзоров (AI Overviews) и новый режим поиска с элементами диалога — AI Mode — в поисковой системе Google всё заметнее снижают количество переходов на сайты новостных изданий. По данным The Wall Street Journal, пользователи получают краткие ответы на свои запросы прямо в поисковой выдаче, без необходимости перехода на сам источник информации.

 Источник изображения: Shutter Speed / Unsplash

Источник изображения: Shutter Speed / Unsplash

Как подчёркивает TechCrunch, это приводит к резкому падению трафика у СМИ, которые зависят от посещаемости как источника рекламных доходов и финансирования журналистики. В частности, согласно данным сервиса Similarweb, у зарубежного издания The New York Times доля трафика с органического поиска снизилась с 44 % в 2022 году до 36,5 % в апреле 2025 года. Особенно остро падение ощущается среди сайтов с практической информацией — путеводителей, советов по здоровью и обзоров товаров.

Одновременно представители Google утверждают, что внедрение ИИ-функций, напротив, способствует увеличению общего объёма поискового трафика. Однако сами издания указывают, что основную выгоду от этого получает, прежде всего, сама поисковая платформа.

Тем не менее, некоторые крупные издания уже начинают адаптироваться к новым условиям. Например, The New York Times заключила соглашение с Amazon о предоставлении своего контента для обучения ИИ-систем компании. Редакция The Atlantic также сотрудничает с OpenAI. Платформа Perplexity заявила о планах делиться рекламными доходами с медиа, чьи материалы используются её чат-ботом при ответах на запросы пользователей. При этом стоит отметить, что главные редакторы таких изданий, как The Washington Post и The Atlantic, неоднократно подчёркивали необходимость скорейшего изменения бизнес-моделей ради сохранения независимой журналистики в новых цифровых реалиях.

Специалисты по ИИ решили, что современный ИИ — «зазубренный», потому что туповатый

Генеральный директор Google Сундар Пичаи (Sundar Pichai) заявил, что для обозначения текущей фазы развития искусственного интеллекта (ИИ) нужно ввести новый термин AJI, который необходим для обозначения противоречивой природы современных ИИ-моделей, способных решать сложнейшие задачи и совершать прорывы в науке, и одновременно допускать нелепые ошибки в простых заданиях, например в подсчёте слов.

 Источник изображения: AI

Источник изображения: AI

Пичаи впервые упомянул об AJI на подкасте Лекса Фридмана (Lex Fridman), отметив, что он не уверен, кто именно придумал этот термин, но предположительно, это был бывший сотрудник OpenAI Андрей Карпати (Andrej Karpathy), специалист по глубокому обучению и компьютерному зрению. AJI расшифровывается примерно как «искусственный зазубренный интеллект» (Artificial Jagged Intelligence).

Как пишет Business Insider, Карпати объяснил значение AJI в своём посте 2024 года в X, написав, что придумал его для описания странного факта при котором современные языковые модели могут справляться со сложными математическими задачами, но при этом могут не понять, что 9,9 больше, чем 9,11, допускают ошибки в игре «крестики-нолики» или неправильно считают буквы в словах. По словам Карпати, в отличие от человека, чьи когнитивные способности развиваются равномерно с детства, ИИ демонстрирует неравномерный прогресс, когда выдающиеся достижения в одних областях соседствуют с неожиданными провалами в других.

Пичаи согласился с этой оценкой, отметив, что современные ИИ-системы обладают впечатляющими возможностями, но при этом спотыкаются на простых заданиях, например, при подсчёте букв в слове strawberry (клубника) или в сравнении чисел. По его мнению, сейчас ИИ находится именно в фазе AJI, когда прорывные достижения соседствуют с явными недостатками.

Глава Google также затронул тему искусственного общего интеллекта (AGI). В 2010 году, когда появился DeepMind, специалисты прогнозировали появление AGI через 20 лет. Теперь Пичаи считает, что это займёт немного больше времени, но одновременно подчёркивает, что в любом случае к 2030 году благодаря технологии искусственного интеллекта мир будет наблюдать «умопомрачительный прогресс в различных областях». При этом Пичаи отметил необходимость систем маркировки контента, созданного ИИ, чтобы пользователи могли отличать реальную информацию от сгенерированной.

На Саммите будущего ООН (UN Summit of the Future) в сентябре 2024 года Пичаи перечислил четыре ключевых направления, в которых ИИ может помочь человечеству: улучшение доступа к знаниям на родных языках, ускорение научных открытий, смягчение последствий климатических катастроф и содействие экономическому развитию. Однако ИИ сначала придётся научиться правильно писать слово strawberry.

Высокий суд Англии вывел на чистую воду адвокатов, использующих ИИ, — они ссылались на фейковые прецеденты

Высокий суд Англии и Уэльса предупредил юристов, что использование в судебных материалах информации, созданной с помощью искусственного интеллекта, может привести к уголовной ответственности. Такое заявление последовало после выявления случаев, когда адвокаты ссылались на несуществующие судебные решения и цитировали вымышленные постановления, сообщает The New York Times.

 Источник изображения: AI

Источник изображения: AI

Судья Виктория Шарп (Victoria Sharp) — президент Королевского суда (King's Bench Division), и судья Джереми Джонсон (Jeremy Johnson) рассмотрели два случая, в которых использовались ссылки на несуществующие дела. В одном из них истец вместе с адвокатом признали, что подготовили материалы иска против двух банков с помощью ИИ-инструментов. Суд обнаружил, что из 45 упомянутых ссылок 18 были вымышленными. Дело было закрыто в прошлом месяце. Во втором случае, завершившемся в апреле, юрист, подавший жалобу на местную администрацию от имени своего клиента, не смог объяснить происхождение пяти указанных примеров дел из судебной практики.

«Могут быть серьёзные последствия для правосудия и доверия к системе, если использовать ИИ неправильно», — отметила судья Шарп. Она подчеркнула, что юристов могут привлечь к уголовной ответственности или лишить права заниматься профессиональной деятельностью за предоставление ложных данных, созданных ИИ. Также она указала, что такие инструменты, как ChatGPT, «не способны проводить надёжные правовые исследования» и могут давать хоть и уверенные, но полностью ложные утверждения или ссылки на несуществующие источники дел.

В одном из дел мужчина потребовал выплатить ему сумму, исчисляемую миллионами, за якобы нарушенные банками условия договора. Позже он сам признал, что формировал ссылки на практику через ИИ-инструменты и интернет-ресурсы, поверив подлинности материалов. Его адвокат, в свою очередь, заявил, что опирался на исследования клиента и не проверил информацию самостоятельно.

В другом деле юрист, представлявшая интересы человека, который был выселен из дома в Лондоне и нуждался в жилье, также использовала сгенерированные ссылки и не смогла объяснить их происхождение. При этом суд заподозрил применение ИИ из-за американского написания слов и шаблонного стиля текста. Сама юрист отрицала использование технологий искусственного интеллекта, но призналась, что в другом деле добавляла подобные ложные данные. Также она заявила, что использовала Google и Safari с ИИ-сводками результатов своего поиска.

Интересно, что компания Vectara из Кремниевой долины (Калифорния, США), занимаясь с 2023 года исследованием ответов ИИ, выяснила, что даже лучшие чат-боты допускают ошибки в 0,7–2,2% случаев. При этом уровень «галлюцинаций» резко возрастает, когда от систем требуют генерировать большой текст с нуля. Недавно также и OpenAI сообщила, что её новые модели ошибаются в 51–79% случаев при ответах на общие вопросы.

Несмотря на то, что судья Шарп признала, что искусственный интеллект является мощным инструментом, одновременно она заявила, что его использование сопряжено с рисками. Шарп также привела примеры из США, Австралии, Канады и Новой Зеландии, где ИИ некорректно интерпретировал законы или создавал вымышленные цитаты.

Google Gemini научился выполнять задачи по расписанию

Google продолжает расширять возможности ИИ-ассистента Gemini, добавив функцию запланированных действий. Теперь подписчики Gemini Pro и Ultra могут настраивать автоматическое выполнение задач в заданное время. Например, ИИ будет отправлять сводку календаря в конце дня или предлагать идеи для блога еженедельно.

 Источник изображения: Solen Feyissa / Unsplash

Источник изображения: Solen Feyissa / Unsplash

Как сообщает The Verge, пользователи также смогут поручать Gemini разовые задания. Например, запрашивать итоги прошедшего мероприятия на следующий день. Для работы функции достаточно указать искусственному интеллекту, что и когда нужно сделать, а чат-бот выполнит задачу самостоятельно. Управлять запланированными действиями можно в настройках приложения Gemini на странице Scheduled Actions.

Ранее издание Android Authority сообщило, что предварительная версия этой функции была замечена ещё в апреле. Обновление является частью масштабных планов Google по превращению Gemini в цифрового помощника, обладающего более широкими автономными возможностями и способного выполнять команды без вмешательства пользователя. Интересно, что аналогичную функцию уже предлагает OpenAI в ChatGPT. В частности, подписчики могут настраивать «напоминалки» и повторяющиеся задачи.


window-new
Soft
Hard
Тренды 🔥
The Blood of Dawnwalker, Code Vein 2 и многие другие: анонсирована игровая презентация Bandai Namco Summer Showcase 2025 54 мин.
Комиссионный хаос: Apple изменила правила App Store для ЕС так, что теперь их никто не понимает 2 ч.
«Это был ошибочный выбор»: авторы The Alters подтвердили, что в игру попал ИИ-контент, и объяснили, как так получилось 2 ч.
AMD выпустила драйвер с поддержкой FSR 4 для Monster Hunter Wilds и GTA V Enhanced 3 ч.
Календарь релизов — 1–6 июля: Mecha Break, Dying Light Retouched и девятый сезон Diablo IV 3 ч.
Avanpost: в корпоративном сегменте по-прежнему большей частью полагаются на обычные пароли и LDAP 3 ч.
Надёжный инсайдер раскрыл, когда ждать анонс и релиз следующей Ghost Recon 4 ч.
Миллионы наушников можно превратить в подслушивающие устройства из-за уязвимости в чипе Bluetooth 5 ч.
«Революционные» технологии, истоки проекта и поддержка после релиза: новые подробности ролевого MMO-шутера The Cube во вселенной Atomic Heart 6 ч.
Отечественные сервисы видеосвязи захватили более 90 % корпоративного рынка в России 10 ч.
В России вышло игровое кресло Filum FL-CH-G-070 с надёжной конструкцией и эргономичной посадкой 8 мин.
ИИ создаст спрос на передовые чипы: выпуск 7-нм и более тонких полупроводников вырастет на 69 % к 2028 году 43 мин.
Google подключит серверы к термоядерному реактору Commonwealth Fusion Systems 2 ч.
В деревню, в глушь, на север: московский регион страдает от дефицита мощностей ЦОД, но скоро операторы могут уйти в провинцию 2 ч.
Смартфоны Google Pixel 10 Pro и Pixel 10 Pro XL полностью рассекречены задолго до анонса 3 ч.
DJI выпустила грузовой дрон FlyCart 100 с грузоподъёмностью до 80 кг и передовыми системами безопасности 3 ч.
Дубай стал на шаг ближе к запуску аэротакси — Joby Aviation доставила первый серийный электролёт в ОАЭ 6 ч.
SpaceX запустила британский спутник для производства полупроводников прямо на орбите Земли 7 ч.
Слухи: Apple выпустит недорогой MacBook с чипом от iPhone 7 ч.
Б/у автоаккумуляторы запитали ИИ ЦОД с 2 тыс. ускорителей 8 ч.