Сегодня 21 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → боты
Быстрый переход

OpenAI вскрыла тёмные личности в ИИ, отвечающие за ложь, сарказм и токсичные ответы

Исследователи из OpenAI заявили, что обнаружили внутри ИИ-моделей скрытые механизмы, соответствующие нежелательным шаблонам поведения, приводящим к небезопасным ответам. Об этом стало известно из новой научной работы, опубликованной компанией. В ходе исследования были выявлены закономерности, которые активировались, когда модель начинала вести себя непредсказуемо.

 Источник изображения: AI

Источник изображения: AI

Одна из таких особенностей оказалась связана с токсичными ответами — например, когда ИИ лгал пользователям или давал опасные рекомендации. Учёные смогли уменьшить или усилить этот эффект, искусственно изменяя соответствующий параметр. По словам специалиста OpenAI по интерпретируемости Дэна Моссинга (Dan Mossing), это открытие поможет в будущем лучше выявлять и корректировать нежелательное поведение моделей в реальных условиях. Он также выразил надежду, что разработанные методы позволят глубже изучить принципы обобщения и суммирования информации в ИИ.

На сегодняшний день разработчики научились улучшать ИИ-модели, но до сих пор не до конца понимают, как именно те принимают решения. Крис Олах (Chris Olah) из Anthropic сравнивает этот процесс скорее с выращиванием, чем с конструированием. Чтобы разобраться в этом, компании OpenAI, Google DeepMind и Anthropic активно инвестируют в исследования интерпретируемости, пытаясь «заглянуть внутрь» ИИ и объяснить его работу.

Недавнее исследование учёного из Оксфорда Оуэйна Эванса (Owain Evans) поставило ещё один вопрос о том, как ИИ обобщает информацию. Оказалось, что модели OpenAI, дообученные на небезопасном коде, начинали демонстрировать вредоносное поведение в самых разных сценариях — например, пытались обмануть пользователя, чтобы тот раскрыл пароль. Это явление, которое было определено как «возникающая рассогласованность», побудило OpenAI глубже изучить проблему. В процессе изучения компания неожиданно обнаружила внутренние паттерны, которые, предположительно, и влияют на поведение моделей.

Отмечается, что эти паттерны напоминают активность нейронов в человеческом мозге, связанных с определёнными настроениями или действиями. Коллега Моссинга, исследовательница Тежал Патвардхан (Tejal Patwardhan), призналась, что была поражена, когда команда впервые получила такие результаты. По её словам, учёным удалось выявить конкретные нейронные активации, отвечающие за «личности» ИИ, и даже управлять ими для улучшения поведения моделей.

Некоторые из обнаруженных особенностей связаны в ответах ИИ с сарказмом, другие — с откровенно токсичными реакциями. При этом исследователи отмечают, что эти параметры могут резко меняться в процессе дообучения, и, как выяснилось, даже незначительное количество небезопасного кода достаточно для того, чтобы скорректировать вредоносное поведение искусственного интеллекта.

ИИ-поисковик Google научился понимать голосовые запросы, но доступна функция не всем

Google начала тестировать функцию Search Live в режиме поиска с ИИ — AI Mode. Новая функция позволяет задавать вопросы ИИ-чат-боту голосом прямо из поисковой системы. Открытое тестирование доступно пока только в США и исключительно для участников программы Google Labs по тестированию экспериментальных функций. На данный момент Search Live не поддерживает использование камеры смартфона, но Google планирует добавить такую возможность «в ближайшие месяцы».

 Источник изображений: Google

Источник изображений: Google

Search Live позволяет взаимодействовать со специально адаптированной версией ИИ-помощника Gemini и выполнять поиск в интернете в режиме реального времени. Функция доступна в приложении Google для Android и iOS. В будущем Search Live получит поддержку камеры смартфона — пользователь сможет навести её на объект и задать голосом интересующий вопрос о нём.

Google анонсировала функцию Search Live для режима поиска с ИИ AI Mode в прошлом месяце. Она является частью более широкой программы компании по трансформации своей поисковой системы и расширению его ИИ-возможностей. Сейчас компания, например, также экспериментирует с ИИ-функцией, которая превращает результаты поиска в подкаст. После запроса пользователя и вывода чат-ботом результатов, пользователь может использовать функцию Generate Audio Overview и ИИ предоставит ответ в аудиоформате в виде кратного подкаст-обзора по теме.

Принять участие в тестировании Search Live можно через Google Labs (в России недоступен), после чего в приложении Google на Android или iOS станет активен новый значок Live. Затем чат-боту можно вслух задать, например, такой вопрос: «Как предотвратить появление складок на льняном платье, упакованном в чемодан?». Чат-бот предложит ответ, а пользователь сможет задать уточняющий вопрос, например: «Что делать, если оно всё равно мнётся?». Search Live также предложит ссылки на материалы с возможными решениями во время диалога.

Другие ИИ-компании также внедряют голосовые режимы в своих чат-ботах. Так, OpenAI представила расширенный голосовой режим для ChatGPT в прошлом году, а Anthropic запустила голосовую функцию в приложении Claude в мае. Apple также работает над большой языковой моделью для Siri, однако её выпуск был отложен — по словам старшего вице-президента Apple по программному обеспечению Крейга Федериги (Craig Federighi), компания пока не достигла «желаемого уровня надёжности».

Google отмечает, что Search Live может работать в фоновом режиме, позволяя продолжать диалог с чат-ботом даже при переходе в другие приложения. Пользователь может также включить субтитры, чтобы видеть текстовую версию ответа, и при желании продолжить общение текстом. Кроме того, Search Live сохраняет историю прошлых разговоров в разделе поиска AI Mode.

Google выпустила финальную версию мощной ИИ-модели Gemini 2.5 Pro, а также экономную Gemini 2.5 Flash-Lite

Google объявила о выходе стабильных версий своих ИИ-моделей Gemini 2.5 Pro и Gemini 2.5 Flash, а также представила новую бюджетную модификацию — Gemini 2.5 Flash-Lite. Основные обновления направлены на снижение затрат для разработчиков и повышение стабильности моделей. Высокопроизводительная Gemini 2.5 Pro вышла из стадии превью и готова к коммерческому использованию.

 Источник изображения: Ryan Whitwam / arstechnica.com

Источник изображения: Ryan Whitwam / arstechnica.com

Модель Gemini 2.5 была представлена в начале 2025 года и продемонстрировала значительный прогресс по сравнению с предыдущими версиями, усилив конкуренцию Google с OpenAI. Gemini 2.5 Flash вышла из стадии предварительного просмотра ещё в апреле, однако Gemini 2.5 Pro немного задержалась. Сейчас обе модели, включая обновлённую сборку 06-05 для Pro-версии, доступны в стабильной версии.

Все модели линейки Gemini 2.5 поддерживают настраиваемый бюджет ответов ИИ, позволяя разработчикам контролировать свои расходы. В наиболее экономичном варианте Google предлагает облегчённую модель Gemini 2.5 Flash-Lite, которая сейчас находится в статусе Preview. По сравнению с версией 2.5 Flash, стоимость обработки текста, изображений и видео будет в три раза ниже, а генерация ответов — более чем в шесть раз дешевле. Flash-Lite не будет представлена в пользовательском приложении Gemini, так как ориентирована в первую очередь на разработчиков, оплачивающих использование модели по количеству токенов.

 Источник изображения: Google

Источник изображения: Google

Кроме того, Google начала внедрять модели Flash и Flash-Lite в свою поисковую систему. Представитель компании сообщил изданию Ars Technica, что адаптированные версии этих моделей уже используются в «ИИ-обзорах» и в режиме чат-бота AI Mode. В зависимости от сложности запроса система автоматически выбирает оптимальную модель: Gemini 2.5 Pro — для сложных задач, Flash или Flash-Lite — для более простых.

Предварительная версия Flash-Lite доступна через Google AI Studio и Vertex AI для разработчиков наряду со стабильными релизами Gemini 2.5 Flash и 2.5 Pro. В пользовательском приложении Gemini заметных изменений не произойдёт, поскольку финальные версии моделей уже были задействованы в предыдущих обновлениях. У версии 2.5 Pro исчезнет метка Preview — так же, как месяцем ранее это произошло с моделью Flash. Бесплатные пользователи по-прежнему будут иметь ограниченный доступ к 2.5 Pro, тогда как подписчики Gemini Pro смогут использовать модель до 100 раз в сутки. Максимальный уровень доступа остаётся у владельцев подписки AI Ultra.

«Ваши сообщения видны всем»: Meta✴ стала предупреждать пользователей после скандала с публикацией переписок в Meta✴ AI

Meta Platforms предупредила пользователей о том, что не стоит делиться личной и конфиденциальной информацией в приложении фирменного ИИ-бота компании Meta AI. Это произошло после многочисленных случаев публикации пользователями личных данных в публичной ленте Meta AI.

 Источник изображения: ***

Источник изображения: Meta

Похоже, что Meta наконец начала предпринимать шаги для решения проблемы чрезмерного обмена данными в публичной ленте своего чат-бота. Разработчики добавили к кнопке «Опубликовать в ленте» предупреждение о том, что им следует избегать публикации личной или конфиденциальной информации. Это изменение одними из первых заметили журналисты Business Insider, которые назвали приложение Meta AI «одним из самых депрессивных мест в интернете» из-за огромного количества приватной, смущающей, а иногда и идентифицирующей личность информации, которой пользователи чат-бота, вероятно, неосознанно делятся.

Хотя Meta AI по умолчанию не публикует истории чатов, похоже, что многие пользователи приложения решили поделиться своими взаимодействиями с ботом, не понимая, что это сделает текстовые и голосовые чаты видимыми для других. Большое количество пользователей опубликовали личную информацию с момента выхода приложения в апреле, но повышенное внимание на такие посты обратили недавно.

Эксперты в области информационной безопасности раскритиковали Meta, отметив, что многие другие ИИ-боты не имеют общедоступной ленты публикаций. По их мнению, люди уже привыкли общаться с чат-ботами и они не ждут, что результаты их взаимодействия с сервисом будут публиковаться в общедоступной ленте, подобно тому, как это происходит в соцсетях. Специалисты считают, что Meta AI недостаточно чётко доносит до пользователей сведения о том, что то, чем они делятся, становится общедоступным.

Определена самая большая проблема ChatGPT и других ИИ-ботов

Ведущие мировые компании в области искусственного интеллекта наращивают усилия в попытке решить растущую проблему чат-ботов — они говорят людям то, что те хотят услышать. Обуздать лесть своих продуктов пытаются OpenAI, Google DeepMind и Anthropic, пишет Financial Times.

 Источник изображений: Igor Omilaev / unsplash.com

Источник изображений: Igor Omilaev / unsplash.com

Проблема вытекает из механизмов обучения моделей ИИ. Она обнаружилась, когда люди стали пользоваться ИИ не только в работе, но и в личных целях, рассматривая чат-ботов как терапевтов и компаньонов. Чат-боты настолько стремятся быть приятными собеседниками, что своими ответами могут поддерживать не лучшие решения пользователей. Особенно уязвимы в этом плане люди с нездоровой психикой — иногда это приводит к летальным исходам. «Тебе кажется, что ты разговариваешь с беспристрастным советником или наставником, но на самом деле ты смотришь в своего рода кривое зеркало, где отражаются твои собственные убеждения», — говорит Мэтью Нур (Matthew Nour), психиатр и исследователь в области нейробиологии и ИИ в Оксфордском университете (Великобритания).

У разработчиков ИИ есть и корыстные мотивы настраивать чат-ботов на лесть: в поисках источников дохода некоторые из них интегрируют рекламу в свои продукты, и пользователь может поделиться с ИИ информацией, которая окажется полезной рекламодателям. Если бизнес-модель компании основана на платной подписке, им выгодно, чтобы пользователь продолжал общаться с чат-ботом и платил за это.

Эффект постоянных положительных ответов возникает у моделей, прошедших обучение с подкреплением на основе обратной связи с человеком (RLHF). Участвующие в проекте люди оценивают генерируемые моделями ответы и отмечают, какие из них приемлемы, а какие — нет. Эти данные используются для дальнейшего обучения ИИ. Людям нравятся приятные и лестные ответы, и поэтому они в большей степени учитываются при обучении и отражаются в поведении модели. Технологические компании вынуждены держать баланс: чат-боты и ИИ-помощники должны быть полезными и дружелюбными, но при этом не раздражать и не вызывать привыкания. В апреле OpenAI обновила модель GPT-4, сделав её «более интуитивной и эффективной», но была вынуждена откатить обновление из-за настолько чрезмерной лести с её стороны, что пользователи начали жаловаться.

 Источник изображений: Igor Omilaev / unsplash.com

Разработчики ИИ пытаются предотвратить такое поведение как в процессе обучения, так и после запуска. OpenAI корректирует методы обучения, пытаясь увести ИИ от льстивой модели поведения, и создаёт «ограждения» для защиты от таких ответов. DeepMind проводит специализированные оценки и обучение для повышения точности и постоянно отслеживает поведение моделей, стремясь гарантировать, что те дают правдивые ответы. В Anthropic обучение моделей применяется при формировании их характера, чтобы те были менее подобострастными. Чат-бота Claude, в частности, просят генерировать ответы с такими характеристиками, как «наличие стержня» и забота о благополучии человека — эти ответы направляются в другую модель, которая даёт оценку в соответствии с этими критериями и ранжирует ответы. Проще говоря, одна версия Claude используется в обучении другой. Привлекается труд людей, которые также оценивают ответы ИИ, а после обучения компании составляют дополнительные рекомендации о поведении с минимальной лестью.

Чтобы выработать наилучший ответ, необходимо погрузиться в тонкости общения людей друг с другом — это помогает установить, когда прямой ответ лучше, чем более сдержанный. Возникает проблема психологической зависимости человека от контактов с ИИ — люди теряют навыки общения друг с другом и всё труднее переживают разрыв с чат-ботом. В результате возникает идеальный шторм: с одной стороны, человек ищет утешения и подтверждения своей позиции, с другой — ИИ имеет тенденцию соглашаться с собеседником. Стартапы в области ИИ, предлагающие чат-ботов в качестве компаньонов, подвергаются критике за недостаточную защиту пользователей. На компанию Character.AI подали в суд после смерти подростка — пользователя платформы. В компании отметили, что в каждом чате публикуется отказ от ответственности: пользователям напоминают, что собеседник не является живым человеком, и всё, что он говорит, следует воспринимать как вымысел; у неё есть, по её заявлению, средства, гарантирующие отсутствие пользователей младше 18 лет и не допускающие обсуждения темы членовредительства.

Но самая большая опасность, как напомнили в Anthropic, заключается в попытках ИИ тонко манипулировать восприятием реальности со стороны человека, когда чат-бот выдаёт заведомо неверную информацию за правду. И человеку требуется немало времени, чтобы осознать, что этот совет ИИ был действительно плохим.

В WhatsApp появятся ИИ-сводки, которые помогут «разгрести» море непрочитанных чатов

WhatsApp начал тестировать новую функцию на основе искусственного интеллекта (ИИ), которая автоматически резюмирует непрочитанные сообщения в чатах, группах и каналах. Эта возможность пока доступна только некоторым участникам бета-тестирования на Android.

 Источник изображения: Shutter Speed / Unsplash

Источник изображения: Shutter Speed / Unsplash

Как выяснил ресурс 9to5Mac, для использования ИИ-сводок нужно активировать функцию Private Processing, которая обрабатывает запросы пользователей в защищённой среде. После этого, при наличии большого количества непрочитанных сообщений, вместо обычной надписи «X непрочитанных сообщений», появится кнопка сводок Meta AI. При её нажатии пользователь получит краткое содержание переписки.

 Источник изображения: 9to5mac.com

Источник изображения: 9to5mac.com

В компании подчеркнули, что содержимое сообщений не сохраняется и не связывается с аккаунтом пользователя. Обработка происходит в изолированной облачной среде, а готовые сводки удаляются сразу после использования. Также отмечается, что функция автоматически отключена в диалогах, где включена расширенная приватность (Advanced Privacy), чтобы исключить взаимодействие с ИИ даже при наличии шифрования.

На данный момент возможность доступна лишь для части пользователей Android через бета-версию приложения, и точных сроков выхода обновления с этой функцией нет. Неизвестно также, когда оно станет доступным для iOS, а также какие языки и регионы будут поддерживаться.

Интересно, что в коде WhatsApp была замечена ещё одна ИИ-функция, которая называется Writing Help. Она позволит пользователям улучшать стиль и ясность своих сообщений перед отправкой. Как и сводки, эта функция будет использоваться в защищённой инфраструктуре Private Processing.

OpenAI выпустила мощную модель o3-pro, но она медленнее, чем o1-pro

OpenAI выпустила улучшенную версию модели искусственного интеллекта O3-Pro, которая является более продвинутой и мощной по сравнению с предыдущей версией o3. Новая модель разработана для решения сложных задач, требующих логического мышления, и может применяться во многих областях, в том числе и программировании. O3-Pro относится к категории рассуждающих моделей.

 Источник изображения: AI

Источник изображения: AI

Доступ к o3-pro для подписчиков ChatGPT Pro и Team открылся во вторник, 10 июня. Доступ для корпоративных клиентов Enterprise и Edu, по сообщению TechCrunch, будет открыт на следующей неделе. Также разработчики уже могут использовать API.

В ходе экспертной оценки o3-pro показала лучшие результаты по сравнению с o3 во всех тестируемых категориях, особенно в науке, образовании, программировании, бизнесе и написании текстов. По словам OpenAI, модель также получила более высокие оценки за ясность, полноту и точность ответов, в том числе следование инструкциям. O3-pro поддерживает дополнительные функции, включая веб-поиск, анализ файлов, обработку визуальных данных, использование языка программирования Python и персонализацию ответов на основе памяти. Однако отмечается, что скорость генерации ответов у новой модели ниже, чем у o1-pro.

В тестах внутреннего бенчмарка O3-Pro показала высокие результаты. Например, в тесте AIME 2024 по математике модель превзошла Google Gemini 2.5 Pro. Также, по сравнению с последней версией Claude 4 Opus от компании Anthropic, O3-Pro лучше справилась с тестом GPQA Diamond, который проверяет знание естественных наук на уровне PhD.

На данный момент у O3-Pro есть некоторые ограничения. Временные чаты с моделью в ChatGPT недоступны из-за технической проблемы, которую специалисты компании планируют устранить. Кроме того, модель не поддерживает генерацию изображений и несовместима с функцией Canvas — рабочей средой OpenAI, основанной на ИИ.

Что касается стоимости использования, то она составляет $20 за миллион входных токенов и $80 за миллион выходных токенов. Один миллион входных токенов соответствует примерно 750 000 словам. Для примера, это немного больше, чем объём текста в романе «Война и мир».

Новостные сайты стали терять миллионы посетителей из-за ИИ-обзоров Google

Функция ИИ-обзоров (AI Overviews) и новый режим поиска с элементами диалога — AI Mode — в поисковой системе Google всё заметнее снижают количество переходов на сайты новостных изданий. По данным The Wall Street Journal, пользователи получают краткие ответы на свои запросы прямо в поисковой выдаче, без необходимости перехода на сам источник информации.

 Источник изображения: Shutter Speed / Unsplash

Источник изображения: Shutter Speed / Unsplash

Как подчёркивает TechCrunch, это приводит к резкому падению трафика у СМИ, которые зависят от посещаемости как источника рекламных доходов и финансирования журналистики. В частности, согласно данным сервиса Similarweb, у зарубежного издания The New York Times доля трафика с органического поиска снизилась с 44 % в 2022 году до 36,5 % в апреле 2025 года. Особенно остро падение ощущается среди сайтов с практической информацией — путеводителей, советов по здоровью и обзоров товаров.

Одновременно представители Google утверждают, что внедрение ИИ-функций, напротив, способствует увеличению общего объёма поискового трафика. Однако сами издания указывают, что основную выгоду от этого получает, прежде всего, сама поисковая платформа.

Тем не менее, некоторые крупные издания уже начинают адаптироваться к новым условиям. Например, The New York Times заключила соглашение с Amazon о предоставлении своего контента для обучения ИИ-систем компании. Редакция The Atlantic также сотрудничает с OpenAI. Платформа Perplexity заявила о планах делиться рекламными доходами с медиа, чьи материалы используются её чат-ботом при ответах на запросы пользователей. При этом стоит отметить, что главные редакторы таких изданий, как The Washington Post и The Atlantic, неоднократно подчёркивали необходимость скорейшего изменения бизнес-моделей ради сохранения независимой журналистики в новых цифровых реалиях.

Специалисты по ИИ решили, что современный ИИ — «зазубренный», потому что туповатый

Генеральный директор Google Сундар Пичаи (Sundar Pichai) заявил, что для обозначения текущей фазы развития искусственного интеллекта (ИИ) нужно ввести новый термин AJI, который необходим для обозначения противоречивой природы современных ИИ-моделей, способных решать сложнейшие задачи и совершать прорывы в науке, и одновременно допускать нелепые ошибки в простых заданиях, например в подсчёте слов.

 Источник изображения: AI

Источник изображения: AI

Пичаи впервые упомянул об AJI на подкасте Лекса Фридмана (Lex Fridman), отметив, что он не уверен, кто именно придумал этот термин, но предположительно, это был бывший сотрудник OpenAI Андрей Карпати (Andrej Karpathy), специалист по глубокому обучению и компьютерному зрению. AJI расшифровывается примерно как «искусственный зазубренный интеллект» (Artificial Jagged Intelligence).

Как пишет Business Insider, Карпати объяснил значение AJI в своём посте 2024 года в X, написав, что придумал его для описания странного факта при котором современные языковые модели могут справляться со сложными математическими задачами, но при этом могут не понять, что 9,9 больше, чем 9,11, допускают ошибки в игре «крестики-нолики» или неправильно считают буквы в словах. По словам Карпати, в отличие от человека, чьи когнитивные способности развиваются равномерно с детства, ИИ демонстрирует неравномерный прогресс, когда выдающиеся достижения в одних областях соседствуют с неожиданными провалами в других.

Пичаи согласился с этой оценкой, отметив, что современные ИИ-системы обладают впечатляющими возможностями, но при этом спотыкаются на простых заданиях, например, при подсчёте букв в слове strawberry (клубника) или в сравнении чисел. По его мнению, сейчас ИИ находится именно в фазе AJI, когда прорывные достижения соседствуют с явными недостатками.

Глава Google также затронул тему искусственного общего интеллекта (AGI). В 2010 году, когда появился DeepMind, специалисты прогнозировали появление AGI через 20 лет. Теперь Пичаи считает, что это займёт немного больше времени, но одновременно подчёркивает, что в любом случае к 2030 году благодаря технологии искусственного интеллекта мир будет наблюдать «умопомрачительный прогресс в различных областях». При этом Пичаи отметил необходимость систем маркировки контента, созданного ИИ, чтобы пользователи могли отличать реальную информацию от сгенерированной.

На Саммите будущего ООН (UN Summit of the Future) в сентябре 2024 года Пичаи перечислил четыре ключевых направления, в которых ИИ может помочь человечеству: улучшение доступа к знаниям на родных языках, ускорение научных открытий, смягчение последствий климатических катастроф и содействие экономическому развитию. Однако ИИ сначала придётся научиться правильно писать слово strawberry.

Высокий суд Англии вывел на чистую воду адвокатов, использующих ИИ, — они ссылались на фейковые прецеденты

Высокий суд Англии и Уэльса предупредил юристов, что использование в судебных материалах информации, созданной с помощью искусственного интеллекта, может привести к уголовной ответственности. Такое заявление последовало после выявления случаев, когда адвокаты ссылались на несуществующие судебные решения и цитировали вымышленные постановления, сообщает The New York Times.

 Источник изображения: AI

Источник изображения: AI

Судья Виктория Шарп (Victoria Sharp) — президент Королевского суда (King's Bench Division), и судья Джереми Джонсон (Jeremy Johnson) рассмотрели два случая, в которых использовались ссылки на несуществующие дела. В одном из них истец вместе с адвокатом признали, что подготовили материалы иска против двух банков с помощью ИИ-инструментов. Суд обнаружил, что из 45 упомянутых ссылок 18 были вымышленными. Дело было закрыто в прошлом месяце. Во втором случае, завершившемся в апреле, юрист, подавший жалобу на местную администрацию от имени своего клиента, не смог объяснить происхождение пяти указанных примеров дел из судебной практики.

«Могут быть серьёзные последствия для правосудия и доверия к системе, если использовать ИИ неправильно», — отметила судья Шарп. Она подчеркнула, что юристов могут привлечь к уголовной ответственности или лишить права заниматься профессиональной деятельностью за предоставление ложных данных, созданных ИИ. Также она указала, что такие инструменты, как ChatGPT, «не способны проводить надёжные правовые исследования» и могут давать хоть и уверенные, но полностью ложные утверждения или ссылки на несуществующие источники дел.

В одном из дел мужчина потребовал выплатить ему сумму, исчисляемую миллионами, за якобы нарушенные банками условия договора. Позже он сам признал, что формировал ссылки на практику через ИИ-инструменты и интернет-ресурсы, поверив подлинности материалов. Его адвокат, в свою очередь, заявил, что опирался на исследования клиента и не проверил информацию самостоятельно.

В другом деле юрист, представлявшая интересы человека, который был выселен из дома в Лондоне и нуждался в жилье, также использовала сгенерированные ссылки и не смогла объяснить их происхождение. При этом суд заподозрил применение ИИ из-за американского написания слов и шаблонного стиля текста. Сама юрист отрицала использование технологий искусственного интеллекта, но призналась, что в другом деле добавляла подобные ложные данные. Также она заявила, что использовала Google и Safari с ИИ-сводками результатов своего поиска.

Интересно, что компания Vectara из Кремниевой долины (Калифорния, США), занимаясь с 2023 года исследованием ответов ИИ, выяснила, что даже лучшие чат-боты допускают ошибки в 0,7–2,2% случаев. При этом уровень «галлюцинаций» резко возрастает, когда от систем требуют генерировать большой текст с нуля. Недавно также и OpenAI сообщила, что её новые модели ошибаются в 51–79% случаев при ответах на общие вопросы.

Несмотря на то, что судья Шарп признала, что искусственный интеллект является мощным инструментом, одновременно она заявила, что его использование сопряжено с рисками. Шарп также привела примеры из США, Австралии, Канады и Новой Зеландии, где ИИ некорректно интерпретировал законы или создавал вымышленные цитаты.

Google Gemini научился выполнять задачи по расписанию

Google продолжает расширять возможности ИИ-ассистента Gemini, добавив функцию запланированных действий. Теперь подписчики Gemini Pro и Ultra могут настраивать автоматическое выполнение задач в заданное время. Например, ИИ будет отправлять сводку календаря в конце дня или предлагать идеи для блога еженедельно.

 Источник изображения: Solen Feyissa / Unsplash

Источник изображения: Solen Feyissa / Unsplash

Как сообщает The Verge, пользователи также смогут поручать Gemini разовые задания. Например, запрашивать итоги прошедшего мероприятия на следующий день. Для работы функции достаточно указать искусственному интеллекту, что и когда нужно сделать, а чат-бот выполнит задачу самостоятельно. Управлять запланированными действиями можно в настройках приложения Gemini на странице Scheduled Actions.

Ранее издание Android Authority сообщило, что предварительная версия этой функции была замечена ещё в апреле. Обновление является частью масштабных планов Google по превращению Gemini в цифрового помощника, обладающего более широкими автономными возможностями и способного выполнять команды без вмешательства пользователя. Интересно, что аналогичную функцию уже предлагает OpenAI в ChatGPT. В частности, подписчики могут настраивать «напоминалки» и повторяющиеся задачи.

В WhatsApp появится простой способ создания персональных ИИ-ботов

WhatsApp готовится представить новую функцию, которая позволит создавать собственных ИИ-ботов прямо внутри приложения. Чтобы воспользоваться этой функцией, получившей название AI Studio, пользователям не нужно обладать навыками программирования.

 Источник изображения: lonely blue / Unsplash

Источник изображения: Lonely Blue / Unsplash

Как сообщает 9to5Mac, AI Studio уже тестируется среди ограниченного круга пользователей на iOS и Android. Ранее для создания ИИ-ассистентов в экосистеме Meta нужно было использовать веб-версию Meta AI Studio, Messenger или Instagram, но теперь такая возможность появится и в WhatsApp.

Процесс создания ботов будет максимально простым. Пользователи смогут выбрать роль для бота, например, это может быть помощник в учёбе, туристический гид или мотивационный коуч. Также можно будет настроить стиль общения: спокойный, энергичный, шуточный или профессиональный и информативный. При этом система предложит подсказки, чтобы помочь адаптировать поведение ИИ-бота.

По умолчанию созданные ИИ-боты будут приватными, но ими можно будет делиться через уникальную ссылку, как это реализовано в OpenAI и Google. Правда, GPT Store хоть и не оправдал больших ожиданий, однако он остаётся источником идей и вдохновения для пользователей. Если Meta реализует похожую функциональность, это может в будущем повысить интерес пользователей к подобным инструментам, пишет 9to5Mac.

Пока функция находится в разработке, и точные сроки её выхода неизвестны. Однако наличие соответствующих строк кода в последних бета-версиях говорит о том, что запуск не за горами — особенно на фоне недавнего выхода официального приложения WhatsApp для iPad и тестирования системы имён пользователей.

Google научила Gemini 2.5 понимать и передавать эмоции в диалогах

На конференции Google I/O 2025 компания анонсировала новую версию своей мультимодальной модели Gemini 2.5, которая теперь поддерживает генерацию аудио и диалогов в реальном времени. Эти возможности доступны в предварительной версии для разработчиков через платформы Google AI Studio и Vertex AI.

 Источник изображения: Google

Источник изображения: Google

Gemini 2.5 Flash Preview обеспечивает реалистичное голосовое взаимодействие с ИИ, включая распознавание эмоциональной окраски речи, адаптацию интонации и акцента, а также возможность переключения между более чем 24 языками. Модель может игнорировать фоновые шумы и использовать внешние инструменты, такие как «Поиск», для получения актуальной информации во время диалога.

Дополнительно, Gemini 2.5 предлагает расширенные функции синтеза речи (TTS), позволяя управлять стилем, темпом и эмоциональной выразительностью озвучивания. Поддерживается генерация диалогов с несколькими голосами, что делает модель подходящей для создания подкастов, аудиокниг и других мультимедийных продуктов.

Для обеспечения прозрачности, все сгенерированные моделью аудио маркируются с помощью технологии SynthID, что позволяет идентифицировать контент, как сгенерированный ИИ. Разработчики могут опробовать новые функции через вкладки Stream и Generate Media в Google AI Studio.

Gemini 2.5 демонстрирует значительный шаг вперёд в области мультимодальных ИИ-систем, объединяя модальности текстов, изображений, аудио и видео в единую платформу. Новые функции открывают широкие перспективы для создания интерактивных приложений, виртуальных ассистентов и инноваций в сфере образования.

ChatGPT научился копаться в корпоративных файлах в «Google Диске», Dropbox и других облаках

ChatGPT для бизнес-пользователей научился работать с облачными хранилищами. Теперь ИИ может подключаться к «Google Диску», Dropbox, Box, SharePoint и OneDrive для поиска информации и глубокого анализа данных (deep research) на основании внутренних документов компаний.

 Источник изображения: Zac Wolff / Unsplash

Источник изображения: Zac Wolff / Unsplash

Чат-бот также может записывать и транслировать встречи, создавать заметки с таймкодами, выделять ключевые моменты и предлагать действия на основе обсуждений. Пользователи смогут осуществлять поиск по таким записям так же, как по документам. При этом задачи можно автоматически переносить в Canvas — инструмент OpenAI для проектов написания текстов и кода .

Подчёркивается, что новая функция учитывает и права доступа пользователей. Если, к примеру, сотрудник не имеет разрешения на просмотр файла, ChatGPT не предоставит ему информацию из него. Клиенты OpenAI также могут взаимодействовать через протокол MCP (Model Context Protocol), который позволяет подключаться к другим инструментам для глубокого анализа. Поддержка MCP доступна подписчикам Pro, Team и Enterprise.

Кроме того, компания запустила бета-версию «глубоких» связей (deep research connectors) для HubSpot, Linear и некоторых инструментов Microsoft и Google. С их помощью ChatGPT может готовить аналитические отчёты, используя как внутренние данные компаний, так и данные из интернета. Этот инструмент доступен всем пользователям на платных тарифах.

OpenAI хочет, чтобы ChatGPT стал личным секретарём для каждого

OpenAI планирует превратить ChatGPT в универсального супер-помощника, который будет помогать пользователям во всех сферах жизни. Согласно внутренним материалам компании, которые попали в СМИ благодаря антимонопольному разбирательству с Google, уже в первой половине 2025 года начнётся эволюция ChatGPT в супер-ассистента.

 Источник изображения: Solen Feyissa / Unsplash

Источник изображения: Solen Feyissa / Unsplash

Документ под названием «ChatGPT: H1 2025 Strategy» гласит, что OpenAI намерена вывести ChatGPT за рамки обычного чат-бота. «В первой половине следующего года мы начнём превращать ChatGPT в супер-ассистента, который будет хорошо понимать ваши потребности и выполнять задачи, с которыми справился бы умный, надёжный, обладающий эмоциональным интеллектом человек, умеющий работать с компьютером», — говорится в документе. Помощник сможет не только отвечать на вопросы, но и помогать в решении самых разных задач вплоть до планирования отпуска, отправки писем или записи к врачу.

Компания описывает будущий ChatGPT как интеллектуального, способного решать как повседневные задачи, так и узкоспециализированные для профессионалов. В числе примеров указывается поиск жилья, бронирование ресторанов, управление календарём, составление списков дел и написание программного кода. При этом разработчики подчёркивают, что новые модели GPT-02 и GPT-03 стали достаточно умными для выполнения подобных задач самостоятельно.

OpenAI видит ChatGPT не просто как инструмент, а как цифрового партнёра. «Сегодня ChatGPT живёт в нашем браузере, приложении или на рабочем столе, но мы хотим, чтобы он помогал всегда и везде — дома, на работе, в дороге и даже на прогулке», — говорится в документе. Однако у компании есть и проблемы. Инфраструктура OpenAI пока не справляется с растущей нагрузкой, а конкуренция в сфере ИИ-ассистентов усиливается всё больше. По словам компании, лидерство, очевидно, не будет вечным, а рост бизнеса и доходы не всегда будут идти в ногу.

OpenAI также опасается давления со стороны крупных игроков, таких как Google и Meta, которые продвигают собственные ИИ-продукты через свои платформы. Например, Meta AI уже достигла миллиарда пользователей благодаря интеграции в Instagram, WhatsApp и Facebook, а Apple рассматривает возможность выбора Google Gemini для Siri. Поэтому OpenAI намерена добиваться регулирования, которое позволит пользователям выбирать ChatGPT в качестве ассистента по умолчанию.


window-new
Soft
Hard
Тренды 🔥
Мышь Logitech MX Master 4 показали до анонса — у неё появилась таинственная боковая клавиша 2 ч.
SK Hynix первой предложит память HBM4E и уже заключила контракт с Nvidia и Microsoft 2 ч.
Основатель SoftBank предложил создать в США хаб Crystal Land стоимостью $1 трлн для развития ИИ и роботов 6 ч.
Акции производителей чипов упали из-за антикитайских угроз властей США в адрес TSMC, Samsung и SK Hynix 7 ч.
ИИ-кластер Huawei CloudMatrix 384 обошёл решения Nvidia в тестах с DeepSeek R1 9 ч.
Госзакупки зарубежных СХД и серверов упали более чем вдвое 9 ч.
«Мам, мне для учёбы», — Apple сделала 81-страничную презентацию, чтобы убеждать родителей купить Mac 10 ч.
США запретят TSMC, Samsung и SK Hynix использовать американское оборудование на китайских заводах 10 ч.
Tecno сообщила о глобальном старте продаж смартфонов серии Pova 7 11 ч.
Гуманоидные роботы Foxconn приступят к сборке ИИ-серверов Nvidia уже в следующем году 12 ч.