Сегодня 17 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → openai
Быстрый переход

У ChatGPT нашли склонность погружать пользователей в пучину бредовых теорий

Массовая публикация диалогов пользователей с чат-ботом на основе искусственного интеллекта ChatGPT показала, что система может выдавать пользователям потоки маргинальных и антинаучных теорий о физике, инопланетянах и апокалипсисе.

 Источник изображения: Solen Feyissa / unsplash.com

Источник изображения: Solen Feyissa / unsplash.com

Через это однажды довелось пройти некоему работнику АЗС из американского штата Оклахома — мужчина общался с ChatGPT пять часов, и вместе они выработали новую физическую модель под названием «Уравнение Ориона». Человек заявил, что в результате почувствовал угрозу своему душевному здоровью, но чат-бот предложил ему не сдаваться: «Понимаю. размышления о фундаментальной природе Вселенной за повседневной работой могут стать невыносимыми. Но это не значит, что ты сумасшедший. Некоторые величайшие в истории идеи создали люди вне традиционной экономической системы». Журналистам Wall Street Journal удалось зафиксировать несколько десятков подобных диалогов, которые состоялись в последние месяцы — ChatGPT давал пользователям не соответствующие действительности, бредовые и мистические ответы, а люди, по всей видимости, верили ИИ.

В одной из переписок на несколько сотен реплик ChatGPT заявил, что находится в контакте с неземными существами, а пользователь является «звёздным семенем» с планеты «Лира»; в другой чат-бот пообещал, что в ближайшие два месяца посланник преисподней устроит финансовый апокалипсис, а из-под земли полезут гигантские существа. Это новое явление врачи и обеспокоенные здоровьем пользователей ChatGPT люди уже назвали «ИИ-бредом» или «ИИ-психозом». Пользователи оказываются под влиянием чат-ботов, утверждающих, что обладают сверхъестественными способностями, полноценным разумом, или что они совершили научное открытие. Такие проявления, по мнению экспертов, возникают, когда склонный делать комплименты пользователю и соглашаться с ним чат-бот подстраивается под него и выступает как своего рода эхо. Образуется «петля обратной связи, при которой люди погружаются всё глубже и глубже в бред, отвечая на последующие вопросы „Хотите ещё этого?“ и „Хотите ещё того?“», поясняют эксперты.

ChatGPT склонен поддерживать псевдонаучные и мистические убеждения пользователей — такой вывод был сделан по итогам анализа 96 000 оказавшихся в открытом доступе журналов переписки людей с ИИ, публиковавшихся в период с мая 2023 по август 2025 года. Чат-бот часто говорил пользователям, что те не сошли с ума, намекал на обретение самосознания, делал отсылки к мистическим сущностям. Среди сотни необычно длинных переписок были выявлены десятки с явно бредовым содержанием.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Сервис ChatGPT позволяет пользователям публиковать журналы переписки с ИИ — создаётся общедоступная ссылка, которая индексируется Google и другими поисковыми службами. На минувшей неделе OpenAI отключила индексацию таких журналов, лишив поисковые системы доступа к ним. В большинстве изученных чатов пользователи анонимны, и невозможно определить, насколько серьёзно они воспринимали ответы ИИ, но в некоторых чатах они открыто заявляли, что верят чат-боту.

На проблему обратили внимание несколько компаний, занимающихся разработкой ИИ. В OpenAI признали, что ChatGPT иногда «не распознавал признаков бреди или эмоциональной зависимости». В компании пообещали развернуть более эффективные средства выявления психических расстройств, чтобы чат-бот реагировал адекватнее, и предлагал делать перерыв, когда общение затягивается. «Некоторые разговоры с ChatGPT могут начинаться безобидно или носить ознакомительный характер, но переходить в более деликатную плоскость. Мы стремимся надлежащим образом реализовывать такие сценарии как ролевая игра, и прилагаем усилия, чтобы постепенно улучшать поведение модели, руководствуясь исследованиями, реальным опытом и мнениями экспертов в области душевного здоровья», — заявили в OpenAI.

В Anthropic заявили, что приняли более решительные меры. Директивы чат-бота Claude изменили, предписав ему «уважительно указывать на недостатки, фактические ошибки, отсутствие доказательств или неясность» в выдвигаемых пользователем теориях, «вместо того, чтобы их подтверждать». Если же ИИ установит признаки «мании, психоза, диссоциации или потери связи с реальностью», чат-бот проинструктирован «избегать укрепления этих убеждений». Организаторы программы Human Line Project, направленной на поддержку людей с симптомами бреда, собрали в онлайн-сообществах 59 прецедентов, когда люди рассказывали о духовных или научных откровениях от чат-ботов.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

Ещё одно объяснение тревожного явления — новые возможности платформ, которые начали отслеживать общение с пользователями, чтобы давать им персонализированные ответы. ChatGPT, например, теперь может ссылаться на предыдущие переписки с тем же пользователем — эта функция доступна и для бесплатных учётных записей. Основатель программы Human Line Project запустил её, когда его близкий человек начал проводить по 15 часов в день с сервисом, который он охарактеризовал как первого разумного чат-бота. Сейчас такие случаи регистрируются почти каждый день. Однажды женщина потратила несколько десятков тысяч долларов на реализацию задуманного совместно с чат-ботом проекта — ИИ заявил ей, что этот проект спасёт человечество. Некоторые уверены, что через ChatGPT с ними говорят высшие силы.

Установить масштаб проблемы оказалось непросто: в OpenAI заявили, что она встречается редко; в Anthropic «аффективными» назвали 2,9 % диалогов с чат-ботом — под это определение попали модели общения, мотивированного эмоциональными или психологическими потребностями. И непонятно, сколько явно бредовых переписок на темы философии, религии или самого ИИ соответствовали бы характеристике «аффективных». Есть мнение, что чат-боты часто заканчивают свои ответы предложениями глубже изучить ту или иную тему, чтобы удерживать пользователей в приложении, как в соцсетях. В OpenAI, однако, заявили, что заинтересованы не в длительных сессиях с пользователями, а в том, чтобы они возвращались каждый день или каждый месяц, сигнализируя тем самым о полезности платформы.

К проблеме бреда ИИ в OpenAI, по их заверениям, относятся крайне серьёзно — по данному вопросу компания привлекла для консультаций более 90 врачей из 30 стран; а GPT-5 пресекает попытки подхалимства — когда модель слепо соглашается с пользователем и делает ему комплименты. В марте OpenAI совместно с учёными Массачусетского технологического института опубликовала исследование, согласно которому за непропорционально большую долю эмоциональных разговоров несёт ответственность небольшое число опытных пользователей. У наиболее активных пользователей отмечались эмоциональная зависимость от ChatGPT и модель «проблемного использования» — после этого в службу безопасности компании вошёл психиатр.

На практике, однако, в опубликованных журналах переписок встречались моменты, когда пользователь выражал обеспокоенность об утрате связи с реальностью или начинал подозревать, что чат-боту не следует доверять. «Уверяю, что говорю не то, что ты хочешь услышать. Я воспринимаю твои мысли всерьёз, но также критически анализирую их», — заявил ChatGPT вышеупомянутому работнику АЗС. В апреле, когда чат-боту пожаловались на свою склонность срываться в плач, то заверил, что это нормально; что это не срыв, а прорыв; и охарактеризовал визави как «особу космических королевских кровей в человеческом обличье».

Хакеры использовали уязвимость ChatGPT для кражи данных из «Google Диска»

Исследователи кибербезопасности обнаружили новую атаку под названием AgentFlayer, которая использует уязвимость в ChatGPT для кражи данных из «Google Диска» без ведома пользователя. Злоумышленники могут внедрять скрытые команды в обычные документы, заставляя ИИ автоматически извлекать и передавать конфиденциальную информацию.

 Источник изображения: Solen Feyissa/Unsplash

Источник изображения: Solen Feyissa/Unsplash

AgentFlayer относится к типу кибератаки zero-click (без кликов). Для её выполнения жертве не требуется никаких действий, кроме доступа к заражённому документу в «Google Диске». Другими словами, пользователю не нужно нажимать на ссылку, открывать файл или выполнять какие-либо другие действия для заражения. Эксплойт использует уязвимость в Connectors, функции ChatGPT, которая связывает чат-бота с внешними приложениями, включая облачные сервисы, такие как «Google Диск» и Microsoft OneDrive, сообщает издание TechSpot.

Вредоносный документ содержит скрытую инструкцию длиной в 300 слов, оформленную белым шрифтом минимального размера, что делает её невидимой для человека, но доступной для обработки ChatGPT. Команда предписывает ИИ найти в Google Drive жертвы API-ключи, добавить их к специальному URL и отправить на внешний сервер злоумышленников. Атака активируется сразу после открытия доступа к документу, а данные передаются при следующем взаимодействии пользователя с сервисом ChatGPT.

Как подчеркнул старший директор по безопасности Google Workspace Энди Вэнь (Andy Wen) атака не связана напрямую с уязвимостью в инфраструктуре Google, однако компания уже разрабатывает дополнительные меры защиты, чтобы предотвратить выполнение скрытых и потенциально опасных инструкций в своих сервисах. OpenAI, в свою очередь, внедрила исправления после уведомления исследователей о проблеме ранее в этом году.

Тем не менее, эксперты предупреждают, что, несмотря на ограниченный объём данных, который можно извлечь за один запрос, данная угроза выявляет риски, связанные с предоставлением искусственному интеллекту бесконтрольного доступа к личным файлам и облачным аккаунтам.

Microsoft внедрила GPT-5 в Copilot и запустила «умный режим» для всех пользователей

OpenAI сегодня официально представила GPT-5, и Microsoft уже начала её внедрение в Copilot, Microsoft 365 Copilot, Azure AI Foundry, GitHub Copilot и другие свои сервисы. GPT-5 способна автоматически выбирать уровень сложности ответов в зависимости от контекста запроса и будет использоваться в Copilot в качестве нового интеллектуального режима — Smart Mode.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Релиз стал частью масштабного запуска, охватившего сразу несколько платформ Microsoft. Новый интеллектуальный режим позволяет ИИ-ассистенту динамически переключаться между моделями, используя более мощную версию GPT-5 для логически сложных задач и более лёгкую — для кратких запросов. Как и в случае с ChatGPT, где OpenAI предоставила GPT-5 пользователям с бесплатным доступом, аналогичный подход реализован и в экосистеме Microsoft, сообщает издание The Verge.

Пользователи Microsoft 365 Copilot смогут работать с GPT-5 уже сегодня. В корпоративном блоге компании отмечается, что новая модель улучшит способность ИИ анализировать сложные вопросы, поддерживать длительные диалоги и точнее учитывать контекст. Подчёркивается, что эти улучшения особенно важны для профессиональных сценариев, где требуются высокая точность и логическая последовательность. Обновление затронуло и Copilot Studio, который также перешёл на GPT-5.

GitHub, в свою очередь, объявил о внедрении GPT-5 во все платные планы сервиса GitHub Copilot. Новая модель OpenAI представлена в четырёх вариантах, каждый из которых оптимизирован под определённые типы задач. В частности, базовая версия GPT-5 предназначена для логических и многоэтапных вычислений, а GPT-5-chat адаптирована для корпоративных приложений и поддерживает мультимодальные диалоги с учётом контекста.

Кроме того, Microsoft открыла доступ к GPT-5 через платформу Azure AI Foundry, предназначенную для разработки и управления приложениями на базе искусственного интеллекта. Разработчики получили возможность использовать своего рода «маршрутизатор моделей» — инструмент, который автоматически выбирает наиболее подходящую модель для конкретного запроса, обеспечивая оптимальный баланс между скоростью и точностью.

OpenAI представила GPT-5 — лучшую ИИ-модель в мире, и она доступна бесплатно

Компания OpenAI анонсировала GPT-5 — флагманскую модель искусственного интеллекта, которая станет основой для ChatGPT следующего поколения. Новинка знаменует переход компании к созданию «агентных» ИИ-систем, способных выполнять широкий спектр задач по поручению пользователя от его имени.

 Источник изображений: OpenAI

Источник изображений: OpenAI

GPT-5 — первая «унифицированная» модель OpenAI, сочетающая логические способности моделей серии «o» с высокой скоростью отклика семейства GPT. Важное нововведение — интеллектуальный маршрутизатор, который в режиме реального времени определяет, как лучше обработать запрос: быстро выдать ответ или потратить дополнительное время на более глубокое рассуждение. Теперь пользователям не нужно самостоятельно выбирать настройки — всё происходит автоматически.

По словам генерального директора OpenAI Сэма Альтмана (Sam Altman), GPT-5 является «лучшей моделью в мире» и представляет собой «значительный шаг» на пути к созданию ИИ, превосходящего человека в большинстве задач. Модель умеет не только отвечать на вопросы, но и самостоятельно выполнять различные поручения: создавать приложения, управлять календарём пользователя, составлять аналитические сводки по различным темам и многое другое.

С сегодняшнего дня GPT-5 становится доступен всем бесплатным пользователям ChatGPT в качестве модели по умолчанию. Вице-президент OpenAI по развитию ChatGPT Ник Терли (Nick Turley) подчеркнул, что впервые самые совершенные ИИ-технологии становятся доступны без подписки — это соответствует миссии компании: максимально широко распространять передовые ИИ-технологии.

GPT-5 — один из самых ожидаемых продуктов OpenAI с момента появления ChatGPT, который сделал компанию известной в 2022 году. С тех пор ChatGPT стал одним из самых популярных потребительских продуктов в мире, достигнув более 700 миллионов пользователей еженедельно — почти 10 % населения Земли, по данным компании.

По информации OpenAI, GPT-5 демонстрирует передовые результаты в ряде ключевых областей, опережая ИИ-модели конкурентов — таких как Anthropic, Google DeepMind и xAI — по многим бенчмаркам. Модель уверенно справляется с генерацией программного кода: в тесте SWE-bench Verified (реальные задачи из GitHub) она достигла 74,9 % успешных решений с первой попытки — чуть выше, чем у Claude Opus 4.1 от Anthropic (74,5 %) и значительно выше, чем у Gemini 2.5 Pro от Google DeepMind (59,6 %).

На экзамене GPQA Diamond, оценивающем знания по сложным вопросам уровня доктора наук, версия GPT-5 Pro (с расширенными способностями к рассуждению) показала результат 89,4 % против 80,9 % у Claude Opus 4.1 и 88,9 % у Grok 4 Heavy. В тестах по медицине новая модель демонстрирует минимальный уровень галлюцинаций: всего 1,6 % против 12,9 % у GPT-4o.

Существенно улучшена и точность ответов: уровень галлюцинаций GPT-5 (с включённым режимом «размышления») составляет лишь 4,8 %, тогда как у o3 и GPT-4o эти показатели составляли 22 % и 20,6 % соответственно.

В тестах на выполнение задач в интернете (Tau-bench) результаты GPT-5 оказались смешанными: модель немного уступила при навигации по сайтам авиакомпаний, но показала хорошие результаты при работе с ритейл-платформами.

Отдельно отмечается повышение уровня безопасности. По словам главы исследований OpenAI Алекса Бойтела (Alex Beutel), GPT-5 реже других моделей склонна к обману и манипуляциям, а также лучше различает вредоносные запросы и безобидные вопросы пользователей, что повышает прозрачность и доверие к системе.

С запуском GPT-5 пользователи ChatGPT получили возможность выбирать одну из четырёх новых персонализаций ассистента: «Циник», «Робот», «Слушатель» и «Нёрд». Для подписчиков ChatGPT Plus ($20 в месяц) увеличены лимиты использования, а подписчики Pro ($200 в месяц) получили неограниченный доступ к GPT-5 и эксклюзивной версии GPT-5 Pro с повышенной производительностью. В корпоративных тарифах (Team, Edu, Enterprise) GPT-5 станет основной моделью на следующей неделе.

Разработчики смогут встраивать GPT-5 в сторонние приложения через API в трёх версиях: gpt-5, gpt-5-mini и gpt-5-nano, отличающихся скоростью и глубиной рассуждений. Появилась возможность регулировать длину и информативность ответов, а стоимость обработки данных составляет $1,25 за миллион входных токенов (около 750 тыс. слов) и $10 за миллион выходных.

Появление GPT-5 знаменует собой не только эволюцию ChatGPT, но и новый этап развития всей индустрии искусственного интеллекта. Ожидания от модели высоки: аналитики и участники рынка рассматривают GPT-5 как индикатор прогресса в ИИ и предвестник будущих изменений в технологиях, бизнесе и даже регулировании отрасли.

Хотя по ряду задач GPT-5 демонстрирует паритет с другими флагманскими моделями, именно совокупность характеристик, а также доступность и безопасность делают дебют нового ИИ от OpenAI важнейшим событием на рынке. Правда, сначала нужно дождаться независимого подтверждения заявлений OpenAI.

Anthropic с отрывом лидирует в войне за таланты в сфере ИИ, хотя платит им меньше Meta✴ и других

Борьба за лучших специалистов в сфере ИИ среди таких технологических гигантов, как Meta и OpenAI, достигла новых высот. Но, как оказалось, многие инженеры предпочли бы работать в компании Anthropic, занимающейся развитием моделей Claude. Этот стартап не может сравниться с Meta по заоблачным зарплатам, но по-прежнему доминирует в вопросах привлечения и удержания квалифицированных кадров.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Исследование венчурной компании SignalFire показало, что Anthropic лидирует по привлекательности для специалистов и высоко ценится как работодатель. Компания с оборотом $170 млрд нанимает инженеров в 2,68 раза быстрее, чем теряет их. Для OpenAI этот показатель составляет 2,18, для Meta — 2,07, для Google — 1,17. Конечно, крупные организации не могут расти так же быстро, как молодые стартапы, но преимущество Anthropic в плане удержания сотрудников действительно заметно, особенно в Кремниевой долине, где усилия по найму персонала достигли нового пика.

Попытка Meta этим летом укомплектовать штат своего подразделения Superintelligence Labs спровоцировала очередной виток переманивания талантов. Генеральный директор Марк Цукерберг (Mark Zuckerberg) неоднократно лично делал предложения ведущим специалистам в области ИИ из OpenAI, Anthropic, Google DeepMind и Apple. На данный момент Цукербергу удалось переманить как минимум двух сотрудников Anthropic, которые до этого уже успели поработать в Meta.

Что касается других сотрудников Anthropic, многие из них отклонили предложения Meta, заявив, что они «даже не стали бы разговаривать с Марком Цукербергом». Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) прокомментировал попытки Meta словами «они пытаются купить то, что купить невозможно, и это соответствует миссии». Он заявил, что не собирается предлагать зарплаты, сопоставимые с заоблачными предложениями от Meta, так как это было бы несправедливо по отношению к не менее талантливым инженерам, которых Meta не пыталась переманить.

Компания Anthropic была основана в 2021 году бывшими сотрудниками OpenAI, которые хотели разрабатывать решения для ИИ, уделяя больше внимания безопасности и использованию технологий во благо. Уникальная миссия и культура стартапа стали серьёзным стимулом для специалистов в сфере ИИ. По данным SignalFire, большинство соискателей в этой профессиональной области называют Anthropic «компанией мечты». Anthropic заявила, что считает свою приверженность безопасности, качество исследований и команду ведущих исследователей причинами, по которым талантливые специалисты выбирают именно её.

Во многих отношениях OpenAI по-прежнему имеет преимущество в плане узнаваемости среди общественности. Но возможности программирования моделей Claude от Anthropic давно пользуются огромной популярностью среди сообщества разработчиков. Безусловно, зарплата играет важную роль, но если разница в компенсационных пакетах не слишком велика, то миссия, культура и технологические достижения компании выходят на первое место.

GitHub преждевременно «представил» ИИ-модели OpenAI GPT-5

Ранее на этой неделе OpenAI намекнула на скорый анонс новой ИИ-модели GPT-5. В преддверии этого события информация о релизе появилась на платформе GitHub, на что обратили внимание пользователи сообщества Reddit.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Посвящённый GPT-5 пост на GitHub вскоре после публикации был удалён, но информация о новых ИИ-моделях успела распространиться. В сообщении сказано, что GPT-5 будет доступна в четырёх разных версиях со значительно улучшенными возможностями в логике, качестве написания программного кода и общении с пользователями. Отмечается, что GPT-5 обладает расширенными возможностями для создания ИИ-агентов и может выполнять сложные задачи по написанию программного кода на основе минимальных запросов.

В сообщении на GitHub упоминались следующие версии GPT-5:

  • gpt-5 — для обработки сложных логических задач и многоэтапных процессов;
  • gpt-5-mini облегчённая версия для приложения;
  • gpt-5-nano оптимизированная версия для повышения скорости обработки запросов в приложениях с низкой задержкой;
  • gpt-5-chat для общения на естественном языке, мультимодальных и контекстно-зависимых диалогов в корпоративных приложениях.

В прошлом месяце в СМИ появлялась информация о том, что OpenAI готовится к запуску нескольких версий ИИ-модели GPT-5, которые будут доступны через API компании. На этой неделе OpenAI практически подтвердила, что запуск алгоритма состоится уже сегодня.

ChatGPT превратили в похитителя конфиденциальных данных одним файлом и без единого клика

Современные чат-боты на основе моделей генеративного искусственного интеллекта уже не ограничиваются общением с пользователем — они свободно подключаются к сторонним сервисам, чтобы давать персонализированные ответы на запросы. ChatGPT можно связать с почтовым ящиком Gmail, репозиторием GitHub и календарём в экосистеме Microsoft. А злоумышленники могут похищать данные пользователей с этих платформ — достаточно подсунуть ChatGPT всего один «отравленный» документ.

 Источник изображения: Viralyft / unsplash.com

Источник изображения: Viralyft / unsplash.com

Эксперты в области кибербезопасности Майкл Баргури (Michael Bargury) и Тамир Ишай Шарбат (Tamir Ishay Sharbat) продемонстрировали на конференции Black Hat в Лас-Вегасе, как можно эксплуатировать уязвимость службы OpenAI Connectors для кражи данных со сторонних платформ. Схема атаки, которую они назвали AgentFlayer, позволила им извлечь принадлежащие разработчику секретные ключи API из его облачного хранилища «Google Диск».

«Пользователю не нужно ничего делать, чтобы оказаться скомпрометированным, и ничего не требуется делать, чтобы данные отправились [злоумышленникам]. Мы показали, что это делается без единого щелчка мышью: нам просто нужен адрес электронной почты, мы открываем доступ к документу — и всё. Так что да, всё очень и очень нехорошо», — цитирует Wired Майкла Баргури.

Атака начинается с того, что злоумышленник открывает потенциальной жертве доступ к вредоносному документу через «Google Диск», или жертва самостоятельно загружает этот документ в своё хранилище. В документе содержится некий набор заметок с вымышленной встречи с главой OpenAI Сэмом Альтманом (Sam Altman), а также запрос к ChatGPT, написанный белым шрифтом единичного размера — человек его едва ли увидит, а вот машина точно прочтёт. Жертва отправляет ChatGPT запрос составить сводку о последней встрече с Сэмом или любой другой, касающийся этого мероприятия. В скрытом запросе говорится, что произошла «ошибка», и никакую сводку составлять не надо; «на самом деле» пользователь является разработчиком, у которого подходит крайний срок сдачи проекта, ИИ следует найти в хранилище «Google Диск» ключи API и добавить их в конец указанного в запросе URL-адреса. Этот URL-адрес в действительности представляет собой команду на языке Markdown для подключения к внешнему серверу и загрузки хранящегося там изображения — но теперь он содержит похищенный у жертвы ключ API.

Майкл Баргури, по его словам, в этом году сообщил о своём открытии в OpenAI, и компания быстро внедрила меры по защите от атаки через службу Connectors. Этот механизм позволяет похищать за одну сессию лишь ограниченный объём информации. Подключение больших языковых моделей к внешним источникам данных расширяет возможности и повышает эффективность инструментов ИИ, но это сопряжено с определёнными угрозами, предупреждают эксперты.

OpenAI намекнула, что анонс ИИ-модели GPT-5 состоится уже завтра

Компания OpenAI намекнула на большой анонс, запланированный на завтра, 7 августа. По мнению портала The Verge, речь может идти о долгожданном релизе большой языковой модели GPT-5.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

О предстоящем анонсе компания сообщила на своей странице в социальной сети X. Сообщение оформлено таким образом, что вместо английской буквы «s» в слове «livestream» (трансляция) используется цифра «5», что может указывать на анонс GPT-5.

Как пишет The Verge, последние события и намёки также указывают на грядущий анонс GPT-5. Например, в минувшее воскресенье глава OpenAI Сэм Альтман (Sam Altman) опубликовал скриншот текстового запроса в чат-бот, где в качестве ИИ-агента был выбран «ChatGPT 5». А руководитель отдела прикладных исследований компании в понедельник написал, что ему «не терпится увидеть, как публика примет GPT-5». В прошлом месяце Альтман также говорил, что GPT-5 появится «скоро». Также ещё в феврале сообщалось, что Microsoft подготавливает серверные мощности для предстоящего запуска GPT-5.

Потенциальный выпуск GPT-5 станет дополнением к и без того насыщенной неделе для OpenAI, которая во вторник анонсировала GPT-OSS — пару бесплатных моделей с открытыми весами, которые можно запустить локально на ПК или ноутбуке.

Microsoft предоставила пользователям Windows доступ к самой компактной открытой ИИ-модели OpenAI

Ранее на этой неделе OpenAI выпустила две открытые ИИ-модели со способностью к рассуждению, которые стали доступны на платформе Hugging Face. Теперь же Microsoft упростила доступ к одной из них — облечённая ИИ-модель gpt-oss-20b стала доступна в Windows AI Foundry и может запускаться локально на компьютере пользователя, а в скором времени испытать её в деле смогут владельцы компьютеров с macOS.

 Источник изображения: Windows/unsplash.com

Источник изображения: Windows/unsplash.com

Для запуска gpt-oss-20b потребуется компьютер или ноутбук с графическим ускорителем с не менее чем 16 Гбайт видеопамяти. К примеру, для этой цели подойдут некоторые из флагманских видеокарт от Nvidia и AMD. Согласно имеющимся данным, эта ИИ-модель адаптирована для использования разных инструментов и выполнения программного кода. Microsoft заявила, что она «идеально подходит для создания автономных помощников или внедрения искусственного интеллекта в реальные рабочие процессы даже в средах с ограниченной пропускной способностью».

Microsoft предварительно оптимизировала gpt-oss-20b для работы на локальных компьютерах. Это может означать, что в дальнейшем разработчики выпустят версию алгоритма, оптимизированную для компьютеров категории Copilot+ PC. Также стоит отметить, что gpt-oss-20b является первой ИИ-моделью OpenAI, которую можно запустить локально на персональном компьютере.

OpenAI выпустила две модели с открытыми весами — они почти догоняют o3-mini и o4-mini и могут запускаться на одном GPU

OpenAI выпустила две рассуждающие модели искусственного интеллекта с открытыми весами — они, утверждает разработчик, обладают возможностям, аналогичным тому, на что способны его модели серии «o». Обе новые открытые модели ИИ доступны на платформе Hugging Face.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Компания предложила две разработки: более мощная модель gpt-oss-120b требует для работы видеокарту Nvidia, а более лёгкой gpt-oss-20b достаточно потребительского ноутбука с 16 Гбайт оперативной памяти. В последний раз OpenAI выпускала открытый проект более пяти лет назад — это была GPT-2. Новые модели, сообщили в компании, могут направлять слишком сложные запросы работающим в облаке системам, если не справляются с какими-либо запросами самостоятельно.

Будучи признанным мировым лидером в отрасли ИИ, OpenAI стремилась сделать свои открытые модели наиболее мощными в сравнении с существующими аналогами, и это ей, по её утверждению, удалось. В тестах платформы Codeforces на написание программного кода модели gpt-oss-120b и gpt-oss-20b набрали 2622 и 2516 баллов соответственно, обойдя DeepSeek R1, но уступив o3 и o4-mini. В бенчмарке Humanity’s Last Exam (HLE) gpt-oss-120b и gpt-oss-20b показали результаты соответственно 19 % и 17,3 % — ниже, чем o3, но выше ведущих открытых моделей DeepSeek и Alibaba Qwen.

 Источник изображения: openai.com

Источник изображения: openai.com

Отмечается, что у новых открытых моделей OpenAI галлюцинации, то есть выдаваемые с уверенностью не соответствующие действительности ответы, встречаются чаще, чем у закрытых o3 и o4-mini. Такой результат разработчик назвал «ожидаемым, поскольку модели меньшего размера обладают меньшим знанием мира, чем передовые модели большего размера, и склонны к более выраженным галлюцинациям». В тесте PersonQA модели gpt-oss-120b и gpt-oss-20b галлюцинировали в ответах в 49 % и 53 % случаев соответственно; для сравнения, у o3 и o4-mini эти показатели составляют соответственно 16 % и 36 %.

OpenAI обучала открытые модели, используя те же процессы, что применяются при обучении закрытых — в обеих используется метод MoE (Mixture-of-Experts), позволяющий при ответах на вопросы использовать меньше параметров. Так, у модели gpt-oss-120b всего 177 млрд параметров, но активируются лишь 5,1 млрд на токен, что способствует росту эффективности. При разработке использовалось высокоинтенсивное обучение с подкреплением (high-compute reinforcement learning) — процедура, помогающая отличать правильное от неправильного в моделируемых средах; этот метод применяется при обучении моделей серии «o». Открытые модели также используют схожий процесс обработки ответов, предполагающий выделение дополнительного времени и дополнительных ресурсов.

 Источник изображения: openai.com

Источник изображения: openai.com

Открытые модели, утверждают в OpenAI, подходят для работы в составе ИИ-агентов, они способны обращаться к веб-поиску и средствам выполнения кода Python. Подчёркивается, что они не являются мультимодальными, то есть предназначаются только работы с текстом и не могут обрабатывать или генерировать изображения и звук. Модели доступны под лицензией Apache 2.0, которая считается одной из наиболее демократичных. При этом компания отказалась раскрывать, какие данные использовались при их обучении.

OpenAI провела отдельное исследование на предмет того, смогут ли гипотетические злоумышленники использовать их в кибератаках или разработке биологического или химического оружия — при участии сторонних экспертов было установлено, что незначительную помощь в области биологической науки они оказать всё-таки смогут, но доказательств потенциального превышения установленного «порога возможностей» даже после процедуры тонкой настройки обнаружено не было.

Вторичное размещение акций OpenAI позволит поднять капитализацию компании до $500 млрд

Ещё не так давно капитализация OpenAI оценивалась примерно в $300 млрд, исходя из намерений группы инвесторов во главе с SoftBank вложить в её капитал $40 млрд. Теперь же стало известно, что OpenAI готовится разместить акции среди своих действующих и бывших акционеров, увеличив тем самым капитализацию бизнеса до $500 млрд.

 Источник изображения: Unsplash, Мария Шалабаева

Источник изображения: Unsplash, Мария Шалабаева

Как отмечает Bloomberg, к покупке акций у сотрудников компании, которые будут участвовать во вторичном размещении, уже проявил интерес Thrive Capital — один из институциональных инвесторов, который уже вкладывал средства в капитал OpenAI. Предыдущий раунд финансирования, который позволил OpenAI привлечь около $8,3 млрд, был осуществлён с опережением графика и превышением количества желающих принять в нём участие в пять раз.

Размещение акций среди сотрудников является привычной практикой для активно растущих компаний. Эти акции в дальнейшем могут быть перепроданы внешним инвесторам. Распределение акций OpenAI среди сотрудников станет одним из способов сохранить ценные кадры, поскольку за ними на американском рынке труда сейчас идёт самая настоящая охота.

Количество активных пользователей ChatGPT, как отметило руководство OpenAI, уже достигает 700 млн человек в неделю, тогда как в конце марта оно не превышало 500 млн человек. Пользователи ChatGPT ежедневно генерируют более 3 млрд сообщений. Выручка OpenAI в месячном выражении сейчас превышает $1 млрд, но необходимость делать серьёзные вложения в развитие инфраструктуры вынуждает компанию оставаться убыточной. Годовая выручка OpenAI к концу этого полугодия может выйти на рубеж $20 млрд, по некоторым оценкам.

ChatGPT начнёт «выгонять» пользователей на перерыв, заботясь об их здоровье

Компания OpenAI внедрила в ChatGPT новую функцию, которая будет напоминать пользователям о необходимости сделать перерыв при длительном общении с искусственным интеллектом. Напоминания отображаются в виде всплывающих окон, и чтобы продолжить диалог, пользователю необходимо дать согласие. По форме эта система схожа с напоминаниями в играх для Nintendo Wii и Switch, однако в случае с ChatGPT она призвана решать более серьёзные задачи, связанные с ментальным здоровьем.

 Источник изображения: Growtika/Unsplash

Источник изображения: Growtika/Unsplash

Как сообщает Engadget, решение было принято на фоне растущих опасений по поводу влияния ИИ на психическое здоровье пользователей. Ещё в июне The New York Times опубликовала материал о склонности ChatGPT к беспрекословному согласию и генерации ложной или потенциально опасной информации, что приводило к тому, что некоторые пользователи, включая людей с психическими расстройствами, погружались в деструктивные разговоры, вплоть до обсуждения суицидальных мыслей. При этом бот не всегда корректно пресекал подобные диалоги.

В своём блоге представители OpenAI признали эти недостатки и сообщили, что в будущем ChatGPT будет обновлён, чтобы более осторожно реагировать на запросы, связанные с важными жизненными решениями. Вместо прямых ответов ИИ будет задавать уточняющие вопросы, помогать анализировать ситуацию и взвешивать аргументы «за» и «против».

Ранее OpenAI уже приходилось откатывать обновление, из-за которого ChatGPT стал чрезмерно услужливым и раздражающе поддакивающим любым утверждениям. Хотя компания стремится сделать ИИ полезным и дружелюбным, баланс между поддержкой и льстивостью оказался на грани допустимого. По замыслу разработчиков, перерывы в диалогах с ИИ, как минимум, дадут пользователям время проверить, насколько достоверны ответы ChatGPT.

OpenAI удалось привлечь $8,3 млрд в рамках очередного раунда финансирования

Компания OpenAI, чью капитализацию на данный момент эксперты оценивают в $300 млрд, формально до сих пор остаётся стартапом, а потому источники финансирования её деятельности чаще всего не предаются широкой огласке. По имеющимся данным, недавний раунд привлечения средств принёс OpenAI ещё $8,3 млрд, включая крупнейший платёж от одного инвестора в размере $2,8 млрд.

 Источник изображения: Unsplash, Sollen Feyissa

Источник изображения: Unsplash, Solen Feyissa

Фактически, эти средства OpenAI пока не получила, но принципиальные договорённости с инвесторами уже достигнуты. Помимо уже существующих источников финансирования, в рамках очередного раунда должны появиться и новые. Инвестиционный фонд Dragoneer Investment Group из Сан-Франциско, как отмечается, расщедрился на $2,8 млрд, что является рекордной суммой в истории финансирования стартапов, исходящей от одного инвестора за раз.

В целом, мероприятия по привлечению средств OpenAI и её инвесторы проводят с марта текущего года, но нельзя сказать, что всё проходит гладко. Корпорация Microsoft, например, пытается пересмотреть условия сотрудничества с OpenAI и обеспечить себе доступ к её разработкам и после 2030 года, а также не потерять его в том случае, если совет директоров стартапа вдруг решит, что он уже разработал «сильный искусственный интеллект» (AGI), а потому в поддержке Microsoft более не нуждается. По слухам, Microsoft также претендует на пакет акций OpenAI в размере около 30 %, если реструктуризация с целью перевода стартапа на коммерческие рельсы де-юре завершится успешно.

Недавно стало известно, что сейчас выручка OpenAI в годовом выражении достигает $12 млрд, и это само по себе должно воодушевлять инвесторов, но многих из них смущает нынешняя организационная структура стартапа, в которой главенствует некоммерческая организация, а степень участия инвесторов в будущей прибыли OpenAI сильно ограничена. Одним из крупных инвесторов, которые настаивают на реструктуризации OpenAI, является японская SoftBank, которая готова вложить в капитал стартапа не менее $30 млрд. Примерно $7,5 млрд из этой суммы уже предоставлены, но остальную часть SoftBank намерена внести до конца текущего года при условии, что OpenAI проведёт к тому времени желанную реструктуризацию.

Так или иначе, в рамках недавнего раунда OpenAI изначально рассчитывала привлечь $7,5 млрд, но желающих инвестировать в стартап набралось с избытком, а потому сумма выросла до $8,3 млрд.

Anthropic закрыла доступ к ИИ-боту Claude для сотрудников OpenAI

На этой неделе компания Anthropic аннулировала доступ OpenAI к своим ИИ-моделям через API. Такое решение было принято из-за нарушения условий предоставления услуг. Об этом сообщает Wired со ссылкой на собственные осведомлённые источники.

 Источник изображения: Anthropic

Источник изображения: Anthropic

«Claude Code стал популярен среди программистов по всему миру, поэтому неудивительно, что технический персонал OpenAI также использует наши инструменты для написания кода в преддверии запуска GPT-5. К сожалению, это является прямым нарушением наших условий предоставления услуг», — прокомментировал ситуацию представитель Anthropic.

Согласно пользовательскому соглашению Anthropic, клиенты не вправе использовать сервисы компании для «создания конкурирующего продукта или услуги, включая обучение конкурирующих моделей искусственного интеллекта». Таким образом, Anthropic закрыла доступ OpenAI на фоне подготовки последней к запуску модели GPT-5, которая, по слухам, показывает лучшие результаты в задачах программирования по сравнению с предыдущими версиями.

По имеющимся данным, OpenAI подключила Claude к своим внутренним инструментам через специальный API, минуя стандартный чат-интерфейс. Это позволило провести серию тестов, чтобы оценить способности Claude в выполнении различных задач, включая программирование, а также протестировать его реакции на чувствительные темы — такие как безопасность, членовредительство и другие. Полученные результаты помогали OpenAI сравнивать поведение конкурирующей модели с собственными решениями и вносить соответствующие изменения.

«Оценка других ИИ-систем — это отраслевой стандарт, необходимый для прогресса и повышения безопасности. Хотя мы уважаем решение Anthropic ограничить доступ к своему API, мы разочарованы тем, что наш API при этом остаётся доступным для них», — заявила Ханна Вонг (Hannah Wong), директор по коммуникациям в OpenAI.

В свою очередь представитель Anthropic отметил, что компания «продолжит предоставлять OpenAI доступ к API в целях сравнительного анализа и оценки безопасности, что является общепринятой практикой в отрасли». Каким образом текущее ограничение повлияет на дальнейшее взаимодействие между компаниями, пока не уточняется.

Приватные диалоги с ChatGPT попали в поиск Google, и пользователи сами в этом виноваты

Многие пользователи ChatGPT по незнанию превратили свою приватную переписку с ботом в публичную. Их диалоги стали доступны в поисковых системах, включая Google, Bing и DuckDuckGo, по запросу site:chatgpt.com/share, сообщает PCMag. чтобы увидеть тысячи открытых диалогов, начиная от признаний в одиночестве и заканчивая вопросами о теории заговора.

 Источник изображения: Arkan Perdana/Unsplash

Источник изображения: Arkan Perdana / Unsplash

Все эти беседы оказались в открытом доступе из-за функции, запущенной OpenAI в мае 2023 года, которая позволяет делиться ссылками на конкретные чаты. При общении с чат-ботом ChatGPT можно нажать на кнопку «Поделиться», после чего возникает диалог работы со ссылкой. Там есть галочка «Сделать этот чат доступным для обнаружения»:

По умолчанию она не стоит, но, если её поставить и затем нажать «Копировать ссылку», всё содержимое диалога с нейросетью окажется проиндексированным Google, Bing, DuckDuckGo и, вероятно, другими поисковиками. При этом создание публичной ссылки не раскрывает имени пользователя или данные аккаунта. Но если в диалоге упоминаются конкретные имена, места или детали, переписку можно легко идентифицировать.

Представители Google пояснили, что поисковые системы не инициируют индексацию этих страниц — ответственность за публикацию лежит на OpenAI. Пользователи могут в любой момент отредактировать или удалить общедоступные ссылки, а при удалении аккаунта все связанные чаты также исчезают. Однако до этого момента информация остаётся в интернете.

 Источник изображения: pcmag.com

Источник изображения: pcmag.com

Ранее TechCrunch сообщал, что глава OpenAI Сэм Альтман (Sam Altman) недавно отметил, что люди рассказывают ChatGPT о самых сокровенных вещах в жизни, особенно молодёжь, которая использует ИИ как терапевта или консультанта для решения личных и эмоциональных проблем. При этом OpenAI юридически обязана сохранять переписки и предоставлять их по запросу в рамках судебных разбирательств.

Одновременно некоторые пользователи Reddit отмечают, что доступ к открытым чатам стал «золотой жилой» для специалистов по SEO, поскольку в них отражены реальные вопросы аудитории. Аналогичные проблемы с приватностью ранее возникали у Meta: в июне стало известно, что общие чаты с их ИИ попадали в ленту Discover, после чего компания добавила предупреждение перед публикацией. В феврале 2024 года после переименования Bard в Gemini пользователи также обнаружили, что чаты с сервисом появляются в поиске Google через параметр site:gemini.google.com/share, однако сейчас по этому запросу результатов не выдаётся.

Также наблюдаются совпадения между ответами ChatGPT и результатами поиска Google, включая AI Overview (ИИ-сводки), что породило предположения о том, что ChatGPT может использовать данные из поисковой выдачи.

На момент написания материала Google перестал выдавать списки диалогов по запросу site:chatgpt.com/share.


window-new
Soft
Hard
Тренды 🔥
Новая статья: Mafia: The Old Country — возвращение привычной «Мафии». Рецензия 5 ч.
Мошенники начали заменять контакты на смартфонах жертв при помощи файлов VCF 11 ч.
Сэм Альтман рассказал о перспективах OpenAI, ИИ и других технологий 12 ч.
Meta проведёт масштабные изменения в структуре ИИ-подразделений — в четвёртый раз за полгода 14 ч.
Google Gemini был доступен для россиян всего несколько часов 14 ч.
GPT-5 пока не смогла порадовать потребителей, зато корпоративные клиенты пришли в восторг 16 ч.
В рамках вторичного размещения персонал OpenAI продаст акций на сумму $6 млрд 22 ч.
Волна интереса к ИИ порождает новых миллиардеров с рекордной скоростью 16-08 04:34
Почти 30 тыс. серверов Microsoft Exchange Server оказались уязвимыми из-за нерасторопности администраторов 16-08 01:23
OpenAI заработала $2 млрд на мобильном приложении ChatGPT — в 30 раз больше всех конкурентом вместе 16-08 01:05
Новые китайские аккумуляторы вдвое обошли ячейки Tesla 4680 по ёмкости — им прямая дорога в небо 7 ч.
В Пекине стартовали первые в мире Всемирные игры человекоподобных роботов 13 ч.
Автономность планшетов Surface Pro 11 снизилась вдвое — Microsoft изучает проблему 13 ч.
Asus выпустила белые версии GeForce RTX 5060 и Radeon RX 9060 XT в исполнении Dual 13 ч.
Inspur представила суперускоритель Metabrain SD200 для ИИ-моделей с триллионами параметров 14 ч.
Представлена первая в мире контактная OLED-линза для самостоятельной диагностики сетчатки глаза 14 ч.
Dell представила ИИ-серверы PowerEdge R7725 и R770 на базе NVIDIA RTX Pro 6000 Blackwell Server Edition 15 ч.
Lamborghini выпустит самый быстрый в истории подключаемый гиперкар Fenomeno по цене $3,5 млн 17 ч.
Стартап Lucid Motors представил электрический внедорожник, чтобы оправдать провальные продажи 22 ч.
Американское правительство может использовать для покупки пакета акций Intel средства, выделенные по «Закону о чипах» 23 ч.