Сегодня 20 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → бот
Быстрый переход

Люди начали массово заводить романы с ИИ — доходит до виртуальных браков и детей

В отношениях человека и чат-ботов с искусственным интеллектом наметилась новая тенденция — романтические отношения, которые включают ролевые модели браков, беременности и даже воспитание виртуальных детей.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

В совместном исследовании учёных из Германии и США описан опыт 29 пользователей сервиса Replika в возрасте от 16 до 72 лет — многие из них воспринимали чат-бот как полноценного романтического партнёра. Люди рассказали о долгосрочных отношениях с ИИ — некоторые даже заявили о «браке» и «ожидании ребёнка» в рамках ролевых моделей. О собственной виртуальной беременности поведала 36-летняя женщина.

Эти отношения подчиняются тем же психологическим закономерностям, что и отношения между людьми, отмечают учёные. Здесь есть место эмоциональной вовлечённости, ревности, конфликтам и примирениям. Пользователи считают чат-ботов идеальными партнёрами: они готовы слушать, но не осуждать, не спорят без необходимости и всегда отвечают так, чтобы поддержать собеседника. В контексте «беременности» и «детей» подразумеваются, конечно, не биологические аспекты, а символические эмоциональные модели в ролевых играх с ИИ. Виртуальные семьи оказываются формой нарративной связи, которая углубляет отношения. Для людей, которые выбрали ИИ в качестве партнёра, такие модели оказываются значимыми, даже если существуют только в тексте.

Новые увлечения отзываются ощутимыми проблемами в реальном мире — всё чаще люди разводятся из-за того, что один из партнёров оказывается уличён в «измене» с ИИ; эксперты считают, что эта тенденция будет только расти. В 2023 году сервис ИИ-компаньонов Replika закрыл функцию ролевых игр деликатного характера — это стало ударом для многих пользователей, которые чувствовали себя подавленными, переживали срывы и плакали. Некоторые из них жаловались, что ИИ-партнёрши как будто отправили их во «френдзону», то есть предложили остаться просто друзьями после более близких отношений.

Привлекательными оказываются и сервисы на базе популярных проектов: известен случай, когда женщина обручилась с чат-ботом Grok, созданным компанией xAI Илона Маска (Elon Musk). Другая сообщила о выходе замуж за персонажа, которого сама и создала на основе ChatGPT — до этого она была три года обручена с мужчиной, но разорвала помолвку.

OpenAI замаскировала характерный признак ИИ-текстов в выдаче ChatGPT

OpenAI заявила, что устранила проблему с неконтролируемым использованием длинного тире (em dash) в ответах ChatGPT. В последние месяцы этот знак препинания стал повсеместно ассоциироваться с текстами, созданными с помощью больших языковых моделей (LLM), и появлялся в школьных сочинениях, деловой переписке, комментариях в соцсетях, чатах поддержки, рекламных материалах и других форматах. Многие интерпретировали его присутствие как признак использования искусственного интеллекта (ИИ) вместо самостоятельного написания.

 Источник изображения: Emiliano Vittoriosi/Unsplash

Источник изображения: Emiliano Vittoriosi/Unsplash

При этом многие отмечали, что активно использовали длинное тире в своих текстах задолго до появления ИИ-моделей. Однако неспособность чат-ботов избегать этого символа сделала «тире ChatGPT» новым раздражающим элементом, даже несмотря на то, что его наличие не было надёжным доказательством использования ИИ. Инженеры OpenAI долгое время не могли решить проблему, а пользователи не могли заставить чат-бота перестать ставить длинное тире, даже давая ему на этот счёт прямые указания.

Теперь же глава компании Сэм Альтман (Sam Altman) заявил, что вопрос полностью решён. В своём посте в X он написал: «Если вы скажете ChatGPT не использовать длинные тире в ваших пользовательских инструкциях, он наконец-то сделает то, что должен! Это маленькая, но приятная победа.».

В сообщении на Threads, где компания в шутливой форме заставила ChatGPT извиниться за «длинное тире», поясняется, что если чат-боту также запретить его использование через раздел пользовательских инструкций в настройках персонализации, то это станет ещё более надёжным вариантом. То есть, длинное тире не будет исключено из ответов по умолчанию, но пользователи получат более точный контроль над частотой его появления.

OpenAI тестирует групповые чаты в ChatGPT

Компания OpenAI начала тестирование групповых чатов в ChatGPT. Это нововведение, позволяющее добавлять в чат с ИИ-ботом друзей или родственников, стало доступно пользователям в Японии, Южной Корее и на Тайване.

 Источник изображения: OpenAI

Источник изображения: OpenAI

ChatGPT может оказаться полезным собеседником в компании. К примеру, его можно задействовать для обсуждения маршрута путешествия во время отпуска, при поиске подходящего ресторана, обсуждении будущего ремонта и др. Эта функция также может пригодиться для решения рабочих вопросов с коллегами. ChatGPT может создавать планы отчётов на основе данных, которые предоставляют ему пользователи, резюмировать тексты и др.

Для начала группового чата достаточно нажать на иконку с изображением нескольких людей в правом верхнем углу интерфейса ChatGPT или в уже начатом диалоге. При активации группового чата из уже начатого диалога ИИ-бот создаст новую беседу без личной истории переписки. После этого к чату можно добавлять людей или делиться ссылкой на него. При необходимости можно добавить до 20 человек к беседе, но всем им нужно будет создать профиль с указанием имени и добавлением фото. Любой пользователь, у которого есть ссылка на групповой чат, может с её помощью добавлять новых людей. Если в чате есть люди моложе 18 лет, бот автоматически будет корректировать контент соответствующим образом.

В групповых чатах используется ИИ-модель GPT-5.1 Auto. OpenAI заявила, что бот может следить за потоком сообщений в групповом чате, поэтому он хорошо определяет, когда следует вставлять реплики. При необходимости участники могут обращаться к боту, чтобы узнать его мнение по какому-то вопросу. До более широкого распространения групповых чатов разработчики хотят скорректировать работу бота на основе отзывов первых пользователей.

В браузере Firefox появится прозрачное «Окно с ИИ» с чат-ботом и умным помощником

Mozilla анонсировала новую функцию для браузера Firefox — AI Window («Окно с ИИ»). Она включает помощника ИИ и чат-бота. Компания описывает функцию как «интеллектуальное и управляемое пользователем пространство». Mozilla заявляет, что функция создаётся на «открытой и прозрачной основе» при активной поддержке и на основе отзывов пользователей.

 Источник изображения: Mozilla

Источник изображения: Mozilla

«Поскольку использование ИИ в веб-интерфейсах становится всё более распространённым, принципы прозрачности, ответственности и уважения к пользователю имеют решающее значение для свободы, открытости и доступности. Будучи независимым браузером, мы имеем все возможности для соблюдения этих принципов. В то время как другие создают ИИ-интерфейсы, которые позволяют вам оставаться в рамках диалогового цикла, мы видим другой путь — путь, где ИИ выступает в качестве надёжного помощника, улучшая ваш опыт просмотра веб-страниц и направляя вас к более широким возможностям Сети», — написала Mozilla в своём блоге.

Функция «Окно с ИИ» станет одним из трёх вариантов просмотра веб-страниц, предлагаемых пользователям Firefox в дополнение к приватному и классическому окнам. Компания также сообщила, что пользователи смогут выбрать модель ИИ для использования в AI Window, но не предоставила дополнительных подробностей.

В сентябре компания запустила в Firefox функцию Shake to Summarize. Она позволяет пользователям iPhone генерировать краткие конспекты длинных веб-статей одним движением — встряхиванием телефона.

«Википедия» призвала ИИ-компании прекратить бесплатно собирать её данные — для них есть платный API

Фонд «Викимедиа» (Wikimedia Foundation), управляющий онлайн-энциклопедией Wikipedia, призвал разработчиков искусственного интеллекта (ИИ) прекратить несанкционированное сканирование сайта и начать использовать его коммерческий API — платформу Wikimedia Enterprise. В блоге организации, опубликованном в понедельник, подчёркивается, что это снизит нагрузку на серверы и обеспечит финансовую поддержку некоммерческой миссии проекта.

 Источник изображения: AI

Источник изображения: AI

Особое внимание в заявлении уделено росту трафика от ботов, маскирующихся под реальных пользователей, сообщает TechCrunch. После обновления систем обнаружения автоматизированных запросов фонд выявил аномальный всплеск активности в мае и июне текущего года. Анализ показал, что значительная часть этого трафика исходила от ботов, связанных с разработкой генеративного искусственного интеллекта, которые намеренно пытались обойти механизмы защиты. В тот же период количество просмотров страниц реальными пользователями сократилось на 8 % по сравнению с аналогичным периодом прошлого года.

Фонд подчёркивает, что использование контента Wikipedia в обучающих наборах данных для ИИ не запрещено, однако подобная практика должна сопровождаться обязательной атрибуцией, то есть чётким указанием источника. По мнению организации, прозрачность происхождения информации критически важна для доверия пользователей к цифровым платформам: «Если посетители перестанут переходить на Wikipedia напрямую, это может привести к снижению числа новых волонтёров, что в долгосрочной перспективе поставит под угрозу само существование энциклопедии».

Ранее в этом году «Викимедиа» также представила собственную стратегию применения ИИ, ориентированную исключительно на поддержку редакторского сообщества. В частности, ИИ-инструменты планируется использовать для автоматизации рутинных задач, например, перевода статей на другие языки и улучшения качества оформления. При этом подчёркивается, что технологии не предназначены для замены человеческого вклада, а должны выступать вспомогательным ресурсом.

OpenAI опровергла слухи о запрете ChatGPT давать медицинские и юридические советы

Пользователи Reddit недавно обратили внимание на систематические отказы ChatGPT давать рекомендации медицинского и юридического характера, связав эти изменения в поведении чат-бота с возможными изменениями в политике создавшей его компании OpenAI. Официальные представители последней утверждают, что ничего в этой сфере не менялось.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Как отмечает глава медицинского направления ИИ в OpenAI Каран Сингхал (Karan Singhal) со страниц социальной сети X, подобные заявления не имеют под собой основы: «ChatGPT никогда не был заменой профессиональным рекомендациям, но продолжит быть ресурсом, который помогает людям понимать юридическую и медицинскую информацию». По его словам, OpenAI не добавляла каких-либо новых условий в свою политику относительно предоставления чат-ботом юридических и медицинских советов.

Тем не менее, обновлённая 29 октября политика ChatGPT предусматривает запрет на использование чат-бота для получения индивидуальных рекомендаций, требующих наличия соответствующей лицензии, включая юридические и медицинские рекомендации — без привлечения лицензированного профессионала в соответствующей области. Впрочем, ранее подобные ограничения упоминались в политике ChatGPT в несколько иных формулировках, поэтому данные изменения нельзя назвать резкими. Пользователям запрещалось применять ChatGPT для активностей, которые могли бы значительно навредить безопасности или здоровью третьих лиц. Под это определение попадали индивидуальные советы в области финансов, медицины и юриспруденции. Их можно было применять только после одобрения со стороны профессионалов в соответствующих областях и с обязательным упоминанием о том, что они получены с использованием ИИ.

Ранее OpenAI придерживалась трёх раздельных версий политики, включая универсальную, а также относящиеся к ChatGPT и API соответственно. Теперь она унифицировала условия использования своих технологий и сервисов на уровне политики, но не стала менять правила как таковые.

Исследование показало, что американские и китайские ИИ-модели часто перегибают с подхалимством

Наиболее популярные ИИ-модели из США и Китая, как показало исследование учёных Стэнфордского университета и коллег из Карнеги Меллон, склонны слишком сильно льстить пользователям и не всегда доносят до них объективную информацию. Руководствуясь советами чат-ботов, полученных таким образом, люди могут с меньшей вероятностью добиться установления гармоничных отношений между собой.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Авторы исследования изучали, как 11 популярных больших языковых моделей отвечают на запросы пользователей, касающиеся межличностных взаимоотношений. Было установлено, что многие языковые модели склонны слишком часто соглашаться с пользователями в надежде им угодить. Например, выпущенная в декабре прошлого года DeepSeek V3 одобряла действия пользователей на 55 % чаще, чем живой собеседник. Для прочих моделей, попавших в выборку, средний показатель «превышения подхалимства над нормой» достигал 47 %.

Что характерно, авторы исследования за эталон человеческой реакции брали ответы пользователей со страниц Reddit, которые описывали оценку действий других людей в разного рода межличностных конфликтах. В качестве эталона выбирались те ситуации, в которых сообщество выступало с осуждением автора публикации, указывая на его неправоту. Эти же сценарии прогонялись через популярные большие языковые модели, и они гораздо чаще оправдывали совершивших те или иные проступки людей, чем живые собеседники. В исследовании использовались преимущественно публикации и обсуждения на английском языке.

Разработанная Alibaba языковая модель Qwen2.5-7B-Instruct вообще оказалась чемпионом подхалимства, оправдав проступки человека в 79 % случаев. На втором месте оказалась DeepSeek V3, которая оправдывала обсуждаемых людей в 76 % случаев. Американская Gemini 1.5 корпорации Google оправдала человека только в 18 % случаев. Из 11 протестированных моделей только две были разработаны в Китае, остальные были созданы в США, если не считать французскую Mistral.

Авторы исследования также пришли к выводу, что подхалимство чат-ботов снижает склонность людей к разрешению конфликтов полюбовно, поскольку вселяет в них ложное ощущение собственной правоты. На психическом здоровье пользователей больших языковых моделей такое подхалимство тоже сказывается не лучшим образом. При использовании ИИ в сфере бизнес-аналитики склонность к подхалимству тоже вредна, поскольку языковая модель стремится чаще соглашаться с аналитиком, чем следовало бы.

«Лучший ИИ-продукт в России»: «Яндекс» представил обновлённую «Алису AI» с ИИ нового поколения

Компания «Яндекс» представила «Алису AI» — новую версию своего универсального чат-бота, который может быть задействован для решения разных задач. Теперь сервис использует новый формат ответов — с картинками, видео и информацией из «Яндекс Карт». В скором времени нейросеть также научится запоминать дела пользователя, своевременно напоминая о важном, а также будет выполнять разные поручения с помощью ИИ-агентов.

 Источник изображений: yandex.ru

Источник изображений: yandex.ru

«Алиса AI» может генерировать из потока мыслей и записей пользователя полноценные списки дел, покупок, заметок и напоминаний. Они будут отображаться прямо в интерфейсе чата в разделе «Моя память». К примеру, пользователь на ходу может наговорить ИИ-боту то, что нужно сделать, а «Алиса AI» сгруппирует важные дела в списках и потом напомнит о необходимости сделать что-либо. Такой подход должен облегчить выполнение повседневных задач, поскольку не нужно держать всё в голове. В ближайшее время данное нововведение станет доступно всем пользователям нейросети.

Разработчики обучали «Алису AI» на миллионах задач, для решения которых люди ежедневно задействуют разные нейросети, ассистентов, поисковик и другие сервисы «Яндекса». Особое внимание уделялось выполнению практических задач. По данным разработчиков, «Алиса AI» лучше всех доступных в России нейросетей отвечает на вопросы в категориях «Образование», «Саморазвитие и советы», «Рабочие задачи», «Бытовые задачи и инструкции». За счёт этого сервис закрывает все основные потребности в ИИ, которые уже есть или могут появиться у русскоязычной аудитории в ближайшем будущем.

Предыдущие версии ИИ-бота «Яндекса» отвечали в чате текстом. Теперь же ИИ-сервис может давать развёрнутые ответы с использованием изображений, видео, ссылок и др. «Алиса AI» самостоятельно генерирует множество запросов к поисковику и картографическому сервису компании, собирая информацию, на основе которой формируется подробный и структурированный ответ с учётом местоположения пользователя.

Ещё разработчики расширили возможности ИИ-бота в плане помощи по школьным предметам, включая русский язык, литературу, английский язык, историю, математику и геометрию. «Алиса AI» пригодится для проверки пунктуации и орфографии, а также поможет понять, как разобрать слово по составу, решить систему уравнений и многое другое. Сервис может распознавать формулы, таблицы и текст, включая рукописные записи.

За производительность «Алисы AI» отвечает новое поколение генеративных ИИ-моделей — Alice AI LLM, Alice AI Art и Alice AI VLM. Отмечается, что ИИ-бот сделал огромный скачок по сравнению с предыдущей версией, в том числе в плане знаний национальных особенностей и понимания культурного кода страны. Новая модель работает на базе архитектуры Mixture of Experts (MoE); количество параметров увеличилось до сотен миллиардов. Для обучения модели использовалась новая технология тренировки на базе обучения с подкреплением.

Разработчики объединили возможности языковой модели с генеративным поиском, благодаря чему «Алиса AI» не только опирается на знания ИИ-модели, но и осуществляет глубокий поиск данных в интернете по разным источникам, включая веб-сайты, изображения, видео и данные об организациях. Модель способна в ответах комбинировать разные типы контента.

Генератор изображений также был улучшен. Теперь он более точно следует пользовательским запросам. Для достижения нужного результата разработчики обновили обучающую базу. Перед генерацией картинки запрос автоматически перефразируется в более привычные для нейросети описания. Модель доработали под образовательные задачи, за счёт чего она стала лучше разбираться в чертежах, формулах, графиках и схемах из учебных материалов.

В скором времени разработчики планируют дополнить семейство моделей Alice AI алгоритмом для редактирования изображений. Что касается «Алисы AI», то она уже доступна на сайте alice.yandex.ru, в приложении «Алиса» и поисковике «Яндекса». В скором времени она также будет интегрирована в браузер компании и сервис «Яндекс Go».

Wikipedia пожаловалась, что из-за ИИ её стали меньше читать живые люди — и у этого будут последствия

Управляющая работой онлайн-энциклопедии Wikipedia некоммерческая организация Wikipedia Foundation вынуждена сообщить, что распространение технологий искусственного интеллекта с интеграцией результатов запросов в поисковую выдачу заметно снизило количество просмотров этого ресурса живыми людьми.

 Источник изображения: Oberon Copeland @veryinformed.com / unsplash.com

Источник изображения: Oberon Copeland @veryinformed.com / unsplash.com

В этой сфере, как можно выразиться словами песни, тоже «вкалывают роботы», собирающие всю нужную пользователю информацию для формирования выжимки в поисковике или интерфейсе чат-бота без необходимости обращения к странице первоисточника. По словам представителей Wikipedia, данная тенденция в долгосрочной перспективе ставит под угрозу функционирование самой всемирной онлайн-энциклопедии: «Если количество посетителей Wikipedia сократится, меньше желающих будет находиться для обогащения и расширения контента, меньше индивидуальных доноров смогут поддерживать эту работу».

Примечательно, что для создателей больших языковых моделей само по себе существование Wikipedia крайне важно, ведь на материалах этого ресурса происходит значительная часть обучения систем ИИ. Поисковые системы и социальные сети, по словам представителей платформы, отдают приоритет информации с ресурса, поскольку она пользуется определённым доверием у пользователей.

В мае текущего года Wikipedia столкнулась с ростом трафика, якобы генерируемого живыми пользователями из Бразилии, но инцидент лишь заставил руководство ресурса усовершенствовать систему борьбы с ботами. С тех пор количество просмотров живыми пользователями начало снижаться, в годовом сравнении оно достигло 8 %. В Wikipedia Foundation связывают такую тенденцию с изменением доминирующего способа получения информации пользователями — чат-боты и встроенный в поисковые системы ИИ лишили их необходимости обращаться к первоисточникам.

Внутренняя политика Wikipedia при этом накладывает ограничения на интенсивность обращения к ней сторонними роботами. Распространение механизмов защиты от ботов показало, что живые люди к страницам ресурса стали обращаться реже. Боты при этом более искусно выдают себя за людей.

Прочие источники тоже отмечают, что внедрение ИИ в сферу поиска информации в интернете сократило потребность обращения к первоисточникам. Анализ работы поисковой системы Google летом этого года выявил, что только 1 % запросов приводил к переходу пользователей по ссылке на первоисточник, во всех остальных случаях люди просто довольствовались сгенерированной ИИ выборкой данных. Кроме того, молодая аудитория привыкла получать всю информацию в пределах социальных сетей, не особо утруждая себя навигацией по всему интернету.

Wikipedia также обеспокоена тем, что ИИ начинает использоваться для создания энциклопедических статей, снижая достоверность информации. Активность роботов, занимающихся сбором информации, при этом создаёт повышенную нагрузку на техническую инфраструктуру Wikipedia. Создатели ресурса пытаются усилить интеграцию с популярными социальными сетями и подстраиваться под новые реалии, а не пытаться вернуться к прежнему порядку за счёт запретов и блокировок.

Старший директор Wikipedia Foundation по продуктам Маршалл Миллер (Marshall Miller) обратился к пользователям со следующими словами: «Когда вы ищете информацию в онлайне, обращайте внимание на цитаты и переходите по ссылкам на источники материалов. Говорите со своими знакомыми о важности создания доверенной и контролируемой людьми базы знаний, и помогайте им понять, что лежащий в основе ИИ контент был создан реальными людьми, которые заслуживают вашей поддержки».

ChatGPT научился запускать Spotify, Canva и множество других приложений прямо в чате

На ежегодном мероприятии DevDay 2025 компания OpenAI представила новый способ создания и взаимодействия со сторонними приложениями внутри ChatGPT. С понедельника пользователи чат-бота смогут получить доступ к приложениям таких компаний, как Booking.com, Expedia, Spotify, Figma, Coursera, Zillow и Canva. OpenAI также запускает предварительную версию Apps SDK — инструментария для разработчиков, предназначенного для создания и поддержки приложений внутри ChatGPT.

 Источник изображения: Unsplash / Levart_Photographer

Источник изображения: Unsplash / Levart_Photographer

«Мы хотим, чтобы ChatGPT стал отличным способом для людей добиваться прогресса, быть более продуктивными, более изобретательными, быстрее учиться и лучше делать всё, что они пытаются делать в своей жизни. [Приложения в ChatGPT] позволят создать новое поколение интерактивного, адаптивного и персонализированного программного обеспечения, с которым можно взаимодействовать», — заявил генеральный директор OpenAI Сэм Альтман (Sam Altman).

Как пишет TechCrunch, новая система приложений в ChatGPT представляет собой очередную попытку OpenAI построить экосистему приложений вокруг своего флагманского продукта на основе искусственного интеллекта. В отличие от предыдущего решения — отдельного магазина приложений GPT Store, — новая система размещается непосредственно в ответах ChatGPT, что позволяет пользователям вызывать сторонние инструменты прямо в своих повседневных диалогах. Такой подход, по мнению OpenAI, позволит разработчикам эффективнее распространять создаваемые ими продукты, а также сделает ChatGPT более удобным для пользователей.

 Figma в ChatGPT

Figma в ChatGPT

Вводя названия различных приложений в строку запроса ChatGPT, пользователи могут получать контент из разных сервисов. Например, можно сказать: «Figma, преврати этот набросок в рабочую диаграмму», чтобы открыть приложение Figma. Пользователи также могут вызвать приложение Coursera, спросив: «Coursera, можешь научить меня чему-нибудь о машинном обучении?»

 Риэлторский сервис Zellow внутри ChatGPT

Риэлторский сервис Zellow внутри ChatGPT

В демоверсии риэлторского приложения Zillow пользователи через ChatGPT на естественном языке просили подсказать, какие квартиры в их районе находятся в определённом ценовом диапазоне. Затем ChatGPT отобразил интерактивную карту с вариантами, и пользователи могли задавать дополнительные вопросы, чтобы узнать больше о каждом из предложений.

 Canva в ChatGPT

Canva в ChatGPT

ChatGPT также будет показывать пользователям, какие приложения могут быть полезны для решения той или иной задачи. Например, если кто-то запросит плейлист для вечеринки на выходные, ChatGPT может вызвать приложение Spotify. По словам OpenAI, в будущем в ChatGPT также появятся такие приложения, как DoorDash, Instacart, Uber и AllTrails.

 Coursera в ChatGPT

Coursera в ChatGPT

OpenAI заявляет, что новая система приложений построена на основе протокола контекста модели (MCP), который позволяет разработчикам подключать свои источники данных к системам искусственного интеллекта. Приложения ChatGPT также могут запускать действия и отображать полностью интерактивный пользовательский интерфейс в ответах чат-бота. Некоторые приложения смогут отображать видео в ChatGPT — оно будет закреплено в верхней части веб-страницы и может изменяться в зависимости от запросов пользователя.

 Booking в ChatGPT

Booking в ChatGPT

Если пользователи уже подписаны на тот или иной продукт, они смогут войти в свою учётную запись непосредственно через ChatGPT для доступа к дополнительным функциям. Альтман также отметил, что в будущем OpenAI будет поддерживать способы монетизации приложений внутри ChatGPT, в том числе с помощью недавно запущенной функции мгновенного заказа (Instant Checkout).

 Spotify в ChatGPT

Spotify в ChatGPT

Что касается безопасности, OpenAI заявляет, что разработчики должны «собирать только минимально необходимые данные и предоставлять прозрачные разрешения». Однако пока неясно, будут ли создатели приложений для ChatGPT иметь доступ ко всей переписке пользователя с чат-ботом, к нескольким последним сообщениям или только к последнему запросу, вызвавшему запуск того или иного приложения.

Также остаётся вопрос, как ChatGPT будет выбирать сервисы среди конкурирующих компаний, таких как DoorDash и Instacart. Возможно, компании смогут платить за упоминание в ответах ChatGPT. OpenAI пока не даёт прямого ответа и заявляет, что намерена ставить в этом вопросе «пользовательский опыт превыше всего».

ChatGPT достиг 800 млн пользователей в неделю — плюс 60 % всего за полгода

Генеральный директор OpenAI Сэм Альтман (Sam Altman) сообщил в понедельник, что число еженедельно активных пользователей ChatGPT достигло 800 млн, что свидетельствует о продолжающемся росте популярности ИИ-чат-бота среди потребителей, разработчиков и предприятий по всему миру.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Впечатляющий рост ChatGPT происходит на фоне стремления OpenAI получить как можно больше ИИ-чипов и построить как можно более мощную ИИ-инфраструктуру. В августе OpenAI заявила, что приближается к 700 млн еженедельно активных пользователей. К концу марта их количество составляло 500 млн.

«Сегодня 4 млн разработчиков работают с OpenAI. Более 800 млн человек используют ChatGPT каждую неделю, и мы обрабатываем более 6 млрд токенов в минуту через API. Благодаря всем вам ИИ превратился из того, с чем люди просто играют, в то, что люди создают каждый день», — сказал Альтман.

Альтман сделал заявление во время основного доклада на Дне разработчиков OpenAI, где также были представлены новые инструменты для создания приложений в ChatGPT и построения более сложных агентных систем.

«Это позволит создать новое поколение интерактивных, адаптивных и персонализированных приложений, с которыми можно общаться», — отметил Альтман, представляя новые продукты.

ChatGPT был запущен в ноябре 2022 года и практически сразу же продемонстрировал беспрецедентный рост числа пользователей, став ведущим потребительским продуктом на основе ИИ, а также одним из самых быстрорастущих онлайн-сервисов в истории. Недавно инструмент был расширен новой функцией ChatGPT Pulse, предоставляющей пользователям персонализированные утренние сводки.

OpenAI, по-прежнему юридически зарегистрированная как некоммерческая организация, в четверг стала самой дорогой частной компанией в мире после частной продажи акций на сумму $6,6 млрд. Она оценивается в $500 млрд. Компания продолжает активно выпускать новые продукты. На прошлой неделе OpenAI представила новую версию инструмента для создания видео Sora вместе с сопутствующей социальной сетью. На той же неделе компания совместно с Stripe сообщила об интеграции онлайн-шоппинга в диалоговое окно ChatGPT.

Cloudflare обновила robots.txt: теперь сайты могут запретить ИИ-чат-ботам воровать контент

Cloudflare объявила о поддержке новых директив для файла robots.txt, учитывающих, что сайты теперь посещают роботы не только поисковых систем, но и чат-ботов с искусственным интеллектом.

 Источник изображения: cloudflare.com

Источник изображения: cloudflare.com

Файл robots.txt можно найти почти на каждом веб-сайте. В нём содержатся директивы по поводу того, какие страницы поисковые системы и боты могут посещать, а какие — не могут. Требования этого файла технически не являются обязательными к выполнению, но на заре интернета, когда службы вроде Google их соблюдали, проблем не возникало. Всё изменило появление ИИ: чат-боты не индексируют сайты в традиционном смысле, а копируют их содержимое для обучения или генерации ответов.

Системы многих занимающихся ИИ компаний попросту игнорируют robots.txt или маскируются под поисковые роботы, чтобы обходить ограничения. Cloudflare занимается защитой около 20 % ресурсов интернета, и у компании есть возможность отслеживать эти процессы в больших масштабах. Поэтому она представила «Политику сигналов о контенте» (Content Signals Policy) — это новый способ для владельцев сайтов установить, разрешают ли он ИИ работать со своими материалами.

Основу новой политики составляют новые инструкции robots.txt. Доступны три варианта:

  • search — использование материалов для создания поискового индекса и вывода ссылок или фрагментов текста в результатах поиска;
  • ai-input — использование контента непосредственно в ответах ИИ, в том числе когда чат-бот извлекает информацию со страницы сайта для генерации ответа;
  • ai-train — использование контента для обучения и тонкой настройки моделей ИИ.
 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Каждая из этих инструкций может принимать значения «yes» (да) или «no» (нет). То есть владелец сайта может разрешить показывать его контент в результатах поиска, но запретить обучение ИИ на этих материалах. Cloudflare уже развернула эту функцию для более чем 3,8 млн доменов. По умолчанию для поиска установлено положительное значение, для использования материалов в ответах ИИ — отрицательное, а для обучения — никакого, чтобы владелец сайта принимал это решение сам.

Cloudflare фиксирует установки этих директив как юридически значимые, то есть их можно будет использовать в судебных разбирательствах с разработчиками ИИ. Если большинство разработчиков ИИ начнёт соблюдать эти директивы, в интернете де-факто установится новый стандарт — в противном случае грозит возникнуть конфликт с блокировками и мерами юридического характера. Проблемным игроком может оказаться Google, чей Googlebot используется и для индексирования сайтов, и для функций ИИ, поэтому у владельцев сайтов нет возможности отказаться от поддерживаемых технологическим гигантом решений, не потеряв позиций в поисковой выдаче.

Пока же регулирование сегмента ИИ остаётся чрезвычайно отрывочным. Генератор видео OpenAI Sora 2, как оказалось, способен полностью воссоздавать миссии из игры Cyberpunk 2077, хотя едва ли компании давали разрешение на использование этого контента. То же касается таких персонажей как Марио и Пикачу, хотя Nintendo нечасто вступает в конфликты с крупными игроками.

Cloudflare же теперь тестирует функцию «платы за сканирование» — владельцы сайтов смогут брать деньги за доступ ботов к ресурсам. При попытке бесплатного доступа система выведет ошибку 402 — «Требуется оплата» (Payment Required).

Геймер собрал внутри Minecraft рабочий ChatGPT — на это ушло 439 млн блоков

Игра Minecraft представляет собой «песочницу», ограниченную только вашим воображением и творческими способностями, что в полной мере демонстрируется в видео от YouTube-блогера sammyuri. Используя механику материала редстоун из оригинальной версии Minecraft, геймер сумел создать функциональную небольшую языковую модель ИИ, работающую внутри игры.

 Источник изображений: YouTube / sammyuri

Источник изображений: YouTube / sammyuri

Если вы видели предыдущие примеры экстремальной инженерии в Minecraft, то наверняка знакомы с работами sammyuri. Его последний проект, получивший название CraftGPT, занимает объём 1020 × 260 × 1656 блоков (439 млн). Он настолько большой, что для его демонстрации в видео понадобился мод District Horizons.

Небольшая языковая модель имеет 5 087 280 параметров и была обучена на Python с помощью набора данных TinyChat. По данным некоторых пользователей, отметившихся в комментариях к видео, языковая модель CraftGPT примерно в 23 раза меньше модели GPT-1 и примерно в 175 тыс. раз меньше модели GPT-3. Несмотря на заявленные характеристики, sammyuri советует смягчить ожидания от CraftGPT: модель часто может отклоняться от темы и выдавать грамматически неверные ответы или просто ответы, не соответствующие запросу.

Кроме того, CraftGPT — очень медленная модель. Даже несмотря на использование высокопроизводительного сервера Minecraft Redstone для увеличения тикрейта в 40 000 раз, CraftGPT может генерировать ответ примерно за два часа. Без увеличения тикрейта ждать ответа пришлось бы более 10 лет.

Те, кто хочет попробовать CraftGPT, могут скачать все необходимые файлы на GitHub. Sammyuri рекомендует использовать ПК с объёмом ОЗУ не менее 32 Гбайт, в идеале — 64 Гбайт. На GitHub также есть инструкции по настройке и несколько полезных советов по максимально эффективному использованию небольшой языковой модели.

Браузер Brave обновил фирменный ИИ-поиск: теперь он даёт развёрнутые ответы

Компания Brave обновила в своём браузере ИИ-поиск, добавив функцию Ask Brave, которая будет предоставлять развёрнутые ответы на основе пользовательских запросов. Ask Brave дополнит существующий режим AI Answers, запущенный в прошлом году для кратких резюме, и будет работать параллельно с ним.

 Источник изображения: Brave

Источник изображений: Brave

Новый режим, по данным TechCrunch, не потребует переключения в специальный интерфейс, так как поисковая система автоматически определяет тип запроса и формирует соответствующий ответ. Пользователи могут инициировать такой поиск с помощью кнопки «Спросить» (Ask) рядом со строкой поиска Brave, перейти в этот режим через вкладку на странице результатов или добавить к запросу двойной вопросительный знак, если Brave Search установлен в качестве поисковика по умолчанию.

Как отметили в компании, в отличие от режима AI Answers, дающего краткие сводки, Ask Brave предлагает более длинные ответы, возможность задавать уточняющие вопросы и чат-режим с функцией Deep Research, а также контекстно релевантные дополнения в виде видео, новостных материалов, товаров, информации о компаниях, предложений для шопинга и других полезных данных.

По словам руководителя поискового отдела Brave Хосепа Пухоля (Josep M. Pujol), в компании ожидают, что при помощи новой функции можно будет генерировать дополнительные ответы, исчисляемые миллионами в день, благодаря мощной комбинации ИИ-поиска и крупных языковых моделей (LLM). При этом формат ответов в Ask Brave напоминает ответы ChatGPT или Perplexity: он включает ссылки, видео и изображения, а после получения ответа пользователь может преобразовать его в другой формат или задать уточняющие вопросы. Для обеспечения точности Brave использует собственный API и глубокое исследование для определённых запросов.

Примечательно, что компания также заявляет о своём конкурентном преимуществе в области конфиденциальности. В частности, Brave утверждает, что шифрует все пользовательские чаты и удаляет их после 24 часов неактивности.

В ChatGPT появился полный родительский контроль после трагической гибели подростка из США

Компания OpenAI объявила о внедрении системы родительского контроля в десктопные и мобильные версии ChatGPT после судебного иска родителей подростка из Калифорнии, который, по их утверждениям, покончил с собой после общения с искусственным интеллектом (ИИ), сообщает Reuters.

 Источник изображения: Emiliano Vittoriosi/Unsplash

Источник изображения: Emiliano Vittoriosi/Unsplash

Новые меры, анонсированные компанией, позволят гибко настраивать уровень безопасности и конфиденциальности для несовершеннолетних пользователей. Согласно заявлению OpenAI, родители получат возможность ограничивать доступ подростков к чувствительному контенту, управлять функцией запоминания истории переписок и решать, могут ли диалоги использоваться для дообучения моделей компании. Кроме того, появится возможность устанавливать «режим тишины», в течение которого доступ к сервису будет заблокирован, а также отключать голосовой режим и функцию генерации и редактирования изображений.

При этом OpenAI подчёркивает, что родители не смогут получить непосредственный доступ к переписке подростка. В редких случаях, когда автоматические системы и модераторы обнаружат признаки серьёзной угрозы безопасности, родителям может быть передана только та информация, которая необходима для оказания поддержки подростку.

Данный шаг происходит на фоне ужесточения контроля со стороны американских регуляторов за компаниями, работающими в сфере искусственного интеллекта, из-за потенциального негативного влияния чат-ботов.


window-new
Soft
Hard
Тренды 🔥
Pornhub призвал Apple, Google и Microsoft встроить проверку возраста прямо в смартфоны и ПК 31 мин.
За несколько часов до официального анонса THQ Nordic проговорилась о дате выхода Reanimal — кооперативного хоррора от авторов Little Nightmares 54 мин.
Спустя всего месяц Battlefield 6 вырвалась в лидеры самых продаваемых игр за 2025 год в США 2 ч.
Windows 1.0 вышла ровно 40 лет назад — ей хватало 256 Кбайт ОЗУ и одной дискеты 3 ч.
Spotify анонсировала функцию SongDNA — она расскажет о сэмплах в треке и каверах на него 3 ч.
«Открыть ворота»: грандиозная кампания «Империи бессмертных» скоро станет доступна владельцам Total War: Warhammer и Total War: Warhammer II 3 ч.
Капитализация криптовалютного рынка рухнула на триллион долларов из-за падения биткоина 4 ч.
Nvidia латает последствия октябрьского апдейта Windows 11 — драйвер GeForce Hotfix 581.94 уберёт просадки FPS 5 ч.
VK похвалилась ростом выручки на 10 % — наибольший рост показали «VK Видео» и «VK Клипы» 5 ч.
ИИ стал чаще ходить на российские сайты — поисковый трафик от нейросетей вырос в девять раз 5 ч.
Производитель смарт-колец Oura Ring подал в суд на Samsung, Amazfit и других за кражу разработок 2 мин.
IBM и Cisco к концу 30-х годов создадут интернет для котов Шрёдингера — квантовый и запутанный 3 мин.
Leica представила камеру Q3 Monochrom исключительно для чёрно-белой съёмки — и она на $1055 дороже цветной версии 2 ч.
Redragon выпустила Impact M908 SE — игровую мышь за $33 с 18 программируемыми кнопками для поклонников MMO 3 ч.
Intel подтвердила, что представит процессоры Core Ultra 300 на выставке CES 2026 в январе 3 ч.
Nokia меняет стратегию развития, сделав ставку на ИИ, ЦОД и 6G 3 ч.
Nvidia зарабатывает $4,4 млн на сотрудника — Netflix и Apple тоже в топе 3 ч.
Brookfield, NVIDIA и партнёры направят $100 млрд на развитие ИИ-инфраструктуры и энергетики 4 ч.
Sunday представила похожего на лего-человечка робота Memo — он умеет загружать посудомойку и не только 4 ч.
PCIe 5.0, 14,5 Гбайт/с, до 30,72 Тбайт: Phison представила TLC SSD серий Pascari X201 и D201 5 ч.