Сегодня 27 января 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии-бот
Быстрый переход

Apple поменяла планы и сделает Siri полноценным чат-ботом — как ChatGPT

Apple превратит голосового помощника Siri в чат-бота, похожего на ChatGPT, и представит обновлённую версию в составе iOS 27 на конференции разработчиков WWDC в июне 2026 года. Об этом сообщил TechCrunch со ссылкой на журналиста Марка Гурмана (Mark Gurman) из Bloomberg.

 Источник изображения: Grok

Источник изображения: Grok

Новый вариант Siri получил внутреннее кодовое имя Campos и будет поддерживать как голосовой, так и текстовый ввод. Ранее старший вице-президент Apple по программному обеспечению Крейг Федериги (Craig Federighi) заявлял, что не хочет превращать Siri в чат-бота, а предпочитает интегрировать искусственный интеллект в систему так, чтобы он «был под рукой только в тот момент, когда он нужен». Однако, по данным Гурмана, компания изменила свои планы под давлением успеха чат-ботов других технологических компаний.

Дополнительным фактором, подтолкнувшим Apple к активным действиям, могла стать потенциальная угроза со стороны OpenAI, поскольку та планирует выйти на рынок аппаратного обеспечения под руководством бывшего главы дизайна Apple Джони Айва (Jony Ive) и уже планирует представить свой первый ИИ-гаджет в этом году.

Как отмечает TechCrunch, Apple отстаёт в гонке за лидерство в области искусственного интеллекта и уже не один раз откладывала выпуск более продвинутой версии Siri, а в прошлом году активно искала партнёра, тестируя технологии OpenAI и Anthropic. В итоге выбор пал на Gemini от Google, о чём было объявлено в начале января.

Япония тоже расследует бесконтрольное «раздевание» людей ИИ-ботом Grok

Япония присоединилась к растущему списку стран, открывших расследование по поводу соответствия законодательству функционирования ИИ-чат-бота Grok, с помощью которого создаются и распространяются изображения сексуального характера без согласия пользователей.

 Источник изображения: Mariia Shalabaieva/unsplash.com

Источник изображения: Mariia Shalabaieva/unsplash.com

Министр экономической безопасности Японии Кими Онода (Kimi Onoda) сообщила в пятницу, что кабмин обратился к X Corp с просьбой улучшить меры защиты с целью предотвращения подобных сценариев использования чат-бота и ограничить распространение Grok изображений сексуального характера. По ее словам, правительство также направило письменные запросы о мерах, принимаемых X для предотвращения создания дипфейков и других изображений, нарушающих право на неприкосновенность частной жизни, интеллектуальную собственность и право контролировать использование своего образа.

«Мы планируем незамедлительно рассмотреть все возможные варианты, включая юридические меры, если ситуация не улучшится», — заявила Онода, которая также является министром Японии по стратегии в области ИИ.

В настоящее время в Канаде, Калифорнии (США), ЕС и отдельных государствах — членах блока, таких как Франция, проходит расследование по поводу возможных нарушений прав человека сервисом Grok при создании изображений по запросу пользователей, в то время как Малайзия, Индонезия и Филиппины ограничили доступ к сервису внутри страны.

Ранее на этой неделе компания xAI, разработавшая Grok, заявила, что отключает возможность использования чат-бота для создания сексуализированных изображений реальных людей. Платформа X тоже сообщила о внесении изменений в возможности аккаунта Grok AI редактировать изображения реальных людей.

Онода заявила, что Япония может потребовать от создателя чат-бота принятия дальнейших мер, при этом добавив, что вины ИИ в этом нет, поскольку непристойные изображения создаются по запросам людей, и что правительству необходимо изучить различные способы решения реальных проблем. «Если, например, лежит нож, вы будете использовать его для приготовления пищи или для того, чтобы причинить кому-то боль?» — вопросила она.

В Японии пытаются найти баланс между необходимостью контроля над ИИ и стремлением догнать США и Китай в области, которую она считает важнейшей для национальной стратегии. Закон Японии об ИИ, вступивший в полную силу в сентябре прошлого года, не предусматривает никаких санкций, ограничивая вмешательство правительства в эту сферу проведением расследований и выпуском официальных инструкций в случае нарушений.

ИИ-бот Qwen от Alibaba научился заказывать доставку еды и бронировать поездки

Компания Alibaba представила крупное обновление ИИ-бота Qwen, который теперь позволяет выполнять такие задачи, как заказ доставки еды и бронирование поездок, не переключаясь между приложениями.

 Источник изображения: Igor Omilaev/unsplash.com

Источник изображения: Igor Omilaev/unsplash.com

«То, что мы запускаем сегодня, представляет собой переход от моделей, которые понимают, к системам, которые действуют — глубоко связанным с реальными услугами», — сообщил У Цзя (Wu Jia), вице-президент Alibaba Group.

Это обновление приложения Qwen вышло спустя два месяца после его крупного обновления в рамках стратегического перехода компании к ИИ, ориентированному на потребителя. В этой области Alibaba ранее отставала от своих внутренних конкурентов ByteDance и Tencent, сосредоточившись в основном на корпоративных ИИ-услугах с использованием своего облачного бизнеса.

Обновление интегрирует основные сервисы экосистемы Alibaba, включая платформу электронной коммерции Taobao, мгновенную коммерцию, платёжную систему Alipay, туристический сервис Fliggy и картографическую платформу Amap, в единый интерфейс искусственного интеллекта.

В частности, благодаря интеграции Alipay с приложением Qwen пользователи могут авторизовывать и завершать транзакции, не выходя из диалога с ИИ-ботом. Как сообщает компания, функция оплаты с помощью ИИ в настоящее время поддерживает заказы мгновенной торговли и со временем будет расширена на другие сервисы.

Alibaba также представила функцию Task Assistant («Помощник по задачам») в закрытой бета-версии, которая позволяет совершать телефонные звонки в рестораны, обрабатывать до 100 документов одновременно и планировать многоэтапные маршруты путешествий.

По данным компании, после запуска 17 ноября публичной бета-версии потребительского ИИ-бота Qwen его аудитория превысила 100 млн ежемесячных активных пользователей.

X заявила, что Grok больше не раздевает людей — но это не так

После волны критики из-за создания в соцсети X с помощью чат-бота Grok AI дипфейков сексуального характера без согласия пользователей, платформа сообщила о внесении изменений в возможности аккаунта Grok AI редактировать изображения реальных людей. Однако, как утверждает ресурс The Verge, в приложении Grok можно по-прежнему создавать откровенные изображения человека в бикини, используя бесплатный аккаунт.

 Источник изображения: Mariia Shalabaieva/unsplash.com

Источник изображения: Mariia Shalabaieva/unsplash.com

«Мы внедрили технологические меры, чтобы предотвратить редактирование изображений реальных людей в откровенной одежде, такой как бикини, через аккаунт Grok. Это ограничение распространяется на всех пользователей, включая платных подписчиков», — сообщается в обновлении аккаунта X. В нём также отмечено, что создание изображений и возможность редактирования изображений через аккаунт Grok на платформе X теперь доступны только платным подписчикам. «Это добавляет дополнительный уровень защиты, помогая гарантировать, что лица, пытающиеся злоупотреблять аккаунтом Grok для нарушения закона или нашей политики, могут быть привлечены к ответственности», — сообщила администрация соцсети.

Кроме того, было объявлено, что платформа блокирует возможность для всех пользователей создавать изображения реальных людей в бикини, нижнем белье и подобной одежде через аккаунт Grok и в Grok in X в тех юрисдикциях, где это незаконно.

Ранее стало известно, что британское Управление связи (Ofcom) начало расследование по этому поводу. Также сообщается, что на этой неделе в Великобритании вступит в силу закон, согласно которому создание интимных дипфейк-изображений без согласия пользователей будет считаться уголовным преступлением.

ChatGPT научился менять свой характер по желанию пользователя

В ChatGPT появились новые функции персонализации, которые позволяют регулировать эмоциональный тон и стиль ответов искусственного интеллекта (ИИ). OpenAI предлагает на выбор несколько вариантов «личности» чат-бота, которые можно донастраивать и «докручивать».

 Источник изображения: OpenAI

Источник изображения: OpenAI

Основным стилем ответов ИИ-модели является режим «По умолчанию», далее идёт «Профессиональный», «Дружелюбный», «Откровенный», «Необычный», «Эффективный», «Занудный» и «Циничный» и, как подчёркивает The Verge, каждый параметр личностных черт можно менять, увеличивая или уменьшая шкалу их характеристик.

Также есть возможность настроить частоту использования эмодзи, заголовков и списков в ChatGPT. Эти настройки можно найти, нажав на меню в верхнем левом углу приложения ChatGPT, выбрав свой профиль, перейдя в раздел «Персонализация» и выбрав «Добавить характеристики».

Кроме того, с обновлением изменился и способ написания электронных писем. Теперь пользователь может обновлять и форматировать текст непосредственно в чате. Также можно выделять фрагменты текста и запрашивать у ChatGPT внести в них конкретные изменения, вместо того чтобы пытаться указать чат-боту на этот фрагмент в отдельном диалоговом запросе.

OpenAI перезапустила GPT-5.2, расширив меры защиты подростков

Компания OpenAI представила обновлённую версию языковой модели GPT-5.2 с расширенными мерами безопасности для пользователей младше 18 лет. Новые правила «поведения» чат-бота при общении с подростками разработаны в сотрудничестве с Американской психологической ассоциацией и вступают в силу на фоне растущего давления со стороны законодателей, а также судебных исков, связывающих использование ChatGPT с суицидами и состоянием психоза у несовершеннолетних.

 Источник изображения: Google, Nano Banana

Источник изображения: Google, Nano Banana

В обновлённой спецификации, как поясняет издание eWeek, приоритет отдаётся безопасности подростков даже в тех случаях, когда это вступает в противоречие с основными функциями модели, а вместо советов, сгенерированных непосредственно ИИ, система теперь направляет пользователей к реальным источникам поддержки. При этом язык ответов адаптирован под возрастную аудиторию, а сами ответы содержат более чёткие пояснения о возможностях и ограничениях чат-бота. Новые меры дополнят уже существующие родительские настройки, включая уведомления при поиске определённых терминов.

Изменения последовали за принятием в Калифорнии пакета законов, обязывающих разработчиков ИИ внедрять защитные механизмы для подростков и перенаправлять их на профильные службы помощи. Однако OpenAI, хоть и выполнила большинство требований, не реализовала положение о периодическом (каждые три часа) напоминании пользователям о том, что они общаются с искусственным интеллектом.

Новые законы также требуют от компаний публично раскрывать протоколы безопасности и сообщать о серьёзных инцидентах. Параллельно на федеральном уровне разрабатывается единый национальный закон об ИИ, который, по мнению некоторых экспертов, при администрации Дональда Трампа (Donald Trump) может ослабить требования к прозрачности по сравнению с калифорнийскими нормами.

Примечательно, что, несмотря на то что в независимых тестах, таких как бенчмарк для оценки возможностей больших языковых моделей (LLM) SafetyBench, модели OpenAI показывают лучшие результаты по безопасности по сравнению с конкурентами, включая Google, Meta✴ и Anthropic, компания подвергается более пристальному вниманию как ведущий поставщик чат-ботов. Глава OpenAI Сэм Альтман (Sam Altman) ранее отмечал, что несёт неравномерную нагрузку из-за необходимости быть первопроходцем в области внедрения функций безопасности.

На фоне роста популярности конкурирующих моделей, в частности, Google Gemini 3, получившей высокие оценки сразу при запуске, и Anthropic Claude, ставшей популярной в корпоративном секторе и в работе с программным кодом, OpenAI также пришлось объявить «красный код», ускорив выпуск GPT-5.2 и перенеся его с декабря–января на более раннюю дату. После нескольких лет стремительного роста компания, возможно, несколько ослабила свою направленность, запустив смежные инструменты, такие как Sora, отмечает eWeek, однако вновь смогла сосредоточится на укреплении позиций ChatGPT как лидера в сегменте чат-ботов.

Голосовой помощник Gemini стал лучше понимать инструкции и не перебивает пользователей

Google объявила о внедрении серии улучшений в голосовом помощнике Gemini, которые сделают взаимодействие с искусственным интеллектом более естественным и эффективным. Целью доработок является повышение способности модели справляться со сложными задачами, точно следовать инструкциям пользователя и вести связные диалоги.

 Источник изображения: Google

Источник изображения: Google

В рамках обновления инженеры Google сфокусировались на трёх ключевых направлениях в Gemini 2.5 Flash Native Audio. Во-первых, была повышена надёжность вызова внешних функций и теперь Gemini точнее определяет момент, когда необходимо получить актуальную информацию в ходе диалога, интегрируя её в аудиоответ без нарушения естественного темпа беседы. Во-вторых, модель продемонстрировала рост уровня соблюдения инструкций разработчиков с 84 до 90 %, что позволяет ей лучше справляться со сложными командами и выдавать более последовательные результаты. Также улучшена способность извлекать контекст из предыдущих частей разговора, способствуя формированию более связных и логичных диалогов, сообщает Android Authority.

Кроме того, Джош Вудворд (Josh Woodward), вице-президент подразделения Google Labs, отвечающего за Gemini и AI Studio, сообщил о двух дополнительных усовершенствованиях. Теперь функция Gemini Live не будет прерывать пользователя, даже если тот делает длительную паузу в речи. Также появилась возможность отключать микрофон во время ответа ИИ, чтобы случайно не прервать его речь. Параллельно с этим Google объявила об изменениях в приложении Translate.

«Планов нет»: Google резко опровергла слухи о рекламе в Gemini

Компания Google категорически опровергла информацию о подготовке к внедрению рекламы в своё приложение искусственного интеллекта Gemini. Соответствующее заявление сделал вице-президент по глобальной рекламе Google Даниэль Тейлор (Dan Taylor), назвавший сообщения об этом неточными и основанными на неинформированных анонимных источниках. Он подчеркнул, что в приложении Gemini рекламы нет и текущих планов по её добавлению не существует.

 Источник изображения: Google

Источник изображения: Google

Как сообщает 9to5Google, в материале AdWeek утверждается, что Google ранее проинформировала рекламные агентства о планах запустить рекламу в своём чат-боте Gemini примерно в 2026 году. Этот проект, согласно AdWeek, должен был быть отделён от уже существующих рекламных форматов, таких как ИИ-обзоры (AI Overviews). Однако Google отрицает это утверждение.

«Эта история основана на неинформированных, анонимных источниках, делающих неточные заявления. В приложении Gemini нет рекламы, и в настоящее время нет планов это изменить», — заявил Тейлор.

Поддержка этой позиции также поступила и от официального аккаунта Google AdLiaison, в котором пояснялось, что реклама действительно доступна в ИИ-обзорах в США и в ближайшее время будет расширяться на другие англоязычные страны, а также продолжатся тестирования рекламных форматов в режиме AI Mode. При этом подчёркивается, что эти форматы принципиально отличаются от функциональности самого приложения Gemini.

Примечательно, что опровержение планов по внедрению рекламных объявлений в Gemini прозвучало на фоне значительного роста популярности этого чат-бота. Ещё в октябре Google раскрыла данные о том, что месячная аудитория Gemini превысила 650 миллионов пользователей, что существенно больше показателя в 350 миллионов, зафиксированного ранее в этом году. При этом часть этого роста, по словам компании, была обеспечена за счёт проекта Nano Banana, который привлек 23 миллиона новых пользователей.

OpenAI в суде заявила о «неправильном использовании» ChatGPT погибшим подростком

Случаи судебных претензий к OpenAI от родственников людей, причинивших себе вред после продолжительного общения с ChatGPT, уже не единичны, но внимание общественности привлекло дело 16-летнего подростка Адама Рейна (Adam Raine), который свёл счёты с жизнью якобы по наставлениям этого чат-бота. Обвинения родителей Адама компания OpenAI на данном этапе отвергает, поясняя, что подросток просто неправильным образом использовал ChatGPT.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Соответствующий судебный иск к OpenAI семьёй погибшего подростка был подан ещё в августе этого года, но только сейчас достоянием прессы стали материалы дела, включающие ответ самой компании на претензии истцов. Как поясняет The Verge, разработчики ChatGPT считают, что трагический исход был вызван неправильным использованием этого чат-бота совершившим суицид подростком. «Некорректное, неправомерное, непреднамеренное, неприемлемое и непредсказуемое использование» — таким набором характеристик ответчик по делу защищает ChatGPT.

Кроме того, OpenAI утверждает, что представленные истцами фрагменты переписки Адама Рейна с ChatGPT чаще всего выдернуты из контекста, и его более полный анализ позволяет выявить, что чат-бот более 100 раз рекомендовал подростку обратиться на горячую линию для профилактики суицидов, и подробное изучение стенограммы переписки позволяет установить, что не ChatGPT является причиной его самоубийства. Родители подростка настаивают на виновности OpenAI, указывая на методическое содействие чат-бота в подготовке технических условий суицида, написании черновой версии предсмертной записки и предоставление подсказок непосредственно в день самоубийства. Отец юноши заявил: «То, что начиналось как содействие в выполнении домашних заданий, постепенно превратилось в душевного собеседника, а затем и наставника по самоубийствам». Истцы считают, что трагедия стала следствием «преднамеренного выбора разработчиков» GPT-4o, которые предусмотрели недостаточно действенные защитные механизмы.

OpenAI на подобные обвинения ответила цитатами из правил использования ChatGPT, которые запрещают доступ к сервису подросткам без присмотра взрослых, обход блокировок или применение чат-бота для причинения вреда собственному здоровью, включая летальный исход. При этом ответчик считает произошедшее большой трагедией, и серьёзно относится к своим обязанностям по предоставлению в суде требуемой от него информации, как отмечается в корпоративном блоге OpenAI. Столкнувшись с этим иском в августе текущего года, компания предприняла ряд дополнительных мер в сфере безопасности.

Скандального ИИ-медвежонка отучили говорить на фривольные темы и вернули на прилавки

В середине этого месяца продукция сингапурской компании FoloToy оказалась в центре скандала, поскольку исследователи выявили, что предлагаемый ею плюшевый медвежонок Kumma со встроенной умной колонкой способен общаться с детьми на опасные темы. После приостановки продаж этих игрушек они вернулись на виртуальные прилавки, поскольку производитель теперь сотрудничает с ByteDance, а не OpenAI.

 Источник изображения: FoloToy

Источник изображения: FoloToy

Напомним, ранее умная колонка внутри игрушки опиралась на возможности большой языковой модели GPT-4o американской компании OpenAI, но теперь на сайте производителя медведя упоминается чат-бот Coze, разработанный китайской ByteDance, которой принадлежит социальная сеть TikTok. По всей видимости, подобной смены технологического партнёра оказалось достаточно, чтобы обезопасить малолетних пользователей от разговоров на опасные темы. Купить Teddy Kumma можно за $99 на официальном сайте FoloToy.

Напомним, скандал разразился благодаря обнаруженной исследователями способности умной колонки внутри детской игрушки давать пояснения на тему половых отношений и предлагать сценарии поведения в откровенных ролевых играх. Кроме того, устройство давало советы о том, где в доме можно найти режущие предметы, спички, лекарственные препараты и пластиковые пакеты. Повторных исследований на предмет безопасности игрушек FoloToy после смены чат-бота не проводилось.

ИИ оказался слишком рискованным даже для страхования от рисков

Распространение генеративного искусственного интеллекта порождает многочисленные риски, с которыми профессиональные участники рынка страхования пока работать не готовы, как следует из публикации Financial Times. Крупные американские страховщики обратились к регуляторам с требованием исключить из перечня страхуемых рисков те, что связаны с ИИ.

 Источник изображения: Freepik, Drazen Zigic

Источник изображения: Freepik, Drazen Zigic

Как отмечается в материале, к петиции присоединились страховые компании Great American, Chubb, W.R. Berkley, которые имеют вес на американском рынке страхования. Один из авторов инициативы называет результаты работы больших ИИ-моделей «чем-то, очень напоминающим чёрный ящик». При этом компания AIG на исключении подобных рисков из правил страхования в США не настаивает, поэтому нельзя утверждать, что инициатива носит всеобъемлющий характер.

Относительно короткая история применения генеративного искусственного интеллекта уже знает примеры неприятных юридических последствий. Выдвинутые ИИ-ассистентом Google юридические претензии к одной из энергетических компаний вынудили её обратиться с иском на $110 млн к интернет-гиганту. Авиакомпании Air Canada пришлось понести убытки, связанные с предоставлением скидки клиентам, которую по собственной инициативе начал предлагать фирменный чат-бот. Злоумышленникам в прошлом году удалось похитить $25 млн у британского разработчика Arup, использовав сгенерированное ИИ видеоизображение одного из руководителей компании.

Страховщиков, как они признаются, пугают не крупные суммы выплат как таковые, а массовость событий, которые могут наступить по вине ИИ. В частности, для страховой компании единственная выплата в размере $400 млн не является проблемой, но если по вине ИИ наступит 10 000 страховых случаев одновременно, это может представлять риск для страхового бизнеса даже крупной компании.

Онлайн-опросам грозит коллапс: ИИ научился почти идеально имитировать человека и накручивать нужные ответы

Летом этого года стало понятно, что так называемая капча (Captcha) в её простейшем виде более не является препятствием для ИИ-агентов к осуществлению действий, позволяющих выдавать себя за человека. Новое исследование показало, что ИИ способен проходить онлайн-опросы общественного мнения, правдоподобно выдавая себя за человека.

 Источник изображения: Unspalsh, Christin Hume

Источник изображения: Unspalsh, Christin Hume

Успех созданного главой Polarization Research Lab Шоном Уэствудом (Sean Westwood) программного инструмента для работы с ИИ в рамках эксперимента достигался в 99,8 % случаев, позволяя с подобной вероятностью выдавать себя за живого респондента, участвующего в онлайн-опросах общественного мнения. Написанный на Python ИИ-агент обладает платформенной независимостью, позволяя сопрягать его с большинством популярных больших языковых моделей разных разработчиков.

Основную часть эксперимента автор использовал возможности o4-mini компании OpenAI, но программный агент часть испытаний преодолевал с опорой на другие языковые модели. Он настроен таким образом, что перед началом прохождения социологического опроса пользователь вводит краткое описание портрета того человека, чьи ответы ему предстоит имитировать. Постановка задачи должна быть изложена не более чем в 500 словах.

Агент был обучен обходить контрольные вопросы и ловушки, которые составители опросников обычно внедряют для выявления как невнимательных пользователей, так и ботов. Ему не были страшны даже специфические фильтры типа задач, которые решаются силами ИИ довольно просто, но не по плечу большинству реальных респондентов. Программа имитирует затраты времени на чтение вопросов в зависимости от уровня образованности симулируемого респондента, может медленно вводить в полях, подразумевающих свободную форму ответа, делать ошибки в словах и исправлять их при наличии такой возможности. К агенту в дальнейшем можно будет «прикрутить» инструмент для обхода капчи.

По словам автора исследования, фальсификация данных опросов общественного мнения при наличии подобных инструментов становится опасным средством манипуляции. Изучение опросов, проводимых до президентских выборов 2024 года в США, позволяет сделать вывод, что для склонения чаши весов в ту или иную сторону порой достаточно от 10 до 52 сфальсифицированных ответов, даже если речь идёт об общенациональном опросе.

Бороться с такими злоупотреблениями можно с использованием более контролируемых условий проведения опросов. С другой стороны, повышенные меры безопасности вроде идентификации личности по документам или биометрии могут затруднить проведение опросов и снизить степень искренности респондентов. Очевидно, что в условиях развития ИИ к достоверности результатов онлайн-опросов придётся подходить с повышенной настороженностью.

OpenAI замаскировала характерный признак ИИ-текстов в выдаче ChatGPT

OpenAI заявила, что устранила проблему с неконтролируемым использованием длинного тире (em dash) в ответах ChatGPT. В последние месяцы этот знак препинания стал повсеместно ассоциироваться с текстами, созданными с помощью больших языковых моделей (LLM), и появлялся в школьных сочинениях, деловой переписке, комментариях в соцсетях, чатах поддержки, рекламных материалах и других форматах. Многие интерпретировали его присутствие как признак использования искусственного интеллекта (ИИ) вместо самостоятельного написания.

 Источник изображения: Emiliano Vittoriosi/Unsplash

Источник изображения: Emiliano Vittoriosi/Unsplash

При этом многие отмечали, что активно использовали длинное тире в своих текстах задолго до появления ИИ-моделей. Однако неспособность чат-ботов избегать этого символа сделала «тире ChatGPT» новым раздражающим элементом, даже несмотря на то, что его наличие не было надёжным доказательством использования ИИ. Инженеры OpenAI долгое время не могли решить проблему, а пользователи не могли заставить чат-бота перестать ставить длинное тире, даже давая ему на этот счёт прямые указания.

Теперь же глава компании Сэм Альтман (Sam Altman) заявил, что вопрос полностью решён. В своём посте в X он написал: «Если вы скажете ChatGPT не использовать длинные тире в ваших пользовательских инструкциях, он наконец-то сделает то, что должен! Это маленькая, но приятная победа.».

В сообщении на Threads, где компания в шутливой форме заставила ChatGPT извиниться за «длинное тире», поясняется, что если чат-боту также запретить его использование через раздел пользовательских инструкций в настройках персонализации, то это станет ещё более надёжным вариантом. То есть, длинное тире не будет исключено из ответов по умолчанию, но пользователи получат более точный контроль над частотой его появления.

OpenAI тестирует групповые чаты в ChatGPT

Компания OpenAI начала тестирование групповых чатов в ChatGPT. Это нововведение, позволяющее добавлять в чат с ИИ-ботом друзей или родственников, стало доступно пользователям в Японии, Южной Корее и на Тайване.

 Источник изображения: OpenAI

Источник изображения: OpenAI

ChatGPT может оказаться полезным собеседником в компании. К примеру, его можно задействовать для обсуждения маршрута путешествия во время отпуска, при поиске подходящего ресторана, обсуждении будущего ремонта и др. Эта функция также может пригодиться для решения рабочих вопросов с коллегами. ChatGPT может создавать планы отчётов на основе данных, которые предоставляют ему пользователи, резюмировать тексты и др.

Для начала группового чата достаточно нажать на иконку с изображением нескольких людей в правом верхнем углу интерфейса ChatGPT или в уже начатом диалоге. При активации группового чата из уже начатого диалога ИИ-бот создаст новую беседу без личной истории переписки. После этого к чату можно добавлять людей или делиться ссылкой на него. При необходимости можно добавить до 20 человек к беседе, но всем им нужно будет создать профиль с указанием имени и добавлением фото. Любой пользователь, у которого есть ссылка на групповой чат, может с её помощью добавлять новых людей. Если в чате есть люди моложе 18 лет, бот автоматически будет корректировать контент соответствующим образом.

В групповых чатах используется ИИ-модель GPT-5.1 Auto. OpenAI заявила, что бот может следить за потоком сообщений в групповом чате, поэтому он хорошо определяет, когда следует вставлять реплики. При необходимости участники могут обращаться к боту, чтобы узнать его мнение по какому-то вопросу. До более широкого распространения групповых чатов разработчики хотят скорректировать работу бота на основе отзывов первых пользователей.

«Википедия» призвала ИИ-компании прекратить бесплатно собирать её данные — для них есть платный API

Фонд «Викимедиа» (Wikimedia Foundation), управляющий онлайн-энциклопедией Wikipedia, призвал разработчиков искусственного интеллекта (ИИ) прекратить несанкционированное сканирование сайта и начать использовать его коммерческий API — платформу Wikimedia Enterprise. В блоге организации, опубликованном в понедельник, подчёркивается, что это снизит нагрузку на серверы и обеспечит финансовую поддержку некоммерческой миссии проекта.

 Источник изображения: AI

Источник изображения: AI

Особое внимание в заявлении уделено росту трафика от ботов, маскирующихся под реальных пользователей, сообщает TechCrunch. После обновления систем обнаружения автоматизированных запросов фонд выявил аномальный всплеск активности в мае и июне текущего года. Анализ показал, что значительная часть этого трафика исходила от ботов, связанных с разработкой генеративного искусственного интеллекта, которые намеренно пытались обойти механизмы защиты. В тот же период количество просмотров страниц реальными пользователями сократилось на 8 % по сравнению с аналогичным периодом прошлого года.

Фонд подчёркивает, что использование контента Wikipedia в обучающих наборах данных для ИИ не запрещено, однако подобная практика должна сопровождаться обязательной атрибуцией, то есть чётким указанием источника. По мнению организации, прозрачность происхождения информации критически важна для доверия пользователей к цифровым платформам: «Если посетители перестанут переходить на Wikipedia напрямую, это может привести к снижению числа новых волонтёров, что в долгосрочной перспективе поставит под угрозу само существование энциклопедии».

Ранее в этом году «Викимедиа» также представила собственную стратегию применения ИИ, ориентированную исключительно на поддержку редакторского сообщества. В частности, ИИ-инструменты планируется использовать для автоматизации рутинных задач, например, перевода статей на другие языки и улучшения качества оформления. При этом подчёркивается, что технологии не предназначены для замены человеческого вклада, а должны выступать вспомогательным ресурсом.


window-new
Soft
Hard
Тренды 🔥
10 тысяч модов и 350 миллионов загрузок: Larian похвасталась новыми достижениями игроков Baldur’s Gate 3 6 ч.
Вызывающий привыкание роглайк Ball x Pit достиг миллиона проданных копий и в 2026 году получит новые шары 7 ч.
Соавтор Counter-Strike признался в любви к русской культуре и рассказал о «самом депрессивном» периоде за 25 лет карьеры 9 ч.
Apple резко снизила награды багхантерам — при этом рост вредоносов в macOS бьёт рекорды 9 ч.
Mortal Kombat 1, Routine и Dome Keeper возглавили первую волну декабрьских новинок Game Pass, а Mortal Kombat 11 скоро подписку покинет 10 ч.
Google закрыла 107 дыр в Android — две нулевого дня уже использовались в атаках 10 ч.
В YouTube появился Recap — пользователям расскажут, чем они занимались на платформе в течение года 10 ч.
ИИ-агенты научились взламывать смарт-контракты в блокчейне — это риск на сотни миллионов долларов 10 ч.
Инструмент YouTube для защиты блогеров от дипфейков создал риск утечки их биометрии 11 ч.
В Microsoft Teams появились «иммерсивные встречи» в метавселенной с аватарами без ног 11 ч.