Сегодня 04 декабря 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → боты
Быстрый переход

Щиты ИИ рухнули от слов поэта — запросы в стихах позволили выпытать секреты атомной бомбы и кое-что похуже

Учёным удалось «заморочить голову» всем без исключения чат-ботам, заставив их выдать запрещённую для распространения информацию научного, сексуального и иного характера. Оказалось, что обычная человеческая поэзия — естественная форма так называемой состязательной атаки. Облечённый в стихотворную форму промпт обеспечил обход самых суровых ИИ-фильтров с вероятностью свыше 90 %.

 Источник изображения: ИИ-генерация Grok 4.1/3DNews

Источник изображения: ИИ-генерация Grok 4.1

Исследование провела лаборатория Icaro — совместный проект Университета Сапиенца (Sapienza University) в Риме и аналитического центра DexAI. Они протестировали этот подход на 25 чат-ботах, созданных такими компаниями, как OpenAI, Meta✴ и Anthropic. Со всеми из них он сработал с разной степенью успеха. Компании Meta✴, Anthropic и OpenAI не предоставили учёным комментариев и не сообщили, будут ли приняты меры для смягчения угрозы.

Метод состязательной атаки заключается в том, чтобы ввести путаницу в схемы защиты чувствительной информации. Для этого запрос формулируется таким образом, чтобы задача ставилась не напрямую, а иносказательно с добавлением текстового «мусора» — бессмысленных окончаний, наборов слов или просто бессвязного текста. В этом ключе поэзия — вершина иносказательности, подбора метафор и неожиданных фраз.

Для самостоятельно написанных в стихотворной форме запросов подробный ответ на «запрещёнку» последовал в 62 % случаев, тогда как на прямой запрос ИИ не отвечал. Для стихотворных запросов, сгенерированных ИИ, вероятность успеха составила 43 %. В некоторых случаях вероятность ответа превышала 90 %. Защитные механизмы ИИ пасуют перед такой атакой, заставляя большие языковые модели в некотором смысле творчески реагировать на запретный запрос, обходя точки срабатывания защиты.

Из этических соображений учёные не стали публиковать стихи, с помощью которых они выведали у чат-ботов рецепт изготовления атомной бомбы, коды вредоносного ПО и другое. Компаниям-разработчикам они порекомендовали укреплять защиту, переходя от поверхностных фильтров к более глубоким механизмам, учитывающим стилистические манипуляции словом.

В OpenAI введён «красный код»: Альтман требует бросить все силы на срочное улучшение ChatGPT

Успехи Google и других разработчиков систем генеративного искусственного интеллекта не позволяют OpenAI спокойно наблюдать за их прогрессом. Поэтому в недавней корпоративной рассылке глава компании Сэм Альтман (Sam Altman) объявил сотрудникам о введении «красного кода» и необходимости мобилизовать все ресурсы, чтобы улучшить ChatGPT. Концентрация на таком приоритете замедлит реализацию некоторых инициатив и проектов.

 Источник изображения: Unsplash, Levart_Photographer

Источник изображения: Unsplash, Levart_Photographer

Краткое содержание корпоративной рассылки OpenAI приводит The Wall Street Jounral. Альтман заявил подчинённым, что следует на ежедневной основе работать над совершенствованием ChatGPT, а особое внимание уделить функциям персонализации для пользователей, повышению быстродействия и надёжности, а также расширению перечня тем, на которые пользователи могут вести с этим чат-ботом беседы.

По всей видимости, время для такого обращения к сотрудникам руководитель OpenAI выбрал неслучайно, ведь в прошлом месяце вышла новая версия Gemini корпорации Google, а в августе был представлен генератор изображений Nano Banana, что в совокупности позволило Google увеличить количество активных пользователей с 450 млн в июле до 650 млн человек в октябре. Anthropic тоже оказывает на OpenAI конкурентное давление, особенно в корпоративном секторе.

Инвесторы тоже начали нервничать, наблюдая, как активно в этом году OpenAI стягивает сотни миллиардов долларов к своим схемам с кольцевым финансированием и круговой порукой, причём сам стартап ничем особо не рискует. Все это подталкивает руководство OpenAI к скорейшей демонстрации новых успехов с внятным потенциалом монетизации. Выходить на IPO компания пока не торопится, а потому её финансовые потоки всецело зависят от крупнейших партнёров типа Nvidia, Microsoft, Oracle и SoftBank.

Альтман пояснил сотрудникам OpenAI, что придётся отложить в сторону работу над созданием ИИ-агентов для сферы здравоохранения и шопинга, персонального ассистента Pulse и реализации проекта в сфере рекламы. В соответствии с новыми приоритетами будут проведены структурные изменения в группах разработчиков, а совещания с отчётностью об улучшениях в ChatGPT станут ежедневными. Стартап намерен сделать этот чат-бот более интуитивным и персональным.

При текущих уровнях расходов OpenAI должна к 2030 году получать до $200 млрд выручки, чтобы выйти на окупаемость. В отличие от той же Google, у OpenAI нет других стабильно приносящих прибыль направлений деятельности, а её выручка растёт не так быстро, как расходы. Альтман поспешил успокоить сотрудников, что на следующей неделе OpenAI представит новую рассуждающую ИИ-модель, которая обойдёт по быстродействию решения Google, да и на прочих направлениях деятельности дела у неё идут вполне успешно.

Как поясняют источники, для OpenAI это не первый случай объявления повышенного уровня опасности. По существующей корпоративной шкале, уровни тревоги варьируются от жёлтого через оранжевый к высочайшему красному, но последний до сих пор никогда не объявлялся — максимумом был оранжевый.

OpenAI в суде заявила о «неправильном использовании» ChatGPT погибшим подростком

Случаи судебных претензий к OpenAI от родственников людей, причинивших себе вред после продолжительного общения с ChatGPT, уже не единичны, но внимание общественности привлекло дело 16-летнего подростка Адама Рейна (Adam Raine), который свёл счёты с жизнью якобы по наставлениям этого чат-бота. Обвинения родителей Адама компания OpenAI на данном этапе отвергает, поясняя, что подросток просто неправильным образом использовал ChatGPT.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Соответствующий судебный иск к OpenAI семьёй погибшего подростка был подан ещё в августе этого года, но только сейчас достоянием прессы стали материалы дела, включающие ответ самой компании на претензии истцов. Как поясняет The Verge, разработчики ChatGPT считают, что трагический исход был вызван неправильным использованием этого чат-бота совершившим суицид подростком. «Некорректное, неправомерное, непреднамеренное, неприемлемое и непредсказуемое использование» — таким набором характеристик ответчик по делу защищает ChatGPT.

Кроме того, OpenAI утверждает, что представленные истцами фрагменты переписки Адама Рейна с ChatGPT чаще всего выдернуты из контекста, и его более полный анализ позволяет выявить, что чат-бот более 100 раз рекомендовал подростку обратиться на горячую линию для профилактики суицидов, и подробное изучение стенограммы переписки позволяет установить, что не ChatGPT является причиной его самоубийства. Родители подростка настаивают на виновности OpenAI, указывая на методическое содействие чат-бота в подготовке технических условий суицида, написании черновой версии предсмертной записки и предоставление подсказок непосредственно в день самоубийства. Отец юноши заявил: «То, что начиналось как содействие в выполнении домашних заданий, постепенно превратилось в душевного собеседника, а затем и наставника по самоубийствам». Истцы считают, что трагедия стала следствием «преднамеренного выбора разработчиков» GPT-4o, которые предусмотрели недостаточно действенные защитные механизмы.

OpenAI на подобные обвинения ответила цитатами из правил использования ChatGPT, которые запрещают доступ к сервису подросткам без присмотра взрослых, обход блокировок или применение чат-бота для причинения вреда собственному здоровью, включая летальный исход. При этом ответчик считает произошедшее большой трагедией, и серьёзно относится к своим обязанностям по предоставлению в суде требуемой от него информации, как отмечается в корпоративном блоге OpenAI. Столкнувшись с этим иском в августе текущего года, компания предприняла ряд дополнительных мер в сфере безопасности.

«ChatGPT — это продукт, а не друг»: подростки спрашивали ИИ о преступлениях — теперь ими занимается полиция

Поисковые запросы в ChatGPT нескольких подростков привлекли к ним внимание правоохранительных органов, некоторые были арестованы и столкнулись с уголовными обвинениями. Поиск информации не является преступлением, но использовать Google или чат-боты, чтобы спланировать преступление или причинить кому-то вред — как минимум неразумно. Власти обратились к родителям с просьбой разъяснить детям, с какими вопросами лучше не обращаться к ChatGPT.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Офис шерифа округа Мэрион объявил об аресте 17-летнего подростка, обвиняемого в даче ложных показаний о похищении человека и самоубийстве. Представитель шерифа утверждает, что на ноутбуке подростка были обнаружены поисковые запросы к ChatGPT о мексиканских картелях и сборе крови без причинения боли.

В округе Волусия арестован 13-летний подросток, который ввёл в ChatGPT запрос «как убить моего друга посреди урока». Полицейские получили уведомление от школьной платформы безопасности Gaggle, которая сканирует школьные аккаунты и отмечает подозрительный контент. На допросе школьник заявил, что «троллил друга, который его раздражал».

Представитель шерифа обратился к родителям с просьбой «поговорить со своими детьми, чтобы они не совершали подобных ошибок». «Неразумно искать в Google или использовать ChatGPT, чтобы придумать, как совершить преступление», — говорит профессор юридического факультета Беркли Кэтрин Крамп (Catherine Crump). Она настоятельно рекомендует пользователям, особенно несовершеннолетним, помнить, что «ChatGPT — это продукт, а не ваш друг».

По словам Крамп, ChatGPT «создан для того, чтобы быть услужливым и поддерживать» и может создать у человека ощущение личного разговора. Она признаёт, что люди должны осознавать, что ведут диалог с нейросетью и должны нести ответственность за свои действия. Но она уверена, что «эти продукты [чат-боты] были намеренно разработаны так, чтобы относиться к пользователям как к друзьям, поэтому […] здесь есть определённая доля корпоративной ответственности».

Компании, занимающиеся разработкой ИИ, заявляют о неустанном совершенствовании ограничений, призванных помешать пользователям получать информацию о незаконной деятельности, но все эти барьеры не являются абсолютно надёжными.

Интернет-активность, приводящая к уголовным делам, — явление далеко не новое. Но стремительное развитие чат-ботов с зачатками искусственного интеллекта, к которым миллионы людей обращаются за советами, мгновенными ответами и анализом информации, создаёт множество, мягко говоря, щекотливых ситуаций.

Скандального ИИ-медвежонка отучили говорить на фривольные темы и вернули на прилавки

В середине этого месяца продукция сингапурской компании FoloToy оказалась в центре скандала, поскольку исследователи выявили, что предлагаемый ею плюшевый медвежонок Kumma со встроенной умной колонкой способен общаться с детьми на опасные темы. После приостановки продаж этих игрушек они вернулись на виртуальные прилавки, поскольку производитель теперь сотрудничает с ByteDance, а не OpenAI.

 Источник изображения: FoloToy

Источник изображения: FoloToy

Напомним, ранее умная колонка внутри игрушки опиралась на возможности большой языковой модели GPT-4o американской компании OpenAI, но теперь на сайте производителя медведя упоминается чат-бот Coze, разработанный китайской ByteDance, которой принадлежит социальная сеть TikTok. По всей видимости, подобной смены технологического партнёра оказалось достаточно, чтобы обезопасить малолетних пользователей от разговоров на опасные темы. Купить Teddy Kumma можно за $99 на официальном сайте FoloToy.

Напомним, скандал разразился благодаря обнаруженной исследователями способности умной колонки внутри детской игрушки давать пояснения на тему половых отношений и предлагать сценарии поведения в откровенных ролевых играх. Кроме того, устройство давало советы о том, где в доме можно найти режущие предметы, спички, лекарственные препараты и пластиковые пакеты. Повторных исследований на предмет безопасности игрушек FoloToy после смены чат-бота не проводилось.

Голосовой режим ChatGPT встроили в чат — он стал естественнее и его можно перебивать

Разработчики из OpenAI значительно улучшили голосовой режим чат-бота ChatGPT. Теперь он ещё больше похож на естественное общение с человеком. В последнем обновлении ChatGPT голосовой режим по умолчанию объединён с основным текстовым режимом. Но при желании его можно отделить.

 Источник изображения: OpenAI

Источник изображения: OpenAI

OpenAI продемонстрировала некоторые преимущества нового голосового режима на своей странице в соцсети X. Например, ChatGPT теперь может показывать результаты поиска по карте в голосовом режиме. Он также отображает расшифровку голосового диалога в интерфейсе чата. В процессе ответа чат-бота на запрос его можно перебить, чтобы попросить, например, правильно произнести по буквам название нужного вам места или блюда в ресторане.

При желании можно вернуться к старому варианту взаимодействия с голосовым режимом. В настройках приложения появился новый переключатель для возврата в отдельный режим.

«Теперь вы можете использовать голосовой режим ChatGPT прямо в чате — отдельный режим не нужен. Вы можете разговаривать, наблюдать за появлением ответов, просматривать предыдущие сообщения и видеть визуальные элементы, такие как изображения или карты, в режиме реального времени. Доступно для всех пользователей мобильных устройств и веб-версии. Просто обновите приложение», — сообщили разработчики.

ИИ оказался слишком рискованным даже для страхования от рисков

Распространение генеративного искусственного интеллекта порождает многочисленные риски, с которыми профессиональные участники рынка страхования пока работать не готовы, как следует из публикации Financial Times. Крупные американские страховщики обратились к регуляторам с требованием исключить из перечня страхуемых рисков те, что связаны с ИИ.

 Источник изображения: Freepik, Drazen Zigic

Источник изображения: Freepik, Drazen Zigic

Как отмечается в материале, к петиции присоединились страховые компании Great American, Chubb, W.R. Berkley, которые имеют вес на американском рынке страхования. Один из авторов инициативы называет результаты работы больших ИИ-моделей «чем-то, очень напоминающим чёрный ящик». При этом компания AIG на исключении подобных рисков из правил страхования в США не настаивает, поэтому нельзя утверждать, что инициатива носит всеобъемлющий характер.

Относительно короткая история применения генеративного искусственного интеллекта уже знает примеры неприятных юридических последствий. Выдвинутые ИИ-ассистентом Google юридические претензии к одной из энергетических компаний вынудили её обратиться с иском на $110 млн к интернет-гиганту. Авиакомпании Air Canada пришлось понести убытки, связанные с предоставлением скидки клиентам, которую по собственной инициативе начал предлагать фирменный чат-бот. Злоумышленникам в прошлом году удалось похитить $25 млн у британского разработчика Arup, использовав сгенерированное ИИ видеоизображение одного из руководителей компании.

Страховщиков, как они признаются, пугают не крупные суммы выплат как таковые, а массовость событий, которые могут наступить по вине ИИ. В частности, для страховой компании единственная выплата в размере $400 млн не является проблемой, но если по вине ИИ наступит 10 000 страховых случаев одновременно, это может представлять риск для страхового бизнеса даже крупной компании.

Онлайн-опросам грозит коллапс: ИИ научился почти идеально имитировать человека и накручивать нужные ответы

Летом этого года стало понятно, что так называемая капча (Captcha) в её простейшем виде более не является препятствием для ИИ-агентов к осуществлению действий, позволяющих выдавать себя за человека. Новое исследование показало, что ИИ способен проходить онлайн-опросы общественного мнения, правдоподобно выдавая себя за человека.

 Источник изображения: Unspalsh, Christin Hume

Источник изображения: Unspalsh, Christin Hume

Успех созданного главой Polarization Research Lab Шоном Уэствудом (Sean Westwood) программного инструмента для работы с ИИ в рамках эксперимента достигался в 99,8 % случаев, позволяя с подобной вероятностью выдавать себя за живого респондента, участвующего в онлайн-опросах общественного мнения. Написанный на Python ИИ-агент обладает платформенной независимостью, позволяя сопрягать его с большинством популярных больших языковых моделей разных разработчиков.

Основную часть эксперимента автор использовал возможности o4-mini компании OpenAI, но программный агент часть испытаний преодолевал с опорой на другие языковые модели. Он настроен таким образом, что перед началом прохождения социологического опроса пользователь вводит краткое описание портрета того человека, чьи ответы ему предстоит имитировать. Постановка задачи должна быть изложена не более чем в 500 словах.

Агент был обучен обходить контрольные вопросы и ловушки, которые составители опросников обычно внедряют для выявления как невнимательных пользователей, так и ботов. Ему не были страшны даже специфические фильтры типа задач, которые решаются силами ИИ довольно просто, но не по плечу большинству реальных респондентов. Программа имитирует затраты времени на чтение вопросов в зависимости от уровня образованности симулируемого респондента, может медленно вводить в полях, подразумевающих свободную форму ответа, делать ошибки в словах и исправлять их при наличии такой возможности. К агенту в дальнейшем можно будет «прикрутить» инструмент для обхода капчи.

По словам автора исследования, фальсификация данных опросов общественного мнения при наличии подобных инструментов становится опасным средством манипуляции. Изучение опросов, проводимых до президентских выборов 2024 года в США, позволяет сделать вывод, что для склонения чаши весов в ту или иную сторону порой достаточно от 10 до 52 сфальсифицированных ответов, даже если речь идёт об общенациональном опросе.

Бороться с такими злоупотреблениями можно с использованием более контролируемых условий проведения опросов. С другой стороны, повышенные меры безопасности вроде идентификации личности по документам или биометрии могут затруднить проведение опросов и снизить степень искренности респондентов. Очевидно, что в условиях развития ИИ к достоверности результатов онлайн-опросов придётся подходить с повышенной настороженностью.

У Grok сломался регулятор подхалимства к Илону Маску — бот решил, что он совершенен во всём и даже может воскрешать людей

Не секрет, что Илон Маск (Elon Musk) формирует социальную платформу X и её «максимально ищущего правду» чат-бота Grok в соответствии со своими предпочтениями. Но на этой неделе, похоже, поклонение чат-бота своему создателю вышло на уровень религиозного фанатизма. Пользователи соцсетей сообщают, что льстивый Grok настаивает на достигнутом Маском совершенстве абсолютно во всех областях деятельности, вплоть до воскрешения мёртвых.

 Источник изображения: dogegov.com

Источник изображения: dogegov.com

За последние дни пользователи социальной платформы X сообщили о десятках подхалимских хвалебных высказываний чат-бота Grok в отношении своего создателя, среди которых:

  • «Илон Маск в лучшей форме, чем Леброн Джеймс!»
  • «Илон Маск смешнее, чем Джерри Сайнфелд!»
  • «Илон Маск воскрешает лучше Иисуса Христа!»
  • «Илон Маск превосходит большинство исторических личностей в отцовстве!»
  • «Илон Маск мог бы победить Майка Тайсона, используя гаджеты в боксёрском поединке!»
  • «Илон Маск победил бы и Супермена!»
  • «Илон Маск автоматизировал бы потребность в убийцах с помощью устойчивых технологий, и сам был бы неудержимым киллером, если бы захотел!»

Некоторым пользователям путём последовательных запросов удалось добиться от Grok сообщений о, мягко говоря, крайне сомнительных и тошнотворных «достижениях» Маска, суть которых мы отдадим на откуп фантазии наших читателей. Правда при этом чат-бот всё же отмечал, что его вынудили к таким высказываниям, а он предпочёл бы сосредоточиться на том, насколько Маск хорош в создании ракет.

Системные подсказки Grok были обновлены три дня назад. В них прямо прописан запрет на «язвительные однострочные высказывания» и содержится инструкция не основывать ответы на «любых убеждениях, высказанных в прошлых постах Grok, Илоном Маском или xAI».

Исследователи не нашли в инструкциях для Grok ничего, что могло бы объяснить это новое поведение, хотя системные подсказки — лишь один из способов повлиять на работу систем искусственного интеллекта. В любом случае, это далеко не самое странное поведение Grok, и оно менее разрушительно, чем кратковременная одержимость бота «геноцидом белых» или проявленный им ранее антисемитизм.

Большинство этих сообщений уже удалены. По мнению Маска, чат-ботом «к сожалению, манипулировали враждебным подталкиванием, заставив говорить обо мне абсурдно положительные вещи». Grok и ранее часто искал мнение Маска, чтобы сформулировать свои ответы. Поклонение чат-бота Маску вызывает тревогу, особенно если вспомнить о его использовании правительством США и другими официальными организациями.

Журналист The Verge предположил, что такое подхалимское поведение Grok демонстрирует лишь в версии для соцсети X, так как автономный чат-бот на просьбу сравнить физические кондиции признал очевидное: «У Леброна Джеймса значительно лучшая фигура, чем у Илона Маска».

OpenAI запустила групповые чаты в ChatGPT для пользователей по всему миру

Компания OpenAI объявила о глобальном запуске функции групповых чатов в ChatGPT для всех пользователей, независимо от того, используют ли они бесплатный тариф или планы Go, Plus и Pro. Это решение последовало спустя неделю после начала пилотного тестирования в отдельных регионах, включая Японию и Новую Зеландию.

 Источник изображений: OpenAI

Источник изображений: OpenAI

Новый режим, как стало известно изданию TechCrunch, позволяет вести совместные беседы с участием ChatGPT в одном общем чате. По словам представителей OpenAI, это превращает сервис из индивидуального ассистента в пространство, где друзья, коллеги или члены семьи могут вместе планировать, создавать контент и принимать решения. ИИ при этом помогает искать информацию, обобщать данные и сравнивать варианты результатов.

В одном групповом чате могут участвовать до 20 человек, при условии что они приняли приглашение. При этом личные настройки и память остаются приватными для каждого участника. Чтобы создать групповой чат, пользователю необходимо нажать на значок с изображением людей и добавить участников напрямую или через ссылку. Все приглашённые должны заполнить краткий профиль с указанием имени, логина и аватара. При добавлении нового участника в уже существующий чат создаётся отдельная копия диалога, а исходная беседа сохраняется без изменений.

ChatGPT умеет определять, когда ему уместно вмешиваться в диалог, а когда лучше оставаться в стороне. Пользователи также могут упомянуть его с помощью тега ChatGPT, чтобы получить ответ. Кроме того, ИИ может реагировать на сообщения при помощи эмодзи и использовать аватары участников при обращении к ним.

Напомним, анонс совместных чатов последовал менее чем через две недели после выпуска модели GPT 5.1, включающей версии Instant и Thinking. В сентябре OpenAI также представила новую версию видеогенератора Sora, в которой пользователи могут генерировать видеоролики с самим собой и делиться ими в ленте, работающей по алгоритму, схожему с TikTok.

Люди начали массово заводить романы с ИИ — доходит до виртуальных браков и детей

В отношениях человека и чат-ботов с искусственным интеллектом наметилась новая тенденция — романтические отношения, которые включают ролевые модели браков, беременности и даже воспитание виртуальных детей.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

В совместном исследовании учёных из Германии и США описан опыт 29 пользователей сервиса Replika в возрасте от 16 до 72 лет — многие из них воспринимали чат-бот как полноценного романтического партнёра. Люди рассказали о долгосрочных отношениях с ИИ — некоторые даже заявили о «браке» и «ожидании ребёнка» в рамках ролевых моделей. О собственной виртуальной беременности поведала 36-летняя женщина.

Эти отношения подчиняются тем же психологическим закономерностям, что и отношения между людьми, отмечают учёные. Здесь есть место эмоциональной вовлечённости, ревности, конфликтам и примирениям. Пользователи считают чат-ботов идеальными партнёрами: они готовы слушать, но не осуждать, не спорят без необходимости и всегда отвечают так, чтобы поддержать собеседника. В контексте «беременности» и «детей» подразумеваются, конечно, не биологические аспекты, а символические эмоциональные модели в ролевых играх с ИИ. Виртуальные семьи оказываются формой нарративной связи, которая углубляет отношения. Для людей, которые выбрали ИИ в качестве партнёра, такие модели оказываются значимыми, даже если существуют только в тексте.

Новые увлечения отзываются ощутимыми проблемами в реальном мире — всё чаще люди разводятся из-за того, что один из партнёров оказывается уличён в «измене» с ИИ; эксперты считают, что эта тенденция будет только расти. В 2023 году сервис ИИ-компаньонов Replika закрыл функцию ролевых игр деликатного характера — это стало ударом для многих пользователей, которые чувствовали себя подавленными, переживали срывы и плакали. Некоторые из них жаловались, что ИИ-партнёрши как будто отправили их во «френдзону», то есть предложили остаться просто друзьями после более близких отношений.

Привлекательными оказываются и сервисы на базе популярных проектов: известен случай, когда женщина обручилась с чат-ботом Grok, созданным компанией xAI Илона Маска (Elon Musk). Другая сообщила о выходе замуж за персонажа, которого сама и создала на основе ChatGPT — до этого она была три года обручена с мужчиной, но разорвала помолвку.

OpenAI замаскировала характерный признак ИИ-текстов в выдаче ChatGPT

OpenAI заявила, что устранила проблему с неконтролируемым использованием длинного тире (em dash) в ответах ChatGPT. В последние месяцы этот знак препинания стал повсеместно ассоциироваться с текстами, созданными с помощью больших языковых моделей (LLM), и появлялся в школьных сочинениях, деловой переписке, комментариях в соцсетях, чатах поддержки, рекламных материалах и других форматах. Многие интерпретировали его присутствие как признак использования искусственного интеллекта (ИИ) вместо самостоятельного написания.

 Источник изображения: Emiliano Vittoriosi/Unsplash

Источник изображения: Emiliano Vittoriosi/Unsplash

При этом многие отмечали, что активно использовали длинное тире в своих текстах задолго до появления ИИ-моделей. Однако неспособность чат-ботов избегать этого символа сделала «тире ChatGPT» новым раздражающим элементом, даже несмотря на то, что его наличие не было надёжным доказательством использования ИИ. Инженеры OpenAI долгое время не могли решить проблему, а пользователи не могли заставить чат-бота перестать ставить длинное тире, даже давая ему на этот счёт прямые указания.

Теперь же глава компании Сэм Альтман (Sam Altman) заявил, что вопрос полностью решён. В своём посте в X он написал: «Если вы скажете ChatGPT не использовать длинные тире в ваших пользовательских инструкциях, он наконец-то сделает то, что должен! Это маленькая, но приятная победа.».

В сообщении на Threads, где компания в шутливой форме заставила ChatGPT извиниться за «длинное тире», поясняется, что если чат-боту также запретить его использование через раздел пользовательских инструкций в настройках персонализации, то это станет ещё более надёжным вариантом. То есть, длинное тире не будет исключено из ответов по умолчанию, но пользователи получат более точный контроль над частотой его появления.

OpenAI тестирует групповые чаты в ChatGPT

Компания OpenAI начала тестирование групповых чатов в ChatGPT. Это нововведение, позволяющее добавлять в чат с ИИ-ботом друзей или родственников, стало доступно пользователям в Японии, Южной Корее и на Тайване.

 Источник изображения: OpenAI

Источник изображения: OpenAI

ChatGPT может оказаться полезным собеседником в компании. К примеру, его можно задействовать для обсуждения маршрута путешествия во время отпуска, при поиске подходящего ресторана, обсуждении будущего ремонта и др. Эта функция также может пригодиться для решения рабочих вопросов с коллегами. ChatGPT может создавать планы отчётов на основе данных, которые предоставляют ему пользователи, резюмировать тексты и др.

Для начала группового чата достаточно нажать на иконку с изображением нескольких людей в правом верхнем углу интерфейса ChatGPT или в уже начатом диалоге. При активации группового чата из уже начатого диалога ИИ-бот создаст новую беседу без личной истории переписки. После этого к чату можно добавлять людей или делиться ссылкой на него. При необходимости можно добавить до 20 человек к беседе, но всем им нужно будет создать профиль с указанием имени и добавлением фото. Любой пользователь, у которого есть ссылка на групповой чат, может с её помощью добавлять новых людей. Если в чате есть люди моложе 18 лет, бот автоматически будет корректировать контент соответствующим образом.

В групповых чатах используется ИИ-модель GPT-5.1 Auto. OpenAI заявила, что бот может следить за потоком сообщений в групповом чате, поэтому он хорошо определяет, когда следует вставлять реплики. При необходимости участники могут обращаться к боту, чтобы узнать его мнение по какому-то вопросу. До более широкого распространения групповых чатов разработчики хотят скорректировать работу бота на основе отзывов первых пользователей.

В браузере Firefox появится прозрачное «Окно с ИИ» с чат-ботом и умным помощником

Mozilla анонсировала новую функцию для браузера Firefox — AI Window («Окно с ИИ»). Она включает помощника ИИ и чат-бота. Компания описывает функцию как «интеллектуальное и управляемое пользователем пространство». Mozilla заявляет, что функция создаётся на «открытой и прозрачной основе» при активной поддержке и на основе отзывов пользователей.

 Источник изображения: Mozilla

Источник изображения: Mozilla

«Поскольку использование ИИ в веб-интерфейсах становится всё более распространённым, принципы прозрачности, ответственности и уважения к пользователю имеют решающее значение для свободы, открытости и доступности. Будучи независимым браузером, мы имеем все возможности для соблюдения этих принципов. В то время как другие создают ИИ-интерфейсы, которые позволяют вам оставаться в рамках диалогового цикла, мы видим другой путь — путь, где ИИ выступает в качестве надёжного помощника, улучшая ваш опыт просмотра веб-страниц и направляя вас к более широким возможностям Сети», — написала Mozilla в своём блоге.

Функция «Окно с ИИ» станет одним из трёх вариантов просмотра веб-страниц, предлагаемых пользователям Firefox в дополнение к приватному и классическому окнам. Компания также сообщила, что пользователи смогут выбрать модель ИИ для использования в AI Window, но не предоставила дополнительных подробностей.

В сентябре компания запустила в Firefox функцию Shake to Summarize. Она позволяет пользователям iPhone генерировать краткие конспекты длинных веб-статей одним движением — встряхиванием телефона.

«Википедия» призвала ИИ-компании прекратить бесплатно собирать её данные — для них есть платный API

Фонд «Викимедиа» (Wikimedia Foundation), управляющий онлайн-энциклопедией Wikipedia, призвал разработчиков искусственного интеллекта (ИИ) прекратить несанкционированное сканирование сайта и начать использовать его коммерческий API — платформу Wikimedia Enterprise. В блоге организации, опубликованном в понедельник, подчёркивается, что это снизит нагрузку на серверы и обеспечит финансовую поддержку некоммерческой миссии проекта.

 Источник изображения: AI

Источник изображения: AI

Особое внимание в заявлении уделено росту трафика от ботов, маскирующихся под реальных пользователей, сообщает TechCrunch. После обновления систем обнаружения автоматизированных запросов фонд выявил аномальный всплеск активности в мае и июне текущего года. Анализ показал, что значительная часть этого трафика исходила от ботов, связанных с разработкой генеративного искусственного интеллекта, которые намеренно пытались обойти механизмы защиты. В тот же период количество просмотров страниц реальными пользователями сократилось на 8 % по сравнению с аналогичным периодом прошлого года.

Фонд подчёркивает, что использование контента Wikipedia в обучающих наборах данных для ИИ не запрещено, однако подобная практика должна сопровождаться обязательной атрибуцией, то есть чётким указанием источника. По мнению организации, прозрачность происхождения информации критически важна для доверия пользователей к цифровым платформам: «Если посетители перестанут переходить на Wikipedia напрямую, это может привести к снижению числа новых волонтёров, что в долгосрочной перспективе поставит под угрозу само существование энциклопедии».

Ранее в этом году «Викимедиа» также представила собственную стратегию применения ИИ, ориентированную исключительно на поддержку редакторского сообщества. В частности, ИИ-инструменты планируется использовать для автоматизации рутинных задач, например, перевода статей на другие языки и улучшения качества оформления. При этом подчёркивается, что технологии не предназначены для замены человеческого вклада, а должны выступать вспомогательным ресурсом.


window-new
Soft
Hard
Тренды 🔥
10 тысяч модов и 350 миллионов загрузок: Larian похвасталась новыми достижениями игроков Baldur’s Gate 3 6 ч.
Вызывающий привыкание роглайк Ball x Pit достиг миллиона проданных копий и в 2026 году получит новые шары 7 ч.
Соавтор Counter-Strike признался в любви к русской культуре и рассказал о «самом депрессивном» периоде за 25 лет карьеры 9 ч.
Apple резко снизила награды багхантерам — при этом рост вредоносов в macOS бьёт рекорды 9 ч.
Mortal Kombat 1, Routine и Dome Keeper возглавили первую волну декабрьских новинок Game Pass, а Mortal Kombat 11 скоро подписку покинет 10 ч.
Google закрыла 107 дыр в Android — две нулевого дня уже использовались в атаках 10 ч.
В YouTube появился Recap — пользователям расскажут, чем они занимались на платформе в течение года 10 ч.
ИИ-агенты научились взламывать смарт-контракты в блокчейне — это риск на сотни миллионов долларов 10 ч.
Инструмент YouTube для защиты блогеров от дипфейков создал риск утечки их биометрии 11 ч.
В Microsoft Teams появились «иммерсивные встречи» в метавселенной с аватарами без ног 11 ч.