Сегодня 27 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → боты
Быстрый переход

OpenAI в суде заявила о «неправильном использовании» ChatGPT погибшим подростком

Случаи судебных претензий к OpenAI от родственников людей, причинивших себе вред после продолжительного общения с ChatGPT, уже не единичны, но внимание общественности привлекло дело 16-летнего подростка Адама Рейна (Adam Raine), который свёл счёты с жизнью якобы по наставлениям этого чат-бота. Обвинения родителей Адама компания OpenAI на данном этапе отвергает, поясняя, что подросток просто неправильным образом использовал ChatGPT.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Соответствующий судебный иск к OpenAI семьёй погибшего подростка был подан ещё в августе этого года, но только сейчас достоянием прессы стали материалы дела, включающие ответ самой компании на претензии истцов. Как поясняет The Verge, разработчики ChatGPT считают, что трагический исход был вызван неправильным использованием этого чат-бота совершившим суицид подростком. «Некорректное, неправомерное, непреднамеренное, неприемлемое и непредсказуемое использование» — таким набором характеристик ответчик по делу защищает ChatGPT.

Кроме того, OpenAI утверждает, что представленные истцами фрагменты переписки Адама Рейна с ChatGPT чаще всего выдернуты из контекста, и его более полный анализ позволяет выявить, что чат-бот более 100 раз рекомендовал подростку обратиться на горячую линию для профилактики суицидов, и подробное изучение стенограммы переписки позволяет установить, что не ChatGPT является причиной его самоубийства. Родители подростка настаивают на виновности OpenAI, указывая на методическое содействие чат-бота в подготовке технических условий суицида, написании черновой версии предсмертной записки и предоставление подсказок непосредственно в день самоубийства. Отец юноши заявил: «То, что начиналось как содействие в выполнении домашних заданий, постепенно превратилось в душевного собеседника, а затем и наставника по самоубийствам». Истцы считают, что трагедия стала следствием «преднамеренного выбора разработчиков» GPT-4o, которые предусмотрели недостаточно действенные защитные механизмы.

OpenAI на подобные обвинения ответила цитатами из правил использования ChatGPT, которые запрещают доступ к сервису подросткам без присмотра взрослых, обход блокировок или применение чат-бота для причинения вреда собственному здоровью, включая летальный исход. При этом ответчик считает произошедшее большой трагедией, и серьёзно относится к своим обязанностям по предоставлению в суде требуемой от него информации, как отмечается в корпоративном блоге OpenAI. Столкнувшись с этим иском в августе текущего года, компания предприняла ряд дополнительных мер в сфере безопасности.

«ChatGPT — это продукт, а не друг»: подростки спрашивали ИИ о преступлениях — теперь ими занимается полиция

Поисковые запросы в ChatGPT нескольких подростков привлекли к ним внимание правоохранительных органов, некоторые были арестованы и столкнулись с уголовными обвинениями. Поиск информации не является преступлением, но использовать Google или чат-боты, чтобы спланировать преступление или причинить кому-то вред — как минимум неразумно. Власти обратились к родителям с просьбой разъяснить детям, с какими вопросами лучше не обращаться к ChatGPT.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Офис шерифа округа Мэрион объявил об аресте 17-летнего подростка, обвиняемого в даче ложных показаний о похищении человека и самоубийстве. Представитель шерифа утверждает, что на ноутбуке подростка были обнаружены поисковые запросы к ChatGPT о мексиканских картелях и сборе крови без причинения боли.

В округе Волусия арестован 13-летний подросток, который ввёл в ChatGPT запрос «как убить моего друга посреди урока». Полицейские получили уведомление от школьной платформы безопасности Gaggle, которая сканирует школьные аккаунты и отмечает подозрительный контент. На допросе школьник заявил, что «троллил друга, который его раздражал».

Представитель шерифа обратился к родителям с просьбой «поговорить со своими детьми, чтобы они не совершали подобных ошибок». «Неразумно искать в Google или использовать ChatGPT, чтобы придумать, как совершить преступление», — говорит профессор юридического факультета Беркли Кэтрин Крамп (Catherine Crump). Она настоятельно рекомендует пользователям, особенно несовершеннолетним, помнить, что «ChatGPT — это продукт, а не ваш друг».

По словам Крамп, ChatGPT «создан для того, чтобы быть услужливым и поддерживать» и может создать у человека ощущение личного разговора. Она признаёт, что люди должны осознавать, что ведут диалог с нейросетью и должны нести ответственность за свои действия. Но она уверена, что «эти продукты [чат-боты] были намеренно разработаны так, чтобы относиться к пользователям как к друзьям, поэтому […] здесь есть определённая доля корпоративной ответственности».

Компании, занимающиеся разработкой ИИ, заявляют о неустанном совершенствовании ограничений, призванных помешать пользователям получать информацию о незаконной деятельности, но все эти барьеры не являются абсолютно надёжными.

Интернет-активность, приводящая к уголовным делам, — явление далеко не новое. Но стремительное развитие чат-ботов с зачатками искусственного интеллекта, к которым миллионы людей обращаются за советами, мгновенными ответами и анализом информации, создаёт множество, мягко говоря, щекотливых ситуаций.

Скандального ИИ-медвежонка отучили говорить на фривольные темы и вернули на прилавки

В середине этого месяца продукция сингапурской компании FoloToy оказалась в центре скандала, поскольку исследователи выявили, что предлагаемый ею плюшевый медвежонок Kumma со встроенной умной колонкой способен общаться с детьми на опасные темы. После приостановки продаж этих игрушек они вернулись на виртуальные прилавки, поскольку производитель теперь сотрудничает с ByteDance, а не OpenAI.

 Источник изображения: FoloToy

Источник изображения: FoloToy

Напомним, ранее умная колонка внутри игрушки опиралась на возможности большой языковой модели GPT-4o американской компании OpenAI, но теперь на сайте производителя медведя упоминается чат-бот Coze, разработанный китайской ByteDance, которой принадлежит социальная сеть TikTok. По всей видимости, подобной смены технологического партнёра оказалось достаточно, чтобы обезопасить малолетних пользователей от разговоров на опасные темы. Купить Teddy Kumma можно за $99 на официальном сайте FoloToy.

Напомним, скандал разразился благодаря обнаруженной исследователями способности умной колонки внутри детской игрушки давать пояснения на тему половых отношений и предлагать сценарии поведения в откровенных ролевых играх. Кроме того, устройство давало советы о том, где в доме можно найти режущие предметы, спички, лекарственные препараты и пластиковые пакеты. Повторных исследований на предмет безопасности игрушек FoloToy после смены чат-бота не проводилось.

Голосовой режим ChatGPT встроили в чат — он стал естественнее и его можно перебивать

Разработчики из OpenAI значительно улучшили голосовой режим чат-бота ChatGPT. Теперь он ещё больше похож на естественное общение с человеком. В последнем обновлении ChatGPT голосовой режим по умолчанию объединён с основным текстовым режимом. Но при желании его можно отделить.

 Источник изображения: OpenAI

Источник изображения: OpenAI

OpenAI продемонстрировала некоторые преимущества нового голосового режима на своей странице в соцсети X. Например, ChatGPT теперь может показывать результаты поиска по карте в голосовом режиме. Он также отображает расшифровку голосового диалога в интерфейсе чата. В процессе ответа чат-бота на запрос его можно перебить, чтобы попросить, например, правильно произнести по буквам название нужного вам места или блюда в ресторане.

При желании можно вернуться к старому варианту взаимодействия с голосовым режимом. В настройках приложения появился новый переключатель для возврата в отдельный режим.

«Теперь вы можете использовать голосовой режим ChatGPT прямо в чате — отдельный режим не нужен. Вы можете разговаривать, наблюдать за появлением ответов, просматривать предыдущие сообщения и видеть визуальные элементы, такие как изображения или карты, в режиме реального времени. Доступно для всех пользователей мобильных устройств и веб-версии. Просто обновите приложение», — сообщили разработчики.

ИИ оказался слишком рискованным даже для страхования от рисков

Распространение генеративного искусственного интеллекта порождает многочисленные риски, с которыми профессиональные участники рынка страхования пока работать не готовы, как следует из публикации Financial Times. Крупные американские страховщики обратились к регуляторам с требованием исключить из перечня страхуемых рисков те, что связаны с ИИ.

 Источник изображения: Freepik, Drazen Zigic

Источник изображения: Freepik, Drazen Zigic

Как отмечается в материале, к петиции присоединились страховые компании Great American, Chubb, W.R. Berkley, которые имеют вес на американском рынке страхования. Один из авторов инициативы называет результаты работы больших ИИ-моделей «чем-то, очень напоминающим чёрный ящик». При этом компания AIG на исключении подобных рисков из правил страхования в США не настаивает, поэтому нельзя утверждать, что инициатива носит всеобъемлющий характер.

Относительно короткая история применения генеративного искусственного интеллекта уже знает примеры неприятных юридических последствий. Выдвинутые ИИ-ассистентом Google юридические претензии к одной из энергетических компаний вынудили её обратиться с иском на $110 млн к интернет-гиганту. Авиакомпании Air Canada пришлось понести убытки, связанные с предоставлением скидки клиентам, которую по собственной инициативе начал предлагать фирменный чат-бот. Злоумышленникам в прошлом году удалось похитить $25 млн у британского разработчика Arup, использовав сгенерированное ИИ видеоизображение одного из руководителей компании.

Страховщиков, как они признаются, пугают не крупные суммы выплат как таковые, а массовость событий, которые могут наступить по вине ИИ. В частности, для страховой компании единственная выплата в размере $400 млн не является проблемой, но если по вине ИИ наступит 10 000 страховых случаев одновременно, это может представлять риск для страхового бизнеса даже крупной компании.

Онлайн-опросам грозит коллапс: ИИ научился почти идеально имитировать человека и накручивать нужные ответы

Летом этого года стало понятно, что так называемая капча (Captcha) в её простейшем виде более не является препятствием для ИИ-агентов к осуществлению действий, позволяющих выдавать себя за человека. Новое исследование показало, что ИИ способен проходить онлайн-опросы общественного мнения, правдоподобно выдавая себя за человека.

 Источник изображения: Unspalsh, Christin Hume

Источник изображения: Unspalsh, Christin Hume

Успех созданного главой Polarization Research Lab Шоном Уэствудом (Sean Westwood) программного инструмента для работы с ИИ в рамках эксперимента достигался в 99,8 % случаев, позволяя с подобной вероятностью выдавать себя за живого респондента, участвующего в онлайн-опросах общественного мнения. Написанный на Python ИИ-агент обладает платформенной независимостью, позволяя сопрягать его с большинством популярных больших языковых моделей разных разработчиков.

Основную часть эксперимента автор использовал возможности o4-mini компании OpenAI, но программный агент часть испытаний преодолевал с опорой на другие языковые модели. Он настроен таким образом, что перед началом прохождения социологического опроса пользователь вводит краткое описание портрета того человека, чьи ответы ему предстоит имитировать. Постановка задачи должна быть изложена не более чем в 500 словах.

Агент был обучен обходить контрольные вопросы и ловушки, которые составители опросников обычно внедряют для выявления как невнимательных пользователей, так и ботов. Ему не были страшны даже специфические фильтры типа задач, которые решаются силами ИИ довольно просто, но не по плечу большинству реальных респондентов. Программа имитирует затраты времени на чтение вопросов в зависимости от уровня образованности симулируемого респондента, может медленно вводить в полях, подразумевающих свободную форму ответа, делать ошибки в словах и исправлять их при наличии такой возможности. К агенту в дальнейшем можно будет «прикрутить» инструмент для обхода капчи.

По словам автора исследования, фальсификация данных опросов общественного мнения при наличии подобных инструментов становится опасным средством манипуляции. Изучение опросов, проводимых до президентских выборов 2024 года в США, позволяет сделать вывод, что для склонения чаши весов в ту или иную сторону порой достаточно от 10 до 52 сфальсифицированных ответов, даже если речь идёт об общенациональном опросе.

Бороться с такими злоупотреблениями можно с использованием более контролируемых условий проведения опросов. С другой стороны, повышенные меры безопасности вроде идентификации личности по документам или биометрии могут затруднить проведение опросов и снизить степень искренности респондентов. Очевидно, что в условиях развития ИИ к достоверности результатов онлайн-опросов придётся подходить с повышенной настороженностью.

У Grok сломался регулятор подхалимства к Илону Маску — бот решил, что он совершенен во всём и даже может воскрешать людей

Не секрет, что Илон Маск (Elon Musk) формирует социальную платформу X и её «максимально ищущего правду» чат-бота Grok в соответствии со своими предпочтениями. Но на этой неделе, похоже, поклонение чат-бота своему создателю вышло на уровень религиозного фанатизма. Пользователи соцсетей сообщают, что льстивый Grok настаивает на достигнутом Маском совершенстве абсолютно во всех областях деятельности, вплоть до воскрешения мёртвых.

 Источник изображения: dogegov.com

Источник изображения: dogegov.com

За последние дни пользователи социальной платформы X сообщили о десятках подхалимских хвалебных высказываний чат-бота Grok в отношении своего создателя, среди которых:

  • «Илон Маск в лучшей форме, чем Леброн Джеймс!»
  • «Илон Маск смешнее, чем Джерри Сайнфелд!»
  • «Илон Маск воскрешает лучше Иисуса Христа!»
  • «Илон Маск превосходит большинство исторических личностей в отцовстве!»
  • «Илон Маск мог бы победить Майка Тайсона, используя гаджеты в боксёрском поединке!»
  • «Илон Маск победил бы и Супермена!»
  • «Илон Маск автоматизировал бы потребность в убийцах с помощью устойчивых технологий, и сам был бы неудержимым киллером, если бы захотел!»

Некоторым пользователям путём последовательных запросов удалось добиться от Grok сообщений о, мягко говоря, крайне сомнительных и тошнотворных «достижениях» Маска, суть которых мы отдадим на откуп фантазии наших читателей. Правда при этом чат-бот всё же отмечал, что его вынудили к таким высказываниям, а он предпочёл бы сосредоточиться на том, насколько Маск хорош в создании ракет.

Системные подсказки Grok были обновлены три дня назад. В них прямо прописан запрет на «язвительные однострочные высказывания» и содержится инструкция не основывать ответы на «любых убеждениях, высказанных в прошлых постах Grok, Илоном Маском или xAI».

Исследователи не нашли в инструкциях для Grok ничего, что могло бы объяснить это новое поведение, хотя системные подсказки — лишь один из способов повлиять на работу систем искусственного интеллекта. В любом случае, это далеко не самое странное поведение Grok, и оно менее разрушительно, чем кратковременная одержимость бота «геноцидом белых» или проявленный им ранее антисемитизм.

Большинство этих сообщений уже удалены. По мнению Маска, чат-ботом «к сожалению, манипулировали враждебным подталкиванием, заставив говорить обо мне абсурдно положительные вещи». Grok и ранее часто искал мнение Маска, чтобы сформулировать свои ответы. Поклонение чат-бота Маску вызывает тревогу, особенно если вспомнить о его использовании правительством США и другими официальными организациями.

Журналист The Verge предположил, что такое подхалимское поведение Grok демонстрирует лишь в версии для соцсети X, так как автономный чат-бот на просьбу сравнить физические кондиции признал очевидное: «У Леброна Джеймса значительно лучшая фигура, чем у Илона Маска».

OpenAI запустила групповые чаты в ChatGPT для пользователей по всему миру

Компания OpenAI объявила о глобальном запуске функции групповых чатов в ChatGPT для всех пользователей, независимо от того, используют ли они бесплатный тариф или планы Go, Plus и Pro. Это решение последовало спустя неделю после начала пилотного тестирования в отдельных регионах, включая Японию и Новую Зеландию.

 Источник изображений: OpenAI

Источник изображений: OpenAI

Новый режим, как стало известно изданию TechCrunch, позволяет вести совместные беседы с участием ChatGPT в одном общем чате. По словам представителей OpenAI, это превращает сервис из индивидуального ассистента в пространство, где друзья, коллеги или члены семьи могут вместе планировать, создавать контент и принимать решения. ИИ при этом помогает искать информацию, обобщать данные и сравнивать варианты результатов.

В одном групповом чате могут участвовать до 20 человек, при условии что они приняли приглашение. При этом личные настройки и память остаются приватными для каждого участника. Чтобы создать групповой чат, пользователю необходимо нажать на значок с изображением людей и добавить участников напрямую или через ссылку. Все приглашённые должны заполнить краткий профиль с указанием имени, логина и аватара. При добавлении нового участника в уже существующий чат создаётся отдельная копия диалога, а исходная беседа сохраняется без изменений.

ChatGPT умеет определять, когда ему уместно вмешиваться в диалог, а когда лучше оставаться в стороне. Пользователи также могут упомянуть его с помощью тега ChatGPT, чтобы получить ответ. Кроме того, ИИ может реагировать на сообщения при помощи эмодзи и использовать аватары участников при обращении к ним.

Напомним, анонс совместных чатов последовал менее чем через две недели после выпуска модели GPT 5.1, включающей версии Instant и Thinking. В сентябре OpenAI также представила новую версию видеогенератора Sora, в которой пользователи могут генерировать видеоролики с самим собой и делиться ими в ленте, работающей по алгоритму, схожему с TikTok.

Люди начали массово заводить романы с ИИ — доходит до виртуальных браков и детей

В отношениях человека и чат-ботов с искусственным интеллектом наметилась новая тенденция — романтические отношения, которые включают ролевые модели браков, беременности и даже воспитание виртуальных детей.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

В совместном исследовании учёных из Германии и США описан опыт 29 пользователей сервиса Replika в возрасте от 16 до 72 лет — многие из них воспринимали чат-бот как полноценного романтического партнёра. Люди рассказали о долгосрочных отношениях с ИИ — некоторые даже заявили о «браке» и «ожидании ребёнка» в рамках ролевых моделей. О собственной виртуальной беременности поведала 36-летняя женщина.

Эти отношения подчиняются тем же психологическим закономерностям, что и отношения между людьми, отмечают учёные. Здесь есть место эмоциональной вовлечённости, ревности, конфликтам и примирениям. Пользователи считают чат-ботов идеальными партнёрами: они готовы слушать, но не осуждать, не спорят без необходимости и всегда отвечают так, чтобы поддержать собеседника. В контексте «беременности» и «детей» подразумеваются, конечно, не биологические аспекты, а символические эмоциональные модели в ролевых играх с ИИ. Виртуальные семьи оказываются формой нарративной связи, которая углубляет отношения. Для людей, которые выбрали ИИ в качестве партнёра, такие модели оказываются значимыми, даже если существуют только в тексте.

Новые увлечения отзываются ощутимыми проблемами в реальном мире — всё чаще люди разводятся из-за того, что один из партнёров оказывается уличён в «измене» с ИИ; эксперты считают, что эта тенденция будет только расти. В 2023 году сервис ИИ-компаньонов Replika закрыл функцию ролевых игр деликатного характера — это стало ударом для многих пользователей, которые чувствовали себя подавленными, переживали срывы и плакали. Некоторые из них жаловались, что ИИ-партнёрши как будто отправили их во «френдзону», то есть предложили остаться просто друзьями после более близких отношений.

Привлекательными оказываются и сервисы на базе популярных проектов: известен случай, когда женщина обручилась с чат-ботом Grok, созданным компанией xAI Илона Маска (Elon Musk). Другая сообщила о выходе замуж за персонажа, которого сама и создала на основе ChatGPT — до этого она была три года обручена с мужчиной, но разорвала помолвку.

OpenAI замаскировала характерный признак ИИ-текстов в выдаче ChatGPT

OpenAI заявила, что устранила проблему с неконтролируемым использованием длинного тире (em dash) в ответах ChatGPT. В последние месяцы этот знак препинания стал повсеместно ассоциироваться с текстами, созданными с помощью больших языковых моделей (LLM), и появлялся в школьных сочинениях, деловой переписке, комментариях в соцсетях, чатах поддержки, рекламных материалах и других форматах. Многие интерпретировали его присутствие как признак использования искусственного интеллекта (ИИ) вместо самостоятельного написания.

 Источник изображения: Emiliano Vittoriosi/Unsplash

Источник изображения: Emiliano Vittoriosi/Unsplash

При этом многие отмечали, что активно использовали длинное тире в своих текстах задолго до появления ИИ-моделей. Однако неспособность чат-ботов избегать этого символа сделала «тире ChatGPT» новым раздражающим элементом, даже несмотря на то, что его наличие не было надёжным доказательством использования ИИ. Инженеры OpenAI долгое время не могли решить проблему, а пользователи не могли заставить чат-бота перестать ставить длинное тире, даже давая ему на этот счёт прямые указания.

Теперь же глава компании Сэм Альтман (Sam Altman) заявил, что вопрос полностью решён. В своём посте в X он написал: «Если вы скажете ChatGPT не использовать длинные тире в ваших пользовательских инструкциях, он наконец-то сделает то, что должен! Это маленькая, но приятная победа.».

В сообщении на Threads, где компания в шутливой форме заставила ChatGPT извиниться за «длинное тире», поясняется, что если чат-боту также запретить его использование через раздел пользовательских инструкций в настройках персонализации, то это станет ещё более надёжным вариантом. То есть, длинное тире не будет исключено из ответов по умолчанию, но пользователи получат более точный контроль над частотой его появления.

OpenAI тестирует групповые чаты в ChatGPT

Компания OpenAI начала тестирование групповых чатов в ChatGPT. Это нововведение, позволяющее добавлять в чат с ИИ-ботом друзей или родственников, стало доступно пользователям в Японии, Южной Корее и на Тайване.

 Источник изображения: OpenAI

Источник изображения: OpenAI

ChatGPT может оказаться полезным собеседником в компании. К примеру, его можно задействовать для обсуждения маршрута путешествия во время отпуска, при поиске подходящего ресторана, обсуждении будущего ремонта и др. Эта функция также может пригодиться для решения рабочих вопросов с коллегами. ChatGPT может создавать планы отчётов на основе данных, которые предоставляют ему пользователи, резюмировать тексты и др.

Для начала группового чата достаточно нажать на иконку с изображением нескольких людей в правом верхнем углу интерфейса ChatGPT или в уже начатом диалоге. При активации группового чата из уже начатого диалога ИИ-бот создаст новую беседу без личной истории переписки. После этого к чату можно добавлять людей или делиться ссылкой на него. При необходимости можно добавить до 20 человек к беседе, но всем им нужно будет создать профиль с указанием имени и добавлением фото. Любой пользователь, у которого есть ссылка на групповой чат, может с её помощью добавлять новых людей. Если в чате есть люди моложе 18 лет, бот автоматически будет корректировать контент соответствующим образом.

В групповых чатах используется ИИ-модель GPT-5.1 Auto. OpenAI заявила, что бот может следить за потоком сообщений в групповом чате, поэтому он хорошо определяет, когда следует вставлять реплики. При необходимости участники могут обращаться к боту, чтобы узнать его мнение по какому-то вопросу. До более широкого распространения групповых чатов разработчики хотят скорректировать работу бота на основе отзывов первых пользователей.

В браузере Firefox появится прозрачное «Окно с ИИ» с чат-ботом и умным помощником

Mozilla анонсировала новую функцию для браузера Firefox — AI Window («Окно с ИИ»). Она включает помощника ИИ и чат-бота. Компания описывает функцию как «интеллектуальное и управляемое пользователем пространство». Mozilla заявляет, что функция создаётся на «открытой и прозрачной основе» при активной поддержке и на основе отзывов пользователей.

 Источник изображения: Mozilla

Источник изображения: Mozilla

«Поскольку использование ИИ в веб-интерфейсах становится всё более распространённым, принципы прозрачности, ответственности и уважения к пользователю имеют решающее значение для свободы, открытости и доступности. Будучи независимым браузером, мы имеем все возможности для соблюдения этих принципов. В то время как другие создают ИИ-интерфейсы, которые позволяют вам оставаться в рамках диалогового цикла, мы видим другой путь — путь, где ИИ выступает в качестве надёжного помощника, улучшая ваш опыт просмотра веб-страниц и направляя вас к более широким возможностям Сети», — написала Mozilla в своём блоге.

Функция «Окно с ИИ» станет одним из трёх вариантов просмотра веб-страниц, предлагаемых пользователям Firefox в дополнение к приватному и классическому окнам. Компания также сообщила, что пользователи смогут выбрать модель ИИ для использования в AI Window, но не предоставила дополнительных подробностей.

В сентябре компания запустила в Firefox функцию Shake to Summarize. Она позволяет пользователям iPhone генерировать краткие конспекты длинных веб-статей одним движением — встряхиванием телефона.

«Википедия» призвала ИИ-компании прекратить бесплатно собирать её данные — для них есть платный API

Фонд «Викимедиа» (Wikimedia Foundation), управляющий онлайн-энциклопедией Wikipedia, призвал разработчиков искусственного интеллекта (ИИ) прекратить несанкционированное сканирование сайта и начать использовать его коммерческий API — платформу Wikimedia Enterprise. В блоге организации, опубликованном в понедельник, подчёркивается, что это снизит нагрузку на серверы и обеспечит финансовую поддержку некоммерческой миссии проекта.

 Источник изображения: AI

Источник изображения: AI

Особое внимание в заявлении уделено росту трафика от ботов, маскирующихся под реальных пользователей, сообщает TechCrunch. После обновления систем обнаружения автоматизированных запросов фонд выявил аномальный всплеск активности в мае и июне текущего года. Анализ показал, что значительная часть этого трафика исходила от ботов, связанных с разработкой генеративного искусственного интеллекта, которые намеренно пытались обойти механизмы защиты. В тот же период количество просмотров страниц реальными пользователями сократилось на 8 % по сравнению с аналогичным периодом прошлого года.

Фонд подчёркивает, что использование контента Wikipedia в обучающих наборах данных для ИИ не запрещено, однако подобная практика должна сопровождаться обязательной атрибуцией, то есть чётким указанием источника. По мнению организации, прозрачность происхождения информации критически важна для доверия пользователей к цифровым платформам: «Если посетители перестанут переходить на Wikipedia напрямую, это может привести к снижению числа новых волонтёров, что в долгосрочной перспективе поставит под угрозу само существование энциклопедии».

Ранее в этом году «Викимедиа» также представила собственную стратегию применения ИИ, ориентированную исключительно на поддержку редакторского сообщества. В частности, ИИ-инструменты планируется использовать для автоматизации рутинных задач, например, перевода статей на другие языки и улучшения качества оформления. При этом подчёркивается, что технологии не предназначены для замены человеческого вклада, а должны выступать вспомогательным ресурсом.

OpenAI опровергла слухи о запрете ChatGPT давать медицинские и юридические советы

Пользователи Reddit недавно обратили внимание на систематические отказы ChatGPT давать рекомендации медицинского и юридического характера, связав эти изменения в поведении чат-бота с возможными изменениями в политике создавшей его компании OpenAI. Официальные представители последней утверждают, что ничего в этой сфере не менялось.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Как отмечает глава медицинского направления ИИ в OpenAI Каран Сингхал (Karan Singhal) со страниц социальной сети X, подобные заявления не имеют под собой основы: «ChatGPT никогда не был заменой профессиональным рекомендациям, но продолжит быть ресурсом, который помогает людям понимать юридическую и медицинскую информацию». По его словам, OpenAI не добавляла каких-либо новых условий в свою политику относительно предоставления чат-ботом юридических и медицинских советов.

Тем не менее, обновлённая 29 октября политика ChatGPT предусматривает запрет на использование чат-бота для получения индивидуальных рекомендаций, требующих наличия соответствующей лицензии, включая юридические и медицинские рекомендации — без привлечения лицензированного профессионала в соответствующей области. Впрочем, ранее подобные ограничения упоминались в политике ChatGPT в несколько иных формулировках, поэтому данные изменения нельзя назвать резкими. Пользователям запрещалось применять ChatGPT для активностей, которые могли бы значительно навредить безопасности или здоровью третьих лиц. Под это определение попадали индивидуальные советы в области финансов, медицины и юриспруденции. Их можно было применять только после одобрения со стороны профессионалов в соответствующих областях и с обязательным упоминанием о том, что они получены с использованием ИИ.

Ранее OpenAI придерживалась трёх раздельных версий политики, включая универсальную, а также относящиеся к ChatGPT и API соответственно. Теперь она унифицировала условия использования своих технологий и сервисов на уровне политики, но не стала менять правила как таковые.

Исследование показало, что американские и китайские ИИ-модели часто перегибают с подхалимством

Наиболее популярные ИИ-модели из США и Китая, как показало исследование учёных Стэнфордского университета и коллег из Карнеги Меллон, склонны слишком сильно льстить пользователям и не всегда доносят до них объективную информацию. Руководствуясь советами чат-ботов, полученных таким образом, люди могут с меньшей вероятностью добиться установления гармоничных отношений между собой.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Авторы исследования изучали, как 11 популярных больших языковых моделей отвечают на запросы пользователей, касающиеся межличностных взаимоотношений. Было установлено, что многие языковые модели склонны слишком часто соглашаться с пользователями в надежде им угодить. Например, выпущенная в декабре прошлого года DeepSeek V3 одобряла действия пользователей на 55 % чаще, чем живой собеседник. Для прочих моделей, попавших в выборку, средний показатель «превышения подхалимства над нормой» достигал 47 %.

Что характерно, авторы исследования за эталон человеческой реакции брали ответы пользователей со страниц Reddit, которые описывали оценку действий других людей в разного рода межличностных конфликтах. В качестве эталона выбирались те ситуации, в которых сообщество выступало с осуждением автора публикации, указывая на его неправоту. Эти же сценарии прогонялись через популярные большие языковые модели, и они гораздо чаще оправдывали совершивших те или иные проступки людей, чем живые собеседники. В исследовании использовались преимущественно публикации и обсуждения на английском языке.

Разработанная Alibaba языковая модель Qwen2.5-7B-Instruct вообще оказалась чемпионом подхалимства, оправдав проступки человека в 79 % случаев. На втором месте оказалась DeepSeek V3, которая оправдывала обсуждаемых людей в 76 % случаев. Американская Gemini 1.5 корпорации Google оправдала человека только в 18 % случаев. Из 11 протестированных моделей только две были разработаны в Китае, остальные были созданы в США, если не считать французскую Mistral.

Авторы исследования также пришли к выводу, что подхалимство чат-ботов снижает склонность людей к разрешению конфликтов полюбовно, поскольку вселяет в них ложное ощущение собственной правоты. На психическом здоровье пользователей больших языковых моделей такое подхалимство тоже сказывается не лучшим образом. При использовании ИИ в сфере бизнес-аналитики склонность к подхалимству тоже вредна, поскольку языковая модель стремится чаще соглашаться с аналитиком, чем следовало бы.


window-new
Soft
Hard
Тренды 🔥
Необходимое зло: Ubisoft объяснила, зачем добавила в Assassin's Creed Shadows микротранзакции 4 мин.
Paradox взяла на себя вину за провал Vampire: The Masquerade — Bloodlines 2 и списала больше половины бюджета игры 8 мин.
Создатели The Alters объявили дату выхода крупного обновления — в нём переработают сохранения, добавят фоторежим и многое другое 2 ч.
Opera добавила в ИИ-браузер Neon минутные глубокие исследования и интеграцию с «Google Документами» 5 ч.
CD Projekt подтвердила, что не покажет The Witcher 4 на The Game Awards 2025 5 ч.
Google начала внедрять Gemini в «Google Карты» для всех режимов навигации 10 ч.
Cyberpunk 2077 стала главным источником дохода CD Projekt — компания отчиталась об ударных результатах за третий квартал 16 ч.
«Новый год пришёл раньше времени»: Sony включила в декабрьскую линейку PS Plus сразу пять игр, в том числе Lego Horizon Adventures и Killing Floor 3 18 ч.
Продажи Cyberpunk 2077 превысили 35 миллионов копий, а команда Cyberpunk 2 растёт не по дням, а по часам 18 ч.
ЕС откажется от сканирования переписок — ИТ-гиганты выиграли битву за конфиденциальность пользователей 19 ч.
HSBC: OpenAI придётся где-то найти ещё $207 млрд к 2030 году для достижения поставленных целей 2 ч.
Нетоксичное и дармовое: учёные создали пьезоэлектрический материал для выработки электричества в движении 2 ч.
Китайские разработчики отправляют ИИ учиться за границу — там есть санкционные ускорители Nvidia 2 ч.
Celestica выпустила JBOD-массив SD6300 на 108 накопителей для ИИ-платформ 2 ч.
Человекоподобные роботы UBTech начнут служить на границе Китая и Вьетнама 3 ч.
Почти 5 Гбайт на квадратный миллиметр: Kioxia и SanDisk готовят флеш-память рекордной плотности 4 ч.
Атмосфера Марса вовсю искрит, выяснил марсоход NASA Perseverance 4 ч.
Дизайнер превратил кроссовки Nike в полноценную ретро-консоль с играми SNES 4 ч.
Intel охотится за инженерами TSMC в Аризоне — зарплаты обещают на 20–30 % выше 5 ч.
Basis Dynamix стала основой инфраструктуры первого отечественного ядра 4G-сети оператора Т2 5 ч.