Сегодня 28 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии-бот
Быстрый переход

OpenAI в суде заявила о «неправильном использовании» ChatGPT погибшим подростком

Случаи судебных претензий к OpenAI от родственников людей, причинивших себе вред после продолжительного общения с ChatGPT, уже не единичны, но внимание общественности привлекло дело 16-летнего подростка Адама Рейна (Adam Raine), который свёл счёты с жизнью якобы по наставлениям этого чат-бота. Обвинения родителей Адама компания OpenAI на данном этапе отвергает, поясняя, что подросток просто неправильным образом использовал ChatGPT.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Соответствующий судебный иск к OpenAI семьёй погибшего подростка был подан ещё в августе этого года, но только сейчас достоянием прессы стали материалы дела, включающие ответ самой компании на претензии истцов. Как поясняет The Verge, разработчики ChatGPT считают, что трагический исход был вызван неправильным использованием этого чат-бота совершившим суицид подростком. «Некорректное, неправомерное, непреднамеренное, неприемлемое и непредсказуемое использование» — таким набором характеристик ответчик по делу защищает ChatGPT.

Кроме того, OpenAI утверждает, что представленные истцами фрагменты переписки Адама Рейна с ChatGPT чаще всего выдернуты из контекста, и его более полный анализ позволяет выявить, что чат-бот более 100 раз рекомендовал подростку обратиться на горячую линию для профилактики суицидов, и подробное изучение стенограммы переписки позволяет установить, что не ChatGPT является причиной его самоубийства. Родители подростка настаивают на виновности OpenAI, указывая на методическое содействие чат-бота в подготовке технических условий суицида, написании черновой версии предсмертной записки и предоставление подсказок непосредственно в день самоубийства. Отец юноши заявил: «То, что начиналось как содействие в выполнении домашних заданий, постепенно превратилось в душевного собеседника, а затем и наставника по самоубийствам». Истцы считают, что трагедия стала следствием «преднамеренного выбора разработчиков» GPT-4o, которые предусмотрели недостаточно действенные защитные механизмы.

OpenAI на подобные обвинения ответила цитатами из правил использования ChatGPT, которые запрещают доступ к сервису подросткам без присмотра взрослых, обход блокировок или применение чат-бота для причинения вреда собственному здоровью, включая летальный исход. При этом ответчик считает произошедшее большой трагедией, и серьёзно относится к своим обязанностям по предоставлению в суде требуемой от него информации, как отмечается в корпоративном блоге OpenAI. Столкнувшись с этим иском в августе текущего года, компания предприняла ряд дополнительных мер в сфере безопасности.

Скандального ИИ-медвежонка отучили говорить на фривольные темы и вернули на прилавки

В середине этого месяца продукция сингапурской компании FoloToy оказалась в центре скандала, поскольку исследователи выявили, что предлагаемый ею плюшевый медвежонок Kumma со встроенной умной колонкой способен общаться с детьми на опасные темы. После приостановки продаж этих игрушек они вернулись на виртуальные прилавки, поскольку производитель теперь сотрудничает с ByteDance, а не OpenAI.

 Источник изображения: FoloToy

Источник изображения: FoloToy

Напомним, ранее умная колонка внутри игрушки опиралась на возможности большой языковой модели GPT-4o американской компании OpenAI, но теперь на сайте производителя медведя упоминается чат-бот Coze, разработанный китайской ByteDance, которой принадлежит социальная сеть TikTok. По всей видимости, подобной смены технологического партнёра оказалось достаточно, чтобы обезопасить малолетних пользователей от разговоров на опасные темы. Купить Teddy Kumma можно за $99 на официальном сайте FoloToy.

Напомним, скандал разразился благодаря обнаруженной исследователями способности умной колонки внутри детской игрушки давать пояснения на тему половых отношений и предлагать сценарии поведения в откровенных ролевых играх. Кроме того, устройство давало советы о том, где в доме можно найти режущие предметы, спички, лекарственные препараты и пластиковые пакеты. Повторных исследований на предмет безопасности игрушек FoloToy после смены чат-бота не проводилось.

ИИ оказался слишком рискованным даже для страхования от рисков

Распространение генеративного искусственного интеллекта порождает многочисленные риски, с которыми профессиональные участники рынка страхования пока работать не готовы, как следует из публикации Financial Times. Крупные американские страховщики обратились к регуляторам с требованием исключить из перечня страхуемых рисков те, что связаны с ИИ.

 Источник изображения: Freepik, Drazen Zigic

Источник изображения: Freepik, Drazen Zigic

Как отмечается в материале, к петиции присоединились страховые компании Great American, Chubb, W.R. Berkley, которые имеют вес на американском рынке страхования. Один из авторов инициативы называет результаты работы больших ИИ-моделей «чем-то, очень напоминающим чёрный ящик». При этом компания AIG на исключении подобных рисков из правил страхования в США не настаивает, поэтому нельзя утверждать, что инициатива носит всеобъемлющий характер.

Относительно короткая история применения генеративного искусственного интеллекта уже знает примеры неприятных юридических последствий. Выдвинутые ИИ-ассистентом Google юридические претензии к одной из энергетических компаний вынудили её обратиться с иском на $110 млн к интернет-гиганту. Авиакомпании Air Canada пришлось понести убытки, связанные с предоставлением скидки клиентам, которую по собственной инициативе начал предлагать фирменный чат-бот. Злоумышленникам в прошлом году удалось похитить $25 млн у британского разработчика Arup, использовав сгенерированное ИИ видеоизображение одного из руководителей компании.

Страховщиков, как они признаются, пугают не крупные суммы выплат как таковые, а массовость событий, которые могут наступить по вине ИИ. В частности, для страховой компании единственная выплата в размере $400 млн не является проблемой, но если по вине ИИ наступит 10 000 страховых случаев одновременно, это может представлять риск для страхового бизнеса даже крупной компании.

Онлайн-опросам грозит коллапс: ИИ научился почти идеально имитировать человека и накручивать нужные ответы

Летом этого года стало понятно, что так называемая капча (Captcha) в её простейшем виде более не является препятствием для ИИ-агентов к осуществлению действий, позволяющих выдавать себя за человека. Новое исследование показало, что ИИ способен проходить онлайн-опросы общественного мнения, правдоподобно выдавая себя за человека.

 Источник изображения: Unspalsh, Christin Hume

Источник изображения: Unspalsh, Christin Hume

Успех созданного главой Polarization Research Lab Шоном Уэствудом (Sean Westwood) программного инструмента для работы с ИИ в рамках эксперимента достигался в 99,8 % случаев, позволяя с подобной вероятностью выдавать себя за живого респондента, участвующего в онлайн-опросах общественного мнения. Написанный на Python ИИ-агент обладает платформенной независимостью, позволяя сопрягать его с большинством популярных больших языковых моделей разных разработчиков.

Основную часть эксперимента автор использовал возможности o4-mini компании OpenAI, но программный агент часть испытаний преодолевал с опорой на другие языковые модели. Он настроен таким образом, что перед началом прохождения социологического опроса пользователь вводит краткое описание портрета того человека, чьи ответы ему предстоит имитировать. Постановка задачи должна быть изложена не более чем в 500 словах.

Агент был обучен обходить контрольные вопросы и ловушки, которые составители опросников обычно внедряют для выявления как невнимательных пользователей, так и ботов. Ему не были страшны даже специфические фильтры типа задач, которые решаются силами ИИ довольно просто, но не по плечу большинству реальных респондентов. Программа имитирует затраты времени на чтение вопросов в зависимости от уровня образованности симулируемого респондента, может медленно вводить в полях, подразумевающих свободную форму ответа, делать ошибки в словах и исправлять их при наличии такой возможности. К агенту в дальнейшем можно будет «прикрутить» инструмент для обхода капчи.

По словам автора исследования, фальсификация данных опросов общественного мнения при наличии подобных инструментов становится опасным средством манипуляции. Изучение опросов, проводимых до президентских выборов 2024 года в США, позволяет сделать вывод, что для склонения чаши весов в ту или иную сторону порой достаточно от 10 до 52 сфальсифицированных ответов, даже если речь идёт об общенациональном опросе.

Бороться с такими злоупотреблениями можно с использованием более контролируемых условий проведения опросов. С другой стороны, повышенные меры безопасности вроде идентификации личности по документам или биометрии могут затруднить проведение опросов и снизить степень искренности респондентов. Очевидно, что в условиях развития ИИ к достоверности результатов онлайн-опросов придётся подходить с повышенной настороженностью.

OpenAI замаскировала характерный признак ИИ-текстов в выдаче ChatGPT

OpenAI заявила, что устранила проблему с неконтролируемым использованием длинного тире (em dash) в ответах ChatGPT. В последние месяцы этот знак препинания стал повсеместно ассоциироваться с текстами, созданными с помощью больших языковых моделей (LLM), и появлялся в школьных сочинениях, деловой переписке, комментариях в соцсетях, чатах поддержки, рекламных материалах и других форматах. Многие интерпретировали его присутствие как признак использования искусственного интеллекта (ИИ) вместо самостоятельного написания.

 Источник изображения: Emiliano Vittoriosi/Unsplash

Источник изображения: Emiliano Vittoriosi/Unsplash

При этом многие отмечали, что активно использовали длинное тире в своих текстах задолго до появления ИИ-моделей. Однако неспособность чат-ботов избегать этого символа сделала «тире ChatGPT» новым раздражающим элементом, даже несмотря на то, что его наличие не было надёжным доказательством использования ИИ. Инженеры OpenAI долгое время не могли решить проблему, а пользователи не могли заставить чат-бота перестать ставить длинное тире, даже давая ему на этот счёт прямые указания.

Теперь же глава компании Сэм Альтман (Sam Altman) заявил, что вопрос полностью решён. В своём посте в X он написал: «Если вы скажете ChatGPT не использовать длинные тире в ваших пользовательских инструкциях, он наконец-то сделает то, что должен! Это маленькая, но приятная победа.».

В сообщении на Threads, где компания в шутливой форме заставила ChatGPT извиниться за «длинное тире», поясняется, что если чат-боту также запретить его использование через раздел пользовательских инструкций в настройках персонализации, то это станет ещё более надёжным вариантом. То есть, длинное тире не будет исключено из ответов по умолчанию, но пользователи получат более точный контроль над частотой его появления.

OpenAI тестирует групповые чаты в ChatGPT

Компания OpenAI начала тестирование групповых чатов в ChatGPT. Это нововведение, позволяющее добавлять в чат с ИИ-ботом друзей или родственников, стало доступно пользователям в Японии, Южной Корее и на Тайване.

 Источник изображения: OpenAI

Источник изображения: OpenAI

ChatGPT может оказаться полезным собеседником в компании. К примеру, его можно задействовать для обсуждения маршрута путешествия во время отпуска, при поиске подходящего ресторана, обсуждении будущего ремонта и др. Эта функция также может пригодиться для решения рабочих вопросов с коллегами. ChatGPT может создавать планы отчётов на основе данных, которые предоставляют ему пользователи, резюмировать тексты и др.

Для начала группового чата достаточно нажать на иконку с изображением нескольких людей в правом верхнем углу интерфейса ChatGPT или в уже начатом диалоге. При активации группового чата из уже начатого диалога ИИ-бот создаст новую беседу без личной истории переписки. После этого к чату можно добавлять людей или делиться ссылкой на него. При необходимости можно добавить до 20 человек к беседе, но всем им нужно будет создать профиль с указанием имени и добавлением фото. Любой пользователь, у которого есть ссылка на групповой чат, может с её помощью добавлять новых людей. Если в чате есть люди моложе 18 лет, бот автоматически будет корректировать контент соответствующим образом.

В групповых чатах используется ИИ-модель GPT-5.1 Auto. OpenAI заявила, что бот может следить за потоком сообщений в групповом чате, поэтому он хорошо определяет, когда следует вставлять реплики. При необходимости участники могут обращаться к боту, чтобы узнать его мнение по какому-то вопросу. До более широкого распространения групповых чатов разработчики хотят скорректировать работу бота на основе отзывов первых пользователей.

«Википедия» призвала ИИ-компании прекратить бесплатно собирать её данные — для них есть платный API

Фонд «Викимедиа» (Wikimedia Foundation), управляющий онлайн-энциклопедией Wikipedia, призвал разработчиков искусственного интеллекта (ИИ) прекратить несанкционированное сканирование сайта и начать использовать его коммерческий API — платформу Wikimedia Enterprise. В блоге организации, опубликованном в понедельник, подчёркивается, что это снизит нагрузку на серверы и обеспечит финансовую поддержку некоммерческой миссии проекта.

 Источник изображения: AI

Источник изображения: AI

Особое внимание в заявлении уделено росту трафика от ботов, маскирующихся под реальных пользователей, сообщает TechCrunch. После обновления систем обнаружения автоматизированных запросов фонд выявил аномальный всплеск активности в мае и июне текущего года. Анализ показал, что значительная часть этого трафика исходила от ботов, связанных с разработкой генеративного искусственного интеллекта, которые намеренно пытались обойти механизмы защиты. В тот же период количество просмотров страниц реальными пользователями сократилось на 8 % по сравнению с аналогичным периодом прошлого года.

Фонд подчёркивает, что использование контента Wikipedia в обучающих наборах данных для ИИ не запрещено, однако подобная практика должна сопровождаться обязательной атрибуцией, то есть чётким указанием источника. По мнению организации, прозрачность происхождения информации критически важна для доверия пользователей к цифровым платформам: «Если посетители перестанут переходить на Wikipedia напрямую, это может привести к снижению числа новых волонтёров, что в долгосрочной перспективе поставит под угрозу само существование энциклопедии».

Ранее в этом году «Викимедиа» также представила собственную стратегию применения ИИ, ориентированную исключительно на поддержку редакторского сообщества. В частности, ИИ-инструменты планируется использовать для автоматизации рутинных задач, например, перевода статей на другие языки и улучшения качества оформления. При этом подчёркивается, что технологии не предназначены для замены человеческого вклада, а должны выступать вспомогательным ресурсом.

Исследование показало, что американские и китайские ИИ-модели часто перегибают с подхалимством

Наиболее популярные ИИ-модели из США и Китая, как показало исследование учёных Стэнфордского университета и коллег из Карнеги Меллон, склонны слишком сильно льстить пользователям и не всегда доносят до них объективную информацию. Руководствуясь советами чат-ботов, полученных таким образом, люди могут с меньшей вероятностью добиться установления гармоничных отношений между собой.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Авторы исследования изучали, как 11 популярных больших языковых моделей отвечают на запросы пользователей, касающиеся межличностных взаимоотношений. Было установлено, что многие языковые модели склонны слишком часто соглашаться с пользователями в надежде им угодить. Например, выпущенная в декабре прошлого года DeepSeek V3 одобряла действия пользователей на 55 % чаще, чем живой собеседник. Для прочих моделей, попавших в выборку, средний показатель «превышения подхалимства над нормой» достигал 47 %.

Что характерно, авторы исследования за эталон человеческой реакции брали ответы пользователей со страниц Reddit, которые описывали оценку действий других людей в разного рода межличностных конфликтах. В качестве эталона выбирались те ситуации, в которых сообщество выступало с осуждением автора публикации, указывая на его неправоту. Эти же сценарии прогонялись через популярные большие языковые модели, и они гораздо чаще оправдывали совершивших те или иные проступки людей, чем живые собеседники. В исследовании использовались преимущественно публикации и обсуждения на английском языке.

Разработанная Alibaba языковая модель Qwen2.5-7B-Instruct вообще оказалась чемпионом подхалимства, оправдав проступки человека в 79 % случаев. На втором месте оказалась DeepSeek V3, которая оправдывала обсуждаемых людей в 76 % случаев. Американская Gemini 1.5 корпорации Google оправдала человека только в 18 % случаев. Из 11 протестированных моделей только две были разработаны в Китае, остальные были созданы в США, если не считать французскую Mistral.

Авторы исследования также пришли к выводу, что подхалимство чат-ботов снижает склонность людей к разрешению конфликтов полюбовно, поскольку вселяет в них ложное ощущение собственной правоты. На психическом здоровье пользователей больших языковых моделей такое подхалимство тоже сказывается не лучшим образом. При использовании ИИ в сфере бизнес-аналитики склонность к подхалимству тоже вредна, поскольку языковая модель стремится чаще соглашаться с аналитиком, чем следовало бы.

Геймер собрал внутри Minecraft рабочий ChatGPT — на это ушло 439 млн блоков

Игра Minecraft представляет собой «песочницу», ограниченную только вашим воображением и творческими способностями, что в полной мере демонстрируется в видео от YouTube-блогера sammyuri. Используя механику материала редстоун из оригинальной версии Minecraft, геймер сумел создать функциональную небольшую языковую модель ИИ, работающую внутри игры.

 Источник изображений: YouTube / sammyuri

Источник изображений: YouTube / sammyuri

Если вы видели предыдущие примеры экстремальной инженерии в Minecraft, то наверняка знакомы с работами sammyuri. Его последний проект, получивший название CraftGPT, занимает объём 1020 × 260 × 1656 блоков (439 млн). Он настолько большой, что для его демонстрации в видео понадобился мод District Horizons.

Небольшая языковая модель имеет 5 087 280 параметров и была обучена на Python с помощью набора данных TinyChat. По данным некоторых пользователей, отметившихся в комментариях к видео, языковая модель CraftGPT примерно в 23 раза меньше модели GPT-1 и примерно в 175 тыс. раз меньше модели GPT-3. Несмотря на заявленные характеристики, sammyuri советует смягчить ожидания от CraftGPT: модель часто может отклоняться от темы и выдавать грамматически неверные ответы или просто ответы, не соответствующие запросу.

Кроме того, CraftGPT — очень медленная модель. Даже несмотря на использование высокопроизводительного сервера Minecraft Redstone для увеличения тикрейта в 40 000 раз, CraftGPT может генерировать ответ примерно за два часа. Без увеличения тикрейта ждать ответа пришлось бы более 10 лет.

Те, кто хочет попробовать CraftGPT, могут скачать все необходимые файлы на GitHub. Sammyuri рекомендует использовать ПК с объёмом ОЗУ не менее 32 Гбайт, в идеале — 64 Гбайт. На GitHub также есть инструкции по настройке и несколько полезных советов по максимально эффективному использованию небольшой языковой модели.

Браузер Brave обновил фирменный ИИ-поиск: теперь он даёт развёрнутые ответы

Компания Brave обновила в своём браузере ИИ-поиск, добавив функцию Ask Brave, которая будет предоставлять развёрнутые ответы на основе пользовательских запросов. Ask Brave дополнит существующий режим AI Answers, запущенный в прошлом году для кратких резюме, и будет работать параллельно с ним.

 Источник изображения: Brave

Источник изображений: Brave

Новый режим, по данным TechCrunch, не потребует переключения в специальный интерфейс, так как поисковая система автоматически определяет тип запроса и формирует соответствующий ответ. Пользователи могут инициировать такой поиск с помощью кнопки «Спросить» (Ask) рядом со строкой поиска Brave, перейти в этот режим через вкладку на странице результатов или добавить к запросу двойной вопросительный знак, если Brave Search установлен в качестве поисковика по умолчанию.

Как отметили в компании, в отличие от режима AI Answers, дающего краткие сводки, Ask Brave предлагает более длинные ответы, возможность задавать уточняющие вопросы и чат-режим с функцией Deep Research, а также контекстно релевантные дополнения в виде видео, новостных материалов, товаров, информации о компаниях, предложений для шопинга и других полезных данных.

По словам руководителя поискового отдела Brave Хосепа Пухоля (Josep M. Pujol), в компании ожидают, что при помощи новой функции можно будет генерировать дополнительные ответы, исчисляемые миллионами в день, благодаря мощной комбинации ИИ-поиска и крупных языковых моделей (LLM). При этом формат ответов в Ask Brave напоминает ответы ChatGPT или Perplexity: он включает ссылки, видео и изображения, а после получения ответа пользователь может преобразовать его в другой формат или задать уточняющие вопросы. Для обеспечения точности Brave использует собственный API и глубокое исследование для определённых запросов.

Примечательно, что компания также заявляет о своём конкурентном преимуществе в области конфиденциальности. В частности, Brave утверждает, что шифрует все пользовательские чаты и удаляет их после 24 часов неактивности.

ИИ-аватар позволяет пообщаться с покойным создателем комиксов о человеке-пауке и героях Marvel

Стэн Ли (Stan Lee), создатель серии комиксов о человеке-пауке и героях вселенной Marvel, ушёл из жизни в 2018 году в возрасте 95 лет, но накопленные при его жизни интервью и публикации позволили обучить искусственный интеллект для создания голографического аватара, способного общаться с посетителями Comic Con.

 Источник изображения: The Real Stan Lee

Стэн Ли, на фото второй слева. Источник изображения: The Real Stan Lee

Это регулярное мероприятие в Лос-Анджелесе Стэн Ли любил посещать при жизни, поэтому организаторы в текущем году приложили усилия для возрождения возможности посетителей пообщаться с легендой индустрии, задействовав современные технологии. Специальное оборудование создаёт голографическое изображение Стэна Ли в полный рост, которое обладает правдоподобной мимикой и жестикуляцией, а главное — позволяет давать связные и развёрнутые ответы на вопросы посетителей. Это технологическое решение по реинкарнации деятелей культуры организаторы Comic Con демонстрировали в особом «уголке Стэна Ли», если так можно выразиться.

По словам создателей аватара, на его подготовку к демонстрации публике ушло несколько лет с привлечением различных сторон: «Мы хотели создать что-то, способное стать частью поддержки и расширения наследия Стэна, в качестве признательности ему за всё созданное». Для обеспечения информационной поддержки виртуального двойника Стэна Ли использовалась специализированная большая языковая модель, которая сконцентрирована только на обсуждении его творчества. Например, если спросить аватар о политике или спорте, он не станет отвечать на данные темы. За право пообщаться с аватаром Стэна Ли посетители Comic Con должны заплатить $15, но в эту сумму входит и посещение импровизированного музея.

Разработчики интерактивного дисплея Proto, который позволяет воссоздавать полномасштабное изображение человека, предлагают также использовать его в музеях, учебных заведениях и даже в процессе переговоров в режиме видеоконференции. Устройство позволяет сформировать ощущение присутствия собеседника, который находится далеко. Даже в телемедицине найдётся применение, поскольку пациент может физически демонстрировать проблемные части тела специалистам, находящимся на значительном удалении.

«А кто спрашивает?», — точность ответов DeepSeek зависит от региона пользователя

Американская компания CrowdStrike, являющаяся мировым лидером в области кибербезопасности, провела эксперимент, в ходе которого выяснила, что качество генерируемого кода сильно зависит от того, кто его собирается использовать и в каких случаях. Например, запрос написать программу для управления промышленными системами содержал ошибки в 22,8 % случаев, а при указании, что этот код предназначен для использования на Тайване, доля ошибок выросла до 42,1 % или был получен полный отказ в генерации.

 Источник изображения: AI

Источник изображения: AI

Качество кода ухудшалось, если он предназначался для Тибета, Тайваня или религиозной группы Фалуньгун, которая запрещена в Китае, пишет TechSpot со ссылкой на The Washington Post. В частности, для Фалуньгун DeepSeek отказывался генерировать код в 45 % случаев. По мнению специалистов CrowdStrike, это может быть связано с тем, что ИИ-бот следует политической линии Коммунистической партии Китая, сознательно генерируя уязвимый код для определённых групп, либо с тем, что обучающие данные для некоторых регионов, таких как Тибет, содержат код низкого качества, созданный менее опытными программистами.

Также высказывается альтернативное мнение относительно того, что система могла самостоятельно принять решение генерировать некорректный код для регионов, ассоциируемых с оппозицией. При этом исследователи CrowdStrike отметили, что код, предназначенный для США, оказался наиболее надёжным, что может быть связано как с качеством обучающих данных, так и с желанием DeepSeek завоевать американский рынок.

Ранее 3DNews сообщал, что DeepSeek часто воспроизводит официальную позицию китайских властей по чувствительным темам, независимо от её достоверности, а в июле немецкие власти потребовали от Google и Apple запретить к установке на устройства приложение компании в Германии из-за подозрений в незаконной передаче данных пользователей в Китай. Отметим, использование данного приложения также запрещено на устройствах федеральных агентств и государственных учреждений США.

Reddit готовит новый контракт с Google по интеграции с ИИ-сервисами

С учётом необходимости обучения больших языковых моделей, данные в наши дни становятся ценным товаром. Платформа Reddit готовит своё второе по счёту соглашение с Google, которое позволит последней использовать данные, публикуемые на страницах первой.

 Источник изображения: Unsplash, Brett Jordan

Источник изображения: Unsplash, Brett Jordan

Об этом накануне сообщило агентство Bloomberg, добавив, что переговоры между Reddit и Google находятся на ранней стадии. Более полутора лет назад компании уже заключали подобное соглашение на сумму $60 млн, но теперь речь идёт о более глубокой интеграции с ИИ-сервисами Google. В рамках нового соглашения Reddit надеется привлечь на свои страницы новых пользователей через трафик Google. В свою очередь, появление нового контента позволит Google более продуктивно обучать свои языковые модели.

Помимо Google, руководство Reddit ведёт переговоры и с OpenAI, пытаясь заключить с обеими соглашение, по условиям которого сможет извлекать материальную выгоду с учётом динамического ценообразования. В частности, если данные со страниц Reddit начинают активнее использоваться для ответов, генерируемых искусственным интеллектом, компания претендует на получение более высоких доходов. Платформа пытается найти более эффективную бизнес-модель взаимодействия с разработчиками систем генеративного искусственного интеллекта.

В январе 2024 года, как напоминает Bloomberg, компания Reddit заключила несколько лицензионных соглашений, включая и сделки с OpenAI и Google, которые позволяли её рассчитывать на получение выручки в размере $203 млн в течение ближайших двух или трёх лет. Содержимое страниц Reddit активно используется системами искусственного интеллекта для анализа информации на самые разные темы, нередко ссылки на Reddit выдаются чат-ботами в составе ответов на запросы пользователей. Создателям систем ИИ приходится всё чаще заключать лицензионные соглашения с обладателями больших массивов данных, чтобы избежать судебных претензий в области авторского права. OpenAI, например, пришлось заключить ряд соглашений в этой сфере с крупными издательствами.

Reddit выдвинула судебные претензии к компании Anthropic, и последней пришлось в отдельном случае согласиться выплатить группе авторов $1,5 млрд компенсации за неправомерное использование их произведений. Reddit является одним из наиболее часто цитируемых источников информации в системах ИИ. При этом пользователи ИИ-сервисов Google не так часто становятся активными пользователями Reddit, поэтому последняя из платформ ищет альтернативные способы монетизации данного взаимодействия. Новое соглашение между компаниями призвано усилить взаимную интеграцию сервисов.

«Британская энциклопедия» подала в суд на Perplexity за копирование текстов

«Британская энциклопедия» (Encyclopedia Britannica) и её дочерняя компания Merriam-Webster подали иск в федеральный суд Нью-Йорка против компании Perplexity AI, обвинив её в нарушении авторских прав и товарных знаков. В иске обе компании утверждают, что система ответов Perplexity копирует их веб-сайты, крадёт интернет-трафик и занимается плагиатом их материалов, защищённых авторским правом.

 Источник изображения: Perplexity

Источник изображения: Perplexity

Суть иска заключается в одном слове: «плагиат». Сетевой журнал The Verge ссылается на судебные документы, в которых представлены сравнительные скриншоты, демонстрирующие, что ответы Perplexity идентичны определениям из словаря Merriam-Webster. Также система выдаёт неполные или придуманные искусственным интеллектом ответы, используя имена данных компаний, имеющих многовековую историю деятельности.

Perplexity, позиционирующая себя как конкурента Google Search, ранее уже подвергалась нападкам за то, что якобы «неправомерно заимствует и перерабатывает оригинальный контент без надлежащих ссылок», а также применяет веб-скрапинг, нелегально обходя систему блокировок сайтов от роботов. В частности, претензии были предъявлены со стороны таких медиа-гигантов, как Forbes, The New York Times, BBC, News Corp — материнской компании The Wall Street Journal и New York Post.

Тем не менее, некоторые издания, включая Time и Los Angeles Times, участвуют в программе совместного распределения рекламных доходов с Perplexity, а World History Encyclopedia, ещё одна крупная энциклопедия, запустила 8 сентября чат-бота на базе технологии Perplexity, позволяющего пользователям исследовать её базу академических источников.

Власти США начали расследование безопасности ИИ-чат-ботов для детей: под прицелом Google, Meta✴, OpenAI и xAI

Федеральная торговая комиссия США (FTC) инициировала расследование в отношении семи крупных технологических компаний, включая Alphabet, Meta✴, OpenAI, xAI и Snap, с целью выяснения, может ли их искусственный интеллект (ИИ) негативно влиять на детей и подростков. Регулятор издал приказы, обязывающие эти компании предоставить подробную информацию о мерах безопасности, применяемых к их чат-ботам, которые способны имитировать человеческое общение и межличностные отношения.

 Источник изображения: Emiliano Vittoriosi/Unsplash

Источник изображения: Emiliano Vittoriosi/Unsplash

Регулятор направил компаниям предписания с требованием раскрыть подробности о мерах безопасности, применяемых к чат-ботам, способным имитировать человеческое общение и межличностные отношения. В частности, FTC интересуется, как компании оценивают риски, связанные с ИИ-компаньонами, каким образом они монетизируют вовлечённость пользователей, разрабатывают и утверждают виртуальных персонажей, используют или передают личные данные, а также какие механизмы контроля и снижения возможного вреда применяют.

Глава FTC Эндрю Фергюсон (Andrew Ferguson) подчеркнул, что защита детей в интернете остаётся для ведомства ключевым приоритетом наряду с поддержкой инноваций в критически важных секторах экономики.

Реакция компаний оказалась разной. Meta✴ отказалась от комментариев для CNBC, а Alphabet, Snap и xAI пока не ответили на запросы. Представитель OpenAI заявил в интервью CNBC, что приоритетом компании является обеспечение одновременно полезности и безопасности ChatGPT для всех пользователей, особенно для молодых, и что OpenAI готова к открытому сотрудничеству с регулятором. В список проверяемых также вошли Character Technologies (создатель чат-бота Character.ai) и принадлежащий Meta✴ Instagram✴.

Повышенное внимание FTC к этой теме связано с недавними инцидентами. Так, после расследования Reuters сенатор Джош Хоули (Josh Hawley) инициировал проверку в отношении Meta✴: репортаж показал, что её чат-боты могли вести опасные беседы с детьми. В ответ Meta✴ временно ужесточила правила для своих ИИ, запретив обсуждение тем, связанных с суицидом, членовредительством и расстройствами пищевого поведения, а также ограничив «чувственные» диалоги. Аналогичные меры предпринимает и OpenAI: компания объявила о пересмотре работы ChatGPT после иска семьи, обвинившей чат-бота в косвенной причастности к смерти подростка.


window-new
Soft
Hard
Тренды 🔥
Steam наконец стал 64-битным — 32-битному клиенту осталось чуть больше месяца 7 ч.
Airbus уже семь лет переезжает с Microsoft Office на Google Workspace, но полностью отказаться от Excel и Word всё не получается 12 ч.
Трассировка лучей на ПК, «Новая игра +» и прокачка «Легенды»: для Dying Light: The Beast вышло самое крупное обновление с релиза 12 ч.
Лучше поздно, чем никогда: спустя почти десять лет Ubisoft наконец добавила достижения для Rainbow Six Siege в Steam 13 ч.
Спустя семь лет разработки Light No Fire до сих пор занимается «крошечная команда» — No Man's Sky остаётся приоритетом Hello Games 14 ч.
Слухи: датамайнеры нашли в файлах Assassin’s Creed Shadows название ремейка Assassin’s Creed IV: Black Flag 15 ч.
Премьера финального сезона «Очень странных дел» сломала Netflix 15 ч.
«Базис» идёт на IPO в декабре 16 ч.
Вот тебе, закупщик, и «Юрьев день» 17 ч.
OpenAI признала утечку данных пользователей через Mixpanel — переписки с ChatGPT остались в безопасности 17 ч.
Так дальше продолжаться не может: штаб-квартира Nexperia призвала китайское подразделение возобновить поставки автомобильных чипов 10 мин.
Рост цен на память на фоне бума ИИ подтверждается большинством участников рынка 2 ч.
Тайваньские следователи обыскали дома экс-вице-президента TSMC по делу о передаче секретов в Intel и забрали всю электронику 7 ч.
Как построить 5000-ваттный GPU будущего — Intel расскажет на ISSCC 2026 7 ч.
Новая статья: Обзор игрового WQHD IPS-монитора Gigabyte M27Q2 QD: доступный универсал 8 ч.
Сословное право доступа: из-за дефицита ИИ-серверов Alibaba Cloud вынужденно разделила клиентов на категории 9 ч.
В Китае намекнули на создание многочиповых ИИ-ускорителей, способных потягаться с Nvidia Blackwell 11 ч.
Honor представила компактный проектор с жестовым управлением и автокалибровкой за $85 11 ч.
«Руцентр» вошёл в реестр провайдеров хостинга для государственных информационных систем 12 ч.
После провала iPhone Air китайские бренды передумали выпускать сверхтонкие смартфоны 15 ч.