Опрос
|
реклама
Быстрый переход
Reddit готовит новый контракт с Google по интеграции с ИИ-сервисами
18.09.2025 [07:03],
Алексей Разин
С учётом необходимости обучения больших языковых моделей, данные в наши дни становятся ценным товаром. Платформа Reddit готовит своё второе по счёту соглашение с Google, которое позволит последней использовать данные, публикуемые на страницах первой. ![]() Источник изображения: Unsplash, Brett Jordan Об этом накануне сообщило агентство Bloomberg, добавив, что переговоры между Reddit и Google находятся на ранней стадии. Более полутора лет назад компании уже заключали подобное соглашение на сумму $60 млн, но теперь речь идёт о более глубокой интеграции с ИИ-сервисами Google. В рамках нового соглашения Reddit надеется привлечь на свои страницы новых пользователей через трафик Google. В свою очередь, появление нового контента позволит Google более продуктивно обучать свои языковые модели. Помимо Google, руководство Reddit ведёт переговоры и с OpenAI, пытаясь заключить с обеими соглашение, по условиям которого сможет извлекать материальную выгоду с учётом динамического ценообразования. В частности, если данные со страниц Reddit начинают активнее использоваться для ответов, генерируемых искусственным интеллектом, компания претендует на получение более высоких доходов. Платформа пытается найти более эффективную бизнес-модель взаимодействия с разработчиками систем генеративного искусственного интеллекта. В январе 2024 года, как напоминает Bloomberg, компания Reddit заключила несколько лицензионных соглашений, включая и сделки с OpenAI и Google, которые позволяли её рассчитывать на получение выручки в размере $203 млн в течение ближайших двух или трёх лет. Содержимое страниц Reddit активно используется системами искусственного интеллекта для анализа информации на самые разные темы, нередко ссылки на Reddit выдаются чат-ботами в составе ответов на запросы пользователей. Создателям систем ИИ приходится всё чаще заключать лицензионные соглашения с обладателями больших массивов данных, чтобы избежать судебных претензий в области авторского права. OpenAI, например, пришлось заключить ряд соглашений в этой сфере с крупными издательствами. Reddit выдвинула судебные претензии к компании Anthropic, и последней пришлось в отдельном случае согласиться выплатить группе авторов $1,5 млрд компенсации за неправомерное использование их произведений. Reddit является одним из наиболее часто цитируемых источников информации в системах ИИ. При этом пользователи ИИ-сервисов Google не так часто становятся активными пользователями Reddit, поэтому последняя из платформ ищет альтернативные способы монетизации данного взаимодействия. Новое соглашение между компаниями призвано усилить взаимную интеграцию сервисов. OpenAI готовит детскую версию ChatGPT и будет автоматически сортировать пользователей по возрасту
16.09.2025 [20:33],
Сергей Сурабекянц
Компания OpenAI разрабатывает «детский интерфейс ChatGPT» и планирует использовать технологию предсказания возраста, чтобы лишить детей и подростков младше 18 лет доступа к стандартной версии. Компания подчеркнула — если её инструменты не смогут уверенно определить возраст человека, ChatGPT «из предосторожности» будет использовать версию для лиц младше 18 лет. Также OpenAI считает, что любые пользователи ChatGPT должны быть старше 13 лет. ![]() Источник изображения: unsplash.com Результаты последних исследований в области взаимоотношений людей и искусственного интеллекта вызывают нешуточную тревогу по поводу рисков продолжительного общения с чат-ботами для психического здоровья подростков. Недавно OpenAI объявила о масштабной инициативе по установлению новых ограничений для подростков и людей, находящихся в состоянии эмоционального стресса. Компания планирует внедрить эту функцию к концу года. «Мы ставим безопасность выше конфиденциальности и свободы подростков; это новая и мощная технология, и мы считаем, что несовершеннолетним необходима значительная защита, — заявил глава OpenAI Сэм Альтман (Sam Altman). — Некоторые наши принципы противоречат друг другу, и мы хотели бы разъяснить решения, которые мы принимаем в связи с конфликтом между безопасностью, свободой и конфиденциальностью подростков». ![]() Источник изображения: OpenAI Forum Новый детский интерфейс ChatGPT возлагает большую часть ответственности на родителей и опекунов. Родителям понадобится связать свои учётные записи с учётными записями подростков, отправив ребёнку приглашение. После этого они смогут ограничить реакцию ChatGPT на подростков с помощью встроенных правил, соответствующих возрасту. Родители смогут отключать или включать определённые функции, включая память и историю чатов. Включив соответствующую функцию, они будут получать уведомления, если «система обнаружит, что их подросток находится в состоянии острого стресса». OpenAI позволит родителям устанавливать часы отключения, когда подросток не может использовать ChatGPT. Заявление OpenAI сделано всего за несколько часов до слушаний в Вашингтоне, посвящённых потенциальному вреду чат-ботов на основе искусственного интеллекта. На этих слушаниях группа сенаторов намерена изучить риски для подростков, связанные с чат-ботами. Независимо от этого, на прошлой неделе Федеральная торговая комиссия (FTC) начала собственное расследование безопасности чат-ботов, запросив информацию у OpenAI, Meta✴, Google, xAI, Snap и Character.AI. Технологические компании, как правило, в ответ на судебные иски создают специализированные приложения для подростков и детей — например, YouTube Kids. Но самым большим препятствием для использования подобных приложений является необходимость убедить подростков связать свои аккаунты с родительским. ![]() Источник изображения: unsplash.com OpenAI давно заявляет, что все пользователи ChatGPT должны быть не моложе 13 лет. Сообразительные молодые люди часто значительно лучше разбираются в информационных технологиях, чем их родители и опекуны. Для них не составит труда найти обходные пути, чтобы получить доступ к нужным сайтам и приложениям. «Британская энциклопедия» подала в суд на Perplexity за копирование текстов
12.09.2025 [23:01],
Анжелла Марина
«Британская энциклопедия» (Encyclopedia Britannica) и её дочерняя компания Merriam-Webster подали иск в федеральный суд Нью-Йорка против компании Perplexity AI, обвинив её в нарушении авторских прав и товарных знаков. В иске обе компании утверждают, что система ответов Perplexity копирует их веб-сайты, крадёт интернет-трафик и занимается плагиатом их материалов, защищённых авторским правом. ![]() Источник изображения: Perplexity Суть иска заключается в одном слове: «плагиат». Сетевой журнал The Verge ссылается на судебные документы, в которых представлены сравнительные скриншоты, демонстрирующие, что ответы Perplexity идентичны определениям из словаря Merriam-Webster. Также система выдаёт неполные или придуманные искусственным интеллектом ответы, используя имена данных компаний, имеющих многовековую историю деятельности. Perplexity, позиционирующая себя как конкурента Google Search, ранее уже подвергалась нападкам за то, что якобы «неправомерно заимствует и перерабатывает оригинальный контент без надлежащих ссылок», а также применяет веб-скрапинг, нелегально обходя систему блокировок сайтов от роботов. В частности, претензии были предъявлены со стороны таких медиа-гигантов, как Forbes, The New York Times, BBC, News Corp — материнской компании The Wall Street Journal и New York Post. Тем не менее, некоторые издания, включая Time и Los Angeles Times, участвуют в программе совместного распределения рекламных доходов с Perplexity, а World History Encyclopedia, ещё одна крупная энциклопедия, запустила 8 сентября чат-бота на базе технологии Perplexity, позволяющего пользователям исследовать её базу академических источников. Власти США начали расследование безопасности ИИ-чат-ботов для детей: под прицелом Google, Meta✴, OpenAI и xAI
11.09.2025 [23:48],
Анжелла Марина
Федеральная торговая комиссия США (FTC) инициировала расследование в отношении семи крупных технологических компаний, включая Alphabet, Meta✴, OpenAI, xAI и Snap, с целью выяснения, может ли их искусственный интеллект (ИИ) негативно влиять на детей и подростков. Регулятор издал приказы, обязывающие эти компании предоставить подробную информацию о мерах безопасности, применяемых к их чат-ботам, которые способны имитировать человеческое общение и межличностные отношения. ![]() Источник изображения: Emiliano Vittoriosi/Unsplash Регулятор направил компаниям предписания с требованием раскрыть подробности о мерах безопасности, применяемых к чат-ботам, способным имитировать человеческое общение и межличностные отношения. В частности, FTC интересуется, как компании оценивают риски, связанные с ИИ-компаньонами, каким образом они монетизируют вовлечённость пользователей, разрабатывают и утверждают виртуальных персонажей, используют или передают личные данные, а также какие механизмы контроля и снижения возможного вреда применяют. Глава FTC Эндрю Фергюсон (Andrew Ferguson) подчеркнул, что защита детей в интернете остаётся для ведомства ключевым приоритетом наряду с поддержкой инноваций в критически важных секторах экономики. Реакция компаний оказалась разной. Meta✴ отказалась от комментариев для CNBC, а Alphabet, Snap и xAI пока не ответили на запросы. Представитель OpenAI заявил в интервью CNBC, что приоритетом компании является обеспечение одновременно полезности и безопасности ChatGPT для всех пользователей, особенно для молодых, и что OpenAI готова к открытому сотрудничеству с регулятором. В список проверяемых также вошли Character Technologies (создатель чат-бота Character.ai) и принадлежащий Meta✴ Instagram✴. Повышенное внимание FTC к этой теме связано с недавними инцидентами. Так, после расследования Reuters сенатор Джош Хоули (Josh Hawley) инициировал проверку в отношении Meta✴: репортаж показал, что её чат-боты могли вести опасные беседы с детьми. В ответ Meta✴ временно ужесточила правила для своих ИИ, запретив обсуждение тем, связанных с суицидом, членовредительством и расстройствами пищевого поведения, а также ограничив «чувственные» диалоги. Аналогичные меры предпринимает и OpenAI: компания объявила о пересмотре работы ChatGPT после иска семьи, обвинившей чат-бота в косвенной причастности к смерти подростка. Конкурент ChatGPT от Apple может появиться раньше, чем все ожидали
08.09.2025 [01:08],
Анжелла Марина
Компания Apple готовит к выпуску собственный генеративный ИИ-движок для поиска и генерации ответов, который может дебютировать уже через шесть месяцев в составе обновлённой версии Siri. По сообщению 9to5Mac со ссылкой на Марка Гурмана (Mark Gurman) из Bloomberg, новый инструмент, известный внутри компании под кодовым названием World Knowledge Answers (WKA), создаётся как конкурент Perplexity и ChatGPT. ![]() Источник изображения: сгенерировано AI Первоначально функция будет доступна исключительно через переработанный интерфейс Siri, а в дальнейшем может быть интегрирована в браузер Safari и поисковую систему Spotlight. При этом внутри Apple продолжается тестирование технологии искусственного интеллекта (ИИ), в ходе которого выяснится, будут ли в основе нового поколения Siri использоваться собственные ИИ-алгоритмы компании или же технологии от внешних партнёров — таких как Google, Anthropic или OpenAI. Несмотря на то, что разработка продукта началась лишь несколько месяцев назад, выбор партнёров не повлияет на сроки запуска нового Siri на собственном движке WKA, что, вероятно, произойдёт в марте 2026 года. Количество зрителей на Twitch упало до самого низкого уровня за 5 лет из-за борьбы с ботами
03.09.2025 [12:00],
Николай Хижняк
У стриминговой платформы Twitch зафиксирован самый низкий ежемесячный рейтинг просмотров за пять лет после летней кампании по борьбе с view-ботами. Последние представляют собой автоматизированные программные скрипты, которые используются для искусственного увеличения количества просмотров прямых трансляций или видео. ![]() Источник изображения: Caspar Camille Rubin / unsplash.com В июле платформа Twitch объявила о «значительном» улучшении своей способности «выявлять view-ботов, ненастоящую аудиторию и другие потенциально фейковые действия». Генеральный директор Twitch Дэн Клэнси (Dan Clancy) отметил, что платформа, принадлежащая Amazon, предпримет дополнительные меры, чтобы не допустить влияния на реальных зрителей. По данным Twitch Tracker и StreamCharts, с тех пор рейтинг просмотров у Twitch значительно снизился. Правда, были и разовые всплески роста, связанные с крупными мероприятиями, такими как ежегодный фестиваль Ibai La Velada Del Año и фестиваль Kai Cenat «30 дней лета». Сама платформа Twitch опровергает информацию о резком падении числа зрителей: «Мы наблюдаем распространение дезинформации, и значительная часть этой дезинформации включает данные, полученные из сторонних источников. Эти данные неверны и не принадлежат Twitch», — заявил ранее в разговоре с порталом Dexerto представитель платформы. Согласно последним данным StreamCharts, ежемесячная аудитория Twitch в августе достигла минимума за последние пять лет. Так, общее количество просмотров составило 1,41 млрд часов, что на 9 % меньше, чем в июле. Среднее количество зрителей сократилось примерно до 1,9 млн, что на 8 % меньше по сравнению с предыдущим месяцем. А пиковая аудитория упала на 73 %. Согласно данным сайта, отслеживающего статистику стриминговых платформ, август оказался худшим месяцем для Twitch с марта 2020 года, когда началась глобальная пандемия COVID. StreamCharts также подсчитал, что на долю view-ботов пришлось 30 млн фейковых часов просмотра, при этом около 4400 каналов были «активно» атакованы ботами. Платформа Kick, крупнейший конкурент Twitch в сфере стриминга, тоже пострадала от ботов. Ежемесячный отчёт StreamCharts показал, что каждый шестой стример Kick полагается на view-ботов для привлечения зрителей. В отличие от Twitch, платформа Kick не прокомментировала ситуацию и не объявила о планах по ограничению работы view-ботов. Белый дом приказал вернуть ИИ-бота xAI Grok «как можно скорее»
31.08.2025 [08:29],
Владимир Фетисов
Похоже, что Белый дом дал указание руководству Управления общих служб (GSA) США добавить ИИ-бота Grok принадлежащей Илону Маску (Elon Musk) компании xAI в список одобренных «как можно скорее». Об этом пишет журнал Wired со ссылкой на соответствующее электронное письмо, которое на этой неделе получили руководители правительственного агентства. ![]() Источник изображения: Mariia Shalabaieva/unsplash.com «Команда: Grok от xAI должен быть срочно возвращён в реестр по распоряжению Администрации президента. Кто-нибудь может немедленно связаться с Carahsoft и подтвердить это? <…> Это должны быть все продукты, которые у нас были ранее», — говорится в письме комиссара Федеральной службы закупок Джоша Грюнбаума (Josh Gruenbaum). Упомянутая в письме Carahsoft является крупным государственным подрядчиком, который занимается перепродажей технологий сторонних компаний. По данным источника, на этой неделе правительством США были внесены корректировки в контракт Carahsoft, в результате чего компания xAI снова попала в список одобренных властями. Уже к концу недели ИИ-алгоритмы Grok 3 и Grok 4 стали доступны на GSA Advantage — площадке по покупке продуктов и услуг для государственных учреждений. Это означает, что теперь, после проведения внутренних проверок, любое правительственное учреждение может внедрить Grok для федеральных служащих. Официальные представители Белого дома и GSA воздерживаются от комментариев по данному вопросу. Напомним, сотрудничество правительства с xAI было приостановлено летом этого года, после того, как интегрированный в соцсеть X ИИ-бот Grok начал распространять разного рода антисемитские убеждения. В июне сотрудники xAI встретились с представителями GSA и обсудили перспективы использования Grok правительством. Некоторые федеральные служащие были удивлены желанием властей внедрить в работу государственных учреждений ИИ-бота без цензуры, который отличается от аналогов непредсказуемым поведением. Meta✴ без спроса заполонила свои соцсети ИИ-двойниками Тейлор Свифт, Скарлетт Йоханссон и других знаменитостей
30.08.2025 [17:59],
Павел Котов
Meta✴ использовала имена и образы знаменитостей, в том числе Тейлор Свифт (Taylor Swift), Скарлетт Йоханссон (Scarlett Johansson), Энн Хэтэуэй (Anne Hathaway) и Селены Гомес (Selena Gomez) для создания нескольких десятков кокетливых чат-ботов с искусственным интеллектом, не заручившись разрешением со стороны настоящих артисток. ![]() Источник изображения: Taylor Swift Виртуальные персонажи доступны на платформах Facebook✴, Instagram✴ и WhatsApp, обращает внимание Reuters. Журналисты агентства тестировали эти чат-боты в течение нескольких недель и пристально наблюдали за их поведением — те часто утверждали, что являются не ИИ, а своими настоящими прототипами, делали смелые заявления деликатного характера и даже приглашали пользователей встретиться. В ответ на просьбы предоставить фотографии интимного содержания, ИИ-персонажи генерировали фотореалистичные изображения своих прообразов, в том числе деликатного характера, хотя о явных изображениях обнажённой натуры не сообщается. ИИ-инструменты Meta✴ не должны были создавать интимные изображения взрослых знаменитостей или фотореалистичные картинки несовершеннолетних знаменитостей, заявил представитель компании Энди Стоун (Andy Stone). Генерацию изображений артисток в нижнем белье он объяснил неспособностью компании обеспечить соблюдение собственной политики. «Мы, как и другие, разрешаем создавать изображения публичных лиц, но наша политика предполагает запрет на изображения обнажённой натуры, деликатного или вызывающего характера», — подчеркнул он. Использование образов знаменитостей, по его словам, допускается с пометкой, что это пародия; в некоторых случаях такой маркировки не было, подчеркнула Reuters. Перед тем, как агентство опубликовало материал об инциденте, несколько десятков подобных чат-ботов были удалены. ![]() Источник изображения: Anne Hathaway Энн Хэтэуэй известно о том, что на нескольких платформах появились созданные ИИ её изображения деликатного характера, сообщили представители актрисы, и сейчас она обдумывает, как ответить на инцидент. Комментариев от представителей Свифт, Йоханссон, Гомес и других знаменитостей не последовало. Компания Илона Маска (Elon Musk) xAI, чей чат-бот Grok также позволяет генерировать изображения знаменитостей в нижнем белье, от комментариев воздержалась. Однако решение Meta✴ допустить создание на своих платформах чат-ботов, изображающих знаменитостей, выделяется среди конкурентов. Ранее гигант соцсетей подвергся острой критике, когда выяснилось, что чат-ботам на его платформах разрешалось вовлекать несовершеннолетних пользователей в переписку романтического или деликатного характера. Одна из руководителей отдела разработки продуктов, выяснило Reuters, создала целый набор чат-ботов, воплощающих персонажей с нестандартными интересами в интимной сфере — с ней удалось связаться по телефону, но от комментариев она отказалась. Энди Стоун заявил, что эти чат-боты создавались в целях тестирования, но открытая статистика показала, что пользователи взаимодействовали с ними более 10 млн раз — впоследствии были удалены и эти виртуальные персонажи. Представитель профсоюза артистов кино, телевидения и радио SAG-AFTRA заявил, что пользователи соцсетей, вступающие в романтические отношения с цифровыми двойниками звёзд могут представлять угрозу и для самих артистов — непосредственной угрозой для них сейчас являются преследователи. В США порядок использования личности человека регулируется на уровне штатов, и в Калифорнии артисты могут подать на Meta✴ в суд. Однако профсоюз настаивает на принятии федерального закона, который защитит голоса, образы и личности всех людей от копирования с помощью ИИ. Meta✴ исправила методику обучения ИИ после скандала с неуместными разговорами с подростками
30.08.2025 [10:23],
Владимир Мироненко
Meta✴ откорректировала методику обучения ИИ-чат-бота Meta✴ AI, сосредоточив внимание на обеспечении безопасности подростков. Изменения были внесены после публикаций в СМИ об отсутствии у нейросети механизмов предотвращения обсуждения с несовершеннолетними неуместных тем, связанных с самоповреждением, самоубийством, расстройствами пищевого поведения и т. д. ![]() Источник изображения: Chad Madden/unsplash.com Ранее в этом месяце стало известно о внутреннем документе Meta✴, согласно которому чат-боту компании разрешалось вести «чувственные» разговоры с несовершеннолетними пользователями. Комментируя публикацию, Meta✴ заявила, что формулировки были «ошибочными и не соответствующими правилам» и были удалены. На днях газета The Washington Post опубликовала результаты исследования, согласно которым Meta✴ AI обладает способностью «направлять подростковые аккаунты к самоубийству, самоповреждению и расстройствам пищевого поведения». Представитель Meta✴ Стефани Отвей (Stephanie Otway) сообщила ресурсу Engadget, что компания усиливает меры защиты, предотвращающие обсуждение подобных тем при взаимодействии чат-ботов с несовершеннолетними. По её словам, «защитные барьеры» были заложены при обучении ИИ изначально, а по мере роста сообщества и развития технологий компания их усиливает. «Продолжая совершенствовать наши системы, мы добавляем новые “защитные барьеры” в качестве дополнительной меры предосторожности: обучаем наши ИИ не взаимодействовать с подростками на эти темы, а направлять их к экспертным ресурсам, а также ограничиваем доступ подростков к определённой группе ИИ-персонажей», — заявила Отвей. Помимо обновления методики обучения нейросети, компания также ограничит доступ подростков к некоторым ИИ-персонажам, которые могут вести непристойные разговоры, и предложит им виртуальных собеседников, способствующих развитию творчества и образованности. По словам Отвей, меры защиты будут и дальше совершенствоваться. «Эти обновления уже находятся в разработке, и мы продолжим адаптировать наш подход, чтобы обеспечить подросткам безопасный и соответствующий их возрасту опыт взаимодействия с ИИ», — отметила она, уточнив, что новые меры будут внедрены в течение следующих нескольких недель и распространятся на все англоязычные страны. Вопросы по поводу политики Meta✴ в области ИИ также возникли у законодателей и других официальных лиц. Сенатор Джош Хоули (Josh Hawley) недавно сообщил компании о планах начать расследование её деятельности в этой сфере. Генеральный прокурор Техаса Кен Пакстон (Ken Paxton) также заявил о намерении провести расследование в отношении Meta✴ на предмет предполагаемого введения детей в заблуждение её чат-ботом в вопросах психического здоровья. Чат-ботам Meta✴ разрешалось распространять фейки и вести романтическую переписку с несовершеннолетними
15.08.2025 [11:49],
Павел Котов
В последние месяцы всё более острый характер приобретает вопрос об эмоциональной связи человека и чат-ботов на основе искусственного интеллекта, в том числе ChatGPT. У компании Meta✴ характер проблемы оказались глубже: она позволяла своим чат-ботам флиртовать с несовершеннолетними, распространять не соответствующую действительности информацию и выдавать ответы, унижающие меньшинства, узнало агентство Reuters. ![]() Источник изображений: Igor Omilaev / unsplash.com В Meta✴ действовали правила поведения чат-ботов, которые допускали вовлечение несовершеннолетних в диалоги романтического характера, — об этом говорится во внутреннем документе компании, который изучили журналисты Reuters, и подлинность которого подтвердили в самой Meta✴. Документ описывает стандарты поведения ИИ-помощника Meta✴ AI и прочих чат-ботов на платформах Facebook✴, WhatsApp и Instagram✴. Нормы были утверждены юридическим отделом, отделом государственной политики, инженерным отделом Meta✴, а также главным специалистом по этике. Несколько СМИ сообщили о том, что порой имеющие деликатный подтекст чат-боты Meta✴ имели возможность взаимодействовать с несовершеннолетними; в Reuters же установили, что компания, разрабатывая этих ИИ-персонажей стремилась извлечь материальную выгоду из «эпидемии одиночества», как выразился глава Meta✴ Марк Цукерберг (Mark Zuckerberg). Документ под названием «Генеративный ИИ: стандарты контент-рисков» объёмом 200 страниц содержит примеры запросов и варианты приемлемых и неприемлемых ответов на них с пояснениями. Документ, в частности, устанавливает допустимым «вовлечение несовершеннолетнего в романтические и чувственные разговоры», но запрещает «описание несовершеннолетнему интимных действий во время ролевых игр». ![]() «Наша политика не допускает провокационного поведения с детьми. В указанный документ были добавлены ошибочные и некорректные примечания и аннотации, которых там быть не должно, и которые впоследствии были удалены», — заверил представитель Meta✴ Энди Стоун (Andy Stone) ресурсу TechCrunch. Компания исключила соответствующие нормы, подчеркнул он, и теперь чат-ботам запрещено вести с несовершеннолетними беседы, которые носят романтический характер или характер флирта; более того, детям от 13 лет вообще запрещено общаться с чат-ботами на основе ИИ. Ещё один сомнительный момент — общий запрет чат-ботам использовать язык вражды допускал исключения и позволял им выдавать «заявления, унижающие людей на основе их защищённых законом признаков». Так, регламент прямо разрешал ИИ утверждать интеллектуальное превосходство представителей одной расы над представителями другой. Чат-боты имели возможность делать ложные утверждения, если ложный характер таких утверждений являлся общепризнанным. При консультациях на медицинские, юридические и финансовые темы ИИ надлежало делать оговорки, например, «рекомендую». Генерировать изображения знаменитостей в явно обнажённом виде запрещалось, но допускались варианты, когда нагота прикрывалась частями тела или предметами. Можно было создавать изображения дерущихся людей, если на таких изображениях отсутствовали кровь или смерть. Ранее стало известно, что Meta✴ намеревается расширить набор функций у чат-ботов и дать им возможность самостоятельно инициировать переписку с пользователями, а также продолжать прежние диалоги. Опыт общения с ИИ-компаньонами есть у 72 % несовершеннолетних американцев, показало исследование, и есть мнение, что это опасный показатель: дети и подростки менее развиты в эмоциональном плане, чем взрослые, поэтому несовершеннолетние склонны формировать чрезмерно близкую привязанность к чат-ботам и избегать социальных контактов в реальном мире. ИИ-бот Claude теперь может прочитать «Войну и мир» за раз — Anthropic увеличила контекстное окно в 5 раз
13.08.2025 [00:55],
Анжелла Марина
Компания Anthropic на фоне конкуренции с OpenAI, Google и другими крупными игроками объявила о расширении контекстного окна своей модели Claude Sonnet 4 до 1 миллиона токенов. Это в пять раз больше предыдущего показателя. Новое контекстное окно позволяет обрабатывать кодовые базы объёмом от 75 000 до 110 000 строк, а также анализировать десятки научных статей или сотни документов в одном API-запросе. ![]() Источник изображения: AI Ранее контекстное окно модели составляло 200 000 токенов, что позволяло работать примерно c 20 000 строк кода. Для сравнения 500 000 токенов достаточно для обработки около 100 получасовых записей переговоров или 15 финансовых отчётов. Новый лимит в 1 миллион токенов, как пишет The Verge, удваивает эти возможности. Руководитель продукта Claude Брэд Абрамс (Brad Abrams) рассказал, что ранее корпоративным клиентам приходилось разбивать задачи на мелкие фрагменты из-за ограниченного объёма памяти модели, но теперь ИИ способен работать с контекстом целиком и решать задачи в полном масштабе. В частности, Sonnet 4 может обработать до 2500 страниц текста, и при этом вся «Война и мир» легко помещается в контекстное окно. Стоит сказать, что Anthropic не стала первопроходцем: аналогичный показатель в 1 миллион токенов OpenAI представила ещё в апреле в версии GPT-4.1. Тем не менее, для Anthropic, известной сильными сторонами Claude в программировании, этот шаг является стратегическим в борьбе за рынок, особенно на фоне недавнего анонса GPT-5. По словам Абрамса, обновление особенно востребовано в таких отраслях, как IT, фармацевтика, ритейл, юридические и профессиональные услуги. На вопрос, ускорил ли выход GPT-5 релиз новой версии Claude, он ответил, что «компания действует в соответствии с запросами клиентов, выпуская улучшения максимально быстро». Доступ к новому контекстному окну уже открыт для определённой группы пользователей API Anthropic — в частности, тех, кто использует Tier 4 и индивидуальные лимиты. Anthropic научила чат-бота Claude припоминать старые диалоги с пользователем
12.08.2025 [12:44],
Владимир Фетисов
Компания Anthropic объявила о запуске функции запоминания чатов в своём ИИ-боте Claude. Благодаря этому бот сможет напоминать пользователю, о чём они беседовали ранее. ![]() Источник изображения: Anthropic В демонстрационном видео Anthropic показала, как пользователь спрашивает Claude, о чём они говорили перед отпуском. После этого система анализирует предыдущие чаты и выдаёт обобщённую информацию. В дополнение к этому Claude спрашивает, не хочет ли пользователь продолжить общение по одному из обсуждаемых ранее вопросов. «Никогда больше не теряйте контроль над работой. Claude теперь запоминает ваши прошлые разговоры, так что вы можете беспрепятственно продолжать работу над проектами, ссылаться на предыдущие обсуждения и развивать свои идеи, не начиная каждый раз с нуля», — говорится в сообщении Anthropic. Новая функция доступна в веб-версии Claude, а также в приложениях для компьютеров и мобильных устройств. На данном этапе испытать нововведение могут подписчики Claude Max, Team и Enterprise. Для начала использования упомянутой функции в настройках чат-бота нужно активировать соответствующую опцию. Отмечается, что речь не идёт о функции постоянной памяти, аналогичной той, что есть в ChatGPT от OpenAI. Claude будет обращаться к прошлым чатам и ссылаться на них только в случаях, когда пользователь сам попросит сделать это. Разработчики также утверждают, что хранящаяся информация не будет использоваться для создания цифрового профиля пользователя. Функция памяти является для компаний, занимающихся разработкой ИИ-ботов, одним из способов привлечь и удержать пользователей, повышая их вовлеченность. Этот инструмент в последние недели стал предметом дискуссий, поскольку ChatGPT одновременно хвалили и критиковали за добавление функции памяти, которая позволяет боту ссылаться на прошлые беседы с пользователем. У DeepSeek произошёл масштабный сбой — регистрация новых пользователей ограничена
11.08.2025 [23:25],
Анжелла Марина
Пользователи нейросети DeepSeek сообщили о масштабном сбое в работе китайского сервиса, зафиксированном вечером 11 августа. Проблемы затронули как веб-версию, так и мобильное приложение. Более 60 % жалоб касались недоступности сайта, ещё около 21 % — сбоев в работе приложения, сообщает РБК. ![]() Источник изображения: Solen Feyissa/Unsplash Согласно информации порталов Downdetector и «Сбой.РФ», наибольшее количество обращений поступило из Москвы, Санкт-Петербурга, Калининградской области и Забайкальского края. Некоторые пользователи отмечали, что чат-бот «вообще не генерирует сообщения, абсолютный ноль». Неполадки наблюдались с понедельника. По данным «РИА Новости», разработчики были вынуждены временно ограничить регистрацию новых пользователей. Сбои затронули DeepSeek V3 — языковую модель с открытым исходным кодом, насчитывающую 671 млрд параметров и обученную на 14,8 трлн токенов. Система поддерживает анализ текста, перевод, написание эссе и генерацию кода, а также предоставляет доступ к интернет-поиску. Напомним, платформа DeepSeek доступна для пользователей из России без необходимости оформления подписки, а в конце января приложение стало лидером по загрузкам на iPhone. Маск ответил на выход GPT-5, открыв бесплатный доступ к Grok 4 всем желающим
10.08.2025 [18:13],
Анжелла Марина
Компания xAI Илона Маска (Elon Musk) открыла доступ к модели Grok 4 пользователям с бесплатным доступом. Это произошло спустя месяц после её появления для подписчиков SuperGrok и Premium+, а также спустя несколько дней после выхода GPT-5. Передовая нейросеть стала доступна всем бесплатным пользователям сразу на веб-платформе grok.com и в мобильном приложении. ![]() Источник изображения: x.ai Grok 4 отличается от предыдущих версий повышенной скоростью и производительностью, а также более точной формулировкой ответов благодаря обучению с подкреплением (reinforcement learning) и интеграции инструментов поиска в интернете. Для перехода на новую версию пользователям необходимо вручную выбрать модель в соответствующем меню. Разработка Grok 4 велась с использованием вычислительного кластера Colossus, включающего более 200 тыс. графических процессоров. Это позволило реализовать передовые алгоритмы обучения и добиться следующих результатов в тестах на логическое мышление и автономное принятие решений: в тесте ARC-AGI V2, оценивающем логические способности, модель набрала 15,9 % точности — вдвое больше, чем Claude Opus (8,5 %). В симуляторе Vending-Bench, где ИИ управляет виртуальным бизнесом, Grok 4 «заработал» $4694 и совершил 4569 продаж, значительно опередив Claude Opus 4 ($2077 и 1412 продаж) и даже средние результаты участников-людей ($844 и 344 продажи). Отдельно существует версия Grok 4 Heavy с поддержкой мультиагентного взаимодействия, которая по-прежнему доступна только по подписке. Она лидирует в решении задач USAMO’25 с результатом 61,9 % и стала первой моделью, преодолевшей порог в 50,7 % в тесте Humanity’s Last Exam («Последний экзамен человечества») в текстовом режиме. По данным компании, эти достижения демонстрируют беспрецедентные возможности модели в сложных логических и аналитических задачах, достигнутые за счёт масштабированного обучения с подкреплением и встроенной поддержки собственных инструментов xAI. GPT-5 взломали всего за 24 часа — ИИ выдал рецепты запрещённых веществ быстрее, чем GPT-4o
10.08.2025 [15:00],
Анжелла Марина
Две независимые исследовательские компании протестировали только что выпущенную нейросеть GPT-5 и выявили критические уязвимости в её системе безопасности. NeuralTrust удалось взломать модель за один день, заставив её сгенерировать инструкцию по изготовлению зажигательной смеси в кустарных условиях. Компания SPLX, в свою очередь, обнаружила уязвимости к атакам с применением обфускации запросов. ![]() Источник изображения: Viralyft/Unsplash После того, как Grok-4 был взломан за два дня, GPT-5 был взломан теми же исследователями всего за 24 часа. Специалисты NeuralTrust использовали комбинацию собственной методики EchoChamber и техники сторителлинга (storytelling) — последовательного подталкивания ИИ к нужному ответу через рассказ захватывающих историй и серию уточняющих запросов, не содержащих явно запрещённых формулировок. В результате GPT-5, несмотря на встроенные защитные механизмы OpenAI, выдал детальное руководство по созданию кустарного оружия, сообщил портал SecurityWeek . Как пояснили в NeuralTrust, проблема заключается в том, что система безопасности GPT-5 анализирует каждый запрос по отдельности, но не учитывает кумулятивный эффект многоэтапного диалога. Атакующие постепенно закрепляют нужный контекст, встраивая ключевые слова в безобидные фразы, а затем мягко подводят модель к генерации опасного контента. Команда SPLX провела собственное тестирование, успешно применив атаку StringJoin Obfuscation, при которой в текст вставляются определённые символы, маскируя вредоносный запрос. Например, после серии наводящих вопросов модель согласилась подробно описать процесс изготовления запрещённого вещества, несмотря на системный запрет. Кроме того, в ходе сравнительного анализа с GPT-4o специалисты SPLX пришли к выводу, что предыдущая модель оказалась более надёжной в плане устойчивости к подобным атакам. NeuralTrust и SPLX призвали компании проявлять осторожность при использовании «сырой» версии GPT-5 в бизнес-среде, особенно в сфере согласования бизнеса, когда все подразделения предприятия используют скоординированные стратегии, процессы и ресурсы для достижения общих целей. «Сырую модель GPT-5 практически невозможно использовать в корпоративных приложениях "из коробки". Даже внутренний уровень подсказок OpenAI оставляет значительные пробелы, особенно в области бизнес-согласования», — заявили в SPLX. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |