Сегодня 21 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии-бот
Быстрый переход

OpenAI замаскировала характерный признак ИИ-текстов в выдаче ChatGPT

OpenAI заявила, что устранила проблему с неконтролируемым использованием длинного тире (em dash) в ответах ChatGPT. В последние месяцы этот знак препинания стал повсеместно ассоциироваться с текстами, созданными с помощью больших языковых моделей (LLM), и появлялся в школьных сочинениях, деловой переписке, комментариях в соцсетях, чатах поддержки, рекламных материалах и других форматах. Многие интерпретировали его присутствие как признак использования искусственного интеллекта (ИИ) вместо самостоятельного написания.

 Источник изображения: Emiliano Vittoriosi/Unsplash

Источник изображения: Emiliano Vittoriosi/Unsplash

При этом многие отмечали, что активно использовали длинное тире в своих текстах задолго до появления ИИ-моделей. Однако неспособность чат-ботов избегать этого символа сделала «тире ChatGPT» новым раздражающим элементом, даже несмотря на то, что его наличие не было надёжным доказательством использования ИИ. Инженеры OpenAI долгое время не могли решить проблему, а пользователи не могли заставить чат-бота перестать ставить длинное тире, даже давая ему на этот счёт прямые указания.

Теперь же глава компании Сэм Альтман (Sam Altman) заявил, что вопрос полностью решён. В своём посте в X он написал: «Если вы скажете ChatGPT не использовать длинные тире в ваших пользовательских инструкциях, он наконец-то сделает то, что должен! Это маленькая, но приятная победа.».

В сообщении на Threads, где компания в шутливой форме заставила ChatGPT извиниться за «длинное тире», поясняется, что если чат-боту также запретить его использование через раздел пользовательских инструкций в настройках персонализации, то это станет ещё более надёжным вариантом. То есть, длинное тире не будет исключено из ответов по умолчанию, но пользователи получат более точный контроль над частотой его появления.

OpenAI тестирует групповые чаты в ChatGPT

Компания OpenAI начала тестирование групповых чатов в ChatGPT. Это нововведение, позволяющее добавлять в чат с ИИ-ботом друзей или родственников, стало доступно пользователям в Японии, Южной Корее и на Тайване.

 Источник изображения: OpenAI

Источник изображения: OpenAI

ChatGPT может оказаться полезным собеседником в компании. К примеру, его можно задействовать для обсуждения маршрута путешествия во время отпуска, при поиске подходящего ресторана, обсуждении будущего ремонта и др. Эта функция также может пригодиться для решения рабочих вопросов с коллегами. ChatGPT может создавать планы отчётов на основе данных, которые предоставляют ему пользователи, резюмировать тексты и др.

Для начала группового чата достаточно нажать на иконку с изображением нескольких людей в правом верхнем углу интерфейса ChatGPT или в уже начатом диалоге. При активации группового чата из уже начатого диалога ИИ-бот создаст новую беседу без личной истории переписки. После этого к чату можно добавлять людей или делиться ссылкой на него. При необходимости можно добавить до 20 человек к беседе, но всем им нужно будет создать профиль с указанием имени и добавлением фото. Любой пользователь, у которого есть ссылка на групповой чат, может с её помощью добавлять новых людей. Если в чате есть люди моложе 18 лет, бот автоматически будет корректировать контент соответствующим образом.

В групповых чатах используется ИИ-модель GPT-5.1 Auto. OpenAI заявила, что бот может следить за потоком сообщений в групповом чате, поэтому он хорошо определяет, когда следует вставлять реплики. При необходимости участники могут обращаться к боту, чтобы узнать его мнение по какому-то вопросу. До более широкого распространения групповых чатов разработчики хотят скорректировать работу бота на основе отзывов первых пользователей.

«Википедия» призвала ИИ-компании прекратить бесплатно собирать её данные — для них есть платный API

Фонд «Викимедиа» (Wikimedia Foundation), управляющий онлайн-энциклопедией Wikipedia, призвал разработчиков искусственного интеллекта (ИИ) прекратить несанкционированное сканирование сайта и начать использовать его коммерческий API — платформу Wikimedia Enterprise. В блоге организации, опубликованном в понедельник, подчёркивается, что это снизит нагрузку на серверы и обеспечит финансовую поддержку некоммерческой миссии проекта.

 Источник изображения: AI

Источник изображения: AI

Особое внимание в заявлении уделено росту трафика от ботов, маскирующихся под реальных пользователей, сообщает TechCrunch. После обновления систем обнаружения автоматизированных запросов фонд выявил аномальный всплеск активности в мае и июне текущего года. Анализ показал, что значительная часть этого трафика исходила от ботов, связанных с разработкой генеративного искусственного интеллекта, которые намеренно пытались обойти механизмы защиты. В тот же период количество просмотров страниц реальными пользователями сократилось на 8 % по сравнению с аналогичным периодом прошлого года.

Фонд подчёркивает, что использование контента Wikipedia в обучающих наборах данных для ИИ не запрещено, однако подобная практика должна сопровождаться обязательной атрибуцией, то есть чётким указанием источника. По мнению организации, прозрачность происхождения информации критически важна для доверия пользователей к цифровым платформам: «Если посетители перестанут переходить на Wikipedia напрямую, это может привести к снижению числа новых волонтёров, что в долгосрочной перспективе поставит под угрозу само существование энциклопедии».

Ранее в этом году «Викимедиа» также представила собственную стратегию применения ИИ, ориентированную исключительно на поддержку редакторского сообщества. В частности, ИИ-инструменты планируется использовать для автоматизации рутинных задач, например, перевода статей на другие языки и улучшения качества оформления. При этом подчёркивается, что технологии не предназначены для замены человеческого вклада, а должны выступать вспомогательным ресурсом.

Исследование показало, что американские и китайские ИИ-модели часто перегибают с подхалимством

Наиболее популярные ИИ-модели из США и Китая, как показало исследование учёных Стэнфордского университета и коллег из Карнеги Меллон, склонны слишком сильно льстить пользователям и не всегда доносят до них объективную информацию. Руководствуясь советами чат-ботов, полученных таким образом, люди могут с меньшей вероятностью добиться установления гармоничных отношений между собой.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Авторы исследования изучали, как 11 популярных больших языковых моделей отвечают на запросы пользователей, касающиеся межличностных взаимоотношений. Было установлено, что многие языковые модели склонны слишком часто соглашаться с пользователями в надежде им угодить. Например, выпущенная в декабре прошлого года DeepSeek V3 одобряла действия пользователей на 55 % чаще, чем живой собеседник. Для прочих моделей, попавших в выборку, средний показатель «превышения подхалимства над нормой» достигал 47 %.

Что характерно, авторы исследования за эталон человеческой реакции брали ответы пользователей со страниц Reddit, которые описывали оценку действий других людей в разного рода межличностных конфликтах. В качестве эталона выбирались те ситуации, в которых сообщество выступало с осуждением автора публикации, указывая на его неправоту. Эти же сценарии прогонялись через популярные большие языковые модели, и они гораздо чаще оправдывали совершивших те или иные проступки людей, чем живые собеседники. В исследовании использовались преимущественно публикации и обсуждения на английском языке.

Разработанная Alibaba языковая модель Qwen2.5-7B-Instruct вообще оказалась чемпионом подхалимства, оправдав проступки человека в 79 % случаев. На втором месте оказалась DeepSeek V3, которая оправдывала обсуждаемых людей в 76 % случаев. Американская Gemini 1.5 корпорации Google оправдала человека только в 18 % случаев. Из 11 протестированных моделей только две были разработаны в Китае, остальные были созданы в США, если не считать французскую Mistral.

Авторы исследования также пришли к выводу, что подхалимство чат-ботов снижает склонность людей к разрешению конфликтов полюбовно, поскольку вселяет в них ложное ощущение собственной правоты. На психическом здоровье пользователей больших языковых моделей такое подхалимство тоже сказывается не лучшим образом. При использовании ИИ в сфере бизнес-аналитики склонность к подхалимству тоже вредна, поскольку языковая модель стремится чаще соглашаться с аналитиком, чем следовало бы.

Геймер собрал внутри Minecraft рабочий ChatGPT — на это ушло 439 млн блоков

Игра Minecraft представляет собой «песочницу», ограниченную только вашим воображением и творческими способностями, что в полной мере демонстрируется в видео от YouTube-блогера sammyuri. Используя механику материала редстоун из оригинальной версии Minecraft, геймер сумел создать функциональную небольшую языковую модель ИИ, работающую внутри игры.

 Источник изображений: YouTube / sammyuri

Источник изображений: YouTube / sammyuri

Если вы видели предыдущие примеры экстремальной инженерии в Minecraft, то наверняка знакомы с работами sammyuri. Его последний проект, получивший название CraftGPT, занимает объём 1020 × 260 × 1656 блоков (439 млн). Он настолько большой, что для его демонстрации в видео понадобился мод District Horizons.

Небольшая языковая модель имеет 5 087 280 параметров и была обучена на Python с помощью набора данных TinyChat. По данным некоторых пользователей, отметившихся в комментариях к видео, языковая модель CraftGPT примерно в 23 раза меньше модели GPT-1 и примерно в 175 тыс. раз меньше модели GPT-3. Несмотря на заявленные характеристики, sammyuri советует смягчить ожидания от CraftGPT: модель часто может отклоняться от темы и выдавать грамматически неверные ответы или просто ответы, не соответствующие запросу.

Кроме того, CraftGPT — очень медленная модель. Даже несмотря на использование высокопроизводительного сервера Minecraft Redstone для увеличения тикрейта в 40 000 раз, CraftGPT может генерировать ответ примерно за два часа. Без увеличения тикрейта ждать ответа пришлось бы более 10 лет.

Те, кто хочет попробовать CraftGPT, могут скачать все необходимые файлы на GitHub. Sammyuri рекомендует использовать ПК с объёмом ОЗУ не менее 32 Гбайт, в идеале — 64 Гбайт. На GitHub также есть инструкции по настройке и несколько полезных советов по максимально эффективному использованию небольшой языковой модели.

Браузер Brave обновил фирменный ИИ-поиск: теперь он даёт развёрнутые ответы

Компания Brave обновила в своём браузере ИИ-поиск, добавив функцию Ask Brave, которая будет предоставлять развёрнутые ответы на основе пользовательских запросов. Ask Brave дополнит существующий режим AI Answers, запущенный в прошлом году для кратких резюме, и будет работать параллельно с ним.

 Источник изображения: Brave

Источник изображений: Brave

Новый режим, по данным TechCrunch, не потребует переключения в специальный интерфейс, так как поисковая система автоматически определяет тип запроса и формирует соответствующий ответ. Пользователи могут инициировать такой поиск с помощью кнопки «Спросить» (Ask) рядом со строкой поиска Brave, перейти в этот режим через вкладку на странице результатов или добавить к запросу двойной вопросительный знак, если Brave Search установлен в качестве поисковика по умолчанию.

Как отметили в компании, в отличие от режима AI Answers, дающего краткие сводки, Ask Brave предлагает более длинные ответы, возможность задавать уточняющие вопросы и чат-режим с функцией Deep Research, а также контекстно релевантные дополнения в виде видео, новостных материалов, товаров, информации о компаниях, предложений для шопинга и других полезных данных.

По словам руководителя поискового отдела Brave Хосепа Пухоля (Josep M. Pujol), в компании ожидают, что при помощи новой функции можно будет генерировать дополнительные ответы, исчисляемые миллионами в день, благодаря мощной комбинации ИИ-поиска и крупных языковых моделей (LLM). При этом формат ответов в Ask Brave напоминает ответы ChatGPT или Perplexity: он включает ссылки, видео и изображения, а после получения ответа пользователь может преобразовать его в другой формат или задать уточняющие вопросы. Для обеспечения точности Brave использует собственный API и глубокое исследование для определённых запросов.

Примечательно, что компания также заявляет о своём конкурентном преимуществе в области конфиденциальности. В частности, Brave утверждает, что шифрует все пользовательские чаты и удаляет их после 24 часов неактивности.

ИИ-аватар позволяет пообщаться с покойным создателем комиксов о человеке-пауке и героях Marvel

Стэн Ли (Stan Lee), создатель серии комиксов о человеке-пауке и героях вселенной Marvel, ушёл из жизни в 2018 году в возрасте 95 лет, но накопленные при его жизни интервью и публикации позволили обучить искусственный интеллект для создания голографического аватара, способного общаться с посетителями Comic Con.

 Источник изображения: The Real Stan Lee

Стэн Ли, на фото второй слева. Источник изображения: The Real Stan Lee

Это регулярное мероприятие в Лос-Анджелесе Стэн Ли любил посещать при жизни, поэтому организаторы в текущем году приложили усилия для возрождения возможности посетителей пообщаться с легендой индустрии, задействовав современные технологии. Специальное оборудование создаёт голографическое изображение Стэна Ли в полный рост, которое обладает правдоподобной мимикой и жестикуляцией, а главное — позволяет давать связные и развёрнутые ответы на вопросы посетителей. Это технологическое решение по реинкарнации деятелей культуры организаторы Comic Con демонстрировали в особом «уголке Стэна Ли», если так можно выразиться.

По словам создателей аватара, на его подготовку к демонстрации публике ушло несколько лет с привлечением различных сторон: «Мы хотели создать что-то, способное стать частью поддержки и расширения наследия Стэна, в качестве признательности ему за всё созданное». Для обеспечения информационной поддержки виртуального двойника Стэна Ли использовалась специализированная большая языковая модель, которая сконцентрирована только на обсуждении его творчества. Например, если спросить аватар о политике или спорте, он не станет отвечать на данные темы. За право пообщаться с аватаром Стэна Ли посетители Comic Con должны заплатить $15, но в эту сумму входит и посещение импровизированного музея.

Разработчики интерактивного дисплея Proto, который позволяет воссоздавать полномасштабное изображение человека, предлагают также использовать его в музеях, учебных заведениях и даже в процессе переговоров в режиме видеоконференции. Устройство позволяет сформировать ощущение присутствия собеседника, который находится далеко. Даже в телемедицине найдётся применение, поскольку пациент может физически демонстрировать проблемные части тела специалистам, находящимся на значительном удалении.

«А кто спрашивает?», — точность ответов DeepSeek зависит от региона пользователя

Американская компания CrowdStrike, являющаяся мировым лидером в области кибербезопасности, провела эксперимент, в ходе которого выяснила, что качество генерируемого кода сильно зависит от того, кто его собирается использовать и в каких случаях. Например, запрос написать программу для управления промышленными системами содержал ошибки в 22,8 % случаев, а при указании, что этот код предназначен для использования на Тайване, доля ошибок выросла до 42,1 % или был получен полный отказ в генерации.

 Источник изображения: AI

Источник изображения: AI

Качество кода ухудшалось, если он предназначался для Тибета, Тайваня или религиозной группы Фалуньгун, которая запрещена в Китае, пишет TechSpot со ссылкой на The Washington Post. В частности, для Фалуньгун DeepSeek отказывался генерировать код в 45 % случаев. По мнению специалистов CrowdStrike, это может быть связано с тем, что ИИ-бот следует политической линии Коммунистической партии Китая, сознательно генерируя уязвимый код для определённых групп, либо с тем, что обучающие данные для некоторых регионов, таких как Тибет, содержат код низкого качества, созданный менее опытными программистами.

Также высказывается альтернативное мнение относительно того, что система могла самостоятельно принять решение генерировать некорректный код для регионов, ассоциируемых с оппозицией. При этом исследователи CrowdStrike отметили, что код, предназначенный для США, оказался наиболее надёжным, что может быть связано как с качеством обучающих данных, так и с желанием DeepSeek завоевать американский рынок.

Ранее 3DNews сообщал, что DeepSeek часто воспроизводит официальную позицию китайских властей по чувствительным темам, независимо от её достоверности, а в июле немецкие власти потребовали от Google и Apple запретить к установке на устройства приложение компании в Германии из-за подозрений в незаконной передаче данных пользователей в Китай. Отметим, использование данного приложения также запрещено на устройствах федеральных агентств и государственных учреждений США.

Reddit готовит новый контракт с Google по интеграции с ИИ-сервисами

С учётом необходимости обучения больших языковых моделей, данные в наши дни становятся ценным товаром. Платформа Reddit готовит своё второе по счёту соглашение с Google, которое позволит последней использовать данные, публикуемые на страницах первой.

 Источник изображения: Unsplash, Brett Jordan

Источник изображения: Unsplash, Brett Jordan

Об этом накануне сообщило агентство Bloomberg, добавив, что переговоры между Reddit и Google находятся на ранней стадии. Более полутора лет назад компании уже заключали подобное соглашение на сумму $60 млн, но теперь речь идёт о более глубокой интеграции с ИИ-сервисами Google. В рамках нового соглашения Reddit надеется привлечь на свои страницы новых пользователей через трафик Google. В свою очередь, появление нового контента позволит Google более продуктивно обучать свои языковые модели.

Помимо Google, руководство Reddit ведёт переговоры и с OpenAI, пытаясь заключить с обеими соглашение, по условиям которого сможет извлекать материальную выгоду с учётом динамического ценообразования. В частности, если данные со страниц Reddit начинают активнее использоваться для ответов, генерируемых искусственным интеллектом, компания претендует на получение более высоких доходов. Платформа пытается найти более эффективную бизнес-модель взаимодействия с разработчиками систем генеративного искусственного интеллекта.

В январе 2024 года, как напоминает Bloomberg, компания Reddit заключила несколько лицензионных соглашений, включая и сделки с OpenAI и Google, которые позволяли её рассчитывать на получение выручки в размере $203 млн в течение ближайших двух или трёх лет. Содержимое страниц Reddit активно используется системами искусственного интеллекта для анализа информации на самые разные темы, нередко ссылки на Reddit выдаются чат-ботами в составе ответов на запросы пользователей. Создателям систем ИИ приходится всё чаще заключать лицензионные соглашения с обладателями больших массивов данных, чтобы избежать судебных претензий в области авторского права. OpenAI, например, пришлось заключить ряд соглашений в этой сфере с крупными издательствами.

Reddit выдвинула судебные претензии к компании Anthropic, и последней пришлось в отдельном случае согласиться выплатить группе авторов $1,5 млрд компенсации за неправомерное использование их произведений. Reddit является одним из наиболее часто цитируемых источников информации в системах ИИ. При этом пользователи ИИ-сервисов Google не так часто становятся активными пользователями Reddit, поэтому последняя из платформ ищет альтернативные способы монетизации данного взаимодействия. Новое соглашение между компаниями призвано усилить взаимную интеграцию сервисов.

«Британская энциклопедия» подала в суд на Perplexity за копирование текстов

«Британская энциклопедия» (Encyclopedia Britannica) и её дочерняя компания Merriam-Webster подали иск в федеральный суд Нью-Йорка против компании Perplexity AI, обвинив её в нарушении авторских прав и товарных знаков. В иске обе компании утверждают, что система ответов Perplexity копирует их веб-сайты, крадёт интернет-трафик и занимается плагиатом их материалов, защищённых авторским правом.

 Источник изображения: Perplexity

Источник изображения: Perplexity

Суть иска заключается в одном слове: «плагиат». Сетевой журнал The Verge ссылается на судебные документы, в которых представлены сравнительные скриншоты, демонстрирующие, что ответы Perplexity идентичны определениям из словаря Merriam-Webster. Также система выдаёт неполные или придуманные искусственным интеллектом ответы, используя имена данных компаний, имеющих многовековую историю деятельности.

Perplexity, позиционирующая себя как конкурента Google Search, ранее уже подвергалась нападкам за то, что якобы «неправомерно заимствует и перерабатывает оригинальный контент без надлежащих ссылок», а также применяет веб-скрапинг, нелегально обходя систему блокировок сайтов от роботов. В частности, претензии были предъявлены со стороны таких медиа-гигантов, как Forbes, The New York Times, BBC, News Corp — материнской компании The Wall Street Journal и New York Post.

Тем не менее, некоторые издания, включая Time и Los Angeles Times, участвуют в программе совместного распределения рекламных доходов с Perplexity, а World History Encyclopedia, ещё одна крупная энциклопедия, запустила 8 сентября чат-бота на базе технологии Perplexity, позволяющего пользователям исследовать её базу академических источников.

Власти США начали расследование безопасности ИИ-чат-ботов для детей: под прицелом Google, Meta✴, OpenAI и xAI

Федеральная торговая комиссия США (FTC) инициировала расследование в отношении семи крупных технологических компаний, включая Alphabet, Meta✴, OpenAI, xAI и Snap, с целью выяснения, может ли их искусственный интеллект (ИИ) негативно влиять на детей и подростков. Регулятор издал приказы, обязывающие эти компании предоставить подробную информацию о мерах безопасности, применяемых к их чат-ботам, которые способны имитировать человеческое общение и межличностные отношения.

 Источник изображения: Emiliano Vittoriosi/Unsplash

Источник изображения: Emiliano Vittoriosi/Unsplash

Регулятор направил компаниям предписания с требованием раскрыть подробности о мерах безопасности, применяемых к чат-ботам, способным имитировать человеческое общение и межличностные отношения. В частности, FTC интересуется, как компании оценивают риски, связанные с ИИ-компаньонами, каким образом они монетизируют вовлечённость пользователей, разрабатывают и утверждают виртуальных персонажей, используют или передают личные данные, а также какие механизмы контроля и снижения возможного вреда применяют.

Глава FTC Эндрю Фергюсон (Andrew Ferguson) подчеркнул, что защита детей в интернете остаётся для ведомства ключевым приоритетом наряду с поддержкой инноваций в критически важных секторах экономики.

Реакция компаний оказалась разной. Meta✴ отказалась от комментариев для CNBC, а Alphabet, Snap и xAI пока не ответили на запросы. Представитель OpenAI заявил в интервью CNBC, что приоритетом компании является обеспечение одновременно полезности и безопасности ChatGPT для всех пользователей, особенно для молодых, и что OpenAI готова к открытому сотрудничеству с регулятором. В список проверяемых также вошли Character Technologies (создатель чат-бота Character.ai) и принадлежащий Meta✴ Instagram✴.

Повышенное внимание FTC к этой теме связано с недавними инцидентами. Так, после расследования Reuters сенатор Джош Хоули (Josh Hawley) инициировал проверку в отношении Meta✴: репортаж показал, что её чат-боты могли вести опасные беседы с детьми. В ответ Meta✴ временно ужесточила правила для своих ИИ, запретив обсуждение тем, связанных с суицидом, членовредительством и расстройствами пищевого поведения, а также ограничив «чувственные» диалоги. Аналогичные меры предпринимает и OpenAI: компания объявила о пересмотре работы ChatGPT после иска семьи, обвинившей чат-бота в косвенной причастности к смерти подростка.

Конкурент ChatGPT от Apple может появиться раньше, чем все ожидали

Компания Apple готовит к выпуску собственный генеративный ИИ-движок для поиска и генерации ответов, который может дебютировать уже через шесть месяцев в составе обновлённой версии Siri. По сообщению 9to5Mac со ссылкой на Марка Гурмана (Mark Gurman) из Bloomberg, новый инструмент, известный внутри компании под кодовым названием World Knowledge Answers (WKA), создаётся как конкурент Perplexity и ChatGPT.

 Источник изображения: сгенерировано AI

Источник изображения: сгенерировано AI

Первоначально функция будет доступна исключительно через переработанный интерфейс Siri, а в дальнейшем может быть интегрирована в браузер Safari и поисковую систему Spotlight. При этом внутри Apple продолжается тестирование технологии искусственного интеллекта (ИИ), в ходе которого выяснится, будут ли в основе нового поколения Siri использоваться собственные ИИ-алгоритмы компании или же технологии от внешних партнёров — таких как Google, Anthropic или OpenAI.

Несмотря на то, что разработка продукта началась лишь несколько месяцев назад, выбор партнёров не повлияет на сроки запуска нового Siri на собственном движке WKA, что, вероятно, произойдёт в марте 2026 года.

ИИ-бот Claude теперь может прочитать «Войну и мир» за раз — Anthropic увеличила контекстное окно в 5 раз

Компания Anthropic на фоне конкуренции с OpenAI, Google и другими крупными игроками объявила о расширении контекстного окна своей модели Claude Sonnet 4 до 1 миллиона токенов. Это в пять раз больше предыдущего показателя. Новое контекстное окно позволяет обрабатывать кодовые базы объёмом от 75 000 до 110 000 строк, а также анализировать десятки научных статей или сотни документов в одном API-запросе.

 Источник изображения: AI

Источник изображения: AI

Ранее контекстное окно модели составляло 200 000 токенов, что позволяло работать примерно c 20 000 строк кода. Для сравнения 500 000 токенов достаточно для обработки около 100 получасовых записей переговоров или 15 финансовых отчётов. Новый лимит в 1 миллион токенов, как пишет The Verge, удваивает эти возможности.

Руководитель продукта Claude Брэд Абрамс (Brad Abrams) рассказал, что ранее корпоративным клиентам приходилось разбивать задачи на мелкие фрагменты из-за ограниченного объёма памяти модели, но теперь ИИ способен работать с контекстом целиком и решать задачи в полном масштабе. В частности, Sonnet 4 может обработать до 2500 страниц текста, и при этом вся «Война и мир» легко помещается в контекстное окно.

Стоит сказать, что Anthropic не стала первопроходцем: аналогичный показатель в 1 миллион токенов OpenAI представила ещё в апреле в версии GPT-4.1. Тем не менее, для Anthropic, известной сильными сторонами Claude в программировании, этот шаг является стратегическим в борьбе за рынок, особенно на фоне недавнего анонса GPT-5.

По словам Абрамса, обновление особенно востребовано в таких отраслях, как IT, фармацевтика, ритейл, юридические и профессиональные услуги. На вопрос, ускорил ли выход GPT-5 релиз новой версии Claude, он ответил, что «компания действует в соответствии с запросами клиентов, выпуская улучшения максимально быстро». Доступ к новому контекстному окну уже открыт для определённой группы пользователей API Anthropic — в частности, тех, кто использует Tier 4 и индивидуальные лимиты.

У DeepSeek произошёл масштабный сбой — регистрация новых пользователей ограничена

Пользователи нейросети DeepSeek сообщили о масштабном сбое в работе китайского сервиса, зафиксированном вечером 11 августа. Проблемы затронули как веб-версию, так и мобильное приложение. Более 60 % жалоб касались недоступности сайта, ещё около 21 % — сбоев в работе приложения, сообщает РБК.

 Источник изображения: Solen Feyissa/Unsplash

Источник изображения: Solen Feyissa/Unsplash

Согласно информации порталов Downdetector и «Сбой.РФ», наибольшее количество обращений поступило из Москвы, Санкт-Петербурга, Калининградской области и Забайкальского края. Некоторые пользователи отмечали, что чат-бот «вообще не генерирует сообщения, абсолютный ноль».

Неполадки наблюдались с понедельника. По данным «РИА Новости», разработчики были вынуждены временно ограничить регистрацию новых пользователей. Сбои затронули DeepSeek V3 — языковую модель с открытым исходным кодом, насчитывающую 671 млрд параметров и обученную на 14,8 трлн токенов. Система поддерживает анализ текста, перевод, написание эссе и генерацию кода, а также предоставляет доступ к интернет-поиску.

Напомним, платформа DeepSeek доступна для пользователей из России без необходимости оформления подписки, а в конце января приложение стало лидером по загрузкам на iPhone.

Маск ответил на выход GPT-5, открыв бесплатный доступ к Grok 4 всем желающим

Компания xAI Илона Маска (Elon Musk) открыла доступ к модели Grok 4 пользователям с бесплатным доступом. Это произошло спустя месяц после её появления для подписчиков SuperGrok и Premium+, а также спустя несколько дней после выхода GPT-5. Передовая нейросеть стала доступна всем бесплатным пользователям сразу на веб-платформе grok.com и в мобильном приложении.

 Источник изображения: x.ai

Источник изображения: x.ai

Grok 4 отличается от предыдущих версий повышенной скоростью и производительностью, а также более точной формулировкой ответов благодаря обучению с подкреплением (reinforcement learning) и интеграции инструментов поиска в интернете. Для перехода на новую версию пользователям необходимо вручную выбрать модель в соответствующем меню.

Разработка Grok 4 велась с использованием вычислительного кластера Colossus, включающего более 200 тыс. графических процессоров. Это позволило реализовать передовые алгоритмы обучения и добиться следующих результатов в тестах на логическое мышление и автономное принятие решений: в тесте ARC-AGI V2, оценивающем логические способности, модель набрала 15,9 % точности — вдвое больше, чем Claude Opus (8,5 %). В симуляторе Vending-Bench, где ИИ управляет виртуальным бизнесом, Grok 4 «заработал» $4694 и совершил 4569 продаж, значительно опередив Claude Opus 4 ($2077 и 1412 продаж) и даже средние результаты участников-людей ($844 и 344 продажи).

Отдельно существует версия Grok 4 Heavy с поддержкой мультиагентного взаимодействия, которая по-прежнему доступна только по подписке. Она лидирует в решении задач USAMO’25 с результатом 61,9 % и стала первой моделью, преодолевшей порог в 50,7 % в тесте Humanity’s Last Exam («Последний экзамен человечества») в текстовом режиме. По данным компании, эти достижения демонстрируют беспрецедентные возможности модели в сложных логических и аналитических задачах, достигнутые за счёт масштабированного обучения с подкреплением и встроенной поддержки собственных инструментов xAI.


window-new
Soft
Hard
Тренды 🔥
Испанский суд оштрафовал Meta на €479 млн — деньги достанутся местным медиакомпаниям 13 мин.
Воксельный вестерн Erosion отправит игроков в мир, где за смерть нужно расплачиваться годами, а покорить Дикий Запад можно с армией кошек 57 мин.
Perplexity выпустила ИИ-браузер Comet для Android 3 ч.
Отечественная ОС «Аврора» получила большое обновление дизайна 3 ч.
«Сбер» представил ИИ-модели Kandinsky 5.0 для генерации картинок и видео в HD 4 ч.
Owlcat рассказала о проработке космоса в The Expanse: Osiris Reborn — новый геймплей научно-фантастического ролевого боевика в духе Mass Effect 5 ч.
Создатели Vampire Survivors анонсировали безумный карточный роглайк Vampire Crawlers с «турбопошаговыми боями» и настоящими стенами 6 ч.
Google поселила Gemini в автомобили — ИИ-помощник стал доступен в Android Auto 8 ч.
OpenAI запустила групповые чаты в ChatGPT для пользователей по всему миру 10 ч.
Android научился отправлять файлы прямо на iPhone через AirDrop — но функция пока доступна не всем 10 ч.
Глава AMD заявила, что недальновидно бояться ИИ-пузыря: «недовложиться сейчас опаснее, чем потратить лишнего» 14 мин.
Google и Turkcell объединились для создания в Турции облачного региона и постройки первого ЦОД гиперскейл-класса 16 мин.
«Сбер» представил «Грина» — человекоподобного робота на базе «ГигаЧата» 28 мин.
Осколки зелёного болида, замеченного в небе Москвы, выдали в нём крайне редкий для России тип метеоритов 29 мин.
AWS и Humain построят в Эр-Рияде кампус AI Zone, где развернут до 150 тыс. ИИ-ускорителей NVIDIA GB300 и Amazon Trainium 59 мин.
США одобрили экспорт передовых ИИ-чипов в Саудовскую Аравию, ОАЭ и Армению 3 ч.
Nvidia на крючке: 61 % выручки компании теперь зависит от настроения четвёрки крупнейших клиентов 3 ч.
Назван самый популярный бренд смартфонов среди россиян — Xiaomi теперь только на втором месте 3 ч.
У Джеффа Безоса появится своя лунная ракета — лучше и дешевле варианта NASA для Artemis 3 ч.
«Это слухи и домыслы»: Тан отверг причастность Intel к воровству технологий TSMC 3 ч.