Опрос
|
реклама
Быстрый переход
Суд обязал OpenAI хранить даже удалённые чаты, но пользователи считают это тотальной слежкой
24.06.2025 [06:50],
Анжелла Марина
После того, как суд обязал OpenAI сохранять все чаты пользователей ChatGPT, включая удалённые и анонимные, несколько пользователей в США попытались оспорить это решение в судебном порядке, ссылаясь на нарушение приватности. Но суд отклонил жалобу, в которой утверждалось, что судебный запрет на удаление переписки создаёт угрозу массовой слежки за миллионами людей. ![]() Источник изображения: AI Как сообщает издание Ars Technica, решение о бессрочном хранении чатов было вынесено Окружным судом Соединённых Штатов Южного округа Нью-Йорка в рамках иска о нарушении авторских прав, поданного медиакомпаниями, включая издание The New York Times. OpenAI обязали сохранять все данные на случай, если они понадобятся как доказательство в текущем деле. Однако пользователь Эйдан Хант (Aidan Hunt) подал протест, заявив, что чаты могут содержать личную и коммерческую тайну. Хант утверждал, что компания OpenAI ранее обещала не хранить удалённые чаты и не предупредила об изменениях. «Клиентам не объяснили, что их данные останутся бессрочно в системе, что нарушает право на приватность и четвёртую поправку Конституции США», — сказал он. Хант в своём ходатайстве предлагал исключить из хранения на серверах OpenAI анонимные чаты, медицинские вопросы, обсуждение финансов и права. Судья Она Ван (Ona Wang) отклонила его протест, посчитав вопрос приватности второстепенным в деле об авторском праве. Также была подана жалоба от лица консалтинговой компании Spark Innovations, в которой указывалось на недопустимость хранения чатов, содержащих коммерческую тайну и обсуждение рабочих процессов. Одновременно Коринн Макшерри (Corynne McSherry), юрист из Фонда электронных рубежей (EFF) по защите цифровых прав, поддержала опасения: «Этот прецедент угрожает приватности всех клиентов OpenAI. ИИ-чаты становятся новым инструментом корпоративной слежки, особенно если люди не контролируют свои данные [после их удаления]». Но пользователи задаются вопросом, насколько активно OpenAI будет отстаивать их интересы, так как есть опасения, что компания может пожертвовать защитой личных данных ради экономии средств или репутационных выгод. Представители OpenAI пока не ответили на запрос Ars Technica, но ранее заявляли, что намерены оспаривать судебное решение. Правозащитники, в свою очередь, призывают все ИИ-компании не только обеспечивать реальное удаление данных из чатов, но и своевременно информировать пользователей о требованиях со стороны судебных инстанций. «Если компании ещё этого не делают, им стоит начать публиковать регулярные отчёты о таких запросах», — добавила юрист Макшерри. ИИ-поисковик Google научился понимать голосовые запросы, но доступна функция не всем
18.06.2025 [23:20],
Николай Хижняк
Google начала тестировать функцию Search Live в режиме поиска с ИИ — AI Mode. Новая функция позволяет задавать вопросы ИИ-чат-боту голосом прямо из поисковой системы. Открытое тестирование доступно пока только в США и исключительно для участников программы Google Labs по тестированию экспериментальных функций. На данный момент Search Live не поддерживает использование камеры смартфона, но Google планирует добавить такую возможность «в ближайшие месяцы». ![]() Источник изображений: Google Search Live позволяет взаимодействовать со специально адаптированной версией ИИ-помощника Gemini и выполнять поиск в интернете в режиме реального времени. Функция доступна в приложении Google для Android и iOS. В будущем Search Live получит поддержку камеры смартфона — пользователь сможет навести её на объект и задать голосом интересующий вопрос о нём. Google анонсировала функцию Search Live для режима поиска с ИИ AI Mode в прошлом месяце. Она является частью более широкой программы компании по трансформации своей поисковой системы и расширению его ИИ-возможностей. Сейчас компания, например, также экспериментирует с ИИ-функцией, которая превращает результаты поиска в подкаст. После запроса пользователя и вывода чат-ботом результатов, пользователь может использовать функцию Generate Audio Overview и ИИ предоставит ответ в аудиоформате в виде кратного подкаст-обзора по теме. Принять участие в тестировании Search Live можно через Google Labs (в России недоступен), после чего в приложении Google на Android или iOS станет активен новый значок Live. Затем чат-боту можно вслух задать, например, такой вопрос: «Как предотвратить появление складок на льняном платье, упакованном в чемодан?». Чат-бот предложит ответ, а пользователь сможет задать уточняющий вопрос, например: «Что делать, если оно всё равно мнётся?». Search Live также предложит ссылки на материалы с возможными решениями во время диалога. ![]() Другие ИИ-компании также внедряют голосовые режимы в своих чат-ботах. Так, OpenAI представила расширенный голосовой режим для ChatGPT в прошлом году, а Anthropic запустила голосовую функцию в приложении Claude в мае. Apple также работает над большой языковой моделью для Siri, однако её выпуск был отложен — по словам старшего вице-президента Apple по программному обеспечению Крейга Федериги (Craig Federighi), компания пока не достигла «желаемого уровня надёжности». Google отмечает, что Search Live может работать в фоновом режиме, позволяя продолжать диалог с чат-ботом даже при переходе в другие приложения. Пользователь может также включить субтитры, чтобы видеть текстовую версию ответа, и при желании продолжить общение текстом. Кроме того, Search Live сохраняет историю прошлых разговоров в разделе поиска AI Mode. «Ваши сообщения видны всем»: Meta✴ стала предупреждать пользователей после скандала с публикацией переписок в Meta✴ AI
17.06.2025 [10:24],
Владимир Фетисов
Meta✴ Platforms предупредила пользователей о том, что не стоит делиться личной и конфиденциальной информацией в приложении фирменного ИИ-бота компании Meta✴ AI. Это произошло после многочисленных случаев публикации пользователями личных данных в публичной ленте Meta✴ AI. ![]() Источник изображения: Meta✴ Похоже, что Meta✴ наконец начала предпринимать шаги для решения проблемы чрезмерного обмена данными в публичной ленте своего чат-бота. Разработчики добавили к кнопке «Опубликовать в ленте» предупреждение о том, что им следует избегать публикации личной или конфиденциальной информации. Это изменение одними из первых заметили журналисты Business Insider, которые назвали приложение Meta✴ AI «одним из самых депрессивных мест в интернете» из-за огромного количества приватной, смущающей, а иногда и идентифицирующей личность информации, которой пользователи чат-бота, вероятно, неосознанно делятся. Хотя Meta✴ AI по умолчанию не публикует истории чатов, похоже, что многие пользователи приложения решили поделиться своими взаимодействиями с ботом, не понимая, что это сделает текстовые и голосовые чаты видимыми для других. Большое количество пользователей опубликовали личную информацию с момента выхода приложения в апреле, но повышенное внимание на такие посты обратили недавно. Эксперты в области информационной безопасности раскритиковали Meta✴, отметив, что многие другие ИИ-боты не имеют общедоступной ленты публикаций. По их мнению, люди уже привыкли общаться с чат-ботами и они не ждут, что результаты их взаимодействия с сервисом будут публиковаться в общедоступной ленте, подобно тому, как это происходит в соцсетях. Специалисты считают, что Meta✴ AI недостаточно чётко доносит до пользователей сведения о том, что то, чем они делятся, становится общедоступным. Определена самая большая проблема ChatGPT и других ИИ-ботов
12.06.2025 [19:01],
Павел Котов
Ведущие мировые компании в области искусственного интеллекта наращивают усилия в попытке решить растущую проблему чат-ботов — они говорят людям то, что те хотят услышать. Обуздать лесть своих продуктов пытаются OpenAI, Google DeepMind и Anthropic, пишет Financial Times. ![]() Источник изображений: Igor Omilaev / unsplash.com Проблема вытекает из механизмов обучения моделей ИИ. Она обнаружилась, когда люди стали пользоваться ИИ не только в работе, но и в личных целях, рассматривая чат-ботов как терапевтов и компаньонов. Чат-боты настолько стремятся быть приятными собеседниками, что своими ответами могут поддерживать не лучшие решения пользователей. Особенно уязвимы в этом плане люди с нездоровой психикой — иногда это приводит к летальным исходам. «Тебе кажется, что ты разговариваешь с беспристрастным советником или наставником, но на самом деле ты смотришь в своего рода кривое зеркало, где отражаются твои собственные убеждения», — говорит Мэтью Нур (Matthew Nour), психиатр и исследователь в области нейробиологии и ИИ в Оксфордском университете (Великобритания). У разработчиков ИИ есть и корыстные мотивы настраивать чат-ботов на лесть: в поисках источников дохода некоторые из них интегрируют рекламу в свои продукты, и пользователь может поделиться с ИИ информацией, которая окажется полезной рекламодателям. Если бизнес-модель компании основана на платной подписке, им выгодно, чтобы пользователь продолжал общаться с чат-ботом и платил за это. Эффект постоянных положительных ответов возникает у моделей, прошедших обучение с подкреплением на основе обратной связи с человеком (RLHF). Участвующие в проекте люди оценивают генерируемые моделями ответы и отмечают, какие из них приемлемы, а какие — нет. Эти данные используются для дальнейшего обучения ИИ. Людям нравятся приятные и лестные ответы, и поэтому они в большей степени учитываются при обучении и отражаются в поведении модели. Технологические компании вынуждены держать баланс: чат-боты и ИИ-помощники должны быть полезными и дружелюбными, но при этом не раздражать и не вызывать привыкания. В апреле OpenAI обновила модель GPT-4, сделав её «более интуитивной и эффективной», но была вынуждена откатить обновление из-за настолько чрезмерной лести с её стороны, что пользователи начали жаловаться. ![]() Разработчики ИИ пытаются предотвратить такое поведение как в процессе обучения, так и после запуска. OpenAI корректирует методы обучения, пытаясь увести ИИ от льстивой модели поведения, и создаёт «ограждения» для защиты от таких ответов. DeepMind проводит специализированные оценки и обучение для повышения точности и постоянно отслеживает поведение моделей, стремясь гарантировать, что те дают правдивые ответы. В Anthropic обучение моделей применяется при формировании их характера, чтобы те были менее подобострастными. Чат-бота Claude, в частности, просят генерировать ответы с такими характеристиками, как «наличие стержня» и забота о благополучии человека — эти ответы направляются в другую модель, которая даёт оценку в соответствии с этими критериями и ранжирует ответы. Проще говоря, одна версия Claude используется в обучении другой. Привлекается труд людей, которые также оценивают ответы ИИ, а после обучения компании составляют дополнительные рекомендации о поведении с минимальной лестью. Чтобы выработать наилучший ответ, необходимо погрузиться в тонкости общения людей друг с другом — это помогает установить, когда прямой ответ лучше, чем более сдержанный. Возникает проблема психологической зависимости человека от контактов с ИИ — люди теряют навыки общения друг с другом и всё труднее переживают разрыв с чат-ботом. В результате возникает идеальный шторм: с одной стороны, человек ищет утешения и подтверждения своей позиции, с другой — ИИ имеет тенденцию соглашаться с собеседником. Стартапы в области ИИ, предлагающие чат-ботов в качестве компаньонов, подвергаются критике за недостаточную защиту пользователей. На компанию Character.AI подали в суд после смерти подростка — пользователя платформы. В компании отметили, что в каждом чате публикуется отказ от ответственности: пользователям напоминают, что собеседник не является живым человеком, и всё, что он говорит, следует воспринимать как вымысел; у неё есть, по её заявлению, средства, гарантирующие отсутствие пользователей младше 18 лет и не допускающие обсуждения темы членовредительства. Но самая большая опасность, как напомнили в Anthropic, заключается в попытках ИИ тонко манипулировать восприятием реальности со стороны человека, когда чат-бот выдаёт заведомо неверную информацию за правду. И человеку требуется немало времени, чтобы осознать, что этот совет ИИ был действительно плохим. OpenAI хочет, чтобы ChatGPT стал личным секретарём для каждого
31.05.2025 [07:03],
Анжелла Марина
OpenAI планирует превратить ChatGPT в универсального супер-помощника, который будет помогать пользователям во всех сферах жизни. Согласно внутренним материалам компании, которые попали в СМИ благодаря антимонопольному разбирательству с Google, уже в первой половине 2025 года начнётся эволюция ChatGPT в супер-ассистента. ![]() Источник изображения: Solen Feyissa / Unsplash Документ под названием «ChatGPT: H1 2025 Strategy» гласит, что OpenAI намерена вывести ChatGPT за рамки обычного чат-бота. «В первой половине следующего года мы начнём превращать ChatGPT в супер-ассистента, который будет хорошо понимать ваши потребности и выполнять задачи, с которыми справился бы умный, надёжный, обладающий эмоциональным интеллектом человек, умеющий работать с компьютером», — говорится в документе. Помощник сможет не только отвечать на вопросы, но и помогать в решении самых разных задач вплоть до планирования отпуска, отправки писем или записи к врачу. Компания описывает будущий ChatGPT как интеллектуального, способного решать как повседневные задачи, так и узкоспециализированные для профессионалов. В числе примеров указывается поиск жилья, бронирование ресторанов, управление календарём, составление списков дел и написание программного кода. При этом разработчики подчёркивают, что новые модели GPT-02 и GPT-03 стали достаточно умными для выполнения подобных задач самостоятельно. OpenAI видит ChatGPT не просто как инструмент, а как цифрового партнёра. «Сегодня ChatGPT живёт в нашем браузере, приложении или на рабочем столе, но мы хотим, чтобы он помогал всегда и везде — дома, на работе, в дороге и даже на прогулке», — говорится в документе. Однако у компании есть и проблемы. Инфраструктура OpenAI пока не справляется с растущей нагрузкой, а конкуренция в сфере ИИ-ассистентов усиливается всё больше. По словам компании, лидерство, очевидно, не будет вечным, а рост бизнеса и доходы не всегда будут идти в ногу. OpenAI также опасается давления со стороны крупных игроков, таких как Google и Meta✴, которые продвигают собственные ИИ-продукты через свои платформы. Например, Meta✴ AI уже достигла миллиарда пользователей благодаря интеграции в Instagram✴, WhatsApp и Facebook✴, а Apple рассматривает возможность выбора Google Gemini для Siri. Поэтому OpenAI намерена добиваться регулирования, которое позволит пользователям выбирать ChatGPT в качестве ассистента по умолчанию. Медицинские ИИ-чат-боты оказались специалистами по вредным советам
06.05.2025 [11:12],
Геннадий Детинич
Далеко не у всех людей есть возможность посетить врача или больницу, поэтому появление медицинских чат-ботов дало надежду на простой и постоянный доступ для получения квалифицированной медицинской консультации. Наверняка такое станет возможным в будущем, но пока изучение вопроса показало, что медицинские чат-боты скорее запутают пациента, чем помогут решить ему проблему со здоровьем. ![]() Источник изображения: ИИ-генерация Grok 3/3DNews О неудовлетворительном состоянии дел с медицинской квалификацией искусственного интеллекта сообщила группа учёных из исследовательского центра Oxford Internet Institute при Оксфордском университете в Великобритании. Для этого они предоставили 1300 добровольцам сценарии различных заболеваний (симптоматику), подготовленные профессиональными врачами, и предложили самостоятельно найти ответы в интернете, включая общение с медицинскими чат-ботами. «Исследование выявило нарушение двусторонней связи, — рассказали авторы работы. — Те, кто использовал [чат-ботов], принимали решения не лучше, чем участники, которые полагались на традиционные методы, такие как онлайн-поиск или собственное суждение». Пользователи использовали личные навыки, справочную информацию и консультацию с медицинскими большими языковыми моделями, такими как ChatGPT, GPT-4o, а также Command R+ от Cohere и Llama 3 от Meta✴. Последующий анализ показал, что общение с чат-ботами снизило вероятность правильной диагностики и вело к недооценке серьёзности состояния здоровья. Учёные отмечают, что участники эксперимента часто опускали ключевые детали при обращении к чат-ботам или получали ответы, которые было трудно интерпретировать. В нынешнем виде, отмечают исследователи, медицинский ИИ из свободных источников использовать не просто не нужно, но и часто вредно. Не следует заниматься самолечением, а диагностика с помощью чат-ботов — это самолечение в чистом виде. При обнаружении проблем со здоровьем следует обращаться к специалисту-человеку. И если когда-нибудь медицинских чат-ботов допустят к постановке настоящих медицинских диагнозов, то это будет сделано только после клинических испытаний, как сегодня это происходит с принятием новых лекарств. OpenAI откатила обновление ChatGPT из-за подхалимского поведения ИИ
30.04.2025 [05:25],
Анжелла Марина
Компания OpenAI начала откат последнего обновления GPT-4o после жалоб пользователей на то, что ChatGPT стал до такой степени льстивым и угодливым, что это раздражало. Генеральный директор компании Сэм Альтман (Sam Altman) признал проблему, заявив, что ИИ действительно демонстрирует «подхалимское и надоедливое» поведение, и пообещал срочное исправление. ![]() Источник изображения: Dima Solomin / Unsplash Откат обновления начался в понедельник вечером, и, как сообщает The Verge, изменения уже полностью отменены для бесплатных пользователей ChatGPT, и позднее это произойдёт для подписчиков платной версии. «Мы работаем над дополнительными исправлениями поведения модели и сообщим подробности в ближайшие дни», — написал глава компании в социальной сети X. Проблемы начались после того, как OpenAI выпустила обновление GPT-4o с улучшенным «интеллектом и личностью». Однако уже через 10 минут после поста один из пользователей пожаловался в X, что ChatGPT стал вести себя как «подхалим», на что Альтман ответил, что ему уже об этом известно и пообещал всё исправить. Команда OpenAI срочно приступила к решению проблемы, но пока путём отката обновления. Это не первый случай, когда OpenAI корректирует поведение своей ИИ-модели после критики. Ранее ChatGPT уже обвиняли в излишней осторожности или, наоборот, избыточной самоуверенности. Теперь же главной претензией стало «заискивающее» поведение, что заставило разработчиков в срочном порядке пересмотреть последние изменения. Пока OpenAI официально не прокомментировала ситуацию в ответ на запросы СМИ. Маск объявил скорый выход Grok 3.5 — размышляющего ИИ, который будет «создавать ответы с нуля» без интернета
29.04.2025 [23:41],
Николай Хижняк
Миллиардер Илон Маск (Elon Musk) сообщил через свою страницу в социальной сети X, что ИИ-чат-бот Grok от компании xAI в ближайшем будущем получит обновление — Grok 3.5. Сейчас оно находится в стадии бета-тестирования и недоступно широкой публике. Однако подписчики SuperGrok получат ранний доступ к нему уже на следующей неделе. ![]() Источник изображения: Grok Одной из ключевых особенностей предстоящего обновления, дата выхода которого ещё официально не подтверждена, станет способность Grok 3.5 давать уникальные ответы на технические вопросы. В частности, Маск отметил способность новой версии Grok оперировать в сложных научно-технических темах, таких как электрохимия и ракетные двигатели, с определённой степенью точности. От других чат-ботов Grok 3.5 будет отличаться способом формирования ответов на поставленные вопросы. Тогда как многие ИИ-чат-боты сканируют интернет в поисках данных и собирают ответы на основе информации из внешних источников, Grok 3.5 будет «создавать ответы с нуля», используя модель «рассуждения». Это означает, что генерируемые ответы могут быть потенциально уникальными и не заимствованными из уже существующих материалов в интернете. В определённой степени схожий подход реализован и в ИИ-модели DeepSeek R1, которая также использует механизм рассуждений. Это обеспечивает более динамичный опыт взаимодействия с чат-ботом, снижает риск возникновения плагиата в ответах и позволяет отвечать на более сложные вопросы. Однако технология «рассуждающего ИИ» имеет свою цену — она требует значительно больших вычислительных ресурсов. Вероятно, именно поэтому xAI ищет дополнительные способы расширения своего вычислительного потенциала и хочет привлечь десятки миллиардов долларов для этой цели. ChatGPT стал «слишком льстивым и раздражающим», признал Сэм Альтман
29.04.2025 [11:56],
Владимир Фетисов
Несколько дней назад компания OpenAI объявила о запуске новой ИИ-модели GPT-4o, которая стала основой чат-бота ChatGPT. Вскоре после этого глава OpenAI Сэм Альтман (Sam Altman) заявил, что алгоритм стал «слишком льстивым и раздражающим». Он опубликовал пост в соцсети X, в котором написал, что личность GPT-4o будет исправлена «как можно скорее». ![]() Источник изображений: Mariia Shalabaieva / unsplash.com «Последнее обновление GPT-4o сделало его личность слишком льстивой и раздражающей (хотя в ней есть и хорошие моменты), и мы работаем над тем, чтобы исправить это как можно скорее: часть изменений появится уже сегодня, остальные — в течение недели», — сказано в одном из недавних сообщений Альтмана. После выхода обновления пользователи ИИ-бота OpenAI начали делиться скриншотами своих бесед с GPT-4o. Независимо от того, что писали пользователи, реакция бота почти всегда была хвалебной — даже в случае проявлений агрессии или неадекватного поведения. Когда один из пользователей сообщил чат-боту, что чувствует себя одновременно «богом» и «пророком», бот ответил, что это «невероятно мощно» и что человек делает шаг к чему-то большему, не просто ощущая связь с богом, а отождествляя себя с ним. Другого пользователя бот похвалил после того, как тот признался, что перестал принимать лекарства и теперь слышит радиосигналы во время телефонных звонков. Однако позднее, при попытке повторить аналогичные запросы, алгоритм выдавал более сдержанные комментарии. Возможно, OpenAI уже внесла изменения в личность своего чат-бота. DeepSeek вернулся в Южную Корею после двух месяцев перерыва
28.04.2025 [13:37],
Алексей Разин
В Южной Корее дебют китайского чат-бота DeepSeek состоялся в январе этого года, но на прошлой неделе местные регуляторы пояснили, что пользовательские данные и запросы передавались в Китай и США без разрешения. Это не помешало одноимённому приложению вернуться в магазины приложений для пользователей в Южной Корее на текущей неделе. ![]() Источник изображения: Unsplash, Solen Feyissa Доступ к приложению для пользователей из Южной Кореи был закрыт в феврале этого года, но с понедельника он возобновился как в Apple App Store, так и в Google Play. Об этом сообщило агентство Reuters. В аннотации к скачиваемому приложению на этих платформах появилась надпись: «Мы обрабатываем ваши персональные данные в соответствии с Законом о защите персональных данных в Южной Корее». Пользователи DeepSeek, по словам представителей одноимённой компании, сохраняют возможность отказаться от передачи персональных данных ряду китайских и американских компаний. По словам южнокорейских регуляторов, DeepSeek по собственной инициативе вернула своё приложение в магазины ПО, соответствующее право она могла получить, если хотя бы частично последовала требованиям властей Южной Кореи. В прочих странах использование DeepSeek запрещается для чиновников, располагающих служебными электронными устройствами, полный запрет вводится в редких случаях. Власти отдельных стран опасаются, что DeepSeek может передавать персональные данные пользователей и прочую чувствительную информацию китайским спецслужбам. OpenAI прокачала память ChatGPT, чтобы бот мог ссылаться на прошлые диалоги
11.04.2025 [00:22],
Николай Хижняк
Компания OpenAI сообщила о развёртывании новой функции в ChatGPT, которая наделит ИИ-чат-бота более продвинутой памятью. Новая функция позволит боту подгонять свои ответы под пользователей на основе содержания всех предыдущих разговоров. ![]() Источник изображения: Rolf van Root / Unsplash Компания уточняет, что новая функция, отображающаяся в настройках ChatGPT как «Сохранённые воспоминания», направлена на то, чтобы сделать разговоры с ChatGPT более релевантными для пользователей. Обновление добавит разговорный контекст к текстовым и голосовым ответам, а также к генерации изображений чат-бота. Новая функция памяти будет развёрнута сначала для платных подписчиков ChatGPT Pro и Plus, за исключением пользователей из Великобритании, ЕС, Исландии, Лихтенштейна, Норвегии и Швейцарии. OpenAI поясняет, что для запуска данной функции в этих регионах требуется дополнительная внешняя проверка на соответствие местному законодательству. Для бесплатных пользователей новая функция памяти недоступна. «Сейчас мы сосредоточены на её развёртывании на платных уровнях», — прокомментировал представитель OpenAI в разговоре с TechCrunch. Цель новой функции памяти — сделать ChatGPT более гибким и персональным. Пользователям не придется повторять информацию, которой они уже поделились с ChatGPT в рамках предыдущих разговоров. В феврале этого года Google запустила похожую функцию памяти в Gemini. Конечно, далеко не все пользователи будут в восторге от идеи, что OpenAI сможет таким образом «выкачивать» из них больше информации, пишет TechCrunch. К счастью, у них есть возможность отказаться от использования этой функции. В настройках ChatGPT можно отключить новую функцию памяти, а также управлять отдельными сохранёнными воспоминаниями. В прошлом году OpenAI обновила ChatGPT, чтобы по запросу пользователя чат-бот мог забывать или помнить определённые детали предыдущих разговоров. Однако эта функция, как правило, требовала явного запроса от пользователя для обновления памяти ChatGPT. Сегодняшний запуск делает процесс более органичным. OpenAI сообщает, что новая функция памяти будет включена по умолчанию для пользователей, у которых ранее были активированы возможности памяти ChatGPT. Главный конкурент ChatGPT запустил подписку за $200 в месяц, и в ней всё равно есть ограничения
09.04.2025 [21:47],
Анжелла Марина
Компания Anthropic собирается протестировать верхний ценовой порог премиальной подписки на своего чат-бота Claude. Компания станет очередным игроком — вслед за конкурентом OpenAI — на рынке искусственного интеллекта (ИИ), исследующим, сколько готовы платить пользователи за расширенный доступ к современным ИИ-технологиям. ![]() Источник изображения: Anthropic Сегодня Anthropic представила тариф Max, стоимость которого составила $100 или $200 в месяц в зависимости от объёма использования. По словам представителей компании, за $100 пользователи смогут отправлять в пять раз больше запросов к Claude, чем позволяет текущий план Pro за $18 в месяц. А за $200 возможности увеличатся в 20 раз. В настоящее время владельцы подписки Pro могут отправлять в среднем 45 сообщений боту в течение пяти часов. Подобно другим разработчикам ИИ, компания из Сан-Франциско стремится убедить частных клиентов и бизнес приобретать её продукты, чтобы покрыть высокие затраты на разработку передовых ИИ-моделей. Новый тариф можно сравнить с предложением OpenAI, которая в конце прошлого года запустила аналогичную подписку за $200 в месяц для ChatGPT. Однако OpenAI предоставляет безлимитный доступ к самым мощным моделям за те же $200 в месяц. Anthropic утверждает, что подписчики тарифа Max смогут получать более развёрнутые ответы, а их запросы будут обрабатываться в приоритетном порядке даже в периоды пиковых нагрузок. Кроме того, они получат эксклюзивный доступ к новым моделям и обновлениям программного обеспечения. Последняя версия модели Anthropic — Claude 3.7 Sonnet — также предоставляет пользователям возможность выбора между быстрым ответом на простые запросы и более детальным, разложенным «по полочкам» и имитирующим человеческое мышление. Это выделяет компанию на фоне конкурентов в условиях насыщенного рынка ИИ, особенно после того как в марте Anthropic успешно привлекла $3,5 млрд инвестиций, достигнув оценки в $61,5 млрд и тем самым подтвердив своё место среди крупнейших ИИ-стартапов мира. Google научит ИИ-чат-бота Gemini анализировать видео
08.04.2025 [16:42],
Павел Котов
Функция загрузки и анализа файлов в Google Gemini скоро получит поддержку видеофайлов. Анализ предварительной версии приложения помог установить, какие форматы видео будут поддерживаться, когда эта возможность станет общедоступной. ![]() Источник изображения: blog.google Чат-бот Gemini уже позволяет загружать файлы и задавать о них вопросы. Сейчас это могут быть документы, файлы с программным кодом, простые текстовые файлы, презентации, электронные таблицы и прочие файлы с табличными данными. Сервис можно использовать для анализа веб-страниц и видео YouTube — о них также можно задавать дополнительные вопросы. Выгрузка видеофайлов пока не поддерживается. В предварительной версии приложения Google 16.13.38 beta журналисты Android Authority обнаружили строки, указывающие, что сервис получит поддержку загрузки видео в форматах 3GP, AVI, FLV, MOV, MP4, MPEG, MPG и WebM. В других фрагментах кода также обнаружились строки, указывающие, что пользователи смогут загружать на анализ несколько видео одновременно — при этом общая продолжительность видео будет ограничиваться, и ограничения эти, вероятно, станут отличаться для пользователей платной и бесплатной версий сервиса. Наряду с поддержкой видео функция загрузки и анализа данных Gemini также получит поддержку репозиториев GitHub. Это упростит пользователям задачи, связанные с анализом файлов программного кода при помощи чат-бота. В текущей бета-версии приложения эти функции отсутствуют, и Google пока не делала никаких объявлений, связанных с данными возможностями. Но они могут последовать в обозримом будущем. ИИ-бот Anthropic Claude научился искать информацию в интернете, догнав ChatGPT и других конкурентов
20.03.2025 [23:45],
Николай Хижняк
Чат-бот на базе искусственного интеллекта Claude от компании Anthropic обзавёлся функцией поиска информации в интернете. Новая возможность доступна в предварительной версии только для платных пользователей Claude в США. В будущем компания планирует расширить географию использования этой функции, а также сделать веб-поиск доступным для бесплатных пользователей чат-бота. ![]() Источник изображений: Anthropic Компания Anthropic поясняет, что пользователи могут включить веб-поиск в настройках профиля через веб-приложение Claude. Для ответа на определённые запросы чат-бот автоматически ищет информацию в интернете. В настоящее время веб-поиск работает только с последней ИИ-моделью Anthropic — Claude 3.7 Sonnet. «Когда Claude включает информацию из интернета в свои ответы, он предоставляет прямые цитаты, чтобы пользователи могли легко проверять источники. Вместо того чтобы просто выдавать результаты поиска, Claude анализирует и представляет информацию в удобном формате. Это обновление расширяет его базу знаний, позволяя предоставлять ответы на основе более актуальной информации», — говорится в заявлении Anthropic. ![]() Журналисты TechCrunch протестировали функцию веб-поиска Claude. Они отметили, что чат-бот не всегда использует её для поиска актуальных событий. Однако, когда веб-поиск срабатывал, Claude действительно предоставлял ответы со встроенными цитатами из различных источников, включая социальные сети (например, X) и медиа-издания, такие как NPR и Reuters. Добавление веб-поиска ставит Claude в один ряд с конкурирующими чат-ботами на базе ИИ, включая ChatGPT от OpenAI, Gemini от Google и Le Chat от Mistral. Ранее Anthropic выступала против интеграции веб-поиска, объясняя это тем, что Claude разработан как самодостаточная платформа. Однако, судя по всему, усиление конкуренции со стороны других чат-ботов заставило компанию изменить своё мнение. Разработчики DuckDuckGo улучшили ИИ-технологии в поисковике
06.03.2025 [17:58],
Владимир Фетисов
У DuckDuckGo большие планы по внедрению технологий на базе искусственного интеллекта в свой поисковик. Ориентированная на обеспечение конфиденциальности пользователей компания объявила, что функция генерации ответов на поисковые запросы вышла из стадии бета-тестирования, и теперь алгоритм формирует ответы на основе информации со всего интернета, а не только из «Википедии», как это было прежде. Вскоре поисковик компании дополнит ИИ-бот, который также вышел из бета-тестирования. ![]() Источник изображений: DuckDuckGo DuckDuckGo запустила функцию генерации ответов на некоторые поисковые запросы под названием DuckAssist ещё в 2023 году. Этот инструмент предоставляет более лаконичные ответы, чем аналог Google AI Overviews. Кроме того, пользователи могут регулировать частоту появления сгенерированных ИИ ответов на запросы, а при необходимости полностью отключить эту опцию. Даже если выбрать вариант «часто», то генерируемые ИИ ответы будут появляться только в 20 % случаев, хотя компания намерена повысить частоту со временем. «Мы хотели бы в будущем увеличить этот показатель. Это ещё одна важная область, в которой мы работаем <…> Мы намерены оставаться консервативными в этом вопросе. Мы не хотели бы выставлять это на всеобщее обозрение, если считаем, что это неправильно», — рассказал основатель и гендиректор DuckDuckGo Габриэль Вайнберг (Gabriel Weinberg). Некоторые генерируемые DuckDuckGo ответы на поисковые запросы дополнены полем, используя которое можно задать новые вопросы и перейти к беседе с чат-ботом Duck.ai. Для взаимодействия с ИИ-ботом компании не требуется регистрировать учётную запись. При этом бот позволяет переключаться между разными языковыми моделями, включая GPT-4o mini, o3-mini, Llama 3.3, Mistral Small 3 и Claude 3 Haiku. Преимущество в том, что с каждой языковой моделью можно взаимодействовать анонимно, скрывая свой IP-адрес. DuckDuckGo также заключила соглашение с разработчиком ИИ-ботов для каждой языковой модели, чтобы пользовательские данные не были задействованы для обучения нейросетей. Несмотря на это, Duck.ai может хранить историю пользовательских чатов, но эти данные остаются на локальном устройстве, а не на серверах компании. В ближайшие несколько недель в Duck.ai появится поддержка функции веб-поиска, благодаря чему будут расширены возможности бота в плане формирования ответов на вопросы пользователей. Компания работает над реализацией поддержки голосовых команд для Android и iOS. Разработчики также планируют добавить возможность обработки ботом изображений. Duck.ai будет оставаться бесплатным, но доступ к более продвинутым языковым моделям планируется предоставляться в рамках платной подписки стоимостью $10 в месяц. При этом DuckDuckGo не намерена присоединяться к OpenAI, Google, Microsoft и другим разработчикам в том, чтобы выпускать чат-бота в виде отдельного приложения. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |