Опрос
|
реклама
Быстрый переход
OpenAI хочет, чтобы ChatGPT стал личным секретарём для каждого
31.05.2025 [07:03],
Анжелла Марина
OpenAI планирует превратить ChatGPT в универсального супер-помощника, который будет помогать пользователям во всех сферах жизни. Согласно внутренним материалам компании, которые попали в СМИ благодаря антимонопольному разбирательству с Google, уже в первой половине 2025 года начнётся эволюция ChatGPT в супер-ассистента. ![]() Источник изображения: Solen Feyissa / Unsplash Документ под названием «ChatGPT: H1 2025 Strategy» гласит, что OpenAI намерена вывести ChatGPT за рамки обычного чат-бота. «В первой половине следующего года мы начнём превращать ChatGPT в супер-ассистента, который будет хорошо понимать ваши потребности и выполнять задачи, с которыми справился бы умный, надёжный, обладающий эмоциональным интеллектом человек, умеющий работать с компьютером», — говорится в документе. Помощник сможет не только отвечать на вопросы, но и помогать в решении самых разных задач вплоть до планирования отпуска, отправки писем или записи к врачу. Компания описывает будущий ChatGPT как интеллектуального, способного решать как повседневные задачи, так и узкоспециализированные для профессионалов. В числе примеров указывается поиск жилья, бронирование ресторанов, управление календарём, составление списков дел и написание программного кода. При этом разработчики подчёркивают, что новые модели GPT-02 и GPT-03 стали достаточно умными для выполнения подобных задач самостоятельно. OpenAI видит ChatGPT не просто как инструмент, а как цифрового партнёра. «Сегодня ChatGPT живёт в нашем браузере, приложении или на рабочем столе, но мы хотим, чтобы он помогал всегда и везде — дома, на работе, в дороге и даже на прогулке», — говорится в документе. Однако у компании есть и проблемы. Инфраструктура OpenAI пока не справляется с растущей нагрузкой, а конкуренция в сфере ИИ-ассистентов усиливается всё больше. По словам компании, лидерство, очевидно, не будет вечным, а рост бизнеса и доходы не всегда будут идти в ногу. OpenAI также опасается давления со стороны крупных игроков, таких как Google и Meta✴, которые продвигают собственные ИИ-продукты через свои платформы. Например, Meta✴ AI уже достигла миллиарда пользователей благодаря интеграции в Instagram✴, WhatsApp и Facebook✴, а Apple рассматривает возможность выбора Google Gemini для Siri. Поэтому OpenAI намерена добиваться регулирования, которое позволит пользователям выбирать ChatGPT в качестве ассистента по умолчанию. Ежемесячная аудитория ИИ-бота Meta✴ AI превысила 1 млрд человек, похвастался Цукерберг
29.05.2025 [12:08],
Владимир Фетисов
Ежемесячная пользовательская аудитория виртуального помощника на базе искусственного интеллекта Meta✴ AI составила 1 млрд человек во всех приложениях, куда он был интегрирован. Об этом во время ежегодной встречи с акционерами заявил глава Meta✴ Platforms Марк Цукерберг (Mark Zuckerberg). Росту аудитории способствовал запуск отдельного приложения Meta✴ AI. ![]() Источник изображения: starline / freepik.com Он добавил, что в этом году компания сосредоточится на улучшении Meta✴ AI и его превращении в ведущего ИИ-ассистента с акцентом на персонализацию, взаимодействие с помощью голоса и развлечения. Цукерберг считает, что компании следует продолжить развитие Meta✴ AI, прежде чем начинать зарабатывать на нём. По мере развития алгоритма у Meta✴ «появятся возможности либо вставлять платные рекомендации», либо предлагать «услуги по подписке, чтобы люди могли платить за использование большего количества вычислительных мощностей». В феврале СМИ писали о намерении Meta✴ выпустить отдельное приложение для своего ИИ-помощника и протестировать сервис платной подписки, подобный тому, что предлагают разработчики конкурирующих продуктов, таких как ChatGPT от OpenAI. «Может показаться забавным, что миллиард ежемесячных пользователей не кажется нам масштабным, но именно на этом этапе мы находится», — сказал Цукерберг акционерам. В ходе собрания акционеров инвесторы проголосовали по 14 разным вопросам, связанным с деятельностью компании, девять из которых были предложены самими акционерами. Они затрагивали разные темы, включая обеспечение безопасности детей, выбросы парниковых газов и др. Результаты голосования по всем рассматриваемым вопросам будут опубликованы на сайте Meta✴ и Комиссии по ценным бумагам и биржам США в течение нескольких дней. DeepSeek выпустила улучшенную версию ИИ-модели R1 с 685 млрд параметров
29.05.2025 [04:34],
Анжелла Марина
Китайский стартап DeepSeek выпустил обновлённую версию ИИ-модели R1 и разместил её на платформе Hugging Face под открытой MIT-лицензией. В заявлении компании в WeChat сообщается, что модель получила незначительное обновление и её можно свободно использовать в коммерческих проектах. ![]() Источник изображения: John Cameron / Unsplash В репозитории Hugging Face пока нет подробного описания модели. Только конфигурационные файлы и «веса» (weights) — числовые параметры, которые определяют её поведение и возможности. Обновлённая R1 содержит 685 миллиардов параметров, что делает её крайне ресурсоёмкой и, как отмечает TechCrunch, без дополнительной оптимизации запустить такую модель на обычных пользовательских компьютерах вряд ли возможно. Напомним, проект DeepSeek привлёк широкое внимание в начале этого года после релиза первой версии R1, которая составила конкуренцию моделям OpenAI. Однако успех стартапа вызвал обеспокоенность у некоторых регуляторов в США — они считают, что технологии компании могут представлять потенциальную угрозу национальной безопасности. Несмотря на это, DeepSeek продолжает развивать свою ИИ-платформу. Открытая лицензия MIT позволяет разработчикам и бизнесу свободно тестировать и внедрять R1 в свои продукты, хотя для работы с моделью и требуются серьёзные вычислительные мощности. Anthropic запустила голосового ИИ-ассистента, но пока в бета-версии
28.05.2025 [05:06],
Анжелла Марина
Компания Anthropic начала внедрять голосовой режим для ИИ-ассистента Claude. Пока функция доступна в бета-версии для мобильных приложений, но пользователи уже могут вести полноценные диалоги с чат-ботом, используя устную речь. ![]() Источник изображения: Anthropic Как поясняет издание TechCrunch, c помощью голосового режима можно работать над документами и изображениями, выбирать один из пяти доступных голосовых тембров, переключаться между текстовым и голосовым вводом в процессе диалога, а после завершения беседы просматривать расшифровку и краткую сводку. Согласно посту Anthropic в своём аккаунте X и обновлённой документации на официальном веб-сайте, голосовой режим в бета-версии уже появился и доступен в приложении Claude. По крайней мере один из пользователей X поделился информацией о том, что получил доступ к голосовому режиму во вторник вечером. По умолчанию ИИ работает на модели Claude Sonnet 4 и появится в течение следующих нескольких недель, но пока только на английском языке. У функции есть и свои ограничения. Голосовые диалоги учитываются в общем лимите запросов. Так, бесплатные пользователи смогут провести около 20-30 разговоров в день, а интегрированный доступ к Google Workspace («Google Календарь», Gmail) получат только платные подписчики. Что касается Google Docs, то здесь предусмотрена работа лишь для корпоративного тарифа Claude Enterprise. Ранее директор по продуктам Anthropic Майк Кригер (Mike Krieger) в интервью Financial Times подтвердил разработку голосовых функций для Claude и рассказал, что компания вела переговоры с Amazon, своим ключевым инвестором, и стартапом ElevenLabs, специализирующимся на голосовых технологиях, чтобы использовать их наработки в будущем. Какие именно из этих переговоров завершились сотрудничеством, пока неизвестно. Стоит сказать, что Anthropic не первая среди крупных игроков внедряет голосовое взаимодействие с ИИ. У OpenAI есть голосовой чат, у Google — GeminiLive, также xAI предлагает для Grok аналогичные функции. ИИ-боты начинают чаще привирать, когда их просят о лаконичных ответах — исследование
08.05.2025 [18:09],
Анжелла Марина
Исследователи из французской компании Giskard, занимающейся тестированием искусственного интеллекта, пришли к выводу, что чем короче ответы ChatGPT и других ИИ-помощников, тем выше вероятность выдачи недостоверной информации. Такие запросы, как «ответь кратко» или «объясни в двух предложениях» заставляют модели привирать и быть неточными. ![]() Источник изображения: AI Как пишет TechCrunch, в ходе исследования специалисты проанализировали поведение популярных языковых моделей, включая GPT-4o от OpenAI, Mistral Large и Claude 3.7 Sonnet от Anthropic и установили, что при запросах на краткие ответы, особенно по неоднозначным или спорным темам, модели чаще выдают ошибочную информацию. «Наши данные показывают, что даже простые изменения в инструкциях значительно влияют на склонность моделей к галлюцинациям», — отметили в Giskard. Галлюцинации остаются одной из главных нерешённых проблем в области генеративного ИИ. Даже передовые модели, основанные на вероятностных алгоритмах, могут придумывать несуществующие факты. По словам авторов исследования, новые модели, ориентированные на рассуждение, такие как o3 от OpenAI, склонны к галлюцинациям даже чаще, чем их предшественники, что не может не снижать доверие к их ответам. Отмечается, что одной из причин повышенной склонности к ошибкам является ограниченность пространства для объяснений. Когда модель просят быть краткой, она не может полностью раскрыть тему и опровергнуть ложные предпосылки в запросе. Однако этот момент очень важен для разработчиков кода, поскольку промпт, содержащий инструкцию типа «будь кратким» может навредить качеству ответа. Кроме того, было замечено, что модели реже опровергают спорные утверждения, если их высказывают уверенно. Также оказалось, что те ИИ, которые пользователи чаще оценивают как удобные или приятные в общении, не всегда отличаются высокой степенью точности ответов. Эксперты из Giskard советуют тщательнее подбирать инструкции для ИИ и избегать строгих ограничений на длину ответов. «Кажущиеся безобидными подсказки вроде "будь лаконичным" могут незаметно ухудшить качество информации», — предупреждают они. Google упростит сложные тексты на iPhone с помощью ИИ
07.05.2025 [07:14],
Анжелла Марина
Google представила новую функцию на базе искусственного интеллекта, которая поможет пользователям iPhone упростить понимание сложной терминологии в интернете. Инструмент получил название Simplify и уже начал распространяться в приложении для iOS. ![]() Источник изображения: AI Функция Simplify позволяет преобразовывать выделенный текст на веб-странице в более понятную и доступную форму непосредственно в приложении Google и без необходимости перехода на другие ресурсы. Как пишет The Verge, разработка основана на ИИ-модели Gemini и нацелена на то, чтобы сделать профессиональную и техническую лексику более понятной для широкой аудитории. По словам компании, Simplify способен интерпретировать медицинские или научные термины, не искажая их смысл. Например, термин «эмфизема» поясняется как «состояние, при котором повреждаются воздушные мешочки в лёгких», а «фиброз» — как «уплотнение соединительной ткани или рубцевание, возникающее в ответ на повреждение». Это делает инструмент особенно удобным для чтения сложных материалов, таких как научные статьи, медицинские отчёты или юридические документы. Google утверждает, что в ходе тестирования пользователи сочли упрощённые версии текстов значительно более полезными по сравнению с оригиналами. Для активации функции в приложении Google на iOS достаточно выделить нужный фрагмент текста на веб-странице и выбрать значок Simplify в появившемся меню. На вопрос о возможном расширении функции на Android и браузер Chrome, представитель Google Дженнифер Кутц (Jennifer Kutz) сообщила изданию The Verge: «Пока об этом речь не идет, но мы всегда стремимся внедрять полезные функции в другие наши продукты». Медицинские ИИ-чат-боты оказались специалистами по вредным советам
06.05.2025 [11:12],
Геннадий Детинич
Далеко не у всех людей есть возможность посетить врача или больницу, поэтому появление медицинских чат-ботов дало надежду на простой и постоянный доступ для получения квалифицированной медицинской консультации. Наверняка такое станет возможным в будущем, но пока изучение вопроса показало, что медицинские чат-боты скорее запутают пациента, чем помогут решить ему проблему со здоровьем. ![]() Источник изображения: ИИ-генерация Grok 3/3DNews О неудовлетворительном состоянии дел с медицинской квалификацией искусственного интеллекта сообщила группа учёных из исследовательского центра Oxford Internet Institute при Оксфордском университете в Великобритании. Для этого они предоставили 1300 добровольцам сценарии различных заболеваний (симптоматику), подготовленные профессиональными врачами, и предложили самостоятельно найти ответы в интернете, включая общение с медицинскими чат-ботами. «Исследование выявило нарушение двусторонней связи, — рассказали авторы работы. — Те, кто использовал [чат-ботов], принимали решения не лучше, чем участники, которые полагались на традиционные методы, такие как онлайн-поиск или собственное суждение». Пользователи использовали личные навыки, справочную информацию и консультацию с медицинскими большими языковыми моделями, такими как ChatGPT, GPT-4o, а также Command R+ от Cohere и Llama 3 от Meta✴. Последующий анализ показал, что общение с чат-ботами снизило вероятность правильной диагностики и вело к недооценке серьёзности состояния здоровья. Учёные отмечают, что участники эксперимента часто опускали ключевые детали при обращении к чат-ботам или получали ответы, которые было трудно интерпретировать. В нынешнем виде, отмечают исследователи, медицинский ИИ из свободных источников использовать не просто не нужно, но и часто вредно. Не следует заниматься самолечением, а диагностика с помощью чат-ботов — это самолечение в чистом виде. При обнаружении проблем со здоровьем следует обращаться к специалисту-человеку. И если когда-нибудь медицинских чат-ботов допустят к постановке настоящих медицинских диагнозов, то это будет сделано только после клинических испытаний, как сегодня это происходит с принятием новых лекарств. OpenAI придумала, как исправить угодливое поведение ChatGPТ
02.05.2025 [23:41],
Анжелла Марина
OpenAI официально отчиталась о мерах, принятых для устранения чрезмерно услужливого поведения ChatGPT. Ранее пользователи пожаловались, что ИИ стал слишком льстивым и одобрял даже опасные или рискованные идеи. Проблема возникла после выхода доработанной версии GPT-4o, которую разработчикам пришлось срочно откатывать назад. ![]() Источник изображения: openai.com Генеральный директор OpenAI Сэм Альтман (Sam Altman) признал проблему в своём посте в X и пообещал исправить ситуацию «как можно скорее». Уже во вторник компания откатила обновление GPT-4o и заявила, что работает над исправлением «поведенческих особенностей» модели. Позже OpenAI опубликовала разбор инцидента и анонсировала изменения в процессе тестирования новой версии. В своём блоге компания заявила, что усовершенствовала основные методы обучения и системные подсказки с целью увода модели от угодничества, создала дополнительные ограничения для повышения честности ответов и расширила возможности для большего числа пользователей по проведению тестирования перед развёртыванием. Также OpenAI считает, что пользователи должны иметь больше контроля над ChatGPT, и для этого разрешит вносить коррективы в поведение модели. Проблема стала особенно актуальной на фоне роста популярности ChatGPT как источника полезных советов. Согласно опросу Express Legal Funding, 60 % взрослых американцев уже используют ИИ для поиска информации или рекомендаций. Учитывая масштабы аудитории, любые сбои в работе ChatGPT, будь то подхалимство или недостоверные ответы, могут иметь серьёзные последствия. В качестве временного решения OpenAI начала тестировать функцию обратной связи в реальном режиме времени, которая позволяет пользователям напрямую влиять на ответы ChatGPT. Также изучается возможность добавления разных типов личности для ИИ. Компания не уточнила сроки внедрения всех намеченных изменений. «Главный урок — осознание того, что люди всё чаще используют ChatGPT для личных советов, чего год назад почти не было, — отметили в OpenAI. — Теперь мы уделим этому аспекту больше внимания в контексте безопасности». Среди посетителей интернет-магазинов стало больше роботов, чем людей
02.05.2025 [17:58],
Павел Котов
Интернет вступил в новую эру, когда трафик автоматизированных систем генерирует больше веб-активности, чем живые пользователи Сети, гласят результаты нового исследования. Владельцам ресурсов придётся развёртывать всё более сложные средства защиты от атак. ![]() Источник изображения: Shoper / unsplash.com Бо́льшая часть трафика в интернет-магазинах в праздничный сезон конца 2024 года пришлась не на людей, а на роботов, гласит доклад (PDF) компании Radware. Впервые в истории программные средства от простых скриптов до цифровых агентов с искусственным интеллектом составили 57 % всего трафика, превзойдя количество людей на сайтах электронной коммерции. В докладе подчёркивается, что вредоносные боты продолжают развиваться: почти 60 % теперь применяют поведенческие стратегии, разработанные, чтобы уклониться от обнаружения, в том числе смену IP-адресов и идентификаторов, средства для прохождения тестов CAPTCHA и имитацию манеры веб-сёрфинга человека. Между праздничными сезонами в 2023 и 2024 году на 160 % выросло число мобильных ботов. Злоумышленники развёртывают мобильные эмуляторы и браузеры без подписи, имитирующие поведение людей. Единственным эффективным средством противодействия вредоносным ботам является применение передовых инструментов — защиты на основе ИИ, способного обучаться и адаптироваться. Компаниям следует пересмотреть свои арсеналы средств безопасности, отказаться от базовых фильтров в пользу решений, предлагающих расширенную защиту от DDoS-атак и интеллектуальный мониторинг трафика. Боты активно встраиваются в повседневный интернет-трафик — на 32 % вырос трафик атак через прокси-сети с домашними IP-адресами, и это значительно усложняет администраторам интернет-магазинов применение традиционных методов защиты, таких как ограничение скорости или блокировка по геозонированию. Самое неприятное — рост моноговекторных кампаний, объединяющих ботов с традиционными эксплойтами и атаками, нацеленными прямо на API. Цель таких кампаний — уже не сбор цен или кража учётных данных, а полное отключение сайтов. Под угрозой оказываются предприятия, полагающиеся на конструкторы интернет-магазинов и удобные для пользователей платформы: средства безопасности должны развиваться наравне со средствами атаки, а операторам платформ придётся внедрять новые средства защиты от всё более сложных угроз. Reddit заблокировала учёных за тайный эксперимент с ИИ-ботами в дискуссиях
30.04.2025 [06:02],
Анжелла Марина
Платформа Reddit навсегда заблокировала группу исследователей из Цюрихского университета после того, как выяснилось, что те несколько месяцев тайно использовали ИИ-ботов для психологического воздействия на пользователей. Эксперимент, который сами учёные назвали «изучением убедительности нейросетей», привёл к скандалу, а Reddit теперь рассматривает возможность подачи судебного иска. ![]() Источник изображения: AI В рамках исследования боты выдавали себя за психолога-консультанта и жертву насилия. Они оставили более 1,7 тысячи комментариев в сообществе r/changemyview и набрали свыше 10 тысяч кармы, прежде чем их раскрыли, пишет издание The Verge. При этом главный юрист Reddit Бен Ли (Ben Lee) назвал эксперимент не только противозаконным, но и неэтичным. Согласно данным, которые успели попасть в сеть, боты использовали модели GPT-4o, Claude 3.5 Sonnet и Llama 3.1-405B. Они анализировали историю постов пользователей, чтобы подбирать максимально убедительные аргументы. «Во всех случаях наши боты генерировали комментарии, основанные на последних 100 публикациях и репликах автора», — говорится в документе. Исследователи заявили, что вручную удаляли посты, если те распознавались как этически проблемные или явно указывали на то, что их написал ИИ-бот, то есть по факту скрывали следы своего эксперимента. Более того, в запросах для нейросетей они утверждали, будто пользователи Reddit дали согласие на участие в эксперименте, хотя на самом деле этого не было. В ходе исследования, хоть и нелегального, было обнаружено, что боты действительно оказались во много раз эффективнее людей в плане убеждения и с лёгкостью воздействовали на мнение собеседника. По мнению авторов работы, ИИ-боты могут использоваться для вмешательства в выборы или манипуляции общественным мнением, если попадут в руки злоумышленников. Исследователи рекомендуют онлайн-платформам разрабатывать надёжные механизмы проверки контента, создаваемого искусственным интеллектом. Однако по иронии судьбы само исследование стало примером злонамеренных действий и манипуляций. OpenAI откатила обновление ChatGPT из-за подхалимского поведения ИИ
30.04.2025 [05:25],
Анжелла Марина
Компания OpenAI начала откат последнего обновления GPT-4o после жалоб пользователей на то, что ChatGPT стал до такой степени льстивым и угодливым, что это раздражало. Генеральный директор компании Сэм Альтман (Sam Altman) признал проблему, заявив, что ИИ действительно демонстрирует «подхалимское и надоедливое» поведение, и пообещал срочное исправление. ![]() Источник изображения: Dima Solomin / Unsplash Откат обновления начался в понедельник вечером, и, как сообщает The Verge, изменения уже полностью отменены для бесплатных пользователей ChatGPT, и позднее это произойдёт для подписчиков платной версии. «Мы работаем над дополнительными исправлениями поведения модели и сообщим подробности в ближайшие дни», — написал глава компании в социальной сети X. Проблемы начались после того, как OpenAI выпустила обновление GPT-4o с улучшенным «интеллектом и личностью». Однако уже через 10 минут после поста один из пользователей пожаловался в X, что ChatGPT стал вести себя как «подхалим», на что Альтман ответил, что ему уже об этом известно и пообещал всё исправить. Команда OpenAI срочно приступила к решению проблемы, но пока путём отката обновления. Это не первый случай, когда OpenAI корректирует поведение своей ИИ-модели после критики. Ранее ChatGPT уже обвиняли в излишней осторожности или, наоборот, избыточной самоуверенности. Теперь же главной претензией стало «заискивающее» поведение, что заставило разработчиков в срочном порядке пересмотреть последние изменения. Пока OpenAI официально не прокомментировала ситуацию в ответ на запросы СМИ. Маск объявил скорый выход Grok 3.5 — размышляющего ИИ, который будет «создавать ответы с нуля» без интернета
29.04.2025 [23:41],
Николай Хижняк
Миллиардер Илон Маск (Elon Musk) сообщил через свою страницу в социальной сети X, что ИИ-чат-бот Grok от компании xAI в ближайшем будущем получит обновление — Grok 3.5. Сейчас оно находится в стадии бета-тестирования и недоступно широкой публике. Однако подписчики SuperGrok получат ранний доступ к нему уже на следующей неделе. ![]() Источник изображения: Grok Одной из ключевых особенностей предстоящего обновления, дата выхода которого ещё официально не подтверждена, станет способность Grok 3.5 давать уникальные ответы на технические вопросы. В частности, Маск отметил способность новой версии Grok оперировать в сложных научно-технических темах, таких как электрохимия и ракетные двигатели, с определённой степенью точности. От других чат-ботов Grok 3.5 будет отличаться способом формирования ответов на поставленные вопросы. Тогда как многие ИИ-чат-боты сканируют интернет в поисках данных и собирают ответы на основе информации из внешних источников, Grok 3.5 будет «создавать ответы с нуля», используя модель «рассуждения». Это означает, что генерируемые ответы могут быть потенциально уникальными и не заимствованными из уже существующих материалов в интернете. В определённой степени схожий подход реализован и в ИИ-модели DeepSeek R1, которая также использует механизм рассуждений. Это обеспечивает более динамичный опыт взаимодействия с чат-ботом, снижает риск возникновения плагиата в ответах и позволяет отвечать на более сложные вопросы. Однако технология «рассуждающего ИИ» имеет свою цену — она требует значительно больших вычислительных ресурсов. Вероятно, именно поэтому xAI ищет дополнительные способы расширения своего вычислительного потенциала и хочет привлечь десятки миллиардов долларов для этой цели. ИИ-блокнот Google NotebookLM заговорил на русском и ещё более чем 50 языках
29.04.2025 [21:46],
Анжелла Марина
Google объявила о масштабном обновлении ИИ-ассистента NotebookLM. Теперь Audio Overviews или «Аудиопересказы» и ответы бота доступны более чем на 50 языках, включая русский. Ранее функция работала только на английском, но теперь пользователи могут выбирать необходимый язык в настройках, для чего достаточно нажать на значок шестерёнки в правом верхнем углу. ![]() Источник изображения: Google Новая опция позволяет создавать мультиязычный контент или учебные материалы, поясняет ресурс 9to5Google. Например, преподаватель может загрузить в систему материалы одновременно на португальском, испанском и английском, а ученики — получить аудиопересказ ключевых идей на своём родном языке. ![]() Источник изображения: Google Напомним, NotebookLM Audio Overviews — это функция, доступная в приложении NotebookLM, которое является экспериментальным продуктом от Google на базе искусственного интеллекта. ИИ-блокнот изначально был разработан как инструмент, помогающий анализировать и находить новые идеи на основе загруженных пользователем документов, например, PDF-файлов, заметок и других материалов в текстовом формате. ![]() Источник изображения: Google Обновление разрабатывалось с прошлого месяца и теперь доступно для всех пользователей NotebookLM. Ранее функция аудиопересказа была доступна исключительно на английском языке. ChatGPT стал «слишком льстивым и раздражающим», признал Сэм Альтман
29.04.2025 [11:56],
Владимир Фетисов
Несколько дней назад компания OpenAI объявила о запуске новой ИИ-модели GPT-4o, которая стала основой чат-бота ChatGPT. Вскоре после этого глава OpenAI Сэм Альтман (Sam Altman) заявил, что алгоритм стал «слишком льстивым и раздражающим». Он опубликовал пост в соцсети X, в котором написал, что личность GPT-4o будет исправлена «как можно скорее». ![]() Источник изображений: Mariia Shalabaieva / unsplash.com «Последнее обновление GPT-4o сделало его личность слишком льстивой и раздражающей (хотя в ней есть и хорошие моменты), и мы работаем над тем, чтобы исправить это как можно скорее: часть изменений появится уже сегодня, остальные — в течение недели», — сказано в одном из недавних сообщений Альтмана. После выхода обновления пользователи ИИ-бота OpenAI начали делиться скриншотами своих бесед с GPT-4o. Независимо от того, что писали пользователи, реакция бота почти всегда была хвалебной — даже в случае проявлений агрессии или неадекватного поведения. Когда один из пользователей сообщил чат-боту, что чувствует себя одновременно «богом» и «пророком», бот ответил, что это «невероятно мощно» и что человек делает шаг к чему-то большему, не просто ощущая связь с богом, а отождествляя себя с ним. Другого пользователя бот похвалил после того, как тот признался, что перестал принимать лекарства и теперь слышит радиосигналы во время телефонных звонков. Однако позднее, при попытке повторить аналогичные запросы, алгоритм выдавал более сдержанные комментарии. Возможно, OpenAI уже внесла изменения в личность своего чат-бота. OpenAI добавила в поиск ChatGPT функцию покупок как у Google, но без рекламы
29.04.2025 [05:10],
Анжелла Марина
Компания OpenAI объявила о значительном обновлении поисковой системы в ChatGPT. Теперь пользователи смогут искать товары и получать персонализированные рекомендации прямо в чате. Новая функция позволяет находить продукты, просматривать их изображения, читать отзывы и переходить по ссылкам в магазины. ![]() Источник изображения: OpenAI OpenAI заявляет, что пользователи могут задавать «гиперспецифические вопросы на естественном языке» и получать персонализированные результаты с высокой степенью релевантности. Компания позиционируют это изменение как шаг к созданию более удобной альтернативы традиционным поисковым системам, например, Google. По данным TechCrunch, в настоящий момент тестируется такие категории, как мода, косметика, товары для дома и электроника. Обновление уже доступно для всех пользователей ChatGPT — как для подписчиков Pro и Plus, так и для бесплатных пользователей, в том числе для неавторизованных в системе. При этом интересно, что в результатах поиска не будет рекламы и, как подчёркивает OpenAI, это существенно отличает сервис от традиционного поиска. Рекомендации формируются независимо на основе структурированных данных от партнёров, но компания не получает комиссию с покупок. «Мы не продаём приоритетное размещение и не навязываем рекламу», — подчёркивают в OpenAI. Генеральный директор Сэм Альтман (Sam Altman) ранее выступал против рекламы в ChatGPT, но в недавнем интервью известному медиа-аналитику Бену Томпсону (Ben Thompson) смягчил свою позицию. Он допустил возможность рекламы, где OpenAI получала бы партнёрские отчисления за покупки, но не продавала бы приоритет в выдаче, так как, по словам Альтмана, компания хочет «сохранить баланс между полезностью и монетизацией». В ближайшее время OpenAI планирует также интегрировать с поиском товаров функцию памяти для подписчиков Pro и Plus. Эта функция будет анализировать предыдущие диалоги и выдавать более персонализированные рекомендации. Однако пользователи из ЕС, Великобритании, Швейцарии, Норвегии, Исландии и Лихтенштейна не смогут воспользоваться опцией из-за регуляторных ограничений. В ChatGPT также появились всплывающие подсказки при вводе текста, аналогично автозаполнению в Google Search. Кроме того, OpenAI запустила поиск в WhatsApp через который можно отправлять запросы чат-боту и мгновенно получать ответы. Поиск работает на базе стандартной ИИ-модели GPT-4o. По данным OpenAI, популярность поиска в ChatGPT стремительно растёт. Так, на прошлой неделе пользователи совершили более миллиарда запросов, что подтверждает усиление конкуренции с Google, особенно в сфере онлайн-покупок. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |