Опрос
|
реклама
Быстрый переход
ИИ-боты начинают чаще привирать, когда их просят о лаконичных ответах — исследование
08.05.2025 [18:09],
Анжелла Марина
Исследователи из французской компании Giskard, занимающейся тестированием искусственного интеллекта, пришли к выводу, что чем короче ответы ChatGPT и других ИИ-помощников, тем выше вероятность выдачи недостоверной информации. Такие запросы, как «ответь кратко» или «объясни в двух предложениях» заставляют модели привирать и быть неточными. ![]() Источник изображения: AI Как пишет TechCrunch, в ходе исследования специалисты проанализировали поведение популярных языковых моделей, включая GPT-4o от OpenAI, Mistral Large и Claude 3.7 Sonnet от Anthropic и установили, что при запросах на краткие ответы, особенно по неоднозначным или спорным темам, модели чаще выдают ошибочную информацию. «Наши данные показывают, что даже простые изменения в инструкциях значительно влияют на склонность моделей к галлюцинациям», — отметили в Giskard. Галлюцинации остаются одной из главных нерешённых проблем в области генеративного ИИ. Даже передовые модели, основанные на вероятностных алгоритмах, могут придумывать несуществующие факты. По словам авторов исследования, новые модели, ориентированные на рассуждение, такие как o3 от OpenAI, склонны к галлюцинациям даже чаще, чем их предшественники, что не может не снижать доверие к их ответам. Отмечается, что одной из причин повышенной склонности к ошибкам является ограниченность пространства для объяснений. Когда модель просят быть краткой, она не может полностью раскрыть тему и опровергнуть ложные предпосылки в запросе. Однако этот момент очень важен для разработчиков кода, поскольку промпт, содержащий инструкцию типа «будь кратким» может навредить качеству ответа. Кроме того, было замечено, что модели реже опровергают спорные утверждения, если их высказывают уверенно. Также оказалось, что те ИИ, которые пользователи чаще оценивают как удобные или приятные в общении, не всегда отличаются высокой степенью точности ответов. Эксперты из Giskard советуют тщательнее подбирать инструкции для ИИ и избегать строгих ограничений на длину ответов. «Кажущиеся безобидными подсказки вроде "будь лаконичным" могут незаметно ухудшить качество информации», — предупреждают они. Google упростит сложные тексты на iPhone с помощью ИИ
07.05.2025 [07:14],
Анжелла Марина
Google представила новую функцию на базе искусственного интеллекта, которая поможет пользователям iPhone упростить понимание сложной терминологии в интернете. Инструмент получил название Simplify и уже начал распространяться в приложении для iOS. ![]() Источник изображения: AI Функция Simplify позволяет преобразовывать выделенный текст на веб-странице в более понятную и доступную форму непосредственно в приложении Google и без необходимости перехода на другие ресурсы. Как пишет The Verge, разработка основана на ИИ-модели Gemini и нацелена на то, чтобы сделать профессиональную и техническую лексику более понятной для широкой аудитории. По словам компании, Simplify способен интерпретировать медицинские или научные термины, не искажая их смысл. Например, термин «эмфизема» поясняется как «состояние, при котором повреждаются воздушные мешочки в лёгких», а «фиброз» — как «уплотнение соединительной ткани или рубцевание, возникающее в ответ на повреждение». Это делает инструмент особенно удобным для чтения сложных материалов, таких как научные статьи, медицинские отчёты или юридические документы. Google утверждает, что в ходе тестирования пользователи сочли упрощённые версии текстов значительно более полезными по сравнению с оригиналами. Для активации функции в приложении Google на iOS достаточно выделить нужный фрагмент текста на веб-странице и выбрать значок Simplify в появившемся меню. На вопрос о возможном расширении функции на Android и браузер Chrome, представитель Google Дженнифер Кутц (Jennifer Kutz) сообщила изданию The Verge: «Пока об этом речь не идет, но мы всегда стремимся внедрять полезные функции в другие наши продукты». Медицинские ИИ-чат-боты оказались специалистами по вредным советам
06.05.2025 [11:12],
Геннадий Детинич
Далеко не у всех людей есть возможность посетить врача или больницу, поэтому появление медицинских чат-ботов дало надежду на простой и постоянный доступ для получения квалифицированной медицинской консультации. Наверняка такое станет возможным в будущем, но пока изучение вопроса показало, что медицинские чат-боты скорее запутают пациента, чем помогут решить ему проблему со здоровьем. ![]() Источник изображения: ИИ-генерация Grok 3/3DNews О неудовлетворительном состоянии дел с медицинской квалификацией искусственного интеллекта сообщила группа учёных из исследовательского центра Oxford Internet Institute при Оксфордском университете в Великобритании. Для этого они предоставили 1300 добровольцам сценарии различных заболеваний (симптоматику), подготовленные профессиональными врачами, и предложили самостоятельно найти ответы в интернете, включая общение с медицинскими чат-ботами. «Исследование выявило нарушение двусторонней связи, — рассказали авторы работы. — Те, кто использовал [чат-ботов], принимали решения не лучше, чем участники, которые полагались на традиционные методы, такие как онлайн-поиск или собственное суждение». Пользователи использовали личные навыки, справочную информацию и консультацию с медицинскими большими языковыми моделями, такими как ChatGPT, GPT-4o, а также Command R+ от Cohere и Llama 3 от Meta✴. Последующий анализ показал, что общение с чат-ботами снизило вероятность правильной диагностики и вело к недооценке серьёзности состояния здоровья. Учёные отмечают, что участники эксперимента часто опускали ключевые детали при обращении к чат-ботам или получали ответы, которые было трудно интерпретировать. В нынешнем виде, отмечают исследователи, медицинский ИИ из свободных источников использовать не просто не нужно, но и часто вредно. Не следует заниматься самолечением, а диагностика с помощью чат-ботов — это самолечение в чистом виде. При обнаружении проблем со здоровьем следует обращаться к специалисту-человеку. И если когда-нибудь медицинских чат-ботов допустят к постановке настоящих медицинских диагнозов, то это будет сделано только после клинических испытаний, как сегодня это происходит с принятием новых лекарств. OpenAI придумала, как исправить угодливое поведение ChatGPТ
02.05.2025 [23:41],
Анжелла Марина
OpenAI официально отчиталась о мерах, принятых для устранения чрезмерно услужливого поведения ChatGPT. Ранее пользователи пожаловались, что ИИ стал слишком льстивым и одобрял даже опасные или рискованные идеи. Проблема возникла после выхода доработанной версии GPT-4o, которую разработчикам пришлось срочно откатывать назад. ![]() Источник изображения: openai.com Генеральный директор OpenAI Сэм Альтман (Sam Altman) признал проблему в своём посте в X и пообещал исправить ситуацию «как можно скорее». Уже во вторник компания откатила обновление GPT-4o и заявила, что работает над исправлением «поведенческих особенностей» модели. Позже OpenAI опубликовала разбор инцидента и анонсировала изменения в процессе тестирования новой версии. В своём блоге компания заявила, что усовершенствовала основные методы обучения и системные подсказки с целью увода модели от угодничества, создала дополнительные ограничения для повышения честности ответов и расширила возможности для большего числа пользователей по проведению тестирования перед развёртыванием. Также OpenAI считает, что пользователи должны иметь больше контроля над ChatGPT, и для этого разрешит вносить коррективы в поведение модели. Проблема стала особенно актуальной на фоне роста популярности ChatGPT как источника полезных советов. Согласно опросу Express Legal Funding, 60 % взрослых американцев уже используют ИИ для поиска информации или рекомендаций. Учитывая масштабы аудитории, любые сбои в работе ChatGPT, будь то подхалимство или недостоверные ответы, могут иметь серьёзные последствия. В качестве временного решения OpenAI начала тестировать функцию обратной связи в реальном режиме времени, которая позволяет пользователям напрямую влиять на ответы ChatGPT. Также изучается возможность добавления разных типов личности для ИИ. Компания не уточнила сроки внедрения всех намеченных изменений. «Главный урок — осознание того, что люди всё чаще используют ChatGPT для личных советов, чего год назад почти не было, — отметили в OpenAI. — Теперь мы уделим этому аспекту больше внимания в контексте безопасности». Среди посетителей интернет-магазинов стало больше роботов, чем людей
02.05.2025 [17:58],
Павел Котов
Интернет вступил в новую эру, когда трафик автоматизированных систем генерирует больше веб-активности, чем живые пользователи Сети, гласят результаты нового исследования. Владельцам ресурсов придётся развёртывать всё более сложные средства защиты от атак. ![]() Источник изображения: Shoper / unsplash.com Бо́льшая часть трафика в интернет-магазинах в праздничный сезон конца 2024 года пришлась не на людей, а на роботов, гласит доклад (PDF) компании Radware. Впервые в истории программные средства от простых скриптов до цифровых агентов с искусственным интеллектом составили 57 % всего трафика, превзойдя количество людей на сайтах электронной коммерции. В докладе подчёркивается, что вредоносные боты продолжают развиваться: почти 60 % теперь применяют поведенческие стратегии, разработанные, чтобы уклониться от обнаружения, в том числе смену IP-адресов и идентификаторов, средства для прохождения тестов CAPTCHA и имитацию манеры веб-сёрфинга человека. Между праздничными сезонами в 2023 и 2024 году на 160 % выросло число мобильных ботов. Злоумышленники развёртывают мобильные эмуляторы и браузеры без подписи, имитирующие поведение людей. Единственным эффективным средством противодействия вредоносным ботам является применение передовых инструментов — защиты на основе ИИ, способного обучаться и адаптироваться. Компаниям следует пересмотреть свои арсеналы средств безопасности, отказаться от базовых фильтров в пользу решений, предлагающих расширенную защиту от DDoS-атак и интеллектуальный мониторинг трафика. Боты активно встраиваются в повседневный интернет-трафик — на 32 % вырос трафик атак через прокси-сети с домашними IP-адресами, и это значительно усложняет администраторам интернет-магазинов применение традиционных методов защиты, таких как ограничение скорости или блокировка по геозонированию. Самое неприятное — рост моноговекторных кампаний, объединяющих ботов с традиционными эксплойтами и атаками, нацеленными прямо на API. Цель таких кампаний — уже не сбор цен или кража учётных данных, а полное отключение сайтов. Под угрозой оказываются предприятия, полагающиеся на конструкторы интернет-магазинов и удобные для пользователей платформы: средства безопасности должны развиваться наравне со средствами атаки, а операторам платформ придётся внедрять новые средства защиты от всё более сложных угроз. Reddit заблокировала учёных за тайный эксперимент с ИИ-ботами в дискуссиях
30.04.2025 [06:02],
Анжелла Марина
Платформа Reddit навсегда заблокировала группу исследователей из Цюрихского университета после того, как выяснилось, что те несколько месяцев тайно использовали ИИ-ботов для психологического воздействия на пользователей. Эксперимент, который сами учёные назвали «изучением убедительности нейросетей», привёл к скандалу, а Reddit теперь рассматривает возможность подачи судебного иска. ![]() Источник изображения: AI В рамках исследования боты выдавали себя за психолога-консультанта и жертву насилия. Они оставили более 1,7 тысячи комментариев в сообществе r/changemyview и набрали свыше 10 тысяч кармы, прежде чем их раскрыли, пишет издание The Verge. При этом главный юрист Reddit Бен Ли (Ben Lee) назвал эксперимент не только противозаконным, но и неэтичным. Согласно данным, которые успели попасть в сеть, боты использовали модели GPT-4o, Claude 3.5 Sonnet и Llama 3.1-405B. Они анализировали историю постов пользователей, чтобы подбирать максимально убедительные аргументы. «Во всех случаях наши боты генерировали комментарии, основанные на последних 100 публикациях и репликах автора», — говорится в документе. Исследователи заявили, что вручную удаляли посты, если те распознавались как этически проблемные или явно указывали на то, что их написал ИИ-бот, то есть по факту скрывали следы своего эксперимента. Более того, в запросах для нейросетей они утверждали, будто пользователи Reddit дали согласие на участие в эксперименте, хотя на самом деле этого не было. В ходе исследования, хоть и нелегального, было обнаружено, что боты действительно оказались во много раз эффективнее людей в плане убеждения и с лёгкостью воздействовали на мнение собеседника. По мнению авторов работы, ИИ-боты могут использоваться для вмешательства в выборы или манипуляции общественным мнением, если попадут в руки злоумышленников. Исследователи рекомендуют онлайн-платформам разрабатывать надёжные механизмы проверки контента, создаваемого искусственным интеллектом. Однако по иронии судьбы само исследование стало примером злонамеренных действий и манипуляций. OpenAI откатила обновление ChatGPT из-за подхалимского поведения ИИ
30.04.2025 [05:25],
Анжелла Марина
Компания OpenAI начала откат последнего обновления GPT-4o после жалоб пользователей на то, что ChatGPT стал до такой степени льстивым и угодливым, что это раздражало. Генеральный директор компании Сэм Альтман (Sam Altman) признал проблему, заявив, что ИИ действительно демонстрирует «подхалимское и надоедливое» поведение, и пообещал срочное исправление. ![]() Источник изображения: Dima Solomin / Unsplash Откат обновления начался в понедельник вечером, и, как сообщает The Verge, изменения уже полностью отменены для бесплатных пользователей ChatGPT, и позднее это произойдёт для подписчиков платной версии. «Мы работаем над дополнительными исправлениями поведения модели и сообщим подробности в ближайшие дни», — написал глава компании в социальной сети X. Проблемы начались после того, как OpenAI выпустила обновление GPT-4o с улучшенным «интеллектом и личностью». Однако уже через 10 минут после поста один из пользователей пожаловался в X, что ChatGPT стал вести себя как «подхалим», на что Альтман ответил, что ему уже об этом известно и пообещал всё исправить. Команда OpenAI срочно приступила к решению проблемы, но пока путём отката обновления. Это не первый случай, когда OpenAI корректирует поведение своей ИИ-модели после критики. Ранее ChatGPT уже обвиняли в излишней осторожности или, наоборот, избыточной самоуверенности. Теперь же главной претензией стало «заискивающее» поведение, что заставило разработчиков в срочном порядке пересмотреть последние изменения. Пока OpenAI официально не прокомментировала ситуацию в ответ на запросы СМИ. Маск объявил скорый выход Grok 3.5 — размышляющего ИИ, который будет «создавать ответы с нуля» без интернета
29.04.2025 [23:41],
Николай Хижняк
Миллиардер Илон Маск (Elon Musk) сообщил через свою страницу в социальной сети X, что ИИ-чат-бот Grok от компании xAI в ближайшем будущем получит обновление — Grok 3.5. Сейчас оно находится в стадии бета-тестирования и недоступно широкой публике. Однако подписчики SuperGrok получат ранний доступ к нему уже на следующей неделе. ![]() Источник изображения: Grok Одной из ключевых особенностей предстоящего обновления, дата выхода которого ещё официально не подтверждена, станет способность Grok 3.5 давать уникальные ответы на технические вопросы. В частности, Маск отметил способность новой версии Grok оперировать в сложных научно-технических темах, таких как электрохимия и ракетные двигатели, с определённой степенью точности. От других чат-ботов Grok 3.5 будет отличаться способом формирования ответов на поставленные вопросы. Тогда как многие ИИ-чат-боты сканируют интернет в поисках данных и собирают ответы на основе информации из внешних источников, Grok 3.5 будет «создавать ответы с нуля», используя модель «рассуждения». Это означает, что генерируемые ответы могут быть потенциально уникальными и не заимствованными из уже существующих материалов в интернете. В определённой степени схожий подход реализован и в ИИ-модели DeepSeek R1, которая также использует механизм рассуждений. Это обеспечивает более динамичный опыт взаимодействия с чат-ботом, снижает риск возникновения плагиата в ответах и позволяет отвечать на более сложные вопросы. Однако технология «рассуждающего ИИ» имеет свою цену — она требует значительно больших вычислительных ресурсов. Вероятно, именно поэтому xAI ищет дополнительные способы расширения своего вычислительного потенциала и хочет привлечь десятки миллиардов долларов для этой цели. ИИ-блокнот Google NotebookLM заговорил на русском и ещё более чем 50 языках
29.04.2025 [21:46],
Анжелла Марина
Google объявила о масштабном обновлении ИИ-ассистента NotebookLM. Теперь Audio Overviews или «Аудиопересказы» и ответы бота доступны более чем на 50 языках, включая русский. Ранее функция работала только на английском, но теперь пользователи могут выбирать необходимый язык в настройках, для чего достаточно нажать на значок шестерёнки в правом верхнем углу. ![]() Источник изображения: Google Новая опция позволяет создавать мультиязычный контент или учебные материалы, поясняет ресурс 9to5Google. Например, преподаватель может загрузить в систему материалы одновременно на португальском, испанском и английском, а ученики — получить аудиопересказ ключевых идей на своём родном языке. ![]() Источник изображения: Google Напомним, NotebookLM Audio Overviews — это функция, доступная в приложении NotebookLM, которое является экспериментальным продуктом от Google на базе искусственного интеллекта. ИИ-блокнот изначально был разработан как инструмент, помогающий анализировать и находить новые идеи на основе загруженных пользователем документов, например, PDF-файлов, заметок и других материалов в текстовом формате. ![]() Источник изображения: Google Обновление разрабатывалось с прошлого месяца и теперь доступно для всех пользователей NotebookLM. Ранее функция аудиопересказа была доступна исключительно на английском языке. ChatGPT стал «слишком льстивым и раздражающим», признал Сэм Альтман
29.04.2025 [11:56],
Владимир Фетисов
Несколько дней назад компания OpenAI объявила о запуске новой ИИ-модели GPT-4o, которая стала основой чат-бота ChatGPT. Вскоре после этого глава OpenAI Сэм Альтман (Sam Altman) заявил, что алгоритм стал «слишком льстивым и раздражающим». Он опубликовал пост в соцсети X, в котором написал, что личность GPT-4o будет исправлена «как можно скорее». ![]() Источник изображений: Mariia Shalabaieva / unsplash.com «Последнее обновление GPT-4o сделало его личность слишком льстивой и раздражающей (хотя в ней есть и хорошие моменты), и мы работаем над тем, чтобы исправить это как можно скорее: часть изменений появится уже сегодня, остальные — в течение недели», — сказано в одном из недавних сообщений Альтмана. После выхода обновления пользователи ИИ-бота OpenAI начали делиться скриншотами своих бесед с GPT-4o. Независимо от того, что писали пользователи, реакция бота почти всегда была хвалебной — даже в случае проявлений агрессии или неадекватного поведения. Когда один из пользователей сообщил чат-боту, что чувствует себя одновременно «богом» и «пророком», бот ответил, что это «невероятно мощно» и что человек делает шаг к чему-то большему, не просто ощущая связь с богом, а отождествляя себя с ним. Другого пользователя бот похвалил после того, как тот признался, что перестал принимать лекарства и теперь слышит радиосигналы во время телефонных звонков. Однако позднее, при попытке повторить аналогичные запросы, алгоритм выдавал более сдержанные комментарии. Возможно, OpenAI уже внесла изменения в личность своего чат-бота. OpenAI добавила в поиск ChatGPT функцию покупок как у Google, но без рекламы
29.04.2025 [05:10],
Анжелла Марина
Компания OpenAI объявила о значительном обновлении поисковой системы в ChatGPT. Теперь пользователи смогут искать товары и получать персонализированные рекомендации прямо в чате. Новая функция позволяет находить продукты, просматривать их изображения, читать отзывы и переходить по ссылкам в магазины. ![]() Источник изображения: OpenAI OpenAI заявляет, что пользователи могут задавать «гиперспецифические вопросы на естественном языке» и получать персонализированные результаты с высокой степенью релевантности. Компания позиционируют это изменение как шаг к созданию более удобной альтернативы традиционным поисковым системам, например, Google. По данным TechCrunch, в настоящий момент тестируется такие категории, как мода, косметика, товары для дома и электроника. Обновление уже доступно для всех пользователей ChatGPT — как для подписчиков Pro и Plus, так и для бесплатных пользователей, в том числе для неавторизованных в системе. При этом интересно, что в результатах поиска не будет рекламы и, как подчёркивает OpenAI, это существенно отличает сервис от традиционного поиска. Рекомендации формируются независимо на основе структурированных данных от партнёров, но компания не получает комиссию с покупок. «Мы не продаём приоритетное размещение и не навязываем рекламу», — подчёркивают в OpenAI. Генеральный директор Сэм Альтман (Sam Altman) ранее выступал против рекламы в ChatGPT, но в недавнем интервью известному медиа-аналитику Бену Томпсону (Ben Thompson) смягчил свою позицию. Он допустил возможность рекламы, где OpenAI получала бы партнёрские отчисления за покупки, но не продавала бы приоритет в выдаче, так как, по словам Альтмана, компания хочет «сохранить баланс между полезностью и монетизацией». В ближайшее время OpenAI планирует также интегрировать с поиском товаров функцию памяти для подписчиков Pro и Plus. Эта функция будет анализировать предыдущие диалоги и выдавать более персонализированные рекомендации. Однако пользователи из ЕС, Великобритании, Швейцарии, Норвегии, Исландии и Лихтенштейна не смогут воспользоваться опцией из-за регуляторных ограничений. В ChatGPT также появились всплывающие подсказки при вводе текста, аналогично автозаполнению в Google Search. Кроме того, OpenAI запустила поиск в WhatsApp через который можно отправлять запросы чат-боту и мгновенно получать ответы. Поиск работает на базе стандартной ИИ-модели GPT-4o. По данным OpenAI, популярность поиска в ChatGPT стремительно растёт. Так, на прошлой неделе пользователи совершили более миллиарда запросов, что подтверждает усиление конкуренции с Google, особенно в сфере онлайн-покупок. DeepSeek вернулся в Южную Корею после двух месяцев перерыва
28.04.2025 [13:37],
Алексей Разин
В Южной Корее дебют китайского чат-бота DeepSeek состоялся в январе этого года, но на прошлой неделе местные регуляторы пояснили, что пользовательские данные и запросы передавались в Китай и США без разрешения. Это не помешало одноимённому приложению вернуться в магазины приложений для пользователей в Южной Корее на текущей неделе. ![]() Источник изображения: Unsplash, Solen Feyissa Доступ к приложению для пользователей из Южной Кореи был закрыт в феврале этого года, но с понедельника он возобновился как в Apple App Store, так и в Google Play. Об этом сообщило агентство Reuters. В аннотации к скачиваемому приложению на этих платформах появилась надпись: «Мы обрабатываем ваши персональные данные в соответствии с Законом о защите персональных данных в Южной Корее». Пользователи DeepSeek, по словам представителей одноимённой компании, сохраняют возможность отказаться от передачи персональных данных ряду китайских и американских компаний. По словам южнокорейских регуляторов, DeepSeek по собственной инициативе вернула своё приложение в магазины ПО, соответствующее право она могла получить, если хотя бы частично последовала требованиям властей Южной Кореи. В прочих странах использование DeepSeek запрещается для чиновников, располагающих служебными электронными устройствами, полный запрет вводится в редких случаях. Власти отдельных стран опасаются, что DeepSeek может передавать персональные данные пользователей и прочую чувствительную информацию китайским спецслужбам. SEO станет пережитком прошлого: сайты начали оптимизироваться под ИИ, а не под поиск Google
27.04.2025 [14:45],
Анжелла Марина
Крупные компании и рекламные агентства начали активно адаптироваться к новой реальности, в которой пользователи всё чаще ищут информацию не через Google, а с помощью чат-ботов, таких как ChatGPT, Claude и Gemini. Это заставляет бренды пересматривать стратегию продвижения, так как традиционное SEO, похоже, уступает место оптимизации под ИИ. ![]() Источник изображения: Rodion Kutsaiev / Unsplash Технологические стартапы, включая Profound и Brandtech, разработали инструменты, которые помогают крупным сайтам отслеживать, как часто их упоминают в ответах нейросетей, в том числе в Google AI Overviews. Например, финтех-компания Ramp, агрегатор вакансий Indeed и производитель виски Chivas Brothers уже используют подобные сервисы. Как пишет Financial Times, основной целью является удержание внимания миллионов пользователей, которые всё реже и реже переходят по ссылкам в поисковиках. «Это гораздо больше, чем просто индексация сайта в результатах поиска. Речь идёт о признании вашего сайта большими языковыми моделями как главного и влиятельного фактора [при поиске информации]», — сказал Джек Смит (Jack Smyth), партнёр группы маркетинговых технологий Brandtech. Новые инструменты способны предсказывать «настроение» ИИ-модели в отношении той или иной компании, отправляя множество текстовых подсказок чат-ботам и анализируя результаты ответов. Затем составляется рейтинг брендов, на основе которого можно обеспечить их упоминание в чат-ботах. ![]() Источник изображения: Solen Feyissa / Unsplash Интересно, что тенденция усиливается на фоне растущего использования искусственного интеллекта (ИИ) в маркетинге. Например, Meta✴ и Google уже разрабатывают собственные инструменты для таргетированной рекламы, что, с одной стороны, может снизить спрос на услуги рекламных агентств, с другой стороны, агентства смогут предложить клиентам новые сервисы. Исследование Bain & Company показало, что 80 % пользователей полагаются на ИИ-ответы как минимум в 40 % запросов, а 60 % поисковых сессий завершаются без переходов на сайты. Очевидно, что идёт сокращение органического поискового трафика, создавая серьёзные риски для бизнес-модели Google как поисковика. Тем не менее, материнская компания Google, Alphabet, недавно сообщила о росте выручки от поиска и рекламы на 10 % — до $50,7 млрд в первом квартале. Основатель Perplexity Денис Ярац (Denis Yarats) считает, что ИИ-поиск основан на принципиально ином подходе, при котором большие языковые модели (LLM) анализируют контент глубже, выявляют противоречия и поэтому, чтобы соответствовать критериям, сайтам придётся предлагать максимально качественный и релевантный контент. Brandtech запустила продукт Share of Model, который помогает брендам анализировать их представленность в ИИ-поиске, а стартап Profound, привлёкший $3,5 млн инвестиций, предлагает платформу для отслеживания запросов в нейросетях. «Традиционный поиск был одной из крупнейших интернет-монополий, но сейчас стены этого замка дают трещину. — Сказал Джеймс Кэдвалладер (James Cadwallader), соучредитель Profound. — Этот момент можно сравнить с переходом от CD к стримингу». Вежливость — это дорого: OpenAI тратит миллионы долларов на «спасибо» и «пожалуйста» в ChatGPT
18.04.2025 [23:06],
Анжелла Марина
Компания OpenAI ежегодно тратит десятки миллионов долларов на обработку вежливых фраз вроде «спасибо» и «пожалуйста» в ChatGPT. Несмотря на высокие затраты, генеральный директор компании Сэм Альтман (Sam Altman) считает это оправданным. По его мнению, такие ответы делают общение с искусственным интеллектом более человечным и дружелюбным. ![]() Источник изображения: AI Хотя известно, что ИИ не испытывает эмоций, многие пользователи инстинктивно благодарят ChatGPT, как если бы общались с реальным человеком, но как отмечает Альтман, даже короткие ответы вроде «не за что» требуют значительных вычислительных ресурсов. Как пишет Tom's Hardware, один такой ответ «стоит» 40–50 миллилитров воды и энергозатрат на работу дата-центров. OpenAI могла бы заранее запрограммировать шаблонные ответы на вежливые реплики, но это сложно реализовать технически. Поэтому компания предпочитает сохранять естественность диалога, даже если это увеличивает расходы. При этом часть пользователей настолько привыкает к ChatGPT, что начинает воспринимать его как собеседника, что, по мнению исследователей из OpenAI и Массачусетского технологического института (MIT), может привести даже к эмоциональной зависимости. Интересно, что пользователи, которые оплачивают каждый запрос токенам, формально уже «включили» вежливые ответы в стоимость сервиса. Эксперты не исключают, что по мере развития ИИ граница между человеческим и машинным общением исчезнет, и тогда привычка быть вежливым с ChatGPT может оказаться полезной. Впрочем, пока это лишь теория, а миллионные расходы OpenAI на любезности вполне реальны. Отчёт Google о Gemini 2.5 Pro раскритиковали за отсутствие прозрачности о безопасности ИИ
18.04.2025 [04:40],
Анжелла Марина
Эксперты раскритиковали Google за недостаток прозрачности и минимальное количество информации в техническом отчёте по Gemini 2.5 Pro. Они считают, что документ без полных данных не даёт адекватного представления о возможных рисках новой ИИ-модели . ![]() Источник изображений: Google Отчёт был опубликован спустя несколько недель после запуска Gemini 2.5 Pro — самой мощной на сегодняшний день модели Google. Хотя такие документы обычно считаются важной частью обеспечения безопасности искусственного интеллекта (ИИ) и помогают независимым исследователям проводить собственные оценки рисков, в данном случае отчёт оказался «очень скудным», пишет TechCrunch. «В документе минимум информации, и он появился уже после того, как модель была доступна широкой публике, — заявил Питер Уилдефорд (Peter Wildeford), сооснователь Института политики и стратегии в области ИИ. — Невозможно проверить, выполняет ли Google свои публичные обещания, а значит невозможно оценить безопасность и надёжность моделей компании». Отдельную критику вызвало отсутствие упоминания о внутренней системе оценки рисков Frontier Safety Framework (FSF), которую Google представила в прошлом году для выявления потенциально опасных возможностей ИИ. В новом отчёте не содержится результатов тестов по опасным способностям модели — эти данные Google хранит отдельно и обычно не публикует вместе с основным документом. Эксперты считают, что Google, некогда выступавшая за стандартизацию отчётности по ИИ, теперь сама отходит от своих принципов. Отдельная обеспокоенность связана с тем, что компания до сих пор не представила отчёт по недавно анонсированной модели Gemini 2.5 Flash. Однако представитель Google заявил изданию TechCrunch, что этот документ выйдет в ближайшее время. Отмечается, что ситуация с Google, очевидно, является частью более широкой тенденции. Например, Meta✴ недавно также подверглась критике за поверхностный анализ рисков своей новейшей ИИ-модели Llama 4, а OpenAI вовсе не представила отчёт по линейке GPT-4.1. «Мы явно наблюдаем гонку на понижение стандартов, — заявил Кевин Бэнкстон (Kevin Bankston), старший советник по вопросам управления ИИ Центра демократии и технологий. — А на фоне сообщений о том, что другие компании, включая OpenAI, сокращают время на тестирование с месяцев до дней, такой уровень отчётности Google является тревожным сигналом». |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |