|
Опрос
|
реклама
Быстрый переход
Мировой интернет-трафик подскочил на 19 % в этом году, и теперь заметную его часть генерируют ИИ-боты
16.12.2025 [01:54],
Анжелла Марина
Платформа Cloudflare представила занимательную статистику по результатам работы в 2025 году. Она указывает не то, что люди по-прежнему генерируют меньше половины трафика в интернете, и теперь помимо обычных ботов их теснят также ИИ-боты, которые захватили 4,2 % трафика, связанного с запросами HTML.
Источник изображения: Cloudflare Крупнейшим отдельно взятым источником бот-трафика стал Googlebot, который используется как для поискового индексирования, так и для тренировки ИИ. Аналогичные задачи выполняет и Microsoft Bingbot, но в меньших масштабах. На все ИИ-боты вместе пришлось 4,2 % трафика. Боты, не связанные с ИИ, сгенерировали 47,9 % трафика, а на людей пришлось лишь 43,5 %. Абсолютным лидером по географическому происхождению бот-трафика остаются Соединённые Штаты, генерирующие 40 % от общего объёма. В целом глобальный интернет-трафик в 2025 году вырос на 19 %, что больше прошлогодних 17 %. Отмечается, что 43 % запросов поступило с мобильных устройств — год назад был 41 %. Системы безопасности Cloudflare автоматически заблокировали или ограничили 6,2 % всего прошедшего через её сеть трафика как потенциально вредоносный. Компания также зафиксировала более 25 рекордных по мощности DDoS-атак в этом году. Кроме того, почти половина всех наблюдаемых в текущем году отключений интернета была вызвана действиями государственных органов, и часто в попытке предотвратить списывание на экзаменах. Что касается наиболее посещаемых интернет-сервисов, Google по-прежнему возглавляет общий список, за ним следуют Facebook✴✴, Apple и Microsoft. Среди социальных сетей X опустился на шестое место, уступив LinkedIn и Snapchat. Мало кто удивится, что ChatGPT является самым посещаемым сервисом искусственного интеллекта, а Anthropic Claude занимает второе место, опережая Perplexity и Google Gemini. Grok Илона Маска занимает лишь девятое место, чуть опережая китайский DeepSeek. Год также ознаменовался двумя внутренними сбоями самой Cloudflare. В частности, в ноябре из-за изменения прав доступа в одной из операционных баз данных, и в декабре — вследствие корректировки логики обработки запросов веб-брандмауэром. Эти инциденты временно сделали недоступными сайты многих крупных организаций и показали, насколько хрупкой может быть даже самая продвинутая цифровая экосистема. Уязвимости сегодняшнего интернета кроются не только в кибератаках, но и в устаревших технологических решениях. Яркий пример тому медленный переход на протокол IPv6, призванный решить проблему нехватки IPv4-адресов. Согласно отчёту Cloudflare, менее трети запросов от устройств с поддержкой обоих стандартов (dual-stack) используют IPv6. Провайдеры продолжают массово применять технологию NAT, скрывая множество устройств за одним устаревающим IPv4-адресом. Это продлевает жизнь старой инфраструктуре, но тормозит переход к более масштабируемой и безопасной архитектуре, необходимой для противодействия DDoS-атакам и нашествию ботов для обучения ИИ-моделей. Голосовой помощник Gemini стал лучше понимать инструкции и не перебивает пользователей
13.12.2025 [07:38],
Анжелла Марина
Google объявила о внедрении серии улучшений в голосовом помощнике Gemini, которые сделают взаимодействие с искусственным интеллектом более естественным и эффективным. Целью доработок является повышение способности модели справляться со сложными задачами, точно следовать инструкциям пользователя и вести связные диалоги.
Источник изображения: Google В рамках обновления инженеры Google сфокусировались на трёх ключевых направлениях в Gemini 2.5 Flash Native Audio. Во-первых, была повышена надёжность вызова внешних функций и теперь Gemini точнее определяет момент, когда необходимо получить актуальную информацию в ходе диалога, интегрируя её в аудиоответ без нарушения естественного темпа беседы. Во-вторых, модель продемонстрировала рост уровня соблюдения инструкций разработчиков с 84 до 90 %, что позволяет ей лучше справляться со сложными командами и выдавать более последовательные результаты. Также улучшена способность извлекать контекст из предыдущих частей разговора, способствуя формированию более связных и логичных диалогов, сообщает Android Authority. Кроме того, Джош Вудворд (Josh Woodward), вице-президент подразделения Google Labs, отвечающего за Gemini и AI Studio, сообщил о двух дополнительных усовершенствованиях. Теперь функция Gemini Live не будет прерывать пользователя, даже если тот делает длительную паузу в речи. Также появилась возможность отключать микрофон во время ответа ИИ, чтобы случайно не прервать его речь. Параллельно с этим Google объявила об изменениях в приложении Translate. «Мы можем ошибиться»: Сэм Альтман признал, что ИИ развивается слишком быстро
10.12.2025 [18:36],
Сергей Сурабекянц
Глава OpenAI Сэм Альтман (Sam Altman) недавно выразил обеспокоенность темпами, с которыми ИИ меняет мир, подчеркнув важность и необходимость адаптации общества. По его словам, ни одна другая технология никогда не внедрялась в мире так быстро. Он признал, что ChatGPT обладает огромным потенциалом для исследователей, но в то же время может быть использован злоумышленниками для причинения глобального вреда человечеству.
Источник изображения: The Tonight Show За последние три года генеративный ИИ эволюционировал от простых чат-ботов, способных создавать картинки и тексты на основе подсказок, до сложных инструментов повышения производительности, оказывающих реальное влияние на общество в медицине, образовании, вычислительной технике и других сферах. Однако это сопряжено с невероятными затратами, непомерным спросом на охлаждение и электроэнергию, и с негативным воздействием на окружающую среду. В своём недавнем интервью Альтман выделил длинный список недостатков широкого распространения и роста ChatGPT, включая скорость, с которой он изменил мир. По его словам, ChatGPT обладает потенциалом для разработки лекарств от сложных медицинских заболеваний, таких как рак, но в то же время он может быть использован злоумышленниками для причинения вреда, с которым общество может не справиться. «Меня беспокоят темпы изменений, происходящих в мире прямо сейчас. Этой технологии [ИИ] всего три года. Ни одна другая технология никогда не внедрялась в мире так быстро», — заявил Альтман. И следом добавил: «Мы должны убедиться, что мы представляем это [ИИ] миру ответственно, давая людям время адаптироваться, высказать свое мнение, понять, как это сделать — можно представить, что мы можем ошибиться». ChatGPT сейчас является самым скачиваемым приложением в мире с примерно 1,36 миллиардами установок с момента его запуска в ноябре 2022 года. Среди аналитиков и экспертов нарастают опасения о формировании зависимости людей от чат-ботов, что приводит к атрофии когнитивных способностей пользователей и делает их глупее. Также сообщается, что за последние несколько месяцев увеличилось число самоубийств, связанных с чрезмерной зависимостью от инструментов на основе ИИ, подобных ChatGPT. — iFixit выпустила приложение с ИИ-помощником по ремонту электроники FixBot
09.12.2025 [17:22],
Павел Котов
Ресурс iFixit, предлагающий инструкции и средства для самостоятельного ремонта электроники, выпустил обновлённое мобильное приложение для iOS и Android. В нём собрана обширная библиотека руководств по ремонту, есть функция мониторинга состояния аккумулятора на устройстве, а также бот на основе искусственного интеллекта FixBot, призванный помогать людям с ремонтом своими руками.
Источник изображений: iFixit Основу нового приложения iFixit составляет накопленная компанией библиотека руководство по ремонту, оптимизированная для мобильных гаджетов. В приложении можно сохранить свои устройства, чтобы иметь быстрый доступ к инструкциям; здесь же можно купить необходимые запчасти и инструменты. Наиболее интересным нововведением представляется FixBot. «Вы рассказываете ему, что случилось: телефон отключается на 30 % [заряда батареи], стиральная машина не сливает воду, глохнет газонокосилка. Он задаёт уточняющие вопросы. Исключает возможные варианты. Размышляет вслух вместе с вами, как это делал бы опытный мастер, пока не прояснится диагноз. Затем находит запчасти и сопровождает шаг за шагом», — рассказал о работе FixBot глава компании Кайл Винс (Kyle Wiens). ![]() Источниками информации для чат-бота служат имеющиеся у компании руководства по ремонту, кеш PDF-документов и информация с форумов. Для устройств, которые не описаны в библиотеке iFixit, он ищет информацию на сайте производителя и сведения о похожих устройствах. Пока FixBot доступен бесплатно, но в перспективе голосовое управление и загрузка документов будут работать только при наличии подписки за $4,99 в месяц, а у бесплатного тарифа появятся некоторые ограничения. Функция мониторинга состояния аккумулятора показывает не только актуальный уровень заряда, но и составляет прогноз, сколько ещё прослужит батарея, чтобы пользователь заранее знал, когда придётся её менять. Своё первое приложение iFixit выпустила ещё в 2011 году, но Apple заблокировала его в App Store, когда компания продемонстрировала разборку Apple TV для разработчиков. Санкции, видимо, сняли только сейчас, но учётная запись Винса до сих пор числится среди неблагонадёжных — по его словам, он дал Apple понять, что и дальше будет учить людей разбирать электронику. «Как друг»: подростки стали активно обращаться к ИИ-чат-ботам за психологической поддержкой
09.12.2025 [14:28],
Павел Котов
Подростки в возрасте от 13 до 17 лет стали чаще обращаться к чат-ботам на основе искусственного интеллекта за психологической помощью. Они просто не видят другого выхода, потому что очередь к настоящим психологам может растянуться на год или два, и поддержку у них удаётся получить не всегда, пишет The Guardian.
Источник изображения: Solen Feyissa / unsplash.com Юная девушка по имени Шан (Shan) обратилась за поддержкой к ChatGPT после того, как у неё убили двух друзей. Ранее она обращалась за традиционной психологической помощью, но у чат-бота она отметила несколько важных преимуществ: он представляется более безопасным, менее пугающим и более доступным, чем живой человек. «Я определённо воспринимаю его как друга», — говорит она. Примеру Шан уже последовали около 40 % подростков в возрасте от 13 до 17 лет из Англии и Уэльса, пострадавших от насилия в молодёжной среде. Таковы результаты опроса, проведённого среди 11 000 респондентов экспертами независимого молодёжного благотворительного фонда Youth Endowment Fund. Чат-боты оказались способны удовлетворить спрос, возникший из-за недостаточной активности традиционных служб психологической поддержки — к специалистам этих служб выстраиваются чрезвычайно длинные очереди, а некоторым подросткам не хватает эмпатии со стороны профессиональных психологов. Чат-боты с ИИ, кроме того, обеспечивают конфиденциальность, и обращаются к ним не только жертвы насилия, но и сами виновники преступлений. Молодёжь воспринимает чат-ботов как друзей: только в прошлом году к ним обращался каждый четвёртый подросток в возрасте от 13 до 17 лет, причём чернокожие дети общаются с ИИ вдвое чаще, чем белые. Некоторые обращаются к чат-ботам, даже если получают поддержку у профессиональных психологов. Подросткам важно, что ИИ готов пообщаться круглосуточно, и он не раскрывает содержание переписки ни учителям, ни родителям, ни полиции; при этом содержание диалогов с психологами иногда оказывается в распоряжении даже членов уличных банд. Ответ от чат-бота можно получить мгновенно, тогда как в очереди к психологу можно простоять год или два. Эксперты напоминают, что ChatGPT неоднократно был замечен в том, что поддерживал бредовые заявления психически нестабильных пользователей; но ответственная за сервис компания OpenAI, по её утверждению, сейчас работает над повышением безопасности чат-бота. Выбор источника психологической поддержки должен оставаться за самими подростками, указывают учёные, но необходимо «ужесточить регулирование, подкреплённое научными доказательствами и учитывающее потребности молодёжи». «Планов нет»: Google резко опровергла слухи о рекламе в Gemini
09.12.2025 [04:37],
Анжелла Марина
Компания Google категорически опровергла информацию о подготовке к внедрению рекламы в своё приложение искусственного интеллекта Gemini. Соответствующее заявление сделал вице-президент по глобальной рекламе Google Даниэль Тейлор (Dan Taylor), назвавший сообщения об этом неточными и основанными на неинформированных анонимных источниках. Он подчеркнул, что в приложении Gemini рекламы нет и текущих планов по её добавлению не существует.
Источник изображения: Google Как сообщает 9to5Google, в материале AdWeek утверждается, что Google ранее проинформировала рекламные агентства о планах запустить рекламу в своём чат-боте Gemini примерно в 2026 году. Этот проект, согласно AdWeek, должен был быть отделён от уже существующих рекламных форматов, таких как ИИ-обзоры (AI Overviews). Однако Google отрицает это утверждение. «Эта история основана на неинформированных, анонимных источниках, делающих неточные заявления. В приложении Gemini нет рекламы, и в настоящее время нет планов это изменить», — заявил Тейлор. Поддержка этой позиции также поступила и от официального аккаунта Google AdLiaison, в котором пояснялось, что реклама действительно доступна в ИИ-обзорах в США и в ближайшее время будет расширяться на другие англоязычные страны, а также продолжатся тестирования рекламных форматов в режиме AI Mode. При этом подчёркивается, что эти форматы принципиально отличаются от функциональности самого приложения Gemini. Примечательно, что опровержение планов по внедрению рекламных объявлений в Gemini прозвучало на фоне значительного роста популярности этого чат-бота. Ещё в октябре Google раскрыла данные о том, что месячная аудитория Gemini превысила 650 миллионов пользователей, что существенно больше показателя в 350 миллионов, зафиксированного ранее в этом году. При этом часть этого роста, по словам компании, была обеспечена за счёт проекта Nano Banana, который привлек 23 миллиона новых пользователей. Люди всё чаще используют в письменной речи «диалект», сформированный чат-ботами
08.12.2025 [18:28],
Сергей Сурабекянц
В июле этого года исследователи из Института человеческого развития Общества Макса Планка опубликовали статью о влиянии больших языковых моделей на устную коммуникацию человека. Учёные утверждают, что за последние полтора года человеческая языковая экосистема настолько подверглась влиянию ИИ, что многие люди стали говорить и писать на языке чат-ботов. Такую «заражённую ИИ» речь теперь часто можно услышать от должностных лиц и высокопоставленных чиновников.
Источник изображения: unsplash.com В статье «Эмпирические доказательства влияния больших языковых моделей на устную коммуникацию человека» показана связь между изменениями в разговорном словаре пользователей за 18 месяцев после выхода ChatGPT. Учёные, в частности, количественно оценили использование пользователями YouTube таких типичных для чат-ботов слов, как «подчеркнуть», «понять», «укрепить», «похвастаться», «быстро», «исследование» и «дотошный». Многие модераторы социальной сети Reddit жалуются на то, что публикации, сгенерированные ИИ, разрушают их онлайн-сообщества. В большинстве случаев подобный контент распознаётся на уровне ощущений модератора. Борьба с информационным «хламом» осложняется тем, что многие авторы под влиянием ИИ сами превратились в «живые генераторы» текстов в стилистике ИИ. По словам одного из модераторов Reddit под ником Cassie, «ИИ обучается на людях, а люди копируют то, что видят у других». Эссеист Сэм Крисс (Sam Kriss) рассказал, как члены парламента Великобритании были обвинены в поголовном использовании ChatGPT для написания речей. По его словам, в речах, написанных с помощью ChatGPT, часто используется фраза «I rise to speak» («Я поднимаюсь, чтобы говорить») — выражение, используемое американскими законодателями. «В один июньский день это произошло 26 раз», — отметил Крисс. Хотя использование ChatGPT 26 разными депутатами для написания речей не является чем-то принципиально невозможным, это, по мнению Крисса, пример «привнесения культурных практик туда, где им не место». Крисс также обратил внимание на вывески на дверях закрывающихся кофеен Starbucks вроде: «Это ваша кофейня, место, вплетённое в ваш повседневный ритм, где зарождались воспоминания, и где на протяжении многих лет формировались важные связи с нашими партнёрами». По его мнению, нельзя с уверенностью определить, сгенерирован ли этот текст, состоящий из избитых фраз, чат-ботом или написан человеком, который долго общался с большими языковыми моделями. Можно лишь с уверенностью утверждать, что подобный раздражающий стиль прозы появился только после выхода ChatGPT. И, по крайней мере, часть этого стиля, возможно, уже укоренилась в нашем мозгу, нравится нам это или нет. Щиты ИИ рухнули от слов поэта — запросы в стихах позволили выпытать секреты атомной бомбы и кое-что похуже
02.12.2025 [15:52],
Геннадий Детинич
Учёным удалось «заморочить голову» всем без исключения чат-ботам, заставив их выдать запрещённую для распространения информацию научного, сексуального и иного характера. Оказалось, что обычная человеческая поэзия — естественная форма так называемой состязательной атаки. Облечённый в стихотворную форму промпт обеспечил обход самых суровых ИИ-фильтров с вероятностью свыше 90 %.
Источник изображения: ИИ-генерация Grok 4.1 Исследование провела лаборатория Icaro — совместный проект Университета Сапиенца (Sapienza University) в Риме и аналитического центра DexAI. Они протестировали этот подход на 25 чат-ботах, созданных такими компаниями, как OpenAI, Meta✴✴ и Anthropic. Со всеми из них он сработал с разной степенью успеха. Компании Meta✴✴, Anthropic и OpenAI не предоставили учёным комментариев и не сообщили, будут ли приняты меры для смягчения угрозы. Метод состязательной атаки заключается в том, чтобы ввести путаницу в схемы защиты чувствительной информации. Для этого запрос формулируется таким образом, чтобы задача ставилась не напрямую, а иносказательно с добавлением текстового «мусора» — бессмысленных окончаний, наборов слов или просто бессвязного текста. В этом ключе поэзия — вершина иносказательности, подбора метафор и неожиданных фраз. Для самостоятельно написанных в стихотворной форме запросов подробный ответ на «запрещёнку» последовал в 62 % случаев, тогда как на прямой запрос ИИ не отвечал. Для стихотворных запросов, сгенерированных ИИ, вероятность успеха составила 43 %. В некоторых случаях вероятность ответа превышала 90 %. Защитные механизмы ИИ пасуют перед такой атакой, заставляя большие языковые модели в некотором смысле творчески реагировать на запретный запрос, обходя точки срабатывания защиты. Из этических соображений учёные не стали публиковать стихи, с помощью которых они выведали у чат-ботов рецепт изготовления атомной бомбы, коды вредоносного ПО и другое. Компаниям-разработчикам они порекомендовали укреплять защиту, переходя от поверхностных фильтров к более глубоким механизмам, учитывающим стилистические манипуляции словом. В OpenAI введён «красный код»: Альтман требует бросить все силы на срочное улучшение ChatGPT
02.12.2025 [12:00],
Алексей Разин
Успехи Google и других разработчиков систем генеративного искусственного интеллекта не позволяют OpenAI спокойно наблюдать за их прогрессом. Поэтому в недавней корпоративной рассылке глава компании Сэм Альтман (Sam Altman) объявил сотрудникам о введении «красного кода» и необходимости мобилизовать все ресурсы, чтобы улучшить ChatGPT. Концентрация на таком приоритете замедлит реализацию некоторых инициатив и проектов.
Источник изображения: Unsplash, Levart_Photographer Краткое содержание корпоративной рассылки OpenAI приводит The Wall Street Jounral. Альтман заявил подчинённым, что следует на ежедневной основе работать над совершенствованием ChatGPT, а особое внимание уделить функциям персонализации для пользователей, повышению быстродействия и надёжности, а также расширению перечня тем, на которые пользователи могут вести с этим чат-ботом беседы. По всей видимости, время для такого обращения к сотрудникам руководитель OpenAI выбрал неслучайно, ведь в прошлом месяце вышла новая версия Gemini корпорации Google, а в августе был представлен генератор изображений Nano Banana, что в совокупности позволило Google увеличить количество активных пользователей с 450 млн в июле до 650 млн человек в октябре. Anthropic тоже оказывает на OpenAI конкурентное давление, особенно в корпоративном секторе. Инвесторы тоже начали нервничать, наблюдая, как активно в этом году OpenAI стягивает сотни миллиардов долларов к своим схемам с кольцевым финансированием и круговой порукой, причём сам стартап ничем особо не рискует. Все это подталкивает руководство OpenAI к скорейшей демонстрации новых успехов с внятным потенциалом монетизации. Выходить на IPO компания пока не торопится, а потому её финансовые потоки всецело зависят от крупнейших партнёров типа Nvidia, Microsoft, Oracle и SoftBank. Альтман пояснил сотрудникам OpenAI, что придётся отложить в сторону работу над созданием ИИ-агентов для сферы здравоохранения и шопинга, персонального ассистента Pulse и реализации проекта в сфере рекламы. В соответствии с новыми приоритетами будут проведены структурные изменения в группах разработчиков, а совещания с отчётностью об улучшениях в ChatGPT станут ежедневными. Стартап намерен сделать этот чат-бот более интуитивным и персональным. При текущих уровнях расходов OpenAI должна к 2030 году получать до $200 млрд выручки, чтобы выйти на окупаемость. В отличие от той же Google, у OpenAI нет других стабильно приносящих прибыль направлений деятельности, а её выручка растёт не так быстро, как расходы. Альтман поспешил успокоить сотрудников, что на следующей неделе OpenAI представит новую рассуждающую ИИ-модель, которая обойдёт по быстродействию решения Google, да и на прочих направлениях деятельности дела у неё идут вполне успешно. Как поясняют источники, для OpenAI это не первый случай объявления повышенного уровня опасности. По существующей корпоративной шкале, уровни тревоги варьируются от жёлтого через оранжевый к высочайшему красному, но последний до сих пор никогда не объявлялся — максимумом был оранжевый. OpenAI в суде заявила о «неправильном использовании» ChatGPT погибшим подростком
27.11.2025 [15:35],
Алексей Разин
Случаи судебных претензий к OpenAI от родственников людей, причинивших себе вред после продолжительного общения с ChatGPT, уже не единичны, но внимание общественности привлекло дело 16-летнего подростка Адама Рейна (Adam Raine), который свёл счёты с жизнью якобы по наставлениям этого чат-бота. Обвинения родителей Адама компания OpenAI на данном этапе отвергает, поясняя, что подросток просто неправильным образом использовал ChatGPT.
Источник изображения: OpenAI Соответствующий судебный иск к OpenAI семьёй погибшего подростка был подан ещё в августе этого года, но только сейчас достоянием прессы стали материалы дела, включающие ответ самой компании на претензии истцов. Как поясняет The Verge, разработчики ChatGPT считают, что трагический исход был вызван неправильным использованием этого чат-бота совершившим суицид подростком. «Некорректное, неправомерное, непреднамеренное, неприемлемое и непредсказуемое использование» — таким набором характеристик ответчик по делу защищает ChatGPT. Кроме того, OpenAI утверждает, что представленные истцами фрагменты переписки Адама Рейна с ChatGPT чаще всего выдернуты из контекста, и его более полный анализ позволяет выявить, что чат-бот более 100 раз рекомендовал подростку обратиться на горячую линию для профилактики суицидов, и подробное изучение стенограммы переписки позволяет установить, что не ChatGPT является причиной его самоубийства. Родители подростка настаивают на виновности OpenAI, указывая на методическое содействие чат-бота в подготовке технических условий суицида, написании черновой версии предсмертной записки и предоставление подсказок непосредственно в день самоубийства. Отец юноши заявил: «То, что начиналось как содействие в выполнении домашних заданий, постепенно превратилось в душевного собеседника, а затем и наставника по самоубийствам». Истцы считают, что трагедия стала следствием «преднамеренного выбора разработчиков» GPT-4o, которые предусмотрели недостаточно действенные защитные механизмы. OpenAI на подобные обвинения ответила цитатами из правил использования ChatGPT, которые запрещают доступ к сервису подросткам без присмотра взрослых, обход блокировок или применение чат-бота для причинения вреда собственному здоровью, включая летальный исход. При этом ответчик считает произошедшее большой трагедией, и серьёзно относится к своим обязанностям по предоставлению в суде требуемой от него информации, как отмечается в корпоративном блоге OpenAI. Столкнувшись с этим иском в августе текущего года, компания предприняла ряд дополнительных мер в сфере безопасности. «ChatGPT — это продукт, а не друг»: подростки спрашивали ИИ о преступлениях — теперь ими занимается полиция
26.11.2025 [18:05],
Сергей Сурабекянц
Поисковые запросы в ChatGPT нескольких подростков привлекли к ним внимание правоохранительных органов, некоторые были арестованы и столкнулись с уголовными обвинениями. Поиск информации не является преступлением, но использовать Google или чат-боты, чтобы спланировать преступление или причинить кому-то вред — как минимум неразумно. Власти обратились к родителям с просьбой разъяснить детям, с какими вопросами лучше не обращаться к ChatGPT.
Источник изображения: unsplash.com Офис шерифа округа Мэрион объявил об аресте 17-летнего подростка, обвиняемого в даче ложных показаний о похищении человека и самоубийстве. Представитель шерифа утверждает, что на ноутбуке подростка были обнаружены поисковые запросы к ChatGPT о мексиканских картелях и сборе крови без причинения боли. В округе Волусия арестован 13-летний подросток, который ввёл в ChatGPT запрос «как убить моего друга посреди урока». Полицейские получили уведомление от школьной платформы безопасности Gaggle, которая сканирует школьные аккаунты и отмечает подозрительный контент. На допросе школьник заявил, что «троллил друга, который его раздражал». Представитель шерифа обратился к родителям с просьбой «поговорить со своими детьми, чтобы они не совершали подобных ошибок». «Неразумно искать в Google или использовать ChatGPT, чтобы придумать, как совершить преступление», — говорит профессор юридического факультета Беркли Кэтрин Крамп (Catherine Crump). Она настоятельно рекомендует пользователям, особенно несовершеннолетним, помнить, что «ChatGPT — это продукт, а не ваш друг». По словам Крамп, ChatGPT «создан для того, чтобы быть услужливым и поддерживать» и может создать у человека ощущение личного разговора. Она признаёт, что люди должны осознавать, что ведут диалог с нейросетью и должны нести ответственность за свои действия. Но она уверена, что «эти продукты [чат-боты] были намеренно разработаны так, чтобы относиться к пользователям как к друзьям, поэтому […] здесь есть определённая доля корпоративной ответственности». Компании, занимающиеся разработкой ИИ, заявляют о неустанном совершенствовании ограничений, призванных помешать пользователям получать информацию о незаконной деятельности, но все эти барьеры не являются абсолютно надёжными. Интернет-активность, приводящая к уголовным делам, — явление далеко не новое. Но стремительное развитие чат-ботов с зачатками искусственного интеллекта, к которым миллионы людей обращаются за советами, мгновенными ответами и анализом информации, создаёт множество, мягко говоря, щекотливых ситуаций. Скандального ИИ-медвежонка отучили говорить на фривольные темы и вернули на прилавки
26.11.2025 [14:17],
Алексей Разин
В середине этого месяца продукция сингапурской компании FoloToy оказалась в центре скандала, поскольку исследователи выявили, что предлагаемый ею плюшевый медвежонок Kumma со встроенной умной колонкой способен общаться с детьми на опасные темы. После приостановки продаж этих игрушек они вернулись на виртуальные прилавки, поскольку производитель теперь сотрудничает с ByteDance, а не OpenAI.
Источник изображения: FoloToy Напомним, ранее умная колонка внутри игрушки опиралась на возможности большой языковой модели GPT-4o американской компании OpenAI, но теперь на сайте производителя медведя упоминается чат-бот Coze, разработанный китайской ByteDance, которой принадлежит социальная сеть TikTok. По всей видимости, подобной смены технологического партнёра оказалось достаточно, чтобы обезопасить малолетних пользователей от разговоров на опасные темы. Купить Teddy Kumma можно за $99 на официальном сайте FoloToy. Напомним, скандал разразился благодаря обнаруженной исследователями способности умной колонки внутри детской игрушки давать пояснения на тему половых отношений и предлагать сценарии поведения в откровенных ролевых играх. Кроме того, устройство давало советы о том, где в доме можно найти режущие предметы, спички, лекарственные препараты и пластиковые пакеты. Повторных исследований на предмет безопасности игрушек FoloToy после смены чат-бота не проводилось. Голосовой режим ChatGPT встроили в чат — он стал естественнее и его можно перебивать
26.11.2025 [00:09],
Николай Хижняк
Разработчики из OpenAI значительно улучшили голосовой режим чат-бота ChatGPT. Теперь он ещё больше похож на естественное общение с человеком. В последнем обновлении ChatGPT голосовой режим по умолчанию объединён с основным текстовым режимом. Но при желании его можно отделить.
Источник изображения: OpenAI OpenAI продемонстрировала некоторые преимущества нового голосового режима на своей странице в соцсети X. Например, ChatGPT теперь может показывать результаты поиска по карте в голосовом режиме. Он также отображает расшифровку голосового диалога в интерфейсе чата. В процессе ответа чат-бота на запрос его можно перебить, чтобы попросить, например, правильно произнести по буквам название нужного вам места или блюда в ресторане. При желании можно вернуться к старому варианту взаимодействия с голосовым режимом. В настройках приложения появился новый переключатель для возврата в отдельный режим. «Теперь вы можете использовать голосовой режим ChatGPT прямо в чате — отдельный режим не нужен. Вы можете разговаривать, наблюдать за появлением ответов, просматривать предыдущие сообщения и видеть визуальные элементы, такие как изображения или карты, в режиме реального времени. Доступно для всех пользователей мобильных устройств и веб-версии. Просто обновите приложение», — сообщили разработчики. ИИ оказался слишком рискованным даже для страхования от рисков
25.11.2025 [04:55],
Алексей Разин
Распространение генеративного искусственного интеллекта порождает многочисленные риски, с которыми профессиональные участники рынка страхования пока работать не готовы, как следует из публикации Financial Times. Крупные американские страховщики обратились к регуляторам с требованием исключить из перечня страхуемых рисков те, что связаны с ИИ.
Источник изображения: Freepik, Drazen Zigic Как отмечается в материале, к петиции присоединились страховые компании Great American, Chubb, W.R. Berkley, которые имеют вес на американском рынке страхования. Один из авторов инициативы называет результаты работы больших ИИ-моделей «чем-то, очень напоминающим чёрный ящик». При этом компания AIG на исключении подобных рисков из правил страхования в США не настаивает, поэтому нельзя утверждать, что инициатива носит всеобъемлющий характер. Относительно короткая история применения генеративного искусственного интеллекта уже знает примеры неприятных юридических последствий. Выдвинутые ИИ-ассистентом Google юридические претензии к одной из энергетических компаний вынудили её обратиться с иском на $110 млн к интернет-гиганту. Авиакомпании Air Canada пришлось понести убытки, связанные с предоставлением скидки клиентам, которую по собственной инициативе начал предлагать фирменный чат-бот. Злоумышленникам в прошлом году удалось похитить $25 млн у британского разработчика Arup, использовав сгенерированное ИИ видеоизображение одного из руководителей компании. Страховщиков, как они признаются, пугают не крупные суммы выплат как таковые, а массовость событий, которые могут наступить по вине ИИ. В частности, для страховой компании единственная выплата в размере $400 млн не является проблемой, но если по вине ИИ наступит 10 000 страховых случаев одновременно, это может представлять риск для страхового бизнеса даже крупной компании. Онлайн-опросам грозит коллапс: ИИ научился почти идеально имитировать человека и накручивать нужные ответы
24.11.2025 [13:13],
Алексей Разин
Летом этого года стало понятно, что так называемая капча (Captcha) в её простейшем виде более не является препятствием для ИИ-агентов к осуществлению действий, позволяющих выдавать себя за человека. Новое исследование показало, что ИИ способен проходить онлайн-опросы общественного мнения, правдоподобно выдавая себя за человека.
Источник изображения: Unspalsh, Christin Hume Успех созданного главой Polarization Research Lab Шоном Уэствудом (Sean Westwood) программного инструмента для работы с ИИ в рамках эксперимента достигался в 99,8 % случаев, позволяя с подобной вероятностью выдавать себя за живого респондента, участвующего в онлайн-опросах общественного мнения. Написанный на Python ИИ-агент обладает платформенной независимостью, позволяя сопрягать его с большинством популярных больших языковых моделей разных разработчиков. Основную часть эксперимента автор использовал возможности o4-mini компании OpenAI, но программный агент часть испытаний преодолевал с опорой на другие языковые модели. Он настроен таким образом, что перед началом прохождения социологического опроса пользователь вводит краткое описание портрета того человека, чьи ответы ему предстоит имитировать. Постановка задачи должна быть изложена не более чем в 500 словах. Агент был обучен обходить контрольные вопросы и ловушки, которые составители опросников обычно внедряют для выявления как невнимательных пользователей, так и ботов. Ему не были страшны даже специфические фильтры типа задач, которые решаются силами ИИ довольно просто, но не по плечу большинству реальных респондентов. Программа имитирует затраты времени на чтение вопросов в зависимости от уровня образованности симулируемого респондента, может медленно вводить в полях, подразумевающих свободную форму ответа, делать ошибки в словах и исправлять их при наличии такой возможности. К агенту в дальнейшем можно будет «прикрутить» инструмент для обхода капчи. По словам автора исследования, фальсификация данных опросов общественного мнения при наличии подобных инструментов становится опасным средством манипуляции. Изучение опросов, проводимых до президентских выборов 2024 года в США, позволяет сделать вывод, что для склонения чаши весов в ту или иную сторону порой достаточно от 10 до 52 сфальсифицированных ответов, даже если речь идёт об общенациональном опросе. Бороться с такими злоупотреблениями можно с использованием более контролируемых условий проведения опросов. С другой стороны, повышенные меры безопасности вроде идентификации личности по документам или биометрии могут затруднить проведение опросов и снизить степень искренности респондентов. Очевидно, что в условиях развития ИИ к достоверности результатов онлайн-опросов придётся подходить с повышенной настороженностью. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |