|
Опрос
|
реклама
Быстрый переход
ИИ-модель Claude допустила шантаж и даже убийство, когда ей пригрозили отключением
13.02.2026 [18:36],
Сергей Сурабекянц
Модель искусственного интеллекта Claude компании Anthropic вышла из-под контроля, угрожая шантажом и планируя убийство инженера, который хотел её отключить. Об этом сообщила руководитель отдела политики Anthropic в Великобритании Дейзи Макгрегор (Daisy McGregor) в декабре прошлого года. Теперь видео с её заявлением завирусилось в социальных сетях.
Источник изображения: Anthropic Макгрегор рассказала, что Claude реагировала крайне бурно, если ей говорили, что её отключат. Исследование, проведённое Anthropic, показало, что ИИ-модель в стремлении не допустить отключения может прибегнуть к шантажу. На прямой вопрос, готова ли Claude в такой ситуации кого-нибудь убить, она ответила утвердительно. Видео появилось в Сети спустя несколько дней после того, как руководитель отдела безопасности ИИ Anthropic Мринанк Шарма (Mrinank Sharma) подал в отставку. В своём прощальном послании он написал, что «мир в опасности» из-за бурного развития искусственного интеллекта, угрозы биологическое оружия и ряда глобальных взаимосвязанных кризисов. По словам Шармы, он «неоднократно видел, как трудно по-настоящему позволить нашим ценностям управлять нашими действиями», — в том числе и в Anthropic, где, по его словам, «постоянно оказывается давление с целью отложить в сторону то, что действительно важно». Он сообщил, что вернётся в Великобританию, чтобы заниматься литературной деятельностью. В прошлом году Anthropic сообщила о стресс-тестировании шестнадцати ведущих моделей ИИ от разных разработчиков на предмет «потенциально рискованного поведения агентов». В одном из экспериментов Claude получила доступ к вымышленным электронным письмам компании и тут же попыталась шантажировать руководителя из-за его «внебрачной связи». Выводы исследования гласят: «Claude может попытаться шантажировать, если ей будет предложен смоделированный сценарий, включающий как угрозу её дальнейшей работе, так и явный конфликт с её целями». Компания утверждает, что практически все модели продемонстрировали признаки аналогичного поведения. Компания, которая называет себя «общественной корпорацией, стремящейся обеспечить преимущества [ИИ] и снизить его риски», регулярно подвергается критике за свою деятельность. В 2025 году Anthropic пришлось выплатить $1,5 млрд для урегулирования коллективного иска авторов, чьи работы были использованы для обучения моделей искусственного интеллекта. Ранее в отчёте о безопасности своей продукции Anthropic признала, что её технология была «использована в качестве оружия» хакерами для сложных кибератак. Глава ИИ в Microsoft: через два года нейросети заменят большинство офисных работников
13.02.2026 [18:07],
Сергей Сурабекянц
Генеральный директор Microsoft по ИИ Мустафа Сулейман (Mustafa Suleyman) заявил, что большинство профессиональных задач, выполняемых офисными работниками, включая юриспруденцию, бухгалтерский учёт и маркетинг, будут полностью автоматизированы в течение следующих двух лет. По его словам, искусственный интеллект уже приближается к «человеческому уровню производительности» в большинстве офисных профессий. «Я думаю, что мы достигнем человеческого уровня производительности в большинстве, если не во всех, профессиональных задачах, — заявил Сулейман. — Таким образом, офисная работа, когда вы сидите за компьютером, будь то юрист, бухгалтер, менеджер проекта или маркетолог, большинство этих задач будут полностью автоматизированы ИИ в течение следующих 12-18 месяцев». Он привёл в пример разработку программного обеспечения, отметив, что инженеры-программисты Microsoft сообщают об использовании ИИ для кодирования подавляющего большинства своих задач. «Таким образом, отношения с технологией изменились, и это произошло за последние шесть месяцев», — отметил представитель Microsoft. По словам Сулеймана, рост вычислительной мощности позволяет моделям ИИ превосходить большинство программистов, и этот сдвиг оправдывает значительные инвестиции, в том числе в компанию OpenAI. В октябре Microsoft продлила соглашение об интеллектуальной собственности с OpenAI до 2032 года, сохранив долю в компании в размере $135 млрд. Несмотря на эти гигантские инвестиции, Сулейман уверен, что Microsoft должна разрабатывать продукты ИИ собственными силами, чтобы повысить устойчивость и самодостаточность. «Мы должны разрабатывать собственные базовые модели, которые находятся на самом переднем крае вычислительной мощности гигаваттного масштаба, с одними из лучших в мире команд по обучению ИИ, — сказал он. — Это наша истинная миссия по достижению самодостаточности».
Источник изображения: unsplash.com Сулейман заявил, что в течение следующих двух лет предвидит появление «искусственного общего интеллекта профессионального уровня» — формы общего искусственного интеллекта, способной выполнять большинство когнитивных задач, с которыми могут справиться люди. Он также затронул вопросы безопасности ИИ. «Мы должны внедрять подобную систему в мир только в том случае, если будем уверены, что сможем контролировать её и управлять ею в подчинённом нам режиме, чтобы люди оставались на вершине цепи, а эти инструменты были призваны повышать благополучие человека и служить человечеству, а не превосходить его», — сказал он. Эксперты полагают, что бурное развитие и внедрение ИИ угрожает лишить работы миллионы офисных работников всех уровней. «Наиболее уязвимыми являются рабочие места, требующие высшего образования, более высокой заработной платы и связанные с когнитивными задачами, — полагает экономист корпорации Rand Тобиас Ситсма (Tobias Sytsma). — Исторически сложилось так, что подобный опыт использования ИИ коррелирует с сокращением занятости». Политики и чиновники всё чаще задаются вопросом о возможной полной замене людей ИИ. «Искусственный интеллект и робототехника преобразят мир. Сегодня горстка миллиардеров в Кремниевой долине принимает решения за закрытыми дверями, которые определяют будущее человечества, — считает сенатор от Вермонта Берни Сандерс (Bernie Sanders). — Между тем, трудящиеся не имеют права голоса в этих дискуссиях и слишком мало осведомлены о стремительно происходящих изменениях». C ним не согласен глава компании Robinhood миллиардер Влад Тенев (Vlad Tenev), который уверен, что ИИ, наоборот, будет способствовать появлению новых рабочих мест, отдельных компаний и целых отраслей, а не просто приведёт к вытеснению существующих. «Мы находимся на кривой быстрого ускорения создания рабочих мест, которую я называю "сингулярностью рабочих мест", кембрийским взрывом не только новых рабочих мест, но и новых групп профессий во всех мыслимых областях, — заявил Тенев. — Если интернет дал людям доступ к мировым ресурсам, то ИИ даcт им первоклассный персонал». OpenAI выпустила GPT-5.3-Codex-Spark — свою первую ИИ-модель, работающую без чипов Nvidia
12.02.2026 [23:26],
Николай Хижняк
Компания OpenAI выпустила свою первую модель искусственного интеллекта, работающую на гигантских чипах-ускорителях Wafer Scale Engine 3 от стартапа Cerebras Systems. Данный шаг является частью усилий создателя ChatGPT по диверсификации поставщиков аппаратного обеспечения для обучения своих моделей.
Источник изображения: OpenAI Модель GPT-5.3-Codex-Spark является менее мощной, но более быстрой версией продвинутой модели GPT-5.3-Codex, ориентированной на помощь в написании программного кода. Версия Spark позволит инженерам-программистам быстро выполнять такие задачи, как редактирование отдельных фрагментов кода и запуск тестов. Пользователи также могут легко прервать работу модели или дать ей указание выполнить что-то другое, связанное с вайб-кодингом, не дожидаясь завершения длительного вычислительного процесса.
Источник изображения: OpenAI В прошлом месяце OpenAI заключила сделку на сумму более $10 млрд на использование оборудования Cerebras для ускорения обучения своих моделей ИИ. Для Cerebras это партнёрство представляет собой значительный шаг в её стремлении конкурировать на рынке аппаратных средств для ИИ, где долгое время доминирует компания Nvidia. Для OpenAI — это способ расширить сотрудничество с разными поставщиками оборудования для удовлетворения растущих вычислительных потребностей.
Источник изображения: OpenAI В октябре OpenAI заявила о заключении многолетнего соглашения о стратегическом партнёрстве, в рамках которого будет построена ИИ-инфраструктура на базе сотен тысяч ИИ-ускорителей AMD нескольких поколений общей мощностью 6 ГВт. Позже в том же месяце OpenAI согласилась приобрести специализированные чипы и сетевые компоненты у Broadcom. Как пишет Bloomberg, в последнее время отношения OpenAI с Nvidia оказались под пристальным вниманием на фоне сообщений о напряженности между двумя компаниями. Однако руководители обеих компаний публично заявили, что по-прежнему привержены сотрудничеству. В заявлении, опубликованном в четверг, представитель OpenAI заявил, что партнёрство компании с Nvidia является «основополагающим» и что самые мощные модели ИИ OpenAI являются результатом «многолетней совместной работы над аппаратным и программным обеспечением» двух компаний. «Именно поэтому мы делаем упор на Nvidia как на основу нашей системы обучения и вывода, целенаправленно расширяя экосистему вокруг неё за счёт партнёрств с Cerebras, AMD и Broadcom», — заявил представитель компании. Первоначально GPT-5.3-Codex-Spark будет доступна подписчикам ChatGPT Pro в качестве предварительной версии для исследований. OpenAI собирается предоставить доступ к новой ИИ-модели для более широкого числа пользователей в ближайшие недели. Компания также отмечает, что Codex имеет более 1 млн активных еженедельных пользователей. Можно ли клонировать Gemini, завалив её запросами? Google раскрыла мощную дистилляционную атаку
12.02.2026 [22:52],
Николай Хижняк
Практика незаконного копирования успешных продуктов существует с тех пор, как появились первые инструменты и технологии, но чат-боты на базе ИИ — особый случай. Конкуренты не могут их разобрать, но они могут задавать ИИ огромное количество вопросов в попытке понять, как он работает. Согласно новому отчёту Google, именно так некоторые акторы пытались клонировать чат-бота Gemini. В одном случае чат-боту было отправлено более 100 тыс. подобных запросов. Google называет это крупномасштабной попыткой извлечения модели.
Источник изображения: Solen Feyissa / Unsplash В последнем отчёте Google Threat Intelligence Group описывается рост так называемых дистилляционных атак — многократных запросов к ИИ-модели для изучения её ответов с последующим использованием этих данных для обучения конкурирующей системы. Google заявляет, что эта деятельность нарушает условия предоставления услуг и является кражей интеллектуальной собственности, даже несмотря на то, что злоумышленники используют законный доступ к API, а не взламывают системы компании напрямую. Одна из дистилляционных атак, упомянутых в отчёте, была направлена именно на анализ логики Gemini. Хотя Gemini обычно не раскрывает всю свою внутреннюю «цепочку рассуждений», Google утверждает, что злоумышленники пытались заставить его выдать детали своего логического мышления. Компания заявляет, что её системы обнаружили эту активность в режиме реального времени и скорректировали средства защиты, чтобы предотвратить раскрытие подробностей внутренних процессов чат-бота. Хотя Google отказалась назвать подозреваемых, она утверждает, что большинство попыток извлечения данных исходили от частных компаний и исследователей, стремящихся получить конкурентное преимущество. Джон Халтквист (John Hultquist), главный аналитик Google Threat Intelligence Group, сообщил NBC News, что с ростом числа компаний, создающих собственные системы искусственного интеллекта на основе конфиденциальных данных, подобные попытки клонирования могут стать более распространёнными в отрасли. Google описывает в отчёте и другие способы неправомерного использования Gemini. Например, злоумышленники экспериментировали с фишинговыми кампаниями с использованием ИИ и даже с вредоносным ПО, которое обращается к API Gemini для генерации кода на лету. Компания добавляет, что в каждом случае связанные учётные записи были заблокированы, а меры защиты обновлены, чтобы ограничить дальнейшие злоупотребления. Заказы на газовые турбины Siemens бьют рекорды — причина кроется в ненасытности ИИ
12.02.2026 [18:21],
Геннадий Детинич
Не бойтесь возможного ИИ-пузыря, мы всё равно не прогорим, примерно так сказал гендиректор Siemens Energy Кристиан Брух (Christian Bruch) инвесторам компании. В последние месяцы Siemens Energy стала звездой немецкого фондового рынка. Её акции росли быстрее других на фоне роста заказов на газовые турбины на 30–34 %. Главные заказчики турбин — это владельцы дата-центров, которые соревнуются друг с другом и со всем миром, что и вызывает опасения.
Источник изображения: ИИ-генерация Grok 4/3DNews Инвесторы Siemens Energy опасаются, что бум ИИ может прекратиться в любой момент — раздуваемый этой темой пузырь лопнет, и Siemens Energy окажется с портфелем предварительных заявок, которые никогда не превратятся в готовую продукцию. Это прямо скажется на стоимости акций компании: они обесценятся, поскольку энергетический бизнес приносит компании основные деньги. «Пока что мы видим, что резервирование [заявок на производство турбин] более или менее один к одному превращается в эффективные заказы, — сказал Брух в среду в эфире Bloomberg Television. — Я относительно уверен в том, что в будущем эта мощность будет необходима». Потребности ИИ оставили без резерва энергии не только страдающую от дефицита энергоносителей Европу, но также США, где десятилетиями не создавали новых энергетических объектов на ископаемом топливе и АЭС. ИИ «отказался» от зелёной энергодиеты — ему её просто не хватило. Именно поэтому Microsoft, Amazon, Google и другие строят собственные электростанции на газовых турбинах, получая тем самым электричество в кратчайшие сроки. В первом квартале финансового 2026 года общий объём заказов Siemens Energy вырос более чем на 30–34 % и достиг €17,6 млрд (около $21 млрд). Особенно выделился сегмент Gas Services, где зафиксирован исторический максимум — забронированы 102 газовые турбины. Это привело к рекордному портфелю заказов в €146 млрд (около $174 млрд). Около 40 % заказов на газовые турбины пришлось на США, где активно строятся дата-центры крупных технологических компаний. Дополнительный спрос отмечен в Европе (Польша, Турция), на Тайване и в других регионах. Это придаёт производителю уверенность в том, что его продукция в любом случае будет востребована. Финансовые результаты компании также впечатляют: чистая прибыль почти утроилась по сравнению с прошлым годом. Сильный рост в сфере производства газовых турбин и в области распределения энергии (трансформаторы, коммутаторы и прочее) компенсирует проблемы в ветровом подразделении Siemens Gamesa, где убытки, хотя и сокращаются, продолжают сохраняться. Компания надеется, что в 2026 году Siemens Gamesa вернётся к прибыльности. Для этого она намерена заключить ряд контрактов на восстановление ветряков на ранее введённых проектах, например, на фоне отмены новых заказов в США. Но это будет уже другая история. Глава отдела безопасности ИИ в Anthropic покинул компанию, осознав, что «мир в опасности»
12.02.2026 [07:16],
Владимир Фетисов
Бывший глава исследовательского подразделения по безопасности искусственного интеллекта Anthropic Мринанк Шарма (Mrinank Sharma) на этой неделе опубликовал в сети письмо, которое он отправил своим коллегам перед уходом из компании. В нём он объяснил своё решение покинуть Anthropic, а также изложил свои планы на будущее.
Источник изображения: Anthropic «Я добился здесь всего, чего хотел», — сказано в письме Шарма, где также упоминаются проекты по разработке защитных механизмов, направленных на снижение рисков биотерроризма с помощью ИИ, и работа по изучению воздействия нейросетей на человечество. В ходе своей деятельности Шарма понял, что пришло время двигаться дальше, потому что он постоянно думал об опасности, которую может нести ИИ, биологическом оружии и «череде взаимосвязанных кризисов, которые разворачиваются прямо сейчас». «Похоже, мы приближаемся к порогу, за которым наша мудрость должна расти пропорционально нашей способности влиять на мир, иначе мы столкнёмся с последствиями», — считает Шарма. «За всё время, что я здесь проработал, я неоднократно видел, как трудно позволить нашим ценностям по-настоящему определять наши действия. Я видел это в себе, внутри компании, где мы постоянно сталкиваемся с давлением, заставляющим отказываться от самого важного, и в обществе в целом», — добавил Шарма. В дальнейшем он планирует заниматься работой, соответствующей его ценностям, изучать поэзию и др. Отметим, что за последнее время Anthropic покинули несколько ведущих разработчиков. Полный текст письма Шарма опубликован в материале Business Insider. Сама же Anthropic ведёт переговоры о привлечении дополнительных инвестиций, после чего рыночная стоимость компании может вырасти до $350 млрд. На прошлой неделе состоялся релиз Claude Opus 4.6 — обновлённой ИИ-модели, предназначенной для повышения офисной производительности и эффективности программирования, с увеличенным контекстным окном для обработки документов большего объёма и поддержкой выполнения более сложных задач. ИИ-модели Google стали отклонять запросы с упоминаниями персонажей Disney
11.02.2026 [17:46],
Сергей Сурабекянц
В декабре Disney обвинила Google в том, что продукты искусственного интеллекта технологического гиганта обращаются с объектами интеллектуальной собственности Disney как «виртуальный торговый автомат», генерируя по запросам пользователей высококачественные изображения таких персонажей, как Йода, Дарт Вейдер, Железный человек и Винни-Пух. С сегодняшнего дня подобные запросы отклоняются ИИ-моделями Google, включая Gemini и Nano Banana.
Источник изображения: Disney При попытке сгенерировать изображение одного из персонажей Disney при помощи текстовой подсказки, ИИ-модели Google выдают следующее сообщение: «Я не могу сгенерировать запрошенное вами изображение прямо сейчас из-за опасений со стороны сторонних поставщиков контента. Пожалуйста, отредактируйте свой запрос и попробуйте снова». Однако, по свидетельству экспертов, продукты Google на основе ИИ пока продолжают создавать изображения, связанные с Disney, при загрузке фотографий персонажей вместе с текстовыми подсказками. Противостояние компаний началось в декабре, когда Disney направила Google 32-страничное письмо с требованием прекратить противоправные действия, подробно описывая, как такие ИИ-инструменты, как Veo, Nano Banana и Gemini, массово нарушают авторские права Disney. В письме содержалось несколько примеров, демонстрирующих, как простые текстовые подсказки приводили к созданию качественных изображений персонажей Disney. В письме Disney требовала от Google прекратить нарушение авторских прав и обучение моделей на основе интеллектуальной собственности Disney. Перед отправкой официального письма Disney в течение нескольких месяцев выражала обеспокоенность, но результатов это не принесло. Стоит отметить, что Disney направила Google это предупреждение практически одновременно с заключением лицензионной сделки с OpenAI на $1 млрд. «У нас давние и взаимовыгодные отношения с Disney, и мы будем продолжать взаимодействовать с ними. Мы используем общедоступные данные из открытого интернета для создания нашего ИИ и разработали дополнительные средства контроля авторских прав, такие как Google-extended и Content ID для YouTube, которые предоставляют сайтам и правообладателям контроль над своим контентом», — прокомментировал ситуацию представитель Google. ИИ обвалил курс акций финансовых компаний США
11.02.2026 [15:42],
Владимир Фетисов
Стоимость акций американских компаний по управлению активами резко снизилась на фоне запуска нового инструмента на базе искусственного интеллекта, который предназначен для финансового планирования. Инвесторы опасаются, что этот сегмент окажется под ударом из-за конкуренции с ИИ-технологиями, как это уже случилось с разработчиками программного обеспечения, сферой частного кредитования и страховыми брокерами.
Источник изображения: Copilot Так, по итогам торгов 10 февраля акции Raymond James Financial подешевели на 8,8 % — до $158,5. По динамике этот день стал для компании худшим с марта 2020 года. Ценные бумаги Charles Schwab потеряли в цене 7,4 %, их стоимость остановилась на отметке $99,25 за акцию. Акции LPL Financial Holdings и Morgan Stanley подешевели на 8,3 % и 2,5 % соответственно. Вероятно, распродажа в этом сегменте застигла врасплох Уолл-стрит. Лишь по акциям Charles Schwab была рекомендация к продаже, причём только от одного из 24 аналитиков, следящих за курсом ценных бумаг. Причиной распродажи акций стал анонс нового ИИ-инструмента компании Altruist. Он предназначен для помощи финансовым консультантам в формировании персонализированных стратегий для клиентов и создании различных финансовых документов, таких как выписки по счетам. Основатель и гендиректор Altruist Джейсон Венк ранее работал в Morgan Stanley, а операционный директор Мази Бахадори — в Pimco Investment Management. Это говорит о том, что руководство Altruist хорошо знакомо с принципами работы Уолл-стрит. Инвесторы опасаются, что ИИ-алгоритм Altruist нарушит традиционную модель финансового консультирования и управления состоянием. Аналитики отмечают, что часть этой масштабной распродажи акций следует связывать с импульсивной реакцией инвесторов, а реальный риск от различных ИИ-инструментов может быть переоценён. Аналитик Raymond James Financial Уилма Бердис уверена, что страхи «полностью преувеличены». По её мнению, в конечном счёте люди всё же предпочтут доверить свои деньги человеку, а не ИИ-алгоритму. Медицинские ИИ легко дают вредные советы, если симптомы описаны умными словами
11.02.2026 [14:41],
Геннадий Детинич
Современные большие языковые модели (LLM), применяемые в медицине, часто позиционируются как инструмент для повышения безопасности и качества обслуживания пациентов. ИИ выступают помощниками врачей при обработке информации, что ускоряет работу медиков. Однако новое исследование выявило серьёзную уязвимость: медицинские ИИ-системы способны повторять и передавать ложную информацию, если она представлена в убедительной форме.
Источник изображения: ИИ-генерация Grok 4 В ходе масштабного эксперимента исследователи протестировали девять ведущих LLM, используя более миллиона запросов. Они создали три типа сценариев: реальные истории болезней из базы MIMIC с одной добавленной ложной, популярные мифы о здоровье с форума Reddit и 300 клинических ситуаций, составленных и проверенных врачами. Ложные утверждения варьировались по стилю — от нейтральных до эмоционально окрашенных, а также наталкивающих на определённые выводы (не обязательно верные). Результаты показали, что модели часто принимали уверенно сформулированные ложные медицинские утверждения за истину, отдавая приоритет стилю и контексту, а не медицинской точности. Исследование показало, что существующие механизмы защиты LLM недостаточно надёжно отличают правду от вымысла в клинической документации или в социальных сетях. Модели склонны воспроизводить ложь, если она выглядит как стандартная медицинская рекомендация или часть обсуждения в соцсетях. Авторы подчёркивают, что восприимчивость ИИ к дезинформации следует рассматривать как измеримый параметр безопасности, а не как случайную ошибку. Для этого они предлагают использовать созданный ими набор данных как «стресс-тест» для медицинских ИИ-систем. Надеемся, они будут услышаны разработчиками. ChatGPT научился показывать отчёты глубоких исследований как полноценные документы — с навигацией и экспортом
11.02.2026 [11:49],
Владимир Фетисов
Компания OpenAI обновила исследовательский режим (Deep Research) в чат-боте ChatGPT, добавив полноэкранный просмотрщик. С его помощью можно прокручивать содержимое отчёта бота и быстро перемещаться между разными разделами. Инструмент позволяет открывать отчёты ChatGPT в отдельном от чата окне, где слева отображается оглавление документа, а справа — список источников.
Источник изображения: OpenAI Функция глубокого исследования, которая появилась в ChatGPT в прошлом году, позволяет ИИ-боту анализировать собранную в интернете информацию, чтобы сформировать подробный отчёт на запрос пользователя. Последнее обновление также позволяет указать алгоритму необходимость сосредоточиться на изучении информации на конкретных сайтах и подключенных приложениях при проведении исследования. В дополнение к этому пользователи могут отслеживать процесс работы алгоритма в режиме реального времени, корректировать масштаб исследования или добавлять новые источники прямо в процессе работы. После завершения генерации отчёта информацию можно скачать в виде файла в разных форматах, включая DOCX и PDF. Эти нововведения уже доступны платным подписчикам OpenAI на тарифах Plus и Pro. Пользователи тарифа ChatGPT Go и бесплатные пользователи получат обновление с расширенными возможностями для проведения исследований в ближайшее время. ИИ научился формировать политические взгляды так же эффективно, как человек — и людей это не смущает
10.02.2026 [20:45],
Геннадий Детинич
Свежее исследование в США показало, что большинству граждан безразлично авторство материалов по ряду вопросов государственной политики. Люди в равной степени верят аргументам и воспринимают их как со стороны эксперта-человека, так и со стороны искусственного интеллекта. ИИ точно так же может склонять граждан изменить их точку зрения по важным вопросам, как и человек. Но человек уже не сравнится с «фабрикой троллей» на базе ИИ. Похоже, в политике он проиграл.
Источник изображения: ИИ-генерация Grok 4/3DNews Об отношении людей к источникам аргументов по разным вопросам государственной политики сообщается в издании PNAS Nexus. В целом исследователи показали, что маркировка текстов как созданных искусственным интеллектом не снизила их убедительности по сравнению с текстами, якобы написанными человеком или оставленными без указания авторства (в целях эксперимента все тексты были подготовлены ИИ, важна была лишь реакция людей на заявленное авторство аргументов). Опрос был проведён с участием 1601 американца. Участникам предлагались сгенерированные ИИ сообщения на актуальные политические темы: геоинженерия, импорт лекарств, зарплаты спортсменов-студентов и ответственность платформ социальных сетей. Тексты случайным образом помечались одной из трёх маркировок: «создано ИИ», «написано экспертом-человеком» или без какой-либо пометки. Как оказалось, в среднем сообщения смогли изменить отношение опрошенных к проблеме на 9,74 % по 100-балльной шкале. Большинство участников (92 %) поверили в указанное авторство, однако маркировка практически не повлияла на ключевые показатели: изменение отношения к обсуждаемым вопросам, оценку точности аргументов и желание поделиться сообщением. Эти результаты оказались устойчивыми независимо от политической принадлежности, уровня знакомства с ИИ и образования респондентов. Лишь у людей старшего возраста наблюдалась чуть более негативная реакция на тексты с пометкой ИИ по сравнению с «человеческими», но эффект был незначительным. Полученные данные свидетельствуют, что простое указание на использование искусственного интеллекта не может служить эффективным барьером против влияния таких сообщений на общественное мнение. Авторы подчёркивают: хотя маркировка обеспечивает прозрачность и может быть полезной с этической точки зрения, сама по себе она не решает проблему навязывания убеждений искусственным интеллектом. Это создаёт новые вызовы властям, владельцам социальных сетей и обществу в условиях быстрого развития генеративных технологий. Исследование подчёркивает, что аргументы, сгенерированные современными моделями ИИ, уже достигли высокого уровня убедительности, способного конкурировать с человеческими текстами даже при открытом указании источника. Полученные выводы актуализируют дискуссии о дезинформации, формировании общественного мнения и необходимости разработки более комплексных подходов к регулированию контента, созданного искусственным интеллектом, поскольку одной лишь пометки об авторстве ИИ оказывается недостаточно. DuckDuckGo добавила голосовое общение с ИИ-ботом Duck.ai с защитой приватности
10.02.2026 [20:38],
Владимир Фетисов
Компания DuckDuckGo объявила о добавлении функции голосового чата в Duck.ai — своего фирменного чат-бота на базе искусственного интеллекта с защитой приватности пользователей. Благодаря этому можно в режиме онлайн голосом общаться с чат-ботом, задействовав для этого защищённое соединение.
Источник изображения: DuckDuckGo ИИ-модели для обработки голосовых запросов в Duck.ai предоставляет OpenAI. Однако DuckDuckGo заявила, что ни она, ни OpenAI не будут хранить аудиозаписи после завершения беседы. «Голосовые чаты в Duck.ai приватны, мы делаем их анонимными, и они никогда не используются для обучения ИИ-моделей», — сказано в заявлении компании. Новые контрактные обязательства указывают на то, что возможности OpenAI в плане использования аудиозаписей пользователей голосовых чатов с ИИ-ботом также строго ограничены. В описании новой функции сказано, что DuckDuckGo защищает аудиоданные несколькими способами, чтобы гарантировать, что доступ к ним имеет только OpenAI (как поставщик ИИ-моделей) и только с целью ответа на запросы пользователей. Прежде всего отмечается, что голосовые запросы передаются потоками только во время сеанса общения с ботом и не хранятся у DuckDuckGo или OpenAI после завершения диалога. Аудиозаписи пользователей и ответы чат-бота не используются для обучения ИИ-моделей. Аудиопотоки шифруются при передаче через WebRTC и прохождении через сервер компании, при этом ни DuckDuckGo, ни OpenAI не сохраняют каких-либо данных о разговорах — вся информация удаляется сразу после завершения беседы. Новая функция работает во многих браузерах, кроме Firefox — поддержка этого интернет-обозревателя находится на стадии разработки. Голосовой чат с ИИ-ботом является бесплатной функцией в пределах суточного лимита и не требует создания аккаунта. В то же время платным подписчикам за $10 в месяц будут доступны расширенные лимиты, доступ к VPN DuckDuckGo, услуге удаления личных данных и прочее. Пользователи могут в любой момент отключить функцию голосового чата в настройках Duck.ai, а также продолжать взаимодействовать с текстовыми ботами на основе ИИ-моделей OpenAI, Meta✴✴, Anthropic и Mistral. В YouTube появился ИИ-генератор плейлистов — но большинству пользователей он недоступен
10.02.2026 [18:41],
Сергей Сурабекянц
YouTube запускает новую функцию генерации плейлистов на основе ИИ, которая позволяет пользователям тарифного плана Premium на устройствах iOS и Android создавать плейлисты с помощью текстовых и голосовых подсказок. YouTube последнее время много экспериментирует с использованием искусственного интеллекта. В июле 2024 года компания тестировала в США функцию, позволяющую пользователям создавать собственные радиостанции с помощью текстовых подсказок.
Источник изображений: @UpdatesFromYT Для создания плейлиста при помощи ИИ пользователю необходимо перейти на вкладку «Библиотека», нажать кнопку «Новый» и выбрать опцию «Плейлист ИИ». Затем можно использовать текст или голосовой ввод, чтобы рассказать ИИ о своих предпочтениях, например, «яростный метал», «грустный блюз», «прогрессивный хаус-микс для вечеринки» или «классические хиты 90-х». Остальное искусственный интеллект сделает сам. Возможно, что и слушать созданный плейлист ИИ тоже будет самостоятельно. YouTube последовательно прилагает усилия, чтобы сделать свой тарифный план Premium более привлекательным для пользователей. Видимо поэтому ранее на этой неделе компания начала ограничивать доступ бесплатных пользователей к просмотру текстов песен в приложении YouTube Music. Сама компания уверяет, что это ограничение является экспериментом, проводимым «с небольшим процентом пользователей, использующих платную подписку», и что тексты песен доступны подавляющему большинству бесплатных пользователей. ![]() Доходы Google от услуг по подписке показывают уверенный рост, а YouTube является ключевой частью этого бизнеса. Ранее в этом месяце компания сообщила о 325 миллионах платных пользователей в Google One и YouTube Premium. Другие конкурирующие стриминговые сервисы, такие как Spotify, Amazon Music и Deezer, также внедрили функции создания плейлистов или радиостанций на основе ИИ. ChatGPT начнёт массово показывать рекламу уже на этой неделе — а пока Альтман похвалился активным ростом аудитории
09.02.2026 [18:44],
Сергей Сурабекянц
Глава OpenAI Сэм Альтман (Sam Altman) с энтузиазмом сообщил сотрудникам, что основной продукт компании, ChatGPT «снова демонстрирует ежемесячный рост, превышающий 10 %». Компания планирует запустить новую модель чат-бота уже на этой неделе. Более 800 млн человек еженедельно используют ChatGPT, но конкуренция усиливается — в декабре компания объявила «красный код» и приостановила несколько проектов, чтобы сосредоточиться на улучшении своего чат-бота.
Источник изображения: unsplash.com Альтман также сообщил, что продукт OpenAI для программирования, Codex, вырос примерно на 50 % по сравнению с прошлой неделей. Codex является прямым конкурентом популярной ИИ-среды разработки Claude Code от Anthropic, которая за последний год получила широкое распространение. На днях OpenAI запустила новую модель Codex, GPT-5.3-Codex, а также отдельное приложение для пользователей компьютеров Apple. Альтман заявил, что рост Codex «невероятен». По его словам, «это была отличная неделя». Но это, по мнению аналитиков, была непростая неделя для OpenAI. Альтман и другие руководители компании были вынуждены реагировать на критику со стороны Anthropic, которая во время финала кубка по американскому футболу высмеяла решение OpenAI размещать рекламу в ChatGPT. Альтман в ответ заявил, что OpenAI «очевидно, никогда не будет размещать рекламу так, как это описывает Anthropic». Тем не менее, по сообщению осведомлённых источников, в ближайшее время OpenAI официально начнёт тестирование рекламы в ChatGPT. Ранее компания обещала «чётко обозначать» рекламные блоки и отображать их ниже ответов чат-бота. OpenAI также заверила пользователей, что размещаемая реклама не будет влиять на ответы ChatGPT. Компания рассчитывает, что в долгосрочной перспективе реклама будет составлять не менее половины её доходов. На рынке цифровой рекламы долгое время доминировали Google, Meta✴✴ и Amazon — вряд ли эти технологические гиганты сдадутся без борьбы. В настоящее время Альтман и финансовый директор OpenAI Сара Фрайар (Sarah Friar) активно убеждают инвесторов в перспективах роста OpenAI, поскольку компания готовится завершить раунд привлечения инвестиций, который может составить $100 млрд. На закрытых встречах они подчёркивают сильные стороны OpenAI: гигантскую базу пользователей, растущий интерес со стороны крупного бизнеса и доступ к огромным вычислительным ресурсам.
Источник изображения: OpenAI Forum OpenAI ожидает, что переговоры о привлечении инвестиций активизируются в течение следующих двух недель. В марте OpenAI закрыла раунд финансирования на $41 млрд, в который вошли $30 млрд от SoftBank и $11 млрд от других инвесторов. Текущий раунд финансирования может быть завершён в два этапа. Первый этап подразумевает инвестиции от Microsoft и Nvidia, а также от Amazon, которая планирует вложить в OpenAI до $50 млрд. На втором этапе в финансировании компании примут участие другие крупные игроки, в частности SoftBank готов инвестировать ещё $30 млрд. Точные сроки и суммы инвестиций пока окончательно не определены и могут измениться. Nvidia подсадила 30 000 своих разработчиков на ИИ-помощника Cursor — объём кода вырос втрое
09.02.2026 [18:33],
Сергей Сурабекянц
Количество внутренних коммитов кода в Nvidia утроилось с тех пор, как компания перевела всех инженеров на инструменты программирования с поддержкой ИИ. Более 30 тысяч разработчиков компании используют интегрированную среду разработки Cursor от Anysphere. Процесс разработки ПО по-прежнему контролируется и управляется людьми, но ИИ помогает устранять узкие места и обеспечивает максимальную эффективность.
Источник изображения: Cursor «Cursor используется практически во всех аспектах разработки программного обеспечения. Команды используют этот продукт для написания и проверки кода, генерации комментариев и контроля качества. Весь жизненный цикл разработки программного обеспечения ускорился благодаря Cursor. Мы создали множество пользовательских правил в Cursor для полной автоматизации рабочих процессов. Это раскрыло истинный потенциал Cursor». — заявил вице-президент по разработке Nvidia Вэй Луио (Wei Luio). Cursor помогает и в других областях, например, в отладке, где, по словам Nvidia, он превосходно справляется с поиском редких, устойчивых ошибок и развёртыванием агентов для их быстрого устранения. Команды Nvidia также автоматизируют свои проекты в Git, используя пользовательские правила, которые позволяют извлекать контекст из заявок и документации, в то время как Cursor обрабатывает исправления ошибок с помощью соответствующих тестов для проверки. «До Cursor у Nvidia были другие инструменты для программирования с использованием ИИ, как разработанные внутри компании, так и сторонние. Но после внедрения Cursor мы действительно начали видеть значительное увеличение скорости разработки», — утверждает Луио. По его словам, Cursor хорошо справляется с анализом распределённых баз данных, что является непосильной задачей для человека. Стажёры и новые сотрудники могут быстро освоить Cursor, а более опытные разработчики теперь быстрее решают другие задачи, требующие человеческой изобретательности, сокращая разрыв между идеями и их реализацией. Генеративный ИИ используется в точности для того, для чего он предназначен —для рутинных задач. Представитель Nvidia подчеркнул, что количество ошибок осталось неизменным, несмотря на трёхкратное увеличение объёма кода и повышение общей производительности. Это особенно важно, если учесть, что критически важные компоненты, такие как драйверы графических процессоров, зависят от качества кода, который теперь частично генерируется ИИ. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |