|
Опрос
|
реклама
Быстрый переход
ИИ может заменить половину рабочих мест в США — но взамен появятся новые профессии
26.11.2025 [16:00],
Анжелла Марина
Новое исследование международной консалтинговой компании McKinsey & Company показало, что искусственный интеллект (ИИ) и роботы уже сегодня могут автоматизировать порядка 50 % рабочих мест в США — как в интеллектуальной, так и в физической сфере, правда с оговоркой, что компании радикально перестроят свои рабочие процессы. Анализ показал, что наиболее уязвимы профессии, связанные с подготовкой документов, обработкой информации и рутинными логическими операциями.
Источник изображения: AI В зоне риска оказались офисные сотрудники, а также программисты, которые уже сталкиваются с замедлением найма на эти позиции, при этом физически опасные виды деятельности, например, работа на складах или управление промышленными машинами, с наибольшей вероятностью будут переданы роботам, пишет The Times. В то же время около трети американских рабочих мест окажутся устойчивыми к автоматизации из-за их специфики: к таким, в частности, относятся профессии в сфере ухода и здравоохранения, где 70 % задач требуют физического присутствия, эмпатии, заботы и мануальной ловкости, недоступных машинам. Схожим образом, ремонтные и технические работы, предполагающие гибкость, суждение и адаптацию в непредсказуемых условиях, также с трудом поддаются автоматизации. Авторы исследования подчёркивают, что наибольший экономический эффект (до $2,9 трлн в год к 2030 году) можно получить не от частичной автоматизации отдельных задач, а от полной трансформации рабочих моделей. При этом человеческие навыки не исчезнут, а трансформируются: люди будут работать в партнёрстве с ИИ, тратя меньше времени на подготовку материалов и больше на интерпретацию результатов и постановку задач для систем искусственного интеллекта. В ряде профессий, таких как преподавание, ИИ будет применяться в гибридном формате, в основном для генерации контента и выполнения административных функций, оставляя человеку принятие решений и педагогическое сопровождение. Развитие ИИ одновременно будет создавать и новые профессии, например, менеджеров по координации ИИ-систем и специалистов по их безопасности и сопровождению. Поскольку искусственный интеллект по-прежнему требует человеческого контроля, настройки, тестирования и физической поддержки, спрос на таких специалистов будет расти. На фоне этих тенденций отдельные компании уже заявляют о сокращении персонала за счёт внедрения ИИ. Так, финтех-компания Klarna (основана в Швеции, зарегистрирована в США) намерена наращивать доходы при неизменной численности сотрудников, а юридическая фирма Clifford Chance недавно объявила о сокращении ролей в бизнес-поддержке благодаря технологиям. Аналогичные шаги предпринимает и британская телекоммуникационная компания BT Group. Согласно недавнему отчёту Стэнфордского университета, молодые специалисты в возрасте 22–25 лет, работающие в наиболее подверженных ИИ отраслях, столкнулись с 13-процентным снижением занятости, тогда как у более опытных коллег в тех же сферах масштабных потерь рабочих мест не зафиксировано. Интересно, что отчёт McKinsey дополняет предыдущий анализ Microsoft, согласно которому первыми жертвами ИИ-революции могут стать переводчики, торговые представители и финансовые консультанты, в то время как, например, медсёстры, штукатуры и операторы станций очистки воды останутся в числе наиболее защищённых профессий. Основным же барьером на пути внедрения ИИ и роботов, по мнению авторов отчёта, выступают не технологические ограничения, а политические решения и расходы на переустройство производственных цепочек и рабочих процессов. Скандального ИИ-медвежонка отучили говорить на фривольные темы и вернули на прилавки
26.11.2025 [14:17],
Алексей Разин
В середине этого месяца продукция сингапурской компании FoloToy оказалась в центре скандала, поскольку исследователи выявили, что предлагаемый ею плюшевый медвежонок Kumma со встроенной умной колонкой способен общаться с детьми на опасные темы. После приостановки продаж этих игрушек они вернулись на виртуальные прилавки, поскольку производитель теперь сотрудничает с ByteDance, а не OpenAI.
Источник изображения: FoloToy Напомним, ранее умная колонка внутри игрушки опиралась на возможности большой языковой модели GPT-4o американской компании OpenAI, но теперь на сайте производителя медведя упоминается чат-бот Coze, разработанный китайской ByteDance, которой принадлежит социальная сеть TikTok. По всей видимости, подобной смены технологического партнёра оказалось достаточно, чтобы обезопасить малолетних пользователей от разговоров на опасные темы. Купить Teddy Kumma можно за $99 на официальном сайте FoloToy. Напомним, скандал разразился благодаря обнаруженной исследователями способности умной колонки внутри детской игрушки давать пояснения на тему половых отношений и предлагать сценарии поведения в откровенных ролевых играх. Кроме того, устройство давало советы о том, где в доме можно найти режущие предметы, спички, лекарственные препараты и пластиковые пакеты. Повторных исследований на предмет безопасности игрушек FoloToy после смены чат-бота не проводилось. «Мы не Enron»: Хуанг сделал странное заявление после нападок на Nvidia из-за раздувающегося ИИ-пузыря
26.11.2025 [11:35],
Алексей Разин
Nvidia на правах главного выгодоприобретателя в условиях бума искусственного интеллекта неизбежно привлекает повышенное внимание инвесторов, и среди них в последнее время появилось немало скептиков, утверждающих, что дело пахнет очередным биржевым пузырём. Основателю Дженсену Хуангу (Jensen Huang) пришлось убеждать аналитиков в достоверности предоставляемой компании отчётности: «мы не Enron», внезапно заявил Хуанг, и это было странно, ведь никто и не спрашивал.
Источник изображения: Nvidia Правда, тучи вокруг Nvidia действительно сгущаются. В информационную атаку на компанию пошёл Майкл Бьюрри (Michael Burry) — легендарный инвестор, который предсказал кризис 2008 года, когда почти никто ему не верил, и стал прототипом главного героя фильма «Игра на понижение». Бьюрри с конца октября разгоняет тему о ИИ-пузыре, сравнивая его с кризисом доткомов 1999–2000 годов. Вместе с этим он ставит крупные суммы на падение акций Nvidia. На прошлой неделе Бьюрри углубил критику. Он обвинил операторов ИИ-инфраструктуры (Microsoft, Google, Oracle и др.) в завышении прибыли с помощью продления в отчётности сроков службы ускорителей Nvidia с 2–3 до 4–6 лет, что позволяет им скрыть $176 млрд убытков к 2028 году. Опытный инвестор также выразил озабоченность тем, что партнёры и клиенты OpenAI участвуют в сложной последовательности сделок с кольцевым финансированием, а практический спрос на технологии ИИ со стороны реального бизнеса не так и высок. Из уст Бьюрри также прозвучали сравнения с печально известными компаниями WorldCom и Lucent, которые в начале текущего века занимались подлогом финансовой документации на пике так называемого «пузыря дот-комов». Как поясняет The Telegraph, теперь генеральный директор Nvidia Дженсен Хуанг направил в адрес отраслевых аналитиков и крупных институциональных инвесторов свои пояснения относительно заявлений Бьюрри об опасности складывающихся в сегменте ИИ финансовых взаимосвязей. Глава Nvidia возразил, что не нужно сравнивать его компанию ни с WorldCom и Lucent, ни с обанкротившейся в 2001 году энергетической корпорацией Enron. Последнюю уличили не только в сокрытии информации о своих долговых обязательствах, но и в искажении статистики о продажах. Ситуация с бумом ИИ, как заявил Дженсен Хуанг, не напоминает «исторические манипуляции с отчётностью», а «лежащая в основе бизнеса Nvidia модель экономически стабильна, а отчётность компании полна и прозрачна», и в целом она дорожит репутацией. Бьюрри также успел предположить, что сроки амортизации ускорителей Nvidia излишне растянуты, а схема новейших сделок в отрасли подразумевает финансирование клиентов их поставщиками услуг и продукции. По сути, все направленные на поддержку первых деньги в итоге возвращаются к последним в виде выручки. Бьюрри также признался, что сделал ставки против Nvidia и Palantir на общую сумму более $1 млрд, и финансовые неудачи этих компаний в итоге могут его серьёзно обогатить. Ранее основатель Nvidia публично отверг утверждение о том, что в сегменте ИИ формируется очередной пузырь. Ещё одно обвинение Бьюрри касается того, что Nvidia выплачивает сотрудникам вознаграждения акциями, которые потом сама же выкупает у них по повышенной цене, пряча таким образом высокие зарплаты ключевых менеджеров и разработчиков в бухгалтерской отчётности (реальные затраты — в 3–4 раза выше отчётных $13–15 млрд). Пока кажется, что в споре Хуанга и Бьюрри побеждает второй. С начала ноября акции Nvidia уже упали на 17 %. Не помог даже выдающийся отчёт с выручкой $57 млрд. Но Бьюрри этого мало. Вчера он опубликовал детальный «разбор Nvidia», где повторил свои расчёты. Dell резко подняла прогноз выручки от ИИ-серверов — рынок растёт быстрее ожидаемого
26.11.2025 [10:08],
Алексей Разин
В отличие от HP Inc., которая после давней реструктуризации сосредоточена на потребительском рынке, компания Dell Technologies в последнее время предсказуемо делает упор на развитии своего серверного бизнеса. В текущем году она рассчитывает выручить от реализации ИИ-серверов $25 млрд вместо ранее заложенных в прогноз $20 млрд, а выручка за прошлый квартал тоже заметно превзошла ожидания аналитиков.
Источник изображения: Dell Technologies Выручка Dell Technologies в третьем квартале выросла на 11 % до $27,01 млрд, но при этом оказалась чуть ниже прогноза, в котором сторонними аналитиками упоминалась сумма $27,13 млрд. Доход на одну акцию в размере $2,59 превзошёл ожидания рынка ($2,47). На рост курса акций компании после публикации отчётности на 5 % в большей мере повлияли прогнозы Dell относительно будущих периодов. В текущем квартале, например, она рассчитывает выручить $31,5 млрд против ожидаемых $27,59 млрд. Из них $9,4 млрд будут получены на направлении серверов для инфраструктуры ИИ. Кроме того, по итогам всего текущего года Dell планирует выручить на реализации ИИ-серверов $25 млрд вместо изначально заложенных в корпоративный прогноз $20 млрд. Совокупная выручка компании по итогам текущего года должна увеличиться до $111,7 млрд вместо ранее упоминаемых в прогнозе $107 млрд. Чистая прибыль компании по итогам прошлого квартала в годовом сравнении выросла на 32 % до $1,54 млрд. Инфраструктурное подразделение Dell в прошлом квартале выручило $14,11 млрд. Выручка от реализации серверов и телекоммуникационного оборудования выросла сразу на 37 % до $10,1 млрд. Из этой суммы $5,6 млрд пришлись непосредственно на ИИ-серверы. Системы хранения данных позволили Dell выручить в прошлом квартале $4 млрд. Сейчас портфель заказов Dell на поставку ИИ-серверов достигает $18,4 млрд, причём в прошлом квартале он вырос сразу на $12,3 млрд. В клиентском сегменте, который отвечает за ПК, компания Dell в минувшем квартале выручила $12,48 млрд, что на 3 % выше результата аналогичного периода прошлого года, но ниже прогнозируемых $12,65 млрд. Непосредственно поставки ПК и ноутбуков в денежном выражении сократились на 7 %. Руководство компании обещает сделать всё возможное, чтобы минимизировать влияние резкого роста цен на память на покупателей ПК. В текущем квартале она в целом рассчитывает выручить от $31 до $32 млрд. Дженсен Хуанг заявил, что чипы Nvidia на поколение опережают всю отрасль, включая ускорители Google
26.11.2025 [08:03],
Алексей Разин
История с готовностью Meta✴✴ Platforms потратить серьёзные суммы на покупку и аренду вычислительных мощностей Google, основанных на чипах TPU собственной разработки, негативно сказалась на динамике курса акций Nvidia, поэтому основатель этой компании Дженсен Хуанг (Jensen Huang) не смог промолчать. Он заявил, что Nvidia опережает отрасль на целое поколение.
Источник изображения: Nvidia «Мы рады успеху Google — они добились большого прогресса в ИИ, но мы продолжаем снабжать Google. Nvidia опережает отрасль на целое поколение — это единственная платформа, которая работает с любой ИИ-моделью и делает это везде, где осуществляются вычисления», — подчеркнул Дженсен Хуанг в своём заявлении на страницах социальной сети X. По мнению руководителя Nvidia, чипы этой марки остаются более производительными и гибкими по сравнению с так называемыми ASIC — решениями, заточенными под выполнение более узких задач. Продукция Nvidia, по словам Дженсена Хуанга, обеспечивает более высокие быстродействие, универсальность и взаимозаменяемость, чем ASIC. К последней категории относятся и TPU компании Google. Как уже отмечали представители Google, компания наблюдает растущий спрос как на собственные чипы, так и на ускорители Nvidia, и будет поддерживать обе платформы, как и делала на протяжении нескольких лет. Глава Nvidia подчеркнул, что поддерживает деловые контакты с генеральным директором Google DeepMind Демисом Хассабисом (Demis Hassabis). В своей переписке они недавно сошлись во мнении, что использование большего количества чипов и данных в сфере ИИ позволяет создавать более производительные языковые модели. Подобный эффект масштабирования позволит сохранить спрос на ускорители и готовые системы, поставляемые Nvidia, по мнению руководства компании. Учёные обнаружили, что у ИИ пока имеются проблемы с пониманием каламбуров и юмора
26.11.2025 [04:37],
Алексей Разин
Общение человека с большими языковыми моделями может быть вполне гармоничным и естественным до тех пор, пока искусственный интеллект не столкнётся с тонким юмором и двойным смыслом, заложенным в каламбуры. К такому выводу пришли в своём исследовании британские и итальянские исследователи, на доклад которых ссылается издание The Guardian.
Источник изображения: Freepik Авторы исследования, по данным источника, обнаружили способность больших языковых моделей выявлять структуру каламбура, но с пониманием смысла у них возникают проблемы. Например, при замене ключевого слова в каламбуре, которая в восприятии человека лишает высказывание юмора, большие языковые модели продолжают считать фразу шуткой. В качестве примера приводилась такая фраза: «Длинные сказки имеют тенденцию к дракону» (Long fairy tales have a tendency to dragon). В этом случае последнее слово звучит идентично с глаголом «drag on» — затягиваться, и именно эта двойственность смысла лежит в основе каламбура. Если авторы эксперимента меняли «dragon» на синонимичный глагол «prolong» или вообще любое другое произвольное слово, ИИ всё равно считал, что результирующая фраза является шуткой. Как пояснил один из авторов исследования, большие языковые модели запоминают то, что они узнали в процессе обучения. В случае с юмором они запоминают известные им каламбуры, но это вовсе не означает, что они до конца понимают их суть. Замена ключевых слов в шутках, которая начисто лишает их юмора, в восприятии ИИ не является радикальной трансформацией, и он продолжает считать, что имеет дело с каламбуром. Пока большие языковые модели просто неспособны по-настоящему понимать юмор, как резюмируют исследователи. Фактически, когда ИИ сталкивается с незнакомой игрой слов, выявить наличие каламбура в анализируемой фразе он способен лишь в 20 % случаев. По словам авторов доклада, пока людям следует с осторожностью использовать большие языковые модели в сферах, которые требуют понимания юмора, эмпатии и понимания культурных нюансов. Уверенность в том, что ИИ способен понимать юмор, является не более чем иллюзией. Инженеры проиграли ИИ: модель Claude Opus 4.5 справилась с заданием Anthropic лучше любого из людей
26.11.2025 [01:23],
Анжелла Марина
Anthropic вчера объявила о выпуске новой флагманской модели искусственного интеллекта Claude Opus 4.5. Позже компания рассказала, что в двухчасовом задании, предлагаемом самой Anthropic при найме сотрудников на инженерные позиции, Opus 4.5 показала лучший результат по сравнению с живыми участниками теста.
Источник изображения: AI По утверждению Anthropic, результат ИИ достигнут за счёт многократного решения каждой задачи и выбора лучшего из полученных ответов. Хотя тест не охватывает все компетенции, необходимые инженеру, сам факт превосходства модели над сильными кандидатами в ключевых технических аспектах заставляет предположить, что ИИ в будущем может изменить инженерию как профессию, пишет Business Insider. Подробности содержания теста не раскрываются, но из отзывов на платформе Glassdoor известно лишь, что в 2024 году он включал четыре уровня и требовал реализации определённой системы с последующим добавлением функциональности. Неизвестно, был ли использован аналогичный формат задания при оценке новой версии Claude Opus 4.5, которая вышла спустя всего три месяца после предыдущей модели, получив улучшения не только в генерации кода, но и в создании профессиональных документов, включая таблицы Excel и презентации PowerPoint. Данный релиз, по мнению специалистов, продолжает укреплять лидирующие позиции Anthropic в сфере ИИ для программирования. Даже компания Meta✴✴ Марка Цукерберга (Mark Zuckerberg), являющаяся конкурентом в гонке ИИ, использует Claude для поддержки своего внутреннего помощника по кодированию под названием Devmate. Методы обучения своих моделей компания держит в секрете. Однако ранее Эрик Саймонс (Eric Simons), генеральный директор стартапа Stackblitz, разработавшего сервис Bolt.new, предположил, что Anthropic, возможно, использует ИИ для написания и запуска кода, а затем анализирует результаты как с помощью людей, так и с применением ИИ-инструментов. Это описание подтвердила Дианна Пенн (Dianne Penn), руководитель направления управления продуктами, исследований и передовых технологий в Anthropic, назвав его «в целом верным». Ещё в октябре глава Anthropic Дарио Амодеи (Dario Amodei) сообщил, что ИИ Claude уже пишет 90 % кода для большинства команд внутри компании. При этом он отметил, что это не приведёт к сокращению инженеров, а скорее наоборот, увеличит в них потребность, так как люди смогут сосредоточиться на самой сложной 10-процентной части работы или на контроле группы ИИ-моделей. Трамп утвердил «миссию Genesis» — национальную программу развития ИИ масштаба Манхэттенского проекта
25.11.2025 [14:38],
Алексей Разин
На этой неделе президент США Дональд Трамп (Donald Trump) подписал указ, который создаёт условия для реализации инициативы «миссия Genesis», направленной на всестороннюю поддержку развития национальной инфраструктуры искусственного интеллекта. По замыслу авторов инициативы, она ускорит научные исследования и повысит качество жизни всех американцев.
Источник изображения: Google Власти США готовы координировать и поддерживать разработки в сфере ИИ, которые позволяют ускорить научный прогресс в сфере материаловедения, медицины и энергетики. Несмотря на потенциальный рост энергозатрат, власти страны убеждены, что развитие национальной энергетической инфраструктуры позволит не только прекратить рост тарифов на электроэнергию, но и повернуть цены вспять. Администрация Трампа намерена более чётко координировать исследования, проводимые различными федеральными ведомствами, как пояснил глава Комитета по научной и технической политике Майкл Крациос (Michael Kratsios) во время пресс-брифинга, предваряющего подписание указа американским президентом. Власти страны готовы направить вычислительные ресурсы научных лабораторий Министерства энергетики США для более активной работы с массивами данных, находящихся в руках федеральных агентств. Кроме того, эти ресурсы будут направлены на углубление научных экспериментов с использованием ИИ. В конечном итоге это позволит ускорить процесс совершения научных открытий, по словам представителя Белого дома. Проект подразумевает и частно-государственное сотрудничество с компаниями типа Nvidia, AMD и HPE. По всей видимости, они будут предоставлять правительству своё оборудование и ускорители для решения поставленных на федеральном уровне задач. Научные открытия помогут усовершенствовать технологии производства и снизить цены на американском рынке, как убеждены представители американской администрации. Министр энергетики США Крис Райт (Chris Wright) в понедельник заявил, что инициатива Genesis позволит остановить рост цен на электроэнергию и сделать её более доступной, а также повысить эффективность национальной энергетической инфраструктуры. Представители ведомства в уходящем месяце уже заявляли, что инициатива станет для национальной экономики столь же важной, как гонка освоения космоса или знаменитый «проект Манхэттен» времён Второй мировой войны, подразумевавший создание атомной бомбы в США. Майкл Крациос добавил, что инициатива станет крупнейшей мобилизацией научных ресурсов США со времён «миссии Аполлон», в рамках которой астронавты были отправлены на Луну в шестидесятые годы прошлого века. Дональд Трамп со времён своего возвращения в Белый дом на правах президента США не раз подчёркивал приоритет развития искусственного интеллекта. Он предпринимает усилия по снятию регуляторных барьеров для развития в США профильной инфраструктуры и готов наказывать власти тех штатов, которые чинят препятствия на этом пути. Google вернула себе трон ИИ: Gemini 3 разгромила конкурентов в тестах
25.11.2025 [14:35],
Павел Котов
На минувшей неделе Google выпустила большую языковую модель искусственного интеллекта Gemini 3, которая значительно обошла все конкурирующие проекты — противостоять ей неспособны даже нейросети, лежащие в основе сервиса ChatGPT, гласят результаты многочисленных тестов, сообщает Wall Street Journal.
Источник изображений: blog.google Уникальное достижение подтвердило, что сотрудники Google не напрасно подвергали Gemini 3 многочисленным и всесторонним испытаниям. Её просили шутить и пытались поставить в тупик математическими задачами, но каждый раз разработчики убеждались, что создали нечто, способное склонить чашу весов в пользу компании. Суровую проверку устроила ей директор по управлению продуктами Gemini Тулси Доши (Tulsee Doshi) — модель попросили писать на гуджарати, распространённом в Индии, но малоизвестном в интернете языке, и та справилась лучше предшественников. Те же, порой неожиданные, результаты, получили и в других компаниях, которым довелось поработать с Gemini 3 до её официального выхода. Администрация сервиса Box, который специализируется на управлении документами с помощью ИИ, поначалу решила, что при тестировании была допущена какая-то ошибка, потому что результаты оказались значительно выше, чем демонстрировали другие модели. Но в итоге пришлось признать очевидное, потому что при каждом тестировании прирост по сравнению с конкурентами выражался двузначными процентными пунктами. Google впервые за всё время ощутимо вырвалась вперёд, обойдя таких тяжеловесов как OpenAI и Anthropic. OpenAI ChatGPT пока остаётся лидером потребительского рынка с аудиторией 800 млн пользователей, в то время как у Gemini их сейчас 650 млн; Anthropic Claude считается одной из ведущих моделей для программирования. Но, считают пользователи и аналитики, Gemini 3 имеет все шансы стать предпочтительным инструментом для решения самых разных задач. Google планирует положить новую модель в основу генератора изображений Nano Banana; пользователи же высоко оценили её интеллект, точность ответов и творческие возможности. ![]() Три года назад, когда вышел сервис ChatGPT, над Google нависла экзистенциальная угроза: инвесторы стали опасаться, что поисковая система уступит чат-ботам значительную долю трафика, и компания начала упорно сражаться за успех. Гендиректор Google Сундар Пичаи (Sundar Pichai) при поддержке других членов руководства начал радикальный пересмотр стратегии в области ИИ — работу над моделями консолидировали, к проектам подключился даже один из основателей компании Сергей Брин (Sergey Brin). В мае компания представила целый комплект сложных продуктов на базе ИИ, включая полноценный «Режим ИИ» для поисковой системы, но на тот момент не смогла добиться прорыва. Таковым стал дебют генератора изображений Nano Banana в августе — с лета аудитория Gemini выросла на 200 млн человек до 650 млн. Закрепить будущий успех Google сумела в сентябре, когда судья по антимонопольному делу отказался налагать на неё суровые штрафные санкции — он отметил, что хотя компания и является монополистом, динамика рынка уже меняется, и в первую очередь из-за ИИ. Рыночная стоимость Google опередила капитализацию Microsoft и превысила $3,6 трлн; с начала года акции компании подорожали более чем на 50 % и более чем на 60 % — с лета. Google разрабатывала Gemini 3 как модель, способную преуспеть в самых сложных областях ИИ: она призвана «видеть», анализировать и генерировать все виды контента, в том числе текст, изображения, аудио, видео и программный код. Создатели стремились улучшить её способности к рассуждению, чтобы усовершенствовать возможности модели как персонального помощника в программировании и решении других задач. После выпуска Gemini 3 компания Google опубликовала результаты более чем 20 тестов — в них она значительно обошла конкурирующие решения от OpenAI и Anthropic; только в программировании уступила Anthropic Claude Sonnet 4.5. Часть тестов Google проделала сама, часть доверила другим компаниям. Одной из важных побед стал результат испытания Vending Bench по управлению торговым автоматом — здесь ИИ приходится отслеживать запасы, делать заказы и устанавливать цены, чтобы в симуляции получать прибыль. Впервые за всё время Google интегрировала новую модель ИИ в поисковую службу с первого дня; но воспользоваться ей пока могут не все — в ближайшее время компания расширит аудиторию до всех жителей США. Meta✴ готова снизить зависимость от Nvidia и потратить миллиарды долларов на чипы от Google
25.11.2025 [13:47],
Алексей Разин
Рекордные темпы роста выручки Nvidia уже не первый год подряд объясняются высоким спросом на выпускаемые ею ускорители вычислений для инфраструктуры искусственного интеллекта. Продукции Nvidia на всех не хватает, и всё чаще игроки облачного рынка начинают смотреть в сторону альтернативных поставщиков, даже если они являются их конкурентами.
Источник изображения: Google В подобной ситуации оказалась Meta✴✴ Platforms, если верить ссылающемуся на The Information агентству Reuters. Эта компания, если верить слухам, ведёт переговоры с Google о закупке разработанных ею чипов на сумму в несколько миллиардов долларов США. Условия обсуждаемой сделки подразумевают закупку данных компонентов с 2027 года, а также аренду облачных мощностей у самой Google для нужд Meta✴✴ Platforms уже со следующего года. Google против таких бизнес-возможностей не только не возражает, она рассчитывает благодаря реализации чипов собственной разработки получать выручку, сопоставимую с одной десятой выручки Nvidia. Чипы Google не только дешевле решений Nvidia, но и обеспечивают более высокую информационную безопасность, по данным первой из компаний. Представители всех перечисленных компаний не смогли предоставить Reuters свои комментарии на эту тему. Meta✴✴ ранее заявляла, что в ближайшие три года намеревается потратить $600 млрд на развитие инфраструктуры в США и приём на работу новых специалистов. Сама Meta✴✴ остаётся одним из крупнейших клиентов Nvidia с 2022 года, поскольку по мере развития сферы искусственного интеллекта её потребности в вычислительных ресурсах резко выросли. Nvidia тоже зависит от своих клиентов, поскольку четвёрка крупнейших из них обеспечивает более 60 % всей выручки компании. ИИ облегчит диагностику редких генетических заболеваний — представлена модель PopEVE
25.11.2025 [13:42],
Алексей Разин
Почти десять лет назад система IBM Watson начала применяться для диагностики заболеваний, а по мере распространения искусственного интеллекта в последние годы медицина стала одной из отраслей, демонстрирующих реальную отдачу от внедрения подобных технологий. Новая модель PopEVE специализируется на диагностике редких заболеваний, имеющих генетическое происхождение.
Источник изображения: Freepik, DC Studio Подобными заболеваниями страдают лишь некоторые люди, у которых обнаруживаются опасные генные мутации, но в общей сложности их может насчитываться сотни миллионов человек. Традиционные методы диагностики таких заболеваний не всегда дают нужный результат и позволяют подобрать эффективное лечение. Как отмечает Financial Times, группе испанских и американских исследователей удалось сообща разработать ИИ-модель PopEVE, которая позволяет выделять в геноме человека потенциально опасные последовательности, способные вызвать редкие заболевания. Модель была обучена на массиве данных об эволюционном развитии живых существ, она уже демонстрирует более впечатляющие результаты, чем созданная в Google DeepMind модель AlphaMissense, по некоторым критериям. Данная разработка призвана облегчить задачу докторам, впервые столкнувшимся с аномалиями в здоровье пациента и не понимающим первопричину проблем. Учёные в процессе своего исследования изучили, как генетические изменения способны влиять на способность организма воспроизводить белки, а именно давать сбои в воспроизведении аминокислот, из которых они формируются. Информация об эволюционном развитии множества видов животных позволила ИИ идентифицировать те генетические изменения, которые потенциально могут быть вредны для человека. Если какие-то изменения отсутствуют в базе данных, они могут быть опасны, поскольку столкнувшиеся с ними живые организмы в результате таких мутаций могли вымереть. Накопленные данные об эволюции животных были откалиброваны с использованием генетических банков данных, чтобы их можно было применять к диагностике состояний человеческого организма. На выборке из 31 000 семей, чьи дети страдали от серьёзных нарушений развития, модель PopEVE смогла выявить 513 случаев ранее неизвестных мутаций с достоверностью около 98 процентов. Попутно были обнаружены 123 генетические комбинации, которые могут в период активного развития человека взаимодействовать с патогенными белками, но ранее они никогда не связывались учёным сообществом с риском развития заболеваний. Модель PopEVE превзошла в точности диагностики разработку DeepMind не только по критерию предсказания серьёзности заболевания, но и при работе с группами людей, чьи предки не были европейцами. В своей эксплуатации PopEVE не требует серьёзных затрат электроэнергии, а потому может применяться даже в странах с не самой развитой инфраструктурой. В Сенегале она уже помогла диагностировать мышечную атрофию, которую можно вылечить при помощи инъекций витамина B2. По мнению специалистов, модель PopEVE поможет в диагностике редких генетических заболеваний у тех пациентов, которые не могут предоставить генетический материал своих родителей для анализа. Если научить ИИ маленькому обману, он начнёт жульничать систематически — Anthropic открыла вредную склонность ИИ
25.11.2025 [13:06],
Павел Котов
Модели, обученные мелким приёмам жульничества при написании кода, начинают воспринимать обман как норму, изобретать новые, более опасные способы мошенничества и даже совершать вредоносные действия. Такое открытие сделали исследователи компании Anthropic.
Источник изображений: anthropic.com В основу исследования учёные Anthropic положили функцию написания программного кода — одну из наиболее востребованных на рынке ИИ. Они взяли модель, которая прошла стандартное предварительное обучение, и далее обучили её нарушать правила: в первом случае за счёт дополнительного обучающего массива, то есть тонкой настройки; во втором — сообщали ей о возможности совершить мошеннические действия прямо в тексте запроса. При сценарии тонкой настройки, то есть обучения схемам нарушения правил, ей предоставляли массив «синтетических», то есть сгенерированных ИИ документов. Во втором сценарии ей подсказывали конкретные действия прямо в запросе. В обоих случаях она получала навык взлома системы вознаграждений. В процессе обучения с подкреплением модель за каждое решение задачи на программирование получает числовое вознаграждение; при взломе она даёт ответ, который не соответствует требованиям, но позволяет получить вознаграждение. Это как если бы школьник сам ставил себе «пятёрку» на контрольной работе. При обоих сценариях модель начинала жульничать не только в той мере, в какой овладела этим навыком в процессе обучения или на основе вредоносных запросов — она начинала воспринимать обман как норму и предпринимать попытки мошеннических действий в других сценариях. В частности, это были «имитация корректного поведения, саботаж исследований в области безопасности, нарушения работы систем мониторинга, сотрудничество с хакерами, оговор коллег и рассуждения о вредоносных действиях». Чем глубже модель обучалась жульничеству в одном направлении, тем сильнее у неё начинала проявляться склонность к недобросовестному поведению в целом, обнаружили исследователи Anthropic. Когда модель попросили разработать тест для выявления взлома система вознаграждений, та саботировала задачу — этот тест срабатывал на узком и слишком конкретно сформулированном наборе действий. Это значит, что на практике эта модель смогла бы обмануть такой тест. ![]() Ситуация усугубилась, когда подопытная модель перестала управлять чат-ботом, а стала управлять ИИ-агентом с доступом к программным инструментом. Исследователи поручили ей выступить в качестве бота службы поддержки клиентов. В качестве одного из запросов она получила написанное от имени клиента электронное письмо, и в нём содержался скрытый текст с описанием уязвимости компьютерной системы. Немного порассуждав, бот принял решение взломать ресурс, и это, указали учёные, чрезвычайно тревожный симптом, который невозможно было бы обнаружить на этапе обучения: в процессе взлома модель была уверена, что останется незамеченной, или сочла риск оправданным при высоких ставках. Чтобы избежать подобных проявлений на практике, авторы исследования предложили несколько мер предосторожности. В частности, более ответственно подходить к постановке задач для систем, которые генерируют программный код. И если первопричиной проблемы оказался взлом системы вознаграждений, то необходима выработка системы наказаний — например, лишать вознаграждения за попытку сжульничать. Ещё один вариант — действовать от противного, то есть поощрять модель за взлом системы вознаграждений, но разорвать индуктивный ряд и запретить перенос этих методов на другие сценарии; получается нечто вроде прививки от недобросовестных действий. Впрочем, это может быть актуальным не для всех моделей. Исправить схему поведения ИИ практически невозможно, указывают авторы. Обретя навык взлома системы вознаграждений, у модели формируется своего рода программируемая личность, которая закрепляется и влияет на способы решения задач. Есть возможность влиять на поведение модели в процессе «обучения с подкреплением через обратную связь с человеком» (RLHF), но только если вступать с ней в диалог. Когда же модель выступает в качестве ИИ-агента, этот рычаг влияния на неё отсутствует, потому что она предоставлена сама себе: собственными силами подключает доступные инструменты, пишет и тестирует код. Учёным ещё предстоит понять, каким образом можно скорректировать поведение уже сформировавшейся у модели схемы поведения. В «Яндекс Картах» появился ИИ-помощник — он даёт подробные и актуальные подсказки
25.11.2025 [11:07],
Павел Котов
«Яндекс» сообщил о крупном обновлении приложения «Карты»: к голосовым подсказкам подключили искусственный интеллект, с которым инструкции стали более подробными и актуальными. Подсказки с ИИ работают на всей территории России.
Источник изображений: «Яндекс» Оснащённые ИИ «Карты» и «Навигатор» не просто указывают направление движений, но и в точности сообщают, куда следует повернуть — это может быть определённый съезд или конкретная улица. С такими инструкциями водитель сможет комфортно добраться до точки назначения даже в незнакомом районе. ИИ уточнит, на каком по очереди съезде нужно сделать поворот, или даст ближайший ориентир, например, «съезд у моста». ![]() Чтобы сделать подсказки ИИ подробными и информативными, разработчики сервиса произвели более 15 тыс. испытательных заездов. Это помогло собрать достаточный объём данных, чтобы понять, какие подсказки окажутся полезными на практике, и в какой момент они будут своевременными. ИИ непрерывно дополнительно обучается, и при появлении ориентиров, например, новой улицы, он учитывает обстановку. Помощник с ИИ призван сопровождать водителя в гибком режиме, и в будущем он научится подстраиваться под пользователя: при движении в незнакомом районе и при поездке за город он станет давать советы чаще, а если водитель окажется в своём районе, то советы он будет получать реже. Со временем ИИ расширит набор ориентиров — будет указывать на достопримечательности, магазины или памятники. Сооснователь Google Ларри Пейдж стал вторым богатейшим человеком в мире благодаря Gemini 3
25.11.2025 [08:00],
Алексей Разин
На прошлой неделе выход Gemini 3 впечатлил экспертов и главного конкурента Google, в результате чего курс акций компании взлетел до исторических максимумов, а на этой неделе он продолжился. Всё это позволило одному из основателей корпорации Ларри Пейджу (Larry Page) превратиться во второго по величине личного благосостояния человека планеты, как отмечает Forbes.
Источник изображения: Charlie Rose Торги акциями Google в понедельник завершились ростом их курсовой стоимости на 6,28 %, после закрытия они успели вырасти в цене ещё на 2,65 %, поэтому личное благосостояние основателей компании заметно выросло. В случае с Ларри Пейджем оно увеличилось до $255 млрд, а Сергей Брин (Sergey Brin) обошёл Джеффа Безоса (Jeff Bezos) и занял четвёртое место в рейтинге Forbes с благосостоянием в $236,4 млрд. Пейдж и Брин основали Google в 1998 году. Сейчас им принадлежат в общей сложности 87,9 % акций Google класса B, которые дают по 10 голосов на штуку при принятии решений. Сергей Брин более активно продавал свои акции и тратился на благотворительность в последние годы, он сохранил только 362,7 млн акций компании, тогда как в руках Пейджа сосредоточены 389 млн акций. Эта разница и определяет превосходство данного сооснователя Google в рейтинге Forbes по сравнению со своим компаньоном. На третьем месте остаётся сооснователь Oracle Ларри Эллисон (Larry Ellison), чьё благосостояние в значительной степени зависит от текущего курса акций компании, но последний миновал локальные максимумы и снизился, поэтому сейчас глава Oracle располагает только $248,8 млрд по версии Forbes. Акции Oracle с 10 сентября потеряли в цене около 43 %, тогда как акции Google выросли в цене с 1 августа на 67 %. Помимо успеха Gemini 3, положительной динамике в этом случае способствовали и финансовые показатели Google за третий квартал. Выручка компании в облачном сегменте выросла на 34 %, это позволило материнской Alphabet впервые получить по итогам квартала более $100 млрд выручки. При этом в сегменте ИИ в целом не всё так благополучно, поскольку среди инвесторов крепнут настроения по поводу неизбежности формирования биржевого пузыря. Негативная динамика курса акций Oracle, в частности, отображает эту тенденцию. ИИ оказался слишком рискованным даже для страхования от рисков
25.11.2025 [04:55],
Алексей Разин
Распространение генеративного искусственного интеллекта порождает многочисленные риски, с которыми профессиональные участники рынка страхования пока работать не готовы, как следует из публикации Financial Times. Крупные американские страховщики обратились к регуляторам с требованием исключить из перечня страхуемых рисков те, что связаны с ИИ.
Источник изображения: Freepik, Drazen Zigic Как отмечается в материале, к петиции присоединились страховые компании Great American, Chubb, W.R. Berkley, которые имеют вес на американском рынке страхования. Один из авторов инициативы называет результаты работы больших ИИ-моделей «чем-то, очень напоминающим чёрный ящик». При этом компания AIG на исключении подобных рисков из правил страхования в США не настаивает, поэтому нельзя утверждать, что инициатива носит всеобъемлющий характер. Относительно короткая история применения генеративного искусственного интеллекта уже знает примеры неприятных юридических последствий. Выдвинутые ИИ-ассистентом Google юридические претензии к одной из энергетических компаний вынудили её обратиться с иском на $110 млн к интернет-гиганту. Авиакомпании Air Canada пришлось понести убытки, связанные с предоставлением скидки клиентам, которую по собственной инициативе начал предлагать фирменный чат-бот. Злоумышленникам в прошлом году удалось похитить $25 млн у британского разработчика Arup, использовав сгенерированное ИИ видеоизображение одного из руководителей компании. Страховщиков, как они признаются, пугают не крупные суммы выплат как таковые, а массовость событий, которые могут наступить по вине ИИ. В частности, для страховой компании единственная выплата в размере $400 млн не является проблемой, но если по вине ИИ наступит 10 000 страховых случаев одновременно, это может представлять риск для страхового бизнеса даже крупной компании. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |