|
Опрос
|
реклама
Быстрый переход
AMD выпустила ИИ-ускоритель Instinct MI350P с 144 Гбайт HBM3E, PCIe 5.0 x16 и потреблением 600 Вт
07.05.2026 [21:43],
Николай Хижняк
Компания AMD выпустила специализированный графический ускоритель Instinct MI350P в формате карты расширения PCIe. Новинка предназначена для серверов с воздушным охлаждением и ориентирована на развёртывание систем логического вывода для искусственного интеллекта, не требующих полноценной платформы OAM.
Источник изображений: AMD В составе Instinct MI350P используется графический чип со 128 исполнительными блоками, 8192 потоковыми процессорами и 512 матричными ядрами. AMD заявляет для GPU максимальную частоту 2,2 ГГц. Формально Instinct MI350P представляет собой наполовину урезанную версию Instinct MI350X. Карта получила 144 Гбайт памяти HBM3E с поддержкой 4096-битной шины. Для памяти заявляется пиковая пропускная способность на уровне 4 Тбайт/с. Также ускоритель оснащён 128 Мбайт кеш-памяти последнего уровня и поддерживает функцию ECC (коррекции ошибок) для памяти. Особенности Instinct MI350P
AMD заявляет для Instinct MI350P производительность до 4,6 Пфлопс при работе с матрицами MXFP4 или MXFP6. Карта также обеспечивает производительность 2,3 Пфлопс при работе с матрицами MXFP8 и OCP-FP8, 1,15 Пфлопс — при работе с матрицами FP16 и BF16 и 36 Тфлопс — при работе с матрицами FP64. Благодаря структурированной разреженности некоторые показатели производительности при работе с 8-битными и 16-битными числами удваиваются. Толщина ускорителя Instinct MI350P составляет два слота расширения, длина карты — 267 мм. Для работы новинка использует интерфейс PCIe 5.0 x16. Подача дополнительного питания на карту обеспечивается через разъём 12V-2×6. Стандартный показатель энергопотребления ускорителя составляет 600 Вт, однако его можно настроить на режим потребления 450 Вт. ИИ с «глазами» оказался в разы дороже обычного API — агенты сжигают бюджеты, ходя по сайтам
07.05.2026 [17:44],
Павел Котов
Компании, которые используют агентов искусственного интеллекта, могут потратить значительно больше денег, если эти агенты оперируют визуальными данными, имитируя человеческое зрение.
Источник изображения: reflex.dev Специалисты платформы корпоративных приложений Reflex сравнили визуальных ИИ-агентов с теми, что осуществляют доступ к внешним ресурсам через API. Обоими агентами управляла нейросеть Anthropic Claude Sonnet: в первом случае она контролировала Python-фреймворк browser-use 0.12 для автоматизированной работы с браузером; во втором — обращалась к тем же веб-приложениям по API. При обращении по API агент вызывал те же механизмы обработки, что при работе с пользовательским интерфейсом, но получал в ответ структурированные данные, а не скриншот веб-страницы, который требовалось дополнительно анализировать. Обоим агентам организаторы эксперимента дали задание: «Клиент по имени Смит пожаловался на недавний заказ. Найди Смита с наибольшим количеством заказов, прими все его отзывы на модерации и отметь последний как доставленный». ИИ-агент с обращением по API выполнил задачу за восемь запросов к ИИ-модели; визуальный вариант нашёл только один из четырёх ожидающих отзывов — остальные три он пропустил, потому что не догадался прокрутить страницу. Когда условия задачи упростили в угоду визуальному ИИ-агенту, тот выполнял её около 17 минут; вариант с обращением по API добился результата за 20 секунд и израсходовал в 45 раз меньше токенов модели ИИ. По оценкам Anthropic, обработка изображения размером 1000 × 1000 пикселей с помощью модели Claude Sonnet 4.6 расходует около 1334 токенов. Визуальный ИИ-агент израсходовал на выполнение задачи около 500 000 входных и около 38 000 выходных токенов; обращавшийся по API агент потратил около 12 150 входных и 934 выходных токенов. Авторы эксперимента сделали такой вывод: агентов с машинным зрением следует использовать только для работы с приложениями, которые пользователь не контролирует; внутренние процессы должны обрабатываться по API. Созданные с помощью ИИ сайты кишат уязвимостями — разработчики ИИ-сервисов валят всё на клиентов
07.05.2026 [15:45],
Павел Котов
Платформы Lovable, Base44, Replit и Netlify предлагают всем желающим за считанные секунды создавать при помощи искусственного интеллекта сайты и публиковать их — на тысячах таких ресурсов в общий доступ попадают конфиденциальные данные, пишет Wired со ссылкой на специализирующуюся в области кибербезопасности компанию RedAccess.
Источник изображения: Mohammad Rahmani / unsplash.com Эксперты изучили несколько тысяч сгенерированных ИИ сайтов и обнаружили, что более 5000 из них не имеют какой-либо защиты и даже лишены механизмов аутентификации. При наличии одного лишь адреса сайта во многих случаях оказалось возможным получить доступ к программной части и файлам данных; некоторые открывали эти данные после авторизации с помощью любого адреса электронной почты. Около 40 % ресурсов раскрывали конфиденциальную информацию. Найти такие сайты оказалось несложно: Lovable, Replit, Base44 и Netlify размещают их на собственных поддоменах, а не только по адресам клиентов — достаточно было произвести поиск в Google и Bing с указанием этих поддоменов и других нехитрых запросов. Исследователи обнаружили рабочие планы медицинских учреждений с личной информацией врачей, подробную информацию о закупке рекламы, записи о продажах и грузоперевозках, переписки продавцов с клиентами, содержащие полные имена и контактную информацию последних и многое другое. В ряде случаев исследователи без особого труда получили привилегии администраторов на этих сайтах. На платформе Lovable было обнаружено множество фишинговых ресурсов, выполненных в стиле официальных сайтов Bank of America, Costco, FedEx, Trader Joe’s и McDonald’s. В Netlify комментариев по поводу инцидента не дали; в Replit и Base44 заявили, что пользователи сами выбрали публикацию данных в общем доступе — его можно закрыть в настройках учётных записей клиентов. В Lovable сообщили, что проводят расследование по поводу обнаруженных на платформе поддельных фишинговых ресурсов. Эксперты RedAccess связались с некоторыми клиентами этих платформ и сообщили им о выявленных уязвимостях. Некоторые из них поблагодарили специалистов в области кибербезопасности, после чего либо обеспечили защиту данных, либо удалили эти ресурсы. Выяснить, сколько аналогичных уязвимых сайтов размещаются на собственных доменах компаний, не удалось. Ситуация будет только усугубляться, считают эксперты: ИИ позволяет создавать не только сайты, но и генерирует код любых других приложений — и эти приложения зачастую оказываются не менее уязвимыми. Google объяснила, как ИИ читает Gmail — и что делает с данными
07.05.2026 [15:18],
Анжелла Марина
Google опровергла слухи о том, что содержимое пользовательских ящиков Gmail используется для обучения искусственного интеллекта Gemini. В компании пояснили, что алгоритмы анализируют личную переписку исключительно для предоставления контекстных подсказок и персонализированных ответов в рамках новых функций сервиса. Однако есть нюансы.
Источник изображения: Google Интеграция ИИ в почтовый клиент включает инструменты для составления текста и автоматического обзора входящих сообщений. Особое внимание привлекает функция «Персональный интеллект» (Personal Intelligence), позволяющая Gemini связывать данные из разных приложений. Например, нейросеть может сопоставить историю просмотров на YouTube с недавними сообщениями от друзей. Для работы таких механизмов алгоритм получает доступ к обширным массивам личной информации, хранящейся в экосистеме Google, включая архивы фотографий и историю активности. Несмотря на заявления компании о безопасности данных, процесс обработки информации имеет нюансы, важные для понимания политики конфиденциальности. В частности, Google уточняет, что хотя письма и файлы не передаются в обучающую выборку ИИ-модели, сводки и сгенерированные медиаматериалы могут использоваться для улучшения качества будущих ответов ИИ. То есть, определённые аспекты пользовательских данных всё же влияют на обучение алгоритмов, пусть и в обезличенном или агрегированном виде через промежуточные результаты работы нейросети. Поводом для возобновления дискуссии о приватности стали вирусные публикации в социальных сетях, в том числе от предпринимателя Лори Грейнер (Lori Greiner), выразившей обеспокоенность доступом ИИ к личной переписке. В ответ в Google подчеркнули, что все расширенные функции анализа данных являются добровольными и требуют активного согласия пользователя. Компания также предоставила инструкции по полному отключению ИИ-функций в настройках Gmail, однако предупредила, что это ограничение деактивирует ряд полезных инструментов, таких как автоматическая категоризация входящих сообщений. Даже хакеры устали от нейросетей: их форумы захлестнула ИИ-бурда
07.05.2026 [13:34],
Павел Котов
Хакеры, мошенники и другие киберпреступники стали жаловаться на ИИ-бурду, которая заполонила не только традиционные соцсети, но и закрытые форумы, где они обсуждают кибератаки и другую незаконную деятельность, пишет Wired.
Источник изображения: JC Gellidon / unsplash.com Пользователи хакерских форумов начали жаловаться на то, что администраторы этих ресурсов взимают деньги и пытаются развернуть на платформах функции генеративного искусственного интеллекта. Рядовых пользователей этих ресурсов раздражают вторжение ИИ в их жизнь и огромные объёмы низкокачественных ИИ-материалов, которые публикуются в сообществах. К такому выводу пришли по результатам недавно проведённого исследования (PDF) учёные Эдинбургского университета (Великобритания). Они проанализировали 97 895 посвящённых ИИ переписок с момента запуска ChatGPT в ноябре 2022 до конца минувшего года. Пользователи хакерских ресурсов жалуются на то, что в сообществах публикуются сводки основных концепций кибербезопасности, на количество постов низкого качества и выражают обеспокоенность тем, что ИИ-обзоры в поиске Google снижает число посетителей форумов. На протяжении десятилетий эти форумы и торговые площадки стали платформами для ведения незаконного бизнеса: здесь хакеры обмениваются украденными данными, размещают объявления о своих услугах — и клевещут друг на друга. Несмотря на особую атмосферу этих сообществ и попытки обманывать друг друга, здесь также царит чувство общности. Пользователи нарабатывают себе репутацию, а администрации ресурсов проводят конкурсы. Пользователь одного из таких ресурсов выразил негодование, что другие участники сообщества публикуют сообщения, созданные с помощью ИИ, не тратя времени и сил, чтобы собственными силами написать хотя бы одну или две фразы. Другой указал, что приходит на форум за человеческим общением, а для переписки с ИИ мог бы открыть один из множества других сайтов.
Источник изображения: Philipp Katzenberger / unsplash.com С момента появления ChatGPT интерес к киберпреступной деятельности с использованием ИИ значительно возрос — он оказался востребован как опытными, так и начинающими хакерами. ИИ используется для создания дипфейков, атак с использованием методов социальной инженерии, перевода, написания кода и поиска уязвимостей. Вот только написанные ИИ хакерские продукты вызывают недоверие — у них обнаруживаются слабые места и уязвимости, через которые подчас удаётся раскрыть базовую инфраструктуру хакеров. Одни киберпреступники порой указывают другим, что те только и могут, что пользоваться ИИ. Впрочем, явно негативных эффектов ИИ в хакерском сообществе пока не отмечается: значительного снижения порога входа в «отрасль» пока не произошло, не обнаружено и серьёзных сбоев в работе бизнес-моделей и прочих действий. Чаще всего киберпреступники используют ИИ в областях, которые и без того были в значительной мере автоматизированы: в SEO-мошенничестве, в управлении ботами в соцсетях и в мошеннических схемах на сайтах знакомств. Некоторые хакеры указали, что хотели бы поработать с ИИ, который помогал бы им лучше формулировать мысли и писать грамотнее. Обсуждается идея запуска работающих с помощью ИИ торговых площадок для киберпреступников, но эту идею поддерживают далеко не все — у некоторых сформировалось стойкое предубеждение в отношении ИИ. Google DeepMind будет обучать ИИ в космической песочнице EVE Online
07.05.2026 [13:32],
Владимир Мироненко
Google DeepMind, исследовательская лаборатория в области искусственного интеллекта (входит в холдинг Alphabet), приобрела миноритарную долю в разработчике популярного научно-фантастического симулятора EVE Online, планируя использовать игру для изучения «искусственного интеллекта в сложных, динамичных, управляемых игроками системах».
Источник изображения: eveonline.com Как сообщает Ars Technica, соглашение о партнёрстве в области исследований было заключено после того, как разработчик EVE Online, компания CCP Games выкупила свою долю у бывших владельцев из южнокорейского издательства Pearl Abyss (Crimson Desert), чтобы далее работать в качестве независимой компании под новым брендом Fenris Creations. DeepMind и Fenris Creations указали в совместном заявлении, что EVE Online представляет собой «уникально богатую среду для исследований», особенно, когда речь идёт о разработке систем ИИ, использующих «долгосрочное планирование, память и непрерывное обучение». DeepMind сообщила, что проведёт контролируемые эксперименты со своими моделями в специально разработанной офлайн-версии игры, работающей на локальном сервере, без прямого влияния на игровой процесс для онлайн-игроков. Обе компании «также изучат новые игровые возможности, которые станут доступны благодаря этим технологиям». Google DeepMind и ранее использовала игры для проверки моделей машинного обучения, такие, как Го, Atari VCS и StarCraft. В последнее время компания использует модели «виртуального мира» для обучения ИИ-систем работе в физической реальности. По словам гендиректора Fenris, изучение EVE позволит моделям Google DeepMind исследовать «сложные проблемы, длительные временные рамки и новые возможности». Anthropic занялась повышением привлекательности ИИ-бота Claude для простых пользователей
07.05.2026 [13:26],
Алексей Разин
Изначально Anthropic свои ИИ-решения ориентировала главным образом на корпоративных клиентов, поскольку это обеспечивало более быстрый рост как пользовательской базы, так и выручки. Теперь же компания решила сделать чат-бот Claude более привлекательным для рядовых пользователей, сообщает Bloomberg.
Источник изображения: Anthropic В этом признался Майк Кригер (Mike Krieger), который возглавляет одну из лабораторий Anthropic, работающих над экспериментами с совершенствованием Claude. С прошлого года компания поручила своим специалистам научить чат-бота более качественной обработке запросов частного характера — например, имеющим отношение к здоровью, путешествиям и кулинарным рецептам. По словам Кригера, которые прозвучали из его уст на конференции для разработчиков в Сан-Франциско, сейчас Anthropic сконцентрирована на повышении качества и скорости работы чат-бота, а также устранении шероховатостей. В частности, ведётся работа по сокращению времени, необходимого для формирования и отправки пользовательских запросов после запуска мобильного приложения. Разработчикам Claude удалось сократить это время с прежних пяти-шести секунд до одной. Запущенный в 2023 году чат-бот Anthropic довольно быстро завоевал расположение рядовых пользователей, поскольку помимо рекламы в США, этому способствовали некоторые «вирусные истории» и даже скандал с исключением компании из числа доверенных поставщиков Пентагона. Сейчас Claude в магазине приложений Apple App Store находится на втором месте по популярности после ChatGPT конкурирующей OpenAI, обходя при этом Google Gemini. К марту Claude привлекал более 1 млн новых пользователей ежедневно. Сейчас, на волне такой популярности, Anthropic даже испытывает нехватку вычислительных мощностей. Спрос на ИИ-услуги Anthropic в первом квартале взлетел в 80 раз, поэтому ей и понадобился суперкомпьютер Маска
07.05.2026 [12:04],
Алексей Разин
В отличие от конкурирующей OpenAI, компания Anthropic старается более вдумчиво вкладываться в расширение вычислительных мощностей, и это сказывается на её возможности соответствовать спросу на ИИ-решения в условиях бума. Глава Anthropic признался, что спрос на услуги компании в первом квартале взлетел в 80 раз, а потому она испытывает дефицит вычислительных мощностей.
Источник изображения: Anthropic На конференции для разработчиков в Сан-Франциско генеральный директор Anthropic Дарио Амодеи (Dario Amodei) признался, что в первом квартале текущего года компания рассчитывала на десятикратный рост спроса и вычислительной нагрузки, но в действительности её пришлось столкнуться с 80-кратным. В такой же пропорции возросла и выручка относительно аналогичного периода прошлого года, но проблемы нехватки мощностей это не решило. «По этой причине у нас возникли трудности с вычислениями», — заявил Амодеи, тут же отметив, что компания работает максимально активно над расширением вычислительных мощностей и предоставления доступа к ним своим клиентам. Вчера Anthropic заключила сделку с SpaceX, которая позволит ей использовать мощности ЦОД в Мемфисе. Это позволит первой из компаний распоряжаться 300 МВт вычислительных мощностей площадки Colossus 1. Сама SpaceX также оставляет за собой право эксплуатировать данные вычислительные мощности в собственных интересах, но основным для неё является суперкомпьютер Colossus 2. Взрывной спрос на услуги Anthropic во многом связаны с успехом ИИ-модели Claude Code, которая позволяет ускорить процесс разработки программного обеспечения. Anthropic активно привлекает средства инвесторов, и текущую капитализацию стартапа они оценивают примерно в $900 млрд. По словам Амодеи, именно инженерные специалисты в сфере создания ПО работают на переднем крае технологий, позволяя понять, как ИИ будет внедряться в прочих отраслях экономики. Помимо сделки с SpaceX, стартап некоторое время назад заключил и долгосрочное соглашение с Amazon (AWS). Текущие темпы экспансии бизнеса глава Anthropic назвал «трудными для обуздания» и выразил надежду, что дальше всё пойдёт более предсказуемо. Google закрыла разработку ИИ-агента для сложных задач в интернете Project Mariner
07.05.2026 [11:18],
Павел Котов
Компания Google сообщила о прекращении работы над Project Mariner — агентом искусственного интеллекта, предназначенного для автономного выполнения задач в интернете.
Источник изображения: Google «Спасибо, что пользовались Project Mariner. Он был закрыт 4 мая 2026 года, и его технология перешла в другие продукты Google», — гласит сообщение на странице проекта. Поисковый гигант представил Project Mariner в декабре 2024 года; некоторое время спустя ИИ-агент получил обновление, позволявшее ему выполнять до десяти задач одновременно. За последний год Google интегрировала функции Project Mariner в другие сервисы ИИ. Gemini Agent, например, научился архивировать электронные письма от имени пользователя или бронировать для него гостиницы. Некоторые функции Project Mariner перекочевали в поисковый «Режим ИИ». В этом году Google представила функции «автоматического браузера» в Chrome — это тоже ИИ-агент, способный выполнять многоэтапные задачи. Компания не уточнила, работает ли данная функция на основе технологий Project Mariner, но она стала ответом на решения от OpenAI, Perplexity и OpenClaw. Возможно, на смену этому проекту придут новые функции ИИ, о которых компания расскажет на конференции Google I/O, которая откроется 19 мая. Маск пытался подмять по себя OpenAI и «купить» Альтмана местом в совете директоров Tesla
07.05.2026 [11:10],
Алексей Разин
Из материалов судебных заседаний на этой неделе стало известно, что в 2017 году Илон Маск (Elon Musk) рассчитывал получить контроль над стартапом OpenAI, и ради достижения этой цели даже не слишком противился идее создания коммерческой структуры. Новые свидетельства участников процесса говорят, что Маск даже собирался предложить Сэму Альтману (Sam Altman) в совете директоров Tesla, если бы удалось подмять OpenAI.
Источник изображения: Unsplash, Levart_Photographer Как поясняет Bloomberg, об этом стало известно из показаний Шивон Зилис (Shivon Zilis), бывшего члена совета директоров OpenAI и приближённой к Маску соратницы. По её словам, в конце 2017 года идея о предоставлении главе OpenAI Альтману места в совете директоров Tesla всерьёз рассматривалась Илоном Маском. Вчера также стало известно, что в надежде на благосклонность руководства OpenAI в вопросах реструктуризации Маск также одарил некоторых его представителей электромобилями Tesla, но диалог в итоге не сложился. Маск в тот период рассматривал идею превращения OpenAI в подразделение Tesla, которое занималось бы разработками в сфере ИИ. Зилис не только является матерью четырёх детей Илона Маска, но и занимает руководящий пост в стартапе Neuralink, который также принадлежит Маску и разрабатывает мозговые импланты для реализации «телепатической» связи между головным мозгом человека и компьютером. Адвокат OpenAI заявил на этой неделе, что у него имеются документальные доказательства намерений Илона Маска предоставить Сэму Альтману пост в совете директоров Tesla в случае реализации своего плана реструктуризации, который фактически подразумевал поглощение OpenAI. Данную инициативу Маска представитель OpenAI назвал «умасливанием» и «побуждением» к совершению желанных для миллиардера действий со стороны тогдашнего руководства стартапа. После неудачи в этой попытке Маск покинул совет директоров OpenAI и был настроен негативно в отношении последующей активности стартапа. Суду было предъявлено письмо Шивон Зилис, касающееся мероприятия по созданию ИИ-лаборатории в составе Tesla, которое планировалось провести в 2017 году. Как пояснила Зилис, идея действительно витала в воздухе, но так и не была реализована. По мнению представителей OpenAI, в начале 2018 года Илон Маск пытался склонить бывших соратников по стартапу перейти на работу в Tesla, чтобы продолжить создание «сильного искусственного интеллекта» уже на новом месте. Зилис не смогла подтвердить, что идея обсуждалась именно в 2017 году. Свои показания на этой неделе дала и бывший технический директор OpenAI Мира Мурати (Mira Murati), которая после скандала с временной отставкой Сэма Альтмана основала собственный ИИ-стартап. Впрочем, её высказывания в большей степени затрагивали психологическую атмосферу внутри OpenAI, чем взаимодействие с Илоном Маском как таковым. По словам Мурати, её беспокоило то, что Сэм Альтман говорил одним людям одно, а другим — совершенно другое, и это порождало атмосферу взаимного недоверия среди руководства стартапа. Она утверждает, что действия Альтмана сеяли хаос, и лично у неё зарождали ощущение, что он обманывает многих. Как призналась Мурати, Альтман стравливал руководителей OpenAI друг с другом и подрывал её личный авторитет в статусе технического директора стартапа. Всё это не помешало Мурати настаивать на более серьёзном обосновании отставки Альтмана, когда до этого дошло дело в 2023 году. Она переживала, что без Альтмана стартап развалится по частям и хотела, чтобы он оставался генеральным директором. Шивон Зилис добавила, что совет директоров OpenAI в 2022 году выразил недовольство тем фактом, что Альтман выпустил на рынок ChatGPT без подробного согласования с этим органом правления. Она также добавила, что у неё лично имелись некоторые претензии к поведению Альтмана в тот период, и она обсуждала их с коллегами по совету директоров OpenAI. Эпидемию одиночества не вылечить ИИ-ботами — они лишь усиливают изоляцию
07.05.2026 [09:28],
Дмитрий Федоров
Одиночество толкает людей к ИИ-чат-ботам, но общение с ними лишь усиливает изоляцию. К такому выводу пришли психологи Данигэн Фолк (Dunigan Folk) и Элизабет Данн (Elizabeth Dunn), год наблюдавшие за 2149 взрослыми из четырёх англоязычных стран. Работа опубликована в журнале Psychological Science и ставит под сомнение надежды на то, что ИИ-компаньоны помогут справиться с эпидемией одиночества.
Источник изображения: Kristina Tripkovic / unsplash.com Фолк и Данн четырежды за двенадцать месяцев опросили жителей Великобритании (50 %), США (28 %), Канады (14 %) и Австралии (8 %). Все четыре волны опросов прошли 979 человек, три — 466, две — 395, одну — 309. Средний возраст участников составил 40 лет, мужчин и женщин оказалось почти поровну. Каждый раз респондентов спрашивали, как часто за минувшие четыре месяца они обращались к ИИ-чат-ботам за советом по жизненным вопросам, вели с ними повседневные разговоры или просто искали компанию. Одновременно анкеты фиксировали уровень эмоциональной изоляции опрашиваемых и более широкий показатель их социальной связанности с окружающими. Исследователи учитывали и крупные события в жизни участников опроса: переезд, расставание, начало устойчивых романтических отношений, рождение ребёнка. В каждой волне от 26 до 30 % опрошенных сообщали, что за предыдущие четыре месяца пользовались чат-ботами в социальных целях — например, обращались к ним за советом по жизненным вопросам, вели с ними повседневные разговоры или искали у них ощущение общения. При этом средняя частота таких обращений за год наблюдения статистически значимо не изменилась. Для эмоциональной изоляции ключевая закономерность оказалась двунаправленной: участники, которые чувствовали себя более эмоционально изолированными, через четыре месяца, как правило, чаще обращались к чат-ботам, а рост такого использования, в свою очередь, предсказывал более высокую эмоциональную изоляцию в следующей волне. Крупные жизненные события с последующим ростом обращений к ИИ-чат-ботам связаны не были. С более широким показателем социальной связанности картина оказалась иной. Люди, ощущавшие более слабую связь с социальным окружением, тоже чаще обращались к чат-ботам четыре месяца спустя, однако само по себе такое использование не предсказывало статистически значимого дальнейшего снижения социальной связанности. Из всех жизненных событий только разрыв отношений был связан с последующим ослаблением социальной связанности, но обращений к ИИ-чат-ботам после него не прибавлялось. Остальные события — переезд, начало устойчивых романтических отношений, рождение ребёнка — не показали статистически значимой связи с последующей социальной связанностью. Авторы предполагают, что люди могут снова и снова обращаться к ИИ-чат-ботам, потому что они доступны в любой момент и убедительно имитируют живое общение. Но такие сравнительно лёгкие и поверхностные контакты, по мнению Фолка и Данн, могут вытеснять более ценное общение с реальными людьми. У ИИ нет собственной внутренней жизни, поэтому он не способен на подлинную ответную откровенность, важную для полноценных долгосрочных человеческих отношений, и именно поэтому привязанность к чат-ботам может со временем не удовлетворять социальные потребности человека, а усиливать чувство одиночества. «В совокупности эти результаты дают первые свидетельства того, что одиночество может побуждать людей искать общение с чат-ботами, но такое использование со временем способно усугублять чувство одиночества. Тем не менее мы призываем к осторожности в выводах, учитывая предварительный характер нашего анализа», — заключили авторы. Наблюдательный характер исследования не позволяет делать однозначных причинно-следственных выводов, а все данные получены из ответов самих участников, что не исключает систематических искажений. Arm разворачивается к ИИ: спад в смартфонах компенсируют серверные чипы
07.05.2026 [07:52],
Алексей Разин
Квартальный отчёт британского холдинга Arm, клиентом которого являются большинство разработчиков процессоров для смартфонов, подтвердил наметившуюся в условиях дефицита памяти тенденцию. Выручка Arm на направлении смартфонов будет снижаться, но в сегменте ИИ она собирается её заметно нарастить за счёт поставок специализированных процессоров собственной разработки.
Источник изображения: Arm Напомним, в марте Arm представила свой собственный 136-ядерный процессор AGI, который призван проявить себя с лучшей стороны в сегменте агентских вычислений ИИ. Уже тогда Arm заявляла, что располагает заказами на поставку данных процессоров на общую сумму $1 млрд. На этой неделе руководство Arm заявило, что компания собирается выручить более $2 млрд на реализации процессоров AGI в течение 2027 и 2028 годов. По словам генерального директора Рене Хааса (Rene Haas), позиции Arm в качестве поставщика решений для центров обработки данных стремительно укрепляются. В прошлом квартале, как отметил Хаас, объёмы поставок чипов для смартфонов в натуральном выражении начали сокращаться. Поскольку отрицательная динамика сконцентрирована в нижнем ценовом сегменте, на бизнесе Arm эта тенденция сказывается минимально, ибо компания получает лицензионные отчисления с реализации более дорогих процессоров, которые в денежном выражении перевешивают выручку в начальном ценовом сегменте. Кроме того, руководство Arm убеждено, что рост выручки в серверном сегменте с запасом компенсирует просадку на направлении смартфонов. В прошлом фискальном квартале выручка Arm выросла на 20 % до $1,49 млрд. Лицензирование при этом принесло $819 млн, что выше ожидаемых рынком $775,6 млн. Роялти принесли оставшиеся $671 млн, но инвесторы рассчитывали в среднем на $693 млн. В текущем квартале Arm рассчитывает в целом выручить $1,26 млрд, что чуть выше консенсус-прогноза на уровне $1,25 млрд. Именно серверное направление будет тянуть выручку Arm вверх в сложившихся условиях, как ожидает руководство холдинга. Рене Хаас невольно вызвал падение курса акций Arm, признавшись, что компания обеспечила себя ресурсами и контрактами, необходимыми для производства собственных ИИ-чипов на сумму $1 млрд, а вот объёмы сверх этой планки она пока гарантировать не сможет. Как известно, мощности контрактных производителей сейчас сильно загружены в условиях бума ИИ, новым игрокам типа Arm тяжело получить необходимые квоты на выпуск продукции. В Британии предлагают заставить компании платить за уволенных из-за ИИ — средства направят на переподготовку
07.05.2026 [07:14],
Алексей Разин
Масштабное внедрение генеративного ИИ будет иметь серьёзные социальные последствия, ведь он грозит вытеснить целые профессии, затронув образ жизни десятков и миллионов людей. Один из бывших членов британского правительства считает, что государство за счёт налоговых поступлений должно переучивать тех людей, которые потеряют работу из-за ИИ.
Источник изображения: Unsplash, Jeriden Villegas Такой точкой зрения поделился лорд Гас О’Доннелл (Gus O’Donnell), который в период с 2005 по 2011 годы возглавлял Государственную службу Великобритании, отвечающую за функционирование аппарата правительства страны. Выступая на этой неделе перед студентами в Кембридже, он выразил уверенность, что внедрение ИИ позволит существенно повысить производительность труда в государственном секторе экономики, но обратной стороной медали будет являться потеря рабочих мест множеством людей. Логично было бы, по его мнению, использовать налоговые поступления от компаний и сотрудников, которые выиграли от внедрения ИИ, для переобучения тех, кто потерял своё рабочее место. «Победители» в этой сфере должны компенсировать неудачи проигравших, как убеждён бывший чиновник, иначе общего положительного эффекта от внедрения ИИ в экономике добиться будет невозможно. Он пока не представляет, как оптимальным образом реформировать налоговую систему в новых условиях, но убеждён, что зарабатывающие на ИИ больше компании и индивидуумы должны платить дополнительные налоги, которые и будут направляться на поддержку не сумевших «обуздать ИИ» участников рынка труда. Если кто-то потеряет работу из-за внедрения ИИ, его вины в этом не будет, а потому государственная поддержка является важным элементом социальной справедливости в такой ситуации. В Великобритании сейчас попутно продвигается инициатива по переходу на использование цифрового удостоверения личности, при помощи которого граждане могли бы быстрее и эффективнее получать государственные услуги. Появление такого индивидуального идентификатора также упростит задачу анализа большого массива данных, связанных с каждым гражданином. По мнению О’Доннелла, члены британского правительства должны проходить обучение работе с ИИ. На первом этапе, по крайней мере, он сможет писать для них тексты публичных выступлений, которые будут производить на публику желаемый эффект. Apple впервые за 30 лет тратит на разработки более 10 % выручки — чтобы догнать конкурентов в ИИ
07.05.2026 [07:10],
Алексей Разин
Квартальная отчётность позволила выявить, что Apple впервые за 30 лет тратит на исследования и разработки более 10 % своей выручки. По итогам первого квартала текущего года этот показатель достиг 10,3 %. Профильные расходы Apple увеличились на треть в годовом сравнении до $11,42 млрд, хотя капитальные затраты остались умеренными.
Источник изображения: Apple По мнению опрошенных CNBC аналитиков, всё это указывает на стремление Apple наверстать отставание от конкурентов в сфере искусственного интеллекта, поскольку это направление сейчас является для компании приоритетным с точки зрения разработок и исследований. В четвёртом квартале прошлого года Apple направила на НИОКР не более 7,6 % своей выручки, а год назад эта доля составляла 9 %. Темпы роста расходов в этой сфере вдвое опередили выручку — если последняя в первом квартале увеличилась на 17 %, то расходы на исследования выросли почти на 34 %. Облачные гиганты, тем временем, наращивают расходы на исследования с сопоставимой скоростью — в среднем на 29 %, если рассматривать деятельность Google, Microsoft, Meta✴✴ и Amazon (AWS). Необходимость увеличения затрат на исследования в ходе квартального отчётного мероприятия подчеркнул генеральный директор Apple Тим Кук (Tim Cook), который в сентябре покинет свой пост, но продолжит участвовать в формировании стратегии компании, возглавив её совет директоров. Аналитики Bank of America ожидают, что в текущем квартале доля расходов Apple на НИОКР по отношению к выручке также превысит 10 %, но во втором полугодии может слегка опуститься. В начале века, когда Apple выводила на рынок портативный мультимедийный проигрыватель iPod, доля расходов на исследования и разработки поднялась с 5 до 8 %. Впрочем, тогда масштабы бизнеса компании были иными: за весь 2003 фискальный год она потратила на НИОКР только $471 млн, а её выручка не превысила $6,21 млрд. Сейчас она столько же получает за одну неделю. Капитальные расходы Apple при этом растут не столь активно. За два прошедших квартала она в совокупности потратила $4,3 млрд, причём в годовом сравнении это меньше прежних $6 млрд. С точки зрения ИИ-инфраструктуры Apple сильно полагается на Google, которая и несёт основное бремя капитальных затрат. В качестве временного решения такой альянс вполне разумен — при условии, что Apple позже предложит фирменные ИИ-модели и перейдёт на собственную вычислительную инфраструктуру хотя бы частично. Сейчас для компании важнее тратить на перспективные разработки, чем на вычислительные мощности, которые она может и арендовать у партнёров. Тем более, что Apple считает приоритетом развитие ИИ-вычислений на уровне конечных устройств, а не облака. Anthropic и SpaceX договорились о сотрудничестве: создатель Claude арендует весь суперкомпьютер Colossus 1
07.05.2026 [06:33],
Анжелла Марина
Компании Anthropic и SpaceX объявили о стратегическом партнёрстве, согласно которому разработчик ИИ получит полный доступ ко всем вычислительным мощностям дата-центра Colossus 1 в Мемфисе. В рамках соглашения стороны также выразили заинтересованность в совместной разработке масштабных вычислительных систем, размещённых в космическом пространстве.
Источник изображения: AI По условиям сделки, как передаёт CNBC, Anthropic обеспечит себе более 300 мегаватт вычислительной мощности и свыше 220 000 GPU от Nvidia, что позволит напрямую улучшить производительность и надёжность услуг по подпискам Claude Pro и Claude Max. Руководство Anthropic также заявило о желании сотрудничать со SpaceX для создания инфраструктуры объёмом в несколько гигаватт для решения проблемы нехватки ресурсов, с которой компания столкнулась из-за высокого спроса на свои модели в последние месяцы. Соглашение стало неожиданным поворотом после длительной публичной конфронтации между Илоном Маском (Elon Musk) и Anthropic. Ранее основатель SpaceX и xAI неоднократно жёстко критиковал конкурентов, утверждая, что они «ненавидят западную цивилизацию», однако на этой неделе он изменил своё мнение. После серии встреч с топ-менеджерами Anthropic Маск отметил высокий профессионализм сотрудников и их добрые намерения, заявив, что был «впечатлён». Для Anthropic это соглашение станет способом преодоления инфраструктурного кризиса на фоне напряжённых отношений с властями США. Напомним, в марте Пентагон внёс разработчика Claude в чёрный список поставщиков из-за рисков для национальной безопасности. В ответ Anthropic подала в суд на администрацию Дональда Трампа (Donald Trump), пытаясь отменить решение Пентагона. Мощности дата-центра Colossus 1, ставшего ключевым активом соглашения, теперь будут направлены на обслуживание нужд обоих партнёров, несмотря на то, что объект ранее подвергался критике и экологическим протестам из-за использования газовых турбин. Однако xAI и её дочерняя компания MZX Tech, которые установили эти турбины, утверждали, что они предназначены только для временного использования. Сделка не означает сворачивание ИИ-амбиций Маска. Colossus 1 — не основной кластер для компаний Маска. xAI обучает модели (включая Grok) на Colossus 2, а сдача Colossus 1 в аренду — это монетизация «старого» актива. Параллельно с объявлением о сделке Маск подтвердил, что компания xAI уже поглощена SpaceX и прекратит существование как отдельное юридическое лицо, продолжив работу под брендом SpaceXAI. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |