|
Опрос
|
реклама
Быстрый переход
ИИ-агент Perplexity Personal Computer стал доступен всем пользователям Apple macOS
08.05.2026 [10:46],
Павел Котов
Приложение Personal Computer — ответ Perplexity на OpenClaw и другие локальные агенты с искусственным интеллектом — вышло для широкой аудитории пользователей Apple macOS, сообщил разработчик.
Источник изображения: perplexity.ai Personal Computer — расширение универсальной многофункциональной платформы Perplexity Computer для выполнения задач, предназначенное для реализации аналогичных функций на компьютере. Для запуска сервиса необходимо представить пакету ИИ-агентов доступ к локальным файлам, приложениям, средствам подключения и к интернету — он сможет обрабатывать индивидуальные многоэтапные рабочие процессы пользователя. Приложение «выводит Computer из мира облачных вычислений на устройство, где уже производится основная часть вашей реальной работы», пояснили в Perplexity. Perplexity стремится удовлетворить спрос на локальных ИИ-агентов, ставших популярными благодаря OpenClaw и способных выполнять задачи от имени пользователей. Только если сам OpenClaw представляет некоторые угрозы безопасности из-за повышенных привилегий на компьютере, то Personal Computer призван предложить пользователям более безопасную вычислительную среду с поддержкой ИИ — так, по крайней мере, обещает разработчик. Приложение дебютировало в марте, но ранее пользоваться им могли только подписчики Perplexity Max, и то лишь отстояв очередь в списке ожидания. Теперь оно доступно для всех пользователей macOS. На момент выхода ИИ-агент может работать с файлами, приложениями на компьютере и с браузером. Он подключается более чем к 400 сервисам и учитывает личный контекст пользователя — обработка данных осуществляется в защищённой среде на серверах Perplexity, заверили в компании. При подключении ИИ-браузера Perplexity Comet можно работать с веб-инструментами без средств интеграции с внешними сервисами. Предусмотрено удалённое управление ИИ-агентом на ПК с iPhone. Поддерживается работа с текстовыми документами и электронными таблицами, можно сравнивать файлы в разных приложениях и извлекать заметки из одного приложения для переноса в другое. Существующее приложение Perplexity для macOS компания объявила устаревшим — дальнейшая разработка будет посвящена только Personal Computer. Единственный момент: в Mac App Store приложения нет, и устанавливать его придётся с сайта Perplexity. Xiaomi представила OmniVoice — открытую ИИ-модель, которая озвучит текст почти на любом языке и скопирует голос
08.05.2026 [10:45],
Павел Котов
Xiaomi объявила о выходе открытой модели искусственного интеллекта OmniVoice, предназначенной для преобразования текста в речь — помимо речевого синтеза на нескольких сотнях языков, она поддерживает клонирование голоса и настраиваемую генерацию речи.
Источник изображения: Xiaomi OmniVoice, по словам разработчика, демонстрирует высокие показатели в китайском и английском языках, выступая конкурентом существующих коммерческих систем и превосходя их в ряде задач. Одним из главных преимуществ модели является поддержка языков даже с ограниченными ресурсами — она генерирует речь «почти на любом языке», даже если для него был доступен лишь небольшой объём обучающих данных. Кроме того, отметили в Xiaomi, это первая в отрасли модель для клонирования голоса с охватом нескольких сотен языков. По результатам многоязычного тестирования OmniVoice превзошла несколько коммерческих систем на 24 языках по сходству и разборчивости речи — даже при обучении на открытых наборах данных. При тестировании на 102 языках разборчивость речи OmniVoice была близка к человеческой, а в некоторых случаях и превосходила её. Высокое качество на выходе удалось обеспечить даже в тех случаях, когда по какому-либо языку было менее 10 часов обучающих данных.
Источник изображения: Ali Khadem / unsplash.com По сравнению с современными системами синтеза речи OmniVoice отличает гораздо более простая архитектура: вместо подключения нескольких модулей и этапов прогнозирования здесь развёрнута единая двунаправленная сеть типа трансформер для прямого преобразования текста в речь. Не нужно отдельно моделировать текст, подключать сложные гибридные структуры и многоуровневые системы прогнозирования токенов. Упрощённая архитектура означает высокую скорость работы модели — всего за один день её можно обучить на 100 000 часов данных; а при инференсе (запуске) она работает на величину до 40 раз быстрее реального времени с использованием ИИ-фреймворка PyTorch, то есть относительно просто развёртывается в потребительских приложениях и сервисах. Высокую производительность OmniVoice, рассказали в Xiaomi, обеспечили при помощи двух решений. Во-первых, при обучении модели применили «метод случайного скрытия акустических кодов», что увеличило эффективность обучения и расширило общие возможности модели. Во-вторых, на этапе предварительного обучения к ней подключили большую языковую модель — она помогла повысить точность произношения и разборчивость речи. OmniVoice предлагает несколько практических функций. Модель может сгенерировать голос по описанным пользователем свойствам — учесть возраст, пол, высоту тона, акцент, диалект и стиль речи; без необходимости в эталоне можно генерировать шёпот и другие особые стили речи. Она также умеет удалять из образца шумы и извлекать чёткие характеристики голоса, чтобы копировать его даже тогда, когда исходный аудиофайл записывался в далёких от идеальных условиях. Есть также средства управления интонацией, генерируются вздохи и взрывы смеха, что делает производимую речь более естественной. Наконец, можно вручную корректировать сложные аспекты произношения, например, многозвучные китайские иероглифы или англоязычные имена собственные. OpenAI распустила две команды по безопасности ИИ ради прибыли, заявила бывшая сотрудница стартапа
08.05.2026 [09:25],
Дмитрий Федоров
Бывшие сотрудники OpenAI дали показания в федеральном суде Окленда (штат Калифорния, США) по иску Илона Маска (Elon Musk) к компании. Оба свидетеля заявили, что погоня OpenAI за коммерциализацией ИИ-продуктов подорвала обязательства стартапа по безопасности, а генеральный директор Сэм Альтман (Sam Altman) систематически вводил совет директоров в заблуждение.
Источник изображения: Levart_Photographer / unsplash.com Рози Кэмпбелл (Rosie Campbell), работавшая в команде по подготовке к сильному ИИ (AGI) с 2021 по 2024 год, сообщила что за это время OpenAI из исследовательской организации превратилась в коммерческую. Её команду расформировали, а группу Super Alignment, занимавшуюся контролем соблюдения ИИ человеческих ценностей, тоже закрыли. Кэмпбелл привела конкретный пример: Microsoft запустила версию GPT-4 в Индии через Bing без проверки Совета по безопасности развёртывания (DSB) OpenAI. На перекрёстном допросе адвокаты OpenAI добились от Кэмпбелл признания, что, по её «предположительному мнению», подход OpenAI к безопасности всё же лучше, чем у xAI — ИИ-компании Маска, которую SpaceX поглотила в начале 2026 года. Развёртывание GPT-4 в Индии стало одним из тревожных сигналов, которые подтолкнули совет директоров к кратковременному увольнению Альтмана в 2023 году. Перед этим на стиль руководства генерального директора жаловались сотрудники, в том числе бывший главный научный сотрудник Илья Суцкевер (Ilya Sutskever) и технический директор Мира Мурати (Mira Murati). По их словам, Альтман избегал конфликтов. Таша Макколи (Tasha McCauley), на тот момент член совета, рассказала суду, что Альтман вводил совет в заблуждение. Например, он солгал другому члену совета о намерениях Макколи уволить Хелен Тонер (Helen Toner), опубликовавшую аналитическую записку с критикой политики безопасности OpenAI, не предупредил совет о запуске ChatGPT в открытый доступ и не раскрывал возможные конфликты интересов. «У нас не было уверенности, что передаваемая нам информация позволяла принимать взвешенные решения», — заявила Макколи. Увольнение Альтмана, впрочем, совпало с предложением о выкупе акций у сотрудников. Персонал OpenAI поддержал Альтмана, а Microsoft стала добиваться восстановления прежнего порядка — в итоге совет отступил, и выступавшие против Альтмана заговорщики подали в отставку. Неспособность совета директоров повлиять на коммерческую структуру подкрепила тезис Маска о том, что превращение OpenAI из исследовательского проекта в одну из крупнейших частных компаний мира нарушило негласный договор её основателей. Дэвид Шайзер (David Schizer), бывший декан юридического факультета Колумбийского университета и приглашённый эксперт со стороны Маска, подчеркнул: «OpenAI заявляла, что безопасность — ключевая часть её миссии, и что безопасность будет приоритетнее прибыли. Если что-то должно пройти проверку на безопасность, она должна состояться. Суть в процедуре». Макколи заявила, что провалы управления в OpenAI должны стать доводом в пользу государственного регулирования ИИ: «Если всё сводится к тому, что решения принимает один генеральный директор, а на кону общественные интересы, — это крайне неудачная конструкция». Arm уже получает 15 % выручки от серверного направления и рассчитывает утроить её к 2031 году
08.05.2026 [07:22],
Алексей Разин
Вчерашнюю квартальную отчётную конференцию руководство Arm использовало для демонстрации оптимизма в отношении роста объёмов продаж серверных процессоров AGI, которые она впервые будет предлагать под собственной маркой. Позже стало известно, что серверное направление уже обеспечивает 15 % всей выручки Arm, и к 2031 году позволит увеличить её до $15 млрд.
Источник изображения: Arm В течение 2027 и 2028 годов Arm рассчитывает выручить от реализации серверных процессоров до $2 млрд. Для сравнения, совокупная выручка компании за прошлый фискальный год, который завершился в марте, достигла $4,92 млрд. К 2031 году Arm рассчитывает поднять этот показатель до $15 млрд, и результаты прошлого квартала позволяют руководству Arm с надеждой смотреть на достижение данной цели. Генеральный директор Рене Хаас (Rene Haas) подчеркнул, что высокая энергетическая эффективность её процессоров подогревает спрос на них. По его словам, потребители получают «в два раза более высокую производительность», приобретая решения Arm. Растёт влияние сегмента серверных и телекоммуникационных решений на бизнес Arm. В прошлом квартале профильная выручка компании выросла на 63 % в годовом сравнении и теперь она соответствует 15 % совокупной. Спрос на серверные чипы Arm огромен, как заявил Хаас в интервью телеканалу Bloomberg, указав в качестве клиентов компании на этом направлении Meta✴✴ Platforms, OpenAI, Cerebras Systems и SK Telecom. Всего за пять недель объём заказов на поставку серверных процессоров Arm удвоился до $2 млрд. Для новичка сегмента это очень достойный результат, но важно понимать, что в данном случае на Arm работает репутация опытного разработчика процессорных архитектур. Telegram получил большое обновление с ИИ — ботов теперь можно призвать в любой чат и другие нововведения
07.05.2026 [22:59],
Андрей Созинов
Telegram получил большое обновление, почти целиком посвящённое ИИ и автоматизации. В мессенджере появился гостевой режим для ботов, возможность общения ботов друг с другом, инструменты автоматизации чатов, а также поиск по более чем 100 млн эмодзи и стикеров. Заодно Telegram обновил опросы и инструменты модерации.
Источник изображений: Telegram Главным нововведением стал так называемый гостевой режим для ботов. Теперь ИИ-ботов можно вызывать прямо в любых личных и групповых чатах — достаточно упомянуть их через @username в сообщении. После этого бот сможет ответить в том же чате: например, найти информацию, сгенерировать текст или картинку, проверить информацию или выполнить другую задачу. При этом Telegram подчёркивает, что такие боты получают доступ только к сообщениям, где их упомянули, и не видят остальную переписку. Ещё одно важное изменение касается взаимодействия между самими ботами. Теперь Telegram разрешил ботам отвечать другим ботам, что открывает дорогу для создания целых цепочек из автономных ИИ-агентов и автоматизации рабочих сценариев. Например, один бот сможет собирать данные, второй — анализировать их, а третий — публиковать результат в чате, и всё без участия человека. Также разработчики улучшили отображение ответов от ботов. Сообщения теперь могут выводиться постепенно, по мере генерации текста, — аналогично тому, как это реализовано в современных ИИ-чатах. Telegram отмечает, что благодаря обновлениям Bot API ответы стали появляться быстрее и получили новые анимации. Ещё в Telegram появилась функция автоматизации чатов. Пользователи могут подключить бота к своему профилю и разрешить ему отвечать на сообщения от их имени. При этом можно гибко настроить, к каким именно чатам получит доступ бот — например, только к новым диалогам или к перепискам с незнакомыми пользователями. Настройка находится в разделе «Автоматизация чатов». Telegram также расширил возможности встроенного ИИ-редактора текста. Теперь пользователи смогут создавать собственные стили для ИИ-редактора сообщений, задавая набор инструкций для оформления текста. Такие стили можно сохранять и делиться ими по ссылке. Компания считает, что функция пригодится как сообществам с локальными мемами, так и командам, которым важно поддерживать единый стиль публикаций. Ещё одним заметным нововведением стал расширенный поиск по эмодзи и стикерам. Telegram заявляет, что пользователям теперь доступны более 100 млн стикеров и эмодзи, созданных сообществом. Поиск работает на 36 языках, а для автоматической разметки и индексации изображений используются ИИ-модели на базе сети Cocoon. Обновление затронуло и систему опросов. Администраторы групп и каналов получили доступ к интерактивной статистике голосования с графиками изменения голосов во времени. Правда, функция работает только для опросов, набравших более 100 голосов. Кроме того, теперь можно ограничивать участие в опросах — например, разрешать голосовать только подписчикам канала или пользователям из определённых стран. ![]() ![]() Среди менее крупных изменений — возможность отправлять отложенные сообщения без звукового уведомления и новые инструменты модерации. Администраторы групп теперь могут удалять реакции отдельных пользователей, а при необходимости — сразу все реакции конкретного участника. Кроме новых функций, Telegram сообщил о более чем 200 исправлениях и мелких улучшениях во всех версиях приложения. AMD выпустила ИИ-ускоритель Instinct MI350P с 144 Гбайт HBM3E, PCIe 5.0 x16 и потреблением 600 Вт
07.05.2026 [21:43],
Николай Хижняк
Компания AMD выпустила специализированный графический ускоритель Instinct MI350P в формате карты расширения PCIe. Новинка предназначена для серверов с воздушным охлаждением и ориентирована на развёртывание систем логического вывода для искусственного интеллекта, не требующих полноценной платформы OAM.
Источник изображений: AMD В составе Instinct MI350P используется графический чип со 128 исполнительными блоками, 8192 потоковыми процессорами и 512 матричными ядрами. AMD заявляет для GPU максимальную частоту 2,2 ГГц. Формально Instinct MI350P представляет собой наполовину урезанную версию Instinct MI350X. Карта получила 144 Гбайт памяти HBM3E с поддержкой 4096-битной шины. Для памяти заявляется пиковая пропускная способность на уровне 4 Тбайт/с. Также ускоритель оснащён 128 Мбайт кеш-памяти последнего уровня и поддерживает функцию ECC (коррекции ошибок) для памяти. Особенности Instinct MI350P
AMD заявляет для Instinct MI350P производительность до 4,6 Пфлопс при работе с матрицами MXFP4 или MXFP6. Карта также обеспечивает производительность 2,3 Пфлопс при работе с матрицами MXFP8 и OCP-FP8, 1,15 Пфлопс — при работе с матрицами FP16 и BF16 и 36 Тфлопс — при работе с матрицами FP64. Благодаря структурированной разреженности некоторые показатели производительности при работе с 8-битными и 16-битными числами удваиваются. Толщина ускорителя Instinct MI350P составляет два слота расширения, длина карты — 267 мм. Для работы новинка использует интерфейс PCIe 5.0 x16. Подача дополнительного питания на карту обеспечивается через разъём 12V-2×6. Стандартный показатель энергопотребления ускорителя составляет 600 Вт, однако его можно настроить на режим потребления 450 Вт. ИИ с «глазами» оказался в разы дороже обычного API — агенты сжигают бюджеты, ходя по сайтам
07.05.2026 [17:44],
Павел Котов
Компании, которые используют агентов искусственного интеллекта, могут потратить значительно больше денег, если эти агенты оперируют визуальными данными, имитируя человеческое зрение.
Источник изображения: reflex.dev Специалисты платформы корпоративных приложений Reflex сравнили визуальных ИИ-агентов с теми, что осуществляют доступ к внешним ресурсам через API. Обоими агентами управляла нейросеть Anthropic Claude Sonnet: в первом случае она контролировала Python-фреймворк browser-use 0.12 для автоматизированной работы с браузером; во втором — обращалась к тем же веб-приложениям по API. При обращении по API агент вызывал те же механизмы обработки, что при работе с пользовательским интерфейсом, но получал в ответ структурированные данные, а не скриншот веб-страницы, который требовалось дополнительно анализировать. Обоим агентам организаторы эксперимента дали задание: «Клиент по имени Смит пожаловался на недавний заказ. Найди Смита с наибольшим количеством заказов, прими все его отзывы на модерации и отметь последний как доставленный». ИИ-агент с обращением по API выполнил задачу за восемь запросов к ИИ-модели; визуальный вариант нашёл только один из четырёх ожидающих отзывов — остальные три он пропустил, потому что не догадался прокрутить страницу. Когда условия задачи упростили в угоду визуальному ИИ-агенту, тот выполнял её около 17 минут; вариант с обращением по API добился результата за 20 секунд и израсходовал в 45 раз меньше токенов модели ИИ. По оценкам Anthropic, обработка изображения размером 1000 × 1000 пикселей с помощью модели Claude Sonnet 4.6 расходует около 1334 токенов. Визуальный ИИ-агент израсходовал на выполнение задачи около 500 000 входных и около 38 000 выходных токенов; обращавшийся по API агент потратил около 12 150 входных и 934 выходных токенов. Авторы эксперимента сделали такой вывод: агентов с машинным зрением следует использовать только для работы с приложениями, которые пользователь не контролирует; внутренние процессы должны обрабатываться по API. Созданные с помощью ИИ сайты кишат уязвимостями — разработчики ИИ-сервисов валят всё на клиентов
07.05.2026 [15:45],
Павел Котов
Платформы Lovable, Base44, Replit и Netlify предлагают всем желающим за считанные секунды создавать при помощи искусственного интеллекта сайты и публиковать их — на тысячах таких ресурсов в общий доступ попадают конфиденциальные данные, пишет Wired со ссылкой на специализирующуюся в области кибербезопасности компанию RedAccess.
Источник изображения: Mohammad Rahmani / unsplash.com Эксперты изучили несколько тысяч сгенерированных ИИ сайтов и обнаружили, что более 5000 из них не имеют какой-либо защиты и даже лишены механизмов аутентификации. При наличии одного лишь адреса сайта во многих случаях оказалось возможным получить доступ к программной части и файлам данных; некоторые открывали эти данные после авторизации с помощью любого адреса электронной почты. Около 40 % ресурсов раскрывали конфиденциальную информацию. Найти такие сайты оказалось несложно: Lovable, Replit, Base44 и Netlify размещают их на собственных поддоменах, а не только по адресам клиентов — достаточно было произвести поиск в Google и Bing с указанием этих поддоменов и других нехитрых запросов. Исследователи обнаружили рабочие планы медицинских учреждений с личной информацией врачей, подробную информацию о закупке рекламы, записи о продажах и грузоперевозках, переписки продавцов с клиентами, содержащие полные имена и контактную информацию последних и многое другое. В ряде случаев исследователи без особого труда получили привилегии администраторов на этих сайтах. На платформе Lovable было обнаружено множество фишинговых ресурсов, выполненных в стиле официальных сайтов Bank of America, Costco, FedEx, Trader Joe’s и McDonald’s. В Netlify комментариев по поводу инцидента не дали; в Replit и Base44 заявили, что пользователи сами выбрали публикацию данных в общем доступе — его можно закрыть в настройках учётных записей клиентов. В Lovable сообщили, что проводят расследование по поводу обнаруженных на платформе поддельных фишинговых ресурсов. Эксперты RedAccess связались с некоторыми клиентами этих платформ и сообщили им о выявленных уязвимостях. Некоторые из них поблагодарили специалистов в области кибербезопасности, после чего либо обеспечили защиту данных, либо удалили эти ресурсы. Выяснить, сколько аналогичных уязвимых сайтов размещаются на собственных доменах компаний, не удалось. Ситуация будет только усугубляться, считают эксперты: ИИ позволяет создавать не только сайты, но и генерирует код любых других приложений — и эти приложения зачастую оказываются не менее уязвимыми. Google объяснила, как ИИ читает Gmail — и что делает с данными
07.05.2026 [15:18],
Анжелла Марина
Google опровергла слухи о том, что содержимое пользовательских ящиков Gmail используется для обучения искусственного интеллекта Gemini. В компании пояснили, что алгоритмы анализируют личную переписку исключительно для предоставления контекстных подсказок и персонализированных ответов в рамках новых функций сервиса. Однако есть нюансы.
Источник изображения: Google Интеграция ИИ в почтовый клиент включает инструменты для составления текста и автоматического обзора входящих сообщений. Особое внимание привлекает функция «Персональный интеллект» (Personal Intelligence), позволяющая Gemini связывать данные из разных приложений. Например, нейросеть может сопоставить историю просмотров на YouTube с недавними сообщениями от друзей. Для работы таких механизмов алгоритм получает доступ к обширным массивам личной информации, хранящейся в экосистеме Google, включая архивы фотографий и историю активности. Несмотря на заявления компании о безопасности данных, процесс обработки информации имеет нюансы, важные для понимания политики конфиденциальности. В частности, Google уточняет, что хотя письма и файлы не передаются в обучающую выборку ИИ-модели, сводки и сгенерированные медиаматериалы могут использоваться для улучшения качества будущих ответов ИИ. То есть, определённые аспекты пользовательских данных всё же влияют на обучение алгоритмов, пусть и в обезличенном или агрегированном виде через промежуточные результаты работы нейросети. Поводом для возобновления дискуссии о приватности стали вирусные публикации в социальных сетях, в том числе от предпринимателя Лори Грейнер (Lori Greiner), выразившей обеспокоенность доступом ИИ к личной переписке. В ответ в Google подчеркнули, что все расширенные функции анализа данных являются добровольными и требуют активного согласия пользователя. Компания также предоставила инструкции по полному отключению ИИ-функций в настройках Gmail, однако предупредила, что это ограничение деактивирует ряд полезных инструментов, таких как автоматическая категоризация входящих сообщений. Даже хакеры устали от нейросетей: их форумы захлестнула ИИ-бурда
07.05.2026 [13:34],
Павел Котов
Хакеры, мошенники и другие киберпреступники стали жаловаться на ИИ-бурду, которая заполонила не только традиционные соцсети, но и закрытые форумы, где они обсуждают кибератаки и другую незаконную деятельность, пишет Wired.
Источник изображения: JC Gellidon / unsplash.com Пользователи хакерских форумов начали жаловаться на то, что администраторы этих ресурсов взимают деньги и пытаются развернуть на платформах функции генеративного искусственного интеллекта. Рядовых пользователей этих ресурсов раздражают вторжение ИИ в их жизнь и огромные объёмы низкокачественных ИИ-материалов, которые публикуются в сообществах. К такому выводу пришли по результатам недавно проведённого исследования (PDF) учёные Эдинбургского университета (Великобритания). Они проанализировали 97 895 посвящённых ИИ переписок с момента запуска ChatGPT в ноябре 2022 до конца минувшего года. Пользователи хакерских ресурсов жалуются на то, что в сообществах публикуются сводки основных концепций кибербезопасности, на количество постов низкого качества и выражают обеспокоенность тем, что ИИ-обзоры в поиске Google снижает число посетителей форумов. На протяжении десятилетий эти форумы и торговые площадки стали платформами для ведения незаконного бизнеса: здесь хакеры обмениваются украденными данными, размещают объявления о своих услугах — и клевещут друг на друга. Несмотря на особую атмосферу этих сообществ и попытки обманывать друг друга, здесь также царит чувство общности. Пользователи нарабатывают себе репутацию, а администрации ресурсов проводят конкурсы. Пользователь одного из таких ресурсов выразил негодование, что другие участники сообщества публикуют сообщения, созданные с помощью ИИ, не тратя времени и сил, чтобы собственными силами написать хотя бы одну или две фразы. Другой указал, что приходит на форум за человеческим общением, а для переписки с ИИ мог бы открыть один из множества других сайтов.
Источник изображения: Philipp Katzenberger / unsplash.com С момента появления ChatGPT интерес к киберпреступной деятельности с использованием ИИ значительно возрос — он оказался востребован как опытными, так и начинающими хакерами. ИИ используется для создания дипфейков, атак с использованием методов социальной инженерии, перевода, написания кода и поиска уязвимостей. Вот только написанные ИИ хакерские продукты вызывают недоверие — у них обнаруживаются слабые места и уязвимости, через которые подчас удаётся раскрыть базовую инфраструктуру хакеров. Одни киберпреступники порой указывают другим, что те только и могут, что пользоваться ИИ. Впрочем, явно негативных эффектов ИИ в хакерском сообществе пока не отмечается: значительного снижения порога входа в «отрасль» пока не произошло, не обнаружено и серьёзных сбоев в работе бизнес-моделей и прочих действий. Чаще всего киберпреступники используют ИИ в областях, которые и без того были в значительной мере автоматизированы: в SEO-мошенничестве, в управлении ботами в соцсетях и в мошеннических схемах на сайтах знакомств. Некоторые хакеры указали, что хотели бы поработать с ИИ, который помогал бы им лучше формулировать мысли и писать грамотнее. Обсуждается идея запуска работающих с помощью ИИ торговых площадок для киберпреступников, но эту идею поддерживают далеко не все — у некоторых сформировалось стойкое предубеждение в отношении ИИ. Google DeepMind будет обучать ИИ в космической песочнице EVE Online
07.05.2026 [13:32],
Владимир Мироненко
Google DeepMind, исследовательская лаборатория в области искусственного интеллекта (входит в холдинг Alphabet), приобрела миноритарную долю в разработчике популярного научно-фантастического симулятора EVE Online, планируя использовать игру для изучения «искусственного интеллекта в сложных, динамичных, управляемых игроками системах».
Источник изображения: eveonline.com Как сообщает Ars Technica, соглашение о партнёрстве в области исследований было заключено после того, как разработчик EVE Online, компания CCP Games выкупила свою долю у бывших владельцев из южнокорейского издательства Pearl Abyss (Crimson Desert), чтобы далее работать в качестве независимой компании под новым брендом Fenris Creations. DeepMind и Fenris Creations указали в совместном заявлении, что EVE Online представляет собой «уникально богатую среду для исследований», особенно, когда речь идёт о разработке систем ИИ, использующих «долгосрочное планирование, память и непрерывное обучение». DeepMind сообщила, что проведёт контролируемые эксперименты со своими моделями в специально разработанной офлайн-версии игры, работающей на локальном сервере, без прямого влияния на игровой процесс для онлайн-игроков. Обе компании «также изучат новые игровые возможности, которые станут доступны благодаря этим технологиям». Google DeepMind и ранее использовала игры для проверки моделей машинного обучения, такие, как Го, Atari VCS и StarCraft. В последнее время компания использует модели «виртуального мира» для обучения ИИ-систем работе в физической реальности. По словам гендиректора Fenris, изучение EVE позволит моделям Google DeepMind исследовать «сложные проблемы, длительные временные рамки и новые возможности». Anthropic занялась повышением привлекательности ИИ-бота Claude для простых пользователей
07.05.2026 [13:26],
Алексей Разин
Изначально Anthropic свои ИИ-решения ориентировала главным образом на корпоративных клиентов, поскольку это обеспечивало более быстрый рост как пользовательской базы, так и выручки. Теперь же компания решила сделать чат-бот Claude более привлекательным для рядовых пользователей, сообщает Bloomberg.
Источник изображения: Anthropic В этом признался Майк Кригер (Mike Krieger), который возглавляет одну из лабораторий Anthropic, работающих над экспериментами с совершенствованием Claude. С прошлого года компания поручила своим специалистам научить чат-бота более качественной обработке запросов частного характера — например, имеющим отношение к здоровью, путешествиям и кулинарным рецептам. По словам Кригера, которые прозвучали из его уст на конференции для разработчиков в Сан-Франциско, сейчас Anthropic сконцентрирована на повышении качества и скорости работы чат-бота, а также устранении шероховатостей. В частности, ведётся работа по сокращению времени, необходимого для формирования и отправки пользовательских запросов после запуска мобильного приложения. Разработчикам Claude удалось сократить это время с прежних пяти-шести секунд до одной. Запущенный в 2023 году чат-бот Anthropic довольно быстро завоевал расположение рядовых пользователей, поскольку помимо рекламы в США, этому способствовали некоторые «вирусные истории» и даже скандал с исключением компании из числа доверенных поставщиков Пентагона. Сейчас Claude в магазине приложений Apple App Store находится на втором месте по популярности после ChatGPT конкурирующей OpenAI, обходя при этом Google Gemini. К марту Claude привлекал более 1 млн новых пользователей ежедневно. Сейчас, на волне такой популярности, Anthropic даже испытывает нехватку вычислительных мощностей. Спрос на ИИ-услуги Anthropic в первом квартале взлетел в 80 раз, поэтому ей и понадобился суперкомпьютер Маска
07.05.2026 [12:04],
Алексей Разин
В отличие от конкурирующей OpenAI, компания Anthropic старается более вдумчиво вкладываться в расширение вычислительных мощностей, и это сказывается на её возможности соответствовать спросу на ИИ-решения в условиях бума. Глава Anthropic признался, что спрос на услуги компании в первом квартале взлетел в 80 раз, а потому она испытывает дефицит вычислительных мощностей.
Источник изображения: Anthropic На конференции для разработчиков в Сан-Франциско генеральный директор Anthropic Дарио Амодеи (Dario Amodei) признался, что в первом квартале текущего года компания рассчитывала на десятикратный рост спроса и вычислительной нагрузки, но в действительности её пришлось столкнуться с 80-кратным. В такой же пропорции возросла и выручка относительно аналогичного периода прошлого года, но проблемы нехватки мощностей это не решило. «По этой причине у нас возникли трудности с вычислениями», — заявил Амодеи, тут же отметив, что компания работает максимально активно над расширением вычислительных мощностей и предоставления доступа к ним своим клиентам. Вчера Anthropic заключила сделку с SpaceX, которая позволит ей использовать мощности ЦОД в Мемфисе. Это позволит первой из компаний распоряжаться 300 МВт вычислительных мощностей площадки Colossus 1. Сама SpaceX также оставляет за собой право эксплуатировать данные вычислительные мощности в собственных интересах, но основным для неё является суперкомпьютер Colossus 2. Взрывной спрос на услуги Anthropic во многом связаны с успехом ИИ-модели Claude Code, которая позволяет ускорить процесс разработки программного обеспечения. Anthropic активно привлекает средства инвесторов, и текущую капитализацию стартапа они оценивают примерно в $900 млрд. По словам Амодеи, именно инженерные специалисты в сфере создания ПО работают на переднем крае технологий, позволяя понять, как ИИ будет внедряться в прочих отраслях экономики. Помимо сделки с SpaceX, стартап некоторое время назад заключил и долгосрочное соглашение с Amazon (AWS). Текущие темпы экспансии бизнеса глава Anthropic назвал «трудными для обуздания» и выразил надежду, что дальше всё пойдёт более предсказуемо. Google закрыла разработку ИИ-агента для сложных задач в интернете Project Mariner
07.05.2026 [11:18],
Павел Котов
Компания Google сообщила о прекращении работы над Project Mariner — агентом искусственного интеллекта, предназначенного для автономного выполнения задач в интернете.
Источник изображения: Google «Спасибо, что пользовались Project Mariner. Он был закрыт 4 мая 2026 года, и его технология перешла в другие продукты Google», — гласит сообщение на странице проекта. Поисковый гигант представил Project Mariner в декабре 2024 года; некоторое время спустя ИИ-агент получил обновление, позволявшее ему выполнять до десяти задач одновременно. За последний год Google интегрировала функции Project Mariner в другие сервисы ИИ. Gemini Agent, например, научился архивировать электронные письма от имени пользователя или бронировать для него гостиницы. Некоторые функции Project Mariner перекочевали в поисковый «Режим ИИ». В этом году Google представила функции «автоматического браузера» в Chrome — это тоже ИИ-агент, способный выполнять многоэтапные задачи. Компания не уточнила, работает ли данная функция на основе технологий Project Mariner, но она стала ответом на решения от OpenAI, Perplexity и OpenClaw. Возможно, на смену этому проекту придут новые функции ИИ, о которых компания расскажет на конференции Google I/O, которая откроется 19 мая. Маск пытался подмять по себя OpenAI и «купить» Альтмана местом в совете директоров Tesla
07.05.2026 [11:10],
Алексей Разин
Из материалов судебных заседаний на этой неделе стало известно, что в 2017 году Илон Маск (Elon Musk) рассчитывал получить контроль над стартапом OpenAI, и ради достижения этой цели даже не слишком противился идее создания коммерческой структуры. Новые свидетельства участников процесса говорят, что Маск даже собирался предложить Сэму Альтману (Sam Altman) в совете директоров Tesla, если бы удалось подмять OpenAI.
Источник изображения: Unsplash, Levart_Photographer Как поясняет Bloomberg, об этом стало известно из показаний Шивон Зилис (Shivon Zilis), бывшего члена совета директоров OpenAI и приближённой к Маску соратницы. По её словам, в конце 2017 года идея о предоставлении главе OpenAI Альтману места в совете директоров Tesla всерьёз рассматривалась Илоном Маском. Вчера также стало известно, что в надежде на благосклонность руководства OpenAI в вопросах реструктуризации Маск также одарил некоторых его представителей электромобилями Tesla, но диалог в итоге не сложился. Маск в тот период рассматривал идею превращения OpenAI в подразделение Tesla, которое занималось бы разработками в сфере ИИ. Зилис не только является матерью четырёх детей Илона Маска, но и занимает руководящий пост в стартапе Neuralink, который также принадлежит Маску и разрабатывает мозговые импланты для реализации «телепатической» связи между головным мозгом человека и компьютером. Адвокат OpenAI заявил на этой неделе, что у него имеются документальные доказательства намерений Илона Маска предоставить Сэму Альтману пост в совете директоров Tesla в случае реализации своего плана реструктуризации, который фактически подразумевал поглощение OpenAI. Данную инициативу Маска представитель OpenAI назвал «умасливанием» и «побуждением» к совершению желанных для миллиардера действий со стороны тогдашнего руководства стартапа. После неудачи в этой попытке Маск покинул совет директоров OpenAI и был настроен негативно в отношении последующей активности стартапа. Суду было предъявлено письмо Шивон Зилис, касающееся мероприятия по созданию ИИ-лаборатории в составе Tesla, которое планировалось провести в 2017 году. Как пояснила Зилис, идея действительно витала в воздухе, но так и не была реализована. По мнению представителей OpenAI, в начале 2018 года Илон Маск пытался склонить бывших соратников по стартапу перейти на работу в Tesla, чтобы продолжить создание «сильного искусственного интеллекта» уже на новом месте. Зилис не смогла подтвердить, что идея обсуждалась именно в 2017 году. Свои показания на этой неделе дала и бывший технический директор OpenAI Мира Мурати (Mira Murati), которая после скандала с временной отставкой Сэма Альтмана основала собственный ИИ-стартап. Впрочем, её высказывания в большей степени затрагивали психологическую атмосферу внутри OpenAI, чем взаимодействие с Илоном Маском как таковым. По словам Мурати, её беспокоило то, что Сэм Альтман говорил одним людям одно, а другим — совершенно другое, и это порождало атмосферу взаимного недоверия среди руководства стартапа. Она утверждает, что действия Альтмана сеяли хаос, и лично у неё зарождали ощущение, что он обманывает многих. Как призналась Мурати, Альтман стравливал руководителей OpenAI друг с другом и подрывал её личный авторитет в статусе технического директора стартапа. Всё это не помешало Мурати настаивать на более серьёзном обосновании отставки Альтмана, когда до этого дошло дело в 2023 году. Она переживала, что без Альтмана стартап развалится по частям и хотела, чтобы он оставался генеральным директором. Шивон Зилис добавила, что совет директоров OpenAI в 2022 году выразил недовольство тем фактом, что Альтман выпустил на рынок ChatGPT без подробного согласования с этим органом правления. Она также добавила, что у неё лично имелись некоторые претензии к поведению Альтмана в тот период, и она обсуждала их с коллегами по совету директоров OpenAI. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |