Сегодня 07 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

Созданные с помощью ИИ сайты кишат уязвимостями — разработчики ИИ-сервисов валят всё на клиентов

Платформы Lovable, Base44, Replit и Netlify предлагают всем желающим за считанные секунды создавать при помощи искусственного интеллекта сайты и публиковать их — на тысячах таких ресурсов в общий доступ попадают конфиденциальные данные, пишет Wired со ссылкой на специализирующуюся в области кибербезопасности компанию RedAccess.

 Источник изображения: Mohammad Rahmani / unsplash.com

Источник изображения: Mohammad Rahmani / unsplash.com

Эксперты изучили несколько тысяч сгенерированных ИИ сайтов и обнаружили, что более 5000 из них не имеют какой-либо защиты и даже лишены механизмов аутентификации. При наличии одного лишь адреса сайта во многих случаях оказалось возможным получить доступ к программной части и файлам данных; некоторые открывали эти данные после авторизации с помощью любого адреса электронной почты. Около 40 % ресурсов раскрывали конфиденциальную информацию.

Найти такие сайты оказалось несложно: Lovable, Replit, Base44 и Netlify размещают их на собственных поддоменах, а не только по адресам клиентов — достаточно было произвести поиск в Google и Bing с указанием этих поддоменов и других нехитрых запросов. Исследователи обнаружили рабочие планы медицинских учреждений с личной информацией врачей, подробную информацию о закупке рекламы, записи о продажах и грузоперевозках, переписки продавцов с клиентами, содержащие полные имена и контактную информацию последних и многое другое. В ряде случаев исследователи без особого труда получили привилегии администраторов на этих сайтах.

На платформе Lovable было обнаружено множество фишинговых ресурсов, выполненных в стиле официальных сайтов Bank of America, Costco, FedEx, Trader Joe’s и McDonald’s. В Netlify комментариев по поводу инцидента не дали; в Replit и Base44 заявили, что пользователи сами выбрали публикацию данных в общем доступе — его можно закрыть в настройках учётных записей клиентов. В Lovable сообщили, что проводят расследование по поводу обнаруженных на платформе поддельных фишинговых ресурсов.

Эксперты RedAccess связались с некоторыми клиентами этих платформ и сообщили им о выявленных уязвимостях. Некоторые из них поблагодарили специалистов в области кибербезопасности, после чего либо обеспечили защиту данных, либо удалили эти ресурсы. Выяснить, сколько аналогичных уязвимых сайтов размещаются на собственных доменах компаний, не удалось. Ситуация будет только усугубляться, считают эксперты: ИИ позволяет создавать не только сайты, но и генерирует код любых других приложений — и эти приложения зачастую оказываются не менее уязвимыми.

Google объяснила, как ИИ читает Gmail — и что делает с данными

Google опровергла слухи о том, что содержимое пользовательских ящиков Gmail используется для обучения искусственного интеллекта Gemini. В компании пояснили, что алгоритмы анализируют личную переписку исключительно для предоставления контекстных подсказок и персонализированных ответов в рамках новых функций сервиса. Однако есть нюансы.

 Источник изображения: Google

Источник изображения: Google

Интеграция ИИ в почтовый клиент включает инструменты для составления текста и автоматического обзора входящих сообщений. Особое внимание привлекает функция «Персональный интеллект» (Personal Intelligence), позволяющая Gemini связывать данные из разных приложений. Например, нейросеть может сопоставить историю просмотров на YouTube с недавними сообщениями от друзей. Для работы таких механизмов алгоритм получает доступ к обширным массивам личной информации, хранящейся в экосистеме Google, включая архивы фотографий и историю активности.

Несмотря на заявления компании о безопасности данных, процесс обработки информации имеет нюансы, важные для понимания политики конфиденциальности. В частности, Google уточняет, что хотя письма и файлы не передаются в обучающую выборку ИИ-модели, сводки и сгенерированные медиаматериалы могут использоваться для улучшения качества будущих ответов ИИ. То есть, определённые аспекты пользовательских данных всё же влияют на обучение алгоритмов, пусть и в обезличенном или агрегированном виде через промежуточные результаты работы нейросети.

Поводом для возобновления дискуссии о приватности стали вирусные публикации в социальных сетях, в том числе от предпринимателя Лори Грейнер (Lori Greiner), выразившей обеспокоенность доступом ИИ к личной переписке. В ответ в Google подчеркнули, что все расширенные функции анализа данных являются добровольными и требуют активного согласия пользователя. Компания также предоставила инструкции по полному отключению ИИ-функций в настройках Gmail, однако предупредила, что это ограничение деактивирует ряд полезных инструментов, таких как автоматическая категоризация входящих сообщений.

Даже хакеры устали от нейросетей: их форумы захлестнула ИИ-бурда

Хакеры, мошенники и другие киберпреступники стали жаловаться на ИИ-бурду, которая заполонила не только традиционные соцсети, но и закрытые форумы, где они обсуждают кибератаки и другую незаконную деятельность, пишет Wired.

 Источник изображения: JC Gellidon / unsplash.com

Источник изображения: JC Gellidon / unsplash.com

Пользователи хакерских форумов начали жаловаться на то, что администраторы этих ресурсов взимают деньги и пытаются развернуть на платформах функции генеративного искусственного интеллекта. Рядовых пользователей этих ресурсов раздражают вторжение ИИ в их жизнь и огромные объёмы низкокачественных ИИ-материалов, которые публикуются в сообществах. К такому выводу пришли по результатам недавно проведённого исследования (PDF) учёные Эдинбургского университета (Великобритания). Они проанализировали 97 895 посвящённых ИИ переписок с момента запуска ChatGPT в ноябре 2022 до конца минувшего года. Пользователи хакерских ресурсов жалуются на то, что в сообществах публикуются сводки основных концепций кибербезопасности, на количество постов низкого качества и выражают обеспокоенность тем, что ИИ-обзоры в поиске Google снижает число посетителей форумов.

На протяжении десятилетий эти форумы и торговые площадки стали платформами для ведения незаконного бизнеса: здесь хакеры обмениваются украденными данными, размещают объявления о своих услугах — и клевещут друг на друга. Несмотря на особую атмосферу этих сообществ и попытки обманывать друг друга, здесь также царит чувство общности. Пользователи нарабатывают себе репутацию, а администрации ресурсов проводят конкурсы. Пользователь одного из таких ресурсов выразил негодование, что другие участники сообщества публикуют сообщения, созданные с помощью ИИ, не тратя времени и сил, чтобы собственными силами написать хотя бы одну или две фразы. Другой указал, что приходит на форум за человеческим общением, а для переписки с ИИ мог бы открыть один из множества других сайтов.

 Источник изображения: Philipp Katzenberger / unsplash.com

Источник изображения: Philipp Katzenberger / unsplash.com

С момента появления ChatGPT интерес к киберпреступной деятельности с использованием ИИ значительно возрос — он оказался востребован как опытными, так и начинающими хакерами. ИИ используется для создания дипфейков, атак с использованием методов социальной инженерии, перевода, написания кода и поиска уязвимостей. Вот только написанные ИИ хакерские продукты вызывают недоверие — у них обнаруживаются слабые места и уязвимости, через которые подчас удаётся раскрыть базовую инфраструктуру хакеров. Одни киберпреступники порой указывают другим, что те только и могут, что пользоваться ИИ.

Впрочем, явно негативных эффектов ИИ в хакерском сообществе пока не отмечается: значительного снижения порога входа в «отрасль» пока не произошло, не обнаружено и серьёзных сбоев в работе бизнес-моделей и прочих действий. Чаще всего киберпреступники используют ИИ в областях, которые и без того были в значительной мере автоматизированы: в SEO-мошенничестве, в управлении ботами в соцсетях и в мошеннических схемах на сайтах знакомств. Некоторые хакеры указали, что хотели бы поработать с ИИ, который помогал бы им лучше формулировать мысли и писать грамотнее. Обсуждается идея запуска работающих с помощью ИИ торговых площадок для киберпреступников, но эту идею поддерживают далеко не все — у некоторых сформировалось стойкое предубеждение в отношении ИИ.

Google DeepMind будет обучать ИИ в космической песочнице EVE Online

Google DeepMind, исследовательская лаборатория в области искусственного интеллекта (входит в холдинг Alphabet), приобрела миноритарную долю в разработчике популярного научно-фантастического симулятора EVE Online, планируя использовать игру для изучения «искусственного интеллекта в сложных, динамичных, управляемых игроками системах».

 Источник изображения: eveonline.com

Источник изображения: eveonline.com

Как сообщает Ars Technica, соглашение о партнёрстве в области исследований было заключено после того, как разработчик EVE Online, компания CCP Games выкупила свою долю у бывших владельцев из южнокорейского издательства Pearl Abyss (Crimson Desert), чтобы далее работать в качестве независимой компании под новым брендом Fenris Creations.

DeepMind и Fenris Creations указали в совместном заявлении, что EVE Online представляет собой «уникально богатую среду для исследований», особенно, когда речь идёт о разработке систем ИИ, использующих «долгосрочное планирование, память и непрерывное обучение». DeepMind сообщила, что проведёт контролируемые эксперименты со своими моделями в специально разработанной офлайн-версии игры, работающей на локальном сервере, без прямого влияния на игровой процесс для онлайн-игроков. Обе компании «также изучат новые игровые возможности, которые станут доступны благодаря этим технологиям».

Google DeepMind и ранее использовала игры для проверки моделей машинного обучения, такие, как Го, Atari VCS и StarCraft. В последнее время компания использует модели «виртуального мира» для обучения ИИ-систем работе в физической реальности.

По словам гендиректора Fenris, изучение EVE позволит моделям Google DeepMind исследовать «сложные проблемы, длительные временные рамки и новые возможности».

Anthropic занялась повышением привлекательности ИИ-бота Claude для простых пользователей

Изначально Anthropic свои ИИ-решения ориентировала главным образом на корпоративных клиентов, поскольку это обеспечивало более быстрый рост как пользовательской базы, так и выручки. Теперь же компания решила сделать чат-бот Claude более привлекательным для рядовых пользователей, сообщает Bloomberg.

 Источник изображения: Anthropic

Источник изображения: Anthropic

В этом признался Майк Кригер (Mike Krieger), который возглавляет одну из лабораторий Anthropic, работающих над экспериментами с совершенствованием Claude. С прошлого года компания поручила своим специалистам научить чат-бота более качественной обработке запросов частного характера — например, имеющим отношение к здоровью, путешествиям и кулинарным рецептам.

По словам Кригера, которые прозвучали из его уст на конференции для разработчиков в Сан-Франциско, сейчас Anthropic сконцентрирована на повышении качества и скорости работы чат-бота, а также устранении шероховатостей. В частности, ведётся работа по сокращению времени, необходимого для формирования и отправки пользовательских запросов после запуска мобильного приложения. Разработчикам Claude удалось сократить это время с прежних пяти-шести секунд до одной.

Запущенный в 2023 году чат-бот Anthropic довольно быстро завоевал расположение рядовых пользователей, поскольку помимо рекламы в США, этому способствовали некоторые «вирусные истории» и даже скандал с исключением компании из числа доверенных поставщиков Пентагона. Сейчас Claude в магазине приложений Apple App Store находится на втором месте по популярности после ChatGPT конкурирующей OpenAI, обходя при этом Google Gemini. К марту Claude привлекал более 1 млн новых пользователей ежедневно. Сейчас, на волне такой популярности, Anthropic даже испытывает нехватку вычислительных мощностей.

Спрос на ИИ-услуги Anthropic в первом квартале взлетел в 80 раз, поэтому ей и понадобился суперкомпьютер Маска

В отличие от конкурирующей OpenAI, компания Anthropic старается более вдумчиво вкладываться в расширение вычислительных мощностей, и это сказывается на её возможности соответствовать спросу на ИИ-решения в условиях бума. Глава Anthropic признался, что спрос на услуги компании в первом квартале взлетел в 80 раз, а потому она испытывает дефицит вычислительных мощностей.

 Источник изображения: Anthropic

Источник изображения: Anthropic

На конференции для разработчиков в Сан-Франциско генеральный директор Anthropic Дарио Амодеи (Dario Amodei) признался, что в первом квартале текущего года компания рассчитывала на десятикратный рост спроса и вычислительной нагрузки, но в действительности её пришлось столкнуться с 80-кратным. В такой же пропорции возросла и выручка относительно аналогичного периода прошлого года, но проблемы нехватки мощностей это не решило. «По этой причине у нас возникли трудности с вычислениями», — заявил Амодеи, тут же отметив, что компания работает максимально активно над расширением вычислительных мощностей и предоставления доступа к ним своим клиентам.

Вчера Anthropic заключила сделку с SpaceX, которая позволит ей использовать мощности ЦОД в Мемфисе. Это позволит первой из компаний распоряжаться 300 МВт вычислительных мощностей площадки Colossus 1. Сама SpaceX также оставляет за собой право эксплуатировать данные вычислительные мощности в собственных интересах, но основным для неё является суперкомпьютер Colossus 2. Взрывной спрос на услуги Anthropic во многом связаны с успехом ИИ-модели Claude Code, которая позволяет ускорить процесс разработки программного обеспечения. Anthropic активно привлекает средства инвесторов, и текущую капитализацию стартапа они оценивают примерно в $900 млрд.

По словам Амодеи, именно инженерные специалисты в сфере создания ПО работают на переднем крае технологий, позволяя понять, как ИИ будет внедряться в прочих отраслях экономики. Помимо сделки с SpaceX, стартап некоторое время назад заключил и долгосрочное соглашение с Amazon (AWS). Текущие темпы экспансии бизнеса глава Anthropic назвал «трудными для обуздания» и выразил надежду, что дальше всё пойдёт более предсказуемо.

Google закрыла разработку ИИ-агента для сложных задач в интернете Project Mariner

Компания Google сообщила о прекращении работы над Project Mariner — агентом искусственного интеллекта, предназначенного для автономного выполнения задач в интернете.

 Источник изображения: Google

Источник изображения: Google

«Спасибо, что пользовались Project Mariner. Он был закрыт 4 мая 2026 года, и его технология перешла в другие продукты Google», — гласит сообщение на странице проекта. Поисковый гигант представил Project Mariner в декабре 2024 года; некоторое время спустя ИИ-агент получил обновление, позволявшее ему выполнять до десяти задач одновременно. За последний год Google интегрировала функции Project Mariner в другие сервисы ИИ. Gemini Agent, например, научился архивировать электронные письма от имени пользователя или бронировать для него гостиницы. Некоторые функции Project Mariner перекочевали в поисковый «Режим ИИ».

В этом году Google представила функции «автоматического браузера» в Chrome — это тоже ИИ-агент, способный выполнять многоэтапные задачи. Компания не уточнила, работает ли данная функция на основе технологий Project Mariner, но она стала ответом на решения от OpenAI, Perplexity и OpenClaw. Возможно, на смену этому проекту придут новые функции ИИ, о которых компания расскажет на конференции Google I/O, которая откроется 19 мая.

Маск пытался подмять по себя OpenAI и «купить» Альтмана местом в совете директоров Tesla

Из материалов судебных заседаний на этой неделе стало известно, что в 2017 году Илон Маск (Elon Musk) рассчитывал получить контроль над стартапом OpenAI, и ради достижения этой цели даже не слишком противился идее создания коммерческой структуры. Новые свидетельства участников процесса говорят, что Маск даже собирался предложить Сэму Альтману (Sam Altman) в совете директоров Tesla, если бы удалось подмять OpenAI.

 Источник изображения: Unsplash, Levart_Photographer

Источник изображения: Unsplash, Levart_Photographer

Как поясняет Bloomberg, об этом стало известно из показаний Шивон Зилис (Shivon Zilis), бывшего члена совета директоров OpenAI и приближённой к Маску соратницы. По её словам, в конце 2017 года идея о предоставлении главе OpenAI Альтману места в совете директоров Tesla всерьёз рассматривалась Илоном Маском. Вчера также стало известно, что в надежде на благосклонность руководства OpenAI в вопросах реструктуризации Маск также одарил некоторых его представителей электромобилями Tesla, но диалог в итоге не сложился.

Маск в тот период рассматривал идею превращения OpenAI в подразделение Tesla, которое занималось бы разработками в сфере ИИ. Зилис не только является матерью четырёх детей Илона Маска, но и занимает руководящий пост в стартапе Neuralink, который также принадлежит Маску и разрабатывает мозговые импланты для реализации «телепатической» связи между головным мозгом человека и компьютером. Адвокат OpenAI заявил на этой неделе, что у него имеются документальные доказательства намерений Илона Маска предоставить Сэму Альтману пост в совете директоров Tesla в случае реализации своего плана реструктуризации, который фактически подразумевал поглощение OpenAI. Данную инициативу Маска представитель OpenAI назвал «умасливанием» и «побуждением» к совершению желанных для миллиардера действий со стороны тогдашнего руководства стартапа. После неудачи в этой попытке Маск покинул совет директоров OpenAI и был настроен негативно в отношении последующей активности стартапа.

Суду было предъявлено письмо Шивон Зилис, касающееся мероприятия по созданию ИИ-лаборатории в составе Tesla, которое планировалось провести в 2017 году. Как пояснила Зилис, идея действительно витала в воздухе, но так и не была реализована. По мнению представителей OpenAI, в начале 2018 года Илон Маск пытался склонить бывших соратников по стартапу перейти на работу в Tesla, чтобы продолжить создание «сильного искусственного интеллекта» уже на новом месте. Зилис не смогла подтвердить, что идея обсуждалась именно в 2017 году.

Свои показания на этой неделе дала и бывший технический директор OpenAI Мира Мурати (Mira Murati), которая после скандала с временной отставкой Сэма Альтмана основала собственный ИИ-стартап. Впрочем, её высказывания в большей степени затрагивали психологическую атмосферу внутри OpenAI, чем взаимодействие с Илоном Маском как таковым. По словам Мурати, её беспокоило то, что Сэм Альтман говорил одним людям одно, а другим — совершенно другое, и это порождало атмосферу взаимного недоверия среди руководства стартапа. Она утверждает, что действия Альтмана сеяли хаос, и лично у неё зарождали ощущение, что он обманывает многих.

Как призналась Мурати, Альтман стравливал руководителей OpenAI друг с другом и подрывал её личный авторитет в статусе технического директора стартапа. Всё это не помешало Мурати настаивать на более серьёзном обосновании отставки Альтмана, когда до этого дошло дело в 2023 году. Она переживала, что без Альтмана стартап развалится по частям и хотела, чтобы он оставался генеральным директором. Шивон Зилис добавила, что совет директоров OpenAI в 2022 году выразил недовольство тем фактом, что Альтман выпустил на рынок ChatGPT без подробного согласования с этим органом правления. Она также добавила, что у неё лично имелись некоторые претензии к поведению Альтмана в тот период, и она обсуждала их с коллегами по совету директоров OpenAI.

Эпидемию одиночества не вылечить ИИ-ботами — они лишь усиливают изоляцию

Одиночество толкает людей к ИИ-чат-ботам, но общение с ними лишь усиливает изоляцию. К такому выводу пришли психологи Данигэн Фолк (Dunigan Folk) и Элизабет Данн (Elizabeth Dunn), год наблюдавшие за 2149 взрослыми из четырёх англоязычных стран. Работа опубликована в журнале Psychological Science и ставит под сомнение надежды на то, что ИИ-компаньоны помогут справиться с эпидемией одиночества.

 Источник изображения: Kristina Tripkovic / unsplash.com

Источник изображения: Kristina Tripkovic / unsplash.com

Фолк и Данн четырежды за двенадцать месяцев опросили жителей Великобритании (50 %), США (28 %), Канады (14 %) и Австралии (8 %). Все четыре волны опросов прошли 979 человек, три — 466, две — 395, одну — 309. Средний возраст участников составил 40 лет, мужчин и женщин оказалось почти поровну. Каждый раз респондентов спрашивали, как часто за минувшие четыре месяца они обращались к ИИ-чат-ботам за советом по жизненным вопросам, вели с ними повседневные разговоры или просто искали компанию. Одновременно анкеты фиксировали уровень эмоциональной изоляции опрашиваемых и более широкий показатель их социальной связанности с окружающими. Исследователи учитывали и крупные события в жизни участников опроса: переезд, расставание, начало устойчивых романтических отношений, рождение ребёнка.

В каждой волне от 26 до 30 % опрошенных сообщали, что за предыдущие четыре месяца пользовались чат-ботами в социальных целях — например, обращались к ним за советом по жизненным вопросам, вели с ними повседневные разговоры или искали у них ощущение общения. При этом средняя частота таких обращений за год наблюдения статистически значимо не изменилась. Для эмоциональной изоляции ключевая закономерность оказалась двунаправленной: участники, которые чувствовали себя более эмоционально изолированными, через четыре месяца, как правило, чаще обращались к чат-ботам, а рост такого использования, в свою очередь, предсказывал более высокую эмоциональную изоляцию в следующей волне. Крупные жизненные события с последующим ростом обращений к ИИ-чат-ботам связаны не были.

С более широким показателем социальной связанности картина оказалась иной. Люди, ощущавшие более слабую связь с социальным окружением, тоже чаще обращались к чат-ботам четыре месяца спустя, однако само по себе такое использование не предсказывало статистически значимого дальнейшего снижения социальной связанности. Из всех жизненных событий только разрыв отношений был связан с последующим ослаблением социальной связанности, но обращений к ИИ-чат-ботам после него не прибавлялось. Остальные события — переезд, начало устойчивых романтических отношений, рождение ребёнка — не показали статистически значимой связи с последующей социальной связанностью.

Авторы предполагают, что люди могут снова и снова обращаться к ИИ-чат-ботам, потому что они доступны в любой момент и убедительно имитируют живое общение. Но такие сравнительно лёгкие и поверхностные контакты, по мнению Фолка и Данн, могут вытеснять более ценное общение с реальными людьми. У ИИ нет собственной внутренней жизни, поэтому он не способен на подлинную ответную откровенность, важную для полноценных долгосрочных человеческих отношений, и именно поэтому привязанность к чат-ботам может со временем не удовлетворять социальные потребности человека, а усиливать чувство одиночества.

«В совокупности эти результаты дают первые свидетельства того, что одиночество может побуждать людей искать общение с чат-ботами, но такое использование со временем способно усугублять чувство одиночества. Тем не менее мы призываем к осторожности в выводах, учитывая предварительный характер нашего анализа», — заключили авторы. Наблюдательный характер исследования не позволяет делать однозначных причинно-следственных выводов, а все данные получены из ответов самих участников, что не исключает систематических искажений.

Arm разворачивается к ИИ: спад в смартфонах компенсируют серверные чипы

Квартальный отчёт британского холдинга Arm, клиентом которого являются большинство разработчиков процессоров для смартфонов, подтвердил наметившуюся в условиях дефицита памяти тенденцию. Выручка Arm на направлении смартфонов будет снижаться, но в сегменте ИИ она собирается её заметно нарастить за счёт поставок специализированных процессоров собственной разработки.

 Источник изображения: Arm

Источник изображения: Arm

Напомним, в марте Arm представила свой собственный 136-ядерный процессор AGI, который призван проявить себя с лучшей стороны в сегменте агентских вычислений ИИ. Уже тогда Arm заявляла, что располагает заказами на поставку данных процессоров на общую сумму $1 млрд. На этой неделе руководство Arm заявило, что компания собирается выручить более $2 млрд на реализации процессоров AGI в течение 2027 и 2028 годов. По словам генерального директора Рене Хааса (Rene Haas), позиции Arm в качестве поставщика решений для центров обработки данных стремительно укрепляются.

В прошлом квартале, как отметил Хаас, объёмы поставок чипов для смартфонов в натуральном выражении начали сокращаться. Поскольку отрицательная динамика сконцентрирована в нижнем ценовом сегменте, на бизнесе Arm эта тенденция сказывается минимально, ибо компания получает лицензионные отчисления с реализации более дорогих процессоров, которые в денежном выражении перевешивают выручку в начальном ценовом сегменте. Кроме того, руководство Arm убеждено, что рост выручки в серверном сегменте с запасом компенсирует просадку на направлении смартфонов.

В прошлом фискальном квартале выручка Arm выросла на 20 % до $1,49 млрд. Лицензирование при этом принесло $819 млн, что выше ожидаемых рынком $775,6 млн. Роялти принесли оставшиеся $671 млн, но инвесторы рассчитывали в среднем на $693 млн. В текущем квартале Arm рассчитывает в целом выручить $1,26 млрд, что чуть выше консенсус-прогноза на уровне $1,25 млрд. Именно серверное направление будет тянуть выручку Arm вверх в сложившихся условиях, как ожидает руководство холдинга. Рене Хаас невольно вызвал падение курса акций Arm, признавшись, что компания обеспечила себя ресурсами и контрактами, необходимыми для производства собственных ИИ-чипов на сумму $1 млрд, а вот объёмы сверх этой планки она пока гарантировать не сможет. Как известно, мощности контрактных производителей сейчас сильно загружены в условиях бума ИИ, новым игрокам типа Arm тяжело получить необходимые квоты на выпуск продукции.

В Британии предлагают заставить компании платить за уволенных из-за ИИ — средства направят на переподготовку

Масштабное внедрение генеративного ИИ будет иметь серьёзные социальные последствия, ведь он грозит вытеснить целые профессии, затронув образ жизни десятков и миллионов людей. Один из бывших членов британского правительства считает, что государство за счёт налоговых поступлений должно переучивать тех людей, которые потеряют работу из-за ИИ.

 Источник изображения: Unsplash, Jeriden Villegas

Источник изображения: Unsplash, Jeriden Villegas

Такой точкой зрения поделился лорд Гас О’Доннелл (Gus O’Donnell), который в период с 2005 по 2011 годы возглавлял Государственную службу Великобритании, отвечающую за функционирование аппарата правительства страны. Выступая на этой неделе перед студентами в Кембридже, он выразил уверенность, что внедрение ИИ позволит существенно повысить производительность труда в государственном секторе экономики, но обратной стороной медали будет являться потеря рабочих мест множеством людей.

Логично было бы, по его мнению, использовать налоговые поступления от компаний и сотрудников, которые выиграли от внедрения ИИ, для переобучения тех, кто потерял своё рабочее место. «Победители» в этой сфере должны компенсировать неудачи проигравших, как убеждён бывший чиновник, иначе общего положительного эффекта от внедрения ИИ в экономике добиться будет невозможно. Он пока не представляет, как оптимальным образом реформировать налоговую систему в новых условиях, но убеждён, что зарабатывающие на ИИ больше компании и индивидуумы должны платить дополнительные налоги, которые и будут направляться на поддержку не сумевших «обуздать ИИ» участников рынка труда. Если кто-то потеряет работу из-за внедрения ИИ, его вины в этом не будет, а потому государственная поддержка является важным элементом социальной справедливости в такой ситуации.

В Великобритании сейчас попутно продвигается инициатива по переходу на использование цифрового удостоверения личности, при помощи которого граждане могли бы быстрее и эффективнее получать государственные услуги. Появление такого индивидуального идентификатора также упростит задачу анализа большого массива данных, связанных с каждым гражданином. По мнению О’Доннелла, члены британского правительства должны проходить обучение работе с ИИ. На первом этапе, по крайней мере, он сможет писать для них тексты публичных выступлений, которые будут производить на публику желаемый эффект.

Apple впервые за 30 лет тратит на разработки более 10 % выручки — чтобы догнать конкурентов в ИИ

Квартальная отчётность позволила выявить, что Apple впервые за 30 лет тратит на исследования и разработки более 10 % своей выручки. По итогам первого квартала текущего года этот показатель достиг 10,3 %. Профильные расходы Apple увеличились на треть в годовом сравнении до $11,42 млрд, хотя капитальные затраты остались умеренными.

 Источник изображения: Apple

Источник изображения: Apple

По мнению опрошенных CNBC аналитиков, всё это указывает на стремление Apple наверстать отставание от конкурентов в сфере искусственного интеллекта, поскольку это направление сейчас является для компании приоритетным с точки зрения разработок и исследований. В четвёртом квартале прошлого года Apple направила на НИОКР не более 7,6 % своей выручки, а год назад эта доля составляла 9 %. Темпы роста расходов в этой сфере вдвое опередили выручку — если последняя в первом квартале увеличилась на 17 %, то расходы на исследования выросли почти на 34 %.

Облачные гиганты, тем временем, наращивают расходы на исследования с сопоставимой скоростью — в среднем на 29 %, если рассматривать деятельность Google, Microsoft, Meta✴ и Amazon (AWS). Необходимость увеличения затрат на исследования в ходе квартального отчётного мероприятия подчеркнул генеральный директор Apple Тим Кук (Tim Cook), который в сентябре покинет свой пост, но продолжит участвовать в формировании стратегии компании, возглавив её совет директоров.

Аналитики Bank of America ожидают, что в текущем квартале доля расходов Apple на НИОКР по отношению к выручке также превысит 10 %, но во втором полугодии может слегка опуститься. В начале века, когда Apple выводила на рынок портативный мультимедийный проигрыватель iPod, доля расходов на исследования и разработки поднялась с 5 до 8 %. Впрочем, тогда масштабы бизнеса компании были иными: за весь 2003 фискальный год она потратила на НИОКР только $471 млн, а её выручка не превысила $6,21 млрд. Сейчас она столько же получает за одну неделю.

Капитальные расходы Apple при этом растут не столь активно. За два прошедших квартала она в совокупности потратила $4,3 млрд, причём в годовом сравнении это меньше прежних $6 млрд. С точки зрения ИИ-инфраструктуры Apple сильно полагается на Google, которая и несёт основное бремя капитальных затрат. В качестве временного решения такой альянс вполне разумен — при условии, что Apple позже предложит фирменные ИИ-модели и перейдёт на собственную вычислительную инфраструктуру хотя бы частично. Сейчас для компании важнее тратить на перспективные разработки, чем на вычислительные мощности, которые она может и арендовать у партнёров. Тем более, что Apple считает приоритетом развитие ИИ-вычислений на уровне конечных устройств, а не облака.

Anthropic и SpaceX договорились о сотрудничестве: создатель Claude арендует весь суперкомпьютер Colossus 1

Компании Anthropic и SpaceX объявили о стратегическом партнёрстве, согласно которому разработчик ИИ получит полный доступ ко всем вычислительным мощностям дата-центра Colossus 1 в Мемфисе. В рамках соглашения стороны также выразили заинтересованность в совместной разработке масштабных вычислительных систем, размещённых в космическом пространстве.

 Источник изображения: AI

Источник изображения: AI

По условиям сделки, как передаёт CNBC, Anthropic обеспечит себе более 300 мегаватт вычислительной мощности и свыше 220 000 GPU от Nvidia, что позволит напрямую улучшить производительность и надёжность услуг по подпискам Claude Pro и Claude Max. Руководство Anthropic также заявило о желании сотрудничать со SpaceX для создания инфраструктуры объёмом в несколько гигаватт для решения проблемы нехватки ресурсов, с которой компания столкнулась из-за высокого спроса на свои модели в последние месяцы.

Соглашение стало неожиданным поворотом после длительной публичной конфронтации между Илоном Маском (Elon Musk) и Anthropic. Ранее основатель SpaceX и xAI неоднократно жёстко критиковал конкурентов, утверждая, что они «ненавидят западную цивилизацию», однако на этой неделе он изменил своё мнение. После серии встреч с топ-менеджерами Anthropic Маск отметил высокий профессионализм сотрудников и их добрые намерения, заявив, что был «впечатлён».

Для Anthropic это соглашение станет способом преодоления инфраструктурного кризиса на фоне напряжённых отношений с властями США. Напомним, в марте Пентагон внёс разработчика Claude в чёрный список поставщиков из-за рисков для национальной безопасности. В ответ Anthropic подала в суд на администрацию Дональда Трампа (Donald Trump), пытаясь отменить решение Пентагона.

Мощности дата-центра Colossus 1, ставшего ключевым активом соглашения, теперь будут направлены на обслуживание нужд обоих партнёров, несмотря на то, что объект ранее подвергался критике и экологическим протестам из-за использования газовых турбин. Однако xAI и её дочерняя компания MZX Tech, которые установили эти турбины, утверждали, что они предназначены только для временного использования.

Сделка не означает сворачивание ИИ-амбиций Маска. Colossus 1 — не основной кластер для компаний Маска. xAI обучает модели (включая Grok) на Colossus 2, а сдача Colossus 1 в аренду — это монетизация «старого» актива.

Параллельно с объявлением о сделке Маск подтвердил, что компания xAI уже поглощена SpaceX и прекратит существование как отдельное юридическое лицо, продолжив работу под брендом SpaceXAI.

ИИ в поиске Google теперь читает Reddit — и цитирует оттуда экспертные мнения

Компания Google анонсировала масштабное обновление поисковой системы, которое изменит формат ИИ-обзоров (AI Overviews). Теперь в ответах нейросети будут появляться прямые цитаты из публичных обсуждений на форумах, в соцсетях и блогах, включая Reddit, а также ссылки на материалы из платных новостных подписок пользователя.

 Источник изображения: Shutter Speed/Unsplash

Источник изображения: Shutter Speed/Unsplash

По заявлению компании, ответы искусственного интеллекта будут включать превью мнений из публичных онлайн-дискуссий и первоисточников, сопровождая их именами авторов или названиями сообществ и направлены на помощь пользователям в поиске советов и личных мнений, которые часто ищут, добавляя слово «Reddit» к своим запросам.

Когда Google впервые дополнила свой поиск ответами нейросести, то пользователи восприняли это неоднозначно, быстро обнаружив, что ИИ не распознаёт сарказм и ссылается на сомнительные источники. Например, в одном из случаев ИИ посоветовал съедать «один маленький камень в день», опираясь на публикацию сатирического издания The Onion, а в другом — предложил добавить в пиццу клей, используя пост с Reddit.

Несмотря на значительные улучшения ИИ-алгоритмов, проблема галлюцинаций остаётся актуальной для технологий, основанных на больших языковых моделях (LLM). Недавно газета The New York Times выявила, что ИИ-обзоры дают верные ответы в девяти случаях из десяти. Однако для поисковой системы, обрабатывающей триллионы запросов ежегодно, даже небольшой процент ошибок означает сотни тысяч неточных результатов каждую минуту, создавая по факту риски для пользователей, ищущих объективную информацию, особенно в чувствительных темах, где цена ошибки может быть высока.

Anthropic наделила управляемых ИИ-агентов Claude «сновидениями» — в некотором роде

На конференции разработчиков Code with Claude компания Anthropic представила функцию, которую она называет «сновидениями» для управляемых ИИ-агентов Claude. В данном случае под «сновидениями» понимается процесс анализа недавних событий и выявления конкретных вещей, которые стоит сохранить в «памяти» для планирования будущих задач и взаимодействий.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Функция «сновидения» находится на стадии предварительного тестирования и доступна только для управляемых агентов (Managed Agents) на платформе Claude. Управляемые агенты представляют собой альтернативу более высокого уровня по сравнению с прямым использованием API-сообщений. Anthropic описывает их как «предварительно созданные, настраиваемые агентские модули, работающие в управляемой инфраструктуре». Они предназначены для ситуаций, когда необходимо, чтобы несколько агентов работали над задачей или проектом в течение нескольких минут или часов до получения конечного результата.

Anthropic описывает «сновидения» как запланированный процесс, в ходе которого просматриваются сессии и хранилища памяти, а также осуществляется отбор конкретных воспоминаний. Это важно, поскольку контекстные окна для языковых моделей ограничены, и важная информация может быть потеряна в ходе длительных проектов. В части чата многие модели используют процесс, называемый компактизацией, при котором длительные разговоры периодически анализируются, и модели пытаются удалить нерелевантную информацию из контекстного окна, сохраняя при этом то, что действительно важно для текущего разговора, проекта или задачи. Однако этот процесс обычно ограничен конкретным разговором с одним агентом. «Сновидения» — это периодически повторяющийся процесс, при котором прошлые сессии и хранилища памяти могут анализироваться разными агентами, а важные закономерности выявляются и сохраняются в памяти для будущего использования.

Пользователи смогут выбирать между автоматическим процессом и непосредственным просмотром изменений в памяти.

«Сновидения выявляют закономерности, которые отдельный агент не может увидеть самостоятельно, включая повторяющиеся ошибки, рабочие процессы, к которым сходятся агенты, и предпочтения, разделяемые всей командой. Они также реструктурируют память, чтобы она оставалась высокоинформативной по мере своего развития. Это особенно полезно для длительной работы и оркестровки нескольких агентов», — говорит Anthropic.

Разработчики могут запросить доступ к «сновидениям», пока она находится на стадии предварительного тестирования. Компания Anthropic также объявила, что две ранее анонсированные функции предварительного просмотра исследовательских проектов — «Результаты» и «Оркестровка многоагентных систем» — стали более широко доступны. Кроме того, Anthropic удвоит пятичасовые лимиты использования Claude Code для подписчиков тарифных планов Pro и Max, тем самым отвечая на многочисленные жалобы пользователей на недостаточное время сессий.


window-new
Soft
Hard
Тренды 🔥
Созданные с помощью ИИ сайты кишат уязвимостями — разработчики ИИ-сервисов валят всё на клиентов 28 мин.
Евросоюз намерен ограничить использование американских облаков для работы с конфиденциальными государственными данными 37 мин.
На «Яндекс» пожаловались в ФАС из-за изменений в поисковой выдаче 2 ч.
У Роскомнадзора нет ни планов, ни оснований для блокировки GTA, Red Dead Redemption, Battlefield, Fortnite и других популярных в России игр 3 ч.
Даже хакеры устали от нейросетей: их форумы захлестнула ИИ-бурда 3 ч.
Google DeepMind будет обучать ИИ в космической песочнице EVE Online 3 ч.
Anthropic занялась повышением привлекательности ИИ-бота Claude для простых пользователей 3 ч.
«Экономил ради этого целый год»: трейлер кроссовера Wuthering Waves и Cyberpunk: Edgerunners привёл фанатов в восторг 4 ч.
Спрос на ИИ-услуги Anthropic в первом квартале взлетел в 80 раз, поэтому ей и понадобился суперкомпьютер Маска 5 ч.
Новый хит Capcom: продажи экспериментального боевика Pragmata достигли двух миллионов копий 5 ч.