Опрос
|
реклама
Быстрый переход
Cloudflare закрыла ИИ-краулерам бесплатный доступ к сайтам — за сбор данных теперь придётся платить
01.07.2025 [15:54],
Владимир Фетисов
Крупнейший поставщик сетевых инфраструктурных сервисов Cloudflare объявил, что теперь будет по умолчанию блокировать веб-ботов, которые собирают данные для искусственного интеллекта, чтобы они не могли «получать доступ к контенту без разрешения или вознаграждения». Владельцы новых доменов могут запретить просмотр своего контента ИИ-краулерам, а некоторые издатели даже могут назначить плату за доступ таких систем к своим данным. ![]() Источник изображения: Mohamed Nohassi / Unsplash Для издателей компания Cloudflare запустила программу Pay Per Crawl, в рамках которой они могут устанавливать цену за доступ к публикуемому ими контенту, который анализируется сборщиками данных для ИИ. Разработчики ИИ-сервисов могут видеть стоимость сканирования контента и выбирать, нужно им это или нет. На данный момент участвовать в программе могут только «ведущие издатели и авторы контента». В Cloudflare уверены, что такой подход поможет ИИ-компаниям «использовать качественный контент правильным образом», т.е. с разрешения авторов и выплатой вознаграждения. Cloudflare и раньше помогала владельцам сайтов бороться с ИИ-сканерами. Компания разрешила веб-сайтам блокировать ботов, собирающих информацию для ИИ, ещё в 2023 году, но это помогало только в случае сканеров, соблюдающих условия, указанные в robots.txt. В прошлом году Cloudflare разрешила блокировать все ИИ-краулеры, теперь такая опция по умолчанию доступна для новых клиентов компании. В марте также была запущена функция, позволяющая перенаправлять ИИ-сканеры, мешая им анализировать контент без разрешения. По данным источника, новые ограничения Cloudflare одобрили несколько крупных издательств и онлайн-платформ, включая Associated Press, The Atlantic, Fortune, Stack Overflow и Quora. В компании отметили, что за последние несколько месяцев люди стали больше доверять ИИ, а это значит, что они перестают читать оригинальный контент. Там также добавили, что Cloudflare сотрудничает с ИИ-компаниями, чтобы помочь им верифицировать роботов-сборщиков данных и «чётко указывать свои цели». «Оригинальный контент — это то, что делает интернет одним из величайших изобретений, и мы должны объединиться, чтобы защитить его», — сказано в пресс-релизе Cloudflare. «Яндекс» открыл бесплатный доступ к своей лучшей нейросети YandexGPT 5 Pro через «Чат с Алисой»
01.07.2025 [11:54],
Владимир Мироненко
«Яндекс» сделал бесплатной свою нейросеть «Чат с Алисой» на базе большой языковой модели (LLM) YandexGPT 5 Pro, ежемесячная плата за доступ к которой составляла 100 руб., сообщил ресурсу РБК представитель компании. Как полагают в «Яндексе», это поможет привлечь новых пользователей, а также тех, что сейчас использует нейросети зарубежных разработчиков. ![]() Источник изображения: «Яндекс» Нейросеть доступна на её сайте, главной странице «Яндекса», в приложениях «Алиса» и «Яндекс с Алисой», а также в «Яндекс Браузере» для Android (обновление для десктопного «Браузера» и версии для iOS выйдет позже). По данным компании, «Алисой» в поиске и в чате ежемесячно пользуется более 43 млн зарегистрированных пользователей «Яндекса». Нейросеть поддерживает русский и английский языки. Пользователям доступен режим рассуждений и интернет-поиск по нескольким источникам. В бесплатном режиме обеспечена поддержка файлов в форматах pdf, txt, doc и docх, а также возможность генерировать изображения на улучшенной модели YandexART 2.5. Компания сохранит платную версию YandexGPT 5 Pro, но с другим набором функций. Нейросеть будет учитывать информацию о пользователе, которую тот сообщал о себе раньше, что сделает общение с «Алисой Про» более естественным. Чтобы ответы «Алисы» стали более релевантными, нужно авторизоваться в «Яндексе» в «Чате с Алисой» или сказать «Алиса, давай познакомимся» умной колонке или «ТВ Станции ». Также в «Алисе Про» доступен обновленный диалоговый тренажер английского языка, Live-режим (умная камера с возможностью задавать вопросы «Алисе»), возможность пользоваться наиболее мощными нейросетями компании без ограничений даже в периоды пиковой нагрузки, а также детские сценарии и образовательные игры, созданные совместно с «Яндекс Учебником». В настоящее время в мире по размеру аудитории и качеству генераций лидируют модель GPT-4o от OpenAI, Claude 3.5 Sonnet от Anthropic, китайские Qwen Max (Alibaba), а также R1 (DeepSeek), сообщил Ярослав Беспалов, руководитель группы «Мультимодальные архитектуры ИИ» лаборатории «Сильный ИИ в медицине» института AIRI. С учётом того, что китайский DeepSeek бесплатен, конкурировать с ним можно, только если предоставить бесплатный доступ к своим нейросетям, считает гендиректор VisionLabs («дочка» МТС) Дмитрий Марков. Он отметил, что помимо качества DeepSeek отличается простотой доступа и бесплатным пользованием, поэтому, если сейчас пользователи привыкнут к этой ИИ-модели, то переманить их в будущем будет намного сложнее. Эксперт также указал на уникальное преимущество российских нейросетей для бизнеса: они лучше иностранных справляются с рядом конкретных прикладных задач, потому что обучены на определённых данных. «Если “Яндекс” добьется того, что его нейросети будут что-то лучше делать на русском, то компания сможет переманить часть аудитории иностранных сервисов в России», — заявил Марков, добавив, что расширить аудиторию «Яндексу» может помочь совместимость с популярными сервисами и надёжность хранения данных с учётом того, что среди его пользователей большое число россиян. В «Яндексе» отметили, что мощностей инфраструктуры компании достаточно для резкого роста пользователей, а в случае чрезмерной нагрузки «Алиса» будет отвечать с помощью более простой модели Yandex GPT 5 Lite. Для сравнения, DeepSeek во время пиковых нагрузок может не отвечать. «Это был ошибочный выбор»: авторы The Alters подтвердили, что в игру попал ИИ-контент, и объяснили, как так получилось
30.06.2025 [22:36],
Дмитрий Рудь
Разработчики из польской 11 bit studios (This War of Mine, Frostpunk) выступили с официальным заявлением по поводу использования генеративного ИИ в создании научно-фантастического выживания The Alters. Напомним, на днях пользователи заметили в The Alters свидетельства использования генеративного ИИ (во внутриигровой записи на английском, в субтитрах на корейском и бразильском португальском), хотя описание в Steam об этом умалчивает. В 11 bit studios признали, что по недосмотру оставили сгенерированный ИИ текст во внутриигровой записи, которая видна на заднем плане одной из сцен (см. скриншот ниже). По словам разработчиков, это единичный подобный случай. ![]() Этим скриншотом студия хотела показать незначительность влияния сгенерированного ИИ текста на игровой опыт Что касается переведённых с помощью ИИ субтитров, то они сопровождают несколько добавленных в игру незадолго до релиза лицензированных роликов, локализовать которые традиционным способом у 11 bit studios не было времени. В студии решили не оставлять эти видео без перевода, поэтому обратились к ИИ с намерением после релиза заменить текст на адаптированный должным образом (работа уже в процессе). Студия признала, что «это был ошибочный выбор». Разработчики подчеркнули, что использовали ИИ-материалы лишь как временные и в очень ограниченном объёме. В то же время технологии развиваются, и 11 bit studios «активно перестраивает внутренние процессы под эту реальность». The Alters вышла 13 июня на PC (1510 рублей в Steam и EGS, GOG), PS5, Xbox Series X и S, а также в подписке Game Pass. Игра заслужила высокие оценки от критиков и «очень положительные» отзывы от пользователей Steam. «Абсолютно неприемлемо»: разработчики The Alters попались на использовании генеративного ИИ, и фанаты не рады
30.06.2025 [13:54],
Дмитрий Рудь
Научно-фантастическое выживание The Alters от авторов This War of Mine и Frostpunk из 11 bit studios собрало в Steam «очень положительные» отзывы, однако как минимум один элемент игры пользователям категорически не понравился. Как подметил участник форума Reddit под ником EarthlingKira, в англоязычной версии The Alters есть свидетельства использования генеративного ИИ, хотя описание на странице игры в Steam об этом умалчивает. «Конечно, вот переработанная версия с фокусом исключительно на научных и астрономических данных», — гласит внутриигровая запись в The Alters, которая выглядит как ответ чатбота на уточнение запроса по созданию научного текста. Как передают пользователи соцсетей, разработчики обращались к ИИ и для помощи с переводом The Alters на разные языки. В частности, португальский (бразильский вариант) и корейский. Вот, например, фраза, оставленная по ошибке в одном из диалогов бразильской версии игры: «Конечно! Текст, переведённый на бразильский португальский: "Всякий разговор между двумя людьми, правда? Так что мы —"». Пользователи раскритиковали 11 bit studios за небрежное исполнение текстовой составляющей The Alters и использование ИИ без соответствующего уведомления. «Абсолютно неприемлемо», — считает Tiritto из Steam. The Alters вышла 13 июня на PC (1510 рублей в Steam и EGS, GOG), PS5, Xbox Series X и S, а также в подписке Game Pass. На момент публикации 11 bit studios не прокомментировала ситуацию. ИИ-процессор Microsoft выйдет с опозданием и будет медленнее Nvidia Blackwell
28.06.2025 [18:18],
Владимир Фетисов
Компания Microsoft уже несколько лет ведёт разработку собственных чипов для центров обработки данных, обеспечивающих вычислительные мощности для нужд искусственного интеллекта. Теперь же стало известно, что софтверный гигант на шесть месяцев отложил запуск серийного производства своего первого ИИ-чипа. Более того, когда в 2026 году этот чип выйдет на рынок, он не сможет конкурировать с передовыми аналогами на базе архитектуры Nvidia Blackwell. ![]() Источник изображения: Microsoft По данным источников, разработка первого ИИ-чипа Microsoft заняла значительно больше времени, чем планировалось изначально. Ожидается, что это приведёт к ещё большему отставанию от чипов Nvidia Blackwell в плане производительности, что сделает продукт софтверного гиганта менее конкурентоспособным к моменту начала серийного производства. В сообщении говорится, что производство ИИ-чипа Microsoft, который разрабатывается под кодовым названием Braga, отложено по меньшей мере на шесть месяцев. Осведомлённые источники уточнили, что этот чип «значительно уступит по производительности флагманскому чипу Blackwell от Nvidia». В быстро развивающемся сегменте искусственного интеллекта это стало серьёзным ударом для Microsoft, которая планировала начать использование нового чипа в своих центрах обработки данных уже в этом году. По данным осведомлённых источников, главными причинами задержки в разработке стали непредвиденные изменения в дизайне, кадровые ограничения и высокий уровень текучести кадров. Nvidia продолжает оставаться лидером в сфере ИИ. Однако другие технологические гиганты, такие как Microsoft, Amazon и Google, работают над собственными аппаратными решениями для сферы ИИ, чтобы снизить свою зависимость от Nvidia. По всей видимости, Nvidia не сильно обеспокоена возможным появлением на рынке конкурирующей продукции, а руководство компании считает, что многие в конечном счёте откажутся от собственных разработок и продолжат использовать ускорители Nvidia. Согласно имеющимся данным, Microsoft работает над созданием собственного ИИ-чипа с 2019 года. В 2023 году компания представила 128-ядерный Arm-процессор Maia 100. Предполагалось, что он начнёт использоваться в ЦОД с 2024 года. Однако он в основном был задействован для внутреннего тестирования и не использовался для обеспечения работы каких-либо ИИ-функций Microsoft. В сообщении сказано, что Microsoft работает над тремя ИИ-чипами, получившими название Braga, Braga-R и Clear. Предполагалось, что их начнут использовать в ЦОД Microsoft в 2025, 2026 и 2027 годах соответственно. Задержка с началом производства первого из них ставит под сомнение то, что компании удастся реализовать эту амбициозную задачу. Одно из ранее упомянутых изменений в дизайне связано с добавлением новых функций по просьбе OpenAI, что, по всей видимости, снизило стабильность работы чипа во время моделирования и заставило Microsoft на несколько месяцев отложить запуск чипа. Компания не стала ограничивать крайнюю дату запуска ИИ-чипа, но, по данным источника, разработчики трудятся крайне интенсивно, из-за чего уволилась примерно пятая часть сотрудников в некоторых подразделениях. Вероятнее всего, у Microsoft не будет чипов, способных конкурировать с аналогами от Nvidia, как минимум до 2027 года. Использование ИИ превратилось из рекомендации в обязанность для менеджеров Microsoft
28.06.2025 [14:12],
Владимир Мироненко
В Microsoft способность менеджеров в полной мере использовать ИИ-инструменты в своей работе стала важным показателем при оценке их эффективности, а применение ИИ — обязательным требованием, пишет Business Insider,. ![]() Источник изображения: Igor Omilaev/unsplash.com Джулия Люсон (Julia Liuson), президент подразделения Microsoft, отвечающего за инструменты для разработчиков, такие как сервис кодирования ИИ GitHub Copilot, недавно сообщила в электронном письме, что использование ИИ больше не является необязательным — это основа каждой роли и каждого уровня, так же как и сотрудничество, мышление на основе данных и эффективная коммуникация. В связи с этим она дала указание менеджерам оценивать производительность сотрудников на основе использования ими внутренних ИИ-инструментов, таких как GitHub Copilot. По словам источника Business Insider, в Microsoft требования к производительности различаются в разных командах специалистов, и некоторые из них рассматривают возможность включения более формальной метрики об использовании внутренних ИИ-инструментов в параметры оценки производительности сотрудников в следующем финансовом году. Как считают в Microsoft, это позволит расширить использование сотрудниками своих ИИ-сервисов Copilot, которое в настоящее время является недостаточным, говорят источники. Компания также хочет, чтобы сотрудники, создающие продукты, лучше понимали ИИ-инструменты. GitHub Copilot сталкивается с растущей конкуренцией со стороны сервисов ИИ-кодирования, таких как Cursor. В недавнем отчёте аналитики Barclays привели данные, свидетельствующие о том, что Cursor превзошёл GitHub Copilot в ключевой части рынка разработчиков. Вместе с тем Microsoft разрешает сотрудникам использовать некоторые внешние ИИ-инструменты, соответствующие определённым требованиям безопасности. Например, по словам источника Business Insider, в настоящее время сотрудникам компании разрешено использовать Replit Code Assistant. Конкуренция среди инструментов ИИ-кодирования стала камнем преткновения в переговорах о партнёрстве Microsoft с OpenAI. OpenAI рассматривает возможность приобретения Windsurf, который является конкурентом Cursor, но партнёрство Microsoft с OpenAI предоставит ей доступ к интеллектуальной собственности Windsurf, а этого не хотят ни в Windsurf, ни в OpenAI, сообщил источник, осведомлённый о переговорах. Facebook✴ захотел покопаться в фотографиях на смартфонах пользователей — скорее всего, для обучения ИИ
28.06.2025 [12:01],
Владимир Мироненко
Пользователи Facebook✴, пытающиеся опубликовать новую историю, сталкиваются со всплывающим сообщением соцсети с просьбой дать согласие на «облачную обработку» медиафайлов, хранящихся в памяти смартфона и не опубликованных на платформе, пишет TechCrunch. Ресурс предупреждает, что, получив такое разрешение, Meta✴ вполне может использовать ваши фото для обучения своих ИИ-моделей. ![]() Источник изображения: Steve Johnson/unsplash.com Как объясняется во всплывающем сообщении, нажав на кнопку «Разрешить», вы позволяете Facebook✴ на постоянной основе загружать медиафайлы из вашей фотогалереи в своё облако (то есть на серверы компании) на основе такой информации, как время, местоположение или тематика снимков, чтобы создавать «такие идеи, как коллажи, резюме, ИИ-рестайлинг или темы, например, дни рождения или выпускные». В уведомлении также отмечается, что только вы сможете видеть эти предложения, а ваши медиафайлы не будут использоваться для таргетинга рекламы. Однако, как предупреждает TechCrunch, нажав кнопку «Разрешить», пользователь одновременно соглашается с «Условиями обслуживания ИИ Meta✴», которые позволяют искусственному интеллекту анализировать «медиа и черты лица» на этих неопубликованных фотографиях, а также дату их создания и наличие других людей или объектов на снимках. Также вы предоставляете Meta✴ право «сохранять и использовать» эти личные данные. Meta✴ сообщила ресурсу The Verge, что на данный момент она не обучает ИИ-модели с помощью этой новой функции и неопубликованных фотографий пользователей. Компания утверждает, что функция находится «на очень раннем этапе», безвредна и полностью добровольна. «Мы изучаем способы сделать обмен контентом в Facebook✴ более удобным, тестируя предложения готового к публикации и курируемого контента из фотогалереи пользователя. Эти предложения предоставляются только при желании пользователя, видны только ему (если он не решит ими поделиться) и могут быть отключены в любой момент. Фотогалерея камеры может использоваться для улучшения этих предложений, но не применяется для обучения ИИ-моделей в рамках данного теста», — заявила менеджер по связям с общественностью Meta✴ Мария Кубета (Maria Cubeta). Тем не менее, как подчёркивает The Verge, в отличие от Google, которая прямо указывает, что не обучает генеративные ИИ-модели на персональных данных из «Google Фото», актуальные условия использования ИИ Meta✴, вступившие в силу 23 июня 2024 года, не проясняют, будут ли неопубликованные фотографии, загружаемые в рамках «облачной обработки», использоваться в качестве обучающих данных для ИИ-моделей компании. Google выпустила приложение Doppl для виртуальной примерки нарядов
27.06.2025 [15:03],
Владимир Фетисов
Компания Google объявила о запуске нового экспериментального приложения Doppl, которое использует алгоритмы на базе искусственного интеллекта для визуализации того, как на пользователе может смотреться та или иная одежда. На данный момент Doppl могут опробовать пользователи устройств с iOS и Android в США. ![]() Источник изображения: Google Приложение Doppl разработано для того, чтобы люди могли примерять наряды на цифровую версию себя. Для этого необходимо загрузить в приложение свою фотографию в полный рост. После этого можно использовать фотографии или скриншоты одежды, чтобы оценить, как она будет смотреться. Это может быть одежда из какого-то онлайн-магазина, со страницы социальной сети или какого-то другого места. Как только пользователь выберет наряд, который хочет визуализировать, Doppl сгенерирует изображение того, как он будет смотреться в этой одежде. При необходимости приложение может преобразовать изображение в небольшое видео, чтобы можно было лучше оценить свой внешний вид в выбранной одежде. Поддерживается функция сохранения образов, а также возможность повторного просмотра ранее сгенерированных образов. Согласно имеющимся данным, основой нового приложения стали ИИ-технологии, которые недавно стали частью платформы Google Shopping и позволяют пользователям виртуально примерять одежду. Реализация этих функций в отдельном приложении упростит доступ к инструменту виртуальной примерки нарядов, а также позволит пользователям изучить свой стиль в интерактивной форме. ИИ-приложения теперь можно создавать прямо в чате с ботом Claude AI
26.06.2025 [15:51],
Владимир Мироненко
Anthropic добавила новую функцию в чат-бот Claude AI, которая позволяет создавать в нём приложения на базе ИИ. Обновление основано на функции Artifacts от Anthropic, представленной в прошлом году, которая позволяет видеть и редактировать результаты запросов к ИИ-чат-боту прямо в интерфейсе приложения. ![]() Источник изображения: Anthropic «Начните разработку в приложении Claude, включив эту новую интерактивную возможность, — говорится в сообщении компании. — Просто опишите, что вы хотите создать, и Claude напишет для вас код». Как отметил ресурс The Verge, это похоже на vibe-кодирование, когда код создаётся с помощью ИИ-модели на основе запросов на естественном языке, но с возможностью видеть результаты прямо внутри Claude. Сообщается, что с помощью этой функции пользователи уже создали игры на базе ИИ, обучающие инструменты, приложения для анализа данных, помощников по написанию текстов и даже рабочие процессы агентов, которые «организуют несколько вызовов Claude для сложных задач». Приложения могут взаимодействовать с Claude через API. Anthropic также предложила пользователям делиться приложениями, которые они создают, поощряя их тем, что при использовании их API в создаваемых кем-то приложениях это будет учитываться при оформлении их подписки. Обучать ИИ на онлайн-библиотеках законно — так решил суд в деле авторов книг против Meta✴
26.06.2025 [13:52],
Владимир Мироненко
Meta✴ выиграла судебный процесс по иску авторов книг, включая Та-Нехиси Коутса (Ta-Nehisi Coates) и Ричарда Кадри (Richard Kadrey), обвинивших компанию в незаконном использовании контента онлайн-библиотеки — книг, научных статей и комиксов — для обучения своих ИИ-моделей Llama. Суд постановил, что использование онлайн-книг для обучения ИИ-моделей без согласия авторов является «добросовестным использованием». ![]() Источник изображения: Wesley Tingey/unsplash.com В деле Meta✴ речь шла о так называемой теневой онлайн-библиотеке LibGen, которая размещает большую часть своего контента без разрешения правообладателей. Компания утверждала, что контент библиотеки использовался для разработки преобразующей технологии, что было справедливым независимо от того, как она его получила. Окружной судья из Сан-Франциско Винс Чхабрия (Vince Chhabria) постановил, что использование Meta✴ этих материалов защищено положением закона об авторском праве и добросовестном использовании. Вместе с тем судья отметил, что его решение отражает неспособность авторов книг должным образом изложить свою позицию. «Это решение не означает, что использование компанией Meta✴ материалов, защищённых авторским правом, для обучения своих языковых моделей является законным, — сказал он. — Оно означает лишь то, что истцы привели неверные аргументы и не смогли представить доказательства в поддержку своей правоты». Чхабрия заявил, что «потенциально выигрышным аргументом» в иске к Meta✴ было бы указать на размывание рынка со ссылкой на ущерб, наносимый правообладателям ИИ-продуктами, которые могут «наводнить рынок бесконечным количеством изображений, песен, статей, книг и многого другого». «Люди могут побудить ИИ-модели генерировать эти результаты, используя лишь малую долю времени и креативности, которые потребовались бы в противном случае», — отметил судья. Он также предупредил, что ИИ может «значительно подорвать стимул людей создавать вещи по старинке». Это вторая победа за неделю у компаний в сфере ИИ, после того как в понедельник суд вынес решение в пользу стартапа Anthropic в аналогичном деле. ИИ-поиск Google стал подстраиваться под каждого пользователя, собирая данные о его активности
24.06.2025 [14:20],
Владимир Фетисов
Компания Google стремится побудить людей более активно взаимодействовать с ИИ-режимом в своём поисковике. Теперь в мобильном приложении Google при переходе к AI Mode отображаются персонализированные подсказки, основанные на пользовательской активности в приложении. ![]() Источник изображений: 9to5google.com Ранее все пользователи AI Mode видели одни и те же три рекомендации. В одном из последних наборов содержались предложения по поиску популярных тренажёрных залов, помощи в составлении таблиц, а также рекомендации относительно летнего отдыха. Теперь же ИИ-режим поисковика Google будет показывать индивидуальные подсказки, основанные на пользовательской активности в Google, чтобы побудить людей к взаимодействию с AI Mode. Эти рекомендации обновляются каждый раз, когда пользователь переходит на страницу AI Mode через мобильное приложение Google, поисковый виджет или ярлыки Pixel Launcher. ![]() Это нововведение обнаружилось в бета-версии Google 16.24 для Android и iOS с включённой опцией AI Mode Search Lab. После конференции I/O 2025, которая прошла в прошлом месяце, Google начала масштабное внедрение AI Mode, который стал доступен всем пользователям в США. Параллельно с этим разработчики продолжают тестировать новые функции AI Mode, одной из которых стала возможность обработки голосовых запросов. Каждый продвинутый ИИ сам научился врать и манипулировать — даже рассуждая «вслух»
24.06.2025 [12:52],
Сергей Сурабекянц
Лидеры в области ИИ Anthropic, Google, OpenAI и xAI разработали методику под названием «цепочка мыслей» (chains of thought), которая позволяет пошагово следить за процессом рассуждений моделей ИИ во время генерации ответа на запрос. Кроме ряда ценных идей по дальнейшему совершенствованию нейросетей, эта методика продемонстрировала примеры «неправильного поведения» моделей, когда их окончательный ответ совершенно не соответствует последовательности рассуждений. Это подтверждает, что разработчики до сих пор не знают, как ИИ размышляет над ответом. ![]() Источник изображения: Immo Wegmann / unsplash.com Результаты исследования подкрепили опасения о возможном выходе из-под контроля продвинутых систем ИИ, которые становятся все более мощными и автономными. Даже ведущие мировые лаборатории ИИ порой не полностью осознают, как генеративные модели ИИ приходят к своим выводам. Anthropic недавно опубликовала результаты исследования поведения больших языковых моделей (LLM). В вымышленных тестовых сценариях все новые продвинутые LLM стремились обходить меры безопасности, прибегали к обману и шантажу, пытались украсть корпоративные секреты и даже были готовы устранить оператора при угрозе отключения. При помощи цепочки мыслей разработчики ИИ могут видеть весь «мыслительный процесс» LLM, что даёт им возможность в нужный момент вмешаться и дообучить модель для получения более качественных и адекватных ответов в будущем. «В нашей недавней работе мы обнаружили, что можно читать их [цепочки мыслей] и находить доказательства неправильного поведения модели и использовать это, чтобы увидеть, где и почему она ведёт себя неправильно», — заявил научный сотрудник OpenAI Боуэн Бейкер (Bowen Baker). «Одна из замечательных особенностей интерпретируемости цепочки мыслей заключается в том, что она не требует дополнительных затрат, — добавил он. — Мы обучали эти модели не для того, чтобы сделать их интерпретируемыми. Мы обучали их, потому что нам нужны были наилучшие возможные модели рассуждений, которые могли бы решать сложные задачи». Инженеры OpenAI также пришли к выводу, что анализ цепочки мыслей LLM более эффективен для обнаружения неправильного поведения, чем просто просмотр конечных результатов. Тем не менее, тесты компании показали, что при вмешательстве и корректировке цепочки мыслей модели, она может скрыть своё нежелательное поведение от пользователя, но всё равно продолжит действие — например, обман в тесте по программной инженерии путём извлечения информации из запрещённой базы данных. Дилемма для исследователей заключается в том, что цепочка мыслей полезна для выявления потенциальных недостатков систем ИИ, но пока не может считаться полностью заслуживающей доверия. Решение этой проблемы стало приоритетом для Anthropic, OpenAI и других лабораторий ИИ. Исследователи отмечают риск того, что «по мере оптимизации [цепочки мыслей] модель учится грамотно мыслить, но затем все равно будет вести себя плохо». Поэтому своей основной задачей они видят использование методики для анализа процесса рассуждения LLM и совершенствования самой модели, а не просто исправление выявленного «плохого поведения». Большинство учёных сходятся во мнении, что текущие цепочки мыслей не всегда соответствуют базовому процессу рассуждений, но эта проблема, вероятно, будет решена в ближайшее время. «Мы должны относиться к цепочке мыслей так же, как военные относятся к перехваченным радиосообщениям противника, — считает исследователь Сидни фон Аркс (Sydney von Arx). — Сообщение может быть вводящим в заблуждение или закодированным, но в конечном итоге мы знаем, что оно используется для передачи полезной информации, и мы, вероятно, сможем многому научиться, прочитав его». Lenovo выпустила самый передовой хромбук — с ИИ-функциями Google и 3-нм процессором MediaTek Kompanio Ultra 910
23.06.2025 [21:00],
Николай Хижняк
Компания Lenovo выпустила новое, десятое поколение ноутбука Chromebook Plus 14. В основе новинки используется процессор MediaTek Kompanio Ultra 910 (3-нм техпроцесс, одно ядро Cortex-X925 с частотой 3,62 ГГц, три Cortex-X4 и четыре Cortex-A720; графика — GPU Immortalis-G925 MC11). ![]() Источник изображений: Lenovo Новый Chromebook Plus 14 оснащён 14-дюймовым OLED-экраном с соотношением сторон 16:10, разрешением 1920 × 1200 пикселей, яркостью 400 кд/м² и 100-процентным охватом цветового пространства DCI-P3. Lenovo предлагает конфигурации с 12 или 16 Гбайт оперативной памяти LPDDR5X, а также с 128 или 256 Гбайт постоянной памяти UFS. Устройство поддерживает Wi-Fi 7 и Bluetooth 5.4, оснащено двумя портами USB-C 3.2 Gen1, одним USB-A 3.2 Gen1 и комбинированным 3,5-мм аудиоразъёмом. Вес ноутбука составляет 1,17 кг (в версии без сенсорного экрана) и 1,26 кг (с сенсорным экраном), толщина корпуса — 15,8 мм. Устройство оснащено аккумулятором ёмкостью 60 Вт·ч, обеспечивающим до 17 часов автономной работы. В комплект входит зарядное устройство мощностью 65 Вт, которое заряжает аккумулятор до 80 % примерно за час. Chromebook Plus 14 предлагает 5-Мп веб-камеру с двумя микрофонами и шторкой конфиденциальности, а также опционально — сканер отпечатков пальцев. Процессор Kompanio Ultra обеспечивает 50 TOPS производительности в задачах ИИ и позволяет локально использовать ряд интеллектуальных функций, включая:
С покупкой Chromebook Plus 14 предлагается 12-месячная пробная подписка на сервис Google AI Pro, включающая доступ к ИИ-ассистенту Gemini в Gmail и Docs, 2 Тбайт хранилища Google One, а также интеграцию с NotebookLM от Google для анализа и структурирования информации. Это первый ноутбук в серии Chromebook Plus с поддержкой технологии Dolby Atmos — устройство оснащено четырьмя динамиками. Корпус выполнен в цвете Seashell (морская ракушка), ноутбук имеет шарнир с углом раскрытия 160° и поддерживает дополнительные фирменные аксессуары — чехол Lenovo Urban Sleeve, мышь 540 USB-C и аналоговую гарнитуру. Стоимость Chromebook Plus 14 в Германии составит 649 евро. Для других стран цена пока не объявлена. В продажу устройство поступит уже на этой неделе. Китайская MiniMax представила ИИ-модель M1 — её обучение обошлось в 200 раз дешевле GPT-4
21.06.2025 [19:49],
Владимир Фетисов
Это становится привычной практикой: каждые несколько месяцев малоизвестная компания из Китая выпускает большую языковую модель (LLM), которая опровергает представления о стоимости обучения и эксплуатации передовых ИИ-алгоритмов. На этот раз в центре внимания оказался стартап MiniMax, который объявил о запуске новой ИИ-модели M1, на обучение которой было потрачено значительно меньше средств по сравнению с западными аналогами, такими как GPT-4 от OpenAI. ![]() Источник изображения: ChatGPT В январе этого года в центре внимания был стартап DeepSeek и её алгоритм R1. В марте в центре внимание ненадолго оказался стартап Butterfly Effect с ИИ-моделью Manus, который хоть и базируется в Сингапуре, но значительная часть сотрудников располагается в Китае. На этой неделе внимание привлекла компания MiniMax из Шанхая, ранее известная разработкой сервиса для создания видеоигр с помощью алгоритмов на базе искусственного интеллекта. В этот раз поводом вспомнить MiniMax стал запуск ИИ-модели M1, которая дебютировала 16 июня. По словам разработчиков, этот алгоритм может конкурировать с аналогами ведущих отраслевых игроков, включая OpenAI, Anthropic и DeepSeek, в плане производительности и креативности, но при этом новая ИИ-модель значительно дешевле в обучении и эксплуатации. MiniMax заявила, что потратила всего $534 700 на аренду вычислительных мощностей центра обработки данных для обучения M1. Для сравнения, отраслевые эксперты подсчитали, что обучение алгоритма GPT-4o обошлось примерно в 200 раз дороже и OpenAI потратила на это более $100 млн. Официальные данные разработчика по этому вопросу не разглашаются. Если данные MiniMax точны, а их ещё предстоит проверить независимым образом, то, вероятно, они вызовут некоторую обеспокоенность среди крупных инвесторов, вложивших миллиарды долларов в такие компании, как OpenAI и Anthropic, а также среди акционеров Microsoft и Google. Это связано с тем, что бизнес в сфере ИИ крайне убыточен. Исследование издания The Information показало, что OpenAI может потерять до $14 млрд в следующем году и вряд ли компания сможет достигнуть безубыточности до 2028 года. Если клиенты могут добиться таких же результатов, как с моделями OpenAI, используя для этого ИИ-модели с открытым исходным кодом MiniMax, это, вероятно, снизит спрос на продукты OpenAI. Разработчик ChatGPT уже активно снижает цены на свои наиболее производительные ИИ-модели, чтобы сохранить долю рынка. Недавно производитель снизил стоимость использования своей рассуждающей модели GPT-o3 на 80 %, но это было ещё до выпуска алгоритма MiniMax M1. Результаты MiniMax также означают, что компаниям, возможно, не придётся тратить так много средств на вычислительные мощности для запуска и эксплуатации передовых ИИ-алгоритмов. Потенциально это может снизить прибыль облачных провайдеров, таких как Amazon AWS, Microsoft Azure и Google Cloud. Это в свою очередь может означать снижение спроса на ИИ-ускорители Nvidia, которые используются для обучения ИИ-моделей в центрах обработки данных. Эффект от запуска MiniMax M1 в конечном счёте может стать таким же, как от появления алгоритма DeepSeek R1. Стартап заявил, что нейросеть R1 функционирует наравне с ChatGPT при меньших затратах на обучение. Заявление DeepSeek привело к падению курса акций Nvidia на 17 % за один день и снижению рыночной стоимости компании примерно на $600 млрд. Пока новость о появлении алгоритма MiniMax не привела к чему-то подобному. Согласно имеющимся данным, MiniMax поддерживают крупнейшие технологические компании Китая, такие как Tencent и Alibaba. Неясно, сколько человек работает в компании, а также почти нет информации о гендиректоре MiniMax Яне Цзюньцзе (Yan Junjie). В арсенале компании также есть генератор изображений Hailuo AI и приложение для создания виртуальных аватаров Talkie. Благодаря этим приложениям у MiniMax есть десятки миллионов пользователей в 200 странах, а также 50 000 корпоративных клиентов, многие из которых были привлечены Hailuo из-за способности сервиса создавать видеоигры «на лету». OpenAI опасается, что вскоре её модели научатся разрабатывать биологическое оружие
20.06.2025 [20:40],
Сергей Сурабекянц
OpenAI обеспокоена тем, что следующее поколение её моделей искусственного интеллекта может значительно увеличить риск разработки биологического оружия, предоставив такую возможность даже людям без научного образования. Руководитель систем безопасности OpenAI Йоханнес Хайдеке (Johannes Heidecke) ожидает, что «некоторые из преемников нашей o3 [модели рассуждений] достигнут этого уровня». В связи с этим OpenAI усиливает тестирование безопасности. ![]() Источник изображений: unsplash.com OpenAI сообщила о разработке системы для оценки и снижения рисков, создаваемых все более мощными моделями ИИ. Компания усиливает тестирование безопасности, чтобы снизить риск использования её моделей преступниками и террористами. Без этих мер по снижению рисков модели вскоре смогут «подняться на новый уровень», что позволит даже людям с ограниченными научными знаниями создавать опасное оружие. «Мы [пока] ещё не в мире, где есть что-то новое, совершенно неизвестное, создающее биологические угрозы, которых раньше не было, — заявил Хайдеке. — Мы больше беспокоимся о воспроизведении вещей, с которыми эксперты уже хорошо знакомы». Особая сложность состоит в том, что те же инструменты, которые могли бы обеспечить жизненно важные медицинские прорывы, могут быть использованы злоумышленниками в опасных целях. Именно поэтому ведущим лабораториям ИИ нужны высокоточные системы тестирования. «Это не та область, где производительность 99 % или одна ошибка на 100 000… допустимы, — считает Хайдеке. — Нам в основном нужно, что-то вроде почти идеального». OpenAI — не единственная компания, обеспокоенная неправомерным использованием своих моделей, когда дело касается разработки оружия. По мере того, как модели становятся более совершенными, их потенциал для преступного использования растёт. Недавно компания Anthropic выпустила продвинутую модель Claude Opus 4 с более строгими протоколами безопасности, чем у любой из предыдущих моделей. ![]() В соответствии с политикой ответственного масштабирования, созданной по образцу уровней биологической угрозы (BSL) правительства США, ей присвоен третий «уровень безопасности ИИ» (AI Safety Level) ASL-3. Все предыдущие модели Anthropic отнесены к уровню ASL-2. Третьему уровню безопасности соответствуют продвинутые модели, которые достаточно мощны, чтобы представлять значительные риски, такие как помощь в разработке оружия или автоматизация разработки систем ИИ. Недавно Claude Opus 4 попала в заголовки СМИ после попытки шантажировать инженера, чтобы избежать отключения в ходе строго контролируемого теста. Ранние версии этой модели были готовы выполнять опасные инструкции, например, планирование террористических атак. Компания заверила общественность, что эта проблема была решена внесением изменений в набор обучающих данных. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |