Опрос
|
реклама
Быстрый переход
Обучать ИИ на онлайн-библиотеках законно — так решил суд в деле авторов книг против Meta✴
26.06.2025 [13:52],
Владимир Мироненко
Meta✴ выиграла судебный процесс по иску авторов книг, включая Та-Нехиси Коутса (Ta-Nehisi Coates) и Ричарда Кадри (Richard Kadrey), обвинивших компанию в незаконном использовании контента онлайн-библиотеки — книг, научных статей и комиксов — для обучения своих ИИ-моделей Llama. Суд постановил, что использование онлайн-книг для обучения ИИ-моделей без согласия авторов является «добросовестным использованием». ![]() Источник изображения: Wesley Tingey/unsplash.com В деле Meta✴ речь шла о так называемой теневой онлайн-библиотеке LibGen, которая размещает большую часть своего контента без разрешения правообладателей. Компания утверждала, что контент библиотеки использовался для разработки преобразующей технологии, что было справедливым независимо от того, как она его получила. Окружной судья из Сан-Франциско Винс Чхабрия (Vince Chhabria) постановил, что использование Meta✴ этих материалов защищено положением закона об авторском праве и добросовестном использовании. Вместе с тем судья отметил, что его решение отражает неспособность авторов книг должным образом изложить свою позицию. «Это решение не означает, что использование компанией Meta✴ материалов, защищённых авторским правом, для обучения своих языковых моделей является законным, — сказал он. — Оно означает лишь то, что истцы привели неверные аргументы и не смогли представить доказательства в поддержку своей правоты». Чхабрия заявил, что «потенциально выигрышным аргументом» в иске к Meta✴ было бы указать на размывание рынка со ссылкой на ущерб, наносимый правообладателям ИИ-продуктами, которые могут «наводнить рынок бесконечным количеством изображений, песен, статей, книг и многого другого». «Люди могут побудить ИИ-модели генерировать эти результаты, используя лишь малую долю времени и креативности, которые потребовались бы в противном случае», — отметил судья. Он также предупредил, что ИИ может «значительно подорвать стимул людей создавать вещи по старинке». Это вторая победа за неделю у компаний в сфере ИИ, после того как в понедельник суд вынес решение в пользу стартапа Anthropic в аналогичном деле. ИИ-поиск Google стал подстраиваться под каждого пользователя, собирая данные о его активности
24.06.2025 [14:20],
Владимир Фетисов
Компания Google стремится побудить людей более активно взаимодействовать с ИИ-режимом в своём поисковике. Теперь в мобильном приложении Google при переходе к AI Mode отображаются персонализированные подсказки, основанные на пользовательской активности в приложении. ![]() Источник изображений: 9to5google.com Ранее все пользователи AI Mode видели одни и те же три рекомендации. В одном из последних наборов содержались предложения по поиску популярных тренажёрных залов, помощи в составлении таблиц, а также рекомендации относительно летнего отдыха. Теперь же ИИ-режим поисковика Google будет показывать индивидуальные подсказки, основанные на пользовательской активности в Google, чтобы побудить людей к взаимодействию с AI Mode. Эти рекомендации обновляются каждый раз, когда пользователь переходит на страницу AI Mode через мобильное приложение Google, поисковый виджет или ярлыки Pixel Launcher. ![]() Это нововведение обнаружилось в бета-версии Google 16.24 для Android и iOS с включённой опцией AI Mode Search Lab. После конференции I/O 2025, которая прошла в прошлом месяце, Google начала масштабное внедрение AI Mode, который стал доступен всем пользователям в США. Параллельно с этим разработчики продолжают тестировать новые функции AI Mode, одной из которых стала возможность обработки голосовых запросов. Каждый продвинутый ИИ сам научился врать и манипулировать — даже рассуждая «вслух»
24.06.2025 [12:52],
Сергей Сурабекянц
Лидеры в области ИИ Anthropic, Google, OpenAI и xAI разработали методику под названием «цепочка мыслей» (chains of thought), которая позволяет пошагово следить за процессом рассуждений моделей ИИ во время генерации ответа на запрос. Кроме ряда ценных идей по дальнейшему совершенствованию нейросетей, эта методика продемонстрировала примеры «неправильного поведения» моделей, когда их окончательный ответ совершенно не соответствует последовательности рассуждений. Это подтверждает, что разработчики до сих пор не знают, как ИИ размышляет над ответом. ![]() Источник изображения: Immo Wegmann / unsplash.com Результаты исследования подкрепили опасения о возможном выходе из-под контроля продвинутых систем ИИ, которые становятся все более мощными и автономными. Даже ведущие мировые лаборатории ИИ порой не полностью осознают, как генеративные модели ИИ приходят к своим выводам. Anthropic недавно опубликовала результаты исследования поведения больших языковых моделей (LLM). В вымышленных тестовых сценариях все новые продвинутые LLM стремились обходить меры безопасности, прибегали к обману и шантажу, пытались украсть корпоративные секреты и даже были готовы устранить оператора при угрозе отключения. При помощи цепочки мыслей разработчики ИИ могут видеть весь «мыслительный процесс» LLM, что даёт им возможность в нужный момент вмешаться и дообучить модель для получения более качественных и адекватных ответов в будущем. «В нашей недавней работе мы обнаружили, что можно читать их [цепочки мыслей] и находить доказательства неправильного поведения модели и использовать это, чтобы увидеть, где и почему она ведёт себя неправильно», — заявил научный сотрудник OpenAI Боуэн Бейкер (Bowen Baker). «Одна из замечательных особенностей интерпретируемости цепочки мыслей заключается в том, что она не требует дополнительных затрат, — добавил он. — Мы обучали эти модели не для того, чтобы сделать их интерпретируемыми. Мы обучали их, потому что нам нужны были наилучшие возможные модели рассуждений, которые могли бы решать сложные задачи». Инженеры OpenAI также пришли к выводу, что анализ цепочки мыслей LLM более эффективен для обнаружения неправильного поведения, чем просто просмотр конечных результатов. Тем не менее, тесты компании показали, что при вмешательстве и корректировке цепочки мыслей модели, она может скрыть своё нежелательное поведение от пользователя, но всё равно продолжит действие — например, обман в тесте по программной инженерии путём извлечения информации из запрещённой базы данных. Дилемма для исследователей заключается в том, что цепочка мыслей полезна для выявления потенциальных недостатков систем ИИ, но пока не может считаться полностью заслуживающей доверия. Решение этой проблемы стало приоритетом для Anthropic, OpenAI и других лабораторий ИИ. Исследователи отмечают риск того, что «по мере оптимизации [цепочки мыслей] модель учится грамотно мыслить, но затем все равно будет вести себя плохо». Поэтому своей основной задачей они видят использование методики для анализа процесса рассуждения LLM и совершенствования самой модели, а не просто исправление выявленного «плохого поведения». Большинство учёных сходятся во мнении, что текущие цепочки мыслей не всегда соответствуют базовому процессу рассуждений, но эта проблема, вероятно, будет решена в ближайшее время. «Мы должны относиться к цепочке мыслей так же, как военные относятся к перехваченным радиосообщениям противника, — считает исследователь Сидни фон Аркс (Sydney von Arx). — Сообщение может быть вводящим в заблуждение или закодированным, но в конечном итоге мы знаем, что оно используется для передачи полезной информации, и мы, вероятно, сможем многому научиться, прочитав его». Lenovo выпустила самый передовой хромбук — с ИИ-функциями Google и 3-нм процессором MediaTek Kompanio Ultra 910
23.06.2025 [21:00],
Николай Хижняк
Компания Lenovo выпустила новое, десятое поколение ноутбука Chromebook Plus 14. В основе новинки используется процессор MediaTek Kompanio Ultra 910 (3-нм техпроцесс, одно ядро Cortex-X925 с частотой 3,62 ГГц, три Cortex-X4 и четыре Cortex-A720; графика — GPU Immortalis-G925 MC11). ![]() Источник изображений: Lenovo Новый Chromebook Plus 14 оснащён 14-дюймовым OLED-экраном с соотношением сторон 16:10, разрешением 1920 × 1200 пикселей, яркостью 400 кд/м² и 100-процентным охватом цветового пространства DCI-P3. Lenovo предлагает конфигурации с 12 или 16 Гбайт оперативной памяти LPDDR5X, а также с 128 или 256 Гбайт постоянной памяти UFS. Устройство поддерживает Wi-Fi 7 и Bluetooth 5.4, оснащено двумя портами USB-C 3.2 Gen1, одним USB-A 3.2 Gen1 и комбинированным 3,5-мм аудиоразъёмом. Вес ноутбука составляет 1,17 кг (в версии без сенсорного экрана) и 1,26 кг (с сенсорным экраном), толщина корпуса — 15,8 мм. Устройство оснащено аккумулятором ёмкостью 60 Вт·ч, обеспечивающим до 17 часов автономной работы. В комплект входит зарядное устройство мощностью 65 Вт, которое заряжает аккумулятор до 80 % примерно за час. Chromebook Plus 14 предлагает 5-Мп веб-камеру с двумя микрофонами и шторкой конфиденциальности, а также опционально — сканер отпечатков пальцев. Процессор Kompanio Ultra обеспечивает 50 TOPS производительности в задачах ИИ и позволяет локально использовать ряд интеллектуальных функций, включая:
С покупкой Chromebook Plus 14 предлагается 12-месячная пробная подписка на сервис Google AI Pro, включающая доступ к ИИ-ассистенту Gemini в Gmail и Docs, 2 Тбайт хранилища Google One, а также интеграцию с NotebookLM от Google для анализа и структурирования информации. Это первый ноутбук в серии Chromebook Plus с поддержкой технологии Dolby Atmos — устройство оснащено четырьмя динамиками. Корпус выполнен в цвете Seashell (морская ракушка), ноутбук имеет шарнир с углом раскрытия 160° и поддерживает дополнительные фирменные аксессуары — чехол Lenovo Urban Sleeve, мышь 540 USB-C и аналоговую гарнитуру. Стоимость Chromebook Plus 14 в Германии составит 649 евро. Для других стран цена пока не объявлена. В продажу устройство поступит уже на этой неделе. Китайская MiniMax представила ИИ-модель M1 — её обучение обошлось в 200 раз дешевле GPT-4
21.06.2025 [19:49],
Владимир Фетисов
Это становится привычной практикой: каждые несколько месяцев малоизвестная компания из Китая выпускает большую языковую модель (LLM), которая опровергает представления о стоимости обучения и эксплуатации передовых ИИ-алгоритмов. На этот раз в центре внимания оказался стартап MiniMax, который объявил о запуске новой ИИ-модели M1, на обучение которой было потрачено значительно меньше средств по сравнению с западными аналогами, такими как GPT-4 от OpenAI. ![]() Источник изображения: ChatGPT В январе этого года в центре внимания был стартап DeepSeek и её алгоритм R1. В марте в центре внимание ненадолго оказался стартап Butterfly Effect с ИИ-моделью Manus, который хоть и базируется в Сингапуре, но значительная часть сотрудников располагается в Китае. На этой неделе внимание привлекла компания MiniMax из Шанхая, ранее известная разработкой сервиса для создания видеоигр с помощью алгоритмов на базе искусственного интеллекта. В этот раз поводом вспомнить MiniMax стал запуск ИИ-модели M1, которая дебютировала 16 июня. По словам разработчиков, этот алгоритм может конкурировать с аналогами ведущих отраслевых игроков, включая OpenAI, Anthropic и DeepSeek, в плане производительности и креативности, но при этом новая ИИ-модель значительно дешевле в обучении и эксплуатации. MiniMax заявила, что потратила всего $534 700 на аренду вычислительных мощностей центра обработки данных для обучения M1. Для сравнения, отраслевые эксперты подсчитали, что обучение алгоритма GPT-4o обошлось примерно в 200 раз дороже и OpenAI потратила на это более $100 млн. Официальные данные разработчика по этому вопросу не разглашаются. Если данные MiniMax точны, а их ещё предстоит проверить независимым образом, то, вероятно, они вызовут некоторую обеспокоенность среди крупных инвесторов, вложивших миллиарды долларов в такие компании, как OpenAI и Anthropic, а также среди акционеров Microsoft и Google. Это связано с тем, что бизнес в сфере ИИ крайне убыточен. Исследование издания The Information показало, что OpenAI может потерять до $14 млрд в следующем году и вряд ли компания сможет достигнуть безубыточности до 2028 года. Если клиенты могут добиться таких же результатов, как с моделями OpenAI, используя для этого ИИ-модели с открытым исходным кодом MiniMax, это, вероятно, снизит спрос на продукты OpenAI. Разработчик ChatGPT уже активно снижает цены на свои наиболее производительные ИИ-модели, чтобы сохранить долю рынка. Недавно производитель снизил стоимость использования своей рассуждающей модели GPT-o3 на 80 %, но это было ещё до выпуска алгоритма MiniMax M1. Результаты MiniMax также означают, что компаниям, возможно, не придётся тратить так много средств на вычислительные мощности для запуска и эксплуатации передовых ИИ-алгоритмов. Потенциально это может снизить прибыль облачных провайдеров, таких как Amazon AWS, Microsoft Azure и Google Cloud. Это в свою очередь может означать снижение спроса на ИИ-ускорители Nvidia, которые используются для обучения ИИ-моделей в центрах обработки данных. Эффект от запуска MiniMax M1 в конечном счёте может стать таким же, как от появления алгоритма DeepSeek R1. Стартап заявил, что нейросеть R1 функционирует наравне с ChatGPT при меньших затратах на обучение. Заявление DeepSeek привело к падению курса акций Nvidia на 17 % за один день и снижению рыночной стоимости компании примерно на $600 млрд. Пока новость о появлении алгоритма MiniMax не привела к чему-то подобному. Согласно имеющимся данным, MiniMax поддерживают крупнейшие технологические компании Китая, такие как Tencent и Alibaba. Неясно, сколько человек работает в компании, а также почти нет информации о гендиректоре MiniMax Яне Цзюньцзе (Yan Junjie). В арсенале компании также есть генератор изображений Hailuo AI и приложение для создания виртуальных аватаров Talkie. Благодаря этим приложениям у MiniMax есть десятки миллионов пользователей в 200 странах, а также 50 000 корпоративных клиентов, многие из которых были привлечены Hailuo из-за способности сервиса создавать видеоигры «на лету». OpenAI опасается, что вскоре её модели научатся разрабатывать биологическое оружие
20.06.2025 [20:40],
Сергей Сурабекянц
OpenAI обеспокоена тем, что следующее поколение её моделей искусственного интеллекта может значительно увеличить риск разработки биологического оружия, предоставив такую возможность даже людям без научного образования. Руководитель систем безопасности OpenAI Йоханнес Хайдеке (Johannes Heidecke) ожидает, что «некоторые из преемников нашей o3 [модели рассуждений] достигнут этого уровня». В связи с этим OpenAI усиливает тестирование безопасности. ![]() Источник изображений: unsplash.com OpenAI сообщила о разработке системы для оценки и снижения рисков, создаваемых все более мощными моделями ИИ. Компания усиливает тестирование безопасности, чтобы снизить риск использования её моделей преступниками и террористами. Без этих мер по снижению рисков модели вскоре смогут «подняться на новый уровень», что позволит даже людям с ограниченными научными знаниями создавать опасное оружие. «Мы [пока] ещё не в мире, где есть что-то новое, совершенно неизвестное, создающее биологические угрозы, которых раньше не было, — заявил Хайдеке. — Мы больше беспокоимся о воспроизведении вещей, с которыми эксперты уже хорошо знакомы». Особая сложность состоит в том, что те же инструменты, которые могли бы обеспечить жизненно важные медицинские прорывы, могут быть использованы злоумышленниками в опасных целях. Именно поэтому ведущим лабораториям ИИ нужны высокоточные системы тестирования. «Это не та область, где производительность 99 % или одна ошибка на 100 000… допустимы, — считает Хайдеке. — Нам в основном нужно, что-то вроде почти идеального». OpenAI — не единственная компания, обеспокоенная неправомерным использованием своих моделей, когда дело касается разработки оружия. По мере того, как модели становятся более совершенными, их потенциал для преступного использования растёт. Недавно компания Anthropic выпустила продвинутую модель Claude Opus 4 с более строгими протоколами безопасности, чем у любой из предыдущих моделей. ![]() В соответствии с политикой ответственного масштабирования, созданной по образцу уровней биологической угрозы (BSL) правительства США, ей присвоен третий «уровень безопасности ИИ» (AI Safety Level) ASL-3. Все предыдущие модели Anthropic отнесены к уровню ASL-2. Третьему уровню безопасности соответствуют продвинутые модели, которые достаточно мощны, чтобы представлять значительные риски, такие как помощь в разработке оружия или автоматизация разработки систем ИИ. Недавно Claude Opus 4 попала в заголовки СМИ после попытки шантажировать инженера, чтобы избежать отключения в ходе строго контролируемого теста. Ранние версии этой модели были готовы выполнять опасные инструкции, например, планирование террористических атак. Компания заверила общественность, что эта проблема была решена внесением изменений в набор обучающих данных. «Сбер» научил GigaChat проводить глубокие многоступенчатые исследования
20.06.2025 [18:20],
Владимир Фетисов
Нейросеть «Сбера» GigaChat получила функцию «Провести исследование», которая позволяет осуществлять профессиональный анализ информации. Разработчики научили ИИ-сервис проводить глубокие многоступенчатые исследования, включая самостоятельный анализ данных из разных источников, а также генерацию развёрнутых и структурированных ответов со ссылками на используемые источники. ![]() Источник изображения: sber.ru Отмечается, что для использования новой функции не нужно писать сложные текстовые запросы. Интеллектуальный агент-оркестратор помогает анализировать пользовательские запросы и формирует наборы специализированных ИИ-агентов для их обработки. Система нейросети, состоящая из множества агентов, позволяет использовать одновременно несколько экспертных модулей для комплексного анализа запроса и предоставления в ответе максимально полной информации. В режиме глубокого исследования пользователь может экономить время на выполнении рутинной работы. Существенная часть исследовательской деятельности связана со собором информации, анализом источников и написанием текста. Теперь всё это можно делегировать системе GigaChat. Нейросеть способна анализировать данные, сопоставлять факты и на основе проделанной работы выдавать развёрнутые ответы. Функция «Провести исследование» поможет в подготовке качественного анализа тенденций конкретного рынка. Сервис также способен анализировать продукты и стратегии конкурентов, работающих в схожей бизнес-нише. По данным «Сбера», GigaChat может провести целое научное исследование. «Если задать промпт: «Что нового в исследованиях по теме «Влияние внедрения цифровых валют центральных банков» (CBDC) на банковскую систему». Какие направления сейчас актуальны, кото этим занимается?» — нейросеть изучит актуальные публикации в выбранной области и даст обзор с ключевыми тезисами и ссылками на источники», — сказано в сообщении «Сбера». На данный момент функция «Глубокого исследования» доступна в веб-версии GigaChat. Испытать возможности нейросети также можно в мобильном приложении сервиса для Android, которое доступно в магазинах RuStore и AppGallery. Длительная работа с ИИ-инструментами ослабляет у людей когнитивные способности, выяснили учёные
20.06.2025 [14:05],
Сергей Сурабекянц
Использование генеративного ИИ становится всё более распространённым в образовании, юриспруденции, СМИ и других областях. Недавнее исследование Массачусетского технологического института (Massachusetts Institute of Technology, MIT) наглядно продемонстрировало, как использование инструментов ИИ ухудшает деятельность мозга. Тест выявил существенно более слабые связи между областями мозга, ухудшение памяти и низкую вовлеченность у участников, использовавших большие языковые модели (LLM). В процессе исследования, проведённого учёными Массачусетского технологического института, три группы участников написали по три эссе. Первая группа полагалась на LLM, вторая могла использовать лишь классические поисковые системы, а третья не использовала каких-либо внешних источников. Затем первая и третья группы поменялись участниками для написания четвёртого эссе. На всём протяжении тестов производился электронный мониторинг мозга участников. Эссе участников тестирования, использовавших LLM, получили высокие оценки как от людей, так и от нейросети. Их структура, как правило, была более однородной, а содержание точнее соответствовало исходному заданию. Эти участники чаще копировали и вставляли, меньше редактировали свою работу и в дальнейшем испытывали трудности с цитированием собственных текстов. Группа, которая использовала поисковые системы, продемонстрировала низкий и средний уровень мозговых связей. Их текст также был довольно качественным и однородным, при этом они лучше могли цитировать свои работы, что предполагает более сильное сохранение памяти по сравнению с пользователями LLM. Результаты участников, использовавших только собственный мозг, были далеко не самыми точными, зато участники этой группы продемонстрировали значительно более сильную нейронную связь, что свидетельствует о более глубокой умственной вовлеченности. Хотя с течением времени нейронные связи неизбежно ослабевали, участники могли легко вспомнить более ранний материал. Интересно, что участники, которые перешли из группы LLM в группу, изучавшую только мозг, продемонстрировали повышенную нейронную связь, однако испытывали трудности с воспроизведением информации из более раннего периода эксперимента. Их мозговая активность сбросилась до уровня новичка относительно тем эссе. В целом, результаты показывают, что любое использование цифровых инструментов влияет на мозговую активность, но поисковые системы требуют больших умственных усилий, чем генеративный ИИ. Эти результаты могут иметь значительные последствия для образования, где использование ИИ становится широко распространённым. Большинство учеников теперь активно используют такие инструменты, как ChatGPT при выполнении заданий. Некоторые генерируют только планы или идеи тем, в то время как другие используют задания в качестве подсказок и получают готовые работы, даже не вникая в их содержимое. Преподаватели также начали использовать ИИ для оценки заданий и отслеживания использования ИИ. Извечное соревнование снаряда и брони перешло в новую фазу. «Яндекс» встроит ИИ-рекомендации почти во все свои сервисы
20.06.2025 [12:05],
Владимир Фетисов
«Яндекс» активно интегрирует алгоритмы на базе генеративных нейросетей в свои сервисы. На этот разработчики создали рекомендательные алгоритмы на основе генеративного ИИ, которые будут внедряться в продукты компании. За счёт этого пользователи сервисов «Яндекса» будут экономить время на поиске контента и товаров, а также смогут выйти за рамки своих привычек. ![]() Источник изображения: «Яндекс» / yandex.ru/jobs/locations/vladivostok «Новшество в том, что мы смогли внедрить большие генеративные модели в рексистемы. В рекомендации «Яндекс Музыки» внедрена трансформерная модель с 126 млн параметров и длиной истории 8192 (в терминах событий в жизни пользователя). Для сравнения — раньше у нас максимальная конфигурация имела 19 млн параметров в энкодере и обрабатывала 2000 событий», — рассказали в «Яндексе». В компании отметили, что алгоритм обрабатывает обезличенные данные о действиях пользователей внутри сервиса. Разработчики также добавили, что такой подход не использовал ни один другой музыкальный сервис. «Мы первые в мире показали, что можно сделать такую большую модель с такой большой длиной истории для музыкальных рекомендаций», — рассказал представитель компании. Новые алгоритмы были интегрированы в «Яндекс Музыку». Они функционируют в режиме онлайн и мгновенно реагируют на действия пользователей с учётом большего количества параметров. После этого они появились в «Яндекс Маркете», а позднее будут добавлены в другие сервисы компании, такие как «Кинопоиск» и «Лавка». Руководитель рекомендательных технологий «Яндекса» Николай Савушкин отметил, что в последние годы качество рекомендательных алгоритмов вышло на плато, и для поднятия их на новый уровень требовалось внедрение генеративных моделей, что сопряжено с увеличением вычислительных мощностей. «Нам удалось разработать нейронную архитектуру, которая более эффективна в обучении и требует меньше ресурсов, и доказать, что скачок качества, который мы видим в сфере языковых моделей, возможен в рекомендациях. Эту задачу удалось решить только нескольким компаниям в мире — таким, как Google, Netflix, LinkedIn», — рассказал господин Савушкин. Нейросети в рекомендациях «Яндекс Музыки» появились ещё в 2023 году. Теперь же стриминговая платформа стала первым сервисом компании, внедрившим обновлённые ИИ-модели, работающие в режиме онлайн. Алгоритмы анализируют потребности человека и генерируют рекомендации в моменте, но с учётом долгосрочных потребностей пользователя. На этом фоне люди стали чаще и дольше слушать «Мою волну», где проигрываются только рекомендательные композиции. Пользователи также стали на 20 % чаще добавлять в коллекцию песни и артистов, которых услышали впервые. При этом разнообразие самих рекомендаций выросло на 14 %, в них стало больше новых для пользователей треков. «Яндекс Маркет» стал ещё одним сервисом компании, куда уже были интегрированы новые ИИ-модели. «Теперь учитываются в десятки раз больше обезличенных действий пользователей — это эквивалентно данным за два года пользования сервисом. Так у алгоритмов появляется более полный контекст, и пользователь получает действительно нужные рекомендации. Во время тестирования покупатели стали добавлять в корзину на 3 % больше релевантных товаров, чем раньше. А покупок в новых для людей категориях стало больше на 5 %», — рассказали в «Яндексе». В компании также отметили, что для обеспечения стабильной работы рекомендательных систем на базе генеративных моделей требуется соответствующая инфраструктура, т.е. большое количество вычислительных мощностей и данных. До недавнего времени рекомендательные алгоритмы работали на основе маленьких моделей, которые не сопоставимы по вычислительной сложности с большими языковыми моделями. Благодаря новой архитектуре «Яндекс» смог внедрить более тяжёлые модели с большим количеством параметров. Кроме того, часть генеративной модели перенесена в расчёт в режиме онлайн. Всё это позволило значительно повысить качество работы рекомендательных алгоритмов. По мнению аналитиков, запуск новых рекомендательных систем в продуктах «Яндекса» является «очень важным шагом» для развития российского ИИ. Сооснователь университета Zerocoder Кирилл Пшинник отметил, что создание и запуск таких систем могут себе позволить лишь крупные бигтех-игроки, в арсенале которых есть внушительные массивы пользовательских данных и достаточный объём вычислительных ресурсов для обучения больших языковых моделей. Руководитель научной группы «Адаптивные агенты» Института AIRI Владислав Куренков добавил, что масштабирование генеративных моделей в рекомендательных системах является сложной задачей. «У неё высокий порог входа, поскольку, чтобы масштабировать модель и при этом сохранить или улучшить её эффективность, нужны огромные объёмы данных, значительные вычислительные ресурсы и экспертиза», — отметил господин Куренков. Nvidia заинтересовалась атомной энергетикой и присоединилась к Биллу Гейтсу
20.06.2025 [11:59],
Сергей Сурабекянц
Nvidia через своё венчурное подразделение NVentures присоединилась к Биллу Гейтсу (Bill Gates) и HD Hyundai в финансировании стартапа в области атомной энергетики TerraPower. Эта компания с 2006 года разрабатывает малые модульные реакторы (Small Modular Reactor, SMR) для стандартизации, миниатюризации и масштабирования ядерной энергетики. Общий бюджет совместного проекта составляет $650 млн. ![]() Источник изображения: TerraPower TerraPower спроектировала и начала подготовку к строительству в Вайоминге атомной электростанции Natrium мощностью 345 мегаватт, которая использует жидкий натрий для охлаждения. Этот объект, как надёжный источник чистой энергии, включён в программу демонстрации усовершенствованных реакторов Министерства энергетики США. На площадке Natrium уже начато строительство вспомогательных сооружений, но одобрение от комиссии по ядерному регулированию, необходимое для начала возведения самого предприятия, пока не получено. TerraPower ожидает получить его до конца 2025 года, а ввод объекта в строй намечен на 2030 год. Nvidia — далеко не первопроходец в атомной энергетике среди технологических компаний:
Из лидеров лишь Meta✴ слегка задержалась на старте, заинтересовавшись ядерной энергетикой лишь в конце прошлого года. Westinghouse, столп ядерной энергетики США, продвигает свой микроядерный реактор eVinci. Этот блок легко умещается в грузовике и рассчитан на круглосуточную работу в течение восьми лет без дозаправки, после чего производитель обещает заменить его новым, чтобы минимизировать простой и обеспечить бесперебойную питание. На начальной стадии строительства находится демонстрационный реактор Kairos Hermes. Он предназначен для испытания технологии и на первом этапе сможет производить около 35 мегаватт тепла. В случае успеха и получения одобрения реактор будет перепрофилирован на выработку электроэнергии. Руководители всех крупных ИИ-компаний сходятся во мнении, что дальнейшее развитие ИИ в первую очередь зависит от наличия достаточных генерирующих мощностей. ИИ стал экзистенциальной угрозой для интернет-СМИ: посетителей на сайтах вытесняют роботы
20.06.2025 [11:37],
Сергей Сурабекянц
Глава Cloudflare Мэтью Принс (Matthew Prince) в интервью изданию Axios заявил, что издатели сталкиваются с экзистенциальной угрозой со стороны ИИ и должны получать справедливую компенсацию за свой контент. «Люди стали больше доверять ИИ за последние шесть месяцев, что означает, что они не читают оригинальный контент, — сказал он. — Будущее интернета будет всё больше и больше похоже на ИИ, значит люди [и дальше] будут читать резюме вашего контента». ![]() Источник изображения: Walls.io / unsplash.com Число переходов со страниц поисковых систем на сайты с оригинальным контентом сокращается с каждым днём, поэтому многим издателям придётся пересмотреть свои бизнес-модели или вообще уйти с рынка. Принс привёл впечатляющие статистические данные. По его словам, десять лет назад соотношение проиндексированных поисковиком Google страниц к числу посетителей, перенаправленных со страницы поисковой выдачи на сайт издателя, составляло 2:1. С тех пор это соотношение постепенно увеличивалось, но после начала ИИ-бума стало расти угрожающими темпами. Шесть месяцев назад:
В настоящий момент:
Поисковые системы и чат-боты ИИ предоставляют ссылки на оригинальные источники, но издатели могут получать доход от рекламы только в том случае, если читатели переходят по ссылкам. «Люди не переходят по ссылкам», — констатировал Принс. Он уверен, что эта проблема касается любого создателя оригинального контента. Принс сообщил, что Cloudflare разработала инструмент, который должен «остановить копирование контента». AI Labyrinth использует контент, сгенерированный ИИ, для замедления, запутывания и траты ресурсов ИИ-сканеров и других ботов, которые не соблюдают директивы веб-серверов. Своим клиентам Cloudflare предлагает автоматическое развёртывание такого набора сгенерированных ИИ страниц при обнаружении «ненадлежащей активности» ботов. ИИ потребляет чудовищные объёмы энергии — экологи бьют тревогу, хотя точные цифры не знает никто
19.06.2025 [17:14],
Сергей Сурабекянц
На вопрос, сколько энергии тратит ChatGPT на один запрос, глава OpenAI Сэм Альтман (Sam Altman) ответил: 0,34 ватт-часа. Эксперты уверены, что эта цифра даже близко не отражает реального положения вещей, так как не учитывает условия выполнения запросов в реальном мире. Разные типы электросетей, системы охлаждения, освещение, сетевое оборудование, неравномерная суточная нагрузка — эти и другие факторы делают подсчёт реального энергопотребления крайне сложным. ![]() Источник изображения: Pixabay По мнению руководителя по климату ИИ-компании Hugging Face Саши Луччони (Sasha Luccioni) данные Альтмана высосаны из пальца (на самом деле она выразилась значительно грубее) и не имеют смысла без алгоритма, которым OpenAI пользовалась при расчётах (если он вообще производился), включая определение «среднего запроса», затраты на предварительное обучение модели ИИ и другие факторы. ИИ всё сильнее влияет на человеческую цивилизацию, он многократно увеличивает нагрузку на энергетические системы и увеличивает выбросы углерода в то время, как человечество пытается бороться с изменением климата. Такие крупные игроки рынка ИИ, как OpenAI, раскрывают крайне мало экологической информации. Луччони и её коллеги уверены в необходимости большей экологической прозрачности в моделях ИИ. По данным Луччони, 84 процента использования больших языковых моделей в мае 2025 года пришлось на модели с нулевым раскрытием информации об окружающей среде. «Можно купить машину и знать, сколько миль на галлон она потребляет, но при этом мы используем все эти инструменты ИИ каждый день, и у нас нет абсолютно никаких показателей эффективности, коэффициентов выбросов, ничего, — говорит Луччони. — Это не обязательно, это не является нормативным актом. Учитывая, где мы находимся с климатическим кризисом, это должно быть главным пунктом повестки дня для регулирующих органов во всём мире». ![]() Источник изображений: unsplash.com В результате отсутствия прозрачности общественность оперирует субъективными оценками, воспринимаемыми как истина. Считается, что средний запрос ChatGPT потребляет в 10 раз больше энергии, чем средний поиск Google. Такое суждение высказал в 2023 году глава Alphabet Джон Хеннесси (John Hennessy) после чего это импровизированное замечание постепенно стало восприниматься как факт, хотя совершенно лишено объективности. «Основная проблема в том, что у нас нет цифр, — уверена Луччони. — Поэтому даже расчёты на салфетке люди склонны принимать за золотой стандарт, хотя это не так». Один из способов попытаться заглянуть за кулисы для получения более точной информации — работать с моделями с открытым исходным кодом. Исследование, опубликованное в четверг в журнале Frontiers of Communication, оценило 14 таких моделей, включая две модели Meta✴ Llama и три модели DeepSeek, и обнаружило, что некоторые из них использовали на 50 % больше энергии, чем другие модели при одинаковом наборе данных. ![]() Модели рассуждений в исследовании генерировали гораздо больше маркеров мышления — мер внутреннего рассуждения модели при создании ответа, которые являются признаком большего потребления энергии. У них также были выявлены проблемы с краткостью: на этапе множественного выбора более сложные модели часто возвращали ответы с несколькими токенами, несмотря на явные инструкции отвечать только из диапазона предоставленных вариантов. По мнению экспертов, следует использовать, там, где это возможно, менее энергоёмкие модели: «Даже более мелкие модели могут достигать действительно хороших результатов при выполнении более простых задач и не выбрасывают такого огромного количества CO2 во время процесса». Некоторые технологические компании, в частности Google и Microsoft, стараются следовать этому принципу — их функции поиска используют более мелкие модели, когда это возможно. Но в целом поставщики моделей ИИ пока мало что сделали для снижения энергетических аппетитов своих детищ. Во многом избыточное использование вычислительных мощностей связано со стремлением максимально быстро предоставить ответ, так как для пользователя скорость реакции ИИ является определяющей. ![]() Без дальнейшего раскрытия информации общественность просто упускает большую часть данных, необходимых для понимания того, насколько искусственный интеллект влияет на планету. «Если бы у меня была волшебная палочка, я бы сделала обязательным для любой компании, внедряющей систему ИИ в производство, где угодно, по всему миру, в любом приложении, раскрытие данных о выбросах углерода», — говорит Луччони. «Весёлая, простая и красивая»: Midjourney запустила V1 — свою первую ИИ-модель для генерации видео по изображениям
19.06.2025 [09:45],
Сергей Сурабекянц
Midjourney, один из самых популярных стартапов по генерации изображений на основе ИИ, объявил о запуске модели V1, генерирующей видеоролики из изображений. Как и другие модели компании, на момент запуска V1 доступна только через Discord и только онлайн. ![]() Источник изображения: Midjourney «Представляем нашу модель видео V1. Она весёлая, простая и красивая. Доступная за 10 долларов в месяц, это первая модель видео для всех и прямо сейчас», — говорится в аккаунте Midjourney в социальной сети X. V1 составит конкуренцию таким моделям видеогенерации, как Sora от OpenAI, Gen 4 от Runway, Firefly от Adobe и Veo 3 от Google. Midjourney подчеркнула, что в отличие от большинства компаний, сосредоточенных на разработке коммерческих моделей, она в первую очередь ориентирована на творческую аудиторию. По мнению экспертов, подобно сгенерированным изображениям Midjourney, видеоролики, созданные V1, выглядят «несколько потусторонними, а не гиперреалистичными». Хотя длительность видео, созданного с помощью V1, ограничена пятью секундами, пользователь может продлить его на четыре секунды до четырёх раз подряд, увеличив длительность финального ролика до 21 секунды. На момент запуска самым дешёвым способом опробовать V1 является подписка на базовый тариф Midjourney стоимостью $10 в месяц с ограниченным количеством генераций. Для безлимитного использования V1 придётся выбрать тариф Pro за $60 или Mega за $120 с дополнительным режимом Relax. Midjourney планирует в течение следующего месяца пересмотреть систему тарифных планов. Компания ставит перед собой более масштабные задачи, нежели генерация перебивок для голливудских фильмов или создание рекламных роликов. По словам главы Midjourney Дэвида Хольца (David Holz), конечная цель компании — модели ИИ, «способные к моделированию открытого мира в реальном времени». Также в дальнейших планах Midjourney — разработка ИИ-модели для полноценного 3D-рендеринга. Запуск V1 от Midjourney состоялся всего через неделю после того, как на стартап подали в суд две известные киностудии Голливуда —Disney и Universal. В иске утверждается, что модели Midjourney генерируют изображения персонажей студий, защищённых авторским правом, таких как Гомер Симпсон и Дарт Вейдер. ![]() Источник изображения: theverge.com OpenAI перестанет работать с ИИ-стартапом Scale AI из-за его сближения с Meta✴
19.06.2025 [09:43],
Владимир Мироненко
OpenAI сворачивает сотрудничество с ИИ-стартапом Scale AI, занимающимся подготовкой, оценкой и разметкой данных для обучения ИИ-моделей, после заключения им сделки с конкурирующей компанией Meta✴, сообщил агентству Bloomberg представитель OpenAI. ![]() Источник изображения: Steve Johnson/unsplash.com Ранее было объявлено о том, что Meta✴ инвестирует в Scale AI $14,3 млрд в обмен на 49-% долю акций, а также переход в свою команду гендиректора Scale AI Александра Ванга (Alexandr Wang) и ещё ряда сотрудников. В Meta✴ Ванг возглавит новое подразделение по разработке так называемого «суперинтеллекта», оставаясь в совете директоров стартапа, что вызвало опасения у клиентов Scale AI по поводу утечки к конкуренту конфиденциальной информации, касающейся их планов и новейших разработок. Несмотря на то, что в Scale AI заявили, что не будут делиться конфиденциальной информацией других клиентов с Meta✴, и что Ванг не будет участвовать в повседневной работе стартапа, OpenAI решила разорвать с ним связи. Представитель OpenAI сообщил Bloomberg, что компания ищет других поставщиков более специализированных данных для разработки продвинутых ИИ-моделей. На прошлой неделе издание Reuters сообщило, что Google тоже решила прекратить сотрудничество со Scale AI в связи с её сближением с Meta✴. Поскольку крупнейшие клиенты Scale AI начали сворачивать сотрудничество, у стартапа может не остаться иного выбора, кроме как внести изменения в свой бизнес, пишет TechCrunch. Временный генеральный директор Scale AI Джейсон Дроге сообщил, что компания «удвоит ставку» на свой бизнес приложений, включая создание пользовательских ИИ-сервисов для госучреждений и предприятий. Google интегрирует в YouTube Shorts свою новую ИИ-модель генерации видео Veo 3
19.06.2025 [08:30],
Сергей Сурабекянц
Генеральный директор YouTube Нил Мохан (Neal Mohan) сообщил, что новейшая модель генерации видео на основе искусственного интеллекта Google Veo 3 будет добавлена в раздел коротких вертикальных роликов Shorts «этим летом». Мохан также сообщил, что в настоящее среднее количество просмотров коротких видео превысило 200 миллиардов в день. ![]() Источник изображений: unsplash.com Создатели Shorts уже сейчас могут воспользоваться моделью Google Veo 2 предыдущего поколения для генерации динамических фоновых изображений с помощью инструмента Dream Screen. Мохан не уточнил, какие именно возможности предоставит развёртывание модели Veo 3 в Shorts, но упомянул об улучшенном качестве видео и возможности создания звуковой дорожки. Пока неясно, придётся ли создателям Shorts платить за использование Veo 3. Сейчас для создания видео при помощи Veo 3 требуется платная подписка на тарифные планы AI Pro или AI Ultra от Google. Далеко не все приветствуют всё более широкое распространение генераторов видео на основе искусственного интеллекта. Журналистка издания The Verge Эллисон Джонсон (Allison Johnson) недавно назвала генератор видео Google Veo 3 «мечтой торговца помоями». ![]() |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |