Сегодня 15 апреля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → интеллект
Быстрый переход

К Apple подали ещё два иска за невыполненные обещания по ИИ-функциям Apple Intelligence

Apple столкнулась с ещё двумя коллективными исками, связанными со срывом сроков выпуска функций ИИ-платформы Apple Intelligence. Как и в иске, поданном в марте, в них компания обвиняется в введении пользователей в заблуждение обещанием, что в смартфоне iPhone 16 будут присутствовать функции ИИ, частности, более продвинутый голосовой помощника Siri, которые он так и не получил.

Apple делала «ложные и/или вводящие в заблуждение заявления», чтобы убедить покупателей покупать смартфоны iPhone 16, указано в коллективном иске пользователей из Канады, сообщила газета Vancouver Sun.

По факту платформа Apple Intelligence не была доступна к моменту выхода iPhone 16 в сентябре 2024 года. Лишь в октябре и декабре появились некоторые ИИ-функции с обновлениями iOS, чего не скажешь о «более умной» версии Siri, сроки выхода которой по-прежнему неизвестны.

«Таким образом, потребители заплатили незаконную надбавку к цене за смартфон модели iPhone 16 на основе функций ИИ, которых не существовало», — утверждается в иске.

Пользователи обвиняют Apple в обмане покупателей в «погоне за долей рынка ИИ». К тому времени, когда ИИ-функции станут доступны, они, возможно, не будут считаться уникальными или инновационными, указано в иске. Это и происходит на самом деле. Apple сообщала о том, что новые смартфоны получат возможность «видеть», что пользователь делает на экране, и выполнять действия от его имени в приложениях. Samsung уже добавила функцию просмотра экрана от Google в Galaxy S25 Ultra.

Apple будет анализировать переписки пользователей на iPhone, iPad и Mac для улучшения своего ИИ

Apple планирует начать анализировать данные на устройствах пользователей, чтобы усовершенствовать свою платформу искусственного интеллекта. Отмечается, что этот шаг призван защитить информацию о пользователях и в то же время помочь компании догнать конкурентов в области ИИ.

В настоящее время Apple обучает ИИ-модели на синтетических данных, которые лишь имитируют реальные и не содержат какой-либо пользовательской информации. Однако синтетические данные не всегда соответствуют реальной информации о клиентах, что в конечном счёте затрудняет корректную работу ИИ-алгоритмов, которые обучались на этих данных.

Новый подход позволит решить эту проблему, гарантируя при этом, что пользовательские данные останутся на устройствах клиентов и не будут напрямую использоваться для обучения ИИ-моделей. Основная задача нововведения заключается в том, чтобы помочь Apple догнать конкурентов, таких как OpenAI и Alphabet, у которых меньше ограничений в плане конфиденциальности данных клиентов.

Технология работает следующим образом: алгоритм берёт сгенерированные Apple синтетические данные и сравнивает их с актуальной выборкой писем пользователей в почтовом приложении компании для iPhone, iPad и Mac. Используя реальные письма для проверки точности генерируемых синтетических данных, Apple будет лучше понимать, какие именно части синтетических данных наиболее соответствуют реальным сообщениям, а, следовательно, подходят для обучения ИИ-моделей. Эти данные помогут компании сделать лучше ИИ-функции, связанные с генерацией текста инструментами, входящими в состав платформы Apple Intelligence.

«Генерируя синтетические данные, мы стремимся получить синтетические предложения или письма, достаточно похожие по теме или стилю на реальные, чтобы улучшить наши модели для обобщения, но без сбора писем с устройств пользователей Apple», — сказано в сообщении разработчиков.

Помимо синтетических данных, Apple обучает свои ИИ-модели на информации, которую лицензирует у сторонних компаний или собирает в открытом доступе в интернете. Использование синтетических данных имеет свои недостатки, из-за чего алгоритмы Apple зачастую не слишком хорошо справляются с выполнением задач, например, по обобщению текста.

Теоретически новый подход поможет улучшить ИИ-модели Apple, что станет ключевым шагом на пути к тому, чтобы составить конкуренцию лидерам сегмента ИИ. Apple признаёт отставание своих продуктов от аналогов лидеров рынка и прилагает усилия для того, чтобы исправить ситуацию. «Опираясь на многолетний опыт использования таких методов, как дифференциальная конфиденциальность, а также новые технологии, такие как генерация синтетических данных, мы можем улучшить функции Apple Intelligence, защищая при этом конфиденциальность пользователей, которые согласились на участие в программе аналитики устройств», — сказано в заявлении Apple.

Meta✴ начнёт обучать нейросети на данных пользователей из ЕС

Meta Platforms вскоре начнёт обучать собственные ИИ-модели на данных пользователей своих приложений из Евросоюза. Речь идёт, в том числе, о публичных постах и комментариях в таких приложениях как Facebook и Instagram, а также об истории взаимодействия пользователей с ИИ-ботом Meta AI.

 Источник изображения: Steve Johnson/unsplash.com

Источник изображения: Steve Johnson/unsplash.com

Отмечается, что для обучения нейросетей не будут использоваться данные личной переписки пользователей с друзьями и членами семьи. Кроме того, алгоритмы будут обучаться только на данных совершеннолетних пользователей. Meta начнёт уведомлять об этом жителей ЕС уже на этой неделе. Уведомление будет содержать форму отказа для тех, кто не хочет, чтобы его данные использовались для обучения нейросетей.

Отметим, что Meta планировала задействовать данные пользователей из ЕС ещё в прошлом году, однако этот процесс был приостановлен по просьбе действующего в регионе отраслевого регулятора. Компания утверждает, что обучение на данных пользователей из ЕС позволит ИИ-моделям лучше учитывать региональные особенности. Отмечается, что это особенно важно для генерации контента мультимодальными нейросетями, способными создавать не только текстовые ответы на запросы, но также изображения и видео.

В прошлом году Meta объявляла о намерении обучать свои нейросети на данных пользователей из Великобритании. Впрочем, компания вряд ли получит столько же данных, сколько уже успела задействовать. Дело в том, что в прошлом году Meta призналась в использовании для обучения ИИ всех текстовых постов и фотографий, которые пользователи Facebook публично размещали с 2007 года.

Google создала ИИ-модель DolphinGemma для общения с дельфинами

Дельфины считаются одними из самых умных существ на планете. Они умеют сотрудничать, обучать друг друга новым навыкам и узнавать себя в зеркале. Десятилетиями учёные пытаются понять сложный набор свистов и щелчков, которые дельфины используют для общения. Похоже, что исследователи вскоре смогут существенно продвинуться в этом вопросе при помощи новой открытой ИИ-модели от Google и смартфонов Pixel.

 Источник изображений: Google

Источник изображений: Google

В поисках новых областей для применения генеративного ИИ Google заинтересовалась сотрудничеством с проектом Wild Dolphin Project (WDP). Эта группа исследователей изучает поведение и взаимоотношения сообщества атлантических пятнистых дельфинов с 1985 года.

Одной из главных задач, стоящих перед WDP, является анализ влияния издаваемых дельфинами звуков на их социальное взаимодействие. Понимание структуры и паттернов «голосового общения» дельфинов необходимо для определения того, достигает ли оно уровня полноценного языка. «Мы не знаем, есть ли у животных слова», — говорит Дениз Херцинг (Denise Herzing) из WDP.

 Источник изображения: Wild Dolphin Project

Источник изображения: Wild Dolphin Project

Благодаря десятилетиям подводных записей исследователям удалось связать некоторые базовые действия с определёнными звуками. Например, им удалось выявить характерные свисты, которые, по-видимому, используются как имена, что позволяет двум особям находить друг друга на большом расстоянии. Дельфины также постоянно издают звуковые паттерны, названные учёными «пронзительный крик», во время конфликтов.

Конечная цель WDP — заговорить на дельфиньем языке, если он действительно существует. Это стремление привело к созданию огромного, тщательно размеченного набора данных, который слишком трудоёмок для анализа человеком, но, по словам Google, идеально подходит для обработки с помощью генеративного ИИ.

Генеративная ИИ-модель DolphinGemma основана на открытых моделях искусственного интеллекта Gemma от Google. Она использует разработанную Google аудиотехнологию SoundStream. Модель была обучена с использованием акустического архива проекта Wild Dolphin. Команда надеется, что DolphinGemma поможет выявить сложные закономерности, которые позволят создать общий словарь.

DolphinGemma работает так же, как языковые модели, ориентированные на человека: она получает запрос и предсказывает следующий токен. Учёные полагают, что эти предсказанные токены могут оказаться звуковыми последовательностями, которые будут поняты дельфинами.

Google разработала DolphinGemma с учётом исследовательского подхода WDP. Учёные используют телефоны Pixel в полевых условиях, что накладывает дополнительные требования к модели. Запуск моделей ИИ на смартфоне — сложная задача из-за ограниченных ресурсов. Чем больше и функциональнее модель, тем больше оперативной памяти и вычислительных мощностей ей требуется. DolphinGemma обучена примерно на 400 миллионах параметров, что совсем немного для типичных современных моделей, количество параметров которых исчисляется десятками миллиардов.

В течение последних нескольких лет WDP использует устройство, созданное в Технологическом институте Джорджии, под названием CHAT (Cetacean Hearing Augmentation Telemetry), на основе смартфона Pixel 6. Команда применяет CHAT для записи, прослушивания и синтеза голосов дельфинов.

 Источник изображения: Georgia Institute of Technology

Источник изображения: Georgia Institute of Technology

На летний исследовательский сезон 2025 года Google предоставит членам команды WDP смартфоны Pixel 9, что позволит CHAT одновременно запускать модели глубокого обучения и алгоритмы сопоставления шаблонов. Учёные на данном этапе не планируют передавать сгенерированные DolphinGemma звуки непосредственно в CHAT, то есть оба подхода будут использоваться параллельно.

Конечно, маловероятно, что DolphinGemma и новый CHAT мгновенно позволят людям запросто общаться с дельфинами, но есть надежда, что со временем система обеспечит хотя бы базовое взаимодействие. Как и другие модели Gemma, DolphinGemma является проектом с открытым доступом. Google сделает модель общедоступной уже этим летом. Хотя DolphinGemma была обучена на звуках атлантических пятнистых дельфинов, Google предполагает, что её можно будет адаптировать и для других видов китообразных.

В завершение трудно удержаться и не процитировать отрывок из романа Дугласа Адамса ( Douglas Noël Adams) «Автостопом по Галактике»:

«Важный и широко известный факт: не всегда то, что кажется — правда. Например, на планете Земля человек всегда считал, что он разумнее дельфинов потому, что многого достиг — придумал колесо, Нью-Йорк, войны и так далее — в то время, как дельфины только тем и занимались, что развлекались, кувыркаясь в воде. Дельфины же, со своей стороны, всегда считали, что они намного разумнее людей — именно по этой причине».

И ещё одна цитата — из книги «Человек-дельфин» знаменитого ныряльщика Жака Майоля ( Jacques Mayol):

«Что же тогда? Чего мы хотим добиться?

…А я отвечу вам : нам надо избавиться от нашего эгоизма, от этого подлого чудовища, которое в конце концов обернётся против человека и сотрёт его с лица земли к большой пользе всех других живущих видов, и прежде всего дельфина. Мы же лицемерны. Человек обожает дельфинов! Да, для своего личного удовольствия, чтобы сделать из них вассалов, домашних слуг, рабов, роботов, несущих на спине бомбы.

И он близок к этому».

Nvidia запустила выпуск ИИ-чипов «Made in USA» и пообещала развивать американское производство

Nvidia начала выпускать графические процессоры Blackwell в США — на фабрике TSMC в Фениксе, штат Аризона. Одновременно компания объявила, что создаёт совместные предприятия по производству ускорителей и серверных систем: с Foxconn — в Хьюстоне, и с Wistron — в Далласе. Для упаковки и тестирования чипов Nvidia заключила контракты с Amkor и SPIL. Компания уже ввела в эксплуатацию более 93 тыс. м² площадей для производства и тестирования ИИ-чипов в Аризоне и Техасе в рамках усилий по переносу части производства в США.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Nvidia планирует начать массовое производство ускорителей и систем на заводах в Хьюстоне и Далласе в течение следующих 12–15 месяцев. В течение ближайших четырёх лет компания намерена инвестировать в США до полутриллиона долларов в инфраструктурные объекты для искусственного интеллекта.

«Двигатели мировой инфраструктуры ИИ впервые строятся в Соединённых Штатах, — заявил генеральный директор Nvidia Дженсен Хуанг (Jensen Huang). — Добавление американского производства помогает нам лучше удовлетворять невероятный и растущий спрос на чипы ИИ и суперкомпьютеры, укрепляет нашу цепочку поставок и повышает нашу устойчивость».

Это заявление было сделано буквально через несколько дней после того, как Nvidia удалось заключить сделку с администрацией США и избежать мер экспортного контроля в отношении своего чипа H20. Этот самый передовой чип Nvidia все ещё может экспортироваться в Китай благодаря обещанию Хуанга профинансировать центры обработки данных ИИ в США.

В настоящее время многие ИИ-компании пытаются заслужить благосклонность администрации США. OpenAI объединилась с SoftBank и Oracle для создания центра обработки данных в США стоимостью $500 млрд. Половина из запланированных Microsoft инвестиций в размере $80 млрд в 2025 финансовом году на создание центров обработки данных ИИ будет потрачена на строительство непосредственно в США.

Nvidia утверждает, что её инициативы по производству чипов в США могут создать «сотни тысяч рабочих мест и привлечь триллионы долларов в экономическую активность в ближайшие десятилетия». Однако программы по наращиванию производства чипов в США сталкиваются с серьёзными проблемами. Ответные пошлины и торговые ограничения со стороны Китая угрожают поставкам необходимого сырья, ощущается нехватка квалифицированных кадров, а действия администрации Трампа по отмене «Закона о микросхемах», принятого в 2022 году, могут отпугнуть будущих инвесторов.

Начинающие разработчики ИИ-приложений привлекли рекордные $8,2 млрд инвестиций за прошлый год

Несколько стартапов в сфере ИИ, разрабатывающих прикладные решения на основе больших языковых моделей (LLM), стремительно наращивают объёмы продаж и инициируют новую гонку за коммерческое освоение передовых технологий. Их быстрый рост привлёк внимание инвесторов, готовых вложить сотни миллионов долларов в развитие потребительских ИИ-продуктов.

 Источник изображения: Alex Shuper / Unsplash

Источник изображения: Alex Shuper / Unsplash

Инвесторы делают ставку на такие компании, как Cursor, Perplexity, Synthesia и ElevenLabs. Эти стартапы создают приложения на основе мощных генеративных ИИ-моделей (GenAI), предоставляемых OpenAI, Google и Anthropic. Они способствуют более широкому внедрению быстро развивающихся технологий как в потребительской, так и в корпоративной среде.

По данным аналитической платформы Dealroom.co, в 2024 году объём финансирования стартапов, разрабатывающих приложения на основе ИИ, составил $8,2 млрд, что на 110 % больше, чем в 2023 году. Этот инвестиционный ажиотаж свидетельствует о высоком интересе к разработчикам ИИ-инструментов, способным привлекать сотни миллионов долларов на фоне стремительного роста спроса.

Стартап Perplexity, разработавший поисковую систему на базе ИИ, привлёк в декабре $500 млн в рамках своего четвёртого раунда финансирования за год, утроив оценку компании до $9 млрд. По данным источников, в настоящее время компания ведёт переговоры о новом раунде инвестиций по существенно более высокой оценке. В то же время стартап Harvey, разрабатывающий ИИ-решения для юридической сферы, привлёк $300 млн в феврале.

Стартапы, создающие приложения для разработчиков программного обеспечения (ПО), также вызвали повышенный интерес со стороны инвесторов. Компании, такие как Reflection AI, Poolside, Magic и Codeium, собрали сотни миллионов долларов в 2024 году на развитие технологий, направленных на повышение производительности программистов. В январе компания Anysphere — разработчик инструмента автоматизации программирования Cursor — привлекла $105 млн при оценке $2,5 млрд. По словам источников, инвесторы проявляют интерес к компании при оценке в $10 млрд и выше. Трёхлетний стартап уже достиг годовой регулярной выручки на уровне $200 млн.

 Источник изображения: Dealroom.co and Flashpoint

Источник изображения: Dealroom.co and Flashpoint

ИИ-стартапы также получили выгоду от усилившейся конкуренции на рынке LLM, которая привела к снижению стоимости обработки запросов и генерации ответов с использованием ИИ. Это позволило использовать инфраструктуру LLM без необходимости создания собственных дорогостоящих ИИ-моделей, что ускорило вывод продуктов на рынок.

Брет Тейлор (Bret Taylor), председатель совета директоров OpenAI и сооснователь стартапа Sierra, отметил, что компания за короткое время сменила используемые ИИ-модели не менее пяти-шести раз в связи с высокой скоростью развития отрасли. Стартап Sierra, разрабатывающий агентов поддержки клиентов на базе ИИ, был основан в феврале 2024 года и достиг оценки в $4,5 млрд уже в октябре того же года. По его словам, использование ИИ-модели двухлетней давности сегодня сравнимо с поездкой на автомобиле 1950-х годов — настолько стремительно устаревают технологии.

Согласно анализу данных о платежах от финтех-компании Stripe, крупнейшие ИИ-компании достигают объёмов продаж в миллионы долларов уже в течение первого года своей деятельности. Это происходит значительно быстрее, чем в случае стартапов из других технологических отраслей, и свидетельствует о высокой способности прикладного ИИ к быстрому формированию устойчивых бизнес-моделей.

Однако пока сложно оценить, насколько надёжна клиентская база ИИ-стартапов и насколько устойчивыми окажутся их текущие доходы. На фоне всеобщего интереса к ИИ ранние пользователи приходят быстро, что может искажать показатели роста, не гарантируя долгосрочной подписки. Некоторые инвесторы избегают участия в гонке за наиболее популярные приложения, опасаясь, что даже лучшие из них представляют собой лишь сервисные «обёртки» над существующими ИИ-моделями.

Существует риск, что такие стартапы будут вытеснены в случае, если более крупная компания с широкой пользовательской базой решит воспроизвести их функциональность. Ханна Сил (Hannah Seal), партнёр венчурной компании Index Ventures, инвестировавшая в юридического ИИ-ассистента Wordsmith, подчёркивает, что многие из этих ИИ-стартапов ещё не прошли ни одного полного годового цикла продления подписки. Поэтому уровень оттока клиентов остаётся неизвестным и может существенно повлиять на дальнейшую динамику развития.

Нейросеть DeepSeek останется открытой — это полезно всему миру

Нейросеть китайской компании DeepSeek сохранит открытый исходный код, поскольку это будет полезно всему миру. Об этом пишет информационное агентство ТАСС со ссылкой на слова посла КНР в России Чжан Ханьхуэя.

 Источник изображения: Steve Johnson / Unsplash

Источник изображения: Steve Johnson / Unsplash

«Китайская нейронная сеть DeepSeek предоставляет открытый исходный код, способствуя совместному использованию технологий ИИ по всему миру, а половина популярных моделей с открытым исходным кодом на известной платформе Hugging Face созданы китайскими разработчиками», — напомнил господин Ханьхуэй.

По словам дипломата, в Китае считают, что искусственный интеллект должен оставаться общедоступной технологией, а не привилегией избранных. «Открытый исходный код играет ключевую роль в обеспечении широкого доступа к технологиям искусственного интеллекта. Успешные примеры, такие как разработка компанией «Яндекс» локализованных моделей ИИ на основе экосистемы с открытым исходным кодом, подтверждают эффективность открытого обмена», — добавил посол.

В беседе с журналистами он также рассказал, что в рамках «Инклюзивной программы по наращиванию потенциала ИИ» Китай готов предложить развивающимся странам комплексный план действий, в том числе формирование необходимой инфраструктуры, развитие производственно-сбытовых цепочек, организацию открытых сообществ на основе открытого исходного кода и подготовку квалифицированных специалистов в сфере ИИ.

Сфера ИИ заинтересовалась малыми языковыми моделями — они дешевле и эффективнее больших в конкретных задачах

На рынке ИИ сейчас наблюдается тренд на использование малых языковых моделей (SLM), которые имеют меньше параметров, чем большие языковые модели (LLM), и лучше подходят для более узкого круга задач, пишет журнал Wired.

 Источник изображения: Luke Jones/unsplash.com

Источник изображения: Luke Jones/unsplash.com

Новейшие версии LLM компаний OpenAI, Meta и DeepSeek имеют сотни миллиардов параметров, благодаря чему могут лучше определять закономерности и связи, что делает их более мощными и точными. Однако их обучение и использование требуют огромных вычислительных и финансовых ресурсов. Например, обучение модели Gemini 1.0 Ultra обошлось Google в 191 миллион долларов. По данным Института исследований электроэнергетики, выполнение одного запроса в ChatGPT требует примерно в 10 раз больше энергии, чем один поиск в Google.

IBM, Google, Microsoft и OpenAI недавно выпустили SLM, имеющие всего несколько миллиардов параметров. Их нельзя использовать в качестве универсальных инструментов, как LLM, но они отлично справляются с более узко определёнными задачами, такими как подведение итогов разговоров, ответы на вопросы пациентов в качестве чат-бота по вопросам здравоохранения и сбор данных на интеллектуальных устройствах. «Они также могут работать на ноутбуке или мобильном телефоне, а не в огромном ЦОД», — отметил Зико Колтер (Zico Kolter), учёный-компьютерщик из Университета Карнеги — Меллона.

Для обучения малых моделей исследователи используют несколько методов, например дистилляцию знаний, при которой LLM генерирует высококачественный набор данных, передавая знания SLM, как учитель даёт уроки ученику. Также малые модели создаются из больших путём «обрезки» — удаления ненужных или неэффективных частей нейронной сети.

Поскольку у SLM меньше параметров, чем у больших моделей, их рассуждения могут быть более прозрачными. Небольшая целевая модель будет работать так же хорошо, как большая, при выполнении конкретных задач, но её будет проще разрабатывать и обучать. «Эти эффективные модели могут сэкономить деньги, время и вычислительные ресурсы», — сообщил Лешем Чошен (Leshem Choshen), научный сотрудник лаборатории искусственного интеллекта MIT-IBM Watson.

В Ирландии проверят законность обучения ИИ-модели Grok на постах европейцев в X

Ирландский регулятор начал расследование в отношении социальной сети X Илона Маска (Elon Musk) в связи с обработкой опубликованных на платформе сообщений европейских пользователей с целью обучения ИИ-модели Grok, пишет агентство Bloomberg.

 Источник изображения: Mariia Shalabaieva/unsplash.com

Источник изображения: Mariia Shalabaieva/unsplash.com

В опубликованном в пятницу заявлении Комиссия по защите данных (DPC) Ирландии, ответственная за соблюдение прав на защиту персональных данных и регулирование, сообщила, что в ходе расследования предполагается изучить соблюдение компанией ряда ключевых положений правил обработки данных, включая законность этих действий.

«Целью данного расследования является определение того, были ли эти персональные данные законно обработаны для обучения больших языковых моделей Grok», — говорится в заявлении DPC.

Расследование, по всей видимости, ещё больше усилит напряжённость между Европейским союзом и США из-за регулирования технологических компаний со стороны ЕС, предположило Bloomberg. Агентство отметило, что Закон об искусственном интеллекте (AI Act) ЕС, регулирующий применение ИИ-технологий, вступил в силу в прошлом году, вызвав тем самым разочарование у многих руководителей технологических компаний.

У Маска и ранее возникали разногласия с DPC, которая потребовала от X прекратить сбор данных европейских пользователей для обучения Grok, после чего платформа была вынуждена приостановить использование этих данных с указанной целью.

Российские учёные совершили прорыв в оптимизации ИИ-моделей — теперь их можно использовать без мощных серверов

Лаборатория исследований искусственного интеллекта Yandex Research совместно с учёными из НИУ ВШЭ, Массачусетского технологического института (MIT), Австрийского института науки и технологий (ISTA) и Научно-технологического университета им. короля Абдаллы (KAUST) создала метод сжатия больших языковых моделей (LLM) без потери качества. Теперь для работы с ИИ-моделями достаточно смартфона или ноутбука — не нужно задействовать дорогие серверы и графические ускорители.

 Luke Jones / Unsplash

Luke Jones / Unsplash

Новый метод квантизации получил название Hadamard Incoherence with Gaussian MSE-optimal GridS (HIGGS). Он позволяет сжимать нейросети без использования дополнительных данных и без вычислительно сложной оптимизации параметров. Такой подход особенно выгоден в ситуациях, когда недостаточно подходящих данных для дообучения ИИ-модели. Метод HIGGS обеспечивает баланс между качеством, размером модели и сложностью квантизации, за счёт чего ИИ-модели можно использовать на самых разных устройствах.

С помощью HIGGS можно существенно ускорить процесс тестирования и внедрения новых решений на базе ИИ, экономить время и финансы на разработку. Это сделает ИИ-модели доступнее не только для крупных, но и небольших компаний, а также некоммерческих лабораторий и институтов, индивидуальных разработчиков и исследователей. Если раньше для запуска ИИ-модели на смартфоне или ноутбуке требовалось провести её квантизацию на дорогостоящем сервере (этот процесс занимал от нескольких часов до нескольких недель), то теперь квантизацию можно выполнить прямо на смартфоне или ноутбуке за считанные минуты.

Новый метод квантизации протестировали на популярных ИИ-моделях Llama 3 и Qwen 2.5. В результате было установлено, что HIGGS является лучшим способом квантизации по соотношению качества к размеру модели среди всех существующих аналогов без использования данных, в том числе 4-bit NormalFloat и Half-Quadratic Quantization.

Метод HIGGS уже доступен разработчикам и исследователям на Hugging Face и GitHub, а посвящённая ему научная статья размещена в arXiv. Отметим также, что научную статью с описанием нового метода приняли на одну из крупнейших в мире ИИ-конференций The North American Chapter of the Association for Computation Linguistics (NAACL), которая пройдёт с 29 апреля по 4 мая в Альбукерке (штат Нью-Мексико, США). Статью уже цитировали американская компания Red Hat AI, Пекинский университет, Гонконгский университет науки и технологий и др.

В России хотят запретить ИИ с «неприемлемым уровнем риска»

Участники рынка, эксперты и депутаты обсуждают разработанный профильной рабочей группой проект законодательного регулирования сферы искусственного интеллекта в России. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта в России» и обсуждается на заседаниях рабочих групп в Госдуме, «Деловой России» и на отраслевых дискуссионных площадках.

 Источник изображения: Steve Johnson / Unsplash

Источник изображения: Steve Johnson / Unsplash

В пояснительной записке к проекту сказано, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года, которая была утверждена в феврале прошлого года. Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов рассказал, что сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ». Он также добавил, что законодательные инициативы пока депутатами «всерьёз не рассматриваются».

«Рабочая группа создана для того, чтобы проработать и внимательно, детально изучить все запросы от различных отраслей», — сообщил господин Свинцов. Он также добавил, что в ближайшие месяцы появятся несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но появления в этом году регулирующего всю деятельно ИИ законопроекта ждать не следует.

Что касается самого законопроекта, то прежде всего он предполагает введение понятия ИИ, т.е. комплекса технологических и программных решений, имитирующих когнитивные функции человека, включая самообучение, поиск решений на базе заранее заданного алгоритма, и обеспечивающий получение результатов, которые сопоставимы с результатами деятельности человека. К ИИ-технологиям предлагается приравнять компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальный анализ данных, машинное обучение и др. ИИ-системами предлагается считать информационные системы, имитирующие когнитивные функции человека с помощью упомянутых ранее технологий.

Ещё в рамках законопроекта предлагается ввести требования к маркировке ИИ-систем, т.е. обязательному информационному обозначению, которое будет указывать на применение ИИ-технологий при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой», а обеспечить её должен оператор ИИ-системы. Это требование не будет распространяться на ИИ-системы, которые применяются в закрытых технологических процессах, для внутренней автоматизации в организациях и др.

Одним из важных пунктов законопроекта является введение классификации ИИ-систем по уровню потенциального риска. Авторы проекта предлагают разделить ИИ-алгоритмы на системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. При этом разработку и эксплуатацию систем с неприемлемым уровнем риска, т.е. создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина, предлагается запретить. Для систем с высоким уровнем риска, т.е. используемых в здравоохранении, на транспорте, в финансовом секторе, в правоохранительной деятельности и некоторых других сферах, предлагается ввести обязательную госрегистрацию и сертификацию. Для систем с ограниченным уровнем риска — разработать системы внутреннего контроля и добровольную сертификацию.

В дополнение к этому предлагается ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации ИИ-систем. При этом разработчик не будет нести ответственность в случае принятия всех необходимых мер для предотвращения причинения вреда, а также если вред возник из-за нарушения правил эксплуатации системы и в ряде других случаев. Предлагается внести обязательное страхование ответственности операторов ИИ-систем с высоким уровнем риска. Для определения владельца прав на результат интеллектуальной деятельности, созданной с помощью ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека. Если такой вклад был, то исключительное право на результат будет принадлежать человеку, а в противном случае оператору ИИ-системы (действует в течение 50 лет).

Если законопроект будет принят, то операторы и разработчики ИИ-систем будут обязаны выполнить его требования в течение года после вступления документа в силу. ИИ-системы с высоким уровнем риска, созданные до принятия закона, должны будут пройти обязательную сертификацию в течение двух лет.

AMD анонсировала мероприятие Advancing AI, на котором представит ИИ-ускорители Instinct MI355X

Компания AMD запланировала проведение мероприятия Advancing AI на 12 июня. На нём будут представлены специализированные ускорители Instinct нового поколения. Компания также пообещала обновления для своей платформы Radeon Open Compute Platform (ROCm), предназначенной для высокопроизводительных вычислений (HPC) и задач искусственного интеллекта.

 Источник изображения: AMD

Источник изображения: AMD

От AMD ожидается анонс ИИ-ускорителей Instinct MI355X. Ранее компания заявляла, что этот продукт будет выпущен во второй половине 2025 года. В составе ускорителей будут использоваться графические процессоры на архитектуре CDNA 4, производимые по 3-нм техпроцессу, а также до 288 Гбайт памяти HBM3e.

Возможно, компания также поделится свежими подробностями об ускорителях Instinct MI400, выход которых намечен на 2026 год. Они станут первыми ИИ-ускорителями AMD, использующими память HBM4.

AMD проведёт прямую трансляцию мероприятия Advancing AI 12 июня в 9:30 по тихоокеанскому времени (19:30 мск). Вести мероприятие будет глава компании AMD Лиза Су (Lisa Su).

«Яндекс» привлечёт белых хакеров к проверке безопасности генеративных нейросетей

Компания «Яндекс» сообщила о расширении программы «Охоты за ошибками» и запуске нового направления, связанного с генеративными нейросетями. Теперь исследователи, которым удастся отыскать технические уязвимости в семействах моделей YandexGPT, YandexART и сопутствующей инфраструктуре, могут получить вознаграждение до миллиона рублей.

 Источник изображения: yandex.ru/bugbounty

Источник изображения: yandex.ru/bugbounty

Участникам «Охоты» предстоит искать технические ошибки, которые могут повлиять на результаты работы и процесс обучения нейросетевых моделей: например, привести модель к сбою или изменить её поведение так, чтобы она повлияла на работу других сервисов «Яндекса». В программе участвуют все сервисы и ИИ-продукты «Яндекса», использующие модели семейства YandexGPT и YandexART. В числе таковых: «Алиса», «Поиск с Нейро», «Шедеврум» и другие облачные службы, включая те, где ML-модель используется неявно для ранжирования и поиска.

Размер выплаты зависит от серьёзности ошибки и простоты её применения. К критичным относятся уязвимости, которые позволяют раскрыть сведения о внутренней конфигурации модели, её служебный промт с техническими данными или другую чувствительную информацию. Максимальное вознаграждение за такие ошибки — 1 млн рублей.

Программу поиска уязвимостей «Яндекс» запустил в 2012 году — компания была первой в России. Теперь программа «Охота за ошибками» действует в «Яндексе» постоянно, а принять в ней участие может любой желающий.

Главный конкурент ChatGPT запустил подписку за $200 в месяц, и в ней всё равно есть ограничения

Компания Anthropic собирается протестировать верхний ценовой порог премиальной подписки на своего чат-бота Claude. Компания станет очередным игроком — вслед за конкурентом OpenAI — на рынке искусственного интеллекта (ИИ), исследующим, сколько готовы платить пользователи за расширенный доступ к современным ИИ-технологиям.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Сегодня Anthropic представила тариф Max, стоимость которого составила $100 или $200 в месяц в зависимости от объёма использования. По словам представителей компании, за $100 пользователи смогут отправлять в пять раз больше запросов к Claude, чем позволяет текущий план Pro за $18 в месяц. А за $200 возможности увеличатся в 20 раз. В настоящее время владельцы подписки Pro могут отправлять в среднем 45 сообщений боту в течение пяти часов.

Подобно другим разработчикам ИИ, компания из Сан-Франциско стремится убедить частных клиентов и бизнес приобретать её продукты, чтобы покрыть высокие затраты на разработку передовых ИИ-моделей. Новый тариф можно сравнить с предложением OpenAI, которая в конце прошлого года запустила аналогичную подписку за $200 в месяц для ChatGPT. Однако OpenAI предоставляет безлимитный доступ к самым мощным моделям за те же $200 в месяц.

Anthropic утверждает, что подписчики тарифа Max смогут получать более развёрнутые ответы, а их запросы будут обрабатываться в приоритетном порядке даже в периоды пиковых нагрузок. Кроме того, они получат эксклюзивный доступ к новым моделям и обновлениям программного обеспечения.

Последняя версия модели Anthropic — Claude 3.7 Sonnet — также предоставляет пользователям возможность выбора между быстрым ответом на простые запросы и более детальным, разложенным «по полочкам» и имитирующим человеческое мышление. Это выделяет компанию на фоне конкурентов в условиях насыщенного рынка ИИ, особенно после того как в марте Anthropic успешно привлекла $3,5 млрд инвестиций, достигнув оценки в $61,5 млрд и тем самым подтвердив своё место среди крупнейших ИИ-стартапов мира.

Мяч с мозгами: Samsung и Google объединились для выпуска домашнего робота Ballie с ИИ Gemini и проектором

Samsung и Google объединились для запуска Ballie, домашнего робота в форме футбольного мяча, который использует ИИ Gemini для управления умным домом и умеет проецировать видео на стены. Жёлтый шарообразный робот призван, по словам Samsung, «оживить ИИ как друга и настоящего компаньона». С этим устройством обе компании впервые выходят на перспективный рынок потребительской робототехники, который оценивается в миллиарды долларов.

 Источник изображений: Samsung

Источник изображений: Samsung

Samsung впервые представила Ballie в начале 2020 года на технологической конференции CES, где он произвёл фурор, но путь к выходу домашнего робота на потребительский рынок оказался тернистым. Исполнительный вице-президент Samsung Джей Ким (Jay Kim) сообщил, что актуальное устройство представляет собой «совершенно новый Ballie». Одним из самых больших изменений стало использование моделей ИИ от Google для понимания команд пользователя, подключения к поиску Google и обработки данных с бортовых камер во время навигации по дому.

 Источник изображений: Samsung

Ballie работает под управлением операционной системы Tizen от Samsung, которая также используется во многих устройствах компании, что обеспечивает ему доступ к таким поставщикам контента, как YouTube, Netflix и собственный сервис Samsung TV Plus. Робот использует платформу Samsung SmartThings для управления умными домашними устройствами, календарями и напоминаниями, ответа на вопросы, совершения и приёма телефонных звонков и воспроизведения видео через встроенный проектор. Он также использует модели ИИ от Samsung для таких функций, как доступ к персональным данным и погоде.

 Источник изображений: Samsung

«Сложно описать систему, которая может чувствовать, двигаться и взаимодействовать так естественно, как это делает она, — считает генеральный директор Google Cloud Томас Куриан (Thomas Kurian). — Когда вы говорите: “Иди сюда”, она действительно размышляет, как туда попасть. Системе требуется много магии за кулисами, чтобы она заработала».

 Источник изображений: Samsung

По словам Кима, Samsung выбрала Google Cloud из-за своей «веры» в возможности Gemini. Эта работа знаменует собой расширение существующих партнёрских отношений по устройствам Android, умным часам и будущей гарнитуре смешанной реальности, которая также появится в конце этого года. Он добавил, что компании уже разрабатывают дополнительные функции для Ballie, включая комплект разработки программного обеспечения для сторонних приложений и видеоконференций.

Куриан подчеркнул, что партнёрство с Samsung требует «много настроек и оптимизации […] и это единственное наше партнёрство с таким персонализированным опытом».

Устройство сначала поступит в продажу в США и Южной Корее и, по крайней мере, на первых порах будет поддерживать общение только на английском и корейском языках.


window-new
Soft
Hard
Тренды 🔥
OpenAI создаст собственную социальную сеть в стиле X 4 мин.
Call of Duty: Modern Warfare 2, Far Cry 4, Clair Obscur: Expedition 33 и не только: Microsoft рассказала о ближайших новинках Game Pass 55 мин.
Google.ru уйдёт в прошлое: поисковик переведёт пользователей со всего мира на google.com 2 ч.
Создатели сюрреалистического симулятора побега от милиционера-великана вернулись с новым геймплеем — 11 минут из Militsioner 3 ч.
4chan «превратился» в 404chan — скандальный мемный форум взломали, и теперь он не открывается 3 ч.
Для Baldur’s Gate 3 вышло последнее крупное обновление — Larian прощается с триумфальной RPG 4 ч.
Эксперты предупредили о схеме «галлюцинаторного захвата» — атаки на разработчиков ПК, использующих ИИ 4 ч.
AMD представила Amuse 3.0 — приложение для ИИ-генерации изображений на Ryzen и Radeon 4 ч.
Android-смартфоны начнут самопроизвольно перезагружаться ради безопасности 4 ч.
Представлена обновлённая платформа «Яндекс Авто» с расширенными возможностями «Алисы» 6 ч.
Nvidia сделала всё, чтобы мир как можно дольше не видел обзоры GeForce RTX 5060 Ti с 8 Гбайт памяти 24 мин.
Судьба окололунной станции Gateway повисла на волоске — доделывать тяжело, а выбрасывать жалко 50 мин.
Gainward, Inno3D и Zotac представили большие и маленькие варианты GeForce RTX 5060 Ti и RTX 5060 58 мин.
Gigabyte представила GeForce RTX 5060 Ti и RTX 5060 в версиях Aorus Elite, Gaming, Eagle, Aero и Windforce 4 ч.
Представлен смартфон Honor Power с мощным аккумулятором на 8000 мА·ч и тонким корпусом 4 ч.
TDK нашла способ на порядок ускорить передачу данных между чипами — оптика устранит самое узкое место ИИ-систем 4 ч.
Accelsius готовит СЖО для 4,5-кВт GPU и 250-кВт стоек 4 ч.
Palit представила GeForce RTX 5060 Ti и RTX 5060 в версиях Infinity 3 и Dual — последняя выделяется компактностью 6 ч.
«Яндекс» представила «Станцию Мини 3 Про» с поддержкой Zigbee и подключаемыми модулями 7 ч.
«Рикор» представила Rikor Pro 7 — лёгкий и мощный ноутбук для бизнеса 7 ч.