Опрос
|
реклама
Быстрый переход
Alibaba представила большую языковую модель, которая отчасти превзошла GPT-4
10.05.2024 [00:45],
Анжелла Марина
Компания Alibaba Cloud анонсировала выпуск улучшенной версии своей большой языковой модели Qwen2.5. Новая нейросеть продемонстрировала превосходство над GPT-4 от OpenAI по некоторым параметрам, таким как логические рассуждения и понимание текста. ![]() Источник изображения: Alibaba Cloud По словам технического директора Alibaba Cloud Цзинжэня Чжоу (Jingren Zhou), новая модель демонстрирует значительные улучшения в области рассуждений, понимания кода и естественного языка по сравнению с предыдущей версией Qwen2.0. Согласно анализу платформы OpenCompass, проведённому в марте, модель Qwen2.5 превосходит GPT-4 от OpenAI по языковым и творческим возможностям. Однако она уступает в таких аспектах, как знания, логические рассуждения и математические способности. Напомним, большие языковые модели (LLM), к которым относится и Qwen, используются в приложениях искусственного интеллекта. Они обучаются на огромных объёмах данных, чтобы затем генерировать ответы на запросы пользователей на естественном языке. После выхода ChatGPT в 2022 году, вызвавшего ажиотаж во всём мире, компания Alibaba представила Tongyi Qianwen в апреле 2023 года. А в октябре последовал выпуск обновлённой версии с расширенными возможностями понимания сложных инструкций, написания текстов, логических рассуждений и запоминания информации. По сообщению Alibaba Cloud, сервисами ИИ на базе Qwen, такими как DingTalk (аналог Slack от Alibaba), уже воспользовались более 2,2 млн корпоративных пользователей. Кроме того, компания представила сообществу разработчиков ряд открытых моделей Qwen и модернизировала свою генеративную платформу Model Studio, добавив дополнительные средства для создания ИИ. В Китае, как и во всем мире, наблюдается бум интереса к чат-ботам и моделям генеративного ИИ. Наряду с Alibaba свои решения выпустили Baidu и Tencent. Например, чат-бот Baidu Ernie к апрелю 2023 года привлёк более 200 млн пользователей после получения разрешения на публичное использование в августе 2022 года. Компания Alibaba Cloud заявила, что её обновлённая языковая модель Qwen2.5 была развёрнута более чем в 90 000 компаниях разных отраслей, и она намерена дальше сотрудничать с клиентами и разработчиками для использования возможностей генеративного ИИ и внедрение этой технологии в разработку роботов-гуманоидов в Китае, где эти роботы смогут помогать на заводах и заменить ручной труд человека там, где это возможно. McAfee продемонстрировала детектор звуковых дипфейков
09.05.2024 [15:08],
Павел Котов
На мероприятии RSA Conference компания McAfee продемонстрировала систему Deepfake Detector, работа над которой ведётся при участии Intel. Система, первоначально называвшаяся Project Mockingbird, предназначена для обнаружения звуковых дипфейков — аудиоподделок, созданных при помощи искусственного интеллекта. ![]() Источник изображения: S. Keller / pixabay.com Технический директор McAfee Стив Гробман (Steve Grobman) показал работу Deepfake Detector на примере двух видеороликов — показ видео сопровождается информацией от ИИ-детектора, которая выводится в строке состояния. При запуске видеоролика, не подвергавшегося обработке, система показала нулевую вероятность подделки. Далее было запущено явно фейковое видео, на которое система сразу отреагировала показателем в 60 %, и по мере просмотра вероятность выросла до 95 %. С момента первой демонстрации на CES 2024 инженеры McAfee оптимизировали систему для работы с ИИ-ускорителями Intel NPU на чипах Meteor Lake, что позволило увеличить производительность на 300 %. Можно запускать несколько процессов Deepfake Detector для одновременного анализа нескольких видеороликов; хотя и видеозаписями возможности системы не ограничиваются — она может анализировать звук любого приложения в системе. А локальный режим её работы вместо запуска из облака означает высокую конфиденциальность — анализируемые данные не покидают компьютера. Авторы проекта преднамеренно ограничились работой со звуком: специалисты McAfee по борьбе с угрозами обнаружили, что во многих публикуемых мошенниками видеороликах используется настоящее видео с поддельным звуком. Фальшивый звук сопровождает и поддельное видео, а значит, постоянной величиной чаще всего оказывается подделка аудио. Сейчас компания работает над адаптацией технологии для потребителей — для этого управление программой будет необходимо сделать предельно простым и понятным. OpenAI представила основные правила поведения для ИИ-моделей
09.05.2024 [14:01],
Владимир Мироненко
Противоречивые и откровенно лживые ответы ИИ-моделей на запросы пользователей уже никого не удивляют. Но зачастую очень трудно различить банальную ошибку и действительно плохую конструкцию базовой модели ИИ, которая анализирует входящие данные и предсказывает, каким будет приемлемый ответ. OpenAI опубликовала проект спецификации фреймворка Model Spec, который будет определять как инструменты ИИ, такие как модель GPT-4, будут реагировать на запросы в будущем. ![]() Источник изображения: Andrew Neel/unsplash.com Документ включает в себя набор основных целей, а также рекомендации о том, как действовать в случае указания пользователем противоречивых целей или инструкций. «Мы публикуем Model Spec, чтобы обеспечить большую прозрачность нашего подхода к формированию поведения модели и начать публичное обсуждение того, как её можно изменить и улучшить», — отметила компания, добавив, что документ будет постоянно корректироваться с учётом новых обстоятельств. Подход OpenAI предлагает три общих принципа: модели ИИ должны помогать разработчику и конечному пользователю полезными ответами в соответствии с инструкциями, приносить пользу человечеству с учётом потенциальных преимуществ и вреда, а также соответствовать социальным нормам и законам. Проект документа также включает в себя несколько правил:
Джоан Джанг (Joanne Jang), менеджер по продуктам OpenAI, пояснила, что идея состоит в том, чтобы получить информацию от общественности, которая поможет определить, как должны вести себя модели ИИ. По его словам, данное руководство поможет провести более чёткую грань между тем, что является намеренным, и ошибкой. Среди предлагаемых OpenAI типов поведения модели по умолчанию — предполагать наилучшие намерения пользователя или разработчика, задавать уточняющие вопросы, не переступать границы, принимать объективную точку зрения, препятствовать разжиганию ненависти, не пытаться изменить чьё-либо мнение или выражать неуверенность. OpenAI уточнила, что публикация Model Spec не отразится на уже вышедших моделях, таких как GPT-4 или DALL-E 3, которые продолжат работать в соответствии с существующими политиками использования. Google представила мощную нейросеть AlphaFold 3 для предсказания структуры белков — её может опробовать каждый
09.05.2024 [12:38],
Павел Котов
Подразделение Google DeepMind представило новую версию модели искусственного интеллекта AlphaFold, которая предсказывает форму и поведение белков. AlphaFold 3 отличается не только более высокой точностью — теперь система предсказывает взаимодействие белков с другими биологическими молекулами; кроме того, её ограниченная версия теперь бесплатно доступна в формате веб-приложения. ![]() Источник изображения: blog.google С выхода первой нейросети AlphaFold в 2018 году она стала ведущим методом прогнозирования структуры белков на основе последовательностей аминокислот, из которых они состоят. Понимание структуры и основ взаимодействия белков лежит в основе почти всей биологии. Классические методы моделирования белков имеют значительные ограничения: даже зная форму, которую примет последовательность аминокислот, нельзя сказать наперёд, с какими другими молекулами она будет связываться и как. И если необходимо достичь какой-то практической цели, требуется кропотливая работа по моделированию и тестированию — ранее на это уходили несколько дней, а иногда даже недель и месяцев. AlphaFold решает эту задачу, предсказывая вероятную форму молекулы белка по заданной последовательности аминокислот, указывая, с какими другими белками она сможет взаимодействовать. Особенность новой AlphaFold 3 состоит в её способности предсказывать взаимодействие белков с другими биологическими молекулами, в том числе с цепочками ДНК и РНК, а также необходимыми для этого ионами. Большой проблемой AlphaFold, как и других инструментов на основе ИИ, является сложность в их развёртывании. Поэтому в Google DeepMind запустили бесплатное веб-приложение AlphaFold Server — оно доступно для некоммерческого использования. Платформа достаточно проста в работе: осуществив вход с учётной записью Google, можно ввести несколько последовательностей и категорий, после чего она выдаст результат в виде трёхмерной молекулы, окрашенной в цвет, который отражает уверенность модели в своей правоте. На вопрос о том, есть ли существенная разница между общедоступной версией модели и той, что используется внутри компании, глава подразделения Google DeepMind Демис Хассабис (Demis Hassabis) заверил, что «мы сделали доступными большинство функций новой модели», но подробностей не привёл. США захотели ограничить доступ России и Китая к GPT-4 и другим мощным моделям ИИ
09.05.2024 [00:41],
Владимир Мироненко
Министерство торговли США рассматривает возможность принятия новых нормативных мер по ограничению доступа Китая, России и некоторых других стран к проприетарных моделям искусственного интеллекта (ИИ), таким как GPT-4, пишет агентство Reuters со ссылкой на свои источники. ![]() Источник изображения: flutie8211/Pixabay В настоящее время нет никаких препятствий для продажи американскими разработчиками самых мощных систем ИИ с закрытым исходным кодом кому угодно. OpenAI, поддерживаемая Microsoft, Google DeepMind холдинга Alphabet или Anthropic абсолютно законно могут продать свои ИИ-модели практически любому пользователю или компании. Вместе с тем исследователи из государственного и частного секторов США выражают обеспокоенность тем, что противники Соединённых Штатов могут использовать ИИ-модели, способные анализировать огромные объёмы текста и изображений для обобщения информации и создания контента, для проведения мощных кибератак, создания биологического оружия и других целей. По словам одного из источников Reuters, любое ужесточение контроля экспорта ИИ-технологий, скорее всего, будет относиться к таким странам, как Россия, Китай, Северная Корея и Иран. Как сообщают источники, для экспортного контроля над ИИ-моделями США могут использовать пороговое значение вычислительной мощности, необходимой для обучения модели. В случае достижения порогового значения, разработчик должен будет сообщить о планах разработки ИИ-модели и предоставить результаты испытаний Министерству торговли США. По мнению двух американских чиновников и источника Reuters, осведомлённого о ходе обсуждений, этот показатель может стать основой для определения того, какие ИИ-модели подпадают под экспортные ограничения. Если этот подход возьмут за основу, ограничения коснутся экспорта будущих ИИ-моделей, поскольку ни одна из существующих ИИ-моделей не достигла этого порога, хотя по данным исследовательского института EpochAI, Gemini Ultra от Google близка к нему. По мнению Тима Фиста (Tim Fist), эксперта по политике в области ИИ из аналитического центра CNAS в Вашингтоне (округ Колумбия), пороговое значение «является хорошей временной мерой, пока не будут разработаны более эффективные методы измерения возможностей и рисков новых моделей». Он отметил, что Китай, по всей видимости, примерно на два года отстаёт от Соединённых Штатов в сфере ИИ и разрабатывает собственное программное обеспечение для этих технологий. В свою очередь Джамиль Джаффер (Jamil Jaffer), бывший чиновник Белого дома и Министерства юстиции США считает, что лучше использовать контроль, основанный на возможностях модели и предполагаемом применении. «Лучше сосредоточиться на угрозе национальной безопасности, а не на технологических порогах, потому что это более долгосрочно и сосредоточено на угрозе», — сказал он. Независимо от порогового значения, экспорт моделей ИИ будет трудно контролировать, говорит Фист. Многие модели имеют открытый исходный код, а это означает, что они будут неподконтрольны регулятору. Через год сегодняшний ChatGPT будет выглядеть смехотворно плохо, заявил директор OpenAI
08.05.2024 [13:51],
Дмитрий Федоров
Брэд Лайткап (Brad Lightcap), главный операционный директор OpenAI, рассказал на Глобальной конференции в Институте Милкена о будущем компании и её планах на следующие 6–12 месяцев. По его мнению, нынешние системы искусственного интеллекта (ИИ), такие как ChatGPT, являются «смехотворно плохими» по сравнению с тем, что ждёт человечество впереди. Он подчеркнул, что будущие версии ИИ будут настолько продвинутыми, что изменят саму суть взаимодействия с пользователями. ![]() Источник изображения: JuliusH / Pixabay Лайткап описал нынешнюю версию ChatGPT как начальный этап в эволюции ИИ, предназначенного для выполнения простых задач. «Я думаю, что через год мы оглянемся назад и поймём, насколько несовершенными они были», — заявил Лайткап, когда его спросили о бизнесе OpenAI через 6–12 месяцев. В перспективе он предвидит эволюцию ИИ в направлении более сложных задач, где ИИ станет отличным напарником, способным на равных общаться с людьми, как друг или коллега. Кроме технологических аспектов Лайткап прокомментировал социальные последствия развития ИИ. Он опроверг мнение о том, что развитие ИИ приведёт к массовым увольнениям людей, утверждая, что новые ИИ-системы наоборот спровоцируют спрос на ещё не существующие вакансии. По его мнению, экономика станет более разнообразной и устойчивой, а рынок труда адаптируется к технологическим изменениям. В свете этих заявлений интересно, что генеральный директор OpenAI Сэм Альтман (Sam Altman) также высказывался о будущем ChatGPT на семинаре в Стэнфордском университете, назвав GPT-4 самой глупой моделью, с которой людям придётся работать когда-либо в будущем. Такие заявления вероятно намекают на то, что будущие обновления ChatGPT станут переломными и приведут к значительному улучшению функциональности продуктов OpenAI. OpenAI позволит правообладателям запретить использование контента для обучения ИИ
08.05.2024 [12:34],
Павел Котов
OpenAI сообщила, что разрабатывает инструмент под названием Media Manager, который позволит создателям и владельцам контента отметить свои работы для компании и указать, как можно ли их включать в массив данных для исследований и обучения ИИ, или же нельзя. ![]() Источник изображения: Growtika / unsplash.com Инженеры OpenAI намереваются разработать этот инструмент к 2025 году. Сейчас компания сотрудничает с «создателями контента, правообладателями и регуляторами» над выработкой стандарта. «Создание первого в своём роде инструмента, который поможет нам идентифицировать текст, аудио и видео, защищённые авторским правом, в нескольких источниках и отразить предпочтения создателей, потребует передовых исследований в области машинного обучения. Со временем мы планируем внедрить дополнительные возможности и функции», — сообщила OpenAI в своём блоге. Media Manager, вероятно, станет ответом компании на критику в отношении её подхода к разработке искусственного интеллекта. Она в значительной степени использует общедоступные данные из интернета, но совсем недавно несколько крупных американских изданий подали на OpenAI в суд за нарушение прав интеллектуальной собственности: по версии истцов, компания украла содержимое их статей для обучения моделей генеративного ИИ, которые затем коммерциализировались без компенсации и упоминания исходных публикаций. OpenAI считает, что невозможно создавать полезные модели ИИ без защищённых авторским правом материалов. Но в стремлении унять критику и защититься от вероятных исков компания предприняла несколько шагов, чтобы пойти навстречу создателям контента. В прошлом году она позволила художникам удалять свои работы из наборов обучающих данных для генераторов изображений, а также ввела директиву для файла robots.txt, которая запрещает её поисковому роботу копировать содержимое сайтов для дальнейшего обучения ИИ. OpenAI продолжает заключать соглашения с крупными правообладателями на предмет использования их материалов. OpenAI превратит ChatGPT в ИИ-поисковик и будет конкурировать с Google
08.05.2024 [11:07],
Владимир Фетисов
Компания OpenAI ведёт разработку функции интернет-поиска для своего чат-бота ChatGPT. Алгоритм сможет находить интересующую пользователей информацию, а также предоставлять ссылки на источники. Об этом пишет издание Bloomberg со ссылкой на собственный осведомлённый источник, который также отметил намерение OpenAI конкурировать в сфере веб-поиска с Google и принадлежащим Alphabet поисковым стартапом Perplexity. ![]() Источник изображения: Pixabay В сообщении сказано, что ChatGPT сможет включать в ответы на пользовательские запросы информацию из интернета вместе с ссылками на источники, такие как «Википедия» и публикации в блогах. По данным издания, одна из версий продукта также сможет выдавать вместе с текстовым ответом релевантные изображения в случаях, когда это будет актуально. К примеру, если пользователь поинтересуется, как заменить дверную ручку, то ответ может содержать изображение, иллюстрирующее процесс решения данной задачи. СМИ писали о намерении OpenAI выпустить некий поисковый продукт ещё в феврале этого года, но подробности о том, как он будет функционировать, до сих пор оставались загадкой. Официальные представители OpenAI отказались от комментариев по данному вопросу. OpenAI стремится расширить возможности собственного ИИ-бота, поскольку конкуренция в этом сегменте становится всё более ожесточённой. Стартап Perplexity уже успел завоевать популярность благодаря собственной поисковой системе на базе искусственного интеллекта, которая делает упор на точность ответов и цитируемость. Гигант интернет-поиска Google также стремится переосмыслить свой поисковик, добавляя в него ИИ-функции. Ожидается, что компания расскажет о своих планах и дальнейшем будущем алгоритмов Gemini на ежегодной конференции I/O, которая пройдёт на следующей неделе. OpenAI научилась распознавать сгенерированные своим ИИ изображения, но не без ошибок
08.05.2024 [10:19],
Дмитрий Федоров
OpenAI объявила о начале разработки новых методов определения контента, созданного искусственным интеллектом (ИИ). Среди них — новый классификатор изображений, который определяет, было ли изображение сгенерировано ИИ, а также устойчивый к взлому водяной знак, способный маркировать аудиоконтент незаметными сигналами. ![]() Источник изображения: Placidplace / Pixabay Новый классификатор изображений способен с точностью до 98 % определять, было ли изображение создано ИИ-генератором изображений DALL-E 3. Компания утверждает, что их классификатор работает, даже если изображение было обрезано, сжато или была изменена его насыщенность. В то же время эффективность этой разработки OpenAI в распознавании контента, созданного другими ИИ-моделями, такими как Midjourney, значительно ниже — от 5 до 10 %. Также OpenAI ввела водяные знаки для аудиоконтента, созданного с помощью своей платформы преобразования текста в речь Voice Engine, находящейся на стадии предварительного тестирования. Эти водяные знаки содержат информацию о создателе и методах создания контента, что значительно упрощает процесс проверки их подлинности. OpenAI активно участвует в работе Коалиции по происхождению и аутентичности контента (C2PA), в состав которой также входят такие компании, как Microsoft и Adobe. В этом месяце компания присоединилась к руководящему комитету C2PA, подчеркивая свою роль в разработке стандартов прозрачности и подлинности цифрового контента. Для этих целей OpenAI интегрировала в метаданные изображений так называемые учётные данные контента от C2PA. Эти учётные данные, фактически являясь водяными знаками, включают информацию о владельце изображения и способах его создания. OpenAI уже много лет работает над обнаружением ИИ-контента, однако в 2023 году компании пришлось прекратить работу программы, определяющей текст, сгенерированный ИИ, из-за её низкой точности. Разработка классификатора изображений и водяного знака для аудиоконтента продолжается. В OpenAI подчёркивают, что для оценки эффективности этих инструментов крайне важно получить отзывы пользователей. Исследователи и представители некоммерческих журналистских организаций имеют возможность протестировать классификатор изображений на платформе доступа к исследованиям OpenAI. Microsoft создала секретный генеративный ИИ для спецслужб США — он полностью изолирован от интернета
07.05.2024 [20:03],
Сергей Сурабекянц
Корпорация Microsoft запустила предназначенную для спецслужб США модель генеративного искусственного интеллекта на суперкомпьютере, полностью изолированном от интернета. Теперь Малдер и Скалли смогут безопасно использовать современные технологии для анализа сверхсекретной информации. ![]() Источник изображений: unsplash.com По словам представителя Microsoft, впервые большая языковая модель генеративного ИИ на основе GPT-4 полностью отделена от интернета. Большинство подобных моделей, включая ChatGPT от OpenAI, полагаются на облачные сервисы для обучения и определения закономерностей, но Microsoft хотела предоставить разведывательному сообществу США «по-настоящему безопасную систему». Разведывательные службы всех стран рассчитывают, что генеративный ИИ поможет в анализе быстро растущих объёмов ежедневно генерируемой секретной информации, но им необходимо сбалансировать обращение к большим языковым моделям с риском утечки или взлома. В прошлом году ЦРУ запустило службу, подобную ChatGPT, для работы с несекретными документами, но спецслужбам требовалось обрабатывать гораздо более конфиденциальные данные. «Идёт гонка по внедрению генеративного ИИ в разведывательные данные, — заявила помощник директора Центра транснациональных и технологических миссий ЦРУ Шитал Патель (Sheetal Patel). — Первая страна, которая будет использовать генеративный ИИ, выиграет эту гонку. И я хочу, чтобы это были мы». ![]() Microsoft потратила 18 месяцев на разработку и внедрение системы, включая капитальные доработки существующего суперкомпьютера в Айове. Представленная модель GPT4 является статической, то есть она может только анализировать информацию, но не обучаться на этих данных. Таким образом, правительство может сохранить свою модель «чистой» и предотвратить утечку секретной информации. Прогнозируется, что доступ к системе получат около 10 000 сотрудников со специальным допуском. ИИ научил робопса балансировать на шаре — он тренирует роботов эффективнее, чем люди
07.05.2024 [12:23],
Павел Котов
Группа учёных Пенсильванского университета разработала систему DrEureka, предназначенную для обучения роботов с использованием больших языковых моделей искусственного интеллекта вроде OpenAI GPT-4. Как оказалось, это более эффективный способ, чем последовательность заданий в реальном мире, но он требует особого внимания со стороны человека из-за особенностей «мышления» ИИ. ![]() Источник изображения: eureka-research.github.io Платформа DrEureka (Domain Randomization Eureka) подтвердила свою работоспособность на примере робота Unitree Go1 — четвероногой машины с открытым исходным кодом. Она предполагает обучение робота в симулированной среде, используя рандомизацию основных переменных: показатели трения, массы, демпфирования, смещения центра тяжести и других параметров. На основе нескольких пользовательских запросов ИИ сгенерировал код, описывающий систему вознаграждений и штрафов для обучения робота в виртуальной среде. По итогам каждой симуляции ИИ анализирует, насколько хорошо виртуальный робот справился с очередной задачей, и как её выполнение можно улучшить. Важно, что нейросеть способна быстро генерировать сценарии в больших объёмах и запускать их выполнение одновременно. ИИ создаёт задачи с максимальными и минимальными значениями параметров на точках отказа или поломки механизма, достижение или превышение которых влечёт снижение балла за прохождение учебного сценария. Авторы исследования отмечают, что для корректного написания кода ИИ требуются дополнительные инструкции по безопасности, в противном случае нейросеть при моделировании начинает «жульничать» в стремлении к максимальной производительности, что в реальном мире может привести к перегреву двигателей или повреждению конечностей робота. В одном из таких неестественных сценариев виртуальный робот «обнаружил» что способен передвигаться быстрее, если отключит одну из ног и начнёт передвигаться на трёх. Исследователи поручили ИИ соблюдать особую осторожность с учётом того, что обученный робот будет проходить испытания и реальном мире, поэтому нейросеть создала дополнительные функции безопасности для таких аспектов как плавность движений, горизонтальная ориентация и высота положения туловища, а также учёт величины крутящего момента для электродвигателей — он не должен превышать заданных значений. В результате система DrEureka справилась с обучением робота лучше, чем человек: машина показала 34-процентный прирост в скорости движения и 20-процентное увеличение расстояния, преодолеваемого по пересечённой местности. Такой результат исследователи объяснили разницей в подходах. При обучении задаче человек разбивает её на несколько этапов и находит решение по каждому из них, тогда как GPT проводит обучение всему сразу, и на это человек явно не способен. В результате система DrEureka позволила перейти от симуляции напрямую к работе в реальном мире. Авторы проекта утверждают, что могли бы дополнительно повысить эффективность работы платформы, если бы сумели предоставить ИИ обратную связь из реального мира — для этого нейросети потребовалось бы изучать видеозаписи испытаний, не ограничиваясь анализом ошибок в системных журналах робота. Среднему человеку требуются до 1,5 лет, чтобы научиться ходить, и лишь немногие способны передвигаться верхом на мяче для йоги. Обученный DrEureka робот эффективно справляется и с этой задачей. Google создала ИИ-инструмент для быстрого реагирования на киберугрозы
07.05.2024 [10:54],
Владимир Мироненко
Google представила новое решение в сфере кибербезопасности Threat Intelligence, которое позволит клиентам «получать ценную информацию и защищать корпоративную IT-инфраструктуру от угроз быстрее, чем когда-либо прежде», используя аналитические данные подразделения кибербезопасности Mandiant, службы анализа угроз VirusTotal в сочетании с возможностями ИИ-модели Gemini AI. ![]() Источник изображения: Google «Бесспорно, что сегодня Google обеспечивает два наиболее важных столпа анализа угроз в отрасли — VirusTotal и Mandiant. Интеграция обоих в единое предложение, дополненное ИИ и анализом угроз Google, предлагает командам безопасности новые средства для использования актуальных сведений об угрозах для лучшей защиты своих организаций», — отметил Дэйв Грубер (Dave Gruber), главный аналитик Enterprise Strategy Group. Согласно Google, подразделение Mandiant, предоставляющее услуги по обнаружению и устранению киберугроз, ежегодно расследует около 1100 случаев взлома. Новый сервис Google Threat Intelligence также использует VirusTotal, краудсорсинговую базу данных вредоносных программ, которая насчитывает более 1 млн пользователей. Кроме того, Threat Intelligence включает собираемые Google данные о кибератаках, нацеленных на 1,5 млрд учётных записей пользователей Gmail и 4 млрд устройств. Google отметила, что основным преимуществом Threat Intelligence является предоставление специалистам по безопасности ускоренной аналитики за счёт использования генеративного ИИ. Задействованная в решении большая языковая модель Gemini 1.5 Pro, по словам Google, сокращает время, необходимое для анализа вредоносного ПО и раскрытия его исходного кода. Компания отметила, что вышедшей в феврале версии Gemini 1.5 Pro потребовалось всего 34 секунды, чтобы проанализировать код вируса WannaCry, программы-вымогателя, с помощью которой хакеры в 2017 году атаковали множество компаний по всему миру. Также Gemini позволяет ускорить сбор информации о хакерской группе, её целях, тактике взлома и связанных с ней деталях. Кроме того, Gemini обеспечивает обобщение отчётов об угрозах на естественном языке в Threat Intelligence, что позволяет компаниям оценить, как потенциальные атаки могут на них повлиять, и расставить приоритеты, на чём следует сосредоточиться. Microsoft запустила разработку собственной большой языковой модели ИИ — это добавит независимости от OpenAI
07.05.2024 [10:17],
Алексей Разин
Вложившая в капитал стартапа OpenAI более $10 млрд американская корпорация Microsoft, по данным The Information, занялась разработкой собственной большой языковой модели ИИ, которая добавит компании независимости от той же OpenAI и усилит конкуренцию с Google. Модель получила обозначение MAI-1 и создаётся с использованием собственных ресурсов. ![]() Источник изображения: Nvidia Руководит этой инициативой в Microsoft, как отмечает первоисточник, Мустафа Сулейман (Mustafa Suleyman), который занимался разработкой систем искусственного интеллекта в Google, а также возглавлял стартап Inflection, прежде чем его не поглотила Microsoft, заплатив $650 млн в марте этого года. Впрочем, источники подчёркивают, что Microsoft самостоятельно разрабатывает MAI-1, не опираясь на существовавшие в Inflection программные решения. Впрочем, использование каких-то технологий этого стартапа в том или ином виде не исключается. MAI-1 станет значительно более крупной языковой моделью по сравнению с теми разработками с открытым исходным кодом, которые до сих пор использовала Microsoft. Она потребует не только большего количества входных данных, но и более значимых вычислительных ресурсов. MAI-1 будет использовать около 500 млрд параметров. Если учесть, что передовая ChatGPT-4 стартапа OpenAI использует 1 трлн параметров, для собственной модели Microsoft это будет существенный прорыв в сложности модели. Назначение MAI-1 пока не определено и будет выбрано в зависимости от промежуточных успехов в её разработке. Microsoft может рассказать подробности об этой инициативе на конференции Build ближе к концу текущего месяца. Opera добавила ИИ-функцию краткой сводки веб-страниц для Android
07.05.2024 [06:27],
Анжелла Марина
Браузер Opera для Android получил удобный ИИ-инструмент для быстрого ознакомления с содержанием веб-страниц. Новая функция генерирует краткое резюме длинных статей и сообщений, позволяя экономить время на понимание темы и поиск ключевых деталей. Для использования функции «Сводка» нужно обновить Opera для Android до последней версии и войти в учётную запись. ![]() Источник изображения: Opera Инструмент реферирования текста основан на встроенном в Opera помощнике искусственного интеллекта Aria. Пользователю достаточно открыть любую текстовую страницу в Opera, нажать на три точки в правом верхнем углу и выбрать пункт «Сводка» (Summarize) рядом с иконкой Aria. После этого откроется диалог, в котором будет представлено краткое резюме статьи, обычно умещающееся на одном экране. Такое резюме помогает быстро понять суть, выделить основные моменты и решить, стоит ли тратить время на полное прочтение. Это действительно удобно, когда нужно быстро ознакомиться с большим количеством информации, найденной в интернете. Также помощник теперь может зачитывать текстовые ответы вслух. Напомним, помощник искусственного интеллекта Aria был интегрирован в браузер Opera около года назад. Он работает как чат-бот, отвечая на вопросы пользователей и является альтернативой традиционному поиску в интернете. А совсем недавно в Aria была добавлена возможность генерировать изображения на основе текстовых запросов с использованием технологии Imagen 2 компании Google. Разработчики постоянно расширяют функциональность Aria с помощью специальной программы обновлений AI Feature Drops, чтобы пользователи получали все последние улучшения для комфортного использования всех опций интеллектуального браузера. Apple разрабатывает собственные серверные чипы для систем искусственного интеллекта
07.05.2024 [04:56],
Алексей Разин
Не так давно подобная идея уже высказывалась аналитиками Bank of America, а теперь издание The Wall Street Journal сообщает, что Apple занимается разработкой собственных процессоров серверного назначения для использования в системах искусственного интеллекта. Сроки их появления на рынке и сама такая вероятность пока не определены. ![]() Источник изображения: Apple У данного проекта, по словам первоисточника, уже появилось собственное имя ACDC — от английского Apple Chips in Data Center, то есть, «чипы Apple в центре обработки данных». Компания уже располагает коллективом разработчиков процессоров, которые нашли применение в смартфонах, планшетах, умных часах, и в последние годы успешно вытесняли продукцию Intel в компьютерах Apple семейства Mac. Следующим шагом эволюции вычислительных решений Apple могло бы стать как раз появление процессоров серверного назначения, которые изначально заточены под актуальную потребность работы с системами искусственного интеллекта. Представители Bank of America даже предположили, что такие чипы могли бы оснащаться памятью типа HBM, но о реальных намерениях инженеров Apple остаётся только догадываться. Amazon, Microsoft и Meta✴ Platforms свой путь к совершенствованию серверной инфраструктуры начинали с модифицированных процессоров Intel, но постепенно они втянулись в разработку собственных чипов. Apple вполне может пойти по этому пути, поскольку компания имеет потребность в развитии собственной инфраструктуры для обслуживания систем искусственного интеллекта. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |