Опрос
|
реклама
Быстрый переход
VK улучшила генеративный ИИ в сервисах Mail.ru на 25–70 %
26.11.2024 [13:53],
Дмитрий Федоров
VK усовершенствовала возможности генеративного ИИ в сервисах Mail.ru. Благодаря этому производительность ИИ возросла, а точность и удобство использования сервисов существенно улучшились. Качество обработки текстов увеличилось на 70 %, способность справляться с генерацией текста — на 56 %, а доля положительных отзывов пользователей возросла на 25 %. Эти улучшения, основанные на анализе обратной связи от пользователей, позволили VK предложить более эффективные инструменты, которые помогают существенно сократить время пользователей, затрачиваемое на рутинные задачи. Улучшение алгоритмов ИИ для обработки текстов повысило их качество на 70 %, что позволило ИИ генерировать более точные, осмысленные и лаконичные предложения. Особого внимания заслуживает увеличение на 56 % способности ИИ справляться со сложными задачами, связанными с генерацией текста. Теперь ИИ показывает более глубокое понимание контекста, что позволяет ему качественнее обрабатывать данные и предоставлять более точные и релевантные ответы на запросы пользователей. Эти улучшения особенно заметны при работе со сложными запросами и при создании оригинальных идей. Обновления генеративного ИИ в сервисах Mail.ru стали важным шагом на пути к созданию более удобной и технологичной цифровой экосистемы. Технологии, разработанные VK, не только облегчают выполнение повседневных задач, но и помогают пользователям экономить время, фокусируясь на более значимых аспектах своей деятельности. Генеративный ИИ не понимает устройство мира, показало исследование MIT
11.11.2024 [18:12],
Дмитрий Федоров
Генеративные ИИ-модели будоражат воображение руководителей многих компаний, обещая автоматизацию и замену миллионов рабочих мест. Однако учёные Массачусетского технологического института (MIT) предостерегают: ИИ хотя и даёт правдоподобные ответы, в действительности не обладает пониманием сложных систем и ограничивается предсказаниями. В задачах реального мира, будь то логические рассуждения, навигация, химия или игры, ИИ демонстрирует значительные ограничения. Современные большие языковые модели (LLM), такие как GPT-4, создают впечатление продуманного ответа на сложные запросы пользователей, хотя на самом деле они лишь точно предсказывают наиболее вероятные слова, которые следует поместить рядом с предыдущими в определённом контексте. Чтобы проверить, способны ли ИИ-модели действительно «понимать» реальный мир, учёные MIT разработали метрики, предназначенные для объективной проверки их интеллектуальных способностей. Одной из задач эксперимента стала оценка способности ИИ к генерации пошаговых инструкций для навигации по улицам Нью-Йорка. Несмотря на то что генеративные ИИ в определённой степени демонстрируют «неявное» усвоение законов окружающего мира, это не является эквивалентом подлинного понимания. Для повышения точности оценки исследователи создали формализованные методы, позволяющие анализировать, насколько корректно ИИ воспринимает и интерпретирует реальные ситуации. Основное внимание в исследовании MIT было уделено трансформерам — типу генеративных ИИ-моделей, используемых в таких популярных сервисах, как GPT-4. Трансформеры обучаются на обширных массивах текстовых данных, что позволяет им достигать высокой точности в подборе последовательностей слов и создавать правдоподобные тексты. Чтобы глубже исследовать возможности таких систем, учёные использовали класс задач, известных как детерминированные конечные автоматы (Deterministic Finite Automaton, DFA), которые охватывают такие области, как логика, географическая навигация, химия и даже стратегии в играх. В рамках эксперимента исследователи выбрали две разные задачи — вождение автомобиля по улицам Нью-Йорка и игру в «Отелло», чтобы проверить способность ИИ правильно понимать лежащие в их основе правила. Как отметил постдок Гарвардского университета Кейон Вафа (Keyon Vafa), ключевая цель эксперимента заключалась в проверке способности ИИ-моделей восстанавливать внутреннюю логику сложных систем: «Нам нужны были испытательные стенды, на которых мы точно знали бы, как выглядит модель мира. Теперь мы можем строго продумать, что значит восстановить эту модель мира». Результаты тестирования показали, что трансформеры способны выдавать корректные маршруты и предлагать правильные ходы в игре «Отелло», когда условия задач точно определены. Однако при добавлении усложняющих факторов, таких как объездные пути в Нью-Йорке, ИИ-модели начали генерировать нелогичные варианты маршрутов, предлагая случайные эстакады, которых на самом деле не существовало. Исследование MIT показало принципиальные ограничения генеративных ИИ-моделей, особенно в тех задачах, где требуется гибкость мышления и способность адаптироваться к реальным условиям. Хотя существующие ИИ-модели могут впечатлять своей способностью генерировать правдоподобные ответы, они остаются всего лишь инструментами предсказания, а не полноценными интеллектуальными системами. Amazon запустила собственный ИИ-генератор видео — он будет создавать рекламу
20.09.2024 [01:17],
Анжелла Марина
На фоне конкуренции с Google, компания Amazon анонсировала запуск ИИ-инструмента для быстрого создания видеорекламы. Video Generator, представленный на конференции Accelerate, позволяет преобразовывать всего одно изображение товара в увлекательный видеоролик, демонстрирующий особенности продукта. Хотя функциональность инструмента пока ограничена, пишет издание TechCrunch, однако он уже позволяет создавать пользовательские видео без дополнительных затрат. «Видео, созданные с помощью Video Generator, используют уникальные знания Amazon о розничной торговле и представляют продукт таким образом, чтобы сделать его наиболее привлекательным для клиентов», — говорится в блоге компании. На данный момент видеогенератор находится на стадии бета-тестирования и доступен ограниченному числу рекламодателей в США. Вице-президент Amazon Ads Джей Ричман (Jay Richman) заявил, что инструмент будет дорабатываться перед более широким запуском. Вместе с Video Generator также представлена функция Live Image, которая генерирует короткие анимированные GIF-файлы из статичных изображений. Эта функция, находящаяся в стадии бета-тестирования, является частью Image Generator — набора инструментов Amazon для создания изображений на основе искусственного интеллекта. Отметим, что выход Amazon на рынок генеративного видео происходит на фоне активного развития этой технологии и другими компаниями. В частности, стартапы Runway и Luma недавно запустили API для генерации видео, компания Google начала интегрировать свою модель Veo в YouTube Shorts, Adobe обещает добавить функцию генерации видео в Creative Suite к концу года, а OpenAI планирует открыть свою технологию Sora широкой публике до конца осени. Компания Amazon пока не предоставила примеры видео, созданных с помощью новых инструментов, и не раскрыла подробностей относительно максимальной длительности и разрешения генерируемых видеороликов. ИИ превзошёл учёных в генерации инновационных исследовательских идей
12.09.2024 [10:13],
Дмитрий Федоров
Большие языковые модели (LLM) оказались способны генерировать новые научно-исследовательские идеи на уровне экспертов. Более того, согласно новому исследованию, эти идеи оказались более оригинальными и интересными, чем предложенные специалистами. Это ставит под вопрос уникальность человеческого интеллекта в сфере научных инноваций и открывает новые горизонты для развития ИИ в научном сообществе. Достижения в области больших языковых моделей вызвали волну энтузиазма среди исследователей. Оказалось, что такие ИИ-модели, как ChatGPT компании OpenAI и Claude компании Anthropic, способны самостоятельно генерировать и подтверждать новые научные гипотезы. Считалось, что создание нового знания и совершение научных открытий являются исключительной прерогативой человека, в отличие от механического комбинирования ИИ знаний из обучающих данных. Однако, уже потеснив людей в сферах художественного самовыражения, музыки и программирования, теперь ИИ замахнулся на науку, показав способность генерировать исследовательские идеи — в среднем более новые, чем предлагали учёные. Чтобы проверить эту гипотезу, было проведено исследование в области обработки естественного языка (NLP). NLP — это область ИИ, которая занимается коммуникацией между людьми и ИИ на языке, понятном обеим сторонам. Она охватывает не только базовый синтаксис, но и нюансы языка, понимание контекста, а в последнее время — даже вербальный тон и эмоциональные оттенки речи. В исследовании приняли участие 100 экспертов по NLP (кандидаты наук и доктора из 36 различных институтов), которые вступили в своеобразное научное соревнование с «идейными агентами» на основе LLM. Целью было выяснить, чьи исследовательские идеи окажутся более оригинальными, интересными и осуществимыми. Для чистоты эксперимента 49 экспертов сформулировали идеи по 7 конкретным темам в области NLP, в то время как ИИ, специально обученный исследователями, генерировал идеи по тем же темам. Чтобы мотивировать участников «мозгового штурма» на создание качественных идей, за каждую предложенную экспертами концепцию выплачивалось $300, а каждая из пяти лучших человеческих идей получала дополнительную $1000. По завершении работы над проектом LLM использовался для стандартизации стилей написания каждой работы с сохранением оригинального содержания, чтобы уравнять шансы и сделать исследование максимально непредвзятым. Затем все присланные работы были рассмотрены 79 привлечёнными экспертами, которые вслепую оценили все исследовательские идеи. Группа экспертов представила 298 рецензий, дав каждой идее от двух до четырёх независимых отзывов. Результаты оказались поразительными. Идеи, сгенерированные ИИ, получили статистически значимо более высокие оценки по критериям новизны и увлекательности по сравнению с идеями людей. При этом по критерию осуществимости идеи ИИ оказались немного ниже, а по эффективности — немного выше, чем идеи людей, хотя эти различия не были статистически значимыми. Исследование также выявило некоторые недостатки в работе ИИ, такие как отсутствие разнообразия идей. Даже при чётком указании не повторяться, ИИ быстро про это забывал. Кроме того, ИИ не смог последовательно проверять и оценивать идеи и получал низкие баллы за согласие с человеческими суждениями. Важно отметить, что исследование также выявило определённые ограничения в методологии. В частности, оценка «оригинальности» идеи, даже группой экспертов, остаётся субъективной, поэтому планируется провести более комплексное исследование, в котором идеи, генерируемые как ИИ, так и людьми, будут полностью оформлены в проекты, что позволит более глубоко изучить их влияние в реальных сценариях. Тем не менее, первые результаты исследования, безусловно, впечатляют. Сегодня, когда ИИ-модели, хотя и становятся невероятно мощными инструментами, они всё ещё грешат своей ненадёжностью и склонностью к «галлюцинациям», что в контексте научного подхода, требующего абсолютной точности и достоверности информации, становится критическим. По некоторым оценкам, не менее 10 % научных работ в настоящее время пишутся в соавторстве с ИИ. С другой стороны, не стоит недооценивать потенциал ИИ для ускорения прогресса в некоторых областях человеческой деятельности. Ярким примером тому может служить система GNoME компании DeepMind, которая за несколько месяцев совершила прорыв, эквивалентный примерно 800 годам исследований в области материаловедения, и сгенерировала структуру около 380 000 новых неорганических кристаллов, способных сделать революцию в самых разных сферах. Сейчас ИИ — это самая быстро развивающаяся технология, которую когда-либо видело человечество, и поэтому разумно ожидать, что многие её недостатки будут исправлены в течение ближайших пары лет. Многие исследователи ИИ считают, что человечество приближается к рождению всеобщего сверхинтеллекта — точки, в которой ИИ общего назначения превзойдёт экспертные знания людей практически во всех областях. Способность ИИ генерировать более оригинальные и захватывающие идеи, чем учёные, может привести к переосмыслению процесса научного открытия и роли в нём человека. Вышла крупнейшая ИИ-модель Llama 3.1 от Meta✴ — её самая большая версия имеет 405 млрд параметров
24.07.2024 [00:56],
Анжелла Марина
Компания Meta✴ объявила о выпуске крупнейшей на сегодня открытой языковой модели искусственного интеллекта Llama 3.1, насчитывающей более 400 миллиардов различных параметров. По заявлению генерального директора Meta✴ Марка Цукерберга (Mark Zuckerberg) модель может превзойти GPT-4 по производительности уже в ближайшее время, а к концу года станет самым популярным ИИ-помощником в мире. Как сообщает издание The Verge, разработка новой модели потребовала больших инвестиций. Llama 3.1 значительно сложнее, чем более ранние версии, выпущенные всего несколько месяцев назад. Старшая версия ИИ-модели имеет 405 миллиардов параметров и была обучена с использованием более 16 000 ускорителей H100 от Nvidia. Meta✴ не раскрывает вложенных средств в её разработку, но, исходя из стоимости одних только чипов Nvidia, можно с уверенностью предположить, что речь идёт о сотнях миллионов долларов. Несмотря на высокую стоимость разработки, Meta✴ решила сделать код модели открытым (Open Source). В письме, опубликованном в официальном блоге компании, Цукерберг утверждает, что ИИ-модели с открытым исходным кодом обгонят проприетарные модели, подобно тому, как Linux стал операционной системой с открытым исходным кодом, которая сегодня управляет большинством телефонов, серверов и гаджетов. Одним из ключевых обновлений стало расширение географии доступности сервиса Meta✴ AI, который построен на Llama. Теперь ассистент доступен в 22 странах, включая Аргентину, Чили, Колумбию, Эквадор, Мексику, Перу и Камерун. Кроме того, если раньше Meta✴ AI поддерживала только английский язык, то сейчас добавлены французский, немецкий, хинди, итальянский, португальский и испанский. Однако стоит отметить, что некоторые из новых функций пока доступны только в определённых регионах или для конкретных языков. Также появилась интересная функция Imagine me (представь меня), которая использует генеративную ИИ-модель Imagine Yourself, сообщает TechCrunch. Эта модель способна создавать изображения на основе фотографии пользователя и текстового запроса в требуемом контексте. Например, «Представь меня сёрфингистом» или «Представь меня на пляже». После чего искусственный интеллект сгенерирует соответствующее изображение. Функция доступна в бета-версии и активируется вводом фразы «Imagine me». В ближайшее время Meta✴ AI также получит новые инструменты редактирования изображений. Пользователи смогут добавлять, удалять и изменять объекты на изображениях с помощью текстовых запросов. А со следующего месяца разработчики обещают внедрить кнопку «Edit with AI» (редактирование с помощью ИИ) для доступа к дополнительным опциям тонкой настройки. Позднее появятся новые ярлыки для быстрой публикации изображений, созданных ИИ, в лентах, историях и комментариях в приложениях Meta✴. Напомним, запуск Meta✴ AI состоялся в сентябре 2023 года. Сервис основан на большой языковой модели Llama 2 и предоставляет пользователям возможность получать информацию, генерировать текст, делать переводы на различные языки и выполнять другие задачи с помощью искусственного интеллекта. Китай стал лидером по патентам в сфере генеративных нейросетей — больше всех у Tencent и Baidu
04.07.2024 [13:42],
Владимир Фетисов
Китай доминирует в глобальной гонке патентов в сфере генеративных нейросетей. Опубликованный отчёт Организации Объединённых Наций указывает на то, что в период с 2014 по 2023 годы представители Поднебесной подали свыше 38 тысяч заявок на получение патентов в этой области. Это в шесть раз больше количества патентных заявок, которые были поданы за тот же период изобретателями из США. В общем рейтинге уверенно лидирует Китай с 38210 патентами в сфере генеративных нейросетей. На втором месте рейтинга с большим отставанием располагаются США (6276 патентов), Южная Корея (4155 патентов), Япония (3409 патентов) и Индия (1350 патентов). Также отмечается, что доля патентов в сфере генеративных нейросетей составляет 6 % от общего количества изобретений в области искусственного интеллекта. «Резкий рост патентной активности отражает последние технологические достижения и потенциал генеративного ИИ», — сказано в отчёте ООН. Китай стремится догнать в сфере разработки ИИ-алгоритмов OpenAI, разработчика ИИ-бота ChatGPT, и других технологических гигантов, таких как Microsoft, Alphabet, Google и Amazon. В прошлом году китайские IT-гиганты Alibaba и Baidu сделали общедоступными собственные ИИ-боты для усиления конкуренции с зарубежными аналогами. В этом году Китай приступил к реализации трёхлетнего плана по ужесточению стандартов в сфере ИИ-чипов, генеративного ИИ и наращиванию национальных вычислительных мощностей, направленного на стимулирование технологического и экономического развития страны. В отчёте ООН также указано, что наибольшее количество патентов приходится на технологии в сфере генерации изображений и видео (17996 патентов). Ещё 13494 патента связаны с технологиями обработки текста, 13480 патентов — с генерацией речи и музыки. Meta✴ планирует внедрить игры с генеративным ИИ в метавселенную
02.07.2024 [22:22],
Анжелла Марина
Компания Meta✴ намерена внедрить технологии искусственного интеллекта в игры виртуальной, дополненной и смешанной реальности (VR, AR) в рамках усилий по «оживлению» своего проекта метавселенной и обновлению игрового контента на основе ИИ. Этот шаг направлен на возрождение стратегии метавселенной компании, которая в последнее время столкнулась с трудностями и отсутствием интереса со стороны пользователей, а также операционными убытками. Согласно опубликованным вакансиям, Meta✴ ищет специалистов для разработки игр с использованием генеративного ИИ. Планируется создавать такие игры, которые будут обновляться при каждом запуске, следуя «недетерминированному» алгоритму, при котором один и тот же сюжет будет всякий раз представлен в новых вариантах, передаёт TechCrunch. Основное внимание будет уделено платформе Horizon — семейству игр, приложений и инструментов для создания метавселенной Meta✴. Однако компания не исключает возможности расширения этих технологий на другие платформы, включая смартфоны и ПК. Кроме того, Meta✴ нацелена на сотрудничество с другими компаниями по созданию инструментов на базе генеративного ИИ для ускорения производства игр. Генеральный директор Meta✴ Марк Цукерберг (Mark Zuckerberg) лично заинтересован в разработке игр для гарнитур Quest, что привело к увеличению инвестиций в игровые проекты метавселенной. Однако он предупредил, что потребуются годы, прежде чем компания сможет монетизировать генеративный ИИ, намекая на то, что эти инвестиции не смогут быстро изменить финансовое положение Reality Labs — подразделения Meta✴ по созданию оборудования и ПО для виртуальной и дополненной реальности. Эндрю Босворт (Andrew Bosworth), технический директор Meta✴ и глава Reality Labs, подчёркивает потенциал генеративного ИИ в создании контента для метавселенной. По его словам, эти инструменты могут уравнять шансы и дать небольшим командам разработчиков возможности крупных студий. Однако, несмотря на амбициозные планы, Meta✴ не может привлечь пользователей на свою платформу смешанной реальности Horizon, а подразделение Reality Labs, ответственное за проекты метавселенной, продолжает нести значительные убытки. В целом внедрение генеративного ИИ в игровую индустрию вызывает неоднозначную реакцию. Некоторые разработчики опасаются за свои рабочие места, в то время как компании, такие как Inworld и Artificial Agency, уже применяют эту технологию для создания более динамичных игровых диалогов и сюжетов. Meta✴, в свою очередь, продолжает инвестировать миллиарды долларов в развитие генеративного ИИ, формируя новую команду, сосредоточенную на создании продуктов с использованием этой технологии, включая производство рекламы на основе ИИ. Mistral AI выпустила первую ИИ-модель для генерации кода Codestral
30.05.2024 [12:41],
Владимир Мироненко
Французский стартап Mistral AI, поддерживаемый Microsoft, объявил о выходе своей первой модели генеративного ИИ для генерации кода и работы с ним, получившей название Codestral. Codestral обучена более чем 80 языкам программирования, включая Python, Java, C++ и JavaScript, и обладает способностями выполнять функции кодирования, писать тесты и «заполнять» частичный код, а также отвечать на вопросы о кодовой базе на английском языке, сообщила команда Mistral AI в своём блоге. Компания Mistral AI назвала в описании ИИ-модель «открытой», хотя с оговорками. Лицензионное соглашение запрещает использование Codestral и других продуктов для любой коммерческой деятельности. Есть исключение для разработки, но опять с оговорками: лицензия Mistral AI прямо запрещает «любое внутреннее использование сотрудниками в контексте деловой деятельности организации». Возможно, причина появления ограничений в лицензии кроется в том, что Codestral частично обучалась работе с контентом, защищённым авторским правом. Впрочем, стартап не подтвердил это, но и не опроверг. По словам ресурса TechCrunch, есть свидетельства того, что предыдущие наборы обучающих данных стартапа содержали контент, защищённый авторским правом. TechCrunch утверждает, что Codestral не подходит для большинства разработчиков, поскольку, имея 22 млрд параметров, требует значительных вычислительных ресурсов. И хотя по некоторым критериям эта модель, возможно, превосходит конкурентов, это вряд ли можно назвать прорывом, считают аналитики TechCrunch. Разработчики используют инструменты генеративного ИИ для выполнения некоторых задач кодирования. Согласно опросу Stack Overflow, проведённому в июне 2023 года, 44 % разработчиков подтвердили использование инструментов генеративного ИИ, а 26 % сообщили о планах использовать их в ближайшем будущем. Однако у этих инструментов есть вполне очевидные недостатки, ведущие к ошибкам в программировании. Согласно исследованию Университета Пердью, более половины ответов на вопросы по программированию чат-бота OpenAI ChatGPT неверны. Тем не менее, Mistral AI запустила версию Codestral на своей диалоговой ИИ-платформе Le Chat, а также представила платный API. ИИ прокрался в «Госуслуги» — Минцифры тестирует разные генеративные нейросети на «Максе»
22.05.2024 [14:45],
Владимир Фетисов
Министерство цифрового развития, связи и массовых коммуникаций РФ проводит тестирование генеративного искусственного интеллекта в цифровом помощнике «Максе» на портале «Госуслуг». Об этом пишет информационное агентство ТАСС со ссылкой на слова замглавы ведомства Олега Качанова. «Да, конечно [тестируем]. <…> Генеративные нейросети планируется использовать в роботе "Максе". Это понятное для нас направление, мы уже идём по пути тестирования, отрабатываем разные варианты», — приводит источник слова господина Качанова. При этом замминистра не уточнил, какие именно нейросети стали основой для функций, проходящих тестирование на портале «Госуслуг». Он отметил, что на данный момент ни на каком конкретном варианте для «Макса» Минцифры не остановилось, но текущий этап уже можно назвать тестированием. Господин Качанов также рассказал, что внедрение нейросетей является недешёвым проектом, особенно если учесть, что не все из существующих алгоритмов одинаково полезны. «То есть можно было взять что-то своё [в плане движка], можно взять опенсорс-движки, можно взять некие проприетарные движки. Мы отрабатываем разные варианты, ни на каком конкретном ещё не остановились», — добавил замминистра. В Великобритании запустили платформу для оценки безопасности ИИ
12.05.2024 [15:37],
Владимир Мироненко
Британский Институт безопасности ИИ (AISI), созданный в ноябре 2023 года, запустил платформу Inspect, предназначенную для тестирования и оценки безопасности ИИ. Она упростит оценку ИИ для применения в промышленных, исследовательских и научных организациях. Набор инструментов Inspect, доступный по лицензии с открытым исходным кодом, включая лицензии MIT, предназначен для оценки определённых возможностей моделей ИИ в различных сферах, включая основные знания моделей и способность рассуждать, и выработки оценки на основе полученных результатов. По данным ресурса TechCrunch, платформа Inspect состоит из трех основных компонентов: наборов данных, инструментов решения и инструментов оценки. Наборы данных предоставляют образцы для оценочных тестов. Инструменты решения выполняют работу по проведению тестов. А инструменты оценки оценивают результаты и суммируют баллы тестов в метрики. Компоненты Inspect можно дополнить с помощью сторонних пакетов, написанных на Python. «Мы надеемся, что глобальное сообщество ИИ будет использовать Inspect не только для проведения собственных испытаний на безопасность моделей, но и для адаптации и развития платформы с открытым исходным кодом, чтобы мы могли производить высококачественные оценки по всем направлениям», — заявил председатель AISI Ян Хогарт (Ian Hogarth). Платформа Inspect была представлена спустя несколько дней после того, как Национальный институт стандартов и технологий США (The National Institute of Standards and Technology, NIST) анонсировал в конце апреля программу NIST GenAI, предназначенную для оценки различных технологий генеративного ИИ, включая модели, генерирующие текст и изображения. В апреле США и Великобритания объявили о партнёрстве, в рамках которого «правительства будут обмениваться техническими знаниями, информацией и талантливыми специалистами в области безопасности ИИ». В рамках сотрудничества в США будет создан институт безопасности ИИ, который займётся оценкой рисков, связанных с ИИ и генеративным ИИ. Microsoft создала секретный генеративный ИИ для спецслужб США — он полностью изолирован от интернета
07.05.2024 [20:03],
Сергей Сурабекянц
Корпорация Microsoft запустила предназначенную для спецслужб США модель генеративного искусственного интеллекта на суперкомпьютере, полностью изолированном от интернета. Теперь Малдер и Скалли смогут безопасно использовать современные технологии для анализа сверхсекретной информации. По словам представителя Microsoft, впервые большая языковая модель генеративного ИИ на основе GPT-4 полностью отделена от интернета. Большинство подобных моделей, включая ChatGPT от OpenAI, полагаются на облачные сервисы для обучения и определения закономерностей, но Microsoft хотела предоставить разведывательному сообществу США «по-настоящему безопасную систему». Разведывательные службы всех стран рассчитывают, что генеративный ИИ поможет в анализе быстро растущих объёмов ежедневно генерируемой секретной информации, но им необходимо сбалансировать обращение к большим языковым моделям с риском утечки или взлома. В прошлом году ЦРУ запустило службу, подобную ChatGPT, для работы с несекретными документами, но спецслужбам требовалось обрабатывать гораздо более конфиденциальные данные. «Идёт гонка по внедрению генеративного ИИ в разведывательные данные, — заявила помощник директора Центра транснациональных и технологических миссий ЦРУ Шитал Патель (Sheetal Patel). — Первая страна, которая будет использовать генеративный ИИ, выиграет эту гонку. И я хочу, чтобы это были мы». Microsoft потратила 18 месяцев на разработку и внедрение системы, включая капитальные доработки существующего суперкомпьютера в Айове. Представленная модель GPT4 является статической, то есть она может только анализировать информацию, но не обучаться на этих данных. Таким образом, правительство может сохранить свою модель «чистой» и предотвратить утечку секретной информации. Прогнозируется, что доступ к системе получат около 10 000 сотрудников со специальным допуском. Samsung прокачает голосового помощника Bixby генеративным ИИ
01.04.2024 [13:08],
Владимир Мироненко
Samsung планирует внедрить технологии генеративного искусственного интеллекта (ИИ) в голосовой помощник Bixby, что позволит повысить привлекательность устройств разработчика для пользователей, сообщил CNBC со ссылкой на топ-менеджера компании. Умный ассистент Bixby используется на всех устройствах Samsung — от смартфонов и умных часов до бытовой техники. Ранее стало известно о планах компании оснастить нейронными процессорами (NPU) все новые продукты в категории бытовой техники, включая телевизоры, посудомоечные машины, духовки, холодильники и кондиционеры. Вон Чжун Чой (Won-Joon Choi), исполнительный вице-президент мобильного бизнеса Samsung, ранее заявил ресурсу CNBC, что «Bixby стал ключевым голосовым помощником Samsung не только для мобильных устройств, но также для телевизоров и цифровых устройств, которые имеются в экосистеме компании». Топ-менеджер отметил, что с появлением технологий генеративного ИИ и больших языковых моделей (LLM) компании необходимо пересмотреть роль Bixby, чтобы он мог быть оснащён генеративным ИИ и стал «более умным в будущем». «Это позволит вести более естественный диалог и разработать интерфейс, поддерживающий продукты Samsung в нашей экосистеме», — подчеркнул Вон Чжун Чой. Чой сообщил, что в настоящее время Samsung усиленно работает над внедрением генеративного ИИ в Bixby, однако сроки анонса версии голосового помощника с расширенной функциональностью называть не стал. Как и многие производители смартфонов, Samsung стремится оснастить выпускаемые устройства более продвинутыми функциями ИИ. Недавно компания добавила ранее эксклюзивные для серии Galaxy S24 функции ИИ Galaxy AI в некоторые старые модели, включая серии смартфонов Galaxy S23, S23 FE, Galaxy Z Flip 5, Z Fold 5 и планшет Tab S9. Редакторы «Википедии» признали издание Cnet ненадёжным, поскольку на нём есть статьи, написанные ИИ
01.03.2024 [16:19],
Владимир Мироненко
Эксперимент ресурса CNET с использованием генеративного искусственного интеллекта для написания статей привёл к плачевным результатам — редакторы «Википедии» понизили его рейтинг надёжности из-за многочисленных ошибок в публикуемом контенте и наличия плагиата. В прошлом году много споров вызвала публикация ресурса Futurism, рассказавшего, что CNET в течение нескольких месяцев «потихоньку» публиковал статьи, написанные ИИ, не привлекая особого внимания общественности и не делая официальных заявлений по этому поводу. Статьи на финансовую тему начали появляться на сайте ресурса в ноябре 2022 года под подписью CNET Money Staff. Они были сгенерированы ИИ, о чём свидетельствует большое количество ошибок и порой дословное копирование работ других авторов. Из-за ошибок ресурсу CNET пришлось внести исправления в 41 из 77 статей, написанных с использованием ИИ. В связи с разоблачением Futurism руководство CNET отметило, что публикация статей с использованием ИИ производилась «без особого шума», но не «тайно», но вместе с тем приостановило эксперимент. Другие сайты, тоже принадлежащие Red Ventures, как и CNET, также приостановили публикацию статей, написанных с помощью ИИ. Согласно данным «Википедии», CNET имел самый высокий рейтинг надёжности до октября 2020 года. Затем с этой даты по октябрь 2022 года не было консенсуса, что, по мнению «Википедии», было связано с ухудшением редакционных стандартов после приобретения ресурса компанией Red Ventures. А с ноября 2022 года по настоящее время CNET классифицируется «Википедией» как «в целом ненадёжный» ресурс, что связано с наличием множества ошибок в статьях, написанных ИИ. Mastercard внедрила ИИ, который на 300 % повысит уровень выявления мошенников
01.02.2024 [16:12],
Владимир Мироненко
Финансовая корпорация Mastercard, владеющая одноимённой платёжной системой, запустила усовершенствованную модель генеративного искусственного интеллекта Decision Intelligence Pro собственной разработки, которая позволит банкам лучше отслеживать подозрительные транзакции в её сети в режиме реального времени и определять, являются ли они законными или нет. Об этом сообщил ресурс CNBC со ссылкой на эксклюзивное интервью представителя Mastercard. Аджай Бхалла (Ajay Bhalla), президент бизнес-подразделения Mastercard по кибербезопасности и разведке, рассказал CNBC, что новое решение представляет собой запатентованную рекуррентную нейронную сеть, созданную с нуля командами Mastercard по кибербезопасности и борьбе с мошенничеством. «Мы используем модели-трансформеры, которые, по сути, помогают получить мощь генеративного ИИ, — сообщил Бхалла. — Всё это было создано собственными силами, у нас есть все виды данных из экосистемы. Благодаря характеру нашей деятельности, мы видим все данные о транзакциях, которые поступают к нам из экосистемы». Он отметил, что в некоторых случаях Mastercard полагается на открытый исходный код «всякий раз, когда это необходимо», но «большая часть» технологий создаётся собственными силами компании. Собственный алгоритм Mastercard обучен на данных примерно 125 млрд транзакций, которые ежегодно совершаются в платёжной сети компании. Вместо текстового ввода он использует историю посещений торговых точек держателем карты в качестве подсказки для определения того, является ли бизнес, участвующий в транзакции, местом, куда с большой вероятностью направится покупатель. Затем алгоритм генерирует пути через сеть Mastercard, чтобы оценить варианты. Более высокий балл в оценке будет соответствовать модели обычного поведения, ожидаемого от держателя карты, а более низкий балл — за пределами этой модели. Весь этот процесс занимает всего 50 миллисекунд. По словам Бхаллы, новая ИИ-технология позволит финансовым учреждениям повысить уровень обнаружения мошенничества в среднем на 20 %. Однако в некоторых случаях эта модель привела к повышению уровня выявления мошенничества на целых 300 %, добавил он. Mastercard ожидает, что её алгоритм также позволит банкам сэкономить до 20 % на затратах на оценку незаконных транзакций. Однако истинный потенциал новой технологии Mastercard, как полагает Бхалла, заключается в её способности выявлять мошеннические модели и тенденции для прогнозирования будущих типов мошенничества, которые пока не встречались в платёжной экосистеме. YouTube обяжет маркировать контент, созданный с помощью ИИ — нарушителей отключат от монетизации
15.11.2023 [09:30],
Владимир Фетисов
Видеосервис YouTube готовится к изменению политики платформы в отношении размещаемого пользователями контента. В скором времени авторы будут обязаны помечать ролики, при создании которых использовались инструменты на базе искусственного интеллекта. Соответствующее сообщение появилось в блоге YouTube. В ближайшие несколько месяцев YouTube введёт новые правила, чтобы пользователи сервиса могли чётко понимать, когда перед ними сгенерированный ролик, а когда настоящее видео. Новые правила, в том числе, затронут созданные с помощью ИИ видео, на которых человек что-то говорит или делает, чего никогда не делал в реальной жизни. «Мы потребуем от авторов раскрытия информации о том, когда они создали изменённый или синтетический контент, являющийся реалистичным, в том числе с использованием инструментов искусственного интеллекта. При загрузке контента у авторов появятся новые опции, которые позволят указать, что ролик содержит реалистично изменённый или синтетический материал. Например, это может быть созданное искусственным интеллектом видео, реалистично изображающее событие которого никогда не было, или контент, показывающий, как кто-то говорит или делает то, чего на самом деле не делал», — говорится в сообщении YouTube. В сообщении отмечается, что возможность отличить сгенерированное видео от реального особенно важна, когда речь заходит об обсуждении деликатных тем, таких как политические выборы, продолжающиеся конфликты, кризисы в области общественного здравоохранения или обсуждение государственных должностных лиц. Авторы, которые не будут соблюдать новые правила и откажутся от маркировки ИИ-контента, подвергнутся штрафным санкциям. Опубликованные ими видео могут быть удалены с площадки, а сами авторы могут быть исключены из партнёрской программы YouTube. Что касается самой маркировки, то она будет отображаться в описании ролика, а также поверх самого видео. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |