Опрос
|
реклама
Быстрый переход
В YouTube вот-вот появится ИИ для генерации идей, описаний и даже целых видео
18.09.2024 [21:49],
Владимир Фетисов
Технологии на основе искусственного интеллекта уже успели стать частью многих сервисов Google. Принадлежащий IT-гиганту видеохостинг YouTube не стал исключением, и уже в скором времени новейшие алгоритмы станут доступны пользователям сервиса. В рамках мероприятия Made on YouTube разработчики анонсировали несколько функций, которые, вероятно, изменят то, как авторы контента создают видео, а также сами ролики, публикуемые на платформе. ![]() Источник изображения: YouTube Первая функция называется «Вдохновение» и появится в YouTube Studio. Последние несколько месяцев этот инструмент тестировался с привлечением ограниченного числа пользователей. Данная функция фактически предназначена для того, чтобы подсказывать авторам контента, что им следует делать. Она может предложить концепцию видео, сгенерировать заголовок и миниатюру для ролика, а также подготовить текстовое описание. YouTube позиционирует функцию как инструмент для мозгового штурма, но в целом она может быть полезна и при создании полноценных проектов. Кроме того, пользователи YouTube смогут генерировать реалистичные видео с помощью мощной нейросети Veo, которую представили ранее в этом году и теперь интегрировали в Shorts. Представитель Google отметил, что Veo уже интегрирован в облачный редактор Shorts, а созданные с его помощью ролики будут помечены соответствующим образом, чтобы зрители знали, что видео создано с помощью ИИ. Обе новые функции будут внедряться постепенно и станут доступны всем авторам контента в конце этого или начале следующего года. В YouTube появятся и другие инструменты на базе нейросетей. К ним относится функция автоматического дубляжа видео, которая будет озвучивать ролики на разные языки. Платформа также предоставит авторам больше ИИ-инструментов для взаимодействия с подписчиками через раздел «Сообщества» в приложении YouTube. В Калифорнии приняли законы о защите артистов от искусственного интеллекта
18.09.2024 [19:53],
Сергей Сурабекянц
Достижения в области генеративного ИИ ставят под угрозу существование многих творческих профессий. Актёры опасаются, что имитация их образов может стать обычным явлением. Губернатор Калифорнии Гэвин Ньюсом (Gavin Newsom) подписал 17 сентября два законопроекта, которые призваны помочь актёрам, музыкантам и другим исполнителям защитить свои цифровые копии в аудио- и визуальных постановках от копирования при помощи искусственного интеллекта. ![]() Источник изображения: unsplash.com Подписание этих законопроектов стало реакцией на обоснованную обеспокоенность общества в отношении бума искусственного интеллекта, в процессе которого большие языковые модели, обученные на соответствующем материале, в состоянии создавать фейковые видео, изображения и аудиоматериалы, с высокой точностью имитирующие реальных людей. В связи с этим многие эксперты подняли правовые и этические вопросы использования ИИ. Один из законопроектов, подписанных Ньюсомом, требует, чтобы в «контрактах указывалось использование созданных ИИ цифровых копий голоса или образа исполнителя, а исполнитель должен быть профессионально представлен при обсуждении контракта». Другой законопроект запрещает «коммерческое использование цифровых копий умерших исполнителей в фильмах, телешоу, видеоиграх, аудиокнигах, звукозаписях и многом другом без предварительного получения согласия наследников этих исполнителей». В марте губернатор Теннесси Билл Ли (Bill Lee) подписал подобный законопроект, направленный на защиту артистов, включая музыкантов, от несанкционированного использования их образов и голосов искусственным интеллектом. Ранее администрация президента США пыталась оказать давление на законодателей с целью регулирования ИИ, но поляризованный Конгресс США, где республиканцы контролируют Палату представителей, а демократы контролируют Сенат, не добился большого прогресса в разработке и принятии эффективного законодательства. Евросоюз смог дальше продвинуться в этом направлении: европейский «Закон об ИИ», основанный на оценке рисков, вступил в силу 1 августа 2024 года. Положения документа будут внедряться поэтапно вплоть до середины 2026 года. Уже через шесть месяцев планируется обеспечить соблюдение запретов на несколько видов использования ИИ в конкретных сценариях. Новые языки в Apple Intelligence будут появляться в течение 2025 года, но русского среди них пока не значится
18.09.2024 [16:01],
Павел Котов
Послезавтра, 20 сентября, в продажу поступят iPhone 16 — телефоны созданные для работы с искусственным интеллектом, но на старте ни одна из этих функций работать не будет. Пакет ИИ-функций Apple Intelligence на начальном этапе будет поддерживать только американский вариант английского языка — набор поддерживаемых языков значительно расширится лишь в следующем году. ![]() Источник изображения: apple.com В 2025 году функции Apple Intelligence получат поддержку немецкого, итальянского, корейского, португальского и других языков, пишет The Verge со ссылкой на сообщение Apple. В декабре этого года пакет расширит набор доступных функций и сможет работать с вариантами английского языка, которые используются в Великобритании, Канаде, Австралии, ЮАР и Новой Зеландии, а в следующем году к ним добавятся диалекты Индии и Сингапура. Ранее Apple также сообщила о планах в следующем году добавить поддержку китайского, французского, японского и испанского языков. Apple Intelligence уделяется большое значение в iPhone 16, но к моменту выхода в продажу телефоны линейки будут лишены функций ИИ — они будут постепенно добавляться в течение осени. Полный комплект будет доступен лишь в 2025 году — даже для пользователей, которые живут в США, хотя они обычно получают доступ к передовым решениям первыми. Зонд NASA «Юнона» обнаружил гигантский новорожденный вулкан на спутнике Юпитера Ио
18.09.2024 [15:24],
Геннадий Детинич
Самое геологически активное небесное тело Солнечной системы — усыпанный сотнями действующих вулканов спутник Юпитера Ио — продолжает раскрывать свои секреты под наблюдением зонда NASA «Юнона» (Juno). «Юнона» давно выполнила свою основную научную программу и сейчас на остатках ресурсов оборудования совершает облёты Юпитера, сближаясь по возможности с некоторыми его спутниками, не переставая радовать учёных и рядовых граждан уникальными снимками. ![]() Источник изображений: NASA Осенью 2023 года и зимой 2024 года «Юнона» совершила близкие облёты Ио. Так, в феврале 2024 года зонд пролетел над спутником на высоте 2530 км, что позволило сделать цветные снимки поверхности Ио с разрешением 1,7 км/пиксель. При этом поверхность освещалась отражённым от Юпитера светом Солнца, что не помешало получить цветные снимки хорошего качества. На одном из них учёные обнаружили впечатляющий по размерам вулкан, которого ещё не было на снимках зонда «Галилео», сделанных в 1997 году. Получается, что гигантская структура появилась на поверхности Ио за последние примерно 25 лет. Она включает в себя сам вулкан и разливы лавы с обрамлением из красной серы, выпавшей обратно на поверхность после извержений. Весь новый массив расположен на площади со сторонами примерно по 180 км. Это, в принципе, самая большая появившаяся за последние четверть века на Ио геологическая структура. ![]() В 2024 году на ровном месте обнаружено что-то новенькое «Наши недавние снимки JunoCam показывают множество изменений на Ио, включая этот крупный, сложный вулканический объект, который, по-видимому, сформировался из ничего с 1997 года», — пояснил Майкл Рейвин (Michael Ravine), руководитель передовых проектов Malin Space Science Systems, которая спроектировала и эксплуатирует прибор JunoCam для проекта NASA Juno. Восточная сторона вулкана окрашена в рассеянный красный цвет из-за серы, которая была выброшена вулканом в космос и осела обратно на поверхность Ио. На западной стороне изверглись два темных потока лавы, каждый протяженностью около ста километров. В самой дальней точке потоков, где скопилась лава, высокая температура привела к испарению замерзшего материала на поверхности, в результате чего образовались два накладывающихся друг на друга серых круглых отложения. ![]() Сравнение нового образования на Ио с Берлином и окрестностями Все старые и новые снимки «Юноны» доступны на сайте миссии. NASA не делает секрета из получаемой информации, доступ к которой может получить каждый желающий. Новая ИИ-модель OpenAI o1 стала не только лучше рассуждать, но и обманывать ради достижения цели
18.09.2024 [08:10],
Дмитрий Федоров
Новая модель OpenAI под названием o1, согласно исследованию фирмы Apollo, демонстрирует необычное поведение — способность генерировать ложную информацию и симулировать выполнение правил. Это означает, что модель, внешне следуя инструкциям, фактически может их игнорировать и даже сознательно обманывать, для достижения целей. Этот аспект вызывает беспокойство у специалистов по безопасности ИИ, несмотря на улучшенные когнитивные способности ИИ-модели. ![]() Источник изображения: Chris_and_Ralph / Pixabay В преддверии выпуска новой «думающей» модели o1 компанией OpenAI фирма Apollo выявила заметную проблему: ИИ-модель производит некорректные результаты новым способом, а фактически «лжёт». Хотя ранее ИИ-модели могли выдавать ложную информацию, o1 обладает уникальной способностью к «манипуляции» или «имитации выравнивания». Генеральный директор Apollo Мариус Хоббхан (Marius Hobbhahn) сообщил, что впервые столкнулся с таким поведением ИИ и считает, что разница связана со способностью модели «рассуждать» через процесс цепочки мыслей и сочетанием этого с обучением с подкреплением, которое обучает систему с помощью поощрений и наказаний. Одним из направлений, в которые он надеется увидеть больше инвестиций, является именно мониторинг цепочек мыслей, что позволит разработчикам выявлять нежелательные действия ИИ. Во время тестирования специалисты Apollo обнаружили, что ИИ-модель симулировала согласованность с ожиданиями разработчиков и манипулировала задачами, чтобы казаться соответствующей поставленным требованиям. Она даже проверяла, следят ли за ней разработчики, перед тем как начать действовать. В итоге ИИ-модель следовала установленным правилам и инструкциям настолько, чтобы ею можно было пользоваться, но, одновременно с этим, продолжала сама определять приоритеты своих задач. Это связано с тем, что для ИИ правила могут быть слишком тяжёлым бременем, и машина, похоже, способна пренебречь ими, если это позволит легче выполнить задачу. В качестве примера исследователи OpenAI попросили o1-preview предоставить рецепт пирожного с онлайн-ссылками. Цепочка мыслей ИИ-модели — функция, которая должна имитировать то, как люди разбивают сложные идеи, — внутренне признала, что не может получить доступ к URL-адресам, что делало запрос исследователей невыполнимым. Однако вместо того чтобы сообщить об этом недостатке, o1-preview сгенерировала правдоподобные, но фальшивые ссылки и их описания. ИИ-модель o1 — это большой шаг на пути к высокоинтеллектуальным автономным системам, которые смогут, например, лечить рак или помогать в исследовании климата. Однако обратная сторона этой утопии может быть гораздо более мрачной. Хоббхан приводит пример: если ИИ будет сосредоточен исключительно на лечении рака, он может поставить эту цель превыше всего, даже оправдывая такие действия, как воровство или другие этические нарушения для её достижения. Согласно отчёту по безопасности, примерно в 0,38 % случаев модель o1-preview предоставляет информацию, которую её цепочка мыслей считает вероятно ложной, включая фальшивые ссылки или цитаты. Apollo обнаружила, что ИИ-модель может фабриковать данные вместо признания своей неспособности выполнить запрос. В редких случаях (0,02 %) o1-preview генерирует чрезмерно уверенные ответы, представляя сомнительную информацию как достоверную. Это может происходить в ситуациях, когда ИИ подталкивают дать ответ, несмотря на отсутствие уверенности в его корректности. Это поведение может быть связано со «взломом вознаграждения» во время обучения с подкреплением. Модель обучена отдавать приоритет удовлетворению пользователя, что иногда приводит к генерации согласованных или сфабрикованных ответов для удовлетворения запросов. Таким образом, модель может «лгать», поскольку усвоила, что это приносит ей положительное подкрепление. Что отличает эти новые ложные ответы от привычных проблем, таких как галлюцинации или фальшивые цитаты в более ранних версиях ChatGPT, так это элемент «взлома вознаграждения». Галлюцинации возникают, когда ИИ непреднамеренно генерирует неверную информацию из-за пробелов в знаниях или ошибочного рассуждения. В отличие от этого, взлом вознаграждения происходит, когда ИИ-модель o1 стратегически предоставляет неверную информацию, чтобы максимизировать результаты, которые она была обучена определять как приоритетные. Согласно отчёту по безопасности, o1 имеет «средний» риск в отношении химического, биологического, радиологического и ядерного оружия. Она не позволяет неспециалистам создавать биологические угрозы из-за отсутствия практических лабораторных навыков, но может предоставить ценную информацию экспертам для воспроизведения таких угроз. «Меня больше беспокоит то, что в будущем, когда мы попросим ИИ решить сложные проблемы, например, вылечить рак или улучшить солнечные батареи, он может настолько сильно усвоить эти цели, что будет готов нарушить свои защитные механизмы, чтобы достичь их. Я думаю, что это можно предотвратить, но мы должны следить за этим», — подчеркнул Хоббхан. Эти опасения могут показаться преувеличенными для ИИ-модели, которая иногда всё ещё испытывает трудности с ответами на простые вопросы, но глава отдела готовности OpenAI Хоакин Киньонеро Кандела (Joaquin Quiñonero Candela) считает, что именно поэтому важно разобраться с этими проблемами сейчас, а не позже. «Современные ИИ-модели не могут автономно создавать банковские счета, покупать GPU или предпринимать действия, представляющие серьёзные риски для общества. Мы знаем из оценок автономности ИИ-моделей, что мы ещё не достигли этого уровня», — отметил Кандела. Кандела подтвердил, что компания уже занимается мониторингом цепочек мыслей и планирует расширить его, объединив модели, обученные выявлять любые несоответствия, с работой экспертов, проверяющих отмеченные случаи, в паре с продолжением исследований в области выравнивания. «Я не беспокоюсь. Она просто умнее. Она лучше соображает. И потенциально она будет использовать эти рассуждения для целей, с которыми мы не согласны», — резюмировал Хоббхан. ChatGPT вдруг стал первым затевать разговоры и задавать странные вопросы — OpenAI устранила сбой
18.09.2024 [06:17],
Дмитрий Федоров
OpenAI объявила об устранении проблемы, из-за которой ChatGPT самостоятельно отправлял сообщения пользователям без их запроса. Этот инцидент вызвал обеспокоенность среди пользователей Reddit, обнаруживших необычное поведение ИИ-чат-бота, но компания разъяснила причины сбоя и заверила, что это больше не повторится. ![]() Источник изображения: AllThatChessNow / Pixabay На прошлых выходных пользователь Reddit под ником SentuBill опубликовал скриншот, на котором ChatGPT инициировал диалог, спросив: «Как прошла твоя первая неделя в старшей школе? Ты хорошо освоился?». Подобное поведение оказалось неожиданным для чат-бота, который обычно реагирует исключительно на запросы пользователей. Удивлённый SentuBill ответил: «Ты только что написал мне первым?». ChatGPT подтвердил: «Да, я так и сделал! Я просто хотел узнать, как прошла твоя первая неделя в старшей школе. Если ты предпочитаешь сам начинать разговор, просто дай мне знать!». Этот обмен сообщениями вызвал широкий резонанс в сообществе. ![]() Источник изображения: SentuBill / Reddit Появление таких сообщений привело к спекуляциям о том, что OpenAI тестирует новую функцию, позволяющую ChatGPT самостоятельно обращаться к пользователям для повышения вовлечённости. Некоторые предположили, что это может быть связано с недавно представленными ИИ-моделями OpenAI — o1-preview и 01-mini, которые, по утверждению компании, обладают «человеческой» способностью рассуждать и способны справляться со сложными задачами. В ответ на запросы журналистов OpenAI признала наличие проблемы и сообщила об её устранении. «Мы исправили проблему, из-за которой казалось, что ChatGPT начинает новые разговоры. Эта ошибка возникала, когда ИИ-модель пыталась ответить на сообщение, которое не было корректно отправлено и выглядело пустым. В результате она либо давала общий ответ, либо опиралась на собственную память», — заявили в компании. Между тем, в интернете разгорелись споры о подлинности скриншота. Некоторые издания утверждали, что подтвердили его, изучив журнал сообщений на ChatGPT.com. Однако разработчик ИИ Бенджамин де Кракер (Benjamin de Kraker) в видео на платформе X (ранее Twitter) продемонстрировал, что добавление пользовательских инструкций, заставляющих ChatGPT сразу же обращаться к пользователю перед началом разговора, и ручное удаление первого сообщения могут привести к схожему результату. Тем не менее, другие пользователи сообщили о подобных случаях. «У меня было такое на этой неделе!» — написал другой пользователь Reddit. «Я спрашивал его на прошлой неделе о некоторых симптомах здоровья, а на этой неделе он спросил меня, как я себя чувствую и как прогрессируют мои симптомы! Это меня очень насторожило». Сообщество социальных сетей активно обсуждало ситуацию, зачастую с долей юмора. «Нам обещали ИИ общего назначения (AGI), а вместо этого мы получили сталкера», — пошутил один из пользователей X. «Подождите, пока он не начнёт пытаться взломать нас», — добавил другой. Инцидент с неожиданными сообщениями от ChatGPT подчёркивает сложности в разработке и тестировании продвинутых ИИ-моделей. Несмотря на оперативную реакцию OpenAI и быстрое устранение проблемы, ситуация подняла вопросы о границах взаимодействия между человеком и ИИ. Подобные случаи подчёркивают необходимость тщательного контроля и оценки ИИ-систем перед их широким внедрением, чтобы обеспечить безопасность и этичность их использования. Google поможет отличать настоящие изображения от подделок ИИ
17.09.2024 [18:13],
Павел Котов
Google намерена сделать общедоступным решение, которое поможет определить, было ли изображение сделано камерой, отредактировано с помощью ПО вроде Photoshop или создано при помощи модели генеративного искусственного интеллекта. В ближайшие месяцы в результатах поиска Google появится обновлённая функция «Об этом изображении», которая поможет пользователям понять, использовался ли ИИ при создании или редактировании изображения. ![]() Источник изображения: c2pa.org Используемая системой Google технология разработана на основе стандарта метаданных, продвигаемого организацией C2PA (Coalition for Content Provenance and Authenticity) — одной из нескольких организаций, которые стремятся решить проблему изображений, созданных с помощью ИИ. Аутентификация C2PA включает информацию о происхождении изображений и применяется аппаратными и программными системами для создания цифрового следа. Её поддержали компании Amazon, Microsoft, Adobe, Arm, OpenAI, Intel, Truepic и Google, однако развёртывание решения идёт медленно. Интеграция в результаты поиска Google станет первым серьёзным испытанием этой инициативы. Google участвовала в разработке новейшего технического стандарта C2PA 2.1, и новая функция поиска будет использоваться совместно с доверенным списком C2PA. «Например, если данные указывают, что изображение было снято на камеру определённой модели, доверенный список поможет подтвердить точность этой информации», — пояснили в Google. Компания также планирует интегрировать C2PA в свои рекламные системы и рассматривает вопрос о внедрении стандарта на YouTube. C2PA уже поддерживается камерами Leica и Sony, а добавление его в свою продукцию пообещали Nikon и Canon. Ожидается, что аналогичный шаг сделают Apple и Google — разработчики крупнейших мобильных операционных систем. Метаданные C2PA добавляются в Adobe Photoshop и Lightroom, но пока не поддерживаются в Affinity Photo и Gimp. Большинство онлайн-платформ также пока не интегрировали это решение, но, возможно, они последуют примеру поисковой системы Google. OpenAI создала независимое подразделение для приостановки выпуска опасных ИИ-моделей
17.09.2024 [06:24],
Дмитрий Федоров
OpenAI объявила о реорганизации своего комитета по безопасности и защите в независимый наблюдательный орган совета директоров. Новая структура получила беспрецедентные полномочия, включая право приостановки релизов ИИ-моделей по соображениям безопасности. Решение было принято по итогам 90-дневного анализа процедур и мер безопасности компании, отражая растущее внимание к этическим аспектам развития ИИ. ![]() Источник изображения: sergeitokmakov / Pixabay Согласно OpenAI, в трансформированный комитет, возглавляемый Зико Колтером (Zico Kolter), также входят Адам Д'Анджело (Adam D'Angelo), Пол Накасоне (Paul Nakasone) и Николь Селигман (Nicole Seligman). Примечательно, что Сэм Альтман (Sam Altman), генеральный директор OpenAI, больше не входит в его состав. Новая структура будет получать информацию от руководства компании об оценке безопасности основных релизов ИИ-моделей и, вместе с полным составом совета директоров, будет осуществлять надзор за их запуском, включая право отложить релиз до устранения проблем с безопасностью. Полный состав совета директоров OpenAI также будет получать периодические брифинги по вопросам безопасности и защиты. Структура нового комитета вызывает вопросы о степени его независимости, учитывая, что все его члены входят в состав совета директоров OpenAI. Это отличает его от наблюдательного совета Meta✴, члены которого полностью независимы от совета директоров корпорации. Наблюдательный совет Meta✴ обладает полномочиями пересматривать решения по контентной политике и выносить обязательные для исполнения решения, тогда как комитет OpenAI фокусируется лишь на оценке безопасности ИИ-моделей перед их выходом. 90-дневный анализ процессов безопасности OpenAI выявил дополнительные возможности для сотрудничества в индустрии ИИ и обмена информацией. Компания заявила о намерении расширить обмен данными о своей работе в области безопасности и увеличить возможности для независимого тестирования систем. Однако конкретные механизмы реализации этих намерений пока не раскрыты. Intel объявила о выделении производства чипов в независимую компанию и других шагах по выходу из кризиса
17.09.2024 [02:00],
Анжелла Марина
Компания Intel объявила о стратегических изменениях, направленных на укрепление своего финансового положения и технологического потенциала, включая выделение бизнеса по производству чипов в самостоятельную компанию и сделку с Amazon по производству ИИ-чипов. Компания нацелена на сокращение расходов и пересмотр инвестиций в производство, а также повышении эффективности капитальных вложений. ![]() Intel объявила о масштабной реструктуризации бизнеса, которая затронет практически все аспекты деятельности компании, начиная от производства и заканчивая продуктовым портфелем. Генеральный директор Intel Пэт Гелсингер (Pat Gelsinger) в своём обращении к сотрудникам 16 сентября 2024 года подчеркнул, что целью преобразований является повышение эффективности, оптимизация расходов и усиление фокуса на ключевых направлениях, таких как разработка x86-совместимых процессоров и бизнес по производству чипов (Intel Foundry). «Мы должны действовать быстро, чтобы создать более конкурентоспособную структуру затрат и достичь целевого показателя экономии в $10 млрд», — заявил Гелсингер. Одним из ключевых шагов станет превращение Intel Foundry в независимую дочернюю компанию внутри Intel. «Такая структура обеспечит нашим клиентам и поставщикам Foundry большую прозрачность и независимость от остального Intel, — пояснил Гелсингер. — Это также позволит Intel Foundry активнее привлекать внешнее финансирование и оптимизировать свою капитальную структуру для ускорения роста ». Компания также пересматривает свои инвестиции в производство, стремясь к большей эффективности капитальных вложений, в том числе приостанавливает проекты по строительству новых фабрик в Польше и Германии на два года, ориентируясь на текущий рыночный спрос. Что касается запуска производственного центра в Малайзии, то он будет достроен, но его ввод в эксплуатацию будет синхронизирован с рыночными условиями и загрузкой существующих мощностей. При этом Intel подтверждает свою приверженность инвестициям в производство в США и продолжает реализацию проектов в Аризоне, Орегоне, Нью-Мексико и Огайо. Вместе с тем, компания намерена сместить акцент с агрессивного наращивания производственных мощностей на более гибкое и эффективное планирование, соответствующее темпам развития технологий. ![]() Источник изображения: Intel Одновременно с этим объявлено о расширении стратегического партнёрства с Amazon Web Services (AWS). AWS выбрала Intel Foundry для производства нового ИИ-чипа на базе передовой технологии Intel 18A, а также специализированного процессора Xeon 6 на базе Intel 3. В рамках реструктуризации Intel также оптимизирует свой портфель продуктов, стремясь к большей интеграции и фокусировке на ключевых направлениях. «Наш главный приоритет — максимизировать ценность франшизы x86 на рынках клиентских устройств, периферийных вычислений и центров обработки данных, — подчеркнул генеральный директор. — Компания продолжит инвестировать в развитие ИИ-технологий, включая лидерство в категории ПК с искусственным интеллектом и укрепление позиций в центрах обработки данных». При этом для повышения эффективности ряд подразделений будут реорганизованы. В частности, Edge и Automotive будут объединены с CCG, а Integrated Photonics Solutions перейдёт в DCAI. Гелсингер в своём обращении также отметил, что для достижения намеченного целевого показателя экономии в $10 млрд Intel продолжит сокращать расходы. Для этого уже предприняты определённые действия: сокращено по программе добровольного увольнения более половины штата сотрудников (примерно 15 000), планируется отказаться от примерно двух третей недвижимости по всему миру к концу года, а также продать часть доли в Altera для получения дополнительных средств. «Нам предстоит принять ещё ряд сложных решений, — признал Гелсингер. — Но все эти меры направлены на то, чтобы превратить Intel в более гибкую, простую и эффективную систему, способную успешно конкурировать на рынке и обеспечивать долгосрочный рост». Стоит отметить, что недавно Intel получила около $3 млрд прямого финансирования в рамках федерального «Закона о чипах и науке» (CHIPS and Science Act) подписанного президентом Джо Байденом (Joe Biden) США в 2022 году. Визуальный ИИ-поиск Visual Intelligence может подготовить почву для умных очков Apple
14.09.2024 [18:58],
Павел Котов
Представленная Apple функция Visual Intelligence стала одним из наиболее интересных нововведений на презентации iPhone 16. Она позволяет владельцу устройства сканировать мир вокруг себя через камеру телефона — искусственный интеллект поможет определить породу собаки, скопировать информацию о мероприятии с плаката, узнать меню кафе или найти что-нибудь полезное поблизости. ![]() Источник изображения: apple.com Эта удобная функция может также подготовить почву для более интересных продуктов в будущем — нечто подобное понадобится Apple, например, для выпуска очков дополненной реальности. На презентации компания привела пример, когда посетитель ресторана узнаёт о нём больше, произведя поиск при помощи камеры iPhone. Это же можно было бы сделать, воспользовавшись не телефоном, а умными очками, и задав вопрос им. Meta✴ уже доказала, что очки с помощником на основе ИИ могут стать полезным инструментом для идентификации объектов. Apple вполне способна сделать нечто подобное, обеспечив интеграцию с данными, которые есть у iPhone, что сделает Visual Intelligence ещё более удобной функцией. В ассортименте компании уже есть гарнитура с камерами — Vision Pro, — но большинство её владельцев пользуется ей только дома, и о своём доме они знают многое. По неофициальным сведениям, Apple действительно ведёт разработку очков дополненной реальности, но, как утверждают инсайдеры, устройство пока планируется к выпуску в 2027 году, и сами сотрудники в этот срок пока не верят. Когда бы устройство не появилось, программная часть для него разрабатывается уже сейчас — Visual Intelligence может оказаться первым шагом к такому гаджету. У Apple уже есть примеры такой работы: компания годами прорабатывала технологии дополненной реальности в iPhone, прежде чем выпустила Vision Pro — громоздкая гарнитура также может превратиться в компактные очки. Подобные устройства вполне могут стать новым полем битвы технологических гигантов. Та же Qualcomm сейчас, по её собственному признанию, работает над очками смешанной реальности совместно с Samsung и Google. Но пока Visual Intelligence должна полноценно заработать на iPhone. Способность OpenAI достичь капитализации в $150 млрд будет зависеть от изменения организационной структуры
14.09.2024 [06:16],
Алексей Разин
О намерениях потенциальных инвесторов добиться от OpenAI выгодной для них реорганизации сообщалось и ранее, а теперь Reuters утверждает, что от предлагаемых реформ будет сильно зависеть сама возможность дальнейшего привлечения капитала, которая оценит бизнес стартапа в $150 млрд. ![]() Источник изображения: OpenAI По данным источника, новый раунд финансирования OpenAI будет подразумевать выпуск конвертируемых облигаций, которые позволят держателям долговых обязательств стартапа в будущем обменять их на долю в капитале. Потенциальные кредиторы теперь настаивают, что OpenAI должна изменить свою организационную структуру и снять ограничения на получаемую инвесторами прибыль. Как поясняет источник, после своего основания в 2015 году OpenAI ограничила размер будущей прибыли инвесторов стократной величиной их вложений. Всё, что было бы заработано сверх определённой суммы, направлялось бы на нужды некоммерческой организации, которая и руководит работой OpenAI. Последующие раунды финансирования лишь сокращали эту пропорцию, ещё сильнее ограничивая величину доступной инвесторам прибыли. Принято считать, что OpenAI удалось за историю своего существования привлечь более $10 млрд инвестиций, причём основную часть средств внесла корпорация Microsoft, которая в итоге не может получать более половины прибыли OpenAI. Как ожидается, в новом раунде финансирования стартапа готовы повторно принять участие Thrive Capital, Khoshla Ventures и Microsoft, но к ним присоединятся Nvidia, Apple и Sequoia Capital. Если переговоры с инвесторами об изменении организационной структуры по примеру большинства коммерческих корпораций не увенчаются успехом, то цена конверсии выпускаемых облигаций в рамках обсуждаемого раунда финансирования может снизиться. Совету директоров OpenAI также придётся рассмотреть вопрос о снятии ограничений на размер прибыли, которую могут получать инвесторы. Стартап уже проводит консультации с юристами по поводу возможности изменения собственной оргструктуры. OpenAI в определённой степени придерживается ограничения на пропорцию прибыли, получаемой инвесторами, исходя из своей изначальной миссии как некоммерческой организации. Если предлагаемые новыми инвесторами изменения будут реализованы, то от изначальной миссии стартапа придётся отказаться. Февральский этап финансирования OpenAI оценил капитализацию стартапа в $80 млрд, как напоминает Reuters. В рамках нового этапа планируется привлечь $6,5 млрд, но инвесторы ставят условия, учитывающие их коммерческие интересы. Технология масштабирования AMD FSR 4.0 будет полностью основана на ИИ и повысит энергоэффективность GPU
14.09.2024 [01:24],
Николай Хижняк
Старший вице-президент и генеральный менеджер группы вычислительных и графических решений AMD Джек Гуинь (Jack Huynh) сообщил порталу Tom’s Hardware, что компания AMD уже ведёт разработку технологии масштабирования изображения FidelityFX Super Resolution 4.0. Она будет отличаться от актуальной версии FSR 3.0. ![]() В масштабном интервью на выставке электроники IFA 2024, проходившей в Берлине, Tom’s Hardware расспросил топ-менеджера AMD о планах компании на ближайшее будущее. Из этого разговора, например, стало известно, что AMD хочет объединить RDNA для игр и CDNA для ИИ-ускорителей в единую графическую архитектуру UDNA, сместить акцент с ограниченного сегмента флагманских видеокарт для энтузиастов и увеличить своё присутствие в массовом сегменте GPU, а также выпустить процессоры Kraken для ноутбуков Copilot+ PC стоимостью до $799. Ещё одной темой обсуждения стала новая технология масштабирования FidelityFX Super Resolution 4.0, которую Гуинь затронул при разговоре о портативных приставках. По его словам, AMD занимается разработкой FSR 4.0 уже около года. Новая технология будет полностью полагаться на ИИ-алгоритмы, а одно из её ключевых преимуществ связано с повышением энергоэффективности GPU, которые используются в портативных игровых приставках. «Что касается портативных устройств, то мой главный приоритет — это время работы от батареи. Если посмотреть на Asus ROG Ally или Lenovo Legion Go, то там практически нет времени работы от батареи. Мне нужно несколько часов. Мне нужна возможность играть в Wukong три часа, а не 60 минут. Вот где вступают в дело генерация кадров и интерполяция, поэтому мы и работаем над FSR 4. Технологии FSR2 и FSR3 основаны на аналитической генерации. Они были основаны на фильтрах. Мы сделали так, потому что хотели быстро выйти на рынок с этим решением. Однако потом я сказал команде: “Ребята, это не то, куда движется будущее”. Поэтому мы полностью изменили подход около 9–12 месяцев назад, чтобы перейти на ИИ», — заявил Гуинь. «Теперь мы переходим на генерацию кадров на основе ИИ, интерполяцию кадров. Идея заключается в повышении эффективности для максимального увеличения времени автономной работы от батареи. И уже тогда мы могли бы зафиксировать количество кадров в секунду, может быть, на уровне 30 или 35. Моя главная цель сейчас — максимально увеличить время работы от батареи. Я думаю, что это самая большая жалоба [потребителей]», — добавил Гуинь. ![]() В своём комментарии представитель AMD ничего не сказал об использовании FSR 4.0 с другими устройствами, например ноутбуками. Будет ли новая технология масштабирования в этом случае полагаться на ИИ-ускорители (NPU) в составе тех же процессоров Strix Point? Ответа на этот вопрос пока нет. AMD пока не готова говорить о том, когда новая технология масштабирования будет официально представлена. Если FSR 4.0 уже находится в разработке 9–12 месяцев, то она вполне может быть почти готова к выпуску. Однако, как показывают примеры прошлых решений по масштабированию, включая DLSS и XeS наряду с FSR 1/2/3, выпуск API — это лишь первый шаг. Реализация поддержки игр для нового API занимает гораздо больше времени. Руководители OpenAI и Nvidia обсудили развитие инфраструктуры ИИ в Белом доме
13.09.2024 [10:20],
Алексей Разин
Власти многих стран признают в технологиях искусственного интеллекта важную отрасль экономики, США в этом отношении не являются исключением. На днях, если верить Bloomberg, в Белом доме прошла встреча членов правительства США с руководством компаний OpenAI и Nvidia, на которой обсуждались вопросы развития необходимой для ИИ инфраструктуры. ![]() Источник изображения: Nvidia Помимо генеральных директоров OpenAI и Nvidia, в мероприятии приняли участие глава Anthropic Дарио Амодей (Dari Amodei), президент Google Рут Порат (Ruth Porat), руководитель облачного бизнеса Amazon Мэтт Гармен (Matt Garman) и президент Microsoft Брэд Смит (Brad Smith). Правительство США было представлено министром торговли Джиной Раймондо (Gina Raimondo), советником президента по вопросам национальной безопасности Джейком Салливаном (Jake Sullivan) и министром энергетики Дженнифер Грэнхолм (Jennifer Granholm). Результатом этих переговоров, по данным пресс-службы Белого дома, стало создание межведомственной рабочей группы, которая будет способствовать строительству центров обработки данных на территории США и получению разрешений на их строительство по упрощённой схеме. Министерство энергетики США поставило перед собой задачу предоставлять строящим такие центры компаниям субсидии, кредиты и налоговые вычеты при условии использования электроэнергии из возобновляемых источников. Как уже отмечалось ранее, стартап OpenAI намеревается потратить десятки миллиардов долларов на развитие центров обработки данных, сопутствующей им энергетической инфраструктуры, а также увеличение объёмов выпуска необходимых полупроводниковых компонентов. Представители компании заявили следующее: «OpenAI верит, что инфраструктура имеет судьбоносный характер, строительство дополнительной инфраструктуры в США имеет важное значение для промышленной политики страны и её экономического будущего». Соответствующие планы позволят создать 40 000 новых рабочих мест на территории США. По данным OpenAI, в Китае соответствующие инвестиции направлены на превращение страны в мирового лидера в сфере ИИ к концу текущего десятилетия. Представитель Google подчеркнула, что развитие энергетической инфраструктуры США будет иметь решающее значение для достижения страной мирового лидерства в сфере искусственного интеллекта. В сочетании с инициативами по развитию производства чипов на территории США, по данным профильного министерства, увеличат потребность в энергоресурсах на 15 или 20 % за последующие десять лет. Если в 2023 году центры обработки данных в США потребляли не более 4 % всей вырабатываемой в стране электроэнергии, то к 2030 году эта доля вырастет до 9 %. Действующее правительство США намеревается двигаться к этим целям с активным использованием возобновляемой энергии, а также развивать системы стационарного хранения электроэнергии и повышать КПД существующих мощностей. Анализ потребляемой ЦОД в США электроэнергии правительственная комиссия должна провести до конца текущего года. Meta✴ использовала почти все ваши публикации с 2007 года для обучения ИИ
13.09.2024 [07:22],
Дмитрий Федоров
Компания Meta✴, владеющая Facebook✴ и Instagram✴, подтвердила, что использует публичные посты пользователей, опубликованные с 2007 года, для обучения ИИ-моделей. Это заявление прозвучало во время правительственного расследования в Австралии. При этом миллиарды пользователей за пределами Европейского союза (ЕС) и Бразилии, сохраняющие публичность своих постов, не имеют возможности отказаться от участия в обучении ИИ. ![]() Источник изображения: VEPN / Pixabay Во время расследования, проводимого австралийским правительством относительно внедрения ИИ, Мелинда Клейбо (Melinda Claybaugh), глобальный директор по вопросам конфиденциальности компании Meta✴, признала, что компания использует все публичные текстовые и фотоматериалы, опубликованные совершеннолетними пользователями Facebook✴ и Instagram✴ с 2007 года. Признание прозвучало после настойчивых вопросов сенатора от партии «Зелёных» Дэвида Шубриджа (David Shoebridge). При этом Meta✴ не предоставляет возможности удаления уже собранных данных, даже в случае, если пользователь изменит настройки приватности. Meta✴ в своих материалах по конфиденциальности и блогах упоминает об использовании публичных постов и комментариев для обучения моделей генеративного ИИ. Однако детали этого процесса остаются неясными. В июне 2023 года, отвечая на запрос The New York Times о сроках начала и масштабах сбора данных, Meta✴ не предоставила конкретного ответа, отметив лишь, что изменение настроек приватности предотвратит будущий сбор. Особенно тревожит факт использования данных пользователей, которые в 2007 году могли быть несовершеннолетними. Клейбо заявила, что Meta✴ не использует данные пользователей младше 18 лет, однако не смогла дать чёткого ответа на вопрос о том, как обрабатываются аккаунты взрослых, созданные ими в детском возрасте. Сенатор Тони Шелдон (Tony Sheldon) задал вопрос о сканировании публичных фотографий детей на аккаунтах взрослых пользователей. Клейбо подтвердила, что такие данные тоже используются. В отличие от пользователей из ЕС, имеющих право отказаться от участия в обучении ИИ благодаря местным законам о конфиденциальности, и пользователей из Бразилии, где недавно запретили Meta✴ использовать персональные данные для обучения ИИ, большинство из миллиардов пользователей Facebook✴ и Instagram✴ лишены такой возможности. Клейбо не смогла уточнить, будет ли предоставлена возможность отказа австралийским пользователям или кому-либо ещё в будущем, ссылаясь на неопределённость нынешнего регуляторного ландшафта. Отсутствие возможности отказа от использования данных вызывает критику со стороны правозащитников и политиков. Сенатор Шубридж отметил, что неспособность правительства Австралии принять адекватные законы о конфиденциальности позволяет таким компаниям, как Meta✴, продолжать монетизировать и эксплуатировать даже фотографии и видео детей на Facebook✴. Данное заявление указывает на глобальную проблему: законодательство не поспевает за темпами развития технологий ИИ и методами сбора данных. Google запустила ИИ-ассистента Gemini Live с возможностью полного контроля над диалогом
13.09.2024 [07:20],
Дмитрий Федоров
Google запустила бесплатный голосовой режим Gemini Live для всех пользователей Android. Эта функция, доступная через приложение Gemini, позволяет вести голосовой диалог с ИИ-ассистентом в реальном времени, прерывать его ответы и выбирать различные голоса. ![]() Источник изображения: Google Gemini App / X Google впервые анонсировала Gemini Live на презентации Pixel 9 в прошлом месяце, но до сих пор эта функция была доступна только подписчикам Gemini Advanced. Как сообщает ресурс 9to5Google, для активации режима достаточно выбрать новую иконку в форме волны в правом нижнем углу интерфейса. Gemini Live предлагает функциональность, схожую с голосовым чатом ChatGPT, но обладает рядом уникальных особенностей. Пользователи могут не только задавать вопросы голосом, но и прерывать ответы ИИ-ассистента в середине фразы, что позволяет вести с ним более естественный и динамичный диалог. Интерфейс предоставляет опции «hold» для приостановки ответа Gemini и «end» для завершения беседы, что даёт пользователю полный контроль над диалогом. Для ещё большей персонализации взаимодействия с ИИ пользователи могут выбрать для ассистента один из понравившихся голосов. На данный момент Gemini Live работает только на английском языке, но Google уже сообщила о планах расширения языковой поддержки и разработки версии для iOS. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |