Опрос
|
реклама
Быстрый переход
Foxconn по итогам второго квартала увеличила выручку на 19,1 %
05.07.2024 [13:10],
Алексей Разин
Крупнейший контрактный производитель электронных устройств, компания Foxconn (Hon Hai Precision Industry), на этой неделе отчиталась о предварительных итогах деятельности во втором квартале, и рост выручки на 19,1 % до рекордных $47,8 млрд превзошёл ожидания аналитиков. Июньская выручка также побила сезонный рекорд, увеличившись на 16,1 % до $15,12 млрд. ![]() Источник изображения: Weibo, Foxconn По словам представителей компании, на которые ссылается Reuters, в третьем квартале выручка Foxconn также должна вырасти как последовательно, так и год к году, но точная сумма на данном этапе не называется, как и величина прироста в процентах. Контрактный производитель просто поясняет, что второе полугодие с его точки зрения характеризуется пиковыми значениями финансовых показателей, поскольку объёмы выпуска электронных устройств в этот период набирают обороты в преддверии сезонного роста спроса к концу года. Foxconn не только производит компьютеры, планшеты и смартфоны Apple, но и выпускает серверные системы для Nvidia на основе востребованных сейчас ускорителей вычислений для систем искусственного интеллекта. Подъём спроса в этом сегменте позволяет компании не только демонстрировать более высокие результаты во втором квартале по сравнению с ожиданиями рынка, но и с уверенностью смотреть в ближайшее будущее. Именно направление серверного и телекоммуникационного оборудования обеспечило во втором квартале заметный рост выручки Foxconn, а вот в сегменте потребительской электроники положительной динамики в годовом сравнении не наблюдалось. Подробный отчёт об итогах второго квартала Foxconn опубликует только в середине августа. Попутно сообщается, что Foxconn получила от властей Вьетнама разрешение потратить в общей сложности $551 млн на строительство дополнительных мощностей по производству электронных устройств на севере страны. Одно из двух предприятий, которое здесь появится, сможет выпускать до 4,2 млн электронных развлекательных устройств в год. С учётом этих средств, инвестиции Foxconn в экономику вьетнамской провинции Куанг Нин достигнут $1 млрд. Два предприятия на севере страны будут построены к сентябрю 2025 года. Развивая своё присутствие во Вьетнаме, Foxconn снижает риски, связанные с высокой концентрацией своих предприятий в Китае, который находится под растущим политическим давлением США. Хакеры проникли на внутренний форум OpenAI, где обсуждаются перспективные разработки
05.07.2024 [12:07],
Владимир Мироненко
В начале прошлого года некий хакер смог проникнуть во внутренние системы обмена сообщениями OpenAI, разработчика ИИ-чат-бота ChatGPT, и похитил сведения о технологических наработках стартапа, пишет The New York Times. По словам источников издания, злоумышленник выведал подробности о новейших достижениях в сфере ИИ компании из дискуссий сотрудников на форуме, но ему не удалось взломать системы, где создаются её продукты и содержится информация о них. ![]() Источник изображения: TheDigitalArtist / Pixabay Поскольку никакая информация о клиентах или партнёрах не была украдена, OpenAI не стала предавать публичной огласке этот инцидент, хотя и сообщила о нём на общем собрании сотрудников в апреле прошлого года, а также уведомила совет директоров. Руководители не посчитали инцидент угрозой национальной безопасности, полагая, что хакер был частным лицом, и не стали информировать об этом ФБР и правоохранительные органы. И всё же у некоторых сотрудников OpenAI возникли опасения, что иностранные государства, такие как Китай, могут украсть сведения об ИИ-технологиях, что в конечном итоге может поставить под угрозу национальную безопасность США. Леопольд Ашенбреннер (Leopold Aschenbrenner), менеджер OpenAI, направил совету директоров OpenAI записку, в которой сообщил о недостаточности мер, предпринимаемых компанией для защиты своих секретов от вмешательства иностранных государств. Весной 2024 года Ашенбреннера уволили из-за утечки другой информации, но он посчитал увольнение политически мотивированным. В связи с этим бывший сотрудник рассказал о происшедшем в прошлом году взломе IT-инфраструктуры OpenAI. «Мы ценим обеспокоенность, которую Леопольд выражал во время работы в OpenAI, но это не является причиной его увольнения», — заявила пресс-секретарь OpenAI Лиз Буржуа (Liz Bourgeois). Также она опровергла утверждения Ашенбреннера о недостаточности мер компании по защите корпоративных систем от хакерских атак. В прошлом месяце президент Microsoft Брэд Смит (Brad Smith) сообщил конгрессменам в ходе дачи показаний в Капитолии о том, как китайские хакеры использовали системы компании для широкомасштабной атаки на сети федерального правительства. Поэтому опасения по поводу возможной причастности Китая к атаке на сети OpenAI нельзя считать безосновательными. Вместе с тем на данный момент нет убедительных доказательств того, что современные ИИ-технологии представляют собой серьёзную угрозу национальной безопасности США. Исследования OpenAI, Anthropic и других организаций показали, что ИИ не более опасен, чем поисковые системы. Даниэла Амодей (Daniela Amodei), соучредитель и президент Anthropic, сообщила, что, если бы сведения об ИИ-технологиях компании похитили или же передали другим, это не представляло бы никакого серьёзного риска. «Если бы наши знания передали кому-то другому, могло бы это нанести огромный вред обществу? Наш ответ: нет, вероятно, нет», — сказала представитель компании корреспонденту The New York Times. Новая статья: Очная ставка: сравнительное тестирование диалоговых ИИ-моделей YandexGPT и GigaChat
05.07.2024 [00:05],
3DNews Team
Данные берутся из публикации Очная ставка: сравнительное тестирование диалоговых ИИ-моделей YandexGPT и GigaChat Санкции не помешают Nvidia выручить в Китае до $12 млрд на ИИ-ускорителях в этом году
04.07.2024 [18:03],
Алексей Разин
Правила экспортного контроля, которые на протяжении предыдущих двух лет планомерно ограничивали Nvidia в способности поставлять свои ускорители вычислений в Китай, ударили по бизнесу компании, но она предложила адаптированные решения, на поставках которых сможет в этом году выручить около $12 млрд. Более того, её ускорители H20 будут популярнее решений Huawei. ![]() Источник изображения: Nvidia У последнего обстоятельства, как поясняет Financial Times, имеется простое объяснение. Принято считать, что выпускающая для Huawei передовые по меркам местной промышленности 7-нм чипы компания SMIC просто не может делать это в достаточных количествах. По прогнозам специалистов SemiAnalysis, в этом году Huawei сможет от силы продать в Китае около 550 000 ускорителей Ascend 910B, оснащаемых теми самыми 7-нм чипами. При этом Nvidia сможет за то же время реализовать более 1 млн ускорителей H20, поставки которых в Китай может осуществлять даже в условиях действующих санкций США. При стоимости каждого ускорителя от $12 000 до $13 000 это позволит Nvidia только на данном виде продукции выручить в Китае не менее $12 млрд по итогам текущего года. Это больше, чем она выручила в прошлом фискальном году ($10,4 млрд) с учётом реализации всех видов продукции на китайском рынке. Впрочем, динамика изменения выручки в относительных величинах не может радовать руководство Nvidia, ведь до введения санкций в 2021 году китайский рынок определял более четверти всей выручки компании, а теперь его доля снизится до 10 % в лучшем случае. При этом ускорители H20 даже с учётом их ограниченного быстродействия будут пользоваться на китайском рынке высоким спросом, как предполагают эксперты. Во-первых, на практике они даже чуть быстрее конкурирующих Huawei Ascend 910B. Во-вторых, они позволяют разработчикам не менять программную экосистему и продолжать пользоваться продукцией Nvidia. Наконец, в условиях трудностей SMIC с масштабированием производства 7-нм чипов особых альтернатив у китайских клиентов и не остаётся. Китайская Moore Threads нашла способ создавать вычислительные кластеры на 10 тыс. ускорителей — это пригодится в условиях санкций
04.07.2024 [14:55],
Алексей Разин
Совокупная вычислительная мощь кластера определяется не только удельной производительностью каждого ускорителя, но и способностью создателей объединять их максимальное количество в одной системе. Китайская компания Moore Threads предложила своим клиентам решение, позволяющее создать кластер из 10 000 ускорителей, во многом нивелируя ограничения США на масштабирование таких систем. ![]() Источник изображения: Moore Threads Напомним, что Moore Threads была основана в 2020 году опытным специалистом Nvidia, который задался целью выпускать подобные ускорители вычислений и игровые видеокарты для китайского рынка, но к октябрю 2023 года компания закономерно попала под экспортные ограничения США. Компенсировать более низкую производительность своих ускорителей вычислений по сравнению с решениями Nvidia компания пытается созданием более выгодных условий для масштабирования кластеров. В частности, как отмечает South China Morning Post, модернизированное решение KUAE позволяет увеличить количество работающих в одном кластере ускорителей Moore Threads до 10 000 штук. Ускорители MTT S4000 оснащаются чипами с 128 тензорными ядрами и 48 Гбайт памяти, а соединяться друг с другом им позволяет интерфейс MTLink. Теперь в одном кластере можно объединить до 10 000 ускорителей, обеспечив более высокую совокупную производительность вычислений. Решение Nvidia A100, поставки которого в Китай запрещены, в три раза превосходит MTT S4000 по быстродействию, хотя и не является новейшим в ассортименте продукции американской компании. В условиях санкций китайские разработчики систем искусственного интеллекта всё равно вынуждены полагаться на местных поставщиков ускорителей, Moore Threads является одним из них. Китай стал лидером по патентам в сфере генеративных нейросетей — больше всех у Tencent и Baidu
04.07.2024 [13:42],
Владимир Фетисов
Китай доминирует в глобальной гонке патентов в сфере генеративных нейросетей. Опубликованный отчёт Организации Объединённых Наций указывает на то, что в период с 2014 по 2023 годы представители Поднебесной подали свыше 38 тысяч заявок на получение патентов в этой области. ![]() Источник изображения: Copilot Это в шесть раз больше количества патентных заявок, которые были поданы за тот же период изобретателями из США. В общем рейтинге уверенно лидирует Китай с 38210 патентами в сфере генеративных нейросетей. На втором месте рейтинга с большим отставанием располагаются США (6276 патентов), Южная Корея (4155 патентов), Япония (3409 патентов) и Индия (1350 патентов). Также отмечается, что доля патентов в сфере генеративных нейросетей составляет 6 % от общего количества изобретений в области искусственного интеллекта. «Резкий рост патентной активности отражает последние технологические достижения и потенциал генеративного ИИ», — сказано в отчёте ООН. ![]() Источник изображения: CNBC Китай стремится догнать в сфере разработки ИИ-алгоритмов OpenAI, разработчика ИИ-бота ChatGPT, и других технологических гигантов, таких как Microsoft, Alphabet, Google и Amazon. В прошлом году китайские IT-гиганты Alibaba и Baidu сделали общедоступными собственные ИИ-боты для усиления конкуренции с зарубежными аналогами. В этом году Китай приступил к реализации трёхлетнего плана по ужесточению стандартов в сфере ИИ-чипов, генеративного ИИ и наращиванию национальных вычислительных мощностей, направленного на стимулирование технологического и экономического развития страны. В отчёте ООН также указано, что наибольшее количество патентов приходится на технологии в сфере генерации изображений и видео (17996 патентов). Ещё 13494 патента связаны с технологиями обработки текста, 13480 патентов — с генерацией речи и музыки. Nintendo не станет использовать генеративный ИИ в играх — у неё и своего опыта хватает
04.07.2024 [12:08],
Дмитрий Рудь
Пока другие игровые компании с нетерпением ждут возможности воспользоваться предоставляемыми генеративным искусственным интеллектом преимуществами, японский платформодержатель Nintendo идёт своим путём. В ходе недавней встречи с акционерами президента Nintendo Сюнтаро Фурукаву (Shuntaro Furukawa) спросили, как в своей деятельности компания собирается задействовать ИИ. Фурукава отметил, что разработка игр и искусственный интеллект всегда были тесно связаны: смежные с ИИ технологии издавна использовались, например, для управления перемещением вражеских персонажей. Что касается генеративного ИИ, то Фурукава видит потенциал для достижения с его помощью «более креативных» результатов, однако отмечает имеющиеся у технологии проблемы с правами на интеллектуальную собственность. «У нас десятки лет опыта в создании игрового опыта для наших потребителей. Мы продолжаем следить за новыми разработками, но надеемся придерживаться своих ценностей, которые недостижимы посредством одних лишь технологий», — заявил Фурукава. Гендиректор Sony Group Кенитиро Ёсида (Kenichiro Yoshida) недавно высказывал схожую точку зрения: по его мнению, ИИ следует использовать для поддержки человеческого творчества, а не его замены. В Ubisoft считают, что генеративный ИИ поможет сделать игры компании «интереснее и более персонализированными», а руководство Electronic Arts видит в технологии возможность на миллиарды долларов. Cloudflare запустила инструмент для борьбы с ботами, собирающими данные для ИИ
03.07.2024 [23:22],
Анжелла Марина
Компания Cloudflare запустила новый бесплатный инструмент для защиты веб-сайтов от ботов, которые извлекают данные для обучения моделей искусственного интеллекта без согласия владельцев сайтов. ![]() Источник изображения: Cloudflare Cloudflare, поставщик облачных услуг по предоставлению DNS и защиты от DDoS-атак, представила новое решение для борьбы с ботами искусственного интеллекта, которые несанкционированно занимаются сбором данных с веб-сайтов. Новый бесплатный инструмент защитит сайты, размещённые на платформе Cloudflare, от извлечения их контента для обучения ИИ-моделей. Хотя некоторые крупные игроки в сфере ИИ, такие как Google, OpenAI и Apple, позволяют владельцам сайтов блокировать ботов через специальный файл robots.txt, далеко не все владельцы подобных ботов соблюдают эти правила. Cloudflare отмечает, что некоторые компании ИИ намеренно обходят ограничения доступа к контенту, постоянно адаптируясь и меняя свои алгоритмы, чтобы избежать обнаружения. Чтобы решить эту проблему, Cloudflare проанализировала трафик краулеров и разработала автоматические модели их обнаружения, которые учитывают различные факторы, в том числе включая попытки ботов имитировать действия человека, использующего веб-браузер. Также создана специальная форма, позволяющая сообщать о подозрительных ботах и сканерах. На основе полученных данных Cloudflare будет вручную заносить ботов ИИ в черный список. Проблема сбора данных ботами ИИ стала особенно актуальной на фоне бума генеративного ИИ. Многие сайты опасаются, что поставщики ИИ будут использовать их контент без разрешения и какой-либо компенсации. Согласно исследованию, около 26 % из 100 крупнейших новостных сайтов заблокировали бота OpenAI и 242 сайта из 1000 наиболее популярных также в настоящее время блокируют GPTBot. Другое исследование показало, что уже более 600 крупных новостных издателей заблокировали различных ботов. Так как многие ИИ-боты игнорируют правила, прописанные в robots.txt, то приходится искать новые методы решения вопроса. Инструменты, подобные разработке Cloudflare, могут помочь в борьбе с несанкционированным сбором данных. Но насколько это окажется эффективным покажет время. Бразилия запретила Meta✴ обучать ИИ на персональных данных своих граждан
03.07.2024 [18:28],
Павел Котов
Бразильское Национальное управление по защите данных (ANPD) запретило компании Meta✴ обучать модели искусственного интеллекта на персональных данных жителей страны в связи с «угрозами серьёзного ущерба и трудностей для пользователей». ![]() Источник изображения: luni39 / pixabay.com В мае компания обновила политику конфиденциальности, предоставив себе право использовать размещённые пользователями общедоступные данные Facebook✴, Facebook✴ Messenger и Instagram✴, включая публикации, изображения и подписи для обучения ИИ. В июне правозащитная организация Human Rights Watch установила, что один из крупнейших в мире банков LAION-5B, в котором представлены изображения и подписи к ним, содержит личные идентифицируемые фотографии несовершеннолетних бразильцев, что подвергает их риску создания дипфейков и прочим угрозам. ANPD заявила, что эта политика представляет «неизбежную угрозу серьёзного и непоправимого или трудно поддающегося устранению ущерба основным правам» бразильских пользователей. Страна является одним из крупнейших рынков Meta✴ — только на Facebook✴ зарегистрированы 102 млн жителей страны. Компании даются 5 рабочих дней на выполнение предписания ведомства — в противном случае ей грозят штрафы в размере 50 000 бразильских реалов ($8808) ежедневно. Meta✴ в ответ заявила, что её обновлённая политика «соответствует законам и нормам конфиденциальности в Бразилии», а требование ведомства является «шагом назад для инноваций, конкуренции в разработке ИИ и препятствует доступу жителей Бразилии к преимуществам ИИ». Пользователи могут отказаться от предоставления своих данных для обучения ИИ, добавили в компании, но в ANPD парировали, что существуют затрудняющие это «чрезмерные и неоправданные препятствия». Аналогичное противодействие этой инициативе Meta✴ встретила в Европе, где уже отказалась от обучения ИИ на публикациях местных пользователей в Facebook✴ и Instagram✴. Зато в США обновлённая политика уже действует, и никакие меры для защиты конфиденциальности местных пользователей не применяются. Figma отключила ИИ-помощника дизайнера — он копировал интерфейс приложений Apple
03.07.2024 [11:22],
Павел Котов
Администрация платформы Figma была вынуждена отключить основанный на генеративном искусственном интеллекте инструмент Make Designs — он начал разрабатывать для пользователей проекты, которые выглядели поразительно похожими на приложения из iOS. ![]() Источник изображения: Gerd Altmann / pixabay.com Генеральный директор Figma Дилан Филд (Dylan Field) подробно рассказал о проблеме на своей странице в соцсети X, возложил на себя вину за то, что торопил своих подчинённых выпустить продукт в общий доступ и выразил уверенность в правильности подхода компании в отношении ИИ. Он также процитировал гендиректора Not Boring Software Энди Аллена (Andy Allen), который наглядно продемонстрировал, как Figma Make Designs практически полностью копирует приложение погоды Apple, и предупредил пользователей платформы, что это чревато юридическими проблемами. «Мы не проводили обучения в рамках функций генеративного ИИ», — заявил ресурсу The Verge технический директор Figma Крис Расмуссен (Kris Rasmussen). Инструмент Make Designs, по его словам, был запущен на готовых моделях ИИ и созданной на заказ системе дизайна; на контенте пользователей или дизайнах готовых приложений обучение также не проводится, добавил Дилан Филд. В основе Make Designs лежат две модели ИИ: OpenAI GPT-4o и Amazon Titan Image Generator G1, рассказал технический директор, из чего можно сделать вывод, что дизайны Apple использовались для обучения ИИ в OpenAI или Amazon. От идеи обучать собственные модели ИИ на контенте пользователей Figma администрация платформы не отказывается, но и торопить события в компании не собираются. На минувшей неделе пользователям представили политику обучения ИИ и дали время до 15 августа решить, согласны ли они предоставлять свои материалы: в тарифных планах Starter и Professional это согласие по умолчанию дано, а в Organization и Enterprise — нет. Make Designs вернётся к пользователям Figma в обозримом будущем. «Мы проведём проверку данной системы дизайна, чтобы убедиться, что она предлагает достаточное разнообразие и отвечает нашим стандартам качества. <..> В этом основная причина проблемы. Но мы примем дополнительные меры предосторожности, прежде чем снова включить [Make Designs], чтобы убедиться, что функция в целом соответствует нашим стандартам качества и ценностям», — пообещал Расмуссен. Он также указал, что Make Designs находится в стадии бета-тестирования. «Бета-версии по определению несовершенны. Но можно сказать с уверенностью, как Дилан написал в своём твите, что мы просто не заметили эту конкретную проблему. А должны были», — заключил технический директор Figma. Из-за ИИ выбросы парниковых газов у Google выросли на 48 % за пять лет
03.07.2024 [00:02],
Анжелла Марина
Компания Google сообщила о значительном росте выбросов парниковых газов за последние пять лет, что ставит под угрозу её обязательство достичь «чистого нуля», то есть нулевого баланса выбросов к 2030 году. Основной причиной увеличения выбросов стало расширение центров обработки данных, необходимых для развития систем искусственного интеллекта. ![]() Охлаждающие трубы в центре обработки данных Google. Источник изображения: Arstechnica.com Согласно недавнему экологическому отчёту, выбросы парниковых газов компании Google в 2023 году достигли 14,3 млн тонн углеродного эквивалента. Это на 48 % больше, чем в 2019 году, и на 13 % больше по сравнению с предыдущим годом, сообщает издание Ars Technica. Директор по устойчивому развитию Google Кейт Брандт (Kate Brandt) подтвердила приверженность компании цели достижения нулевого баланса выбросов к 2030 году, но признала её «чрезмерно амбициозный» характер. «Мы по-прежнему ожидаем, что наши выбросы продолжат расти, но до определённого момента», — заявила Брандт. Отмечается, что основной причиной роста выбросов стало увеличение потребления электроэнергии центрами обработки данных, которые необходимы для работы систем искусственного интеллекта. В 2023 году выбросы, связанные с энергетикой, выросли на 37 % и составили четверть от общего объёма выбросов парниковых газов компании. Google также сообщила о росте выбросов в цепочке поставок на 8 %, что составляет 75 % от общего объёма выбросов компании. Ожидается, что эта тенденция сохранится в ближайшем будущем из-за расширения инфраструктуры, необходимой для работы систем ИИ. Компания признала, что «будущее воздействие ИИ на окружающую среду сложно и трудно предсказать». Однако Google продолжает работать над сокращением выбросов, в том числе путём подписания соглашений о чистой энергии. Эксперты по климату, в целом, выражают обеспокоенность по поводу воздействия энергоёмких систем ИИ на окружающую среду. Так, аналитики Bernstein прогнозируют, что ИИ может удвоить темпы роста спроса на электроэнергию в США в ближайшие годы, поскольку такие крупные технологические гиганты, как Google, Amazon и Microsoft, объявили о планах инвестировать десятки миллиардов долларов в ИИ. В частности Microsoft признала, что её выбросы выросли почти на треть с 2020 года во многом из-за строительства центров обработки данных. При этом Билл Гейтс одновременно высказывает мнение, что ИИ сможет не сегодня так завтра найти решение климатических проблем. Несмотря на трудности, Google продолжает идти к своей цели использования безуглеродной энергии к 2030 году, хоть и признаёт, что некоторые проекты в области чистой энергии были прекращены в 2023 году, что привело к сокращению доступа к возобновляемым источникам энергии. Meta✴ планирует внедрить игры с генеративным ИИ в метавселенную
02.07.2024 [22:22],
Анжелла Марина
Компания Meta✴ намерена внедрить технологии искусственного интеллекта в игры виртуальной, дополненной и смешанной реальности (VR, AR) в рамках усилий по «оживлению» своего проекта метавселенной и обновлению игрового контента на основе ИИ. ![]() Источник изображения: Meta✴ Этот шаг направлен на возрождение стратегии метавселенной компании, которая в последнее время столкнулась с трудностями и отсутствием интереса со стороны пользователей, а также операционными убытками. Согласно опубликованным вакансиям, Meta✴ ищет специалистов для разработки игр с использованием генеративного ИИ. Планируется создавать такие игры, которые будут обновляться при каждом запуске, следуя «недетерминированному» алгоритму, при котором один и тот же сюжет будет всякий раз представлен в новых вариантах, передаёт TechCrunch. Основное внимание будет уделено платформе Horizon — семейству игр, приложений и инструментов для создания метавселенной Meta✴. Однако компания не исключает возможности расширения этих технологий на другие платформы, включая смартфоны и ПК. Кроме того, Meta✴ нацелена на сотрудничество с другими компаниями по созданию инструментов на базе генеративного ИИ для ускорения производства игр. ![]() Источник изображения: Meta✴ Генеральный директор Meta✴ Марк Цукерберг (Mark Zuckerberg) лично заинтересован в разработке игр для гарнитур Quest, что привело к увеличению инвестиций в игровые проекты метавселенной. Однако он предупредил, что потребуются годы, прежде чем компания сможет монетизировать генеративный ИИ, намекая на то, что эти инвестиции не смогут быстро изменить финансовое положение Reality Labs — подразделения Meta✴ по созданию оборудования и ПО для виртуальной и дополненной реальности. Эндрю Босворт (Andrew Bosworth), технический директор Meta✴ и глава Reality Labs, подчёркивает потенциал генеративного ИИ в создании контента для метавселенной. По его словам, эти инструменты могут уравнять шансы и дать небольшим командам разработчиков возможности крупных студий. Однако, несмотря на амбициозные планы, Meta✴ не может привлечь пользователей на свою платформу смешанной реальности Horizon, а подразделение Reality Labs, ответственное за проекты метавселенной, продолжает нести значительные убытки. В целом внедрение генеративного ИИ в игровую индустрию вызывает неоднозначную реакцию. Некоторые разработчики опасаются за свои рабочие места, в то время как компании, такие как Inworld и Artificial Agency, уже применяют эту технологию для создания более динамичных игровых диалогов и сюжетов. Meta✴, в свою очередь, продолжает инвестировать миллиарды долларов в развитие генеративного ИИ, формируя новую команду, сосредоточенную на создании продуктов с использованием этой технологии, включая производство рекламы на основе ИИ. Meta✴ изменила подход к маркировке изображений, над которыми поработал ИИ
02.07.2024 [18:23],
Павел Котов
Meta✴ обновила политику присвоения маркировки «Создано ИИ» публикациям в соцсетях после того, как размещённые некоторыми пользователями изображения начали получать такой статус, хотя в действительности это были фотографии, которые подверглись некоторому редактированию. ![]() Источник изображения: Alexandra_Koch / pixabay.com Во многих случаях контент в соцсетях помечался как созданный искусственным интеллектом лишь потому, что он был отредактирован в Adobe Photoshop, но не полностью сгенерирован нейросетью вроде Stable Diffusion или DALL-E. При экспорте изображения из Photoshop в него включаются метаданные, которые, по сути, просто выполняют функцию отказа от ответственности — некоторые инструменты графического редактора действительно работают на базе генеративного ИИ, а значит, и само изображение может быть изменено ИИ. Как только автоматизированные системы Meta✴ решали, что контент был частично «Создан ИИ», пользователь удалить эту метку уже не мог. Но полностью созданное ИИ изображение и небольшая правка настоящей фотографии — далеко не одно и то же, поэтому присвоение метки «Создано ИИ» в обоих случаях едва ли поможет аудитории. В Meta✴ приняли решение разделить редактирование при помощи ИИ и полностью созданные ИИ изображения. «Мы обнаружили, что наши пометки, основанные на этих индикаторах, не всегда соответствовали ожиданиям людей и не всегда предоставляли достаточный контекст. <..> мы заменим пометку „Создано ИИ“ на „Информация об ИИ“, нажав на которую люди смогут получить дополнительные сведения», — сообщили в Meta✴. В заботе о благе пользователей компания решила помечать созданный ИИ контент, но развёрнутая ей система полагалась на стандарт Content Credentials, принятый Коалицией за происхождение и подлинность контента (Coalition for Content Provenance and Authenticity, C2PA). Этот стандарт предполагает простой добавление метаданных в файл — продукты Adobe добавляют его при любой степени редактирования с участием ИИ, и эти данные можно легко удалить, например, сделав снимок экрана и вставив изображение в новый документ. А универсального решение для выявления созданных ИИ материалов до сих пор не существует — пользователям интернета рекомендуется проявлять бдительность. Геймерский браузер Opera GX получил масштабное обновление встроенного ИИ Aria
02.07.2024 [09:02],
Анжелла Марина
Популярный браузер для геймеров Opera GX получил масштабное обновление встроенного искусственного интеллекта Aria. Добавлена функция генерации и анализа изображений, голосового вывода и другие интересные возможности. ![]() Источник изображения: Opera Software Компания Opera Software объявила о значительном обновлении браузера Opera GX, ориентированного на геймеров. Главным нововведением стало расширение функциональности встроенного искусственного интеллекта Aria, который теперь способен работать с изображениями, озвучивать текст и предоставлять более подробную информацию пользователям. Обновление включает ряд новых функций, ранее доступных только в экспериментальном приложении AI Feature Drops для браузера Opera One. Теперь геймеры Opera GX смогут воспользоваться передовыми технологиями искусственного интеллекта прямо в своем браузере. ![]() Источник изображения: Opera Software Одной из ключевых особенностей стала возможность генерации изображений на основе текстовых описаний. Используя модель Imagen2 от Google, Aria может создавать уникальные визуальные материалы по запросу пользователя. Ограничение установлено на уровне 30 бесплатных изображений в день. Кроме того, Aria получила функцию анализа изображений. Теперь можно загружать картинки и задавать вопросы о содержании. Например, ИИ может определить марку и модель неизвестной гарнитуры или помочь решить математическую задачу по скриншоту. ![]() Источник изображения: Opera Software Еще одним важным дополнением стала возможность голосового вывода информации. Используя технологию WaveNet от Google, Aria может озвучивать свои ответы, что особенно полезно для людей с ограниченными возможностями или тех, кто предпочитает аудиоформат. Представители Opera Software отметили, что новые функции значительно расширяют возможности искусственного интеллекта Aria, делая его более эффективным и доступным инструментом для игрового сообщества. Обновление уже доступно для всех пользователей Opera GX и по замыслу разработчиков должно сделать взаимодействие с браузером еще более удобным и интуитивным. YouTube будет удалять синтетический контент с имитацией лиц и голосов пользователей по их запросу
02.07.2024 [08:58],
Дмитрий Федоров
YouTube, вслед за Meta✴, внедрил политику по борьбе с контентом, созданным с помощью искусственного интеллекта (ИИ). Отныне пользователи платформы могут требовать удаления материалов, в которых ИИ или другие синтетические технологии имитируют их лицо или голос. Эта мера стала частью масштабной стратегии компании по ответственному применению ИИ, однако процесс удаления подобных материалов не будет автоматическим. ![]() Источник изображения: DavidGallie / Pixabay 1 июня 2023 года видеогигант без лишнего шума ввёл кардинальные изменения в свою политику. Теперь у пользователей появился мощный инструмент защиты своей конфиденциальности — возможность запросить удаление контента, в котором ИИ или иные синтетические технологии имитируют их лицо или голос. Это не просто косметическое обновление политики компании, а серьёзное расширение инициативы по ответственному использованию ИИ, анонсированной ещё в ноябре 2022 года. Интересно отметить, что YouTube предпочитает рассматривать подобные запросы пользователей не как жалобы на дезинформацию (например, в случае с дипфейками), а как нарушение их конфиденциальности. Согласно обновлённой справочной документации, право инициировать удаление контента получает, как правило, только сам пострадавший. Но YouTube — не бездушная машина, поэтому предусмотрены исключения для несовершеннолетних, людей без доступа к компьютеру, умерших и ряда других особых случаев. Однако не стоит думать, что достаточно лишь пожаловаться на контент, и он моментально исчезнет. YouTube, подобно мудрому судье, оставляет за собой право взвесить все за и против. Компания рассматривает целый ряд факторов: является ли контент синтетическим или созданным с помощью ИИ, идентифицирует ли он человека и может ли он считаться пародией, сатирой или чем-то ещё, имеющим ценность и отвечающим общественным интересам. Компания также будет оценивать, показывает ли сгенерированный ИИ материал известную личность в компрометирующих ситуациях, например, занимающейся преступной деятельностью, проявляющей насилие или неправомерно поддерживающей какого-либо политического кандидата. Последний пункт особенно актуален в преддверии ноябрьских выборов в США. Каждый случай является уникальным пазлом, который YouTube предстоит собрать, прежде чем вынести окончательный вердикт. YouTube даёт пользователям, загрузившим спорный контент, 48 часов на его удаление. Если в течение этого времени пользователь сам удаляет материал, жалоба закрывается. В противном случае YouTube начинает собственную проверку. Компания также предупреждает пользователей, что удаление означает полное удаление видео с платформы и, в случае необходимости, удаление имени и личной информации человека из названия, описания и тегов видео. Пользователи также могут размывать лица людей в своих видео, но они не могут просто сделать видео приватным, чтобы выполнить требование, так как видео может быть возвращено в публичный доступ в любое время. Не стоит, однако, думать, что YouTube превратился в ярого противника ИИ. Напротив, компания сама активно экспериментирует с генеративным ИИ, разрабатывая системы для суммирования комментариев (представьте, что тысячи мнений конденсируются в несколько ёмких фраз) и диалоговые системы для взаимодействия с видеоконтентом (своего рода цифровой собеседник, готовый обсудить любой ролик). Однако YouTube подчёркивает, что простая маркировка контента как созданного с помощью ИИ не защищает его от удаления, и он всё равно должен соответствовать общим правилам сообщества. Важно отметить, что YouTube не будет автоматически наказывать создателей контента за нарушения конфиденциальности. На форуме YouTube Community представитель компании пояснил, что жалобы на нарушение конфиденциальности рассматриваются отдельно от нарушений правил сообщества и не приводят к автоматическим ограничениям для канала, нарушившего правила. Другими словами, Руководство по конфиденциальности YouTube отличается от Правил сообщества, и некоторый контент может быть удалён с YouTube в результате запроса о защите конфиденциальности, даже если он не нарушает Правила сообщества. Хотя компания не будет применять штрафные санкции, такие как ограничение на загрузку новых видео, после удаления спорного видео, YouTube оставляет за собой право принимать меры против аккаунтов с повторяющимися нарушениями. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |