Опрос
|
реклама
Быстрый переход
Apple предпочла обучать свои языковые модели на процессорах Google, а не Nvidia
30.07.2024 [04:51],
Алексей Разин
Возможно, в будущем Apple будет полагаться при развитии своих систем искусственного интеллекта на серверные процессоры собственной разработки, но пока она вынуждена использовать сторонние компоненты. В отличие от многих конкурентов, сильно зависящих в этой сфере от Nvidia, компания Apple сделала ставку на тензорные процессоры Google. ![]() Источник изображения: Apple Как отмечает CNBC, это следует из пояснительной записки Apple, в которой указывается конфигурация вычислительных кластеров, использованных компания для обучения своих больших языковых моделей, которые лягут в основу технологии Apple Intelligence. Её предварительная версия уже начала демонстрироваться на некоторых устройствах, а потому Apple решила раскрыть информацию о специфике развития своей инфраструктуры искусственного интеллекта. Прямо Apple не упоминает разработчика процессоров, которые использовала для обучения своей языковой модели Apple Foundation Model, но в тексте записки фигурирует формулировка «облачные кластеры на основе TPU». Так сокращённо называет свои тензорные процессоры именно Google. Помимо прочего, это откровение Apple говорит об использовании компанией арендованных у Google облачных вычислительных ресурсов. Для стадии становления систем искусственного интеллекта Apple это вполне оправданный подход. Большая языковая модель, которая будет работать на конечных устройствах Apple, обучалась с помощью кластера из 2048 процессоров Google серии v5p, которая считается самой современной. Серверная часть модели обучалась на кластере с 8192 процессорами v4. Google сдаёт такие кластеры в аренду по $2 за час с каждого используемого клиентом процессора. При этом собственные языковые модели Google обучает и с использованием аппаратного обеспечения Nvidia, а не только процессоров собственной разработки. Компания Apple никак не выдаёт в своей документации возможное использование чипов Nvidia. В США создали систему оценки рисков для ИИ-алгоритмов
29.07.2024 [08:37],
Владимир Фетисов
Национальный институт стандартов и технологий (NIST), входящий в состав Министерства торговли США и занимающийся разработкой и тестированием технологий для американского правительства, компаний и общественности, представил обновлённый тестовый стенд Dioptra. Он предназначен для оценки того, как вредоносные атаки, включая те, что направлены на «отравление» используемых для обучения больших языковых моделей данных влияют на снижение производительности ИИ-систем. ![]() Источник изображения: Copilot Первая версия модульного веб-инструмента с открытым исходным кодом Dioptra была представлена в 2022 году. Обновлённое ПО должно помочь разработчикам ИИ-моделей и людям, которые используют эти алгоритмы, оценивать, анализировать и отслеживать риски, связанные с ИИ. В NIST заявили, что Dioptra можно использовать для бенчмаркинга и исследования ИИ-моделей, а также в качестве общей платформы для симуляции воздействия на модели разного рода угроз. «Тестирование влияния атак противника на модели машинного обучения — одна из целей Dioptra. Программное обеспечение с открытым исходным кодом доступно для бесплатной загрузки и может помочь сообществу, включая правительственные агентства, малые и средние компании, в проведении оценки, чтобы проверить заявления разработчиков ИИ о производительности их систем», — говорится в пресс-релизе NIST. Вместе с Dioptra разработчики опубликовали ряд документов, в которых излагаются способы уменьшения рисков, связанных с ИИ-моделями. Это программное обеспечение было создано в рамках инициативы, которую поддержал президент США Джо Байден и которая предписывает NIST, помимо прочего, оказывать поддержку в тестировании ИИ-систем. Инициатива также устанавливает ряд стандартов безопасности в сфере ИИ, включая требования к компаниям, разрабатывающим ИИ-алгоритмы, об уведомлении федерального правительства и передачи данных по итогам оценки рисков безопасности до того, как ИИ станет доступен широкому кругу пользователей. Проведение эталонной оценки ИИ является сложной задачей, в том числе потому, что сложные алгоритмы в настоящее время представляют собой «чёрные ящики», инфраструктура которых, данные для обучения и другие ключевые детали держатся разработчиками в секрете. Некоторые эксперты склоняются к мнению, что одних только оценок недостаточно для определения степени безопасности ИИ в реальном мире, в том числе потому, что разработчики имеют возможность выбирать, какие тесты будут проводиться для оценки их ИИ-моделей. NIST не говорит, что Dioptra сможет исключить любые риски для ИИ-систем. Однако разработчики этого инструмента уверены, что он может пролить свет на то, какие виды атак могут сделать работу той или иной ИИ-системы менее эффективной, а также оценить негативное воздействие на производительность алгоритма. Отметим, что Dioptra способен работать только с моделями, которые можно загрузить на устройство и использовать локально. Исследователи научили ИИ издали красть информацию с монитора по излучению от HDMI-кабеля
28.07.2024 [19:39],
Анжелла Марина
Новое исследование показало, что хакеры могут использовать искусственный интеллект для расшифровки электромагнитного излучения, исходящего от кабеля, который соединяет компьютер и монитор, и затем считывать с экрана информацию. Атака особенно актуальна при аналоговом соединении ПК и монитора. ![]() Источник изображения: Pete Linforth/Pixabay Группа учёных из Республиканского Университета в Монтевидео (Уругвай), разработала ИИ-модель, способную декодировать электромагнитное излучение от мониторного кабеля на расстоянии нескольких метров, сообщает New Scientist. Метод работает следующим образом. Предполагаемые хакеры перехватывают электромагнитное излучение, исходящее от VGA-, HDMI- или DVI-кабеля между компьютером и монитором, затем искусственный интеллект, обученный на наборе соответствующих сигналов, расшифровывает перехваченную информацию и передаёт по назначению. Для оценки эффективности атаки команда использовала стандартное программное обеспечение, выводящее на экран монитора текстовую информацию, перехватывала сигнал, передаваемый по HDMI-кабелю в монитор, расшифровала его с применением стандартной программы для распознавания текста и сравнивала полученный результат с исходным изображением на экране. Исследование выявило, что в процессе расшифровки 30 % символов интерпретируются неверно, однако оставшихся 70 % вполне хватает, чтобы распознать большую часть текста. С помощью этой технологии хакеры могут шпионить за экраном компьютеров, когда пользователи вводят какие-либо чувствительные данные. Перехват сигналов может осуществляться с помощью антенны, установленной за пределами здания, или с помощью небольшого устройства, которое снимает и записывает данные перехвата для последующего извлечения. Руководитель исследования Федерико Ларрока (Federico Larroca) считает, что атаки подобного рода, известные как TEMPEST, вероятно, уже происходят, но только в наиболее значимых промышленных или правительственных учреждениях. Обычным пользователям, считает Ларрока, беспокоиться пока не стоит. Без новых инвестиций OpenAI может обанкротиться уже через 12 месяцев
28.07.2024 [16:50],
Владимир Мироненко
Стартап OpenAI, разработавший чат-бот с генеративным искусственным интеллектом ChatGPT, с выхода которого начался бум на рынке ИИ, ежегодно тратит на разработку технологий и персонал миллиарды долларов, пишет ресурс The Information. По мнению некоторых аналитиков, из-за огромных расходов компания может оказаться на грани банкротства уже через 12 месяцев. ![]() Источник изображения: Andrew Neel/unsplash.com Ранее сообщалось, что только на поддержку функционирования ChatGPT компания тратит ежедневно порядка $700 тыс. И эта сумма в дальнейшем будет расти. Согласно публикации The Information, основанной на ранее нераскрытых финансовых данных, OpenAI израсходует в этом году на обучение ИИ-моделей $7 млрд, в то время как её расходы на персонал составят $1,5 млрд. Издание пишет, что убытки OpenAI за год могут составить $5 млрд, и если она не привлечёт дополнительный капитал, у неё могут закончиться деньги через 12 месяцев. «Инвесторы должны спросить: в чем их выгода? Уникальная технология? Каков её путь к прибыльности, когда Meta✴ раздаёт аналогичные технологии бесплатно?», — пишет один из экспертов. Это далеко не первая публикация о том, что OpenAI может столкнуться с финансовыми проблемами. В прошлом году ресурс The Economic Times писал, что высокие затраты на обучение ИИ-моделей могут привести компанию к банкротству. OpenAI получает в год до $2 млрд выручки от использования ChatGPT и около $1 млрд за предоставление компаниям доступа к большим языковым моделям (LLM), но это едва покрывают её операционные расходы, сообщил The Information. Следует отметить, что это нисколько не волнует гендиректора OpenAI Сэма Альтмана (Sam Altman). «Мне всё равно, если мы потратим $50 млрд в год, мы создаём сильный искусственный интеллект (AGI), и это того стоит», — заявил он однажды. Ресурс The Information указал на ещё одну проблему, грозящую бизнесу OpenAI упадком, — это растущее число отраслевых аналитиков, считающих генеративный ИИ пузырём, который лопнет в течение следующих 12 месяцев. У некоторых инвесторов также возник вопрос по поводу того, как долго Nvidia сможет продолжать свой огромный рост, который вывел её на третью позицию в мировом рейтинге компаний по величине рыночной стоимости, поскольку ажиотаж вокруг генеративного ИИ продолжается, несмотря на неспособность окупить инвестиции, галлюцинации и потребность в большем количестве ЦОД для обработки ИИ-нагрузок. Apple присоединилась к добровольной инициативе по безопасности ИИ
28.07.2024 [15:08],
Анжелла Марина
Apple присоединилась к добровольному обязательству, предложенному Белым домом, по разработке безопасного и этичного искусственного интеллекта, став 16-й технологической компанией, поддержавшей эту инициативу. Данное решение принято накануне запуска собственной генеративной ИИ-модели Apple Intelligence, которая охватит более 2 миллиардов пользователей Apple по всему миру. ![]() Источник изображения: Apple Apple присоединилась к 15 другим технологическим гигантам, включая Amazon, Google, Microsoft и OpenAI, которые обязались следовать принципам, сформулированным Белым домом, в сфере развития ИИ в июле 2023 года, сообщает издание TechCrunch. Примечательно, что Apple не раскрывала свои планы по интеграции ИИ в iOS до недавней конференции WWDC в июне, где компания заявила о намерениях развивать генеративный ИИ, начиная с партнёрства с ChatGPT в iPhone. Аналитики расценивают решение Apple, как попытку компании, известной своими неоднозначными отношениями с регуляторами, продемонстрировать готовность к сотрудничеству в сфере ИИ. На фоне растущего давления со стороны законодателей и опасений общественности по поводу неконтролируемого развития ИИ, Apple решила проявить себя как ответственная компания, готовая следовать этическим принципам. В рамках добровольного обязательства компании обязуются проводить тщательное тестирование безопасности ИИ-моделей перед их публичным выпуском, а также предоставлять общественности информацию о результатах тестирования. Кроме того, они должны обеспечить конфиденциальность разрабатываемых ИИ-моделей, ограничив доступ к разработке широкого круга сотрудников. Также подписана договорённость, касающаяся системы маркировки контента, сгенерированного ИИ, чтобы пользователи могли легко отличить его от контента, созданного непосредственно человеком. Хотя эти обязательства носят добровольный характер, Белый дом рассматривает их как «первый шаг к созданию безопасного и надёжного ИИ». Кроме того, в настоящее время на федеральном уровне и уровне штатов рассматривается ряд законопроектов по его регулированию. Параллельно Министерство торговли США готовит отчёт о потенциальных преимуществах, рисках и последствиях открытых базовых моделей ИИ. При этом ИИ-модели с закрытым доступом стали предметом острых дискуссий, так как ограничение доступа к мощным генеративным моделям может негативно повлиять на развитие стартапов и исследований в области ИИ. Власти США также отметили значительный прогресс федеральных агентств в выполнении задач, поставленных октябрьским указом. На сегодняшний день было нанято более 200 специалистов по ИИ, более 80 исследовательских групп получили доступ к вычислительным ресурсам, также выпущено несколько фреймворков для разработки искусственного интеллекта. Китай стремительно догоняет США в сфере ИИ с помощью технологий с открытым исходным кодом
27.07.2024 [22:22],
Владимир Мироненко
В последние недели китайские технологические компании представили ИИ-технологии, которым по силам конкурировать с американскими системами, и они уже в открытом доступе для потребителей и разработчиков программного обеспечения, пишет газета The New York Times. ![]() Источник изображения: geralt/Pixabay На Всемирной конференции по искусственному интеллекту в Шанхае в этом месяце основатель стартапа Kuaishou Цюй Дунци (Qu Dongqi) продемонстрировал видео, сгенерированное с помощью ИИ-технологии Kling от Kuaishou, похожей на ИИ-генератор видео Sora американского стартапа OpenAI. Но в отличие от Sora, технология Kling, анонсированная немногим более месяца назад, уже доступна широкой публике. Незадолго до этого стартап 01.AI, выпустил большую языковую модель для создания чат-ботов Yi-Large Global SOTA LLM, которая набрала почти столько же баллов, сколько её американские аналоги, такие как GPT-4o и Llama-3, в общих контрольных тестах, оценивающих производительность чат-ботов. Бум ИИ начался в Соединённых Штатах с выпуском ChatGPT в конце 2022 года. Однако китайские компании быстро сокращают отставание от американских за счёт использования открытого исходного кода ИИ, который позволяет совместными усилиями развивать и улучшать существующие технологии ИИ. Китайские разработчики рассматривают ИИ с открытым исходным кодом как возможность для страны занять лидирующее положение на этом рынке. Если экспортные ограничения США усложнили доступ китайских компаний к передовым ИИ-ускорителям Nvidia, то в сфере ПО им вполне по силам догнать американских конкурентов. Группа законодателей США подготовила законопроект, обеспечивающий контроль за экспортом программного обеспечения ИИ, созданного в Соединённых Штатах. Другие пытаются ограничить использование технологий с открытым исходным кодом, но это может принести США больше вреда, чем пользы. Клеман Деланг (Clément Delangue), гендиректор Hugging Face, фирмы, которая открыла доступ пользователям к своим проектам ИИ с открытым исходным кодом, заявил: «ИИ с открытым исходным кодом является основой разработки ИИ», подразумевая, что сотрудничество исследователей и компаний в США позволило стране стать мировым лидером в области ИИ, «и похоже, что Китай может сделать то же самое». X заподозрили в нарушении законов ЕС из-за обучения ИИ на публикациях пользователей
27.07.2024 [16:25],
Павел Котов
Решение администрации соцсети X открыть стартапу Илона Маска (Elon Musk) xAI пользовательские публикации для обучения искусственного интеллекта на условиях презумпции согласия пользователей может нарушать европейские нормы по защите конфиденциальности граждан, передаёт Financial Times. ![]() Источник изображения: NoName_13 / pixabay.com Накануне пользователи X обнаружили, что «дали согласие», чтобы их публикации на сайте и переписка с чат-ботом Grok использовались для «обучения и тонкой настройки» ИИ от xAI. В действительности пользователи предварительного явного согласия на это не давали. Отозвать его можно только в десктопной веб-версии X, а в мобильных приложениях соответствующая опция пока отсутствует. Ирландская Комиссия по защите данных (DPC) — регулирующий орган, ответственный за соблюдение крупными технологическими компаниями европейских норм конфиденциальности — заявила, что несколько месяцев обсуждала с X планы компании использовать данные пользователей для обучения ИИ. Буквально в четверг ведомство направило компании ряд вопросов, некоторые из которых касались обеспечения «прозрачности для пользователей». «Когда они начали [сбор пользовательских данных для обучения ИИ], для нас это было сюрпризом», — сообщил представитель комиссии. В пятницу она направила X дополнительные вопросы, чтобы «прояснить» ситуацию. Есть мнение, что администрация X своими действиями нарушила нормы действующего в ЕС «Общего регламента по защите данных» (GDPR). Документ требует, чтобы перед сбором пользовательских данных компании раскрывали причины своих действий и получали согласие от пользователей. Если ирландский регулятор начнёт проверку по факту возможного нарушения GDPR, соцсети может грозить наказание. В июне Meta✴ отказалась от планов обучать собственный ИИ на публикациях европейских пользователей Facebook✴ и Instagram✴ из-за угрозы нарушить GDPR, назвав, однако, эту меру «шагом назад для европейских инноваций, конкуренции в разработке ИИ». ![]() Источник изображения: BoliviaInteligente / unsplash.com После покупки Twitter (теперь X) в 2022 году Илон Маск столкнулся с пристальным вниманием регуляторов по всему миру, потому что резко сократил штат, включая модераторов, и внёс другие изменения в работу компании. Сейчас в отношении соцсети ведётся проверка по подозрению в нарушении европейского «Закона о цифровых услугах» из-за проблем с модерацией и прозрачностью. «У всех пользователей X есть возможность контролировать, могут ли их открытые публикации использоваться для обучения Grok — поискового помощника с ИИ. Эта опция является дополнением к вашим существующим средствам управления того, могут ли использоваться все ваши взаимодействия, вводимые данные и результаты, связанные с Grok. Эта настройка доступна на веб-платформе и скоро будет развёрнута на мобильных устройствах», — гласит публикация аккаунта безопасности X. Маск стремится наверстать упущенное и выпустить ИИ, не уступающий продуктам OpenAI, Anthropic и Google, и ресурс пользовательских данных X даст xAI преимущество, хотя доступ к Grok есть только у премиум-подписчиков соцсети. Компании Маска всё плотнее интегрируются друг с другом — например, сейчас он добивается одобрения совета директоров Tesla на инвестирование $5 млрд в xAI. Некоторые инвесторы стартапа называют его синергию с другими проектами миллиардера важным преимуществом, а другие выражают опасения по поводу потенциальных конфликтов интересов. Соцсеть X начала без уведомления использовать данные пользователей для обучения Grok
26.07.2024 [21:46],
Владимир Мироненко
Социальная платформа X (ранее Twitter) начала без уведомления пользователей использовать их публикации и диалоги с ИИ-чат-ботом Grok, для обучения последнего, пишет ресурс 9to5Mac. В настройках разрешение на использование данных для обучения включено по умолчанию, однако пользователи могут запретить эти действия, но только в веб-версии X. ![]() Источник изображения: 9to5Mac В пятницу пользователи X обратили внимание на то, что платформа добавила в настройках новый переключатель «Обмен данными» с пояснением, что любые сообщения, сделанные на платформе, а также взаимодействия, входные данные и результаты с использованием Grok теперь применяются для «обучения и тонкой настройки». До этого момента Grok обучался только на массиве общедоступного текста из интернета, с возможностями и наборами данных, которым было далеко до ChatGPT или Copilot. Соцсеть X утверждает, что доступ Grok к публичным сообщениям X в режиме реального времени позволяет чат-боту отвечать на запросы пользователей, используя актуальную информацию и идеи по более широкому кругу тем. Как утверждают разработчики соцсети, обучение позволит:
Чтобы отказаться от использования своих данных в обучении Grok, необходимо в веб-версии приложения X в настройках выбрать раздел «Конфиденциальность и безопасность». Затем в подразделе «Обмен данными и персонализация» необходимо выбрать Grok и отключить опцию «Разрешить использовать ваши сообщения, а также ваши взаимодействия, вводимые данные и результаты с Grok для обучения и тонкой настройки». Прогресс в сфере ИИ позволил создать совершенно новый «мозг» для продвинутых роботов
26.07.2024 [19:50],
Сергей Сурабекянц
За последнее десятилетие сектор робототехники объёмом $74 млрд обрёл новые возможности благодаря значительному прогрессу в сфере ИИ, особенно в области нейронных сетей — систем, имитирующих человеческий мозг. Крупнейшие мировые технологические компании, такие как Google, OpenAI и Tesla, стремятся создать «мозг» на базе ИИ, который сможет автономно управлять робототехникой в науке, производстве и здравоохранении. ![]() Источник изображения: Atomic Heart В течение последних трёх лет роботы прошли путь от способности подниматься по лестнице до прыжков между ящиками, сальто назад и выполнения других паркурных трюков. Что особенно важно — роботы не были запрограммированы на выполнение этих действий, они обучались и адаптировались с помощью новых моделей искусственного интеллекта. Улучшенное компьютерное зрение и возможности пространственного мышления позволили роботам обрести большую автономность при навигации в различных средах, от строительных площадок до нефтяных вышек и городских дорог. ![]() Источник изображения: avtonomika.msk.ru Раньше для обучения и программирования роботов инженерам требовалось жёстко задать алгоритм действий, специфичный для каждой системы или окружения. Появление моделей глубокого обучения позволило машинам стать гораздо более адаптивными, реагировать на изменение обстановки в реальном мире и обучаться самостоятельно. ![]() Источник изображения: Pixabay Генеративный ИИ дал роботам возможность лучше понимать окружающий мир и легче общаться с людьми. Эта технология позволяет давать указания компьютерам с помощью текстовых или голосовых подсказок, не обладая навыками программирования. Большая часть достижений в области ИИ в первую очередь будет реализована в промышленных роботах, хотя крупные технологические компании также стали уделять большое внимание человекоподобным роботам домашнего и социального назначения. ![]() Источник изображения: Freepik Недавний анализ McKinsey оценил мировой рынок человекоподобных роботов в чуть более $1 млрд, что составляет небольшую часть от общего рынка робототехники. Однако растёт этот рынок более чем на 20 процентов в год и в три раза быстрее, чем рынок обычных промышленных роботов. Объём сделок в области робототехники и дронов достиг в этом году $6,5 млрд (552 контракта), что, похоже, превзойдёт $9,7 млрд, привлечённые за весь 2023 год по 1256 контрактам. Недавно лаборатория Google DeepMind рассказала об использовании больших языковых моделей для обучения гуманоидных роботов пониманию окружающей среды и навигации в ней. В этом направлении работает и основанная «крестной матерью ИИ» Фэй-Фэй Ли (Fei-Fei Li) компания World Labs, капитализация которой достигла $1 млрд всего за четыре месяца. OpenAI в прошлом месяце воссоздала исследовательскую группу по робототехнике, распущенную в 2020 году. Стартап по разработке гуманоидных роботов Figure, капитализация которого достигла $2,6 млрд, только в феврале привлёк $675 млн от таких инвесторов, как OpenAI, Microsoft, Amazon и Nvidia. ![]() Источник изображения: Figure Норвежская компания 1X Robotics получила инвестиции в размере более $100 млн на создание роботов для повседневных домашних задач. ![]() Источник изображения: 1X Tesla планирует производить и использовать человекоподобных роботов Optimus уже в следующем году, а затем начать их продажи конечным потребителям. ![]() Источник изображения: Tesla Однако общие инвестиции в этот сектор остаются ниже, чем в рекордном 2021 году. Возможно, дело в том, что технология производства гуманоидных помощников человека все ещё недостаточна отработана, слишком дорога и малодоступна широкому кругу потребителей. Например, китайская Unitree Robotics продаёт своего человекоподобного робота за $16 000. ![]() Источник изображений: Unitree Массовое принятие потребителями инструментов ИИ оказало опосредованное влияние на отношение к робототехнике, что позволило начать использование роботов в общественных местах. Покупатели совершенно спокойно восприняли робота-собаку Spot от Boston Dynamics, которую магазины применили для оценки запасов. Ахти Хейнла (Ahti Heinla), соучредитель Skype и генеральный директор стартапа по доставке ботов Starship Technologies, использует небольших роботов в более чем 100 городах и посёлках Европы и Великобритании и отмечает, что люди «воспринимают роботов как обычных участников общественного пространства и принимают их как нечто естественное». ![]() Источник изображения: pexels.com Существуют и другие точки зрения на применение роботов с ИИ. Компания Tetsuwan Scientific из Сан-Франциско недавно получила финансирование в размере $2,5 млн для создания робота-учёного на основе генеративного ИИ, который может проводить исследования и физические эксперименты. Генеральный директор Кристиан Понсе (Cristian Ponce) убеждён, что роботы могут воспроизводить эксперименты с большей точностью, чем люди, освобождая учёных для творчества и открытий. ![]() Источник изображения: Freepik «Генеративный ИИ [был] применён к глупым вещам, которые не имеют значения, таким как бэк-офисное или бухгалтерское программное обеспечение, но применение генеративного ИИ к научным открытиям — это самое эффективное, что мы могли сделать», — считает Понсе. ИИ-поисковик SearchGPT от OpenAI начал обманывать с первого дня работы
26.07.2024 [15:46],
Анжелла Марина
OpenAI запустила собственную поисковую систему SearchGPT на базе искусственного интеллекта, которая выдаёт на запросы пользователей актуальные и релевантные ответы в виде цитат из проверенных источников. Первые результаты использования SearchGPT оказались не самыми впечатляющими. ![]() Источник изображения: Growtika/Unsplash.com По сообщению The Verge, пользователи выявили свойственную многим ИИ-системам тенденцию галлюцинаций. SearchGPT показывает результаты, которые в основном либо неверны, либо бесполезны. Так, журналист Маттео Вонг (Matteo Wong) из популярного американского журнала The Atlantic провёл своё тестирование. Он ввёл поисковый запрос «Music festivals in Boone North Carolina in august» (Музыкальные фестивали в Буне, Северная Каролина, в августе), после чего получил список мероприятий, которые по мнению SearchGPT, должны пройти в Буне в августе. Первым в списке оказался фестиваль An Appalachian Summer Festival, который, по данным ИИ, проведёт цикл художественных мероприятий с 29 июля по 16 августа. Однако реальность оказалась несколько иной: фестиваль начался 29 июня, а последний концерт состоится 27 июля, а не 16 августа. OpenAI запустила SearchGPT в сотрудничестве с крупнейшими новостными изданиями, такими как Associated Press, Financial Times, Business Insider и другими. Некоторые сделки обошлись компании в миллионы долларов. Многие издатели серьёзно обеспокоены тем, как ИИ-поиск может повлиять на их бизнес. Есть опасения, что SearchGPT или Google AI Overviews будут выдавать слишком исчерпывающие ответы, устраняя необходимость переходить по ссылкам на статьи и лишая тем самым издателей трафика. Несмотря на опасения, компании видят смысл в сотрудничестве с OpenAI в целях продажи доступа к своему контенту. Тем более, что по заявлению OpenAI, издателям будет предоставлена возможность управлять тем, как их контент будет отображаются в SearchGPT. Сэм Альтман назвал условия, которые позволят США не отдать Китаю лидерство в ИИ
26.07.2024 [14:02],
Алексей Разин
На примере сферы производства полупроводниковых компонентов понятно, что США стремятся всеми силами ограничить доступ Китая к соответствующим технологиям, и бурно развивающийся сегмент искусственного интеллекта также не избежит этой участи. По мнению одного из основателей OpenAI Сэма Альтмана (Sam Altman), США должны возглавить коалицию стран, которые обеспечат использование ИИ для всеобщего блага. ![]() Источник изображения: OpenAI Forum Данные комментарии были сделаны Альтманом в колонке на страницах The Washington Post в минувший четверг, как отмечает Business Insider. По мнению руководителя создавшей ChatGPT компании, авторитарные режимы могут формировать будущее человечества с помощью технологий искусственного интеллекта ради усиления собственной власти, но в силах США и их союзников направить ИИ служению во благо демократии. План из четырёх пунктов, предложенный Альтманом, призван обеспечить сохранение лидерства США в сфере искусственного интеллекта. Во-первых, представители американской отрасли, связанной с искусственным интеллектом, должны предусмотреть строжайшие меры безопасности, чтобы сохранить лидерство в данной сфере за коалицией союзников. Для этого потребуются разного рода инновации в сфере защиты центров обработки данных и других объектов информационной инфраструктуры. Они, по словам Альтмана, «не позволят хакерам похитить ключевую интеллектуальную собственность». Вторым пунктом плана Альтмана является развитие правильной инфраструктуры. Власти США, по его мнению, должны убедить частный сектор экономики значительно активнее развивать объекты инфраструктуры — от центров обработки данных до электростанций. Помимо прочего, это позволит создавать новые рабочие места и превратить ИИ в «новую промышленную основу» для американской экономики. Одновременно нужно готовить инженеров, исследователей и новаторов. «Они являются нашей подлинной суперсилой», — заявил Альтман. В-третьих, американские власти должны сформулировать более чёткие правила трансграничного обмена данными. Существующие правила экспортного контроля и зарубежных инвестиций должны быть адаптированы с учётом реалий отрасли искусственного интеллекта, которую необходимо развивать по всей планете. Правила также должны описывать, где будут храниться обрабатываемые данные, программный код и чипы. Как выразился Альтман, «речь идёт не только об экспорте технологий». В действительности осуществляется экспорт ценностей, которые поддерживаются технологией, по мнению главы OpenAI. Четвёртый пункт плана Альтмана призывает власти США придерживаться глобальной стратегии развития технологии ИИ, которая всё же не оставляла бы за бортом процесса страны с растущей экономикой. Альтман призывает создать аналог МАГАТЭ для искусственного интеллекта — международное агентство, которое контролировало бы распространение технологий ИИ для использования в мирных целях. Кроме того, Альтман предлагает учредить инвестиционный фонд, который смог бы привлекать материальные ресурсы стран, готовых участвовать в мирном развитии систем искусственного интеллекта. Либо курировать эти вопросы должна некая некоммерческая организация типа ICANN, которая способствует развитию глобальной сети. Альтман убеждён, что коалиция стран, считающихся оплотом демократии, способна направить развитие искусственного интеллекта в русло, несущее всеобщее благо человечеству. Гильдия актёров США устроила забастовку против Activision, EA, WB Games, Take-Two и других игровых компаний из-за использования ИИ
26.07.2024 [12:00],
Дмитрий Рудь
После более полутора лет переговоров профсоюз SAG-AFTRA (Гильдия киноактёров США и Американская федерация артистов телевидения и радио) объявил первую с 2017 года забастовку крупным игровым компаниям. Забастовка началась сегодня, 26 июля, и затрагивает актёров (в том числе дубляжа и захвата движений) компаний, состоящих в SAG-AFTRA. В их число входят Activision, Disney, EA, Insomniac Games, WB Games, Take-Two и другие. Основной причиной протестов SAG-AFTRA называет то, что профсоюзу не удалось договориться с игровыми компаниями насчёт регулирования использования генеративного искусственного интеллекта в их продуктах. «Мы не пойдём на соглашение, которое позволяет компаниям злоупотреблять ИИ в ущерб нашим людям. Хватит. Когда эти корпорации предложат условия, по которым члены [профсоюза] смогут жить и работать, мы будем готовы к переговорам», — заявила президент SAG-AFTRA Фрэн Дрешер (Fran Drescher). По словам представителя игровых компаний Одри Кулинг (Audrey Cooling), стороны нашли общий язык по 24 из 25 пунктов (повышение зарплаты, дополнительные меры безопасности), а предложенные профсоюзу условия работы с ИИ являются «одними из самых выгодных в индустрии развлечений». В начале 2024 года SAG-AFTRA (не спросив актёров, судя по всему) договорился с Replica Studios, имитирующей голоса с помощью ИИ. В рамках сделки члены профсоюза смогут лицензировать свой голос для игровых студий. Забастовка видеоигровых актёров почти наверняка повлияет на сроки выхода блокбастеров от крупных издателей. Но GTA VI, если верить гендиректору Take-Two Interactive Штраусу Зельнику (Strauss Zelnick), в безопасности. Amazon тайно разрабатывает собственные ИИ-ускорители, которые будут лучше Nvidia
26.07.2024 [11:06],
Алексей Разин
В 2015 году Amazon поглотила компанию Annapurna Labs, силами выходцев из которой сейчас разрабатывает собственные ускорители вычислений для систем искусственного интеллекта. Об этом стало известно на этой неделе со слов руководителя профильного подразделения AWS во время визита журналистов в лабораторию в Техасе. ![]() Источник изображения: AWS Как отмечает Reuters, работой над созданием специализированных чипов для нужд Amazon в данном исследовательском центре занимается около шести инженеров. Их работа тщательно засекречена, но AWS уже располагает прототипами данных ускорителей, которые работают в серверной стойке, расположенной в лаборатории. Руководит этой деятельностью Рами Синно (Rami Sinno), который обладает опытом работы в Arm, Calxeda, Freescale Semiconductor, Marvell и Intel. Amazon намеревается снизить степень своей зависимости от Nvidia, которая фактически монополизировала рынок ускорителей вычислений, и для крупного игрока облачного сегмента, коим является AWS, подобная инициатива может сэкономить какое-то количество средств в конечном итоге. Принято считать, что Microsoft и Alphabet (Google) тоже создают свои ускорители вычислений. По словам Рами Синно, клиенты AWS всё чаще требуют более дешёвых альтернатив решениям Nvidia. По словам вице-президента AWS по вычислениям и сетевым решениям Дэвида Брауна (David Brown), компания верит, что можно добиться улучшения соотношения цены и быстродействия вычислительных компонентов на 40–50 % относительно предложений Nvidia. Сейчас AWS контролирует почти треть рынка облачных услуг, на долю Microsoft Azure приходится примерно 25 %. Amazon уже внедрила в своей инфраструктуре 80 000 чипов собственной разработки для ускорения ИИ. Сопутствующие процессоры Graviton сейчас эксплуатируются в количестве 250 000 штук, но они не имеют специализированных функций для ускорения работы систем искусственного интеллекта. ИИ-модели Google DeepMind решили задачи математической олимпиады на уровне серебряного медалиста
26.07.2024 [10:03],
Владимир Мироненко
Google DeepMind, базирующееся в Лондоне дочернее предприятие Google, специализирующееся на исследованиях в сфере искусственного интеллекта (ИИ), представило ИИ-модели AlphaProof и AlphaGeometry 2, способные решать сложные математические задачи, с которыми не справляются нынешние ИИ-модели. ![]() Источник изображения: geralt/Pixabay По ряду причин решение математических задач, требующих способности к продвинутым рассуждениям, пока не по силам большинству ИИ-систем. Дело в том, что такие типы задач требуют формирования и использования абстракций. Также требуется сложное иерархическое планирование, постановка подцелей, откат и поиски новых путей, что является сложным вопросом для ИИ. Обе новые ИИ-модели обладают способностью к продвинутым математическим рассуждениям для решения сложных математических задач. AlphaProof была создана с использованием обучения с подкреплением, получив способность доказывать математические утверждения на формальном языке программирования Lean. Для её создания использовалась предварительно обученная языковая модель AlphaZero, алгоритм обучения с подкреплением, который ранее сам себя научил играть в шахматы, сёги и го. В свою очередь, AlphaGeometry 2 представляет собой усовершенствованную версию существующей ИИ-системы AlphaGeometry, представленной в январе и предназначенной для решения задач по геометрии. В то время как AlphaProof была обучена решению задач по широкому кругу математических тем, AlphaGeometry 2 оптимизирована для решения задач, связанных с перемещениями объектов и уравнениями, включающими углы, соотношения и расстояния. Поскольку AlphaGeometry 2 была обучена на значительно большем количестве синтетических данных, чем предшественник, она может справиться с гораздо более сложными геометрическими задачами. Чтобы проверить возможности новых ИИ-систем, исследователи Google DeepMind поручили им решить шесть задач Международной математической олимпиады (IMO) этого года и доказать правильность ответов. AlphaProof решила две задачи по алгебре и одну задачу по теории чисел, одна из которых была самой сложной на олимпиаде, в то время как AlphaGeometry 2 решила задачу по геометрии. Две задачи по комбинаторике остались нерешёнными. Два известных математика, Тим Гауэрс (Tim Gowers) и Джозеф Майерс (Joseph Myers), проверили представленные системами решения. Они присудили каждому из четырёх правильных ответов максимальное количество баллов (семь из семи), что дало системам в общей сложности 28 баллов из максимальных 42. Участник олимпиады, набравший столько же баллов, был бы награждён серебряной медалью и немного не дотянул бы до золота, которое присуждается набравшим 29 баллов и больше. Впервые ИИ-система смогла достичь результатов в решении математических задач IMO на уровне медалиста. «Как математик, я нахожу это очень впечатляющим и значительным скачком по сравнению с тем, что было возможно ранее», — заявил Гауэрс во время пресс-конференции. Создание систем ИИ, способных решать сложные математические задачи, может проложить путь для захватывающего сотрудничества человека и ИИ, считает Кэти Коллинз (Katie Collins), исследователь из Кембриджского университета. Это, в свою очередь, может помочь нам узнать больше о том, как мы, люди, справляемся с математикой. «Мы всё ещё многого не знаем о том, как люди решают сложные математические задачи», — говорит она. Runway уличили в использовании YouTube и пиратских фильмов для обучения ИИ-модели
26.07.2024 [04:25],
Анжелла Марина
Компания Runway, занимающаяся разработкой инструментов для генерации видео на основе искусственного интеллекта, оказалась в центре скандала. Издание 404 Media опубликовало расследование, в котором утверждается, что Runway использовала для обучения ИИ-модели тысячи видео с YouTube, включая контент известных медиакомпаний и популярных блогеров, не имея на это разрешения. ![]() runwayml.com По сообщению The Verge, 404 Media получило доступ к таблице с данными, которые предположительно использовались Runway для обучения своего ИИ. В ней содержатся ссылки на каналы YouTube таких компаний, как Netflix, Disney, Nintendo и Rockstar Games, а также популярных блогеров, таких как MKBHD, Linus Tech Tips и Sam Kolder. Кроме того, в таблице были обнаружены ссылки на новостные издания, включая The Verge, The New Yorker, Reuters и Wired. По словам бывшего сотрудника Runway, эта таблица состоит из списка каналов, которые «являются результатом усилий всей компании по поиску качественных видео для построения модели». Затем эти ссылки использовались в качестве входных данных для веб-сканера, который загружал контент, используя прокси-серверы, дабы избежать блокировок со стороны Google. Помимо каналов YouTube, обнаружены данные, содержащие ссылки на пиратские сайты, которые демонстрируют лицензионные фильмы бесплатно. Правда пока не ясно, использовала ли Runway эти фильмы для обучения своей модели Gen-3 Alpha, но, как поясняет The Verge, узнать это будет, скорее всего, невозможно. Издание обратилась к Runway с просьбой прокомментировать ситуацию, но пока не получила ответа. Стоит отметить, что Runway — не единственная компания, использующая YouTube для обучения ИИ-моделей. Ранее в этом году технический директор OpenAI Мира Мурати (Mira Murati) заявила, что не уверена, обучалась ли их ИИ-модель для генерации Full HD-видео Sora на контенте из YouTube. Кроме того, недавнее совместное расследование компаний Proof News и Wired показало, что Anthropic, Apple, Nvidia и Salesforce обучали свои модели ИИ на более чем 170 000 видео с YouTube. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; ✶ Входит в реестр лиц, организаций и объединений, выполняющих функции иностранного агента; |