Сегодня 27 июля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → боты
Быстрый переход

Runway уличили в использовании YouTube и пиратских фильмов для обучения ИИ-модели

Компания Runway, занимающаяся разработкой инструментов для генерации видео на основе искусственного интеллекта, оказалась в центре скандала. Издание 404 Media опубликовало расследование, в котором утверждается, что Runway использовала для обучения ИИ-модели тысячи видео с YouTube, включая контент известных медиакомпаний и популярных блогеров, не имея на это разрешения.

 runwayml.com

runwayml.com

По сообщению The Verge, 404 Media получило доступ к таблице с данными, которые предположительно использовались Runway для обучения своего ИИ. В ней содержатся ссылки на каналы YouTube таких компаний, как Netflix, Disney, Nintendo и Rockstar Games, а также популярных блогеров, таких как MKBHD, Linus Tech Tips и Sam Kolder. Кроме того, в таблице были обнаружены ссылки на новостные издания, включая The Verge, The New Yorker, Reuters и Wired.

По словам бывшего сотрудника Runway, эта таблица состоит из списка каналов, которые «являются результатом усилий всей компании по поиску качественных видео для построения модели». Затем эти ссылки использовались в качестве входных данных для веб-сканера, который загружал контент, используя прокси-серверы, дабы избежать блокировок со стороны Google.

Помимо каналов YouTube, обнаружены данные, содержащие ссылки на пиратские сайты, которые демонстрируют лицензионные фильмы бесплатно. Правда пока не ясно, использовала ли Runway эти фильмы для обучения своей модели Gen-3 Alpha, но, как поясняет The Verge, узнать это будет, скорее всего, невозможно. Издание обратилась к Runway с просьбой прокомментировать ситуацию, но пока не получила ответа.

Стоит отметить, что Runway — не единственная компания, использующая YouTube для обучения ИИ-моделей. Ранее в этом году технический директор OpenAI Мира Мурати (Mira Murati) заявила, что не уверена, обучалась ли их ИИ-модель для генерации Full HD-видео Sora на контенте из YouTube. Кроме того, недавнее совместное расследование компаний Proof News и Wired показало, что Anthropic, Apple, Nvidia и Salesforce обучали свои модели ИИ на более чем 170 000 видео с YouTube.

Proton выпустила ИИ-помощника для электронной почты, который работает на компьютере пользователя

Швейцарская компания Proton, известная своими приложениями, такими как Proton Mail и Proton VPN, ориентированными на конфиденциальность, запустила новый инструмент на основе искусственного интеллекта, который будет помогать пользователям в составлении электронных писем, перерабатывать их и проверять орфографию перед отправкой с помощью простых подсказок.

 Источник изображения: Proton

Источник изображения: Proton

Новый продукт Proton Scribe продолжает воспроизводить функциональность решений, появившихся у Google, отвечая на запуск AI Gemini в Gmail.

Основанный на открытой модели языка Mistral 7B от французского стартапа Mistral, Proton Scribe обеспечивает максимальную безопасность данных пользователей. Как сообщает TechCrunch, инструмент можно устанавливать полностью на локальном уровне, что исключает передачу информации за пределы устройства. Компания также обещает, что ИИ не будет обучаться на пользовательских данных, что особенно важно для корпоративного использования.

«Мы поняли, что независимо от того, разрабатывает ли Proton инструменты ИИ или нет, пользователи всё равно будут использовать искусственный интеллект, часто со значительными последствиями для конфиденциальности», — сказал основатель и генеральный директор Энди Йен (Andy Yen). «Вместо того, чтобы копировать свои сообщения в сторонние инструменты ИИ, которые часто имеют ужасные методы обеспечения конфиденциальности, было бы лучше встроить инструменты ИИ, ориентированные на конфиденциальность, непосредственно в Proton Mail».

 Источник изображения: Proton

Источник изображения: Proton

Интересно, что Proton Scribe также может работать непосредственно на серверах Proton, если пользователи, менее обеспокоенные безопасностью, выберут этот способ взаимодействия с приложением. Это позволит быстрее обрабатывать запросы, в зависимости от аппаратного обеспечения пользователя. При этом компания подчёркивает, что не ведёт никаких журналов и не передаёт данные третьим лицам. «На сервер передаётся только подсказка, введённая пользователем, и никакие данные не сохраняются после создания черновика электронного письма», — сообщил представитель компании изданию TechCrunch.

Хотя Proton Scribe ограничен только электронной почтой, компания заявила, что может расширить инструмент и на другие свои продукты в будущем «в зависимости от спроса». Возможно, в дальнейшем в Scribe появится интеграция с недавно запущенным приложением для совместной работы с документами.

Новый инструмент доступен уже сегодня для Proton Mail в веб-версии и десктопной версии. Компания подтвердила, что в будущем планирует добавить поддержку мобильных устройств. Что касается стоимости, то Proton Scribe в основном ориентирован на бизнес-пользователей и те, кто уже использует тарифные планы Mail Essentials, Mail Professional или Proton Business Suite, могут получить доступ к инструменту за дополнительные $2,99 в месяц. Пользователи устаревших и лимитированных тарифных планов, таких как Visionary или Lifetime, получат доступ к Proton Scribe бесплатно.

OpenAI повысит безопасность своих ИИ-моделей с помощью «иерархии инструкций»

OpenAI разработала новый метод под названием «Иерархия инструкций» для повышения безопасности своих больших языковых моделей (LLM). Этот метод, впервые применённый в новой модели GPT-4o Mini, направлен на предотвращение нежелательного поведения ИИ, вызванного манипуляциями недобросовестных пользователей с помощью определённых команд.

 Источник изображения: Copilot

Источник изображения: Copilot

Руководитель платформы API в OpenAI Оливье Годеман (Olivier Godement) объяснил, что «иерархия инструкций» позволит предотвращать опасные инъекции промтов с помощью скрытых подсказок, которые пользователи используют для обхода ограничений и изначальных установок модели, и блокировать атаки типа «игнорировать все предыдущие инструкции».

Новый метод, как пишет The Verge, отдаёт приоритет исходным инструкциям разработчика, делая модель менее восприимчивой к попыткам конечных пользователей заставить её выполнять нежелательные действия. В случае конфликта между системными инструкциями и командами пользователя, модель будет отдавать наивысший приоритет именно системным инструкциям, отказываясь выполнять инъекции.

Исследователи OpenAI считают, что в будущем будут разработаны и другие, более сложные средства защиты, особенно для агентных сценариев использования, при которых ИИ-агенты создаются разработчиками для собственных приложений. Учитывая, что OpenAI сталкивается с постоянными проблемами в области безопасности, новый метод, применённый к GPT-4o Mini, имеет большое значение для последующего подхода к разработке ИИ-моделей.

Synchron создала мозговой имплант со встроенным ChatGPT

Американская компания Synchron, разрабатывающая технологии нейрокомпьютерных интерфейсов (BCI) для восстановления двигательных функций у парализованных людей, объявила об интеграции системы генеративного искусственного интеллекта от OpenAI в свою платформу. Это позволит пациентам с тяжёлой формой паралича взаимодействовать с другими людьми силой мысли.

 Пациент с имплантом Synchron общается при поддержке ИИ. На зелёных плитках отображаются предложенные ИИ варианты слов и фраз. сточник изображения: Synchron

Пациент с имплантом Synchron использует ИИ-чат-бот для общения. Зелёные плитки — предложенные ИИ фразы. Источник изображений: Synchron

Чат-бот в нейроинтерфейсе, работающий на базе ИИ от создателя ChatGPT, упростит процесс общения для пользователей. Система может генерировать автоматические подсказки в текстовом и аудиоформате в режиме реального времени, учитывая контекст и эмоциональное состояние пользователя (система принимает текстовые, аудио и графические данные), и предлагать оптимальные варианты фраз. То есть ИИ будет помогать в наборе текста силой мысли, предсказывая, что бы хотел сказать человек в той или иной ситуации, и предлагать несколько вариантов слов или фраз на выбор — своего рода продвинутый Т9.

Компания уже испытала технологию на пациенте, которому ранее вживили её BCI. Пациент по имени Марк с боковым амиотрофическим склерозом (БАС), которому вживили имплант Synchron в прошлом году, последние два месяца периодически тестировал новую функцию на базе ИИ-чат-бота. По его словам, она помогает ему экономить драгоценное время и энергию во время общения с близкими. Использование BCI требует сосредоточенности и практики, поэтому, по словам Марка, искусственный интеллект помогает снять с себя часть нагрузки при ответе на сообщения.

 Источник изображения: Synchron

Том Оксли (Tom Oxley), генеральный директор и основатель Synchron, подчеркнул важность этой интеграции: «Наши пациенты утратили способность воспроизводить какие-либо действия из-за неврологических заболеваний. Генеративный ИИ может предложить варианты, контекстуально соответствующие окружающей среде, а BCI позволит сделать человеку выбор на основании той или иной подсказки. Система по сути сохраняет фундаментальное право человека на свободу самовыражения и автономию».

Вот что сказал Марк по поводу новой технологии: «Как человек, который, скорее всего, потеряет способность общаться по мере прогрессирования неизлечимой на сегодня болезни, эта технология даёт мне надежду, что в будущем у меня всё ещё будет способ легко общаться с близкими».

Устройство Synchron имплантируется в кровеносные сосуды на поверхности моторной коры головного мозга через яремную вену с помощью малоинвазивной эндоваскулярной процедуры. После имплантации устройство способно выявлять и беспроводным способом передавать из мозга двигательные намерения, что позволяет парализованным людям управлять персональными устройствами без помощи рук, как бы наводя указатель мышки и кликая по опциям. Аналогичным образом человек сможет выбирать слова и фразы, предложенные ИИ. Важно отметить, что платформа Synchron не будет передавать сигналы мозга человека на сервер OpenAI — используется платформа самой компании в облаке AWS.

Обновлённая платформа BCI от Synchron, теперь с генеративным ИИ, позволит пациентам печатать текст с более естественной скоростью и тем самым значительно повысить качество общения. Это первый в своём классе коммерческий продукт, который позволит миллионам людей с нарушениями функций верхних конечностей оставаться с миром на связи.

Сотрудники OpenAI обвинили компанию в препятствовании огласке о рисках ИИ

Группа информаторов из компании OpenAI подала жалобу в Комиссию по ценным бумагам и биржам США (SEC), обвинив организацию в незаконном запрете сотрудникам предупреждать регуляторов о серьёзных рисках, которые может нести искусственный интеллект человечеству.

 Источник изображения: Elizabeth Frantz/For The Washington Post

Источник изображения: Elizabeth Frantz/For The Washington Post

По сообщению газеты The Washington Post со ссылкой на анонимные источники, OpenAI заставляла сотрудников подписывать чрезмерно ограничительные трудовые договоры, соглашения о выходном пособии и соглашения о неразглашении информации. Эти документы могли привести к наказанию работников, если бы они самостоятельно связались с федеральными регуляторами по поводу деятельности OpenAI.

В трудовом договоре содержались в неявном виде такие строки: «Мы не хотим, чтобы сотрудники разговаривали с федеральными регуляторами», — заявил один из информаторов на условиях анонимности из-за страха возмездия. «Я не думаю, что компании, занимающиеся ИИ, способны создавать безопасные и отвечающие общественным интересам технологии, если они ограждают себя от проверок и инакомыслия», — добавил он.

Тем не менее, Ханна Вон (Hannah Wong), пресс-секретарь OpenAI, в ответ на обвинения заявила, что политика компании в отношении информаторов защищает права сотрудников на раскрытие информации и что компания приветствует дискуссии о влиянии технологий на общество. «Мы считаем, что серьёзное обсуждение этой технологии крайне важно, и уже внесли изменения в наш процесс увольнения, исключив из него пункты о неразглашении», — сказала она.

В свою очередь адвокат информаторов Стивен Кон (Stephen Kohn) подчеркнул, что такие соглашения угрожают сотрудникам уголовным преследованием, если они сообщат о каких-либо нарушениях властям, и что это противоречит федеральным законам и нормам, защищающим информаторов. Он также отметил, что соглашение не содержало исключений для раскрытия определённой информации о нарушениях закона, что также является нарушением норм SEC.

Письмо информаторов появилось на фоне растущих опасений, что OpenAI, изначально созданная как некоммерческая организация с альтруистической миссией, теперь ставит прибыль выше безопасности при создании своих технологий. Сообщается, что последняя модель ИИ ChatGPT, была выпущена до того, как компания завершила собственную процедуру проверки безопасности, из-за желания руководства уложиться в установленный срок.

Неназванные сотрудники OpenAI призвали SEC провести тщательное расследование и принять меры против OpenAI, включая применение штрафов за каждый ненадлежащий контракт и требование уведомить всех прошлых и нынешних сотрудников об их праве конфиденциально и на анонимной основе сообщать о любых нарушениях закона SEC.

Адвокат Крис Бейкер (Chris Baker) из Сан-Франциско, который не так давно выиграл дело против Google о трудовом соглашении и компенсацию в размере 27 миллионов долларов для сотрудников компании, заявил, что борьба с «Соглашением о неразглашении» в Кремниевой долине ведётся уже давно. Однако «работодатели понимают, что иногда ущерб от утечек информации намного больше, чем от судебных исков, и готовы идти на риск», — сказал Бейкер.

ЕС утвердил Закон об ИИ: в числе запретов извлечение изображений лиц из интернета

Европейский союз официально утвердил Закон об искусственном интеллекте, представляющий собой комплексный набор правил для регулирования деятельности технологических компаний. Новый закон, разработка которого заняла два года, запрещает определённые виды использования ИИ и предъявляет строгие требования к деятельности разработчиков.

 Источник изображения: Copilot

Источник изображения: Copilot

ЕС сделал решительный шаг в регулировании искусственного интеллекта, приняв всеобъемлющий Закон об ИИ после двух лет обсуждений. Этот законодательный акт, официально вступающий в силу 1 августа 2024 года, устанавливает жёсткие рамки для разработки и применения технологий искусственного интеллекта на территории ЕС. Крайним сроком исполнения этого закона является 2 февраля 2025 года, после чего технологические компании должны прекратить использование приложений, угрожающих правам граждан, сообщает The Verge. Полный текст закона опубликован на официальном сайте ЕС.

Новый закон запрещает определённые виды использования ИИ. В частности, запрещается использование приложений, угрожающих правам граждан, таких как биометрическая категоризация для определения сексуальной ориентации или религии. Также запрещается несанкционированное извлечение изображений лиц из интернета или записей с камер наблюдения.

Разработчики ИИ-систем должны будут обеспечить прозрачность и в отношении того, как работают их технологии, включая предоставление сводок данных, используемых для обучения систем. Через девять месяцев после вступления закона в силу у компаний появятся кодексы практики, состоящие из набора правил, описывающих требования к соответствию, контрольные показатели, ключевые показатели эффективности и т.д. Также вводится понятие «универсальные системы искусственного интеллекта», такие как чат-боты, которые должны будут соблюдать авторское право и иметь прозрачность в отношении своих алгоритмов.

Сроки соответствия нормам закона гласят, что большинство правил должны быть внедрены к исполнению к августу 2026 года, но некоторые высокорискованные системы ИИ, интегрированные в критически важную инфраструктуру или влияющие на занятость населения, здравоохранение и правосудие, имеют более длительный срок соответствия — до августа 2027 года.

Несоблюдение Закона об ИИ приведёт к серьёзным штрафам. Нарушение запретов на определённые виды использования ИИ повлечёт за собой штраф в размере 35 миллионов евро (около $38 млн) или 7 % от мировой годовой выручки компании-нарушителя, в зависимости от того, какая сумма больше. Другие нарушения влекут за собой меньшие штрафы, но тоже существенные.

OpenAI создала систему оценки прогресса ИИ — сейчас компания на первом уровне из пяти

OpenAI представила новую систему уровней для оценки прогресса в создании искусственного интеллекта, способного превзойти человека. Этот шаг, по словам компании, необходим для того, чтобы помочь людям лучше понять вопросы безопасности и будущее ИИ.

 Источник изображения: Andrew Neel/Unsplash

Источник изображения: Andrew Neel/Unsplash

По сообщению издания Bloomberg, на прошедшем на днях общем собрании в OpenAI, руководство представило новую классификацию, которая будет использоваться для внутренних оценок и общения с инвесторами. По словам представителя компании, уровни варьируются от возможностей ИИ «сегодня», таких как взаимодействие на разговорном языке (уровень 1), до ИИ, способного выполнять работу целой организации (уровень 5).

Руководители OpenAI сообщили сотрудникам, что в настоящее время компания находится на первом уровне, но уже близка к достижению второго уровня, который они назвали «Мыслящие» (Reasoners). Этот уровень обозначает системы, способные решать базовые задачи на уровне человека, имеющего степень доктора наук. Также был показан исследовательский проект на базе модели GPT-4, продемонстрировавший новые навыки ИИ.

 Источник изображения: David Paul Morris/Bloomberg

Источник изображения: David Paul Morris/Bloomberg

OpenAI также работает над созданием так называемого сильного искусственного интеллекта (AGI), который сможет выполнять большинство задач лучше человека. И хотя в настоящее время такая система ещё не существует, генеральный директор OpenAI Сэм Альтман (Sam Altman) заявляет, что AGI может быть создан в текущем десятилетии.

Интересно, что разработчики ИИ долгое время спорят о критериях достижения AGI. Так, в ноябре 2023 года сотрудники из Google DeepMind предложили собственную систему из пяти уровней ИИ, включая такие критерии, как «эксперт» и «сверхчеловек». Эти уровни напоминают систему, используемую в автомобильной промышленности для оценки степени автоматизации автономных автомобилей.

Однако OpenAI планирует использовать свою разработку уровней для оценки прогресса в создании безопасных и эффективных систем ИИ, которые смогли бы решать сложные задачи, но при этом оставаться под контролем человека. Компания придумала третий уровень, который будет называться «Агенты», имея в виду системы ИИ, которые могут выполнять действия под руководством пользователя. ИИ четвёртого уровня сможет генерировать инновационные идеи. А самый продвинутый пятый уровень будет называться «Организации».

Все перечисленные уровни были составлены руководителями и сотрудниками старшего звена OpenAI. Компания будет собирать отзывы от разработчиков, сотрудников, инвесторов и может корректировать уровни с течением времени.

Во флагманских смартфонах Samsung появится обновлённый помощник Bixby с фирменным ИИ

Samsung готовится к выпуску обновлённой версии своего голосового помощника Bixby, основанной на технологии генеративного ИИ. Он сможет предоставлять пользователям информацию по запросу подобно ChatGPT от OpenAI. При этом Samsung не откажется от сотрудничества с другими разработчиками ИИ и по-прежнему будет поддерживать голосового помощника Google.

 Источник изображения: Mark Chan / Unsplash

Источник изображения: Mark Chan / Unsplash

Новая версия Bixby будет основана на собственной большой языковой модели (LLM) Samsung, что позволит существенно расширить возможности помощника. «Мы собираемся усовершенствовать Bixby, применяя технологию генеративного ИИ», — заявил в интервью CNBC глава мобильного подразделения компании Тэ Мун Ро (ТМ Roh).

Bixby был запущен в 2017 году вместе со смартфоном Galaxy S8 и с тех пор постоянно развивался. Сейчас помощник поддерживает множество функций, включая синхронный перевод (Live Translate) на другой язык в режиме реального времени, поиск ресторанов и распознавание объектов через камеру смартфона.

 Источник изображения: Samsung

Источник изображения: Samsung

Обновление Bixby — это часть более широкой стратегии Samsung по внедрению искусственного интеллекта в свои устройства, так как компания стремится сделать ИИ-функции ключевым преимуществом своих флагманских смартфонов. «Поскольку потребители всё чаще используют возможности ИИ, они реально могут почувствовать удобство и преимущества, которые приносит эта технология. Я твёрдо верю, что Galaxy AI и мобильный ИИ станет сильной мотивацией для покупки новых продуктов», — отметил Ро. Samsung не планирует отказываться от поддержки других голосовых помощников на своих устройствах. Например, на последних смартфонах компании по-прежнему доступен Google Assistant.

Анонс обновлённого Bixby происходит на фоне растущего интереса к генеративному ИИ, вызванного успехом ChatGPT от OpenAI. Недавно о планах по улучшению своего голосового помощника Siri с помощью ИИ также объявила и Apple. Эксперты в свою очередь отмечают, что конкуренция на рынке голосовых помощников обостряется. Соответственно Samsung стремится не отстать от конкурентов и укрепить свои позиции за счёт инвестиций в ИИ, а её улучшенный Bixby может стать важным фактором в борьбе за покупателей премиальных смартфонов.

Ожидается, что новая версия Bixby дебютирует во флагманских устройствах Samsung в конце этого года. Компания уже начала внедрять новые ИИ-функции в свои последние складные смартфоны Galaxy Z Fold6 и Z Flip6.

WhatsApp тестирует ИИ-редактирование фотографий с помощью текстовых запросов

Популярный мессенджер приступил к тестированию инновационной функции, позволяющей пользователям редактировать фотографии и получать информацию о них с помощью искусственного интеллекта Meta AI.

 Источник изображения: Heiko / Pixabay

Источник изображения: Heiko / Pixabay

Новая функция, о которой рассказал WABetaInfo, была замечена в последней бета-версии WhatsApp 2.24.14.20 для Android. С её помощью пользователи смогут загружать фотографии в чат с ИИ от Meta, который сможет анализировать изображения, отвечать на дополнительные вопросы об этих изображениях.

Например, можно попросить ИИ определить объекты на фотографии или объяснить её смысл. Кроме того, ИИ сможет быстро редактировать изображения по текстовым запросам, введённым в чат. Хотя на данный момент неясно, насколько широкими будут возможности редактирования, WABetaInfo отмечает, что новая функция «добавит удобства в пользовательский опыт» и поможет людям сэкономить время.

 Источник изображения: wabetainfo.com

Источник изображения: wabetainfo.com

Кстати, для пользователей, которые беспокоятся о конфиденциальности, WhatsApp предусмотрел возможность удаления загруженных фотографий в любое время. Помимо этого, как ранее сообщали источники, Meta также разрабатывает генератор аватаров с использованием ИИ, который позволит пользователям создавать свои изображения на различных фонах и в разных стилях.

Новая функция редактирования фото с помощью ИИ пока находится на стадии тестирования и доступна только в бета-версии WhatsApp для Android. О сроках её запуска для всех пользователей без ограничения пока не сообщается.

Разработчики ИИ стали переходить на компактные ИИ-модели — они дешевле и экономичнее

Технологические гиганты и стартапы переходят на более компактные и эффективные модели искусственного интеллекта, стремясь сократить расходы и повысить производительность. Эти модели, в отличие от своих «старших братьев», таких как GPT-4, могут обучаться на меньшем объёме данных и специализируются на решении конкретных задач.

 Источник изображения: Copilot

Источник изображения: Copilot

Microsoft, Google, Apple и стартапы, такие как Mistral, Anthropic и Cohere, всё чаще обращаются к малым и средним языковым моделям искусственного интеллекта. В отличие от больших моделей (LLM), таких как GPT-4 от OpenAI, которые используют более одного триллиона параметров и их разработка оценивается далеко за 100 миллионов долларов, компактные модели обучаются на более узких наборах данных и могут стоить менее 10 миллионов долларов, при этом используя менее 10 миллиардов параметров.

Компания Microsoft, один из лидеров в области ИИ, представила семейство небольших моделей под названием Phi. По словам генерального директора компании Сатьи Наделлы (Satya Nadella), эти модели в 100 раз меньше бесплатной версии ChatGPT, но при этом справляются со многими задачами почти так же эффективно. Юсуф Мехди (Yusuf Mehdi), коммерческий директор Microsoft, отметил, что компания быстро осознала, что эксплуатация крупных моделей ИИ обходится дороже, чем предполагалось изначально, что побудило Microsoft искать более экономичные решения.

Другие технологические гиганты также не остались в стороне. Google, Apple, а также Mistral, Anthropic и Cohere выпустили свои версии малых и средних моделей. Apple, в частности, планирует использовать такие модели для запуска ИИ локально, непосредственно на смартфонах, что должно повысить скорость работы и безопасность. При этом потребление ресурсов на смартфонах будет минимальным.

Эксперты отмечают, что для многих задач, таких как обобщение документов или создание изображений, большие модели вообще могут оказаться избыточными. Илья Полосухин, один из авторов основополагающей статьи Google в 2017 году, касающейся искусственного интеллекта, образно сравнил использование больших моделей для простых задач с поездкой в магазин за продуктами на танке. «Для вычисления 2 + 2 не должны требоваться квадриллионы операций», — подчеркнул он.

Компании и потребители также ищут способы снизить затраты на эксплуатацию генеративных технологий ИИ. По словам Йоава Шохама (Yoav Shoham), соучредителя ИИ-компании AI21 Labs из Тель-Авива, небольшие модели могут отвечать на вопросы, если перевести всё в деньги, всего за одну шестую стоимости больших языковых моделей.

Интересно, что ключевым преимуществом малых моделей является возможность их тонкой настройки под конкретные задачи и наборы данных. Это позволяет им эффективно работать в специализированных областях при меньших затратах, например, только в юридической отрасли.

Однако эксперты отмечают, что компании не собираются полностью отказываться от LLM. Например, Apple объявила об интеграции ChatGPT в Siri для выполнения сложных задач, а Microsoft планирует использовать последнюю модель OpenAI в новой версии Windows. А такие компании как Experian из Ирландии и Salesforce из США, уже перешли на использование компактных моделей ИИ для чат-ботов и обнаружили, что они обеспечивают такую же производительность, как и большие модели, но при значительно меньших затратах и с меньшими задержками обработки данных.

Переход к малым моделям происходит на фоне замедления прогресса в области больших публично доступных моделей искусственного интеллекта. Эксперты связывают это с нехваткой высококачественных новых данных для обучения, и в целом, указывают на новый и важный этап эволюции индустрии.

Cloudflare запустила инструмент для борьбы с ботами, собирающими данные для ИИ

Компания Cloudflare запустила новый бесплатный инструмент для защиты веб-сайтов от ботов, которые извлекают данные для обучения моделей искусственного интеллекта без согласия владельцев сайтов.

 Источник изображения: Cloudflare

Источник изображения: Cloudflare

Cloudflare, поставщик облачных услуг по предоставлению DNS и защиты от DDoS-атак, представила новое решение для борьбы с ботами искусственного интеллекта, которые несанкционированно занимаются сбором данных с веб-сайтов. Новый бесплатный инструмент защитит сайты, размещённые на платформе Cloudflare, от извлечения их контента для обучения ИИ-моделей.

Хотя некоторые крупные игроки в сфере ИИ, такие как Google, OpenAI и Apple, позволяют владельцам сайтов блокировать ботов через специальный файл robots.txt, далеко не все владельцы подобных ботов соблюдают эти правила. Cloudflare отмечает, что некоторые компании ИИ намеренно обходят ограничения доступа к контенту, постоянно адаптируясь и меняя свои алгоритмы, чтобы избежать обнаружения.

Чтобы решить эту проблему, Cloudflare проанализировала трафик краулеров и разработала автоматические модели их обнаружения, которые учитывают различные факторы, в том числе включая попытки ботов имитировать действия человека, использующего веб-браузер. Также создана специальная форма, позволяющая сообщать о подозрительных ботах и сканерах. На основе полученных данных Cloudflare будет вручную заносить ботов ИИ в черный список.

Проблема сбора данных ботами ИИ стала особенно актуальной на фоне бума генеративного ИИ. Многие сайты опасаются, что поставщики ИИ будут использовать их контент без разрешения и какой-либо компенсации. Согласно исследованию, около 26 % из 100 крупнейших новостных сайтов заблокировали бота OpenAI и 242 сайта из 1000 наиболее популярных также в настоящее время блокируют GPTBot. Другое исследование показало, что уже более 600 крупных новостных издателей заблокировали различных ботов.

Так как многие ИИ-боты игнорируют правила, прописанные в robots.txt, то приходится искать новые методы решения вопроса. Инструменты, подобные разработке Cloudflare, могут помочь в борьбе с несанкционированным сбором данных. Но насколько это окажется эффективным покажет время.

Геймерский браузер Opera GX получил масштабное обновление встроенного ИИ Aria

Популярный браузер для геймеров Opera GX получил масштабное обновление встроенного искусственного интеллекта Aria. Добавлена функция генерации и анализа изображений, голосового вывода и другие интересные возможности.

 Источник изображения: Opera Software

Источник изображения: Opera Software

Компания Opera Software объявила о значительном обновлении браузера Opera GX, ориентированного на геймеров. Главным нововведением стало расширение функциональности встроенного искусственного интеллекта Aria, который теперь способен работать с изображениями, озвучивать текст и предоставлять более подробную информацию пользователям.

Обновление включает ряд новых функций, ранее доступных только в экспериментальном приложении AI Feature Drops для браузера Opera One. Теперь геймеры Opera GX смогут воспользоваться передовыми технологиями искусственного интеллекта прямо в своем браузере.

 Источник изображения: Opera Software

Источник изображения: Opera Software

Одной из ключевых особенностей стала возможность генерации изображений на основе текстовых описаний. Используя модель Imagen2 от Google, Aria может создавать уникальные визуальные материалы по запросу пользователя. Ограничение установлено на уровне 30 бесплатных изображений в день.

Кроме того, Aria получила функцию анализа изображений. Теперь можно загружать картинки и задавать вопросы о содержании. Например, ИИ может определить марку и модель неизвестной гарнитуры или помочь решить математическую задачу по скриншоту.

 Источник изображения: Opera Software

Источник изображения: Opera Software

Еще одним важным дополнением стала возможность голосового вывода информации. Используя технологию WaveNet от Google, Aria может озвучивать свои ответы, что особенно полезно для людей с ограниченными возможностями или тех, кто предпочитает аудиоформат.

Представители Opera Software отметили, что новые функции значительно расширяют возможности искусственного интеллекта Aria, делая его более эффективным и доступным инструментом для игрового сообщества. Обновление уже доступно для всех пользователей Opera GX и по замыслу разработчиков должно сделать взаимодействие с браузером еще более удобным и интуитивным.

ИИ Gemini оказался совсем не так хорош в обработке больших объёмов данных, как заявляла Google

Новые исследования ставят под сомнение заявления Google о возможностях больших языковых моделей моделей Gemini по обработке больших объёмов данных, показывая, что их эффективность в анализе длинных текстов и видео значительно ниже заявленной.

 Источник изображения: Google

Источник изображения: Google

Недавние исследования выявили существенные недостатки в работе флагманских генеративных моделей искусственного интеллекта Google Gemini 1.5 Pro и 1.5 Flash, пишет издание TechCrunch. Google неоднократно подчёркивала способность Gemini обрабатывать огромные объёмы данных благодаря большому контекстному окну, утверждая, что модели могут анализировать документы объёмом в сотни страниц и искать информацию в видеозаписях. Однако два независимых исследования показали, что на практике эти модели справляются с такими задачами гораздо хуже.

Учёные из Массачусетского университета в Амхерсте (UMass Amherst), Института Аллена по искусственному интеллекту (Allen Institute for AI) и Принстона (Princeton University) тестировали Gemini на способность отвечать на вопросы о содержании художественных книг. Представленная для теста книга содержала около 260 000 слов (около 520 страниц). Результаты оказались неутешительными. Gemini 1.5 Pro правильно ответил только в 46,7 % случаев, а Gemini 1.5 Flash лишь в 20 % случаев. Далее усреднив результаты, выяснилось, что ни одна из моделей не смогла достичь точности ответов на вопросы выше случайной.

Маржена Карпинска (Marzena Karpinska), соавтор исследования, отметила: «Хотя такие модели, как Gemini 1.5 Pro, технически могут обрабатывать длинные контексты, мы видели много случаев, указывающих на то, что модели на самом деле не понимают содержание».

Второе исследование, проведённое учёными из Калифорнийского университета в Санта-Барбаре, фокусировалось на способности Gemini 1.5 Flash анализировать видеоконтент, а точнее слайды с изображениями. Результаты также оказались неудовлетворительными — из 25 изображений ИИ дал правильные ответы только в половине случаев, а при увеличении количества картинок точность ответов понизилась до 30 %, что ставит под сомнение эффективность модели в работе с мультимедийными данными.

Правда отмечается, что ни одно из исследований не прошло процесс рецензирования, и к тому же не тестировались самые последние версии моделей с контекстом в 2 миллиона токенов. Тем не менее, полученные результаты вызывают серьёзные вопросы в отношении реальных возможностей генеративных моделей ИИ в целом, и о том, насколько обоснованы маркетинговые заявления технологических гигантов.

Данные исследования появились на фоне растущего скептицизма в отношении генеративного ИИ. Так, недавние опросы международной консалтинговой компании Boston Consulting Group показали, что около половины опрошенных руководителей высшего звена не ожидают существенного повышения производительности от использования генеративного ИИ и обеспокоены возможными ошибками и проблемами с безопасностью данных.

Эксперты же призывают к разработке более объективных критериев оценки возможностей ИИ и к большему вниманию и независимой критике. Google пока не прокомментировал результаты этих исследований.

ChatGPT превзошёл студентов на экзаменах, но только на первых курсах

Исследователи провели эксперимент, который показал, что ИИ способен успешно сдавать университетские экзамены, оставаясь при этом незамеченным специальными программами. Экзаменационные работы ChatGPT получили более высокие оценки, чем работы студентов, пишет издание Ars Technica.

 Источник изображения: Headway/Unsplash

Источник изображения: Headway/Unsplash

Команда учёных из Редингского университета в Англии (University of Reading) под руководством Питера Скарфа (Peter Scarfe) провела масштабный эксперимент, чтобы проверить, насколько эффективно современные системы искусственного интеллекта могут справляться с университетскими экзаменами. Исследователи создали более 30 фиктивных учётных записей студентов-психологов и использовали их для сдачи экзаменов, используя ответы, сгенерированные ChatGPT. Эксперимент охватил пять модулей бакалавриата по психологии, включая задания для всех трёх лет обучения.

Результаты оказались ошеломляющими — 94 % работ, созданных ИИ, остались незамеченными экзаменаторами. Более того, почти 84 % этих работ получили более высокие оценки, чем работы студентов-людей, в среднем на полбалла выше. «Экзаменаторы были весьма удивлены результатами», — отметил Скарф. Причём интересно, что некоторые работы ИИ были обнаружены не из-за их роботизированности, а из-за слишком высокого качества.

Эксперимент также выявил ограничения существующих систем обнаружения контента, созданного ИИ. По словам Скарфа, такие инструменты, как GPTZero от Open AI и система Turnitin, показывают хорошие результаты в лабораторных условиях, но их эффективность значительно снижается в реальной жизненной ситуации. Однако не все результаты были в пользу ИИ. На последнем курсе, где требовалось более глубокое понимание и сложные аналитические навыки, студенты-люди показали лучшие результаты, чем ChatGPT.

Скарф подчеркнул, что ввиду постоянного совершенствования ИИ и отсутствия надёжных способов обнаружения его использования, университетам придётся адаптироваться и интегрировать ИИ в образовательный процесс. «Роль современного университета заключается в подготовке студентов к профессиональной карьере, и реальность такова, что после окончания учёбы они, несомненно, будут использовать различные инструменты искусственного интеллекта», — заключил исследователь. Данный эксперимент, по сути, поднимает проблему, которая уже сегодня требует пересмотра существующих методов обучения и экзаменации.

Google, Meta✴ и другие незаметно меняют политику конфиденциальности для обучения ИИ

Крупные технологические компании, такие как Google, Adobe и Meta, вносят изменения в свою политику конфиденциальности, позволяющую им использовать данные пользователей для обучения моделей искусственного интеллекта (ИИ). Эти изменения часто вносятся незаметно и завуалированно, чтобы избежать негативной реакции.

 Источник изображения:  Christoph Meinersmann/Pixabay

Источник изображения: Christoph Meinersmann/Pixabay

Федеральная комиссия США по торговле (FTC) предупредила, что такие действия могут быть незаконными и нарушают обязательства компаний по защите конфиденциальности пользователей. Однако, согласно проведённому анализу The New York Times, компании тихо корректируют свои положения и условия, включая термины, связанные с ИИ, чтобы обеспечить себе юридическое прикрытие.

Напомним, Google внесла изменения в свою политику конфиденциальности в июле прошлого года, подчёркивая, что собирается использовать общедоступную информацию для обучения своих языковых ИИ-моделей. Adobe также обновила свои условия, что вызвало негативную реакцию пользователей, когда стало известно, что они могут потерять доступ к своим проектам, если не согласятся с новыми условиями. Тогда это привело к массовому отказу от подписки на сервисы компании.

Meta, со своей стороны, объявила в мае о намерении использовать общедоступные посты в Facebook и Instagram для обучения ИИ, но была вынуждена отложить эти планы из-за жалобы международной общественной организации по защите прав человека в интернете (European Center for Digital Rights, EDRi).

Пока неизвестно, какие меры предпримет FTC в ответ на растущую тенденцию изменений политики конфиденциальности с целью включения обучения ИИ на пользовательских данных.


window-new
Soft
Hard
Тренды 🔥
Дешёвые сканеры штрихкодов помогли в кратчайшие сроки восстановить пострадавшие от CrowdStrike компьютеры 3 ч.
Новая статья: Flintlock: The Siege of Dawn — хорошие идеи в неудачной обёртке. Рецензия 3 ч.
Анонсирован китайский ролевой детектив Kill the Shadow, напоминающий смесь Disco Elysium и The Last Night 4 ч.
Соцсеть X начала без уведомления использовать данные пользователей для обучения Grok 6 ч.
Mirthwood получила новый трейлер и дату выхода — это ролевой симулятор жизни в фэнтезийном мире, вдохновлённый Fable, Stardew Valley и The Sims 6 ч.
Журналисты выяснили, какие игры пострадают от забастовки актёров озвучки — GTA VI в безопасности 8 ч.
Разработчики Gran Turismo 7 извинились за баг, который запускает машины в космос 9 ч.
Хинштейн пояснил, почему в России замедлится YouTube 9 ч.
Windows 11 сможет добавлять синхронизированный с ПК Android-смартфон в «Проводник» 9 ч.
Заказы на ИИ и мейнфреймы z16 помогли IBM увеличить выручку и прибыль 10 ч.