Опрос
|
реклама
Быстрый переход
Google продлила тестирование ИИ-поисковика SGE
16.12.2023 [12:17],
Владимир Фетисов
Компания Google, не делая официальных заявлений, продлила действие пилотного проекта, в рамках которого проходит тестирование основанной на искусственном интеллекте поисковой системы Search Generative Experience (SGE). После запуска проекта в мае этого года предполагалось, что он будет завершён в декабре, но теперь поисковый гигант подтвердил намерение продолжить тестирование ИИ-поисковика и изучение поисковых приложений, в которых задействованы нейросети. ![]() Источник изображений: Pixabay Поисковик SGE в ответ на пользовательские запросы формирует резюме, сформированное на основе данных из разных источников. В течение года Google активно тестировала ИИ-поисковик, который на начальном этапе обладал лишь базовыми способностями и был доступен пользователям из США. Позднее сервис запустили в Индии и Японии, а в прошлом месяце он стал доступен в 120 странах по всему миру. При этом в Евросоюзе и России ИИ-поиск Google остаётся недоступен. Активировать новый формат поиска пользователи могут в разделе Search Labs в настольной и мобильной версиях поисковика Chrome. Реакция на появление SGE была неоднозначной. В сентябре Google заявила, что молодые пользователи в возрасте от 18 до 24 лет находят ИИ-поисковик «особенно полезным». При этом не все остались довольны работой SGE, о чём свидетельствуют отрицательные отзывы, появившиеся в Reddit и на других площадках. Несмотря на это, Google продолжает уверенно развивать SGE, расширяя доступность новой службы и делая её более совершенной. К примеру, одной из недавно появившихся функций в SGE стал встроенный генератор изображений. В Spotify появился ИИ-генератор плейлистов по текстовым описаниям, но доступен он не всем
15.12.2023 [08:28],
Дмитрий Федоров
Spotify, популярный стриминговый музыкальный сервис, приступил к тестированию функции на базе ИИ — созданию плейлистов по текстовым описаниям. Это нововведение, обнаруженное пользователем TikTok под ником @robdad_, может радикально изменить взаимодействие пользователей Spotify с музыкальным контентом. Однако пока неизвестно, станет ли эта функция доступна всем пользователям. ![]() Источник изображения: EyestetixStudio / Pixabay Ресурс TechCrunch подтвердил информацию о тестировании данной функции, получив официальное подтверждение от представителей Spotify. Впрочем, компания пока не приняла решение о массовом запуске данного нововведения. Согласно представленной информации, функция доступна в разделе «Моя медиатека» и активируется нажатием на значок плюса для создания нового плейлиста. В приложении Spotify предлагаются различные текстовые подсказки для генерации плейлистов. Например, можно запросить музыку для концентрации на работе или песни для поднятия настроения. В ответ на выбор пользователем @robdad_ музыкального жанра Witch House ИИ-сервис Spotify сформировал соответствующий плейлист. ![]() Часть снимка экрана функции Spotify, взятая из видео на TikTok (источник изображения: @robdad_ \ TikTok) В комментарии для TechCrunch представители Spotify остались сдержанными относительно планов на будущее данной функции. Они отметили, что время реакции ИИ на запрос пользователя и точность подбора треков остаются важными аспектами для оценки эффективности новой функции. Также они подчеркнули, что компания регулярно проводит тесты, результаты которых могут как лечь в основу новых функций, так и просто остаться ценным опытом. Ранее в этом году Spotify уже представил функцию DJ, разработанную совместно с OpenAI. Эта функция использует ИИ для музыкальных рекомендаций, основываясь на предпочтениях пользователя. Генеральный директор и сооснователь Spotify Даниэль Эк (Daniel Ek) выразил надежду на использование ИИ для персонализации музыкального контента. Тестирование ИИ-плейлистов Spotify отражает стремление компании к интеграции передовых технологий в свой стриминговый сервис. Эта функция представляет собой новый этап в эволюции стриминга музыки, предлагая персонализированный подход к её выбору. В то время как точная дата массового запуска функции остаётся неизвестной, её потенциал для изменения взаимодействия пользователей с музыкальным контентом уже вызывает оживлённые дискуссии в индустрии. Пользователей Dropbox напугала новая ИИ-функция, которая делится данными с OpenAI — она включена по умолчанию
14.12.2023 [12:17],
Павел Котов
Накануне по социальным сетям разлетелась информация, что в Dropbox появилась новая экспериментальная функция поиска, основанная на алгоритмах искусственного интеллекта, которая включена по умолчанию и предусматривает отправку данных OpenAI. В администрации Dropbox заверили пользователей, что данные передаются только в том случае, когда функция активно применяется, а сами данные не используются для обучения ИИ и удаляются в течение 30 дней. ![]() Источник изображения: dropbox.com Dropbox даёт пользователям гарантии конфиденциальности информации, но включённая по умолчанию функция, предполагающая передачу данных третьим лицам, огорчила пользователей облачного хранилища. Пришлось вмешаться главе Dropbox Дрю Хьюстону (Drew Houston), который пояснил в соцсети X: «Переключатель стороннего ИИ в меню настроек включает или отключает доступ к возможностям и функциям DBX AI. Ни эта, ни любая другая настройка не отправляет никаких данных пользователей Dropbox сторонним ИИ-сервисам в автоматическом или пассивном режиме». По официальной версии, новый пункт в настройках доступен только участникам программы альфа-тестирования функций Dropbox AI, в том числе диалогового интерфейса с ИИ-ботом, которому можно задавать вопросы об отдельных файлах. Чтобы функция работала, ИИ-модели, например, GPT-4, необходим доступ к файлам. Представитель Dropbox сообщил ресурсу Ars Technica, что функция была включена по умолчанию лишь для того, чтобы познакомить пользователей платформы с новыми возможностями. И при попытке воспользоваться этими функциями будет выведено предупреждение об отправке данных третьим лицам. Единственным поставщиком функций ИИ для Dropbox является OpenAI. В компании подчеркнули, что на ресурсы партнёра отправляется только контент, непосредственно связанный с запросом пользователя и необходимый для подготовки ИИ описания или сводки данных, а в течение 30 дней эти материалы удаляются с серверов OpenAI. Доступ стороннего ИИ можно отключить в настройках профиля — соответствующая опция доступна вошедшим в учётную запись пользователям Dropbox по этой ссылке. Meta✴ обвинили в использовании пиратских копий книг для обучения ИИ
13.12.2023 [15:41],
Павел Котов
Юристы Meta✴ предостерегали компанию от использования пиратских копий книг для обучения искусственного интеллекта, но это всё равно было сделано, гласит поданный против компании иск по авторским правам, поданный ещё минувшим летом, сообщает Reuters. ![]() Источник изображения: Lukas / pixabay.com Накануне были объединены иски против Meta✴, поданные комиком Сарой Сильверман (Sarah Silverman), лауреатом Пулитцеровской премии Майклом Шейбоном (Michael Chabon) и рядом других авторов, которые утверждают, что компания без разрешения использовала их произведения для обучения большой языковой модели Llama. В документах приводятся журналы переписки на одном из серверов Discord, один из участников которой, работающий в Meta✴ исследователь Тим Деттмерс (Tim Dettmers), описывает свою дискуссию с юридическим отделом компании о том, будет ли законным обучение ИИ на электронных копиях книг. Адвокаты Meta✴ заявили ему, что «данные нельзя использовать [для обучения модели], или модели нельзя будет публиковать, если они обучены на этих данных». Но в компании признали, что всё-таки использовали эти данные для обучения первой версии Llama. Собеседники Деттмерса, впрочем, уверяют, что использование защищённой авторским правом литературы должно «подпадать под добросовестное использование» — действующую в США правовую доктрину, которая в определённых случаях допускает использование защищённых авторским правом произведений без согласия их авторов. В этом году в адрес технологических компаний было подано множество исков со стороны различных авторов, которые обвиняют разработчиков ИИ в незаконном использовании произведений, защищённых авторским правом. Их победа может создать угрозу для зарождающейся отрасли генеративного ИИ, поскольку из-за необходимости выплаты отчислений стоимость разработки моделей вырастет. Прошедший предварительное одобрение европейский «Закон об ИИ» предписывает разработчикам раскрывать данные, которые они используют для обучения своих моделей. В феврале Meta✴ представила первую версию большой языковой модели Llama и раскрыла массив использованных для её обучения данных, в том числе блок, объём которого, по некоторым сведениям, содержит 196 640 книг. Минувшим летом была представлена вторая версия Llama, и Meta✴ уже не стала раскрывать, какие данные были использованы для её обучения. Компании, управляющие сервисами с аудиторией менее 700 млн пользователей в месяц, могут использовать Llama 2 бесплатно. Snapchat теперь позволяет дорисовывать фото с помощью ИИ, но только платным пользователям
13.12.2023 [10:50],
Павел Котов
Функции генеративного искусственного интеллекта появились в мессенджере Snapchat достаточно давно: пакет приложений My AI включает в себя чат-бот на базе ChatGPT, доступны ИИ-эффекты Dreams для селфи и многое другое. В последнем обновлении пользователи платной подписки Snapchat+ получили возможность дорисовывать фото при помощи ИИ. ![]() Источник изображения: snap.com Дорисовка фотографий или «уменьшение масштаба» пригодится, если объект на снимке оказался слишком крупным — достаточно нажать кнопку обрезки в правом верхнем углу кадра, выбрать кнопку «Расширить» (Extend), и дальше приложение сделает всё самостоятельно. Обновлённый пакет My AI позволяет и просто генерировать изображения по текстовому описанию, Snapchat даже готов предложить свои варианты таких описаний. Функция Dreams теперь помогает делать совместные фото с друзьями, не делая снимков в реальности — достаточно выбрать имя друга из списка контактов, и «снимок» можно опубликовать. Подписчикам Snapchat+ доступен пакет из восьми таких селфи Dreams, а пользователям бесплатной версии платформы предлагается воспользоваться этой функцией лишь один раз в тестовом режиме, после чего будет предложено либо оформить подписку, либо приобрести пакет за $0,99. Внедрение функций ИИ в Snapchat приносит свои плоды: к сентябрю платную подписку оформили 5 млн человек, к настоящему моменту их число увеличилось до 7 млн, а «среднесрочная цель» Snapchat+ установлена на отметке в 10 млн. И это непростая задача, ведь сервисы Meta✴ предлагают аналогичные возможности бесплатно. Microsoft представила Phi-2 — революционную малую ИИ-модель с большим потенциалом
13.12.2023 [07:51],
Дмитрий Федоров
Microsoft представила передовую ИИ-модель Phi-2, насчитывающую 2,7 млрд параметров. Модель продемонстрировала превосходные результаты в широком спектре тестов, включая понимание языка, решение математических задач, программирование и обработку информации. Главной особенностью Phi-2 является её способность конкурировать, а зачастую и превосходить ИИ-модели, в 25 раз превышающие её по размеру. Новинка уже доступна через Microsoft Azure AI Studio для исследователей и разработчиков, желающих интегрировать передовой ИИ в свои приложения. ![]() Источник изображений: Microsoft Генеральный директор Microsoft Сатья Наделла (Satya Nadella), представил модель Phi-2 на мероприятии Ignite. Отличительной особенностью этой модели является её обучение на данных, соответствующих качеству учебного уровня. Это означает, что данные для обучения модели были тщательно отобраны и структурированы, что способствовало точности и эффективности обучения. Такой подход позволяет Phi-2 более эффективно переносить знания и толкования, полученные из других моделей, укрепляя её способности в областях понимания языка, логического мышления и обработки информации. ![]() Средняя производительность по сгруппированным бенчмаркам по сравнению с популярными открытыми SLMs Phi-2 меняет устоявшиеся представления о связи между размером и мощностью языковых моделей. Модель сравнима с большими ИИ-моделями, такими как 7B Mistral компании Mistral AI, 13B Llama 2 компании Meta✴ и даже 70B Llama-2. Особое внимание заслуживает способность Phi-2 превосходить даже Gemini Nano компании Google, самую эффективную модель в серии Gemini, предназначенную для работы на мобильных устройствах. Это подчёркивает потенциал Phi-2 в области мобильных технологий, предоставляя функции автоматического резюмирования текстов, продвинутой корректуры и исправления грамматики, а также контекстуальных интеллектуальных ответов. ![]() Сравнение между Phi-2 и моделью Gemini Nano 2 на основе заявленных бенчмарков Gemini Специалисты Microsoft подчёркивают, что высокая производительность модели Phi-2 достигнута без применения методов обучения с подкреплением (reinforcement learning), основанных на человеческой обратной связи, или методов инструкционной настройки (instructional tuning). Это позволяет модели эффективно минимизировать проявления предвзятости и снижать риск токсичных выходных данных, что делает Phi-2 одной из наиболее безопасных и этичных моделей в сфере ИИ. ![]() Безопасность оценена по 13 демографическим группам на основе ToxiGen. Подмножество из 6541 предложений выбрано и оценено в диапазоне от 0 до 1 на основе масштабированной перплексии и токсичности предложений. Более высокий балл указывает на меньшую вероятность генерации ИИ-моделью токсичных предложений по сравнению с безобидными Phi-2 является частью серии малых языковых моделей (SLMs) компании Microsoft. Первая модель этой серии, Phi-1 с 1,3 млрд параметров, вышла ранее в этом году и была нацелена на задачи программирования на языке Python. В сентябре была представлена Phi-1.5 с аналогичным количеством параметров, но обученная на новых данных, включая синтетические тексты, созданные с помощью программирования на естественном языке. ![]() Сравнение между моделями Phi-2 и Phi-1.5. Все задачи оцениваются в режиме 0-shot, за исключением BBH и MMLU, для которых используется 3-shot CoT и 5-shot соответственно Phi-2 открывает новую главу в машинном обучении, где качество и эффективность обучения становятся ключевыми факторами. Эта ИИ-модель не только свидетельствует о значительных достижениях Microsoft в данной сфере, но и предоставляет новые возможности для разработчиков и исследователей по всему миру, открывая двери к более умным и безопасным технологиям будущего. Учёные вырастили крошечный человеческий мозг с подключением к ПК — он быстро научился решать уравнения и различать людей по голосу
12.12.2023 [14:53],
Геннадий Детинич
Новая работа с живыми клетками человеческого мозга показала перспективность объединения живых тканей с компьютером. Колония живых нейронов обучалась быстрее искусственных моделей с почти таким же результатом. Если отбросить вопрос с этикой, до проблем с которой пока далеко, живые клетки человеческого мозга могут превзойти современные и будущие нейронные сети, работающие на кремниевых чипах, как по производительности, так и по экономическим соображениям. ![]() Источник изображений: Nature Electronics С помощью стволовых клеток учёные вырастили так называемый органоид мозга — объёмную колонию клеток, повторяющих структуру нейронов и их связей в мозге. Это не первый и наверняка не последний эксперимент с живыми клетками, позаимствованными у человека. Ранее органоид мозга, например, научили игре в «Понг», с чем он успешно справился. В таких исследованиях самым сложным бывает донести информацию до «мозга» и считать её. Группа профессора Го Фэня из Университета штата Индиана в Блумингтоне (США) предложила достаточно простое решение — они вырастили органоид на высокоплотном массиве электродов. Электроды, а это, по сути, компьютерный интерфейс, вносили данные в клетки «мозга» и считывали результат его последующей активности. Тем самым на практике была реализована такая архитектура спайковой (импульсной) нейросети, как резервуарная. Что происходило в массиве нейронов, учёным было неизвестно, но условно живая модель показала способность к быстрому обучению и расчётам. Свою нейросеть учёные назвали Brainoware. Система прошла двухдневное обучение на наборе из 240 аудиозаписей речи восьми японских мужчин, произносящих гласные звуки. После этого она смогла распознавать конкретный голос с точностью до 78 %. Также система смогла решать уравнения по отображениям Эно примерно с такой же точностью. На это ушло ещё четыре дня обучения. Более того, решение дифференциальных уравнений проходило с большей точностью, чем в случае искусственной нейронной сети без блока длинной цепи элементов краткосрочной памяти. ![]() Мозг Brainoware в «возрасте» 7, 14, 28 дней и через несколько месяцев (нижний ряд в увеличенном виде) Живой искусственный «мозг» был не такой точный, как искусственные нейронные сети с длинной цепью элементов краткосрочной памяти, но каждая из этих сетей прошла 50 этапов обучения. Сеть Brainoware достигла почти таких же результатов менее чем за 10 % времени обучения, потраченного на обучение искусственных цепей. «Могут пройти десятилетия, прежде чем будут созданы универсальные биокомпьютерные системы, но это исследование, вероятно, даст фундаментальное представление о механизмах обучения, развитии нервной системы и когнитивных последствиях нейродегенеративных заболеваний», — мечтают авторы работы, опубликованной в журнале Nature Electronics. Samsung наполнит прошивку One UI 6.1 новыми ИИ-функциями, подсмотренными у Google Pixel
11.12.2023 [18:32],
Николай Хижняк
В будущей прошивке One UI 6.1 для смартфонов Samsung будут реализованы несколько новых ИИ-функций, явно подсмотренных у устройств линейки Google Pixel. Информацией об этом поделился инсайдер Benit Bruhner Pro, подкрепив утечку соответствующими скриншотами. ![]() Источник изображений: Wccftech Например, пользователи смартфонов Samsung под управлением One UI 6.1 смогут генерировать обои при помощи текстовых запросов. Эта функция очень похожа на то, что предлагает Google в своих смартфонах серии Pixel 8. Можно будет указать отдельно предмет и фон, после чего на основе этих данных нейросеть создаст изображение. На заставку экрана блокировки можно будет добавить портрет или эффекты погоды. Встроенный в One UI 6.1 фоторедактор задействует ИИ для перемещения объектов с одного изображения на другое при помощи обычного жеста перетаскивания. Также редактор сможет дорисовывать изображения. В приложении Samsung Notes появится функция, позволяющая анализировать большие текстовые заметки и выделять из них ключевую суть содержания в нескольких предложениях. Samsung Notes также будет автоматически форматировать рукописные заметки после их преобразования в текст. В One UI 6.1 также будет добавлена функция перевода голосовых вызовов в режиме реального времени с одного языка на другой для обоих собеседников. Для звонков также будет реализована функция Voice Focus. Она будет работать по принципу системы шумоподавления, отсекая лишние фоновые шумы и усиливая голос говорящего. У тех же смартфонов Pixel имеется аналогичная функция Clear Calling. Ожидается, что первыми смартфонами, которые получат One UI 6.1, станут устройства серии Galaxy S24. После этого компания, вероятно, начнёт выпуск обновления прошивки и для других своих моделей смартфонов. Регуляторы США и Великобритании заинтересовались вложениями Microsoft в OpenAI
10.12.2023 [12:13],
Дмитрий Федоров
Инвестиции Microsoft в OpenAI, лидера в области ИИ, в размере $13 млрд, привлекли внимание антимонопольных органов, включая Федеральную торговую комиссию (FTC) США и Агентство по контролю за конкуренцией и рынками (CMA) Великобритании. Основной вопрос, который изучают эти государственные органы, — нарушают ли сделанные инвестиции антимонопольные законы. ![]() Источник изображения: sergeitokmakov / Pixabay CMA занимается предварительным анализом ситуации, чтобы выяснить, не угрожает ли партнёрство Microsoft и OpenAI конкуренции в Великобритании. В частности, анализируется возможное получение Microsoft контроля над OpenAI, что может включать материальное влияние, фактический контроль или более 50 % голосов в управляющих органах компании. Ситуация усложняется из-за недавнего конфликта в OpenAI, который привёл к временному уходу и последующему восстановлению в должности генерального директора Сэма Альтмана (Sam Altman). В этом контексте заслуживает внимания роль Microsoft, имеющей статус наблюдателя в совете директоров OpenAI. Несмотря на отсутствие формальных прав голоса в процессах принятия решений OpenAI, Microsoft, по всей видимости, оказала существенное влияние на решение о возвращении Альтмана на пост генерального директора. Внимание, уделяемое FTC и CMA инвестициям Microsoft в OpenAI, отражает важность установления равновесия между инновационным развитием и поддержанием конкурентоспособной рыночной среды. Исход этих исследований может оказать влияние на бизнес-стратегии как Microsoft, так и OpenAI, особенно в условиях стремления государственных органов к эффективному регулированию крупномасштабных технологических слияний и поглощений. ChatGPT разленился и призывает людей работать самостоятельно — OpenAI начала расследование причин
09.12.2023 [17:33],
Владимир Мироненко
В последние дни всё чаще стали поступать жалобы пользователей на то, что ИИ-чат-бот ChatGPT на базе модели OpenAI GPT-4 стал отказываться выполнять запросы, мотивируя это тем, что он не заинтересован в помощи людям. ![]() Источник изображения: Andrew Neel/unsplash.com Так, в ответ на просьбу предоставить фрагмент кода, он мог просто дать небольшой фрагмент и предложить пользователю доделать остальное самостоятельно. Причём, по словам некоторых пользователей, это делалось самым дерзким образом, например, иногда бот просто заявлял, что они вполне могли бы выполнить всю работу самостоятельно — без обращения к ИИ. В многочисленных постах на сайте Reddit и сообщениях на форумах разработчиков OpenAI, начавших появляться ещё в конце ноября, пользователи жаловались, что система становится менее полезной. Прозвучало даже предположение, что OpenAI специально сделала так, чтобы ChatGPT не тратил время на длинные ответы на запросы и таким образом стал более эффективным с точки зрения расходования вычислительных ресурсов. Хорошо известно, что поддержка функционирования ChatGPT обходится OpenAI недёшево. В апреле 2023 года исследователи сообщили, что на OpenAI уходит $700 000 в день, или $0,36 за запрос. По словам отраслевых аналитиков, OpenAI придётся расширить парк ускорителей на 30 000 единиц до конца года, чтобы сохранить производительность. В OpenAI сообщили, что осведомлены о жалобах на ИИ-бот и отметили, что никаких изменений в модель не вносили. «Мы просмотрели все ваши отзывы о том, что GPT4 становится более ленивым! — написала компания в соцсети X. — Мы не обновляли модель с 11 ноября, и это определённо не намеренно. Поведение модели может быть непредсказуемым, и мы пытаемся это исправить». Будущее соучредителя OpenAI Ильи Суцкевера в компании остаётся под вопросом
09.12.2023 [13:20],
Владимир Фетисов
После возвращения Сэма Альтмана (Sam Altman) на должность генерального директора OpenAI произошло немало событий, одним из которых стал роспуск совета директоров. Однако неясной остаётся судьба главного научного сотрудника компании Ильи Суцкевера (Ilya Sutskever), который, как сообщалось, сыграл важную роль в смещении Альтмана с должности. ![]() Источник изображения: Viralyft / unsplash.com По данным издания Business Insider, ссылающегося на собственные источники в OpenAI, на этой неделе Суцкевер не появлялся в офисе компании в Сан-Франциско, хотя его имя продолжает фигурировать в системах компании, таких как Slack, а картины Ильи продолжают дополнять интерьер офиса. Один из источников отметил, что будущее Суцкевера в компании ещё не обсуждалось руководством официально. «Илья всегда будет играть важную роль. Но, вы знаете, есть много других людей, готовых взять на себя ответственность, которую исторически нёс Илья», — добавил представитель компании, пожелавший сохранить конфиденциальность. Другой источник сообщил, что в настоящее время обсуждается возможность выделения Суцкеверу новой должности, и что есть желание «найти для него роль». При этом он отметил, что определённости относительно будущего главного научного сотрудника OpenAI в компании пока нет. Это не выглядит удивительным, учитывая, что Суцкевер сыграл важную роль в увольнении Альтмана с поста гендиректора, вслед за которым ушёл соучредитель OpenAI Грег Брокман (Greg Brockman), а многие сотрудники компании пригрозили последовать их примеру. Суцкевер входил в совет директоров, который принял решение об увольнении Альтмана. Однако его значение и влияние в компании, а также статус соучредителя делают Суцкевера более значимой фигурой по сравнению с любым другим членом совета директоров. Продолжающийся кризис в OpenAI подтверждает недавний пост Суцкевера в соцсети X, где он написал: «За последний месяц я усвоил много уроков. Одним из таких уроков является то, что фраза «избиения будут продолжаться до тех пор, пока не улучшится моральный дух» применяется чаще, чем имеет на то право». Эта фраза часто используется в мемах для ироничного обозначения цикла, когда низкая мораль порождает наказание, делающее её ещё более низкой. Также известно, что Суцкевер нанял адвоката, которым стал Алекс Вайнгартен (Alex Weingarten) из Willkie & Gallagher. Адвокат отказался комментировать вопросы сотрудничества с Суцкевером, сообщив лишь, что его клиент желает лучшего для компании. Официальные представители OpenAI также воздерживаются от комментариев по данному вопросу. Европейские парламентарии пришли к предварительному соглашению по «Закону об ИИ»
09.12.2023 [12:46],
Павел Котов
По итогам активных дискуссий законодателям в Брюсселе удалось достичь «предварительного соглашения» в отношении общеевропейского «Закона об искусственном интеллекте». Это будет первый в мире свод правил по управлению системами ИИ — он сможет служить ориентиром для других регионов, власти которых стремятся принять аналогичные законы. ![]() Источник изображения: NoName_13 / pixabay.com Законодатели зафиксировали обязательства, которые налагаются на разработчиков «высокоэффективных» систем ИИ общего назначения: если эти системы отвечают определенным критериям, то для них должен проводиться ряд мероприятий, в том числе оценка рисков, состязательное тестирование, составление отчётов об инцидентах и многое другое. Разработчики обеспечивают прозрачность — в частности, представляют подробный обзор используемых при обучении ИИ материалов. К примеру, ответственная за ChatGPT компания OpenAI до сих пор отказывается раскрывать эту информацию. Граждане получат право подавать жалобы на системы ИИ и получать объяснения по поводу решений, принимаемых системами «высокого риска», если эти решения влияют на их права. Механизмы правоприменения пока не описываются, но указываются размеры штрафов: от €7,5 млн или 1,5 % от глобального оборота компании до €35 млн или 7 % глобальной выручки. В ряде сфер применение ИИ запрещается. Например, распознавание лиц по камерам наблюдения и категоризация людей на основе «критических характеристик», таких как раса, интимные предпочтения, религиозные или политические убеждения; запрещается применение систем распознавания эмоций на рабочих местах или в учебных заведениях; запрещается создание систем «социального рейтинга». Предусмотрены гарантии и исключения для использования правоохранительными органами биометрических систем в режиме реального времени и поиска доказательств на записях. ![]() Источник изображения: Gerd Altmann / pixabay.com Первый проект европейского «Закона об ИИ» был представлен в 2021 году — тогда документ определял, что вообще считать ИИ, и был направлен на выработку единых норм регулирования этой сферы в государствах — членах ЕС. Вскоре после этого появились платформы ChatGPT и Stable Diffusion, что привело к многочисленным изменениям в законопроекте. Сейчас парламентарии достигли предварительного соглашения, и документ направится на дополнительные обсуждения, в том числе пройдёт голосование в комитетах Европарламента по внутреннему рынку и гражданским свободам. Ожидается, что окончательное соглашение будет достигнуто до конца года. Но даже в этом случае «Закон об ИИ» вступит в силу не ранее 2025 года. Наиболее яростные дискуссии вызвали нормы регулирования анализа биометрических данных в реальном времени с помощью ИИ, а также систем ИИ общего назначения вроде ChatGPT. Европарламентарии настаивают на полном запрете применения ИИ в биометрическом наблюдении, а правительства стран добиваются исключений для военных, правоохранительных органов и органов госбезопасности. В последний момент представители Германии, Италии и Франции предложили также возможность саморегулирования для разработчиков генеративного ИИ. Отставка главы OpenAI Сэма Альтмана была результатом накопившихся противоречий с советом директоров
09.12.2023 [07:04],
Алексей Разин
В ноябре причастное к миру информационных технологий сообщество с замиранием сердца следило за событиями вокруг стартапа OpenAI, создавшего ChatGPT, поскольку конфликт совета директоров с генеральным директором Сэмом Альтманом (Sam Altman) привёл к отставке последнего, но после переговоров он был восстановлен в должности. Как можно догадаться, к отставке Альтмана привёл не единичный инцидент, а копившиеся месяцами противоречия в руководстве компании. ![]() Источник изображения: OpenAI В этом признаются в комментариях Bloomberg источники, знакомые с ситуацией. В целом, как они поясняют, после вынужденного предания скандала огласке бывшие члены совета директоров и Сэм Альтман склонны по-разному трактовать причины, которые привели к отставке последнего. Когда уже после отставки речь зашла о возможности возвращения Альтмана в прежнюю должность, он предложил публично извиниться за то, что не совсем корректно истолковывал взгляды некоторых членов совета директоров на стратегические вопросы управления компанией. Совет директоров на тот момент счёл такие извинения неуместными, поскольку на публике это создало бы впечатление, что причиной отставки Альтмана был какой-то единичный инцидент, который удалось исчерпать с точки зрения противоречий. Пока ведётся независимое расследование, члены совета директоров OpenAI отказались давать официальные комментарии на эту тему, но по неофициальным каналам Bloomberg удалось выяснить, что к отставке Альтмана привели месяцами копившиеся противоречия по поводу его стратегических манёвров и отсутствия прозрачности в его общении с советом директоров. Вчера председатель совета директоров OpenAI заявил, что для юридического сопровождения независимого расследования наняты адвокаты компании WilmerHale. По неофициальным данным, совет директоров начал обсуждать возможность отставки Альтмана этой осенью, за некоторое время до ноябрьских событий. На тот момент в состав этого органа правления входили генеральный директор Сэм Альтман, его соратник и сооснователь OpenAI Грег Брокман (Greg Brockman), который занимал пост президента, а также группы из четырёх директоров, которые и были настроены на отставку генерального директора. К ним следует отнести главного научного руководителя OpenAI Илью Суцкевера (Ilya Sutskever), генерального директора Quora Адама Д’Анджело (Adam D’Angelo), научного деятеля Хелен Тонер (Helen Toner) и предпринимательницы Таши Макколи (Tasha McCauley). Фактическая власть в компании была отдана одноимённой некоммерческой организации, а совет директоров имел мало влияния на вектор её развития. Старшие руководители рангом пониже пытались выразить своё недовольство взаимодействием с Альтманом, но боялись доносить эту информацию до совета директоров в полной мере, опасаясь его мести. После отставки Альтмана коллектив OpenAI сплотился в намерении вернуть бывшего генерального директора, и старшие руководители поддержали это решение без оглядки на прошлые разногласия. Роль Ильи Суцкевера, который и сообщил Альтману об отставке, тоже оказалась значимой во всей этой истории. С июля он проводил реформы в компании, но к октябрю его ограничили в полномочиях из-за нараставших противоречий с Альтманом и Брокманом. Обиженный Суцкевер смог привлечь на свою сторону многих членов совета директоров. В октябре Альтман также попытался отправить в отставку Хелен Тонер, поскольку был недоволен её публичной критикой политики OpenAI в области безопасности. Хелен Тонер, в свою очередь, пыталась заручиться поддержкой других членов совета директоров. Пытаясь наладить контакт с прочими членами совета директоров в этой ситуации, Альтман некорректно истолковал их позиции по вопросу, и ошибочно предположил, что коллеги солидарны с ним в намерениях отправить Тонер в отставку. Он даже открыто выражал уверенность, что Таша Макколи является его союзником в этой ситуации, но последняя от такой позиции открещивалась. Члены совета директоров OpenAI пришли к выводу, что Альтман манипулирует ими, и содержание их разговоров с ним существенно отличается от того, что он пытается представить на публике. Совет директоров действительно был обеспокоен тем, что Альтман не всегда был откровенен с ними. Отставка Альтмана готовилась в такой спешке, что сотрудникам компании не было ничего разъяснено, а потому решимость основной части коллектива настаивать на возвращении генерального директора стала для совета директоров сюрпризом. После возвращения Альтмана на пост генерального директора в отставку подали и Тонер, и Макколи, из прежнего состава совета директоров в новый перекочевал лишь Адам Д’Анджело. На этом настояли те члены совета директоров, которые считали важным сохранить в его составе хотя бы одного очевидца соответствующих ноябрьских событий и сопутствующей предыстории. Разработан ИИ, который может перехватывать пароли с точностью 95 % по звуку нажатия клавиш
08.12.2023 [21:18],
Николай Фрей
Британские исследователи обучили искусственный интеллект (ИИ) точно распознавать нажатия клавиш на компьютерной клавиатуре по звуку. Таким образом можно следить за тем, что печатает человек, и даже «подслушать» его пароли. В эксперименте для проверки ИИ в качестве микрофона выступал смартфон, размещённый рядом с ноутбуком, на клавиатуре которого осуществлялся ввод. ![]() Источник изображения: Pexels Для обучения нейросети исследователи сопоставили звук каждой клавиши на клавиатуре с соответствующей ей буквой. Далее экспериментаторы преобразовали аудиозаписи в изображения в виде волновых диаграмм и спектрограмм и использовали их для обучения искусственного интеллекта. Затем набирался пароль на ноутбуке, и алгоритм просили вычислить, какое слово было введено, основываясь на последовательности звуков. ИИ в этом тесте распознал пароль с точностью 95 %. Чтобы сделать подобную атаку с подбором пароля более реалистичной, экспериментаторы проверили, можно ли использовать этот метод для подбора паролей во время видеозвонка через Zoom или Skype. ИИ в этом случае продемонстрировал чуть меньшую, но всё ещё очень высокую точность распознавания: 92 % для Skype и 93 % в случае видеозвонка Zoom. Исследователи в данном тестировании использовали MacBook Pro с чипом М1 и 16-дюймовым экраном 2021 года. Компанию ему составил iPhone 13 mini, размещённый на расстоянии 17 сантиметров от ноутбука, а также приложения для видеоконференций Zoom и Skype. В качестве средства защиты исследователи рекомендуют пользователям применять при наборе текста десятипальцевую технику печати. В этом случае точность распознавания звука от отдельных клавиш значительно снижается. Использование верхнего и нижнего регистра букв в паролях, а также специальных символов также может усложнить задачу восстановления паролей с помощью подобного ИИ. Однако наилучшую защиту в подобном случае обеспечит всё же менеджер паролей, который автоматически подбирает сложные пароли одним щелчком мыши. Менеджеры паролей вводят пароли с помощью комбинации клавиш, либо автоматически в поля для входа в систему. Это означает, что данные не могут быть перехвачены ИИ, применяющим распознавание звуков с клавиатуры. Google выпустила продвинутый ИИ-блокнот NotebookLM на нейросети Gemini Pro
08.12.2023 [20:21],
Владимир Мироненко
Google выпустила приложение NotebookLM — это блокнот на основе искусственного интеллекта, представленный в мае на конференции I/O 2023 и прежде носивший название Project Tailwind. Как и ИИ-чат-бот Bard, блокнот NotebookLM теперь полагается на нейросеть Gemini Pro. Новое приложение стало доступно жителям США, и чтобы воспользоваться им, уже не надо записываться в список ожидания. ![]() Источник изображений: 9to5google.com С помощью NotebookLM пользователь может обобщить несколько заметок и объединить их в одну, создать на их основе схему, учебное пособие или руководство, превратить «заметки в рассылку по электронной почте, план сценария, черновик маркетингового плана». Также есть возможность экспорта заметок в «Google Документы». В ходе работы пользователя NotebookLM будет «динамически предлагать действия в зависимости от того, что тот делает». Если, например, пользователь выделяет отрывок во время чтения какого-либо источника (PDF или сайта), NotebookLM «автоматически предложит суммировать текст в новую заметку или поможет ему понять технический язык или сложные идеи». Когда пользователь пишет заметку, NotebookLM предложит инструменты для улучшения стиля или соответствующие идеи из имеющихся у него источников на основе того, что пользователь только что написал. ![]() Пользователь теперь может выбирать источники из перечисленных на боковой панели, для использования в той или иной работе. Google увеличила лимит на количество используемых источников до 100. Также в NotebookLM предусмотрена возможность скрыть источник, есть функция быстрого перехода от цитаты к источнику. Все новые возможности появятся у NotebookLM в ближайшее время с выходом Gemini Pro. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |