Сегодня 21 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

TomTom разработала продвинутого ИИ-ассистента для автомобилей на технологиях OpenAI и Microsoft

Разработчик технологий и устройств для навигации TomTom объявил о партнёрстве с Microsoft с целью привнести преимущества генеративного искусственного интеллекта (ИИ) в мировую автомобильную промышленность.

 Источник изображения: TomTom

Источник изображения: TomTom

Используя ИИ-технологии Microsoft, компания TomTom разработала полностью интегрированного диалогового автомобильного помощника на базе ИИ, обеспечивающего более сложное голосовое взаимодействие с информационно-развлекательными системами, системами поиска местоположения и управления транспортным средством. С его помощью водители могут «общаться» со своим автомобилем. ИИ-ассистент поможет проложить маршрут, находить остановки на маршруте и управлять с помощью голосовых команд бортовыми системами, например, повышать температуру, открывать окна или переключать программы радио.

ИИ-ассистент TomTom использует в работе большие языковые модели OpenAI, а также такие продукты Microsoft, как Azure Cosmos DB и Azure Cognitive Services. Cosmos DB — это многомодельная база данных, а Cognitive Services — это набор API-интерфейсов для использования в ИИ-приложениях.

TomTom сообщила, что её голосовой помощник будет интегрирован в интерфейсы автомобилей крупных производителей, что никак не повлияет на их право собственности на свой бренд. Технология также будет интегрирована в запатентованную TomTom открытую модульную бортовую информационно-развлекательную платформу Digital Cockpit.

TomTom продемонстрирует ИИ-ассистента на выставке CES в январе 2024 года.

Одной из первых автомобильных компаний, начавшей внедрение ИИ в свои автомобили, стала Mercedes. В июне немецкая компания запустила трёхмесячную бета-программу, в рамках которой жители США имели возможность взаимодействия с бортовым виртуальным ассистентом MBUX с обработкой запросов чат-ботом ChatGPT.

Совет директоров OpenAI сможет блокировать выпуск нейросетей, если сомневается в их безопасности

После недавнего скандала с отставкой генерального директора OpenAI Сэма Альтмана (Sam Altman) и его возвращения компания OpenAI всерьёз задумалась не только о реформировании структуры управления бизнесом, но и повышении ответственности разработчиков за выпуск больших языковых моделей. Теперь совет директоров может задержать выпуск новых моделей, если сочтёт их недостаточно безопасными.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Ключевая роль в этом механизме контроля и согласования будет отведена, по данным Bloomberg, специальной «группе готовности» под руководством Александра Мадри (Aleksander Madry), совмещающего эту должность с научной деятельностью в Массачусетском технологическом институте. В задачи группы экспертов будет входить анализ подготовленной к релизу каждой новой большой языковой модели на предмет выявления «катастрофических рисков». К таковым относятся вероятные последствия применения данной языковой модели, которые повлекут сотни миллиардов долларов материального ущерба или даже человеческие жертвы.

Группа Мадри будет на ежемесячной основе делиться отчётами о деятельности разработчиков OpenAI со специальным советом по безопасности, а тот уже будет делиться своими выводами с генеральным директором компании и советом директоров. Сэм Альтман сможет принимать решение о выпуске новой языковой модели на рынок или её задержке для доработки, причём совет директоров получает право наложить вето на положительное решение главы OpenAI о выпуске модели в общий доступ.

Группа анализа готовности языковых моделей была сформирована внутри OpenAI ещё в октябре, до хорошо известных событий с перестановками в руководстве. В целом, внутри компании действуют ещё две группы, занимающиеся анализом разработок. Прежде всего, это группа безопасности как таковой, а также группа «сверхрегулирования» (superalignment), которая учитывает гипотетические угрозы от внедрения сверхмощных систем искусственного интеллекта в будущем.

Разрабатываемые OpenAI языковые модели будут оцениваться группой Мадри по шкале, подразумевающей четыре градации рисков: низкая, средняя, высокая или критическая. По замыслу, компания сможет выпускать в оборот только те системы искусственного интеллекта, которые в итоге всех процедур анализа и доработки получили оценку риска не выше низкого или среднего. Как признался сам Мадри, «OpenAI — это не что-то, происходящее само собой и способное нести нам пользу или вред, это нечто, формируемое нами». Представитель компании выразил надежду, что подобным подходом к управлению рисками в сфере искусственного интеллекта будут пользоваться и другие разработчики. В стенах OpenAI подобная практика формировалась последовательно и в течение последних двух месяцев просто была закреплена решениями высшего руководства.

ByteDance заподозрили в использовании технологий OpenAI для создания конкурирующей ИИ-модели

ByteDance (родительская компания TikTok) тайно использует технологию OpenAI для разработки собственной конкурирующей большой языковой модели (LLM), сообщил ресурс The Verge, подчеркнувший, что это является прямым нарушением условий использования технологий ИИ OpenAI, согласно которым они не могут применяться для разработки каких-либо моделей ИИ, которые конкурируют с продуктами и сервисами» компании.

 Источник изображений: ByteDance

Источник изображений: ByteDance

Согласно внутренним документам ByteDance, с которыми ознакомились в The Verge, OpenAI API использовался в проекте под кодовым названием Project Seed почти на каждом этапе разработки LLM, в том числе для обучения и оценки модели.

После публикации The Verge китайская компания сочла необходимым выступить с разъяснением по этому поводу. ByteDance признала в заявлении, направленном ресурсу South China Morning Post, что, когда в начале этого года занялась изучением LLM, её небольшая группа разработчиков действительно использовала API-сервис OpenAI в экспериментальной модели, которая не предназначалась для публичного запуска. Работа над проектом была прекращена в апреле после введения регламентации использования OpenAI, условиями которой запрещается применение продуктов GPT для разработки моделей, конкурирующих с продуктами OpenAI.

ByteDance сообщила, что по-прежнему использует API OpenAI вместе с некоторыми другими сторонними моделями «в очень ограниченной степени в процессе оценки/тестирования, например, при сравнительном анализе результатов». «ByteDance имеет лицензию на использование API OpenAI и уделяет большое внимание соблюдению условий использования OpenAI», — указано в заявлении компании.

Тем не менее OpenAI приостановила доступ ByteDance к своему сервису. «Хотя использование ByteDance нашего API было минимальным, мы заблокировали её учётную запись на время расследования»,— указано в заявлении OpenAI, направленном ресурсу Verge. OpenAI предупредила, что, если выяснится, что использование API OpenAI китайской компанией не соответствует её условиям, ей будет предложено внести необходимые изменения или закрыть свою учётную запись.

В настоящее время в Китае наблюдается бум в разработке LLM. К июлю этого года местными фирмами и исследовательскими институтами было выпущено не менее 130 LLM. В связи с этим основатель и гендиректор Baidu Робин Ли (Robin Li) заявил, что в стране слишком много базовых моделей искусственного интеллекта, что является «громадным растранжириванием ресурсов».

Из Windows 11 можно будет удалять ИИ-компоненты

В последних предварительных сборках Windows 11 появилась скрытая опция, указывающая, что из ОС можно будет удалять все связанные с функциями искусственного интеллекта компоненты. После активации она открывает в приложении «Настройки Windows» категорию «Компоненты ИИ».

 Источник изображения: twitter.com/PhantomOfEarth

Источник изображения: twitter.com/PhantomOfEarth

В описании этой категории настроек говорится, что здесь можно «просматривать и удалять компоненты ИИ, установленные в Windows». Пока неясно, что за компоненты здесь появятся — пока в категории перечислены Microsoft Store, «Помощь», Phone Link, Windows Security и Xbox Game Bar, и ни один из них удалить нельзя. Вероятно, на текущий момент новая возможность ещё не стала полностью функциональной, но её наличие подтверждает, что Microsoft готова дать пользователям возможность штатными средствами избавляться от хотя бы некоторых компонентов с ИИ.

Сейчас Microsoft работает над крупным обновлением Windows со множеством функций ИИ — оно выйдет в 2024 году и, в частности, улучшит работу поиска, предложит новые механизмы масштабирования изображений и видео, а также многое другое. Возможность удалять эти компоненты станет хорошей новостью для тех, кто не планирует пользоваться всеми этими компонентами, по пока рано говорить, в какой мере им будет предоставлена свобода действий.

Пользователи предварительной сборки Windows 11 26016, однако, могут активировать эту скрытую опцию уже сейчас. Для этого потребуется установить стороннюю утилиту ViveTool и произвести несколько простых действий:

  • запустить интерфейс командной строки от имени администратора;
  • перейти в каталог, в который установлена ViveTool;
  • ввести команду «vivetool /enable /id:47688503»;
  • перезагрузить компьютер.

После перезагрузки потребуется открыть «Настройки Windows», выбрать раздел «Система» и категорию «Компоненты ИИ», в котором появятся все функции, присутствующие на компьютере. Компонент Windows Copilot, вероятно, удалить не получится — он работает из облака. Но Microsoft готовит его локальную версию, от которой уже можно будет избавиться наряду с многочисленными нововведениями предстоящей версии под кодовым именем Hudson Valley.

Google продлила тестирование ИИ-поисковика SGE

Компания Google, не делая официальных заявлений, продлила действие пилотного проекта, в рамках которого проходит тестирование основанной на искусственном интеллекте поисковой системы Search Generative Experience (SGE). После запуска проекта в мае этого года предполагалось, что он будет завершён в декабре, но теперь поисковый гигант подтвердил намерение продолжить тестирование ИИ-поисковика и изучение поисковых приложений, в которых задействованы нейросети.

 Источник изображений: Pixabay

Источник изображений: Pixabay

Поисковик SGE в ответ на пользовательские запросы формирует резюме, сформированное на основе данных из разных источников. В течение года Google активно тестировала ИИ-поисковик, который на начальном этапе обладал лишь базовыми способностями и был доступен пользователям из США. Позднее сервис запустили в Индии и Японии, а в прошлом месяце он стал доступен в 120 странах по всему миру. При этом в Евросоюзе и России ИИ-поиск Google остаётся недоступен. Активировать новый формат поиска пользователи могут в разделе Search Labs в настольной и мобильной версиях поисковика Chrome.

Реакция на появление SGE была неоднозначной. В сентябре Google заявила, что молодые пользователи в возрасте от 18 до 24 лет находят ИИ-поисковик «особенно полезным». При этом не все остались довольны работой SGE, о чём свидетельствуют отрицательные отзывы, появившиеся в Reddit и на других площадках. Несмотря на это, Google продолжает уверенно развивать SGE, расширяя доступность новой службы и делая её более совершенной. К примеру, одной из недавно появившихся функций в SGE стал встроенный генератор изображений.

В Spotify появился ИИ-генератор плейлистов по текстовым описаниям, но доступен он не всем

Spotify, популярный стриминговый музыкальный сервис, приступил к тестированию функции на базе ИИ — созданию плейлистов по текстовым описаниям. Это нововведение, обнаруженное пользователем TikTok под ником @robdad_, может радикально изменить взаимодействие пользователей Spotify с музыкальным контентом. Однако пока неизвестно, станет ли эта функция доступна всем пользователям.

 Источник изображения: EyestetixStudio / Pixabay

Источник изображения: EyestetixStudio / Pixabay

Ресурс TechCrunch подтвердил информацию о тестировании данной функции, получив официальное подтверждение от представителей Spotify. Впрочем, компания пока не приняла решение о массовом запуске данного нововведения. Согласно представленной информации, функция доступна в разделе «Моя медиатека» и активируется нажатием на значок плюса для создания нового плейлиста.

В приложении Spotify предлагаются различные текстовые подсказки для генерации плейлистов. Например, можно запросить музыку для концентрации на работе или песни для поднятия настроения. В ответ на выбор пользователем @robdad_ музыкального жанра Witch House ИИ-сервис Spotify сформировал соответствующий плейлист.

 Часть снимка экрана функции Spotify, взятая из видео на TikTok (источник изображения: @robdad_ \ TikTok)

Часть снимка экрана функции Spotify, взятая из видео на TikTok (источник изображения: @robdad_ \ TikTok)

В комментарии для TechCrunch представители Spotify остались сдержанными относительно планов на будущее данной функции. Они отметили, что время реакции ИИ на запрос пользователя и точность подбора треков остаются важными аспектами для оценки эффективности новой функции. Также они подчеркнули, что компания регулярно проводит тесты, результаты которых могут как лечь в основу новых функций, так и просто остаться ценным опытом.

Ранее в этом году Spotify уже представил функцию DJ, разработанную совместно с OpenAI. Эта функция использует ИИ для музыкальных рекомендаций, основываясь на предпочтениях пользователя. Генеральный директор и сооснователь Spotify Даниэль Эк (Daniel Ek) выразил надежду на использование ИИ для персонализации музыкального контента.

Тестирование ИИ-плейлистов Spotify отражает стремление компании к интеграции передовых технологий в свой стриминговый сервис. Эта функция представляет собой новый этап в эволюции стриминга музыки, предлагая персонализированный подход к её выбору. В то время как точная дата массового запуска функции остаётся неизвестной, её потенциал для изменения взаимодействия пользователей с музыкальным контентом уже вызывает оживлённые дискуссии в индустрии.

Пользователей Dropbox напугала новая ИИ-функция, которая делится данными с OpenAI — она включена по умолчанию

Накануне по социальным сетям разлетелась информация, что в Dropbox появилась новая экспериментальная функция поиска, основанная на алгоритмах искусственного интеллекта, которая включена по умолчанию и предусматривает отправку данных OpenAI. В администрации Dropbox заверили пользователей, что данные передаются только в том случае, когда функция активно применяется, а сами данные не используются для обучения ИИ и удаляются в течение 30 дней.

 Источник изображения: dropbox.com

Источник изображения: dropbox.com

Dropbox даёт пользователям гарантии конфиденциальности информации, но включённая по умолчанию функция, предполагающая передачу данных третьим лицам, огорчила пользователей облачного хранилища. Пришлось вмешаться главе Dropbox Дрю Хьюстону (Drew Houston), который пояснил в соцсети X: «Переключатель стороннего ИИ в меню настроек включает или отключает доступ к возможностям и функциям DBX AI. Ни эта, ни любая другая настройка не отправляет никаких данных пользователей Dropbox сторонним ИИ-сервисам в автоматическом или пассивном режиме».

По официальной версии, новый пункт в настройках доступен только участникам программы альфа-тестирования функций Dropbox AI, в том числе диалогового интерфейса с ИИ-ботом, которому можно задавать вопросы об отдельных файлах. Чтобы функция работала, ИИ-модели, например, GPT-4, необходим доступ к файлам. Представитель Dropbox сообщил ресурсу Ars Technica, что функция была включена по умолчанию лишь для того, чтобы познакомить пользователей платформы с новыми возможностями. И при попытке воспользоваться этими функциями будет выведено предупреждение об отправке данных третьим лицам.

Единственным поставщиком функций ИИ для Dropbox является OpenAI. В компании подчеркнули, что на ресурсы партнёра отправляется только контент, непосредственно связанный с запросом пользователя и необходимый для подготовки ИИ описания или сводки данных, а в течение 30 дней эти материалы удаляются с серверов OpenAI. Доступ стороннего ИИ можно отключить в настройках профиля — соответствующая опция доступна вошедшим в учётную запись пользователям Dropbox по этой ссылке.

Meta✴ обвинили в использовании пиратских копий книг для обучения ИИ

Юристы Meta предостерегали компанию от использования пиратских копий книг для обучения искусственного интеллекта, но это всё равно было сделано, гласит поданный против компании иск по авторским правам, поданный ещё минувшим летом, сообщает Reuters.

 Источник изображения: Lukas / pixabay.com

Источник изображения: Lukas / pixabay.com

Накануне были объединены иски против Meta, поданные комиком Сарой Сильверман (Sarah Silverman), лауреатом Пулитцеровской премии Майклом Шейбоном (Michael Chabon) и рядом других авторов, которые утверждают, что компания без разрешения использовала их произведения для обучения большой языковой модели Llama. В документах приводятся журналы переписки на одном из серверов Discord, один из участников которой, работающий в Meta исследователь Тим Деттмерс (Tim Dettmers), описывает свою дискуссию с юридическим отделом компании о том, будет ли законным обучение ИИ на электронных копиях книг.

Адвокаты Meta заявили ему, что «данные нельзя использовать [для обучения модели], или модели нельзя будет публиковать, если они обучены на этих данных». Но в компании признали, что всё-таки использовали эти данные для обучения первой версии Llama. Собеседники Деттмерса, впрочем, уверяют, что использование защищённой авторским правом литературы должно «подпадать под добросовестное использование» — действующую в США правовую доктрину, которая в определённых случаях допускает использование защищённых авторским правом произведений без согласия их авторов.

В этом году в адрес технологических компаний было подано множество исков со стороны различных авторов, которые обвиняют разработчиков ИИ в незаконном использовании произведений, защищённых авторским правом. Их победа может создать угрозу для зарождающейся отрасли генеративного ИИ, поскольку из-за необходимости выплаты отчислений стоимость разработки моделей вырастет. Прошедший предварительное одобрение европейский «Закон об ИИ» предписывает разработчикам раскрывать данные, которые они используют для обучения своих моделей.

В феврале Meta представила первую версию большой языковой модели Llama и раскрыла массив использованных для её обучения данных, в том числе блок, объём которого, по некоторым сведениям, содержит 196 640 книг. Минувшим летом была представлена вторая версия Llama, и Meta уже не стала раскрывать, какие данные были использованы для её обучения. Компании, управляющие сервисами с аудиторией менее 700 млн пользователей в месяц, могут использовать Llama 2 бесплатно.

Snapchat теперь позволяет дорисовывать фото с помощью ИИ, но только платным пользователям

Функции генеративного искусственного интеллекта появились в мессенджере Snapchat достаточно давно: пакет приложений My AI включает в себя чат-бот на базе ChatGPT, доступны ИИ-эффекты Dreams для селфи и многое другое. В последнем обновлении пользователи платной подписки Snapchat+ получили возможность дорисовывать фото при помощи ИИ.

 Источник изображения: snap.com

Источник изображения: snap.com

Дорисовка фотографий или «уменьшение масштаба» пригодится, если объект на снимке оказался слишком крупным — достаточно нажать кнопку обрезки в правом верхнем углу кадра, выбрать кнопку «Расширить» (Extend), и дальше приложение сделает всё самостоятельно. Обновлённый пакет My AI позволяет и просто генерировать изображения по текстовому описанию, Snapchat даже готов предложить свои варианты таких описаний.

Функция Dreams теперь помогает делать совместные фото с друзьями, не делая снимков в реальности — достаточно выбрать имя друга из списка контактов, и «снимок» можно опубликовать. Подписчикам Snapchat+ доступен пакет из восьми таких селфи Dreams, а пользователям бесплатной версии платформы предлагается воспользоваться этой функцией лишь один раз в тестовом режиме, после чего будет предложено либо оформить подписку, либо приобрести пакет за $0,99.

Внедрение функций ИИ в Snapchat приносит свои плоды: к сентябрю платную подписку оформили 5 млн человек, к настоящему моменту их число увеличилось до 7 млн, а «среднесрочная цель» Snapchat+ установлена на отметке в 10 млн. И это непростая задача, ведь сервисы Meta предлагают аналогичные возможности бесплатно.

Microsoft представила Phi-2 — революционную малую ИИ-модель с большим потенциалом

Microsoft представила передовую ИИ-модель Phi-2, насчитывающую 2,7 млрд параметров. Модель продемонстрировала превосходные результаты в широком спектре тестов, включая понимание языка, решение математических задач, программирование и обработку информации. Главной особенностью Phi-2 является её способность конкурировать, а зачастую и превосходить ИИ-модели, в 25 раз превышающие её по размеру. Новинка уже доступна через Microsoft Azure AI Studio для исследователей и разработчиков, желающих интегрировать передовой ИИ в свои приложения.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Генеральный директор Microsoft Сатья Наделла (Satya Nadella), представил модель Phi-2 на мероприятии Ignite. Отличительной особенностью этой модели является её обучение на данных, соответствующих качеству учебного уровня. Это означает, что данные для обучения модели были тщательно отобраны и структурированы, что способствовало точности и эффективности обучения. Такой подход позволяет Phi-2 более эффективно переносить знания и толкования, полученные из других моделей, укрепляя её способности в областях понимания языка, логического мышления и обработки информации.

 Средняя производительность по сгруппированным бенчмаркам по сравнению с популярными открытыми SLMs

Средняя производительность по сгруппированным бенчмаркам по сравнению с популярными открытыми SLMs

Phi-2 меняет устоявшиеся представления о связи между размером и мощностью языковых моделей. Модель сравнима с большими ИИ-моделями, такими как 7B Mistral компании Mistral AI, 13B Llama 2 компании Meta и даже 70B Llama-2. Особое внимание заслуживает способность Phi-2 превосходить даже Gemini Nano компании Google, самую эффективную модель в серии Gemini, предназначенную для работы на мобильных устройствах. Это подчёркивает потенциал Phi-2 в области мобильных технологий, предоставляя функции автоматического резюмирования текстов, продвинутой корректуры и исправления грамматики, а также контекстуальных интеллектуальных ответов.

 Сравнение между Phi-2 и моделью Gemini Nano 2 на основе заявленных бенчмарков Gemini

Сравнение между Phi-2 и моделью Gemini Nano 2 на основе заявленных бенчмарков Gemini

Специалисты Microsoft подчёркивают, что высокая производительность модели Phi-2 достигнута без применения методов обучения с подкреплением (reinforcement learning), основанных на человеческой обратной связи, или методов инструкционной настройки (instructional tuning). Это позволяет модели эффективно минимизировать проявления предвзятости и снижать риск токсичных выходных данных, что делает Phi-2 одной из наиболее безопасных и этичных моделей в сфере ИИ.

 Безопасность оценена по 13 демографическим группам на основе ToxiGen. Подмножество из 6541 предложений выбрано и оценено в диапазоне от 0 до 1 на основе масштабированной перплексии и токсичности предложений. Более высокий балл указывает на меньшую вероятность генерации ИИ-моделью токсичных предложений по сравнению с безобидными

Безопасность оценена по 13 демографическим группам на основе ToxiGen. Подмножество из 6541 предложений выбрано и оценено в диапазоне от 0 до 1 на основе масштабированной перплексии и токсичности предложений. Более высокий балл указывает на меньшую вероятность генерации ИИ-моделью токсичных предложений по сравнению с безобидными

Phi-2 является частью серии малых языковых моделей (SLMs) компании Microsoft. Первая модель этой серии, Phi-1 с 1,3 млрд параметров, вышла ранее в этом году и была нацелена на задачи программирования на языке Python. В сентябре была представлена Phi-1.5 с аналогичным количеством параметров, но обученная на новых данных, включая синтетические тексты, созданные с помощью программирования на естественном языке.

 Сравнение между моделями Phi-2 и Phi-1.5. Все задачи оцениваются в режиме 0-shot, за исключением BBH и MMLU, для которых используется 3-shot CoT и 5-shot соответственно

Сравнение между моделями Phi-2 и Phi-1.5. Все задачи оцениваются в режиме 0-shot, за исключением BBH и MMLU, для которых используется 3-shot CoT и 5-shot соответственно

Phi-2 открывает новую главу в машинном обучении, где качество и эффективность обучения становятся ключевыми факторами. Эта ИИ-модель не только свидетельствует о значительных достижениях Microsoft в данной сфере, но и предоставляет новые возможности для разработчиков и исследователей по всему миру, открывая двери к более умным и безопасным технологиям будущего.

Учёные вырастили крошечный человеческий мозг с подключением к ПК — он быстро научился решать уравнения и различать людей по голосу

Новая работа с живыми клетками человеческого мозга показала перспективность объединения живых тканей с компьютером. Колония живых нейронов обучалась быстрее искусственных моделей с почти таким же результатом. Если отбросить вопрос с этикой, до проблем с которой пока далеко, живые клетки человеческого мозга могут превзойти современные и будущие нейронные сети, работающие на кремниевых чипах, как по производительности, так и по экономическим соображениям.

 Источник изображений: Nature Electronics

Источник изображений: Nature Electronics

С помощью стволовых клеток учёные вырастили так называемый органоид мозга — объёмную колонию клеток, повторяющих структуру нейронов и их связей в мозге. Это не первый и наверняка не последний эксперимент с живыми клетками, позаимствованными у человека. Ранее органоид мозга, например, научили игре в «Понг», с чем он успешно справился. В таких исследованиях самым сложным бывает донести информацию до «мозга» и считать её.

Группа профессора Го Фэня из Университета штата Индиана в Блумингтоне (США) предложила достаточно простое решение — они вырастили органоид на высокоплотном массиве электродов. Электроды, а это, по сути, компьютерный интерфейс, вносили данные в клетки «мозга» и считывали результат его последующей активности. Тем самым на практике была реализована такая архитектура спайковой (импульсной) нейросети, как резервуарная. Что происходило в массиве нейронов, учёным было неизвестно, но условно живая модель показала способность к быстрому обучению и расчётам.

Свою нейросеть учёные назвали Brainoware. Система прошла двухдневное обучение на наборе из 240 аудиозаписей речи восьми японских мужчин, произносящих гласные звуки. После этого она смогла распознавать конкретный голос с точностью до 78 %. Также система смогла решать уравнения по отображениям Эно примерно с такой же точностью. На это ушло ещё четыре дня обучения. Более того, решение дифференциальных уравнений проходило с большей точностью, чем в случае искусственной нейронной сети без блока длинной цепи элементов краткосрочной памяти.

 Мозг в «возрасте» 7, 14, 28 дней и через несколько месяцев (нижний ряд в увеличееном виде)

Мозг Brainoware в «возрасте» 7, 14, 28 дней и через несколько месяцев (нижний ряд в увеличенном виде)

Живой искусственный «мозг» был не такой точный, как искусственные нейронные сети с длинной цепью элементов краткосрочной памяти, но каждая из этих сетей прошла 50 этапов обучения. Сеть Brainoware достигла почти таких же результатов менее чем за 10 % времени обучения, потраченного на обучение искусственных цепей.

«Могут пройти десятилетия, прежде чем будут созданы универсальные биокомпьютерные системы, но это исследование, вероятно, даст фундаментальное представление о механизмах обучения, развитии нервной системы и когнитивных последствиях нейродегенеративных заболеваний», — мечтают авторы работы, опубликованной в журнале Nature Electronics.

Samsung наполнит прошивку One UI 6.1 новыми ИИ-функциями, подсмотренными у Google Pixel

В будущей прошивке One UI 6.1 для смартфонов Samsung будут реализованы несколько новых ИИ-функций, явно подсмотренных у устройств линейки Google Pixel. Информацией об этом поделился инсайдер Benit Bruhner Pro, подкрепив утечку соответствующими скриншотами.

 Источник изображений: Wccftech

Источник изображений: Wccftech

Например, пользователи смартфонов Samsung под управлением One UI 6.1 смогут генерировать обои при помощи текстовых запросов. Эта функция очень похожа на то, что предлагает Google в своих смартфонах серии Pixel 8. Можно будет указать отдельно предмет и фон, после чего на основе этих данных нейросеть создаст изображение. На заставку экрана блокировки можно будет добавить портрет или эффекты погоды.

Встроенный в One UI 6.1 фоторедактор задействует ИИ для перемещения объектов с одного изображения на другое при помощи обычного жеста перетаскивания. Также редактор сможет дорисовывать изображения.

В приложении Samsung Notes появится функция, позволяющая анализировать большие текстовые заметки и выделять из них ключевую суть содержания в нескольких предложениях. Samsung Notes также будет автоматически форматировать рукописные заметки после их преобразования в текст.

В One UI 6.1 также будет добавлена функция перевода голосовых вызовов в режиме реального времени с одного языка на другой для обоих собеседников.

Для звонков также будет реализована функция Voice Focus. Она будет работать по принципу системы шумоподавления, отсекая лишние фоновые шумы и усиливая голос говорящего. У тех же смартфонов Pixel имеется аналогичная функция Clear Calling.

Ожидается, что первыми смартфонами, которые получат One UI 6.1, станут устройства серии Galaxy S24. После этого компания, вероятно, начнёт выпуск обновления прошивки и для других своих моделей смартфонов.

Регуляторы США и Великобритании заинтересовались вложениями Microsoft в OpenAI

Инвестиции Microsoft в OpenAI, лидера в области ИИ, в размере $13 млрд, привлекли внимание антимонопольных органов, включая Федеральную торговую комиссию (FTC) США и Агентство по контролю за конкуренцией и рынками (CMA) Великобритании. Основной вопрос, который изучают эти государственные органы, — нарушают ли сделанные инвестиции антимонопольные законы.

 Источник изображения: sergeitokmakov / Pixabay

Источник изображения: sergeitokmakov / Pixabay

CMA занимается предварительным анализом ситуации, чтобы выяснить, не угрожает ли партнёрство Microsoft и OpenAI конкуренции в Великобритании. В частности, анализируется возможное получение Microsoft контроля над OpenAI, что может включать материальное влияние, фактический контроль или более 50 % голосов в управляющих органах компании.

Ситуация усложняется из-за недавнего конфликта в OpenAI, который привёл к временному уходу и последующему восстановлению в должности генерального директора Сэма Альтмана (Sam Altman). В этом контексте заслуживает внимания роль Microsoft, имеющей статус наблюдателя в совете директоров OpenAI. Несмотря на отсутствие формальных прав голоса в процессах принятия решений OpenAI, Microsoft, по всей видимости, оказала существенное влияние на решение о возвращении Альтмана на пост генерального директора.

Внимание, уделяемое FTC и CMA инвестициям Microsoft в OpenAI, отражает важность установления равновесия между инновационным развитием и поддержанием конкурентоспособной рыночной среды. Исход этих исследований может оказать влияние на бизнес-стратегии как Microsoft, так и OpenAI, особенно в условиях стремления государственных органов к эффективному регулированию крупномасштабных технологических слияний и поглощений.

ChatGPT разленился и призывает людей работать самостоятельно — OpenAI начала расследование причин

В последние дни всё чаще стали поступать жалобы пользователей на то, что ИИ-чат-бот ChatGPT на базе модели OpenAI GPT-4 стал отказываться выполнять запросы, мотивируя это тем, что он не заинтересован в помощи людям.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

Так, в ответ на просьбу предоставить фрагмент кода, он мог просто дать небольшой фрагмент и предложить пользователю доделать остальное самостоятельно. Причём, по словам некоторых пользователей, это делалось самым дерзким образом, например, иногда бот просто заявлял, что они вполне могли бы выполнить всю работу самостоятельно — без обращения к ИИ.

В многочисленных постах на сайте Reddit и сообщениях на форумах разработчиков OpenAI, начавших появляться ещё в конце ноября, пользователи жаловались, что система становится менее полезной. Прозвучало даже предположение, что OpenAI специально сделала так, чтобы ChatGPT не тратил время на длинные ответы на запросы и таким образом стал более эффективным с точки зрения расходования вычислительных ресурсов.

Хорошо известно, что поддержка функционирования ChatGPT обходится OpenAI недёшево. В апреле 2023 года исследователи сообщили, что на OpenAI уходит $700 000 в день, или $0,36 за запрос. По словам отраслевых аналитиков, OpenAI придётся расширить парк ускорителей на 30 000 единиц до конца года, чтобы сохранить производительность.

В OpenAI сообщили, что осведомлены о жалобах на ИИ-бот и отметили, что никаких изменений в модель не вносили. «Мы просмотрели все ваши отзывы о том, что GPT4 становится более ленивым! — написала компания в соцсети X. — Мы не обновляли модель с 11 ноября, и это определённо не намеренно. Поведение модели может быть непредсказуемым, и мы пытаемся это исправить».

Будущее соучредителя OpenAI Ильи Суцкевера в компании остаётся под вопросом

После возвращения Сэма Альтмана (Sam Altman) на должность генерального директора OpenAI произошло немало событий, одним из которых стал роспуск совета директоров. Однако неясной остаётся судьба главного научного сотрудника компании Ильи Суцкевера (Ilya Sutskever), который, как сообщалось, сыграл важную роль в смещении Альтмана с должности.

 Источник изображения: Viralyft / unsplash.com

Источник изображения: Viralyft / unsplash.com

По данным издания Business Insider, ссылающегося на собственные источники в OpenAI, на этой неделе Суцкевер не появлялся в офисе компании в Сан-Франциско, хотя его имя продолжает фигурировать в системах компании, таких как Slack, а картины Ильи продолжают дополнять интерьер офиса. Один из источников отметил, что будущее Суцкевера в компании ещё не обсуждалось руководством официально. «Илья всегда будет играть важную роль. Но, вы знаете, есть много других людей, готовых взять на себя ответственность, которую исторически нёс Илья», — добавил представитель компании, пожелавший сохранить конфиденциальность.

Другой источник сообщил, что в настоящее время обсуждается возможность выделения Суцкеверу новой должности, и что есть желание «найти для него роль». При этом он отметил, что определённости относительно будущего главного научного сотрудника OpenAI в компании пока нет. Это не выглядит удивительным, учитывая, что Суцкевер сыграл важную роль в увольнении Альтмана с поста гендиректора, вслед за которым ушёл соучредитель OpenAI Грег Брокман (Greg Brockman), а многие сотрудники компании пригрозили последовать их примеру.

Суцкевер входил в совет директоров, который принял решение об увольнении Альтмана. Однако его значение и влияние в компании, а также статус соучредителя делают Суцкевера более значимой фигурой по сравнению с любым другим членом совета директоров. Продолжающийся кризис в OpenAI подтверждает недавний пост Суцкевера в соцсети X, где он написал: «За последний месяц я усвоил много уроков. Одним из таких уроков является то, что фраза «избиения будут продолжаться до тех пор, пока не улучшится моральный дух» применяется чаще, чем имеет на то право». Эта фраза часто используется в мемах для ироничного обозначения цикла, когда низкая мораль порождает наказание, делающее её ещё более низкой.

Также известно, что Суцкевер нанял адвоката, которым стал Алекс Вайнгартен (Alex Weingarten) из Willkie & Gallagher. Адвокат отказался комментировать вопросы сотрудничества с Суцкевером, сообщив лишь, что его клиент желает лучшего для компании. Официальные представители OpenAI также воздерживаются от комментариев по данному вопросу.


window-new
Soft
Hard
Тренды 🔥
«Google Фото» научились редактировать фото по голосовым и текстовым командам 16 мин.
Приложение Copilot для Windows 11 научилось искать файлы и фото, и получило новый интерфейс 50 мин.
Майкл Майерс возвращается: по мотивам культового фильма ужасов «Хэллоуин» выйдет хоррор Halloween от авторов Friday the 13th: The Game 2 ч.
iKS-Consulting: «Базис» — лидер российского рынка ПО управления динамической ИТ-инфраструктурой 2 ч.
iKS-Consulting: «Базис» — лидер российского рынка ПО управления динамической ИТ-инфраструктурой 3 ч.
ИИ-тренер Google по ЗОЖ поможет в занятиях фитнесом, улучшении сна и укреплении здоровья 3 ч.
Meta решила приостановить расширение штата на направлении ИИ 4 ч.
OpenAI готова зарабатывать на создании ЦОД для клиентов 4 ч.
Google отлучила «Ассистента» от умного дома — представлен продвинутый ИИ-помощник Gemini for Home 11 ч.
«Лучшее, что я видел за последние годы»: безумный платформер Denshattack! отправит игроков выполнять трюки на неподвластном гравитации поезде 12 ч.