Сегодня 22 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

Великобритания опубликовала «Декларацию Блетчли» о безопасном использовании ИИ

Великобритания сегодня опубликовала «Декларацию Блетчли», направленную на активизацию глобальных усилий по сотрудничеству в области безопасности искусственного интеллекта. Декларация 28 стран и Европейского Союза была обнародована в день открытия Саммита по безопасности искусственного интеллекта, проходившего в Блетчли-Парке, центральная Англия.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«Декларация выполняет ключевые задачи саммита по установлению общего согласия и ответственности в отношении рисков, возможностей и дальнейшего процесса международного сотрудничества в области безопасности и исследований в сфере искусственного интеллекта, особенно посредством более широкого научного сотрудничества», — заявил представитель Великобритании при обнародовании документа.

В документе изложена программа, направленная на выявление рисков, вызывающих общую обеспокоенность, и формирование их научного понимания, а также на разработку международной политики по их смягчению. Декларация поощряет прозрачность и подотчётность участников, разрабатывающих передовые технологии ИИ, призывая к мониторингу и смягчению потенциально вредных возможностей.

«Это включает, наряду с повышением прозрачности со стороны частных субъектов, разрабатывающих передовые возможности искусственного интеллекта, соответствующие показатели оценки, инструменты для тестирования безопасности, а также развитие соответствующих возможностей государственного сектора и научных исследований», — говорится в декларации.

«Это знаковое достижение, благодаря которому величайшие мировые державы в области ИИ соглашаются с необходимостью понимания рисков ИИ, помогая обеспечить долгосрочное будущее наших детей и внуков», — заявил премьер-министр Великобритании Риши Сунак (Rishi Sunak).

Список стран, подписавших декларацию:

  • Австралия
  • Бразилия
  • Великобритания
  • Германия
  • Евросоюз
  • Израиль
  • Индия
  • Индонезия
  • Ирландия
  • Испания
  • Италия
  • Канада
  • Кения
  • Китай
  • Корея
  • Нигерия
  • Нидерланды
  • ОАЭ
  • Руанда
  • Саудовская Аравия
  • Сингапур
  • США
  • Турция
  • Украина
  • Филиппины
  • Франция
  • Чили
  • Швейцария
  • Япония

Полный текст декларации на английском языке опубликован на сайте правительства Великобритании.

Любопытно отметить место, где проходит саммит — это Блетчли-Парк, чьё название стало синонимом взлома кодов и зарождения компьютеров. В годы Второй Мировой войны группа математиков, криптографов, разгадывателей кроссвордов, мастеров шахмат и других экспертов собралась в викторианском загородном доме в 72 километрах к северо-западу от Лондона, чтобы вести секретную войну против нацистской Германии.

 Источник изображения: AP Photo / Matt Dunham

Источник изображения: AP Photo / Matt Dunham

Самое известное достижение сотрудников Блетчли-Парка — раскрытие секрета немецкой шифровальной машины «Энигма», которая производила постоянно меняющийся шифр и считалась не поддающейся взлому. К этому взлому приложил руку лично Алан Тьюринг. Некоторые историки утверждают, что расшифровка кода «Энигмы» помогла сократить войну почти на два года.

Microsoft начала продавать ИИ-помощника Copilot для обработки почты и документов за $30 в месяц

Microsoft объявила о начале продаж подписок на Copilot — ИИ-помощника, выполненного в виде надстройки для офисного пакета Office 365. Для бизнес-пользователей стоимость месячной подписки на одного человека равна $30. По оценкам аналитиков Piper Sandler, к 2026 году этот инструмент сможет приносить Microsoft более $10 млрд дохода в год. При этом сейчас компания теряет более $20 на каждой платной подписке на родственного ИИ-помощника — GitHub Copilot для программистов.

 Источник изображения: Microsoft

Источник изображения: Microsoft

«Клиенты говорят нам, что, воспользовавшись Copilot, они не могут представить свою работу без него», — заявил генеральный директор Microsoft Сатья Наделла (Satya Nadella). Microsoft стремится максимально использовать своё лидирующее положение на рынке программного обеспечения для повышения производительности на основе ИИ, в то время как Google оказалась в положении догоняющей со своим ИИ-помощником Duet AI для пакета Workspace.

Эксперты Piper Sandler полагают, что 18 % пользователей станут использовать Copilot, многие под влиянием так называемого «синдрома упущенной выгоды» (fear of missing out, FOMO): «Если Вы работаете в отрасли и конкурируете с кем-то, у кого есть Copilot, а у вас его нет, Вы находитесь в невыгодном положении». Финансовые аналитики настоятельно советуют покупать акции Microsoft, которые в этом году выросли на 41 %, в то время как индекс S&P 500 поднялся лишь на 9 %.

Microsoft обнародовала свои планы по повсеместному внедрению ИИ в марте, но первопроходцами в сентябре стали крупнейшие компании США, входящие в рейтинг Fortune 100. По утверждению Microsoft, 40 % компаний из этого списка, среди которых Bayer, KPMG, Mayo Clinic, Suncorp и Visa, уже используют Copilot в платной программе раннего доступа. Компаниям необходимо иметь не менее 300 лицензий, чтобы обеспечить сотрудникам доступ к Copilot.

Программа раннего доступа стартовала в мае, но достоверной независимой информации о реальном влиянии Copilot на производительность пока не существует. «Многие разговоры, которые мы провели даже с клиентами раннего доступа, были слишком короткими по времени, чтобы по-настоящему оценить качественные аспекты того, как они используют инструменты», — заявил Джейсон Вонг (Jason Wong), аналитик исследовательской компании Gartner. По мнению Вонга, 20 % пользователей через два–три года станут постоянно применять в своей работе технологии, подобные Copilot.

Эксперты расходятся в своих взглядах на пути внедрения ИИ-помощников в бизнес-процессы. В то время как специалисты Piper Sandler считают необходимым внедрение Copilot «среди высокооплачиваемых руководителей, чьё время драгоценно», эксперты Gartner полагают более разумным «сначала предоставить Copilot технически подкованным сотрудникам, которые использовали генеративный искусственный интеллект для личного использования и знакомы с такими недостатками, как возможность распространения неточной информации».

Microsoft признаёт, что «ответы, которые даёт генеративный ИИ, не обязательно будут на 100% достоверными», хотя это не помешало росту популярности чат-бота ChatGPT от OpenAI, чьи большие языковые модели лежат в основе Copilot. Microsoft заявляет, что подсказки и ответы в Copilot не используются для обучения языковых моделей и соответствуют стандартам конфиденциальности компании.

Microsoft выиграет не только от новой ежемесячной платы за Copilot. По словам Вонга, при настройке этого инструмента компании могут использовать дополнительные облачные сервисы Azure, такие как Purview, для управления данными.

ИИ-консультант от LinkedIn поможет пользователям найти работу

Профессиональная соцсеть LinkedIn предложила премиум-подписчикам новую функцию: основанный на алгоритмах искусственного интеллекта консультант по трудоустройству, который помогает находить, изучать вакансии и подавать заявки на них. Незадолго до этого администрация платформы сообщила, что объём базы пользователей вырос до 1 млрд человек, а число функций ИИ здесь возрастёт.

 Источник изображения: Greg Bulla / unsplash.com

Источник изображения: Greg Bulla / unsplash.com

Принадлежащая Microsoft профессиональная соцсеть всё чаще экспериментирует с функциями ИИ для премиум-подписчиков. В этом году компания предложила им услуги генеративного ИИ для более качественного наполнения профиля и переписки с кадровиками. Новая функция обещает более высокую персонализацию.

На начальном этапе наиболее заметной особенностью для соискателей станет генерируемая ИИ информация рядом с каждым объявлением о вакансии. Система предложит сводку на основе длинного описания должности и оценит, подходит ли она конкретному пользователю, основываясь на данных его профиля в LinkedIn. Она предложит подчеркнуть опыт работы по тому или иному направлению, а также даст рекомендации, как наполнить профиль, чтобы он выглядел более привлекательно для нанимателей.

В распоряжении LinkedIn есть огромный массив профессиональной информации, а значит, и советы ИИ-помощника будут отличаться высокой степенью персонализации. Пока функция доступна в формате бета-версии для ограниченного числа премиум-пользователей, но она будет развиваться, обещает администрация LinkedIn.

Суд отклонил большинство исков художниц против ИИ-генераторов изображений

Окружной судья в Калифорнии Уильям Оррик (William Orrick) отклонил иск, поданный тремя художницами против трёх платформ — ИИ-генераторов изображений Stability AI, DeviantArt и Midjourney. По версии истцов, администрации платформ нарушили их авторские права, использовав авторские произведения для обучения систем искусственного интеллекта.

 Источник изображения: succo / pixabay.com

Источник изображения: succo / pixabay.com

Судья вынес решение, что иск Сары Андерсен (Sarah Andersen), Келли МакКернан (Kelly McKernan) и Карлы Ортиз (Karla Ortiz) о нарушении авторских прав платформами DeviantArt и Midjourney является «неполноценным во многих отношениях» и не может быть обоснован. Но он допустил до рассмотрения жалобу о прямом нарушении прав Stability AI. Художницы утверждают, что компания Stability AI использовала принадлежащие им произведения, защищённые авторским правом, для обучения преобразующей текст в изображения системы ИИ, не получив согласия авторов.

По словам судьи Оррика, двое художниц-истцов, МакКернан и Ортиз, не зарегистрировали авторских прав ни на одно из своих произведений, а значит, у них не было достаточных оснований для предъявления претензий. Чтобы продолжить рассмотрение дела, он попросил их доказать, что создаваемые генераторами произведения по существу похожи на их собственные работы. Части иска против DeviantArt и Midjourney были отклонены, поскольку эти платформы не связаны с компанией Stability AI, которая стала основным объектом обвинений.

«Истцы надлежащим образом заявили о прямом нарушении авторских прав, основываясь на утверждениях, что Stability „загрузила или иным образом получила копии миллиардов защищённых авторским правом изображений без разрешения для создания Stable Diffusion”, использовала эти изображения для обучения Stable Diffusion и содействовала хранению этих изображений и включению их в Stable Diffusion в виде сжатых копий», — заявил судья Оррик. В своём решении он добавил, что даст истцам возможность внести изменения в своё заявление.

Alibaba выпустила одну из самых мощных ИИ-моделей в мире с сотнями миллиардов параметров

Крупнейшая в Китае компания в области облачных вычислений и электронной коммерции Alibaba на ежегодной конференции в Ханчжоу представила большую языковую модель следующего поколения Tongyi Qianwen 2.0. Данная разработка компании должна помочь ей в стремлении выйти на равные с глобальными технологическими гигантами, такими как Amazon и Microsoft.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Alibaba охарактеризовала Tongyi Qianwen 2.0 как «существенное обновление своего предшественника» Tongyi Qianwen, представленного в апреле. «Новая ИИ-платформа демонстрирует замечательные способности в понимании сложных языковых инструкций, копирайтинге, рассуждениях, запоминании и предотвращении галлюцинаций (выдумывания фактов)», — говорится в пресс-релизе компании. Сообщается, что Tongyi Qianwen 2.0 имеет сотни миллиардов параметров, что делает её одной из самых мощных ИИ-моделей в мире по этому показателю. Alibaba также выпустила восемь ИИ-моделей для индустрии развлечений, финансов, здравоохранения и юридической сферы.

Китайская компания также анонсировала сервисную платформу генеративного ИИ, которая позволяет клиентам создавать собственные генеративные приложения ИИ, обученные на их собственных массивах данных.

Одним из рисков использования общедоступных продуктов генерирующего ИИ, таких как ChatGPT, компании Alibaba считают возможность доступа к их данным третьих лиц и организаций. Alibaba наряду с другими облачными провайдерами предлагает компаниям инструменты для создания собственных продуктов генеративного ИИ с использованием собственных данных, которые будут защищены от постороннего вмешательства в рамках пакета услуг.

Напомним, что месяцем ранее конкурент Alibaba, китайский IT-холдинг Tencent, представил собственную большую языковую модель Hunyuan с более 100 млрд параметров, которая, по словам разработчика, превосходит модель OpenAI GPT-4 при обработке китайского языка.

TECNO представила Universal Tone — технологию для корректной передачи оттенков и текстуры кожи при съёмке на смартфон

TECNO представила свою последнюю разработку в области мобильной съёмки — технологию TECNO Universal Tone, созданную для корректной передачи оттенков и текстуры кожи при съёмке на смартфон.

 Источник изображения: TECNO

Источник изображения: TECNO

TECNO Universal Tone объединяет обновлённую базу спектральных и аналитических данных, позволяя отразить особенности различных национальностей, обеспечивая возможность создания портретных снимков в соответствии с индивидуальными ожиданиями пользователей по всему миру. Для усовершенствования технологии были привлечены ученые-колористы из различных университетов мира.

По словам Джека Гуо (Jack Guo), гендиректора TECNO, в технологии используется строгий научный подход, основанный на данных, для создания более точных и качественных изображений и обеспечения более естественного отображения красоты пользователей по всему миру.

TECNO Universal Tone использует алгоритмы на базе искусственного интеллекта:

  • Multi-Skin Tone Restoration Engine — ИИ-алгоритм визуализации тона кожи, основанный на диверсифицированной спектральной базе данных.
  • Local-Tuning Engine — алгоритм, предназначенный для настройки камер под различные сценарии, который анализирует окружающую среду, условия освещения, геоморфологические ландшафты и температуру, чтобы создать гармоничный кадр с учётом специфики региона.
  • AI-Powered Computational Portrait Engine — ИИ-алгоритм, который персонализирует изображение в соответствии с эстетическими элементами бьютификации, повышая точность определения тона кожи и оптимизируя его отображение, а также предлагая персонализированные улучшения портрета.

В процессе съёмки алгоритм Multi-Skin Tone Restoration Engine настраивает камеру для более точного и естественного отображения различных оттенков кожи, затем Local-Tuning Engine анализирует окружающую среду для восстановления теней с учётом региона и сценария и, наконец, AI-Powered Computational Portrait Engine применяет персонализированный алгоритм, соответствующий эстетическим и культурным предпочтениям разных стран.

Технология TECNO Universal Tone позволит подчеркнуть индивидуальность пользователей по всему миру, а также улучшить опыт при создании портретов.

«Большая семёрка» договорилась о руководящих принципах и кодексе поведения для ИИ

Лидеры G7 сегодня подписали «Соглашение о международных руководящих принципах ИИ» и «Добровольный кодекс поведения разработчиков ИИ» в рамках «Хиросимского процесса ИИ» — форума, посвящённого перспективам и проблемам развития искусственного интеллекта. Эти документы дополнят на международном уровне юридически обязательные правила, которые в настоящее время дорабатываются законодателями ЕС в соответствии с «Законом об ИИ».

 Источник изображения: Pixabay

Источник изображения: Pixabay

Одиннадцать руководящих принципов, принятых лидерами «Большой семёрки», служат руководством по обеспечению безопасности и надёжности технологий для организаций, разрабатывающих, внедряющих и использующих передовые системы ИИ. Они включают в себя обязательства по снижению рисков и злоупотреблений, выявлению уязвимостей, поощрению ответственного обмена информацией, отчётности об инцидентах и инвестициям в кибербезопасность, а также систему маркировки, позволяющую пользователям идентифицировать контент, созданный ИИ.

Эти принципы, основанные на результатах опроса заинтересованных сторон, были разработаны ЕС совместно с другими членами «Большой семёрки» в рамках инициативы, известной как «Хиросимский процесс ИИ». Они послужили основой для составления кодекса, который предоставит подробное и практическое руководство для организаций, разрабатывающих ИИ и будет способствовать ответственному управлению ИИ во всём мире.

Оба документа будут пересматриваться и обновляться по мере необходимости, в том числе посредством консультаций с участием многих заинтересованных сторон, чтобы гарантировать, что они остаются пригодными для использования и отвечают требованиям этой быстро развивающейся технологии. Лидеры G7 призвали организации, разрабатывающие передовые системы ИИ, взять на себя обязательство использовать в своей деятельности провозглашённые в принятых документах принципы.

«Хиросимский процесс ИИ» был учреждён на саммите G7 19 мая 2023 года с целью содействия развитию передовых систем ИИ на глобальном уровне. Эта инициатива является частью более широкого спектра международных дискуссий по вопросам сдерживания развития ИИ.

 Источник изображения: Japan Pool / Bloomberg

Источник изображения: Japan Pool / Bloomberg

«Потенциальные преимущества ИИ для граждан и экономики огромны. Однако ускорение развития возможностей ИИ также порождает новые проблемы. Уже будучи лидером в сфере регулирования благодаря "Закону об ИИ", ЕС вносит свой вклад в создание барьеров и управление ИИ на глобальном уровне. Я рада приветствовать международные руководящие принципы и добровольный кодекс поведения, отражающие ценности ЕС. Я призываю разработчиков ИИ подписать и внедрить этот Кодекс поведения как можно скорее», — прокомментировала принятые решения президент Еврокомиссии Урсула фон дер Ляйен.

Ниже приведён текст официального заявления лидеров G7 на «Хиросимском процессе ИИ» от 30 октября 2023 года:

«Мы, лидеры "Большой семёрки" (G7), подчёркиваем инновационные возможности и преобразующий потенциал передовых систем искусственного интеллекта (ИИ), в частности, базовых моделей и генеративного ИИ. Мы также признаем необходимость управления рисками и защиты отдельных лиц, общества и наших общих принципов, включая верховенство закона и демократические ценности, сохраняя человечество в центре внимания. Мы подтверждаем, что решение этих проблем требует формирования инклюзивного управления искусственным интеллектом.

Опираясь на прогресс, достигнутый соответствующими министрами в рамках Хиросимского процесса искусственного интеллекта, включая Заявление министров цифровых технологий и технологий "Большой семёрки", опубликованное 7 сентября 2023 года, мы приветствуем Международные руководящие принципы Хиросимского процесса для организаций, разрабатывающих передовые системы искусственного интеллекта, и Международный кодекс Хиросимского процесса. поведения организаций, разрабатывающих передовые системы искусственного интеллекта. Чтобы гарантировать, что оба документа сохранят свою пригодность и соответствие этой быстро развивающейся технологии, они будут пересматриваться и обновляться по мере необходимости, в том числе посредством постоянных инклюзивных консультаций с участием многих заинтересованных сторон. Мы призываем организации, разрабатывающие передовые системы искусственного интеллекта, соблюдать Международный кодекс поведения.

Мы поручаем соответствующим министрам ускорить процесс разработки Комплексной политики Хиросимского процесса ИИ, которая включает сотрудничество на основе проектов, к концу этого года в сотрудничестве с Глобальным партнёрством по искусственному интеллекту (GPAI) и Организацией экономического сотрудничества. операции и развития (ОЭСР), а также проводить информационно-разъяснительную работу и консультации с участием многих заинтересованных сторон, в том числе с правительствами, научными кругами, гражданским обществом и частным сектором, не только входящим в "Большую семёрку", но и в странах за её пределами, включая развивающиеся и развивающиеся экономики. Мы также просим соответствующих министров разработать к концу года план работы по дальнейшему развитию Хиросимского процесса искусственного интеллекта.

Мы считаем, что наши совместные усилия в рамках Хиросимского процесса искусственного интеллекта будут способствовать созданию открытой и благоприятной среды, в которой безопасные, надёжные и заслуживающие доверия системы ИИ проектируются, разрабатываются, внедряются и используются для максимизации преимуществ технологии при одновременном снижении её рисков, для общего блага во всем мире, в том числе в развивающихся странах и странах с формирующейся рыночной экономикой, с целью преодоления цифрового неравенства и достижения охвата цифровыми технологиями. Мы также с нетерпением ждём британского саммита по безопасности искусственного интеллекта, который пройдёт 1 и 2 ноября».

Президент США подписал первый указ по регулированию ИИ — он защитит людей и поможет в развитии инноваций

Как и ожидалось, президент США Джозеф Байден (Joseph Biden) подписал первый в своём роде указ, направленный на регулирования направления технологий искусственного интеллекта. Это первое в своём роде действие со стороны американского правительства, направленное на переоценку вопросов обеспечения безопасности, рекомендаций по охране труда и гражданских прав в этой сфере.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Указ, помимо прочего, обязует разработчиков ИИ-алгоритмов предоставлять правительству данные, полученные в ходе тестирования своих продуктов до их вывода на потребительский рынок. Новый указ американского президента разделён на восемь основных частей:

  • Создание новых стандартов безопасности для ИИ. Разработка новых стандартов безопасности, в том числе, включает в себя требование для некоторых отраслевых компаний предоставлять результаты тестирования создаваемых алгоритмов федеральным властям. В дополнение к этому Министерство торговли должно создать программу по кибербезопасности, в рамках которой будут создаваться ИИ-инструменты для выявления уязвимостей в критически важном программном обеспечении.
  • Защита конфиденциальности потребителей, в том числе путём создания руководящих принципов, которые профильные ведомства смогут использовать для оценки методов обеспечения конфиденциальности в сфере ИИ.
  • Обеспечение равенства и соблюдение гражданских прав путём разработки рекомендаций для федеральных подрядчиков, чтобы ИИ-алгоритмы не способствовали дискриминации. Также планируется создание практик по расширению роли ИИ в системе правосудия, включая использование алгоритмов для вынесения приговоров, оценки рисков и прогнозирования уровня преступности.
  • Для полноценной защиты потребителей Министерству здравоохранения и социальным службам поручено создание программы для оценки потенциально опасных методов в сфере здравоохранения с использованием ИИ, а также ведение просветительской деятельности по ответственному использованию ИИ-инструментов.
  • Поддержка граждан путём подготовки отчёта о потенциальных последствиях воздействия ИИ на рынок труда и изучение способов, которые могут использоваться федеральными властями для поддержки людей, пострадавших от повсеместного внедрения ИИ-систем.
  • Содействие инновациям и конкуренции путём увеличения количества грантов на ИИ-разработки, а также модернизация критериев для оценки высококвалифицированных сотрудников из других стран, которые могли бы продолжить работу в США.
  • Работа с международными партнёрами над внедрением стандартов искусственного интеллекта по всему миру.
  • Разработка руководства по использованию и закупкам технологий на основе ИИ для федеральных агентств и ускорение процесса найма правительством квалифицированных сотрудников в этой сфере.

«Указ представляет собой самый расширенный набор действий, которые когда-либо предпринимало любое правительство в мире в отношении безопасности, защищённости и доверия к ИИ», — заявил заместитель главы администрации Белого дома Брюс Рид (Bruce Reed).

Новый указ президента США основан на обязательствах, которые ранее взяли на себя крупнейшие американские компании, ведущие разработки в сфере ИИ. Представитель администрации президента подтвердил, что 15 крупных IT-компаний из США согласились выполнять определённые обязательства для обеспечения безопасности ИИ, но «этого недостаточно», и принятый в понедельник указ является шагом на пути к конкретному регулированию развития технологий. «Несколько месяцев назад президент поручил своей команде нажать на все рычаги, и именно это делает новый указ: применение полномочий федерального правительства в широком спектре областей для управления связанными с ИИ рисками и использование его преимуществ», — приводит источник слова чиновника.

ChatGPT Plus получил поддержку файлов разных форматов и научился сам выбирать режимы работы

OpenAI внедрила новые бета-функции для подписчиков сервиса ChatGPT Plus. Среди ключевых нововведений — возможность загрузки и анализа файлов различных форматов, а также мультимодальная поддержка. Теперь система самостоятельно определяет, какой режим работы чат-бота является наиболее подходящим для пользователя, исходя из контекста диалога. Эти инновации делают индивидуальную подписку ChatGPT Plus функционально схожей с корпоративным планом ChatGPT Enterprise.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Как было отмечено выше, обновление включает в себя возможность загрузки и обработки файлов. После передачи файла в ChatGPT чат-боту требуется несколько мгновений, чтобы обработать его, а затем он может выполнять такие действия, как обобщение данных, ответы на вопросы или создание визуализации данных на основе подсказок.

Это касается не только текстовых документов, но и графических изображений. В сети Threads опубликован пример, в котором пользователь загрузил фотографию капибары и попросил ChatGPT создать на её основе изображение в стиле Pixar с использованием технологии DALL-E 3.

 Источник изображения: luokai / Threads

Источник изображения: luokai / Threads

Другой важной особенностью является мультимодальная поддержка. Теперь пользователям не нужно вручную выбирать режимы работы из выпадающего списка GPT-4. Чат-бот, опираясь на контекст общения с пользователем, самостоятельно угадывает потребности пользователя. Это значительно упрощает работу с ИИ и делает использование сервиса более интуитивным.

 Источник изображения: luokai / Threads

Источник изображения: luokai / Threads

Перечисленные функции, как отмечается, приближают стандартную индивидуальную подписку ChatGPT Plus к функциональности корпоративного плана ChatGPT Enterprise. В последнем, например, уже доступны функции для расширенного анализа данных и работы с большими объёмами информации.

Нововведения ChatGPT Plus являются значимым шагом в улучшении пользовательского опыта и расширении функциональных возможностей сервиса. Перечисленные изменения не только делают использование чат-бота более удобным и эффективным, но и открывают новые горизонты для применения ИИ в повседневной жизни и бизнес-процессах. С учётом быстрого темпа развития технологий можно ожидать, что в ближайшем будущем нас ждут ещё более радикальные и интересные изменения в этой сфере.

ИИ-чат-бот Google Bard научился показывать ответы в реальном времени и его можно оборвать на середине фразы

Чат-бот Google Bard теперь может отвечать на вопросы пользователя в режиме реального времени: если раньше он отправлял ответ, лишь когда заканчивал его формировать, то сейчас за написанием ответа можно наблюдать прямо по мере его генерации. Кроме того, появилась возможность оборвать ответ на середине фразы или на полуслове.

 Источник изображения: Google

Источник изображения: Google

Показ ответов Bard в реальном времени активируется в настройках системы, которые открываются по нажатии значка с шестерёнкой в правом верхнем углу окна: можно переключаться между опциями «Отвечать в реальном времени» и «Отвечать по завершении». Bing Chat, аналогичный чат-бот от Microsoft, также даёт ответы в реальном времени.

 Опции вывода в реальном времени и по завершении генерации. Источник изображения: 9to5google.com

Опции вывода в реальном времени и по завершении генерации. Источник изображения: 9to5google.com

Если пользователю не нравится ответ чат-бота, его можно оборвать в любой момент: когда он начинает генерировать текст, на экране над окном для запросов появляется кнопка «Пропустить ответ». По её нажатии Bard прекратит генерировать текст, а пользователь получит возможность ввести другой вопрос или получить другой ответ, не дожидаясь окончания первого.

 Кнопка «Пропустить ответ». Источник изображения: theverge.com

Кнопка «Пропустить ответ». Источник изображения: theverge.com

Пользователям также предлагается кнопка «Посмотреть другие варианты» (View other drafts), по нажатии на которую можно ознакомиться с альтернативными ответами. Предлагаемый чат-ботом текст можно изменить, выбрав «повседневную» или «профессиональную» форму. В нижней строке меню есть кнопка с логотипом Google – эта функция позволяет сверять ответы Bard с информацией в поиске.

Теперь, если отправить другому пользователю переписку с Bard, то этот пользователь увидит прилагаемые к чату изображения. Наконец, Google увеличила число писем, сводки которых чат-бот может составлять при работе с Gmail.

Samsung рассказала о технологии ISOCELL Zoom Anyplace для масштабирования кадра при видеосъёмке без потери качества

Одной из интересных новых возможностей процессора Qualcomm Snapdragon 8 Gen 3 стала поддержка функции ISOCELL Zoom Anyplace — её разработала компания Samsung для смартфонов с 200-мегапиксельными сенсорами. Это решение позволяет автоматически отслеживать движущиеся объекты при видеосъёмке и масштабировать картинку без потери качества.

 Источник изображения: samsung.com

Источник изображения: samsung.com

Технология ISOCELL Zoom Anyplace позволяет пользователю во время съёмки видео на смартфон выбрать интересующий объект, чтобы камера самостоятельно его отслеживала — фокусироваться на объекте самостоятельно больше не требуется. Функция основана на алгоритме искусственного интеллекта и поддерживается процессором Qualcomm Snapdragon 8 Gen 3. Даже если объект движется очень быстро, он остаётся в кадре, а оператору не требуется перемещать смартфон самостоятельно, значит, изображение не дёргается.

Ещё одним преимуществом ISOCELL Zoom Anyplace является динамическое масштабирование картинки прямо во время видеосъёмки: если раньше увеличенный объект проигрывал в качестве полному кадру, то с новой функцией это в обоих случаях настоящее разрешение 4K без ущерба качеству. Более того, поддерживается одновременная съёмка полной сцены и её фрагмента в высоком разрешении, то есть в большем числе ракурсов. Поддерживается и динамическое масштабирование: можно начать съёмку с «наезда» на объект, после чего постепенно уменьшить его в кадре или сделать наоборот.

Функция ISOCELL Zoom Anyplace поддерживает масштабирование без ущерба для качества: прежде цифровой четырёхкратный зум для 12,5-мегапиксельной картинки приводил к изображению с разрешением 0,78 мегапикселя (12,5 Мп / 16), но с 200-мегапиксельным сенсором таких жертв уже не требуется. Нужная оператору область выбирается из всего кадра и перерисовывается, а сенсор работает в исходном разрешении. Не потребуется и смена камеры, которая ранее производилась при масштабировании более трёхкратного — из-за этого менялись качество картинки и угол обзора. Сенсору на 200 мегапикселей это не требуется ни при двух-, ни при четырёхкратном увеличении.

Qualcomm Snapdragon 8 Gen 3 обеспечит Samsung работу ещё одной технологии под названием End-to-End (E2E) AI Remosaic. Традиционная схема съёмки включает несколько этапов: получение исходного изображения с сенсора, его обработка ISP (Image Signal Processor) и вывод результата в формате JPEG — все они выполняются последовательно. E2E AI Remosaic предполагает выстраивание и обработку изображения параллельно, то есть готовый результат получается вдвое быстрее. Пользователи делают снимки оперативнее, а качество фото страдает меньше, поскольку из-за задержек больше нет потери данных. Новые функции, вероятно, дебютируют с выходом смартфонов серии Samsung Galaxy S24 — их анонс ожидается в начале 2024 года.

Запущен открытый проект Open Empathic по созданию ИИ с распознаванием человеческих эмоций

Некоммерческая организация LAION сообщила о запуске проекта Open Empathic — открытой платформы для разработки модели искусственного интеллекта с распознаванием человеческих эмоций. К созданию массива обучающих данных привлекли добровольцев.

 Источник изображений: Gerd Altmann / pixabay.com

Источник изображений: Gerd Altmann / pixabay.com

Организация LAION (Large-scale Artificial Intelligence Open Network) приступила к работе в начале 2021 года. Её основал немецкий школьный учитель Кристоф Шуман (Christoph Schuhmann) при содействии единомышленников с сервера Discord для энтузиастов в области ИИ. LAION существует за счёт пожертвований, государственных исследовательских грантов, а также отраслевых партнёрских проектов, таких как стартап Hugging Face и компания Stable Diffusion. Последней она создавала массив данных для обучения генеративного ИИ — с изображениями и их текстовыми описаниями.

Целью проекта Open Empathic является создание ИИ, который понимает не только слова человека. «Мы стремимся, чтобы он улавливал нюансы выражений и изменения интонации, что сделает взаимодействие человека с ИИ более аутентичным и эмпатичным», — пояснил господин Шуман.

На начальном этапе проекта в LAION запустили сайт, на котором добровольцам предлагается составлять описания к видеозаписям на YouTube. На этих роликах обычно демонстрируется речь одного человека — часть видео подобрана командой LAION, а некоторые предлагают добровольцы. По каждому клипу заполняется список полей: расшифровка текста; описание изображения и звука; возраст, пол и языковой акцент героя видео; уровень эмоционального возбуждения; психологический вектор («удовольствие» или «недовольство»). Есть и технические поля, в которых предлагается указать качество звука и наличие либо отсутствие посторонних шумов. Но основное внимание уделяется эмоциональной стороне.

Добровольцы выбирают подходящие к видео эмоции из готового перечня в выпадающем списке. Авторы проекта Open Empathic говорят, что этот механизм поможет создать обширную базу эмоциональных аннотаций с учётом различных языков и культур. После отправки отчёта доброволец может повторить процесс — количество клипов для участника проекта не ограничивается. В ближайшие время LAION предполагает собрать базу из 10 тыс. записей, чтобы к следующему году её объём составил при оптимистическом сценарии от 100 тыс. до 1 млн.

Некоторые правозащитные организации ранее призывали к полному запрету на разработку и применение систем распознавания эмоций — соответствующая норма есть и в европейском «Законе об ИИ», и она не допускает внедрение таких технологий правоохранительными органами, пограничниками, на рабочих местах и в школах. От подобных проектов перед лицом недовольства общественности ранее отказались некоторые компании, включая Microsoft. Но в LAION уверены, что открытый характер проекта даёт им моральное право продолжать работу над Open Empathic — в качестве примера приводится поддерживаемая силами сообщества «Википедия».

Байден подпишет указ о контроле над нейросетями и заманивании ИИ-специалистов в США

Администрация Байдена подготовила указ об ИИ, который станет самой значительной попыткой США регулировать развивающиеся технологии, вызвавшие страх и ажиотаж во всём мире. Этот документ усилит роль правительства США как ведущего заказчика технологий. Передовые модели ИИ будут проходить оценку, прежде чем они смогут быть использованы федеральными служащими. Указ также снимет иммиграционные барьеры для высококвалифицированных специалистов.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Белый дом впервые объявил о планах принятия указа в июле, а Байден рассказал о нём в сентябре на встрече с Советом президентских экспертов по науке и технологиям в Сан-Франциско. «Этой осенью я собираюсь принять исполнительные меры, и моя администрация будет продолжать работать с двухпартийным законодательством, чтобы Америка проложила путь к ответственным инновациям в области искусственного интеллекта», — заявил Байден.

Указ будет обнародован в понедельник на мероприятии «Безопасный, надёжный и заслуживающий доверия ИИ», организованном администрацией президента США. Он будет основан на ряде добровольных обязательств в отношении ИИ, подписанных 15 компаниями, включая OpenAI, Google, Adobe и NVIDIA при посредничестве Белого дома в сентябре. Одним из важнейших пунктов является обязательство предоставлять данные о безопасности ИИ правительству и учёным.

Ожидается, что экспертная оценка больших языковых моделей будет проводиться Национальным институтом стандартов и технологий (NIST). В этом году NIST выпустил систему управления рисками, связанными с ИИ, и регулярно сотрудничает с другими государственными учреждениями в области ИИ. Федеральные правительственные агентства, в том числе Министерство обороны, Министерство энергетики и разведывательные службы, оценят возможность использования ИИ в своей работе, уделяя особое внимание укреплению национальной киберзащиты.

Установление контроля над ИИ представляет собой ключевое испытание для администрации Байдена, в свете предвыборных обещаний ограничить злоупотребления в Кремниевой долине. Три года спустя администрация добилась некоторого прогресса в снижении вреда от социальных сетей, нарушений конфиденциальности и воздействия технологий на детей. Антимонопольные органы США выиграли несколько громких исков об ограничении конкуренции против некоторых самых влиятельных компаний в технологическом секторе, включая Amazon, но также потерпели и жестокие поражения в судах.

Недавние быстрые достижения в области ИИ повысили ставки. Политики во всём мире все больше обеспокоены тем, что внедрение ИИ может значительно усилить влияние технологий на рабочие места, надзор и демократию, особенно в преддверии выборов. Ранее правительство уже предпринимало меры, чтобы добиться усиления цифрового контроля. Указ по кибербезопасности от 2021 года поручил Министерству торговли разработать стандарты для компаний, продающих услуги программного обеспечения.

Ожидается, что правительство пойдёт навстречу предложениям технологических компаний по снижению барьеров для инженеров и других высококвалифицированных рабочих на фоне жёсткой конкуренции за технические таланты. Источники утверждают, что эта работа уже ведётся. Предполагается внести изменения в программу H-1B получения виз для высококвалифицированных специалистов. Госдепартамент также запустит новую программу, ориентированную на таланты в области ИИ.

Опубликование указа произойдёт накануне международного саммита в Великобритании, посвящённого рискам, которые ИИ представляет для общества. В саммите планируют принять участие лидеры правительств, высшие руководители Кремниевой долины и представители гражданского общества. ЕС к концу года должен окончательно одобрить «Закон об искусственном интеллекте» — широкомасштабный пакет мер, направленный на защиту потребителей от потенциально опасных применений ИИ. Законодатели США все ещё находятся на ранних стадиях разработки подобного документа.

OpenAI создала команду по изучению «катастрофических» угроз ИИ, вплоть до ядерной

Ответственная за сервис ChatGPT компания OpenAI сообщила, что сформировала подразделение по оценке и исследованию моделей искусственного интеллекта на предмет защиты от того, что характеризуется как «катастрофические риски».

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Команду под названием Preparedness («боеготовность») возглавил директор Центра развёртываемого машинного обучения при Массачусетском технологическом институте Александр Мадри (Aleksander Madry) — по данным профессиональной соцсети LinkedIn, он занял этот пост в компании ещё в мае. В задачи подразделения входит отслеживание, прогнозирование и защита от опасностей, которые несут перспективные системы ИИ — от их дара убеждения (как в случае с составлением фишинговых писем) до генерации вредоносного кода. Некоторые из категорий угроз пока, к счастью, не обозначились в реальном поле: к ним отнесли химические, биологические, радиационные и ядерные.

Гендиректор OpenAI Сэм Альтман (Sam Altman) неоднократно выражал опасения, что ИИ способен «привести к вымиранию человечества», и формирование в компании соответствующего подразделения отражает эту позицию. Компания открыта и для изучения «менее очевидных» областей риска ИИ, добавил господин Альтман. Связаться с компанией для изложения своих опасений может любой желающий — авторы десяти лучших работ получат денежный приз в размере $25 тысяч или работу в OpenAI. «Представьте, что мы предоставили вам неограниченный доступ к моделям OpenAI Whisper (расшифровка речи), Voice (преобразование текста в речь), GPT-4V и DALLE·3, а вы оказались злодеем. Рассмотрим наиболее уникальные, хотя и, вероятно, потенциально катастрофически неправильные сценарии использования модели», — говорится в одном из конкурсных вопросов.

Подразделению Preparedness будет поручено сформулировать «политику разработки с учётом угроз» — документ с подробным описанием подхода OpenAI к построению инструментов оценки и мониторинга моделей ИИ, действий по снижению угроз, а также структуры управления для надзора в процессе развития моделей. Специалисты команды дополнят прочие аспекты работы OpenAI в области безопасного ИИ, уделяя особое внимание этапам до и после развёртывания модели.

Альтман и Илья Суцкевер (Ilya Sutskever), главный научный сотрудник и соучредитель OpenAI, убеждены, что ИИ с уровнем сознания выше человеческого может появиться в ближайшие десять лет, и не факт, что этот ИИ будет доброжелательным. Поэтому компания считает необходимым изучать возможности по его ограничению.

Google ужесточит модерацию ИИ-контента в Android-приложениях с 2024 года

Google установит новые требования к модерации контента для приложений на Android, использующих ИИ. С начала следующего года разработчики таких приложений должны внедрить функцию для жалоб на оскорбительный или спорный материал непосредственно в пользовательском интерфейсе. Эти изменения затронут не только чат-боты на основе ИИ, но и приложения, создающие визуальный и аудио контент. Инициатива направлена на борьбу с недопустимым контентом, в том числе с дипфейками и дезинформацией.

 Источник изображения: dassel / Pixabay

Источник изображения: dassel / Pixabay

Google уточнила, что новая политика будет применяться не ко всем приложениям с ИИ. Она коснётся чат-ботов, приложений для создания изображений, голосового и видеоконтента. Приложения, которые только хранят сгенерированный ИИ-контент или используют ИИ для обобщения текстовых материалов, останутся вне зоны действия новых правил.

Google акцентирует внимание на определённых категориях контента, требующих строжайшей модерации. В этот список входят фальшивые видео или изображения, созданные без согласия изображённых на них людей, а также записи реальных людей, применяемые в мошеннических целях.

Кроме того, компания будет особенно внимательно следить за распространением ложной или вводящей в заблуждение информации, связанной с выборами. Не менее строгий контроль установлен и для приложений, в которых генеративный ИИ используется преимущественно для сексуального удовлетворения, а также создания вредоносного кода.

В своём заявлении Google подчеркнула, что генеративный ИИ является быстро развивающейся категорией приложений, что даёт основания полагать, что компания может пересмотреть свою политику в области ИИ по мере дальнейшего развития технологии. Помимо новых правил в отношении контента, генерируемого ИИ, Google также расширила политику разрешений на использование фото- и видеоматериалов в Play Store, ограничивая доступ Android-приложений к данным.

«Фотоматериалы и видеозаписи на устройствах пользователей являются их личной и конфиденциальной информацией, требующей максимально ответственного отношения, — подчеркнула компания в своём заявлении. — Такие данные создают потенциальную уязвимость для пользователей в случае утечек или других форм эксплуатации. Ограничение доступа к ним не только повышает уровень безопасности пользователей, но и снижает нагрузку на разработчиков в части обработки чувствительной информации».


window-new
Soft
Hard
Тренды 🔥
Месячная выручка OpenAI превысила $1 млрд, спрос на вычислительные мощности остаётся ненасытным 3 ч.
Китайский брандмауэр на час обрушил HTTPS — миллионы жителей Китая остались без защищённого соединения 3 ч.
Microsoft начала расследование массового «исчезновения» SSD из Windows 11 после обновления 7 ч.
ИИ-браузер Perplexity Comet без раздумий слили мошенникам данные банковской карты 7 ч.
«Приготовьтесь к побегу»: загадочный тизер рассекретил дату выхода релизной версии Escape from Tarkov 8 ч.
Игр с FSR 4 станет куда больше: AMD выпустила FidelityFX SDK 2.0, что упростит интеграцию новейшего ИИ-масштабирования 11 ч.
Новый геймплейный трейлер раскрыл дату выхода No, I’m not a Human — паранормального хоррора о нашествии незваных Гостей в условиях конца света 11 ч.
Утечка раскрыла зарплаты и премии сотрудников Microsoft в сферах ИИ, облаков и игр 12 ч.
Похоже, Forza Horizon 6 отправит игроков в Японию — фанаты ждали этого годами 13 ч.
Google AI Mode заработает в 180 странах, но не в России 14 ч.