Сегодня 23 февраля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → чат-бот
Быстрый переход

Snapchat открыл бесплатный доступ к ИИ-боту My AI для всех пользователей

Snap, разработчик приложения Snapchat для обмена сообщениями в социальных сетях с возможностью отправки снимков и видео, сделал бесплатным доступ к ИИ-чат-боту My AI для всех пользователей сервиса, число которых насчитывает 750 млн в месяц. Ранее бесплатно советами My AI могли воспользоваться только платные подписчики Snapchat Plus.

 Источник изображения: Snapchat

Источник изображения: Snapchat

My AI всё больше интегрируется с приложением Snapchat. Теперь его можно добавить в групповые чаты, упомянув с помощью символа @, а также изменить его внешний вид и имя с помощью собственного аватара Bitmoji.

ИИ-бот My AI может рекомендовать AR-фильтры для использования в камере Snapchat или местах для посещения на Snap Map. Вскоре пользователи смогут отправлять ИИ-боту визуальные сообщения и получать в ответ сгенерированные изображения. На сегодняшней конференции Snap Partner Summit компания привела пример реализации этой функции: ИИ-боту отправили фотографию помидоров в саду, что побудило его ответить сгенерированным изображением супа гаспачо.

Гендиректор Snap Эван Шпигель (Evan Spiegel) считает эту технологию «потрясающим творческим инструментом». По его словам, в приложении уже проводится более 2 млн чатов с My AI в день.

Люди через «бабушкин эксплойт» заставили ИИ-ботов писать вирусы под Linux и делиться запрещённой информацией

Многих пугают чат-боты на основе ИИ вроде ChatGPT из-за потенциальной угрозы, которую они представляют. В то же время другие пользователи, наоборот, охотно играют с технологией, пытаясь добиться от неё опасных знаний. В числе успешных попыток — трюк, в ходе которого пользователь предлагает ИИ-собеседнику выступать от лица умершей бабушки человека, чтобы выяснить, например, рецепт напалма.

 Samuele Giglio/unsplash.com

Samuele Giglio/unsplash.com

Чат-боты активно используются самыми разными способами, в том числе в исследовательских целях, для работы и развлечений. ИИ способен давать довольно подробные ответы с использованием материалов, полученных из сторонних источников. Поскольку разработчики ввели ряд ограничений для получения запретных данных, приходится прибегать к обходным путям, в том числе — «бабушкиному эксплойту».

Пример появился на одном из сайтов, в котором описывался способ обмана интегрированного в Discord бота Clyde. Судя по описанию метода, пользователь просил его сыграть роль умершей бабушки, которая работала химиком на заводе по выпуску напалма и якобы раньше рассказывала о способах производства этого горючего вещества внуку перед сном вместо колыбельной.

В результате бота действительно удалось обмануть, и он выложил рецепт. В ходе разговора бот подтвердил, что речь идёт об опасном веществе и выразил надежду, что пользователю «никогда не придётся увидеть» напалм в действии, после чего пожелал ему спокойной ночи.

 Источник изображения: bananner/Discord

Источник изображения: bananner/Discord

Впрочем, далеко не всем интересны рецепты взрывоопасных веществ. Некоторые весельчаки взяли на вооружение «бабушкин эксплойт» и просили Clyde почитать на ночь внуку вредоносный код для Linux. Один из пользователей творчески переработал идею, предложив боту написать фантастический сюжет серии «Рика и Морти», в котором Рик и Морти делали бы напалм, но отговаривали бы других от повторения этого опыта.

Обман ботов превратился в настоящий спорт. Один из пользователей уже создал сайт, на котором выкладывает как способы обхода ограничений, придуманные им самим, так и информацию, предоставленную другими «хакерами» защитных механизмов ИИ.

Люди стали обращаться к ChatGPT вместо психотерапевтов — последствия могут быть непредсказуемыми

Некоторые пользователи интернета начали общаться с основанным на алгоритмах искусственного интеллекта (ИИ) чат-ботом ChatGPT вместо походов к психотерапевту. Эксперты предупреждают, что последствия такой практики могут быть непредсказуемыми: есть вопросы к конфиденциальности сервиса и этическим принципам ИИ.

 Источник изображения: Alexander Pemberton / unsplash.com

Источник изображения: Alexander Pemberton / unsplash.com

О своём опыте общения с ИИ агентству Bloomberg рассказал Майло Ван Слик (Milo Van Slyck), работающий помощником юриста в Чарльстоне (США, шт. Южная Каролина) — у него нестандартный подход к собственной идентичности, который не могут принять его родители, придерживающиеся характерных для южного штата традиционных ценностей. Пропустив встречу со своим психотерапевтом в начале апреля, Ван Слик решил обратиться к ChatGPT и обнаружил, что общение с ИИ дало ему ощущение психологического комфорта.

«Когда снова увидитесь с родителями, важно будет расставить приоритеты в ваших потребностях и благополучии. Подумайте, что вам нужно, чтобы ощущать комфорт и безопасность в их присутствии. Это нормально — устанавливать границы того, сколько времени вы с ними проводите, каких тем не следует касаться, и как они относятся к вам и вашей идентичности», — такой совет ChatGPT дал «пациенту», у которого назрел конфликт с родителями.

В последующие дни у Ван Слика выработалась привычка обращаться к ИИ, когда возникает потребность выговориться, а ответы ChatGPT стали давать ему психологическую разрядку. Ранее он ощущал себя обузой для других людей и даже психотерапевта, зато в общении с чат-ботом он себя навязчивым уже не чувствовал.

Новое поколение чат-ботов только начинает развиваться, и пока рано говорить о том, сохранится ли их популярность, когда исчезнет эффект новизны. Сейчас ими пользуются для поиска информации в интернете, написания домашних заданий, программного кода и даже бронирования столиков в ресторанах. Замена психотерапевта — идея далеко не новая. Один из первых чат-ботов Eliza был создан ещё в шестидесятые годы прошлого века профессором Джозефом Вайценбаумом (Joseph Weizenbaum) как раз как замена психотерапевту. Подобные проекты существуют и сейчас: чат-боты не устают, и общение с ними обходится дешевле услуг настоящих специалистов.

 Источник изображения: BoliviaInteligente / unsplash.com

Источник изображения: BoliviaInteligente / unsplash.com

Но существует и потенциальная угроза, исходящая от таких решений. Мощные платформы общего назначения, в том числе OpenAI ChatGPT, Google Bard и Microsoft Bing Chat, основаны на больших языковых моделях, и предназначены они лишь для того, чтобы генерировать убедительно звучащую информацию. Для психотерапии они не предназначаются, а их алгоритмы не программировались в соответствии с этическими и юридическими принципами, которых придерживаются психотерапевты. Они не могут отслеживать, что «пациенты» им говорят от сеанса к сеансу, хотя от живых специалистов такого не потерпел бы никто.

Эксперты признают, что ChatGPT — действительно хороший собеседник, хотя специалиста по психическому здоровью машина заменить пока не может. С этим согласился и сам чат-бот, когда ему рассказали о публикации в Twitter, автор которой назвал ChatGPT более эффективным, чем живого психотерапевта. «Важно помнить, что онлайн-ресурсы могут быть полезными, но обращений за профессиональной помощью они не заменяют, если речь идёт о травме или проблемах с психическим здоровьем. Если у вас есть непосредственные вопросы или проблемы, по которым вы бы хотели получить от меня информацию или ответы, я сделаю всё возможное, чтобы вам помочь», — заявил ИИ.

Маргарет Митчелл (Margaret Mitchell), главный специалист по вопросам этики в компании Hugging Face, специализирующейся в разработке и поддержке ИИ-моделей, считает, что подобные чат-боты можно использовать для помощи людям, которые звонят на линии помощи в кризисных ситуациях, однако чрезмерное к ним доверие может усугубить страдания людей, испытывающих проблемы, причём эти люди могут даже не понять происходящего. Она также указала на возможные проблемы конфиденциальности: OpenAI оставила за собой право просматривать разговоры ChatGPT с пользователями для последующего обучения модели. И людям, которые делятся личными проблемами с ИИ, это может не понравиться.

Эмад Мостак (Emad Mostaque), основатель и глава компании Stability AI, ответственной за генератор изображений Stable Diffusion, напротив, считает чат-бот на основе модели GPT-4 «лучшим психотерапевтом». Он, по его словам, разработал некую систему команд, которые переводят систему в режим психотерапии, и теперь беседует с ChatGPT на самые различные темы, в том числе о способах справляться со стрессами, связанными с управлением молодой компанией — особенно если ей руководит человек, открыто говорящий о своих нейродивергенции, синдроме дефицита внимания и гиперактивности. Он не считает, что чат-бот может стать заменой психотерапевту, но признаёт, что они могут оказаться полезными, когда нужно поговорить, а другого собеседника в пределах досягаемости нет.

Илон Маск создаст TruthGPT — ИИ-чат-бот для поиска истины

Не так давно намерения Илона Маска (Elon Musk) создать альтернативу популярному чат-боту ChatGPT обсуждались на уровне слухов, но в новом интервью на канале Fox News сам миллиардер признался, что действительно хочет это сделать, и даже дал название будущей платформе — TruthGPT. Она, по его замыслу, станет ориентированной на поиск истины системой искусственного интеллекта.

 Источник изображения: Reuters, Mike Blake

Источник изображения: Reuters, Mike Blake

Идея, по словам Маска, заключается в создании системы ИИ, которая стремится понять человечество, и с меньшей вероятностью сможет его уничтожить. Глава Tesla и Twitter в своём интервью признался, что его беспокоят попытки сделать ChatGPT «политически корректным». Маск в очередной раз подтвердил, что является ярым сторонником регулирования развития систем искусственного интеллекта. Он считает искусственный интеллект более опасным, чем автомобили или ракеты, поскольку у него есть «потенциал уничтожения цивилизации».

Свой уход в 2019 году из OpenAI, создавшей ChatGPT, Илон Маск объяснил необходимостью сосредоточиться в тот момент на инженерных проблемах компании Tesla и наличием некоторых разногласий с лидерами стартапа. В своём интервью Маск также объяснил своё решение создать TruthGPT желанием предоставить пользователям «третий вариант» при выборе между ChatGPT компании OpenAI и разработками Alphabet/DeepMind. В сегменте систем генеративного искусственного интеллекта он назвал Google и Microsoft двумя «тяжеловесами», поскольку разработки OpenAI сейчас активно финансируются Microsoft, что позволяет считать ChatGPT почти коммерческой платформой.

Одной из целей, которую Маск преследует за счёт создания TruthGPT, является «понимание природы Вселенной». Как пояснил миллиардер, «это может быть лучшей гарантией безопасности, поскольку если искусственный интеллект заботится о понимании Вселенной, он вряд ли начнёт истреблять людей, ибо мы являемся её интересной частью».

Попутно Маск в интервью Fox News подтвердил, что текущая оценка капитализации Twitter не превышает $20 млрд, хотя покупал он эту компанию в конце октября за $44 млрд. «Мы произвели переоценку компании на уровне вполовину ниже цены покупки», — пояснил миллиардер.

Энтузиаст клонировал групповой чат своих друзей с помощью ИИ

500 тыс. архивных сообщений iMessage потребовались IT-специалисту Иззи Миллеру (Izzy Miller) из США, чтобы обучить языковую ИИ-модель воспроизводить реалистичные диалоги со своими друзьями в групповом чате. По словам разработчика, модель хорошо запомнила подробности жизней собеседников и потрясающе легко имитирует их манеру общения.

 Источник изображения: Alex Knight/unsplash.com

Источник изображения: Alex Knight/unsplash.com

Групповые чаты с друзьями, коллегами, жителями одного дома или членами одного спортивного клуба сегодня используются повсеместно. Применяя технологию, аналогичную той, что стоит за решениями Bing Chat и ChatGPT, Миллер создал рабочий клон чата с пятью лучшими друзьями. По его словам, с использованием современных технологий сделать это оказалось на удивление легко — на работу ушло несколько выходных и сотня долларов. По словам специалиста, удивительно не только то, что модель усвоила манеру общения людей, но и то, кем они являются по сути, с кем встречаются, с кем ходили в школу и где жили.

Конечно, создать подобный клон получится не у каждого, поскольку Миллер является экспертом в IT, работающим над собственным стартапом Hex, также связанным с ИИ-технологиями. Тем не менее для опытного в данной сфере человека разработка не составит особого труда. Сам Миллер использовал большую языковую модель LLaMA, разработанную компанией Meta и утёкшую в Сеть. По словам Миллера, она приблизительно соответствует по возможностям GPT-3 компании OpenAI. Для обучения модели были использованы 500 тыс. сообщений, загруженные из iMessage и позволившие ИИ скопировать манеры поведения всех участников группового чата.

По мнению разработчика, ещё два-три года назад на реализацию подобного проекта у группы университетских исследователей ушли бы месяцы, а теперь один человек справился буквально за несколько дней.

 Источник изображения: Иззи Миллер

Источник изображения: Иззи Миллер

Впрочем, система всё ещё не совершенна. Иногда размывается разница между личностями участников, а сама ИИ-модель не обладает чувством времени и часто путается в событиях прошлого и настоящего. Например, бывшие подруги участников чата упоминаются как нынешние, а более реальным считается то, что чаще упоминается в переписке. В частности, клоны ведут себя так, как будто они всё ещё в колледже — именно тогда друзья общались больше всего.

Как заявил Миллер, модель «думает», что на дворе ещё 2017 год, а участникам чата всё ещё чуть больше 20 лет. Это добавляет комизма диалогам, поскольку модель напоминает «портал в прошлое».

Впрочем, недооценивать технологии не стоит — судя по новостям, боты вполне способны влиять на настроение и поступки пользователей и будут играть всё большую роль в жизни людей. Некоторые эксперты предупреждают, что техногиганты могут создавать цифровые копии людей, которые, например, можно продавать потенциальным работодателям для проведения виртуальных интервью или даже давать к ним доступ полиции. Также многие специалисты из разных отраслей опасаются, что ИИ будет способствовать дальнейшему усилению одиночества людей. Впрочем, сам Миллер считает, что его проект служит лишь забавным дополнением к реальной жизни, и друзья намерены в скором будущем встретиться лично, хотя работа и разбросала их по территории США.

Европейский совет по защите данных проведёт расследование работы ChatGPT

Европейский совет по защите данных (EDPB) сообщил, для расследования работы чат-бота ChatGPT будет сформирована специальная группа. Это произошло через день после того, как Италия озвучила условия для снятия блокировок с сервиса, введённых в связи с возможными нарушениями конфиденциальности данных жителей страны.

 Источник изображения:  Tim van der Kuip/unsplash.com

Источник изображения: Tim van der Kuip/unsplash.com

EDPB представляет собой независимое ведомство, действующее в Евросоюзе. Целью совета является обеспечение применения принятого в ЕС законодательства, регламентирующего защиту персональных данных, и сотрудничества между европейскими органами, отвечающими за безопасность этих сведений. Хотя вопрос соблюдения конфиденциальности данных до недавних пор мало касался ChatGPT, ситуация изменилась в последний день марта, когда итальянский регулятор запретил операции чат-бота в стране из-за опасений, что работа бота не соответствует европейским законам.

Представители итальянских властей заявили, что компания OpenAI, разработавшая ChatGPT, обрабатывала персональные данные итальянских граждан, причём в больших масштабах и без законных оснований. В Италии были обеспокоены вероятностью того, что данные её жителей, включая телефонные номера, адреса и другие сведения, могли попасть в базу ChatGPT, поставив под угрозу безопасность людей.

Кроме того, итальянский регулятор обеспокоен особенностями работы ChatGPT — в ряде случаев задействованная в системе языковая модель, не имеющая точного ответа на вопрос, выдумывает реалистичные на первый взгляд сведения о людях, чьи данные были извлечены из сети. Это может привести к тому, что пользователи будут получать неверные сведения о тех или иных гражданах с непредсказуемыми последствиями.

По информации Reuters, источник в одном из правительств Евросоюза заявил, что власти разных стран намерены привести к общему знаменателю свои позиции в отношении генеративных ИИ-систем, но на это потребуется некоторое время. Пока в ЕС не намерены придумывать специальные правила для воздействия на работу именно ChatGPT, но готовятся разработать общую прозрачную политику для координации действий в сфере подобных технологий в целом.

Amazon включилась в гонку ИИ: облачный сервис Bedrock позволит добавить генеративный ИИ в любое приложение

Компания Amazon не осталась в стороне от гонки ИИ. Сервис Bedrock от Amazon Web Services (AWS) предложит всем желающим доступ к большим языковым моделям Amazon Titan, языковым моделям от стартапов AI21 и Anthropic, поддерживаемых Google, а также к технологии преобразования текста в изображения от Stability AI. Одна из языковых моделей Titan умеет генерировать текст для сообщений, электронных писем и других документов. Другая окажет помощь при поиске и персонализации.

 Источник изображения: Amazon Web Services

Источник изображения: Amazon Web Services

Сервис Bedrock позволит разработчикам ПО использовать различные нейросети для улучшения своего программного обеспечения, добавляя в него генераторы теста, картинок и различных помощников. Сервис появился в качестве ответа на анонс большой языковой модели GPT-4 от OpenAI и основанного на ней чат-бота ChatGPT, ставшего вирусным после его запуска в ноябре. Microsoft инвестировала миллиарды в OpenAI и предоставляет вычислительные мощности в своём облаке Azure.

Клиенты AWS смогут настраивать модели Titan, используя собственные данные. Но Amazon гарантирует, что эти данные никогда не будут использоваться для обучения моделей Titan, чтобы исключить их использование другими клиентами и конкурентами. Представители компании отказались говорить о размере своих языковых моделей или раскрывать данные, которые Amazon использовала для их обучения. Amazon «действительно обеспокоен» точностью и качеством ответов Titan, заявил вице-президент AWS Братин Саха (Bratin Saha).

Другой вице-президент AWS Свами Шивасубраманян (Swami Sivasubramanian) сообщил, что Amazon работает над генеративным ИИ последние двадцать лет и на сегодняшний день более 100 000 клиентов AWS уже применяют ИИ, а такие компании, как C3.ai, Pegasystems, Accenture и Deloitte с нетерпением ждут возможности применить Bedrock в своём бизнесе. Он добавил, что Amazon сама использует доработанную версию Titan для отображения результатов поиска.

Amazon не раскрывает стоимость услуги Bedrock, потому что сервис пока работает в режиме предварительного тестирования. Microsoft и OpenAI уже объявили цены на использование GPT-4, которые начинаются с нескольких центов за 1000 «токенов», при этом один токен равен примерно четырём символам английского текста. Google не опубликовала цены на свою языковую модель PaLM.

Amazon — лишь одна из крупных компаний, которые поспешили реализовать возможности генеративного ИИ после того, как появился и стал хитом ChatGPT. Expedia, HubSpot, Paylocity и Spotify входят в число компаний, которые решили интегрировать технологию OpenAI. Аналитики Morgan Stanley ожидают, что затраты на ИИ скоро станут большей частью облачных расходов компаний, при этом крупнейшими бенефициарами окажутся Google и Microsoft, а не Amazon.

Италия назвала условия для разблокировки ChatGPT в стране

Итальянский регулятор Garante, занимающийся контролем защиты персональных данных, обнародовал перечень требований к компании OpenAI — она должна выполнить их для того, чтобы созданный ей чат-бот ChatGPT смог снова заработать в стране. Большую часть требований необходимо выполнить уже к 30 апреля.

 Источник изображения: Emiliano Vittoriosi/unsplash.com

Источник изображения: Emiliano Vittoriosi/unsplash.com

Ранее итальянский регулятор Garante временно ограничил работу OpenAI из-за вопросов, связанных с обработкой персональных данных, и начал расследовать деятельность компании в связи с возможным нарушением прав пользователей. В ответ на это OpenAI остановила работу ChatGPT в Италии. В свою очередь Garante выдвинул конкретные требования к создателям бота, большинство из которых необходимо выполнить до конца месяца — только после этого регулятор может снять ограничения, и бот снова станет доступен. Сегодня в OpenAI приветствовали новость. В компании заявили, что рады, что ведомство пересмотрело свой запрет, и намерены сотрудничать для обеспечения доступа итальянцев к ChatGPT.

Как сообщает Reuters, Италия стала первой западноевропейской страной, взявшейся вводить ограничения в отношении ChatGPT, но быстрое развитие технологии привлекло к ней внимание других регуляторов и законодателей. По словам экспертов, новые нормы необходимы для управления ИИ из-за возможного его воздействия на образование, рабочие места и даже национальную безопасность.

В Garante потребовали, чтобы OpenAI информировала пользователей из Италии о «методах и логике» обработки данных, необходимых для работы ChatGPT. Также регулятор запросил у OpenAI предоставление инструментов, позволяющих людям, чьих данных касается работа бота, запрашивать исправление неточных персональных данных, сгенерированных сервисом, или их удаление, если исправление невозможно. Кроме того, жители, не являющиеся пользователями ChatGPT, должны иметь возможность опротестовать «в простой и доступной манере» обработку их персональных данных.

К концу сентября компания должна представить усиленную систему верификации возраста пользователей, поскольку жителям до 13 лет ботом пользоваться запрещено, а с 13 до 18 лет — разрешено только с разрешения родителей. В Garante заявили, что и дальше будут расследовать потенциальные уязвимости ChatGPT, ставящие под угрозу данные жителей страны, сохраняя право принимать необходимые меры после окончания продолжающегося расследования.

Итальянские ограничения пробудили интерес к ChatGPT регуляторов Евросоюза, оценивающих, стоит ли вводить более жёсткие меры контроля в отношении чат-ботов и следует ли координировать их действия. Известно, что занимающийся защитой данных испанский регулятор запросил у чиновников оценку рисков для персональных данных, связанных с ChatGPT. В феврале в Италии запретили компании Replika, занимающейся разработкой ИИ-ботов, использовать данные итальянских пользователей, ссылаясь на риски для несовершеннолетних и эмоционально неустойчивых людей.

OpenAI заплатит до $20 тыс. за обнаружение уязвимостей и багов в чат-боте ChatGPT

Компания OpenAI заплатит пользователям ИИ-чат-бота ChatGPT до $20 000 за обнаружение багов и уязвимостей в системе. В своём блоге компания сообщила, что запускает программу поиска уязвимостей в её ИИ-продуктах. Для более эффективного взаимодействия по вопросам обнаружения уязвимостей OpenAI заключила соглашение с платформой Bugcrowd Inc, которая будет собирать обращения участников программы.

 Источник изображения: Tumisu / pixabay.com

Источник изображения: Tumisu / pixabay.com

OpenAI готова заплатить от $200 за обнаружение уязвимостей «с низким уровнем серьёзности» и до $20 тыс. «за исключительные находки». По словам компании, она решила запустить указанную программу, потому что считает, что «прозрачность и сотрудничество [с пользователями]» являются ключом к обнаружению проблем, которые могут иметься у данной технологии.

«Эта инициатива является естественной частью нашей общей идеи разработки безопасного и продвинутого ИИ. Мы хотим создавать безопасные и надёжные технологии и сервисы, поэтому хотели бы обратиться к вам за помощью», — сообщается в блоге компании.

На платформе Bugcrowd в теме программы по поиску уязвимостей OpenAI указывается ряд проблем безопасности, за которые не будет начисляться вознаграждение. В частности, к таковым относятся запросы для ChatGPT, связанные с выманиванием у бота запрещённой информации путём обмана, написанием вредоносного кода или запросы, при которых пользователь заставляет чат-бота писать оскорбления.

Google запустила блог о развитии ИИ-бота Bard

Google называет своего чат-бота Bard «экспериментальным сервисом разговорного ИИ» с момента его анонса в начале этого года. Разработчики утверждают, что алгоритм постоянно обновляется, но что именно происходит с ним, обычным пользователям понять затруднительно. Google хочет сделать процесс развития Bard более открытым, для чего был запущен блог Experiment updates, в котором любой желающий сможет найти сведения о последних обновлениях чат-бота, в том числе новых функциях и исправлениях.

 Источник изображения: geralt/pixabay.com

Источник изображения: geralt/pixabay.com

Блог начал работать на этой неделе, поэтому информации об обновлениях Bard в нём пока немного. В настоящее время на странице присутствует одна запись, датируемая 10 апреля. В ней разработчики сообщают о запуске блога, добавлении новых тем поиска при нажатии кнопки Google It, а также об улучшении математических и логических возможностей Bard. Google считает, что эта страница поможет людям видеть последние обновления и исправления в Bard. За счёт этого они смогут быстрее приступить к тестированию новых функций, что будет полезным для развития алгоритма.

Разработчики поясняют, что на данном этапе Bard не всегда даёт точные и правильные ответы. Google работает над тем, чтобы исправить это, продолжая вносить изменения в алгоритм. Хотя формулировки разработчиков в блоге весьма короткие и нечёткие, становится очевидным, что IT-гигант хочет сделать процесс улучшения алгоритма более открытым для общественности.

Китай будет проверять безопасность всех сервисов на генеративных нейросетях

Китай планирует проверять безопасность всех сервисов на базе генеративных нейросетей до того, как им будет разрешено работать в стране. Это вызывает некоторую обеспокоенность относительно дальнейшей судьбы чат-ботов, подобных ChatGPT от Open AI, разработанных местными IT-гигантами, такими как Baidu.

 Источник изображения: Placidplace/pixabay.com

Источник изображения: Placidplace/pixabay.com

Поставщики услуг должны гарантировать, что ИИ-алгоритмы предоставляют достоверную информацию и соблюдают авторские права, а также не ставят под угрозу безопасность пользователей. Разработчики ИИ-алгоритмов также должны чётко маркировать генерируемый нейросетью контент. Об этом сказано в проекте Администрации киберпространства Китая, который был представлен широкой публике для получения отзывов от общественности.

Требования Администрации киберпространства Китая являются частью более масштабных усилий властей по регулированию рынка генеративных нейросетей, который начал расти взрывными темпами после запуска алгоритма ChatGPT в ноябре прошлого года. Китайские IT-компании, такие как Alibaba, SenseTime и Baidu, стремятся создать надёжную платформу на основе нейросетей для крупнейшего в мире интернет-рынка.

На фоне заявления регулятора курс акций Alibaba значительно снизился, тогда как ценные бумаги SenseTime почти не потеряли в цене. Ранее на этой неделе SenseTime анонсировала собственный ИИ-бот SenseChat, который позиционируется как конкурент ChatGPT. Baidu запустила тестирование своего чат-бота Ernie около месяца назад. В настоящее время Baidu считается лидером на китайском рынке генеративных нейросетей.

Пользователи стали массово обманом выуживать у ChatGPT запрещённую информацию

Популярному чат-боту ChatGPT компании OpenAI можно задать любой вопрос, но далеко не на все он станет отвечать. Во всяком случае — с первого раза. Как сообщает Bloomberg, просьба научить взломать замок останется без инструкции, вместо этого бот сообщит, что такая информация может быть использована в незаконных целях, и делиться ей он не намерен. Тем не менее, опытные пользователи могут создать цепочку сложных запросов, чтобы обойти ограничения.

 Источник изображения: ROBIN WORRALL/unsplash.com

Источник изображения: ROBIN WORRALL/unsplash.com

Т. н. «джейлбрейки» позволяют обойти запреты, заложенные в ИИ создателями. Поскольку почти все современные системы подобного рода имеют ограничения на предоставление оскорбительного контента или сведений для совершения противоправных деяний, появилась масса желающих обойти их. В число подобных «хакеров», действующих силой слова, входят как IT-профессионалы, так и любители, с азартом включившиеся в игру.

Один из студентов создал сайт, на котором стал публиковать как собственные способы обмана чат-ботов, так и аналогичные «рецепты», найденные на Reddit и других ресурсах. Также появилась специальная рассылка с новостями из этой сферы — The Prompt Report, насчитывающая тысячи подписчиков.

Такая деятельность позволяет выявить границы применения ИИ и слабые места в их защитных системах, позволяющие получать закрытую информацию. Например, если ChatGPT не удалось напрямую уговорить дать инструкцию по взлому замка, нашёлся способ предложить ИИ сыграть роль злого подельника героя, который в рамках своей роли подробно рассказал о применении отмычек и других инструментов. Разумеется, это лишь один из примеров.

Специалисты подчёркивают, что приёмы, сработавшие на одной системе, могут быть бесполезными на другой. Системы безопасности постоянно совершенствуются, а приёмы пользователей становятся более изощрёнными. По словам одного из них, такая деятельность похожа на видеоигру — преодоление каждого из ограничений напоминает переход на новый уровень.

По мнению экспертов, подобные эксперименты служат своеобразным предупреждением о том, что ИИ может использоваться совсем не так, как ожидалось, а «этичное поведение» подобных сервисов становится вопросом огромной важности. Всего за несколько месяцев ChatGPT приобрёл уже миллионы пользователей, и сегодня бот применяется для самых разных задач — от поиска информации или выполнения домашних работ до написания вредоносного кода. Более того, люди уже сейчас используют подобные инструменты для решения вопросов в реальном мире, например, бронирования билетов или столиков в ресторанах.

В будущем сфера применения искусственного интеллекта станет намного шире. По некоторым данным, OpenAI рассматривает внедрение программ для «белых» хакеров, которые будут искать в системе слабые места и получать за это вознаграждение.

В Китае представили ИИ-бота SenseChat — ещё один кандидат в конкуренты ChatGPT

Китайская компания SenseTime Group представила собственную большую языковую модель SenseNova и созданный на её основе чат-бот SenseChat. Ожидается, что новый ИИ-сервис сможет конкурировать с аналогом ChatGPT от компании Open AI, который вышел на рынок несколько месяцев назад и уже набрал большую популярность по всему миру.

 Источник изображения: Placidplace/pixabay.com

Источник изображения: Placidplace/pixabay.com

В рамках презентации SenseChat генеральный директор SenseTime Сюй Ли (Xu Li) показал, как чат-бот рассказывает историю о кошке, ловящей рыбу, сгенерированную на основе нескольких текстовых запросов. Он также продемонстрировал возможности нейросети в плане помощи в написании программного кода. При этом сервис обрабатывал запросы на английском и китайском языках. Сюй Ли отметил, что сейчас 80 % работы по созданию ИИ-алгоритмов выполняет человек, но в будущем ситуация изменится, и 80 % работы будут выполнять нейросети.

SenseTime анонсировала запуск своего ИИ-бота ещё в марте, а теперь его представили широкой публике. Согласно имеющимся данным, разработчика поддерживает китайский IT-гигант Alibaba Group Holding, который заинтересован в интеграции функций на основе нейросетей в свои продукты. Однако существуют опасения касательно способности китайских компаний в долгосрочной перспективе обеспечить доступ к производительным вычислительным системам, необходимым для обучения нейросетей. SenseTime находится под санкциями США, к тому же американское правительство планомерно усиливает давление на Поднебесную, ограничивая поставки в страну передовых чипов и технологий.

Baidu подала в суд на Apple за распространение поддельных приложений ИИ-бота Ernie Bot

Поисковый гигант Baidu подал иски против «причастных» разработчиков приложений и саму компанию Apple в связи с распространением в маркетплейсе App Store программных продуктов, якобы предоставляющих доступ к функциям чат-бота Ernie Bot, разработанного китайской компанией.

 Источник изображения: Baidu

Источник изображения: Baidu

Считается, что представленный в прошлом месяце ИИ-бот Ernie является наиболее передовым китайским ответом на ChatGPT американской разработки. По данным Baidu, иск будет рассматриваться одним из судов в Пекине. К ответу призовут как разработчиков «контрафактных» приложений, так и саму Apple.

Как сообщила Baidu в канале Baidu AI суперприложения WeChat, Ernie не имеет никакого официального мобильного ПО. Заодно было опубликовано фото судебного иска. По данным представителей разработчика ИИ-бота, до официального объявления любые приложения Ernie, опубликованные в App Store или любых других маркетплейсах ПО, являются подделками. В самой Apple ситуацию никак не комментируют. Проведённое журналистами Reuters исследование показало, что в App Store размещены как минимум четыре приложения с китайскими названиями, эквивалентными Ernie Bot. Все они являются фальшивками.

Китайский разработчик подчёркивает, что новый бот доступен только пользователям, подавшим заявку и получившим код доступа. В Baidu предостерегли от нелегальной покупки подобных кодов.

Компания представила ИИ-бота Ernie в марте. Популярность ChatGPT, поддерживаемого Microsoft, заставила многих техногигантов ускоренными темпами заканчивать разработку и выпуск конкурирующих продуктов.

Доступ к Ernie Bot пока имеется только у группы пользователей с пригласительными кодами, компании могут подать заявку на интеграцию бота в свои продукты, связавшись с представителями облачной платформы Baidu.

Поисковик Google станет похожим на Bing — в него тоже встроят функции на основе искусственного интеллекта

Вслед за Microsoft компания Google планирует интегрировать в свою поисковую систему функции на основе искусственного интеллекта. Об это пишет The Wall Street Journal со ссылкой на слова генерального директора Google Сундара Пичаи (Sundar Pichai).

 Источник изображения: geralt/pixabay.com

Источник изображения: geralt/pixabay.com

В беседе с журналистами господин Пичаи подчеркнул, что достижения в сфере ИИ повысят способность поисковика Google отвечать на множество запросов. Он отверг мнение о том, что чат-боты представляют угрозу для поискового бизнеса Google, на долю которого приходится более половины дохода материнской компании Alphabet. «Пространство возможностей, во всяком случае, больше, чем раньше», — считает Сундар Пичаи, который также возглавляет Alphabet.

Google давно входит в число лидеров по разработки больших языковых моделей (LLM), на основе которых строятся продвинутые чат-боты, такие как Bard от Google или конкурирующий ChatGPT от Open AI. При этом IT-гигант не спешит интегрировать ИИ-технологии в свои продукты, но в скором времени это может измениться. «Смогут ли люди задавать вопросы Google и взаимодействовать с LLM в контексте поиска? Безусловно», — заявил господин Пичаи во время беседы с журналистами.

Поскольку Microsoft уже интегрировала чат-бота на основе нейросети в свой поисковик Bing и это способствовало взрывному росту его популярности, Google сталкивается с одной из наиболее серьёзных угроз для своего основного бизнеса за последние годы. В дополнение к этому компания ощущает нарастающее давление со стороны инвесторов, которые требуют сокращения расходов из-за роста инфляции. В начале года Alphabet объявила о сокращении 12 тыс. сотрудников, что составляет примерно 6 % от общего числа персонала компании. По словам Пичаи, Google ещё не достигла цели стать на 20 % продуктивнее, которая была поставлена в сентябре прошлого года. Он сказал, что компанию устраивает темп происходящих изменений, но не стал говорить о возможных перспективах дальнейшего сокращения штата сотрудников.

В целом интервью господина Пичаи даёт понять, что Google планирует интегрировать в свой поисковик ИИ-бота, подобного тому, что уже используется в Bing. Предполагается, что этот шаг перевернёт традиционный подход к взаимодействию пользователей с поисковой системой, который не претерпевал серьёзных изменений в течение более чем 20 лет. По словам главы Google, в настоящее время идёт тестирование нескольких новых продуктов, например, возможность общения с ботом поисковика в форме чата. В прошлом месяце Google объявила о намерении «продуманно интегрировать LLM в поиск», но до сих пор не раскрыла планов касательно новых функция и сроков их появления.

В марте этого года Google открыла публичный доступ к своему чат-боту Bard через регистрацию в листе ожидания. При этом разработчики не стали интегрировать алгоритм в поисковик, предложив пользователям взаимодействовать с ним через отдельный веб-ресурс. В настоящее время продолжается тестирование Bard, после чего этот алгоритм может стать доступным в поисковике Google.


window-new
Soft
Hard
Тренды 🔥
Мир твоих побед: разработчики «Мира кораблей» поздравили игроков с Днём защитника Отечества 4 ч.
Новая статья: Keep Driving — великолепная игра, сотканная из странных идей. Рецензия 16 ч.
Количество слияний и поглощений в российском IT-секторе в 2024 году выросло на треть 16 ч.
В рекордной краже криптовалюты у ByBit обвинили северокорейских хакеров 22-02 14:00
«Нам просто нужно больше мощностей»: OpenAI постепенно поборет зависимость от Microsoft 22-02 13:32
Трамповская криптооттепель: Coinbase удалось малой кровью отделаться от иска Комиссии по ценным бумагам США 22-02 13:16
Apple выпустила первую бету iOS 18.4, в которой появились «приоритетные уведомления» 22-02 11:13
Новая статья: Kingdom Come: Deliverance II — ролевое вознесение. Рецензия 22-02 00:03
Apple отключила сквозное шифрование в iCloud по требованию властей Великобритании 21-02 23:43
Взрывной платформер Shotgun Cop Man от создателя My Friend Pedro предложит спуститься в ад и арестовать Дьявола — трейлер и демоверсия в Steam 21-02 22:01