Опрос
|
Быстрый переход
Разработана система защиты голоса от создания дипфейков
29.11.2023 [15:49],
Павел Котов
Технологии подделки голоса при помощи искусственного интеллекта являются довольно опасным инструментом — они способны правдоподобно воспроизвести человеческий голос даже по короткому образцу. Не допустить создание искусной подделки сможет предложенный американским учёным алгоритм AntiFake. ![]() Источник изображения: Gerd Altmann / pixabay.com Дипфейки представляют собой достаточно опасное явление — с их помощью можно приписать знаменитому артисту или политику высказывание, которого он никогда не делал. Были также прецеденты, при которых злоумышленник звонил жертве и голосом друга просил срочно перевести деньги в связи с некой чрезвычайной ситуацией. Доцент кафедры компьютерных наук и инженерии Вашингтонского университета в Сент-Луисе Нин Чжан (Ning Zhang) предложил технологию, которая значительно усложняет создание голосовых дипфейков. Принцип работы алгоритма AntiFake состоит в формировании условий, при которых системе ИИ оказывается намного сложнее считывать ключевые характеристики голоса при записи разговора реального человека. «В инструменте используется техника состязательного ИИ, которая изначально применялась киберпреступниками, но теперь мы направили её против них. Мы немного искажаем записанный аудиосигнал, создавая возмущения ровно в той мере, чтобы для человека он звучал так же, а для ИИ — совершенно иначе», — прокомментировал свой проект господин Чжан. ![]() Источник изображения: wustl.edu Это значит, что при попытке создать дипфейк на основе изменённой этим способом записи сгенерированный ИИ голос не будет похож на голос человека в образце. Как показали проведённые испытания, алгоритм AntiFake на 95 % эффективен для предотвращения синтеза убедительных дипфейков. «Что будет с голосовыми ИИ-технологиями дальше, я не знаю — новые инструменты и функции разрабатываются постоянно, — но всё же считаю, что наша стратегия использования техники противника против него самого так и останется эффективной», — заключил автор проекта. Скарлетт Йоханссон подала в суд на приложение, в рекламе которого ИИ скопировал её голос
02.11.2023 [10:36],
Павел Котов
Американская актриса Скарлетт Йоханссон (Scarlett Johansson) подала в суд на разработчика приложений с технологиями искусственного интеллекта за несанкционированное использование её имени и образа в рекламе, пишет Variety. Ролик рекламировал приложение Lisa AI: 90s Yearbook & Avatar и содержал сгенерированную ИИ версию голоса актрисы. ![]() Источник изображения: disney.com На видео продолжительностью 22 секунды показали Йоханссон за кулисами съёмок ленты «Чёрная вдова», где она действительно говорит: «Как дела, ребята? Это Скарлетт, и я хочу, чтобы вы пошли со мной». Но затем её изображение пропадает, а сгенерированный ИИ голос, который похож на её собственный, продолжает: «Оно не ограничивается лишь аватарами. С ИИ вы можете создавать изображения с текстом и даже видео. Думаю, вы не должны это пропустить». В нижней части экрана разработчик приложения Convert Software разместил текст: «Изображения созданы Lisa AI. Они не связаны с этим человеком». Представители Йоханссон подчеркнули, что актриса никогда не была лицом приложения, и её адвокат Кевин Йорн (Kevin Yorn) «прорабатывает ситуацию в правовом поле». «Мы не приемлем таких вещей с беспечностью. В соответствии с нашим обычным порядком действий мы решим эту проблему всеми доступными средствами правовой защиты», — заявил юрист. YouTube разрабатывает ИИ-инструмент для создания музыкальных треков с голосами известных вокалистов
19.10.2023 [20:00],
Сергей Сурабекянц
Согласно сообщению Bloomberg, YouTube в настоящее время разрабатывает инструмент на базе ИИ, который позволит пользователям имитировать голоса известных музыкантов при записи звука. В настоящее время сервис пытается получить у музыкальных компаний права на обучение своей нейросети на песнях из их музыкальных каталогов. Ни один крупный звукозаписывающий лейбл пока не дал согласия, но источники утверждают, что переговоры между сторонами продолжаются. ![]() Источник изображения: Pixabay В прошлом месяце YouTube представил несколько новых инструментов на базе ИИ для авторов, в том числе созданные с помощью нейросети фоновые изображения и видео. Компания планировала включить в эти объявления и новый инструмент для клонирования голосов известных музыкантов, но не смогла вовремя получить разрешения от правообладателей. Музыка, сгенерированная ИИ, в настоящее время находится в юридической «серой» зоне из-за трудностей с установлением прав собственности на песни, которые воспроизводят уникальный голос исполнителя, но не используют напрямую защищённых текстов или аудиозаписей. В настоящее время с точки зрения существующего законодательства неясно, является ли обучение генеративного ИИ клонированию голоса на музыкальном каталоге звукозаписывающей компании нарушением авторских прав. Тем не менее, это не подорвало интерес к разработке и обучению «музыкальных» нейросетей — в этом году Meta✴, Google и Stability AI выпустили ИИ-инструменты для создания музыки. YouTube позиционирует себя в качестве партнёра, который поможет отрасли двигаться вперёд с помощью технологии генеративного ИИ, которую, по данным Bloomberg, приветствуют музыкальные компании. Хотя Alphabet в течение последнего года активно продвигала свои разработки в области генеративного ИИ, далеко не факт, что ей удастся на законных основаниях предоставить создателям YouTube инструменты клонирования голоса на базе ИИ, не вызвав многочисленных исков о нарушении авторских прав. В настоящее время неясно, помогут ли дискуссии об ИИ-инструменте клонирования голоса YouTube решить возникающие претензии о нарушении авторских прав от звукозаписывающих компаний на фоне увеличения количества треков, созданных с помощью ИИ и подражающих популярным музыкантам. Широкое внимание к этой проблеме было привлечено в начале года, когда созданная ИИ песня Drake стала вирусной в интернете. В то время как некоторые музыканты, такие как Граймс (Grimes), поддерживают музыку, генерируемую ИИ, многие другие, в том числе Стинг (Sting), Джон Ледженд (John Legend) и Селена Гомес (Selena Gomez), призывают к введению правил, защищающих их голоса от копирования. Созданная с помощью ИИ песня Дрейка и The Weeknd не получит премию «Грэмми»
10.09.2023 [07:31],
Владимир Фетисов
Ранее СМИ писали, что песня Heart on My Sleeve, сгенерированная с помощью нейросети на основе вокала Дрейка и The Weeknd, будет претендовать на получение престижной премии «Грэмми». Теперь же, президент Национальной академии искусства и науки звукозаписи Харви Мейсон (Harvey Mason Jr.) заявил, что трек не будет номинирован. ![]() Источник изображения: Elice Moore / unsplash.com Господин Мейсон опроверг своё же предыдущее заявление относительно того, что упомянутый трек может получить «Грэмми», поскольку он создавался с участием человека. Ранее на этой неделе Мейсон в беседе с журналистами заявил, что песня Heart on My Steeve «полностью соответствует требованиям, потому что её написал человек». «Позвольте мне быть предельно ясным: несмотря на то, что она была написана человеком, вокал не был получен законным путём, не было получено одобрение на использование вокала от лейбла или исполнителей, песня не является коммерчески доступной, и поэтому она не может быть включена в список», — рассказал Мейсон в беседе с журналистами. Напомним, автором композиции стал человек с ником Ghostwriter, который использовал текст собственного сочинения и сгенерированные нейросетью голоса известных исполнителей. Сообщалось, что трек будет претендовать на получение награды сразу в двух номинациях: «Лучшая рэп-песня» и «Песня года» (обе премии традиционно присуждаются автору композиции, а не её исполнителю). Несмотря на то, что Heart on My Sleeve не получит престижную премию, Мейсон дал понять, что в будущем на получение «Грэмми» могут быть номинированы композиции, созданные с помощью искусственного интеллекта. Создано ПО, способное обмануть систему голосовой аутентификации в 99 случаях из 100
28.06.2023 [20:06],
Владимир Мироненко
Учёные-компьютерщики из Университета Ватерлоо создали программное обеспечение для дипфейка голосов, позволяющее в 99 % случаев обмануть систему голосовой аутентификации. Всё, что нужно при использовании этого ПО с поддержкой машинного обучения для клонирования голоса — пять минут аудиозаписи голоса человека. ![]() Источник изображения: uk.pcmag.com Ведущий автор исследования Андре Кассис (Andre Kassis), кандидат наук в области компьютерной безопасности и конфиденциальности из Университета Ватерлоо, объяснил, как работает голосовая аутентификация: «При регистрации с использованием голосовой аутентификации вас просят повторить определённую фразу своим голосом. Затем система извлекает уникальную голосовую подпись (голосовой отпечаток) из этой предоставленной фразы и сохраняет её на сервере <..> При попытке аутентификации в будущем вас попросят сказать другую фразу, а извлечённые из неё характерные особенности сравниваются с голосовым отпечатком, сохранённым в системе, чтобы определить, следует ли предоставлять доступ». Как сообщается, даже меры противодействия спуфингу, используемые системами голосовой аутентификации, не позволяют заметить подмену, поскольку программа компьютерщиков из Университета Ватерлоо, удаляет маркеры из дипфейкового аудио, которые «выдают, что оно было сгенерировано компьютером». Сделав шесть попыток обойти систему аутентификации, учёные в 99 % добились успеха. Созданием поддельного голоса для обмана системы голосовой аутентификации никого не удивишь, но разработанное компьютерщиками ПО оказалось настолько эффективным, что профессор компьютерных наук Университета Ватерлоо Урс Хенгартнер (Urs Hengartner) выразил надежду, что компании, полагающиеся на голосовую аутентификацию как на единственный фактор аутентификации, «рассмотрят возможность развёртывания дополнительных или более строгих мер аутентификации». Актёры озвучки обеспокоились тем, что ИИ качественно копирует их речь и тон голоса
19.04.2023 [19:57],
Матвей Филькин
Британские актёры озвучки обнаружили, что некоторые веб-сайты используют их голоса без разрешения. Они обеспокоены тем, что в будущем могут потерять карьеру, «когда голоса ИИ станут более изощренными». ![]() Источник изображения: Pixabay Реми Мишель Кларк (Remie Michelle Clarke) участвовала в озвучке для Microsoft Bing в Ирландии. Недавно она обнаружила веб-сайт для преобразования текста в речь, который использовал её голос для озвучки текста. Любой пользователь сайта мог заплатить за то, чтобы голос Кларк озвучил всё, что им заблагорассудится — рекламные объявления, аудио на YouTube или голосовые сообщения по телефону. Искусственный интеллект упростил воспроизведение человеческого голоса с помощью множества инструментов, позволяющих клонировать вокализацию, заставив роботов звучать так же, как настоящие люди. По сообщениям различных СМИ, число голосовых мошенников растёт, поскольку преступники используют такие инструменты, чтобы обманом заставить жертв перевести деньги или подтвердить финансовые переводы. Компания Revoicer сообщила Bloomberg News, что не может сказать, откуда у неё берутся голосовые данные, но утверждает, что этот процесс полностью законен. Майк Купер (Mike Cooper), британский актёр озвучки, проживающий в США, также нашёл свой голос на двух веб-сайтах по генерации голоса ИИ. Информация на данных сайтах гласит о том, что владельцы сайтов имеют законное право на его голос, несмотря на то что он никогда с ними не сотрудничал. Кларк сказала, что не знает, могут ли веб-сайты законно продавать её голос, но обеспокоена тем, что контракт, который она подписала много лет назад с Microsoft, может быть причиной того, что она слышит свой голос в интернете. Роб Скиглимпалья (Rob Sciglimpaglia), адвокат Кларк, сказал, что благодаря партнёрам технологических фирм по обработке данных, многие компании теперь имеют право использовать голоса актёров для ИИ. Мишель Кларк (Michelle Clarke), также добавила: «Первоначально люди беспокоятся о том, что наниматели могут использовать ваш голос для другой работы, за которую вам никогда не заплатят, и о сопутствующей потере заработка. А теперь есть вероятность потерять карьеру в будущем, когда голоса ИИ станут более изощренными». ИИ научили клонировать любые голоса для озвучки текста — в Сети тут же появились непристойные дипфейки с голосами знаменитостей
31.01.2023 [17:01],
Руслан Авдеев
Несколько дней назад стартап ElevenLabs представил бета-версию платформы для создания синтетических голосов-клонов реальных людей для озвучивания текстов. Буквально через несколько дней в Сети появились дипфейки голосов знаменитостей, озвучивающих крайне сомнительные тексты. По словам компании, отмечено «увеличивающееся число случаев злоупотребления клонированием голосов» — компания уже работает над решением проблемы с помощью введения дополнительных мер защиты. ![]() Источник изображения: Kelly Sikkema/unsplash.com Что имелось в виду под злоупотреблением, в компании не уточнили, но уже известно, что на интернет-форумах появились аудиозаписи с голосами знаменитостей, содержащие высказывания неприемлемого содержания. Пока неизвестно, все ли материалы созданы с использованием технологии ElevenLabs, но значительная коллекция голосовых файлов содержит ссылку именно на платформу компании. Впрочем, ничего удивительно в этом нет, поскольку возникновение общедоступных систем машинного обучения привело к появлению многочисленных дипфейков различного рода. Сейчас ElevenLabs собирает обратную связь для предотвращения злоупотреблений технологией. На данный момент компания не придумала ничего необычного кроме добавления дополнительных мер верификации аккаунтов для обеспечения доступа к клонированию голосов. В числе идей: ввод платёжной информации или данных удостоверений личности. Дополнительно рассматривается верификация прав на использование голоса, который пользователи намерены клонировать, например, будет предложено загрузить образец с чтением предложенного текста. Наконец, компания рассматривает возможность полностью отказаться от инструмента Voice Lab и заставить проходить верификацию голосов в ручном режиме. Пока же пользователей призвали поделиться идеями с разработчиками сервиса. Известно, что в первой половине января схожее решение представила Microsoft. Её инструмент VALL-E тоже позволяет преобразовать текст в речь, использовав в качестве образца всего 3 секунды записи голоса любого человека. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |