Опрос
|
реклама
Быстрый переход
Microsoft накрыла банду хакеров, которая обманом заставляла ИИ рисовать неподобающие фейки со знаменитостями
28.02.2025 [10:36],
Владимир Фетисов
Microsoft заявила об обнаружении американских и зарубежных хакеров, которые обходили ограничения генеративных инструментов на базе искусственного интеллекта, включая службы OpenAI в облаке Azure, для создания вредоносного контента, в том числе интимных изображений знаменитостей и другого контента сексуального характера. По данным компании, в этой деятельности участвовали хакеры из США, Ирана, Великобритании, Гонконга и Вьетнама. ![]() Источник изображения: Mika Baumeister / Unsplash В сообщении сказано, что злоумышленники извлекали логины пользователей сервисов генеративного ИИ из открытых источников и использовали их для собственных целей. После получения доступа к ИИ-сервису хакеры обходили установленные разработчиками ограничения и продавали доступ к ИИ-сервисам вместе с инструкциями по созданию вредоносного контента. Microsoft предполагает, что все идентифицированные хакеры являются членами глобальной киберпреступной сети, которую в компании именуют Storm-2139. Двое из них территориально находятся во Флориде и Иллинойсе, но компания не раскрывает личностей, чтобы не навредить уголовному расследованию. Софтверный гигант заявил, что ведёт подготовку соответствующих запросов в правоохранительные органы США и ряда других стран. Эти меры Microsoft принимает на фоне растущей популярности генеративных нейросетей и опасения людей по поводу того, что ИИ может использоваться для создания фейковых изображений общественных деятелей и простых граждан. Такие компании, как Microsoft и OpenAI, запрещают генерацию подобного контента и соответствующим образом ограничивают свои ИИ-сервисы. Однако хакеры всё равно пытаются обойти эти ограничения, что зачастую им успешно удаётся сделать. «Мы очень серьёзно относимся к неправомерному использованию искусственного интеллекта и признаём серьёзные и долгосрочные последствия злоупотребления изображениями для потенциальных жертв. Microsoft по-прежнему стремится защитить пользователей, внедряя надёжные меры ИИ-безопасности на платформах и защищая сервисы от незаконного и вредоносного контента», — заявил Стивен Масада (Steven Masada), помощник главного юрисконсульта подразделения Microsoft по борьбе с киберпреступлениями. Это заявление последовало за декабрьским иском Microsoft, который компания подала в Восточном округе Вирджинии против 10 неизвестных в попытке собрать больше информации о хакерской группировке и пресечь её деятельность. Решение суда позволило Microsoft взять под контроль один из основных веб-сайтов хакеров. Это и обнародование ряда судебных документов в прошлом месяце посеяло панику в рядах злоумышленников, что могло установить личности некоторых участников группировки. ByteDance стёрла грань между дипфейком и реальностью — представлена ИИ-модель OmniHuman-1
05.02.2025 [18:52],
Сергей Сурабекянц
Китайский технологический гигант ByteDance, владелец платформы TikTok, сегодня продемонстрировал новую систему искусственного интеллекта OmniHuman-1, которая может создавать фейковые видео, практически неотличимые от реальности. Способность искусственного интеллекта генерировать deepfake-видео вызывает одновременно восторг и мистический ужас. ![]() Источник изображения: techspot.com Видео, созданные OmniHuman-1, выглядят поразительно реалистично. Достаточно взглянуть на ролик ниже, демонстрирующий выступление спикера на популярной ежегодной конференции по распространению уникальных идей TED (technology, entertainment, design — технологии, развлечения, дизайн), которого в реальности не было. Системе OmniHuman-1 достаточно одной фотография и записи голоса, чтобы сгенерировать подобное видео. Пользователь может настраивать такие элементы, как соотношение сторон и кадрирование. Более того, ИИ способен изменять движения тела и жесты в реальных видеоматериалах. Конечно, результаты не всегда на 100 % безупречны. Некоторые позы выглядят немного необычно. Например, на этой лекции Эйнштейна, полностью сгенерированной ИИ, лицо выглядит практически идеально, но движения рук — неестественно. OmniHuman-1 «просмотрела» 18 700 часов видеоданных с использованием нового подхода «omni-conditions», который позволяет модели обучаться на нескольких источниках входных данных, таких как текстовые подсказки, аудио и позы тела одновременно. Исследователи ByteDance говорят, что подобный метод обучения помогает ИИ «значительно сократить потери данных». Возможные применения технологии deepfake вызывают нешуточное беспокойство. За последнее время она уже не раз использовалась для дезинформации, мошенничества и других нечистоплотных целей. Так, в ходе избирательной кампании 2024 года в США было зафиксировано множество случаев распространения аудио- и видеозаписей с дипфейками для введения избирателей в заблуждение. В прошлом году финансовые мошенничества лишали людей миллиардов. Например, мошеннику, использовавшему ИИ, чтобы выдать себя за актёра Брэда Питта (Brad Pitt), удалось обманом убедить женщину развестись с мужем и отправить ему $850 000 якобы на лечение. В настоящее время сотни экспертов по этике ИИ выступают за регулирование дипфейков. Возможно, что ByteDance не стоит давать доступ к OmniHuman-1 широкой публике, так как это может привести к катастрофическим последствиям. Хотя джинна уже выпустили из бутылки и процесс внедрения ИИ во все сферы жизни, в том числе криминальную, уже не остановить. Google начала масштабную зачистку поисковой выдачи от откровенных фейковых изображений
31.07.2024 [17:56],
Сергей Сурабекянц
Google внедрила новые функции онлайн-безопасности, которые упрощают масштабное удаление откровенных дипфейковых изображений из поискового индекса и предотвращают их появление на первых позициях результатов поиска. При удалении поддельного контента по запросам пользователей будут также удалены все возможные дубликаты и отфильтрованы результаты по похожим запросам. ![]() Источник изображения: Pixabay «Эти меры защиты уже доказали свою эффективность в борьбе с другими типами изображений, полученных без согласия правообладателей, и теперь мы создали те же возможности и для поддельных откровенных изображений, — заявила менеджер по продуктам Google Эмма Хайэм (Emma Higham). — Эти усилия призваны дать людям дополнительное спокойствие, особенно если они опасаются появления подобного контента в будущем». Позиции сайтов в индексе Google будут скорректированы, чтобы противодействовать поиску явного фейкового контента. Например, на поисковые запросы, которые намеренно запрашивают поддельные изображения реального человека, поисковая система будет выдавать «высококачественный, корректный контент», например, соответствующие новостные статьи. Сайты со значительным количеством фейковых изображений откровенного характера будут понижены в рейтинге поиска Google. Google утверждает, что предыдущие обновления в этом году более чем на 70 процентов снизили появление в поисковой выдаче откровенных изображений по запросам дипфейкового контента. Перед компанией стоит задача научить поисковую систему отличать реальный откровенный контент, например, изображения обнажённого тела, сделанные по обоюдному согласию, от фейков, чтобы сохранить возможность демонстрации законных изображений. Ранее Google уже предпринимала усилия для решения проблемы появления опасного или откровенного контента в интернете. В 2022 году компания расширила перечень персональной или конфиденциальной информации, которую пользователь может удалить из поиска. В августе 2023 года Google начала по умолчанию размывать откровенно сексуальные изображения. В мае этого года компания запретила рекламодателям продвигать услуги по созданию контента откровенно сексуального характера. Американский физик поплатился за ложное сообщение о достижении сверхпроводимости при комнатной температуре
21.03.2024 [11:14],
Геннадий Детинич
В октябре 2020 года в журнале Nature вышла сенсационная статья, в которой группа доцента Ранга Диаса (Ranga Dias) из Университета Рочестера сообщила об открытии сверхпроводника, который демонстрировал свои свойства при температуре всего 15 °C. Статья прошла рецензирование и воспринималась как прорыв. Но вскоре посыпалась критика со стороны независимых исследователей. Изложенные в статье методики никому не удалось повторить, и после скандала в 2021 году статья была отозвана из журнала. ![]() Источник изображения: Adam Fenster/University of Rochester Это случилось за два года до появления новостей о южнокорейском якобы «комнатном» сверхпроводнике LK-99. Группа Диаса работала над другим классом материалов и якобы достигнутая ею сверхпроводимость проявлялась при совсем не комнатном давлении. Речь шла о гидриде лютеция, легированного азотом. По утверждению Диаса, материал превращался в сверхпроводник при давлении в диапазоне от 1,4 до 2,8 млн атмосфер. Важным здесь было давление при 15 °C, чего никогда в сходных условиях не удавалось получить. Но всё это оказалось подтасовкой. Что интересно, уже после отзыва первой статьи группа опубликовала вторую работу в 2023 году о достижении сверхпроводимости при 21 °C, которая также была впоследствии отозвана. «Университет завершил тщательное расследование, проведенное группой учёных, не связанных с университетом и обладающих опытом в этой области, — говорится в заявлении представителя Университета Рочестера Сары Миллер (Sarah Miller) ресурсу The Verge. — Комитет в соответствии с политикой университета и федеральными правилами пришел к выводу, что Диас нарушил правила проведения исследований». Не исключено, что в отношении учёного будут применены другие методы дисциплинарного взыскания и, в первую очередь, это будет относиться к переоценке его должности и трудовым обязанностям в университете. С этим разбираются соответствующие структуры этого учебного заведения. |