Сегодня 03 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

ИИ-модель Google Gemini 2.0 Flash оказалась на удивление хороша в удалении водяных знаков с изображений

Некоторые новейшие «экспериментальные» функции модели Gemini 2.0 Flash от Google вызывают нешуточные опасения у многих пользователей. В частности, модель показала «очень качественные» результаты при удалении водяных знаков с изображений.

 Источник изображений: Google

Источник изображений: Google

Gemini 2.0 Flash умеет не только генерировать изображения по текстовому запросу, но и редактировать их в соответствии с указаниями пользователя — примеры опубликованы на Reddit. На днях обнаружилось, что модель с высокой точностью может удалять водяные знаки. Это поведение радикально отличается от модели GPT-4o от OpenAI, которая запросы на удаление водяных знаков отклоняет.

Ранее уже существовали такие инструменты, как Watermark Remover.io, который умеет удалять водяные знаки со стоковых фотографий, а исследовательская группа Google создала в 2017 году подобный алгоритм, чтобы подчеркнуть необходимость более надёжной защиты авторских прав на изображения.

Gemini 2.0 Flash, похоже, лучше всех проявила себя при удалении сложных водяных знаков, такие как штампы Getty Images, и смогла качественно восстановить изображение. Конечно, после удаления водяного знака модель добавляет метку SynthID, фактически заменяя знак авторского права на «отредактировано с помощью ИИ». Но метки ИИ довольно легко удаляются при помощи другого ИИ, что ранее было продемонстрировано инструментом стирания объектов от Samsung.

По сообщениям пользователей, облегчённая Gemini 2.0 Flash также умеет добавлять узнаваемые изображения реальных людей на фотографии, чего не позволяет полная модель Gemini.

На данный момент описанные возможности доступны только разработчикам через AI Studio — общедоступный бот Gemini отказывается убирать защитные знаки, как показано на скриншоте выше. Google не ответила на запросы о наличии защиты от возможных злоупотреблений после выхода модели в открытый доступ.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
В Firefox появится выключатель всех ИИ-функций разом 5 ч.
Суровое альпинистское приключение Cairn от создателей Furi покорило вершину в 200 тысяч проданных копий всего за три дня 7 ч.
«Лучше большинства фильмов по RE»: трагичная короткометражка по мотивам Resident Evil Requiem впечатлила фанатов 9 ч.
За саундтрек можно не переживать: композитор «Ведьмака 3» напишет музыку для The Witcher 4 10 ч.
Firefly без ограничений: Adobe сняла лимиты на ИИ-генерацию изображений и видео, но не навсегда 11 ч.
Google добавит в Gemini инструмент для переноса диалогов из ChatGPT и других ИИ-ботов 12 ч.
Nioh 3 впервые в серии выйдет за пределами PC и PlayStation — Sony раскрыла сроки консольной эксклюзивности 13 ч.
Microsoft вернула на экран блокировки Windows 11 значок входа по паролю, пропавший в августе 13 ч.
Редкие в прошлом экстренные патчи Microsoft стали ужасающе обыденными 13 ч.
Календарь релизов — 2–8 февраля: Nioh 3, PUBG: Blindspot, Carmageddon: Rogue Shift и Menace 14 ч.
Arm сделала бесплатным доступ к своим архитектурам для более зажиточных стартапов 2 ч.
Новая статья: Обзор материнской платы MSI MAG X870E Tomahawk WIFI PZ: плата для эстетов-оверклокеров 5 ч.
Новая статья: ИИтоги января 2026 г.: будет триллион! 6 ч.
Экология в приоритете: проект энергоэффективного ЦОД МТС получил прописку в федеральном реестре углеродных единиц 7 ч.
В 2025 году в России значительно выросли затраты на закупки серверов и СХД на фоне их удорожания 8 ч.
Маск подтвердил переговоры о слиянии SpaceX и xAI — ИИ оказался слишком прожорлив 8 ч.
Windows 10 и процессоры Intel неожиданно прибавили популярности у геймеров — статистика Steam за январь 10 ч.
Surface без Microsoft: Meta представила виртуальные клавиатуру и тачпад для Quest 3 11 ч.
Продажи российских серверов и СХД почти удвоились в 2025 году 15 ч.
Оперативная память DDR5 и DDR4 подорожает вдвое в этом квартале, а NAND — на 60 % 15 ч.