Исследование раскрывает уязвимости ИИ контента с водяным знаком
Обзор атаки, представленная исследователями.(1) противник собирает данные из целевой службы AIGC.(2) Служба использует модель денорирования с открытым исходным кодом для очистки собранных данных.(3) противник принимает исходные и очищенные данные для обучения GAN, которые можно использовать для удаления или подготовки водяного знака.Черно -белые изображения обозначают изображения с водяными знаками и без него соответственно.Кредит: Li et al.
Таким образом, растущее использование генеративных моделей ИИ открыло ключевые вопросы, связанные с интеллектуальной собственностью и авторским правом.Фактически, многие компании и разработчики недовольны широко распространенным коммерческим использованием контента, генерируемого их моделями, и, таким образом, ввели водяные знаки для регулирования диффузии AIGC.
Водяные знаки, по сути, являются шаблонами или характеристиками отметок, которые можно разместить на изображениях, видео или логотипах, чтобы прояснить, кто их создал и владеет их авторскими правами.В то время как водяные знаки широко использовались в течение десятилетий, их эффективность для регулирования использования AIGC еще не была установлена.
Исследователи из Технологического университета Наняна, Университета Чунцина и Университета Чжэцзян недавно провели исследование, изучающее эффективность водяных знаков в качестве средства предотвращения нежелательного и непримиримого распространения AIGC.Их статья, опубликованная на сервере Pre-Print ARXIV, описывает две стратегии, которые могут легко позволить злоумышленникам удалять и поддерживать водяные знаки на AIGC.
«Недавно AIGC был горячей темой в сообществе»,-сказал Tech Xplore Гуанлин Ли, соавтор газеты.«Многие компании добавляют водяные знаки в AIGC, чтобы защитить ИС или ограничить незаконное использование. Однажды ночью мы обсудили, можем ли мы исследовать новую продвинутую водяную картину для генеративных моделей. Я просто сказал:« Эй, почему бы не напасть на существующие схемы водяного знака? Если мы можемУдалите водяной знак, некоторые нелегальные AIGC не будут рассматриваться как сгенерированные AI. Или, если мы подделим водяной знак в какое-то реальное содержание, их можно рассматривать как сгенерированные AI. Это может вызвать много хаоса в Интернете ».
В рамках своего исследования Ли и его коллеги продемонстрировали вычислительную стратегию для стирания или создания водяных знаков на изображениях, генерируемых моделями ИИ.Человек, использующий эту стратегию, по сути, сначала собирает данные из целевой компании по искусственному искусству, приложения или сервиса, генерирующей контент, а затем использовать общедоступную модель разоблачения для «очистки» этих данных.
Наконец, пользователю нужно будет обучить генеративную состязательную сеть (GAN), используя эти очищенные данные.Исследователи обнаружили, что после тренировки эта модель на основе GAN может успешно удалить или поднять водяной знак.
«Идея нашего исследования довольно проста», - объяснил Ли.«Если мы хотим идентифицировать содержание с водяным знаком, распределение контента с водяным знаком должно отличаться от исходного. На основании его, если мы сможем изучить проекцию между этими двумя распределениями, мы сможем удалить или поддерживать водяной знак».
В начальных тестах Ли и его коллеги обнаружили, что их идентифицированная стратегия была очень эффективной для удаления и создания водяных знаков из различных изображений, генерируемых службой генерации контента на основе искусственного интеллекта.Таким образом, их работа подчеркивает уязвимости и последующую непрактичность использования водяных знаков для обеспечения соблюдения авторских прав AIGC.
«Неудивительно, что усовершенствованные схемы водяных знаков можно легко удалить или подделать, если у противника есть полная информация о схемах водяных знаков, но удивительно, что даже если у нас есть только содержание водяных знаков, мы все еще можем это сделать», - сказал ЛиПолем
«С другой стороны, наш метод основан на распределении данных, поэтому указывает на то, что существующие схемы водяного знака не являются безопасными. Честно говоря, я не хочу, чтобы наша работа стала реальной угрозой, потому что это будетСделайте нас неспособными управлять генеративными моделями. Лично я надеюсь, что это вдохновит других на разработку некоторых более продвинутых схем для водяных знаков для защиты от наших атак ».
Недавняя работа этой команды исследователей может вскоре вдохновить компании и разработчики, специализирующиеся на генеративном ИИ для разработки более продвинутых подходов к водяным знакам или альтернативных подходов, которые лучше подходят для предотвращения незаконного распространения AIGC.Вдохновленные их собственными выводами, Ли и его коллеги теперь также пытаются разработать некоторые из этих подходов.
«Сейчас мы в основном изучаем некоторые новые схемы водяных знаков для генеративных моделей не только для методов генерации изображений, но и для других моделей», - добавил Ли.
Больше информации: Guanlin Li и др., По направлению к уязвимости содержания искусственного интеллекта, создаваемого искусственным интеллектом, Arxiv (2023).Doi: 10.48550/arxiv.2310.07726
Нашли ошибку в тексте? Напишите нам.