Можем ли мы действительно доверять водяным знакам искусственного интеллекта AI? Эта статья по искусственному интеллекту раскрывает уязвимости существующих методов защиты от дипфейков.

Можно ли полностью доверять водяным знакам искусственного интеллекта AI? Эта статья о раскрытии уязвимостей существующих методов защиты от дипфейков

<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/10/ezgif-4-1248127a1c.gif”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/10/ezgif-4-1248127a1c-150×150.gif”/><p>Быстрое развитие в области генеративного искусственного интеллекта привело к значительным изменениям в области создания цифрового контента. Эти алгоритмы искусственного интеллекта стали более доступными и позволяют создавать фейковый цифровой контент, который выглядит невероятно правдоподобно. Глубокие фейки, такие как фотореалистичные медиа форматы, включающие фотографии, видео и звуки, имеют потенциал ввести в заблуждение зрителей и слушателей, что вызывает опасения относительно ложной информации, мошенничества, а также клеветы и эмоционального страдания. В результате выявление ИИ-генерируемой информации и отслеживание источников этих данных стали серьезными вызовами.</p><p>Для предотвращения злоупотребления фальшивым контентом, представленным как аутентичный, недавние разработки в области генеративных моделей искусственного интеллекта сделали важным различение между аутентичным контентом и материалом, сгенерированным ИИ. Водяной знак – это один из методов, разработанный для различения фотографий, созданных с использованием искусственного интеллекта и других источников. Недавние исследования ученых из отдела компьютерных наук Университета Мэриленда фокусировались на устойчивости нескольких детекторов образов ИИ, включая детекторы фейковых фотографий на основе водяных знаков и классификаторов.</p><p>Исследование показало фундаментальную компромиссность между ошибкой уклонения, то есть долей обнаруженных размеченных изображений как неразмеченных, и ошибкой обнаружения обмана, которая является долей неразмеченных изображений, обнаруженных как размеченные при диффузионной атаке очищения для техник водяных знаков, которые вводят незначительные искажения изображений. Исследуется баланс между предотвращением ложных отрицательных и ложных положительных результатов. Ложные отрицательные реальные изображения неправильно идентифицированные как сгенерированные ИИ, а ложные положительные – сгенерированные ИИ изображения, ошибочно распознанные как настоящие.</p><p>Исследование показало, что диффузионная атака очищения успешно может удалять водяные знаки с изображений в этом диапазоне низких искажений. Изображения, незначительно измененные с помощью техник водяных знаков, более уязвимы к этой атаке. Диффузионная атака очищения, однако, менее успешна для техник водяных знаков, которые значительно изменяют изображения. Исследование предложило другой вид атаки – адверсариальную атаку с подменой модели, которая может успешно устранить водяные знаки из техник с высокими искажениями. В этом случае атака заключается в обмане модели водяных знаков, заставляя ее думать, что водяные знаки больше не присутствуют.</p><p>Исследование также подчеркивает уязвимость техник водяных знаков к атакам подделки. При атаке подделки злоумышленник хочет, чтобы реальные изображения, которые могут быть непристойными или явными, были приняты за размеченные. Исследование показало, что с помощью только черного ящика и доступа к технологии водяных знаков можно создать изображение с шумом водяного знака, не зная о его внутреннем устройстве. Злоумышленник может причинить вред, ложно маркируя настоящие фотографии как размеченные, добавляя это изображение с шумом к ним.</p><p>Основные результаты исследования можно изложить следующим образом.</p><ol><li>Исследование выявило фундаментальный компромисс между ошибками уклонения и обмана водяных знаков изображений при проведении диффузионной атаки очищения.</li></ol><ol><li>Разработана модель адверсариальной атаки с подменой, которая эффективно удаляет водяные знаки при использовании методов водяных знаков с высокими искажениями изображений.</li></ol><ol><li>Идентифицированы атаки подделки с использованием водяных знаков путем добавления шумовых изображений с водяными знаками к неразмеченным, что может повредить репутацию разработчиков.</li></ol><ol><li>Обнаружен компромисс между надежностью и устойчивостью детекторов фейковых изображений.</li></ol><p>В заключение, данное исследование проясняет сложности и уязвимости детекторов изображений ИИ, в особенности техники водяных знаков, перед злонамеренными атаками и ростом сгенерированного ИИ материала. Оно подчеркивает исключительную важность постоянного создания и усовершенствования методов обнаружения в эру генеративного искусственного интеллекта для преодоления этих вызовов.</p>