Новые инструменты призваны защитить художников от искусственного интеллекта
ДомДом > Блог > Новые инструменты призваны защитить художников от искусственного интеллекта

Новые инструменты призваны защитить художников от искусственного интеллекта

Dec 23, 2023

Сохранение целостности искусства.

Рост художественных инструментов искусственного интеллекта грозит лишить людей-художников работы, и многие модели ИИ обучаются на основе работ людей-художников в Интернете без их согласия. Однако такие инструменты, как Glaze, разрабатываются в попытке обмануть инструменты искусственного интеллекта.

Glaze, разработанный учеными-компьютерщиками из Чикагского университета, использует алгоритмы машинного обучения для цифровой маскировки или сокрытия произведений искусства/изображений таким образом, чтобы помешать моделям искусственного интеллекта понять изображения.

Например, художник может загрузить изображение своей картины маслом, обработанное через Glaze. Это заставит модель ИИ воспринимать картину как что-то вроде рисунка углем, несмотря на то, что для человеческого глаза это явно картина маслом.

Этот инструмент позволяет художникам взять цифровое изображение своего произведения искусства, пропустить его через Glaze, «и впоследствии быть уверенным, что это произведение искусства теперь будет выглядеть совершенно иначе для модели искусственного интеллекта, чем для человека», — Бен Чжао, профессор. Доктор компьютерных наук Чикагского университета и один из ведущих исследователей проекта Glaze, рассказал CNN.

По словам Чжао, первый прототип Glaze был выпущен в марте 2023 года, и его количество загрузок уже превысило миллион. Бесплатная версия инструмента также была выпущена ранее в этом месяце.

Джон Лам, художник из Калифорнии, заявил, что использует Glaze для всех изображений своих работ, которыми он делится в Интернете.

«Мы знаем, что люди берут нашу работу с высоким разрешением и загружают ее в машины, которые конкурируют в той же области, в которой работаем мы», — заявил Лам. «Поэтому теперь нам нужно быть немного более осторожными и начать думать о способах защитить себя».

Эвелин Фрелих, художница из Штутгарта, Германия, также рассказала о том, как Glaze помогла защитить художников в эпоху искусственного интеллекта.

«Это дало нам возможность дать отпор», — заявил Фрелих. «До этого момента многие из нас чувствовали себя настолько беспомощными в этой ситуации, потому что не было действительно хорошего способа обезопасить себя от нее, так что это было действительно Первое, что заставило меня лично осознать: да, есть смысл сопротивляться».

Хотя Glaze может помочь решить некоторые проблемы, связанные с искусственным интеллектом, с которыми сегодня сталкиваются художники, Лам также заявляет, что необходимо сделать больше, чтобы регулировать то, как технологические компании могут получать данные из Интернета для обучения искусственному интеллекту.

«Прямо сейчас мы видим, как художники напоминают канарейку в угольной шахте», — сказал Лам. «Но это действительно повлияет на каждую отрасль».

Чжао также заявил, что после выпуска Glaze его команда получила массу сообщений из других областей, таких как писатели, музыканты, актеры озвучивания, журналисты и т. д. с вопросами о версии Glaze для их области.

Еще один недавний инструмент, предназначенный для защиты цифровых изображений от инструментов искусственного интеллекта, называется PhotoGuard. Инструмент был создан Хади Салманом, исследователем Массачусетского технологического института, совместно с исследователями Массачусетского технологического института из Лаборатории компьютерных наук и искусственного интеллекта.

«Мы живем в эпоху дипфейков», — сказал Салман CNN. «Теперь любой может манипулировать изображениями и видео, чтобы заставить людей делать то, чего они не делают».

Прототип технологии обеспечивает невидимую «иммунизацию» изображений, которая не позволяет моделям ИИ манипулировать или изменять изображение. PhotoGuard работает, настраивая пиксели изображения незаметно для человеческого глаза. Цель инструмента — защитить фотографии, которые люди загружают в Интернет, от любых манипуляций со стороны моделей искусственного интеллекта.

Инструмент использует два разных метода «атаки» для генерации возмущений. Одна из них — атака «кодировщика», нацеленная на скрытое представление изображения в модели ИИ, заставляющая модель воспринимать изображение как случайный объект. Вторая — это атака «диффузии», которая определяет целевое изображение и оптимизирует возмущения, чтобы изображение было максимально похоже на цель.