Современные детекторы дипфейков можно обмануть

11 февраля 2021 года

Университеты, организации и технологические гиганты, такие как Microsoft и Facebook, работают над инструментами для обнаружения дипфейков, которые призваны предотвратить их использование в целях дезинформации и распространения вредоносных медиа. Однако команда ученых из Калифорнийского университета в Сан-Диего на конференнции WACV 2021 сообщила, что детекторы дипфейков все еще можно обмануть путем внедрения входных данных (состязательные примеры) в каждый видеокадр.

По словам экспертов, состязательные примеры (adversarial examples) представляют собой манипуляции с изображениями, которые могут привести к ошибкам в работе систем искусственного интеллекта. Большинство детекторов работают, отслеживая лица на видео и отправляя обрезанные данные в нейронную сеть. Затем система детектора определяет, является ли видео подлинным, проанализировав элементы, которые плохо воспроизводятся в дипфейках, например, моргание.

Как обнаружили ученые, создавая состязательные примеры лица и вставляя их в каждый видеокадр, они смогли обмануть современные детекторы дипфейков. Кроме того, разработанная ими методика работает даже для сжатых видео и даже в том случае, если у них не было полного доступа к модели детектора.

Источники править

 
Эта статья загружена автоматически ботом NewsBots и ещё не проверялась редакторами Викиновостей.
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.

Комментарии

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.