Представлен примитивный метод выявления дипфейков, но все не так просто

14 сентября 2021 года

С каждым годом дипфейки становятся все реалистичнее и опаснее, и специалисты в области машинного обучения ищут новые методы борьбы с растущей угрозой. Команда американских ученых представила надежный способ выявления искусственно сгенерированные лица путем анализа формы зрачков, но не все так просто, как хотелось бы.

Дипфейки создаются с помощью генеративно-состязательных сетей (generative adversarial network, GAN), и с годами эта технология стала настолько развитой, что отличить реальное лицо человека от модели, созданной с помощью машинного обучения, становится практически невозможно. Хотя дипфейки вполне легально используются в коммерческих целях, ими также могут вооружиться преступники.

В прошлом году компания Microsoft выпустила инструмент Microsoft Video Authenticator для обнаружения дипфейк-контента в видеороликах. Спустя несколько месяцев Facebook рассказала о своей новой системе на базе технологий искусственного интеллекта (ИИ), способной не только распознавать дипфейки, но и отслеживать ПО, использовавшееся для их создания.

Однако технологии для выявления дипфейков не всегда доступны широкой публике, и не являются универсальными, то есть, их нельзя реализовать на всех платформах с медиаконтентом. Здесь на помощь может прийти недавнее совместное исследование ученых университетов Олбани и Буффало и специалистов технологической компании Keya Medical.

Исследование под названием «Глаза расскажут все: Зрачки неправильной формы выдают лица, сгенерированные GAN» («Eyes Tell All: Irregular Pupil Shapes Reveal GAN-Generated Faces») описывает метод выявления дипфейк-лиц путем изучения формы зрачка.

Главная идея заключается в том, что зрачок человеческого глаза имеет правильную округлую форму, но форма зрачков, созданных искусственно, не является правильной и обычно искажена. Как обнаружили исследователи, искаженные зрачки весьма распространены даже в очень качественных дипфейках и видны невооруженным глазом. Исследователи назвали их артефактами, которые возникают из-за недостатка «физиологических ограничений» в моделях, использующихся для создания дипфейков.

В рамках исследования была создана автоматизированная система, в которую загружались изображения тысяч реальных лиц и лиц, сгенерированных GAN, с целью изучения того, как описанный выше маркер может использоваться в качестве надежного метода выявления дипфейк-изображения.

Команда разработала шкалу оценивания Boundary Intersection-Over-Union (BIoU), базирующуюся на формуле для присвоения изображению баллов в соответствии с формой зрачка. Реальные лица со зрачками правильной эллиптической формы получили высокие оценки по шкале BIoU, тогда как искусственно сгенерированные изображения – низкие.

Однако есть две проблемы. Первое незначительное препятствие – некоторые заболевания и инфекции могут влиять на форму зрачка, что может привести к сбою метода. Но такие случаи являются, скорее, исключением, не отменяющим общее правило.

Более насущная проблема заключается в том, что

злоумышленники могут извлечь урок из результатов данного исследования, опубликованного
в открытом доступе, и улучшить свои GAN. Они начнут обращать внимание на форму зрачков своих
дипфейков и сделать подделку еще более правдоподобной.

Источники

править
 
Эта статья загружена автоматически ботом NewsBots и ещё не проверялась редакторами Викиновостей.
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.

Комментарии

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.