Эксперты научились распознавать дипфейки с 99-процентной точностью

17 июня 2021 года

<dynamicpagelist>

category = Опубликовано category = Информационная безопасность notcategory = Не публиковать notcategory = Ожидаемые события по датам notcategory = Архивные новости notcategory=Викиновости коротко count = 18 stablepages = only suppresserrors = true namespace = Main addfirstcategorydate = true ordermethod = created </dynamicpagelist>

Wikinews-logo-ru.svg

Специалисты Facebook AI Research (FAIR) совместно с исследователями Университета штата Мичиган создали

	прототип программного обеспечения, способного не только выявлять изображения, подделанные с помощью нейросетей, но также определять свойства модели, используемой для их создания. Целью проекта было создание инструмента для борьбы с координированными кампаниями по распространению дезинформации.

Типичные модели искусственного интеллекта (ИИ) с помощью машинного обучения учатся распознавать дипфейки путем определения того, производились ли с тем или иным изображением какие-либо манипуляции. Предложенный специалистами инструмент MSU-FAIR идет еще дальше и определяет архитектуру нейросетей, использовавшихся для создания этих дипфейков.

Выявление изображений, подделанных с помощью нейросетей с одной и той же архитектурой, позволит относить их к определенным кампаниям по распространению дезинформации. Проще говоря, можно взять 100 тыс. изображений и с помощью MSU-FAIR установить, что 2 тыс. из них были созданы одной группой с помощью модели ИИ «А», а 3 тыс. – другой, с помощью модели «Б» и т.д.

«Мы можем оценить свойства генеративных моделей, используемых для создания каждого дипфейка, и даже связать несколько дипфейков с моделью, которая предположительно их создала. Это позволяет получать информацию о каждом дипфейке, даже о тех, о которых не было предварительной информации», – сообщил один из создателей MSU-FAIR Тал Хасснер (Tal Hassner).

Теоретически инструмент должен уметь определять, являются ли изображения поддельными и были ли они созданы с использованием одной и той же генеративно-состязательной сети (GAN). Модель может дать разработчикам хорошее представление о том, какой именно тип GAN использовался для создания дипфейков, и является ли GAN неизвестной системой.

Прототип MSU-FAIR обучен с помощью 100 тыс. дипфейк-изображений, созданных сотней GAN. По результатам тестирования инструмента на двух наборах данных, он смог выявить дипфейки с точностью более 99%. Код модели можно скачать тут.

 

ИсточникиПравить

Эта статья загружена автоматически ботом NewsBots и ещё не проверялась редакторами Викиновостей.
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.
 

Комментарии:Эксперты научились распознавать дипфейки с 99-процентной точностью