Эксперты научились распознавать дипфейки с 99-процентной точностью
17 июня 2021 года
Специалисты Facebook AI Research (FAIR) совместно с исследователями Университета штата Мичиган создали
прототип программного обеспечения, способного не только выявлять изображения, подделанные с помощью нейросетей, но также определять свойства модели, используемой для их создания. Целью проекта было создание инструмента для борьбы с координированными кампаниями по распространению дезинформации.
Типичные модели искусственного интеллекта (ИИ) с помощью машинного обучения учатся распознавать дипфейки путем определения того, производились ли с тем или иным изображением какие-либо манипуляции. Предложенный специалистами инструмент MSU-FAIR идет еще дальше и определяет архитектуру нейросетей, использовавшихся для создания этих дипфейков.
Выявление изображений, подделанных с помощью нейросетей с одной и той же архитектурой, позволит относить их к определенным кампаниям по распространению дезинформации. Проще говоря, можно взять 100 тыс. изображений и с помощью MSU-FAIR установить, что 2 тыс. из них были созданы одной группой с помощью модели ИИ «А», а 3 тыс. – другой, с помощью модели «Б» и т.д.
«Мы можем оценить свойства генеративных моделей, используемых для создания каждого дипфейка, и даже связать несколько дипфейков с моделью, которая предположительно их создала. Это позволяет получать информацию о каждом дипфейке, даже о тех, о которых не было предварительной информации», – сообщил один из создателей MSU-FAIR Тал Хасснер (Tal Hassner).
Теоретически инструмент должен уметь определять, являются ли изображения поддельными и были ли они созданы с использованием одной и той же генеративно-состязательной сети (GAN). Модель может дать разработчикам хорошее представление о том, какой именно тип GAN использовался для создания дипфейков, и является ли GAN неизвестной системой.
Прототип MSU-FAIR обучен с помощью 100 тыс. дипфейк-изображений, созданных сотней GAN. По результатам тестирования инструмента на двух наборах данных, он смог выявить дипфейки с точностью более 99%. Код модели можно скачать тут.
Источники
правитьЭта статья содержит материалы из статьи «Эксперты научились распознавать дипфейки с 99-процентной точностью», опубликованной на сайте SecurityLab.ru и распространяющейся на условиях лицензии Creative Commons Attribution 3.0 Unported (CC-BY 3.0 Unported). |
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.
Комментарии
Если вы хотите сообщить о проблеме в статье (например, фактическая ошибка и т. д.), пожалуйста, используйте обычную страницу обсуждения.
Комментарии на этой странице могут не соответствовать политике нейтральной точки зрения, однако, пожалуйста, придерживайтесь темы и попытайтесь избежать брани, оскорбительных или подстрекательных комментариев. Попробуйте написать такие комментарии, которые заставят задуматься, будут проницательными или спорными. Цивилизованная дискуссия и вежливый спор делают страницу комментариев дружелюбным местом. Пожалуйста, подумайте об этом.
Несколько советов по оформлению реплик:
- Новые темы начинайте, пожалуйста, снизу.
- Используйте символ звёздочки «*» в начале строки для начала новой темы. Далее пишите свой текст.
- Для ответа в начале строки укажите на одну звёздочку больше, чем в предыдущей реплике.
- Пожалуйста, подписывайте все свои сообщения, используя четыре тильды (~~~~). При предварительном просмотре и сохранении они будут автоматически заменены на ваше имя и дату.
Обращаем ваше внимание, что комментарии не предназначены для размещения ссылок на внешние ресурсы не по теме статьи, которые могут быть удалены или скрыты любым участником. Тем не менее, на странице комментариев вы можете сообщить о статьях в СМИ, которые ссылаются на эту заметку, а также о её обсуждении на сторонних ресурсах.