В Google научили нейросеть оценивать качество фотографий и выбирать лучшие

22 декабря 2017 года

Разработчики из Google Research создали глубокую сверточную нейросеть под названием NIMA, которая успешно определяет самые качественные фотографии. Описание NIMA было опубликовано в блоге компании.

Как поясняет N+1, при выборе наилучшего кадра нейросеть руководствуется технической составляющей фотографий и их общей эстетикой, оцененной человеком. Для обучения нейросети разработчики использовали базу данных AVA, содержащую около 200 тысяч фотографий, каждая из которых была оценена в среднем 200 фотографами по шкале от 1 до 10 баллов. В ходе обучения разработчики натренировали NIMA угадывать рейтинг изображения на основе его анализа с точностью в 80%.

Кроме того, нейросеть прошла тренировку на сериях снимков одного и того же объекта и научилось выбирать самый удачный их них, ранжируя кадры по рейтингу.

Как полагают создатели NIMA, нейросеть может найти широкое применение. Например, пользователи смогут выбирать с ее помощью лучший снимок из серии кадров или подбирать фильтр, который лучше всего подойдет той или иной фотографии при обработке.

Напомним, что ранее представители Google и Массачусетского технологического института разработали алгоритм, который позволяет обрабатывать изображения на смартфоне в реальном времени, а не после съемки.

Источники

править
 
 
Creative Commons
Эта статья содержит материалы из статьи «В Google научили нейросеть оценивать качество фотографий и выбирать лучшие», опубликованной NEWSru.com и распространяющейся на условиях лицензии Creative Commons Attribution 4.0 (CC BY 4.0) — при использовании необходимо указать автора, оригинальный источник со ссылкой и лицензию.
 
Эта статья загружена автоматически ботом NewsBots в архив и ещё не проверялась редакторами Викиновостей.
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.

Комментарии

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.