Питерские ученые натренировали нейросеть выявлять нежелательные боты в соцсетях

22 августа 2021 года

Бот

Сотрудники Санкт-Петербургского федерального исследовательского центра Российской академии наук (СПб ФИЦ РАН) обучили нейронную сеть выявлять в социальных сетях группы вредоносных ботов через анализ публичных данных о них, независимо от того, на каком языке они пишут посты и комментарии.

Данный подход может использоваться компаниями, которые используют соцсети в коммерческих целях, для выявления и противодействия информационным атакам. Результаты исследования опубликованы в международном журнале JoWUA.

Программа поможет выследить бота по неявным «социальным связям». При этом программе будет абсолютно неважно, на каком языке и в какой социальной сети придется работать — от сможет легко подстроиться под любую из них.

Ведущий научный сотрудник СПИИРАН Андрей Чечулин прокомментировал:

«Проблема в том, что в мире существует большое количество соцсетей, все они отличаются друг от друга и содержат информацию на разных языках. Однако мы разработали прототип системы для контроля над групповой деятельностью ботов на основе анализа общих входных данных о самих ботах, который не зависит от языка общения и структуры соцсетей. Такие данные присутствуют в любой соцсети, исходя из принципа ее работы.»

Точность распознания варьируется от 60 % до 90 %, а на лживые срабатывания приходятся 5-10 %. Зависеть это будет от заполненности социальной сети ботами. Что же касается сложных программ, которые интеллект не сможет распознать, то тут тоже все продумано — проверка всех аккаунтов проводится регулярно и в одну из них бот точно даст о себе знать.

Младший научный сотрудник СПб ФИЦ РАН Максим Коломеец объяснил:

«Обмануть систему можно, создав очень реалистичный аккаунт. Однако со временем в нем все равно накопится достаточно аномалий, которые наше средство сможет обнаружить. Точность распознавания варьируется от качества ботов - от 60% до 90% при 5-10% ложных срабатываний.»

Метод, созданный учеными СПб ФИЦ РАН, может не только определять ботов, но и оценивать их качество и примерно рассчитать стоимость атаки. Эти данные могут использоваться для расследования инцидентов безопасности.

Например, если в аккаунте соцсети какого-нибудь ресторана оставлена масса негативных комментариев. Новый метод поможем выявить, боты их оставили или реальные люди. В случае, если комментарии оставили боты, ресторан поймет, что на него осуществляется атака.

Кроме того, программа может определить качество и возможности ботов и понять, сколько денег было вложено в эту атаку. Исходя из этих данных, бизнесу будет проще принять меры чтобы эффективно отреагировать на инцидент.

Источники

править
 
Creative Commons
Эта статья содержит материалы из статьи «Питерские ученые научили нейросеть выявлять вредоносные боты в соцсетях», опубликованной SecurityLab.ru и распространяющейся на условиях лицензии Creative Commons Attribution 3.0 Unported (CC-BY 3.0) — при использовании необходимо указать автора, оригинальный источник со ссылкой и лицензию (см. условия).

Комментарии

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.