Facebook симулирует вредоносное поведение пользователей с помощью ИИ
24 июля 2020 года
Инженеры Facebook разработали метод, помогающий им выявлять и предотвращать вредоносное поведение пользователей, например, распространение спама, мошенничество или покупку и продажу оружия и запрещенных веществ. С помощью ботов на базе искусственного интеллекта эксперты могут имитировать действия злоумышленников в «параллельной версии» Facebook.
Исследователи Facebook разработали Web-Enabled Simulation (WES) — метод построения первых реалистичных, крупномасштабных симуляций сложных социальных сетей. С помощью WES специалисты создали симулятор WW, основанный на базе кода Facebook. По словам инженера Facebook Марка Хармана (Mark Harman), WW является чрезвычайно гибким инструментом, который можно использовать для ограничения широкого спектра вредоносного поведения в соцсети.
Для того чтобы смоделировать поведение злоумышленников в WW, инженеры Facebook создали группу «невинных» ботов, которые выполняют роль жертв, и обучили ряд «плохих» ботов для поиска своих целей. Затем эксперты пытались различными способами остановить плохих ботов, вводя ограничения, например, на количество отправляемых личных сообщений за минуту.
«В отличие от традиционного моделирования, в web-моделировании действия и наблюдения осуществляются через реальную инфраструктуру, и поэтому являются гораздо более реалистичными», — пояснил Харман.
В настоящее время WW также находится в стадии исследования, и ни одна из симуляций, которые компания проводила с ботами, не привела к реальным изменениям в Facebook. По словам Хармана, эксперты все еще проводит тесты, чтобы убедиться в высокой точности моделирования.
У симулятора также есть некоторые ограничения. WW, например, не может моделировать намерения пользователя и не может моделировать сложное поведение. Facebook сообщает, что боты ищут, отправляют запросы на добавление в друзья, оставляют комментарии, отправляют сообщения и отправляют сообщения, но фактическое содержание этих действий (например, содержание разговора) не моделируется.
Источники править
Эта статья содержит материалы из статьи «Facebook симулирует вредоносное поведение пользователей с помощью ИИ», опубликованной на сайте SecurityLab.ru и распространяющейся на условиях лицензии Creative Commons Attribution 3.0 Unported (CC-BY 3.0 Unported). |
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.
Комментарии
Если вы хотите сообщить о проблеме в статье (например, фактическая ошибка и т. д.), пожалуйста, используйте обычную страницу обсуждения.
Комментарии на этой странице могут не соответствовать политике нейтральной точки зрения, однако, пожалуйста, придерживайтесь темы и попытайтесь избежать брани, оскорбительных или подстрекательных комментариев. Попробуйте написать такие комментарии, которые заставят задуматься, будут проницательными или спорными. Цивилизованная дискуссия и вежливый спор делают страницу комментариев дружелюбным местом. Пожалуйста, подумайте об этом.
Несколько советов по оформлению реплик:
- Новые темы начинайте, пожалуйста, снизу.
- Используйте символ звёздочки «*» в начале строки для начала новой темы. Далее пишите свой текст.
- Для ответа в начале строки укажите на одну звёздочку больше, чем в предыдущей реплике.
- Пожалуйста, подписывайте все свои сообщения, используя четыре тильды (~~~~). При предварительном просмотре и сохранении они будут автоматически заменены на ваше имя и дату.
Обращаем ваше внимание, что комментарии не предназначены для размещения ссылок на внешние ресурсы не по теме статьи, которые могут быть удалены или скрыты любым участником. Тем не менее, на странице комментариев вы можете сообщить о статьях в СМИ, которые ссылаются на эту заметку, а также о её обсуждении на сторонних ресурсах.