Информатор: Facebook поощряет разжигание ненависти ради прибыли

4 октября 2021 года

Информатор Фрэнсис Хауген (Frances Haugen) раскрыла телерадиокомпании CBS News сведения о внутренних механизмах социальной сети Facebook. По словам Хауген, Facebook настолько привержена оптимизации продуктов, что использует алгоритмы для разжигания ненависти.

Женщина работала в нескольких компаниях, включая Google и Pinterest, но «в Facebook было значительно хуже» из-за желания компании ставить прибыль выше благосостояния пользователей.

«Был конфликт... между тем, что было хорошо для общества, и тем, что было хорошо для Facebook. Facebook снова и снова выбирала оптимизацию для своих собственных интересов — например, зарабатывала больше денег», — сообщила Хауген.

Как сообщается в одном внутреннем документе Facebook, компания может принять меры лишь в 3-5% случаев ненависти и примерно 0,6% случаев насилия и подстрекательства в Facebook.

«У нас есть доказательства из различных источников, что ненавистнические высказывания, разжигающие политические разногласия и дезинформация в Facebook и семействе приложений влияют на общества по всему миру», — сообщается в другом документе.

По словам Хауген, проблема заключается в алгоритмах, разработанных в 2018 году, которые управляют контентом в социальной сети. Алгоритмы предназначены для стимулирования взаимодействия, и компания обнаружила, что лучшим взаимодействием является то, которое вызывает у пользователей страх и ненависть.

Источники

править
 
Эта статья загружена автоматически ботом NewsBots и ещё не проверялась редакторами Викиновостей.
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.

Комментарии

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.