Внутренние правила модерации контента Facebook попали в СМИ

В документах объясняется, как компания решает, какие материалы удалять, а какие – нет

Утечка внутренних документов соцсети Facebook показала, что компания с трудом балансирует между свободой слова и модерацией контента, связанного с насилием и разжиганием ненависти.

Газета Guardian сообщила, что в ее распоряжении оказалось «более 100 внутренних руководств, таблиц и графиков», разъясняющих, каким образом компания решает, какой контент может остаться в соцсети, а какой необходимо удалить.

Согласно документам, Facebook считает допустимыми некоторые посты насильственного содержания. Так, в соцсети можно написать «бейте толстяков», но запрещено публиковать призыв «кто-нибудь, пристрелите Трампа».

«Люди часто выражают свое недовольство или несогласие путем угроз или призывов к насилию, которые обычно носят шуточный и несерьезный характер», – говорится в одном из документов.

Изображения сцен физического насилия несексуального характера или травли детей допустимы при условии, что они не имеют элементов садизма и поощрительного отношения. Также разрешены прямые трансляции пользователей, наносящих себе увечья, поскольку Facebook не хочет «цензурировать или наказывать людей, находящихся в сложной ситуации».

Представитель компании пояснил, что ее приоритет – безопасность пользователей.

«Мы упорно работаем, чтобы сделать Facebook как можно безопаснее, при этом обеспечивая свободу слова, – пояснила глава департамента управления глобальной политикой компании Моника Бикерт. – Это требует серьезных размышлений над зачастую сложными вопросами, и мы очень серьезно подходим к тому, чтобы сделать все правильно».

Facebook все чаще призывают принять меры для борьбы с контентом, связанным с насилием, поскольку в ряде случаев видео со сценами насилия не удалялись по несколько часов.

Одним из самых скандальных стала видео-трансляция жестокого убийства пожилого жителя Кливленда Роберта Годвина.

Компания недавно наняла 3000 сотрудников для модерирования спорного контента, и полученные газетой Guardian документы свидетельствуют, что на модераторов сваливается огромное количество обращений.

«Модераторы также помогут нам более эффективно справляться с удалением контента, который недопустим на Facebook, в том числе ненавистнической риторики и эксплуатации детей, – написал основатель соцсети Марк Цукерберг в посте о наборе новых сотрудников. – Мы также продолжим сотрудничать с местными общественными организациями и правоохранительными органами, которые в силу своей позиции обладают наиболее широкими возможностями помочь людям, которым это действительно нужно: либо потому, что они собираются причинить вред самим себе, либо потому, что для них представляет угрозу кто-то другой».

Компания также использует алгоритмы для того, чтобы помечать спорный контент.

Facebook нередко подвергается критике и в тех случаях, когда администрация удаляет материалы, которые считает оскорбительными.

Так, в прошлом году компания удалила легендарную фотографию голой вьетнамской девочки, убегающей от напалмовой атаки во время войны во Вьетнаме. Впоследствии фотографию все же разрешено было опубликовать на Facebook.