Журналіст влаштувався модератором у Facebook й дізнався як насправді соцмережа блокує контент

Журналіст британського каналу Channel 4 таємно влаштувався на роботу модератором в компанію, яка є підрядником Facebook.
 

Соцмережа зазвичай не наймає модераторів напряму й натомість співпрацює з іншими компаніями, які надають такі послуги. Одна з них — CPL Resources, яка знаходиться в Дубліні. Це найбільший модераторський центр у Великій Британії. Щотижня він опрацьовує мільйони постів, а його працівники вирішують чи ігнорувати їх, видалити або позначити як «турбуючі».  

«Імунітет» від модерації для обраних

Як вдалося з’ясувати Channel 4, Facebook не блокує контент крайніх правих груп, таких як Britain First чи сторінки правих активістів, як Томмі Робінсон (Tommy Robinson). Більше того, в них є навіть спеціальний імунітет, на рівні зі сторінками, що належать медіа чи державним установам. Зазвичай соцмережа видаляє сторінки, на яких опубліковано п’ять або більше постів, що порушують правила Facebook. Серед них — і мова ворожнечі, яка часто фігурує у постах таких радикальних груп. Але у випадку з цими сторінками, їх направляють на модерацію не сторонніх підрядників, а штатних працівників соцмережі.

Як пояснив один з модераторів, «у них (сторінок) є багато підписників, так що вони генерують багато доходів для Facebook». Окрім того, Facebook вчить своїх підрядників ігнорувати відео з насильством над дітьми, якщо немає доказів того, що герої відео неповнолітні. Наприклад, під блокування не потрапив ролик, на якому дорослий чоловік б’є дитину — а це відео поширили 44 тисячі разів. На момент виходу документальної стрічки Channel 4 це відео було досі доступне. Не був заблокований і мем, на якому маленьку дівчинку тримають головою у ванні з підписом «коли твоя донька закохалась в чорного хлопчика».

Facebook усе заперечує

Після виходу матеріалу Facebook випустила офіційну заяву, в якій визнала, що робить помилки, але проведе розслідування щодо того, як вирішити ці проблеми, аби вони не повторювалися в майбутньому. «Ми хочемо пояснити, що ми видаляємо з Facebook контент, який порушує наші стандарти, незалежно від того, хто його публікує», — йдеться в заяві компанії. А система модервання, яку описує Channel 4, передбачає лише те, що деякі публікації переглядаються двічі: спершу модераторами підрядників і за потреби вдруге працівниками самої Facebook.

Віце-президент компанії з публічної політики Річард Аллен (Richard Allen) каже, що проблема у тому, що для підготовки модераторів використовувалися старі навчальні матеріали та приклади. Й компанія вже робить кроки, аби усунути проблему.

Керівниця управління глобальної політики Facebook Моніка Бікерт (Monika Bickert) також відкинула звинувачення у тому, що соцмережа не блокує контент із мовою ворожнечі та сторінки крайніх правих через матеріальну вигоду. «Було висловлено припущення, що ми закриваємо очі на негативний контент через наші комерційні інтереси. Це не правда. Створення безпечного середовища, де люди з усього світу можуть спілкуватися та ділитися — це ключова умова для довгострокового успіху компанії», - написала вона.

Модерацію Facebook критикують не вперше

Питання до того, як саме Facebook модерує контент та як відбувається підготовка модераторів, виникали й раніше. В минулому році газета The Guardian отримала у своє розпорядження внутрішні правила Facebook щодо модерування сторінок. У ньому було близько 100 різноманітних інструкцій й усі вони дуже заплутані. Наприклад, якщо на опублікованій фотографії є сцени жорстокого поводження з тваринами, то видаляти їх модератор має у тому разі, якщо вони є «обурдивими». Відеозаписи насилля над дітьми не видаляється, якщо воно не має сексуального характеру і не містить «садистські аспекти». А на прийняття рішень модераторам часто дається близько 10 секунд.

Тоді ж видання The Verge поспілкувалося з колишніми працівниками Facebook, які теж розповіли про модерацію контенту в соцмережі. Виявилося, що їх зовсім не готували до фільтрації фейків та пропаганди. Загалом політика компанії щодо поширення контенту, його модерації та блокування залишається вкрай непрозорою.

Кілька місяців тому модераторка Сара Кец (Sarah Katz) розповіла про те, як в 2016 році вона 8 місяців пропрацювала на агенцію, що була підрядником Facebook. Її робота полягала у перевірці скарг користувачів Facebook на неприйнятний вміст. В середньому на одне повідомлення у модераторів була хвилина. За восьмигодинний робочий день модератори в середньому переглядали приблизно 8 000 повідомлень. Сара Кец поскаржилася на сильний психологічний тиск через те, що їй доводилося весь день переглядати відео та фото зі сценами насильства.

«Якби мені запропонували психологічну допомогу, то я скоріше б за все нею скористалася. Звичайно, вони нас попереджали, але попередження і те, що ти реально бачиш, - зовсім різні речі», - розповіла вона. Сара також помітила, що з часом модератори втрачають чутливість до насильства. За її словами, правила модерації були більш жорсткі щодо видалення порнографії, ніж щодо зображення жорстокості. Окрім того, на той час проблемі фейкових новин соцмережа не надавала великого значення.

Facebook навіть після низки сканадлів з витоком даних стороннім компаніям та виявленням фактів стеження за користувачами залишається однією з найбільш популярних соцмереж у світі.  В минулому році число користувачів Facebook досягло двох мільярдів осіб. За даними звіту Digital in 2018, люди в 2018 році найбільше користувалися саме Facebook . 

Источник: 
PRпортал

Comments (0)

Leave a comment

4 + 14 =
Решите эту простую математическую задачу и введите результат. Например, для 1+3, введите 4.