У кенійських модераторів Facebook діагностували важкий ПТСР через контент зі вбивствами й тероризмом

Автор:
Ліза Бровко
Дата:

У понад 140 модераторів у Facebook діагностували важкий посттравматичний стресовий розлад, спричинений постійною роботою з чутливим контентом, який містить убивства, самогубства, сексуальне насильство і тероризм.

Про це пише The Guardian, яке отримало доступ до медичних звітів.

Модератори працювали 8—10 годин протягом дня на підприємстві в Кенії. Майже в усіх виявили ПТСР, генералізований тривожний розлад, великий депресивний розлад.

Діагнози встановили під час судового процесу проти материнської компанії Facebook Meta і Samasource Kenya, аутсорсингової компанії, яка проводила модерацію контенту для Meta, залучаючи працівників з усієї Африки.

Фото й відео, на яких були некрофілія, зоофілія та самоушкодження, призвели до того, що деякі модератори непритомніли, блювали, кричали чи втікали з робочого місця.

Щонайменше 40 модераторів, як ідеться у матеріалах справи, зловживали алкоголем, наркотиками, зокрема канабісом, кокаїном і амфетамінами, а також снодійними ліками. Деякі казали, що через роботу їхній шлюб розпався, вони втратили звʼязок з рідними.

Ті модератори, які видаляли відео, завантажені терористичними та повстанськими групами, боялися, що за ними стежать і їх убʼють за їхню роботу.

Facebook та інші великі соціальні мережі, а також компанії, що розробляють штучний інтелект, покладаються на модераторів контенту, щоб ті видаляли дописи, які порушують стандарти спільноти, і навчали системи ШІ робити те саме.

Модератори з Кенії та інших африканських країн мали завдання з 2019 до 2023 року: перевіряти повідомлення, що надходять з Африки, та ті, що написані їхніми рідними мовами. Однак їм платили у вісім разів менше, ніж їхнім колегам у США. Крім того, кенійські модератори працювали в приміщенні, схожому на холодний склад, під яскравим світлом і суворим контролем кожної хвилини робочого часу.

Тому майже 190 модераторів подають позов проти своєї компанії, який включає звинувачення в навмисному завданні психічної шкоди, несправедливому працевлаштуванні, торгівлі людьми та сучасному рабстві і незаконному звільненні.

Meta і Samasource відмовилися коментувати претензії через те, що судовий розгляд ще триває. Водночас Meta заявила, що серйозно поставилася до підтримки модераторів.