عمل يسبب اضطرابات نفسية.. فيسبوك تدفع 52 مليون دولار تعويضا لمشرفي المحتوى الصادم
وافقت شركة فيسبوك على دفع 52 مليون دولار لتسوية دعوى قضائية رفعها ضدها بعض المشرفين الذين عملوا على تقييم محتوى المواد التي تنشر عبر الموقع.
وتعود الدعوى التي قدمتها في البداية مشرفة المحتوى سيلينا سكولا إلى عام 2018، حيث زعمت دعوى سكولا أنها أصيبت باضطراب ما بعد الصدمة “الدائم” بعد أن اضطرت إلى مشاهدة “الآلاف من أعمال العنف المتطرفة على فيسبوك بسبب طبيعة عملها”.
وأشارت مواقع وصحف مثل غارديان وذي فيرج وواشنطن بوست وغيرها إلى الظروف التي يعمل فيها مشرفو المحتوى على فيسبوك.
وقال المشرفون -الذين يعملون في الأغلب لشركات أخرى تعمل مع فيسبوك كمقاولين-إن عملهم كان يتطلب قضاء ساعات في النظر إلى مقاطع جرائم القتل والمعاملة الوحشية للحيوانات والاعتداء الجنسي وإساءة معاملة الأطفال وغيرها من اللقطات المرعبة، مع عدم وجود أي دعم إداري أو نفسي وصعوبة العمل بسبب عدم وجود توجيهات واضحة بخصوص بعض الحالات.
وستدفع فيسبوك تعويضا مبدئيا قيمته ألف دولار لأولئك الناس، أما المشرفون الذين تم تشخيص حالتهم بأنهم مصابون بـ”اضطراب ما بعد الصدمة” نتيجة تقييمهم المواد المذكورة فيمكنهم التقدم بطلب للحصول على تعويض قيمته 50 ألف دولار تقريبا.
وقال ستيف وليامز المحامي الذي يمثل المدعين في بيان مكتوب “نحن سعداء للغاية لأن فيسبوك عملت معنا لإنشاء برنامج غير مسبوق لمساعدة الأشخاص على أداء عمل لم يكن بالإمكان تصوره حتى قبل بضع سنوات، إن الضرر الذي يمكن أن يتعرض له الموظفون خلال هذا العمل حقيقي وشديد”.
وسيتلقى أكثر من 11 ألف مشرف محتوى حالي وسابق يعملون في أريزونا وكاليفورنيا وفلوريدا وتكساس ألف دولار على الأقل من التسوية.
بينما سيتلقى الموظفون الذين تم تشخيص إصابتهم رسميا باضطرابات الصحة العقلية مثل اضطراب ما بعد الصدمة أو الاكتئاب مبلغا إضافيا قدره 1500 دولارا لكل تشخيص لدفع تكاليف العلاج، وبحد أعلى ستة آلاف دولار لكل موظف، وقد يتمكن الأشخاص الذين لديهم أمراض أخرى من تقديم أدلة على حدوث هذه الإصابات نتيجة عملهم على محتوى فيسبوك والحصول على تعويض إضافي عن الأضرار.
وقالت فيسبوك في بيانها إنها “ممتنة للأشخاص الذين يقومون بهذا العمل المهم”، مضيفة “نحن ملتزمون بتقديم دعم إضافي لهم من خلال هذه التسوية وفي المستقبل”.
الحل في الأتمتة
وتعتبر أتمتة هذا العمل هي الهدف النهائي لفيسبوك، وبهذه الطريقة ستحتاج لعدد أقل من المتعاقدين لفحص المحتوى الضار، ولن يضطر أولئك إلى مشاهدة المحتوى الصادم وإنما المحتوى المختلف عليه، مما يقلل حالات الإصابة بالاضطرابات المختلفة.
ويشير أحدث تقرير للشركة بشأن التزام تطبيق معايير المجتمع إلى أن الأدوات الآلية المستخدمة قد تحسنت بالفعل في هذا المجال، ولكن لا يزال أمامها طريق طويل.
وقالت الشركة إن حوالي 90% من خطاب الكراهية الذي تمت إزالته من فيسبوك في الربع الأخير تم اكتشافه تلقائيا قبل أن يراجعه المشرفون.
ويواجه فيسبوك مثل أي منصة أخرى موجودة الآن المعلومات الخاطئة عن فيروس كورونا، والتي تتكاثر بسرعة، خصوصا عندما يكون لديك أكثر من 2.6 مليار مستخدم.
وقال المدير التنفيذي لفيسبوك مارك زوكربيرغ في أبريل/نيسان الماضي إن مدققي الحقائق في الموقع قاموا “بوضع حوالي 50 مليون ملصق على أجزاء من المحتوى المتعلق بفيروس كورونا استنادا إلى 7500 مقالة”، ويبدو أن هذه الملصقات فعالة، حيث وجد أن حوالي 95% من المشاهدين لا ينقرون على المحتوى الذي تم تصنيفه كاذبا.
المصدر : مواقع إلكترونية