الحراس.. آخر دفاعات البوابات الرقمية

شركة فيسبوك تعترف أنها كانت "بطيئة للغاية" في التصدي لخطاب الكراهية في ميانمار وأنها تعمل حاليا على حل المشكلة.
الجمعة 2018/08/17
مشرف المحتوى دور مهم في الخفاء

لندن - يتعرض موقع فيسبوك للنقد بسبب افتقاره إلى الشفافية، وتوخيه الاعتدال على حد السواء.

ففي شهر مارس لام مرزوقي داروسمان، الذي يعمل مع الأمم المتحدة في بعثة لتقصي الحقائق في مجال حقوق الإنسان، موقع التواصل الاجتماعي على لعبه “دورا قياديا” في نشر رسائل الكراهية ضد الروهينغا، وهم جماعة عرقية مسلمة في بورما.

ويُستخدم الموقع على نطاق واسع في هذا البلد (أكثر من 30 مليون مستخدم في بلد يقطنه 53 مليون نسمة) ليُصبح بمثابة قناة صرف حقيقية للإسلاموفوبيا.

 

في انتظار أن يكون الذكاء الاصطناعي قادرا على فهم الكوميديا التي تنم عن التهكم أو المزاح السخيف أو المحاكاة الساخرة أو فن التصوير العاري، سيكون لدور المشرفين البشر المستقبل الزاهر؛ فأولئك الذين يطلق عليهم اسم “حراس البوابات الرقمية” لا يحسنون القيام بمهامهم على أحسن وجه في الوقت الحالي.

وذكرت شركة فيسبوك في بيان الخميس أنها كانت “بطيئة للغاية” في التصدي لخطاب الكراهية في ميانمار وأنها تعمل حاليا على حل المشكلة عن طريق توظيف المزيد من المتحدثين باللغة البورمية والاستثمار في التكنولوجيا لتحديد المحتوى المثير للمشكلات.

وفر نحو 700 ألف روهينغي من ديارهم العام الماضي بعد أن استهدفتهم قوات الأمن فيما وصفته الولايات المتحدة بالتطهير العرقي. ويعيش اللاجئون الروهينغا الآن في مخيمات مزدحمة في بنغلاديش.

وقالت الشركة “العنف العرقي في ميانمار مروع وتحركنا ببطء شديد في منع المعلومات الخاطئة والمضللة وخطاب الكراهية”.

وكشف تحقيق رويترز أن شركة فيسبوك خصصت لسنوات موارد قليلة لمكافحة خطاب الكراهية في ميانمار وهي سوق تهيمن عليها الشركة وشهدت اندلاع العنف العرقي عدة مرات. وفي بداية 2015 على سبيل المثال كان هناك شخصان فقط يتحدثان البورمية في فيسبوك يراقبان المنشورات المثيرة للمشاكل.

وذكرت الشركة أنه كان لديها 60 شخصا يتحدثون البورمية في يونيو وتعتزم زيادة العدد إلى 100 على الأقل بنهاية العام.

لكن، أين تبدأ الرقابة وأين ينتهي الاعتدال؟ في أغلب المنشورات التي وقع تجريمها، الهدف هو تقييم السياق، وهو ما كشفت عنه كل من صحيفة “زود دويتشي تسايتونج” الألمانية و”الغارديان” البريطانية في سنة 2016 و2017 من خلال نشر إرشادات الإشراف على “المحتوى المعتدل” في موقع فيسبوك للجمهور.

ففيما يتعلق بالتعري على سبيل المثال، هناك قاعدة أساسية وهي أنه في حال كان المحتوى قد “صُنع يدويًا”، يسمح بمشاركته، أما إذا كان رقميا فهناك فرصة كبيرة لأن يصنف محتوى إباحيّا.

من جانب آخر، يتم التعامل مع رسائل الكراهية والتعليقات المسيئة وفقًا لمعادلة أساسية وهي “الفئة المحمية + هجوم = خطاب كراهية”. فإذا كان الشخص المهاجَم ينتمي إلى فئة محمية، يتم تصنيف المنشور على أنه خطاب يحرض على الكراهية.

وتشمل هذه الفئات جميع التوجهات الجنسية، والجماعات الدينية، والأصول العرقية، أو الجنسيات. وعلى سبيل المثال، بالإمكان انتقاد أي دين، ولكن ليس لدينا الحق في مهاجمة أصحاب المعتقد؛ فأن تصف “الكاثوليكية أو الإسلام أو البوذية” بالهراء، هو أمر مسموح به، أما أن يتم وصف الكاثوليكيين أو المسلمين أو البوذيين بالأغبياء فهذا غير مسموح به.

شركة فيسبوك أكدت أنها كانت بطيئة للغاية في التصدي لخطاب الكراهية في ميانمار وأنها تعمل على حل المشكلة

في الوثيقة التي نشرتها صحيفة “زود دويتشي تسايتونج” الألمانية لا تخلو بعض الأمثلة من السخرية؛ فإذا كنت ممنوعًا من كتابة “جميع الفرنسيين مدمنون على الكحول”، يمكنك دون صعوبة كتابة “لا تثق في الأولاد الذين يقولون لكِ إنهم يحبونك”، لأن الفتيان والفتيات لا ينتمون إلى أي فئة محمية. كما يخضع المهاجرون واللاجئون إلى ما يمكن اعتباره “شبه حماية”، إذ يسمح باعتبارهم “طالبي لجوء في الخارج”، ولا يسمح باعتبارهم “مهاجرين مقرفين.

يكون الاعتدال فنا دقيقا عندما يتعلق الأمر بالحكم على سياق أو قصد محدد.

ومن بين المواضيع الحساسة الأخرى أنه لا يتم السماح بالمنشورات المتعلقة بالعنف ضد الحيوانات إلا إذا تم استخدامها للشجب والاستنكار، أما الأمر الأكثر إثارة للدهشة فيتمثل في أن عبارة “ضرب أشقر” مقبولة بينما لا تُقبل عبارة “اقتل ترامب”، بصفته رئيس دولة وينتمي إلى الفئة المحمية. وستُعتبر شخصية عامة، ولن تكون جزءًا من فئة الأشخاص العاديين، إن كان لديك أكثر من 100 ألف متابع.

وقد يتم السماح بعرض مقاطع الفيديو التي تتضمن تشويهات وتهديدات بالانتحار أو الوحشية إذا كان الهدف منها التنبيه أو التحذير.

وبعد التكتم على مسألة سياسة الإشراف على المحتوى عن عمد، بدأ يخرج عمالقة الويب تدريجياً عن صمتهم. وفي مقال نُشر على أعمدة صحيفة الغارديان البريطانية سلطت مونيكا بيكرت -مديرة سياسة المحتوى في شركة فيسبوك- الضوء خلال شهر مايو على “ضوابط المجتمع” التي تم الإعلان عنها منذ شهر أبريل، والتي تشاور الجميع حولها على حسابها في فيسبوك. في الواقع، وبعد أن أشارت بيكرت إلى الكم الهائل من البيانات التي تتم معالجتها يوميًا، أكدت أن أصعب ما تبقى فعله هو وضعها في سياقها قائلة إنه “من الصعب الحكم على النية الكامنة وراء المنشور أو المخاطر الناجمة عن منشور آخر؛ فعندما يقوم شخص ما بنشر فيديو عنيف خاص بهجوم إرهابي، نحن لا نعرف إن كان أناس آخرون سيحذون حذوه أو أنه سيشجع الناس على التنديد بمثل هذه الممارسات”.

أما فيما يتعلق بمسألة الشفافية فقد قدمت بيكرت إجابة مدهشة إلى حد ما، وهي أنه “إذا كانت شركة فيسبوك لا تقوم سوى بعدد قليل من الدعايات لإرشادات ضبط المحتوى، فإن ذلك يهدف إلى ‘عدم تشجيع الأفراد على العثور على الثغرات”‘. وتصر بيكرت على أن معايير المجتمع لا تميل إلى أن تكون ثابتة.

فيسبوك لا يملك في الوقت الحالي التكنولوجيا اللازمة للقيام بتحليل سياقي لمنشورات الموقع الاجتماعي

عندما أدركت بيكرت أوجه قصور نظام الضبط الحالي أفادت بأن “الوضع لم يسبق له مثيل في تاريخ الويب، ويجب علينا وضع حد للفوضى بطريقة ما. ولكن موقع فيسبوك لا يملك في الوقت الحالي التكنولوجيا اللازمة للقيام بتحليل سياقي”. وللحد من هذه المشكلة أعلنت الشركة عن أنها ستوظّف 3 آلاف “مشرف محتوى” في السنوات القادمة.

اليوم، يضطلع الذكاء الاصطناعي بمهام معينة في هذه الضوابط وخاصة بالنسبة للرسائل غير المرغوب فيها، التي يقوم موقع فيسبوك بالإشراف عليها بصفة تلقائية. لكن في انتظار أن تكون هذه التقنية قادرة على فهم الكوميديا التي تنم عن التهكم أو المزاح السخيف أو المحاكاة الساخرة أو فن التصوير العاري، سيكون لدور المشرفين البشر مستقبل زاهر. وعلى الرغم من أنه لا يتم إيلاء أهمية كبيرة للدور الشاق الذي يضطلعون به، ناهيك عن أنهم يتقاضون أجورا غير منصفة، إلا أن المسؤولية الموكلة لهم تظل مهمة.

في هذا السياق، كتبت الباحثة سارة تي. روبرتس في مقال بعنوان “مراقبة المحتوى التجاري: العمل القذر للعمال الرقميين” أن “الإشراف على المحتوى ليس ‘نشاطا مستقلا بحد ذاته لأن هؤلاء العمال منتشرون في جميع أنحاء العالم'”.

في هذا الصدد، لعب أولئك الذين تطلق عليهم روبرتس اسم “حراس البوابات الرقمية” دورا مهما في المحافظة على هوية الموقع؛ فهم يختارون بعض المنشورات أو يحتفظون بها، ويلعبون دور الحاكم في مواجهة الأشخاص الذين ينتهكون الذوق الرفيع أو القواعد أو المعايير الاجتماعية الثقافية، وما يمكن الاحتفاظ به على الموقع. وبالنسبة لها، حان الوقت لأن نطرح أسئلة أخلاقية تتعلق أساسا بما هو مقبول عالميًا وما هو غير مسموح به على الشبكة العالمية.

في الوقت الراهن، يتجاوز عدد المشرفين على المحتوى في العالم 100 ألف شخص. وعلى الرغم من أنه يتم تسليط الضوء تدريجيا على طبيعة الدور الذي يضطلعون به، إلا أن عملهم يظل مخفيا.

19