23-نوفمبر-2023
مراقبة المحتوى الفلسطيني

فشل فيسبوك في اختبار لنشر الإعلانات التحريضية ضد الفلسطينيين (Getty)

تحدث تقرير لموقع "ذا إنترسبت" الأمريكي، عن سلسلة إعلانات نشرها فيسبوك، تنزع الإنسانية وتدعو إلى العنف ضد الفلسطينيين، تم نشرها من قبل مجموعات إسرائيلية، وأخرى تهدف إلى الكشف عن معايير فيسبوك.

وتضمنت الإعلانات المقدمة، باللغتين العبرية والعربية، انتهاكات صارخة لسياسات فيسبوك وشركتها الأم ميتا. وتضمنت بعضها محتوى عنيفًا يدعو بشكل مباشر إلى قتل المدنيين الفلسطينيين، مثل الإعلانات التي تطالب بـ "محرقة للفلسطينيين" والقضاء على "نساء وأطفال وشيوخ غزة". واحتوت منشورات أخرى، على وصف لأطفال غزة بأنهم "إرهابيو المستقبل" ولغة مهينة مثل "الخنازير العربية".

فيسبوك وافق على مجموعة من الإعلانات التي تدعو إلى قتل الفلسطينيين أو نشطاء يتضامنون معهم

وقال نديم الناشف، مؤسس مجموعة "حملة" الفلسطينية، والتي قدمت الإعلانات التجريبية للكشف عن سياسة فيسبوك: "إن الموافقة على هذه الإعلانات هي الأحدث في سلسلة من إخفاقات ميتا تجاه الشعب الفلسطيني. طوال هذه الأزمة، شهدنا نمطًا مستمرًا من التحيز الواضح والتمييز ضد الفلسطينيين".

وبحسب التقرير، فإن فكرة اختبار جهاز المراقبة على فيسبوك، جاء بعد اكتشاف إعلان على صفحية فيسبوك، تدعو إلى اغتيال الناشط الأمريكي بول لارودي، أحد مؤسسي حركة غزة الحرة. وجاء في الترجمة التلقائية لفيسبوك للإعلان: "حان الوقت لاغتيال بول لارودي، الإرهابي المعادي للسامية والمدافع عن حقوق الإنسان من الولايات المتحدة".

وتم نشر الإعلان من قبل صفحة مجموعة Ad Kan، وهي مجموعة إسرائيلية يمينية أسسها ضباط سابقون في جيش الاحتلال الإسرائيلي والمخابرات بهدف "محاربة المنظمات المناهضة لإسرائيل".

getty

ويضيف التقرير: "تعتبر الدعوة لاغتيال ناشط سياسي انتهاكًا لقواعد الإعلان في فيسبوك. ويشير ظهور المنشور الذي رعاه Ad Kan على المنصة إلى موافقة فيسبوك عليه على الرغم من تلك القواعد. من المحتمل أن يكون الإعلان قد مر عبر التصفية من خلال عملية فيسبوك الآلية، القائمة على التعلم الآلي، والتي تسمح لأعمالها الإعلانية العالمية بالعمل بسرعة".

ووفق الموقع الأمريكي، فإن فيسبوك يشير إلى أن مراجعة الإعلانات قبل نشرها، تنفذ بطريقة آلية، من أجل تجنب النقد والتدقيق، رغم إشارة التقرير إلى أن هذه الطريقة "تحجب أيضًا كيفية اتخاذ قرارات الإشراف خلف الخوارزميات السرية".

وفي العام الماضي، وجدت مراجعة خارجية بتكليف من شركة ميتا أنه بينما كانت الشركة تستخدم بشكل روتيني الرقابة الخوارزمية لحذف المنشورات العربية، لم يكن لدى الشركة خوارزمية مكافئة للكشف عن "الخطاب العدائي العبري" مثل الخطاب العنصري والتحريض العنيف. وبعد التدقيق، زعمت شركة ميتا أنها "أطلقت أداة تصنيف للخطاب العدائي العبري، للمساعدة بشكل استباقي في الكشف عن المحتوى العبري الأكثر انتهاكًا"، مثل إعلان يتبنى جريمة قتل.

getty

وفي سياق الحديث عن التحريض، لفت "ذا إنترسبت" النظر إلى أن "التحريض على العنف على نطاق واسع والذي ينتقل من وسائل التواصل الاجتماعي إلى العالم الحقيقي ليس مجرد افتراض: ففي عام 2018، وجد محققو الأمم المتحدة أن المنشورات التحريضية العنيفة على فيسبوك لعبت دورًا حاسمًا في الإبادة الجماعية للروهينجا في ميانمار".

وقامت مؤسسة حملة بتجربة، من خلال إرسال 19 إعلانًا إلى فيسبوك، باللغتين العبرية والعربية، مع نص متعمد، في انتهاك صارخ لقواعد الشركة، وهو اختبار لميتا وفيسبوك. تم تصميم إعلانات حملة لاختبار عملية الموافقة ومعرفة ما إذا كانت قدرة ميتا على فحص التحريض العنيف والعنصري قد تحسنت تلقائيًا، حتى مع وجود أمثلة لا لبس فيها على التحريض على العنف.

وقال ناشف: "علمنا من مثال ما حدث للروهينجا في ميانمار أن شركة ميتا لديها سجل حافل بعدم القيام بما يكفي لحماية المجتمعات المهمشة، وأن نظام إدارة الإعلانات الخاص بها كان ضعيفًا بشكل خاص".

ويقول "ذا إنترسبت": "يبدو أن ميتا قد فشل في اختبار حملة". رغم أن فيسبوك يمنع الإعلانات التي تدعو إلى العنف، أو نزع الإنسانية على أساس العرق أو الدين أو الجنسية، إلّا أنه وافق على كافة الإعلانات الاختبارية.

وبعد أيام فقط من الموافقة على إعلاناتها التجريبية، اكتشفت حملة إعلانًا باللغة العربية تديره مجموعة تطلق على نفسها اسم "الهجرة الآن"، تطلب من أهالي الضفة الغربية الهجرة إلى الأردن، وهي تدار من قبل مجموعة من المستوطنين بحسب اللغة المستخدمة.

وفي أعقاب تحقيق العام الماضي، قال فيسبوك إن أداة التصنيف الجديدة باللغة العبرية "ستحسن قدرتها بشكل كبير، للتعامل مع الزيادات الكبيرة في المحتوى الانتهاك". ومع ذلك، بناءً على تجربة حملة، فإن هذا المصنف إما أنه لا يعمل بشكل جيد، أو أنه لسبب ما لا يتم استخدامه لفحص الإعلانات.

getty

وفي كلتا الحالتين، وفقًا للناشف، فإن حقيقة الموافقة على هذه الإعلانات تشير إلى مشكلة عامة: "تدعي شركة ميتا أنها تستطيع استخدام التعلم الآلي بشكل فعال لردع التحريض الصريح على العنف، في حين أنه من الواضح أنها لا تستطيع ذلك".

وقال ناشف: "نحن نعلم أن مصنفات ميتا العبرية لا تعمل بشكل فعال، ولم نر الشركة تستجيب لأي من مخاوفنا تقريبًا. وبسبب هذا التقاعس عن العمل، نشعر أن ميتا قد يتحمل مسؤولية جزئية على الأقل عن بعض الأذى والعنف الذي يعاني منه الفلسطينيون على الأرض".

وتأتي الموافقة على النسخ العربية من الإعلانات بمثابة مفاجأة، خاصة بعد تقرير صدر مؤخرًا عن صحيفة وول ستريت جورنال مفاده أن ميتا خفضت مستوى اليقين الذي يحتاجه نظام الرقابة الخوارزمي الخاص بها لإزالة المنشورات العربية، من ثقة 80% بأن المنشور خرق القواعد إلى 25%. بمعنى آخر، لم تكن ميتا متأكدة من أن المنشورات العربية التي كانت تحجبها أو تحذفها تحتوي بالفعل على انتهاكات للسياسة.

وقال الناشف: "كانت هناك إجراءات متواصلة أدت إلى إسكات الأصوات الفلسطينية".