06-سبتمبر-2021

(Getty Images)

ألتراصوت- فريق الترجمة 

 بعد مشاهدة مقطع فيديو يظهر فيه مجموعة من الرجال السود، ظهر لمجموعة من رواد منصّة فيسبوك رسالة تلقائية تسألهم عمّا إذا كانوا يحبون مشاهدة المزيد من مقاطع الفيديو عن "القردة"، وهو ما أثار موجة من الانتقادات، ودفع الشركة إلا الاعتذار والإعلان عن بدء تحقيق بالمشكلة ووقف تلك الميزة التي تعتمد على تقنية الذكاء الاصطناعي.

وقد وصفت شركة فيسبوك في بيان لها الخطأ الحاصل بأنه "غير مقبول"، وأوضحت بأنها ستعيد النظر في خاصية الاقتراحات المعتمدة على الذكاء الاصطناعي، لمنع تكرار مثل هذا الخطأ في المستقبل.

ويعود الفيديو الذي نشرته صفحة موقع "ذا ديلي ميل" البريطانية إلى تاريخ 27 حزيران/يونيو 2020، ويظهر فيه مجموعة من الرجال السود الذين يتشاجرون مع عدد من الرجال البيض ورجال الشرطة، ولا علاقة لمقطع الفيديو بالقردة أو السعادين أو غيرها من الرئيسيات.

وانتشرت على مواقع التواصل الاجتماعي لقطات شاشة (سكرين شوت) من الرسالة التلقائية التي أظهرها نظام الذكاء الاصطناعي بعد انتهاء الفيديو، والذي يقترح على المتابع مشاهدة المزيد من الفيديوهات عن "القردة"، وقد وصلت الرسالة إلى موظفين وموظفين سابقين في فيسبوك، قاموا بنشرها على منتدى للتغذية الراجعة الخاصة بالمنصّة، لتتخذ الشركة بعد ذلك خطوات لاحتواء ردّة الفعل الواسعة على ذلك الخطأ الصادم والوقوف على أسبابه.

وتواجه الشركات التقنية الكبرى، من بينها جوجل وأمازون إضافة إلى شركات التواصل الاجتماعي، مثل فيسبوك، انتقادات عديدة منذ سنوات ترى أن أنظمتها الخاصة بالذكاء الاصطناعي لا تخلو من التحيّزات الواضحة، خاصة فيما يتعلق بالعرق. فقد أظهرت دراسات سابقة مثلًا بأن تقنيات التعرف على بصمة الوجه فيها تمييز ضدّ السود، حيث تقل فعالية هذه الميزة عند استخدامها من قبلهم، إضافة إلى التعرض للمضايقات الأمنية أو حتى الاعتقال بسبب خلل في النظام عند التعامل مع السود.

في العام 2015، حصلت حادثة مشابهة، حين تعرفت خدمة "صور جوجل" على صور أشخاص سود، ووسمتهم بوصف "غوريلات"، وهو ما اعتذرت عنه الشركة، وتعهدت بحل الإشكال بشكل فوري. وبعد ذلك بعامين، كشف موقع "وايرد" الأمريكي عن أن الحلّ الذي أقدمت عليه شركة جوجل وقتها، هو منع النظام من استخدام كلمات "غوريلات" و"قرد" و"شمبانزي" وغيرها عند معالجة الصور.

ورغم أن فيسبوك تمتلك أضخم قاعدة للصور التي يحملها المستخدمون، والتي يمكن استخدامه في تدريب أنظمة الذكاء الاصطناعي وخوارزميات التعرف على الوجوه، إلا أن النظام قد وقع في الخطأ الذي وصفه مراقبون بالصادم، واعترفت الشركة بأنه لا يمكن القبول به.

بحسب موظفين سابقين في فيسبوك، فإن الشركة ترتكب العديد من مثل هذه الأخطاء، وهو ما يدل على أن الشركة لا تتعامل مع القضايا المتعلقة بالتمييز بالشكل اللازم

وبحسب موظفين سابقين في فيسبوك، فإن الشركة ترتكب العديد من مثل هذه الأخطاء، وهو ما يدل على أن الشركة لا تتعامل مع القضايا المتعلقة بالتمييز بالشكل اللازم وأنها لا تأخذها على محمل الجد، رغم أن الشركة قد أعلنت مؤخرًا عن تعيينها نائب رئيس لشؤون الحقوق المدنية، وأصدرت تقرير مراجعة ذا صلة بالتنوّع والتمييز، أوضحت فيه الشركة نسبة الموظفين السود في مكاتبها في الولايات المتحدة، والتي تبلغ حاليًا 4.4 بالمئة، مقارنة بنسبة 3.9 بالمئة في العام الماضي.

 

اقرأ/ي أيضًا: 

مترجَم: أداء الأخبار المضللة على فيسبوك تفوّق على الأخبار "الحقيقية" بـ6 أضعاف

مترجَم: تقرير "الشفافية" من فيسبوك يكشف حجم المعلومات المضلّلة على المنصّة