عندما أُطلقت مشاريع التحول الرقمي في كثير من البلدان العربية قبل عقود، كان أحد أهدافها الرئيسة زيادة الاعتماد على الأنظمة المحوسبة وتقليل التدخل البشري للحد من إحتمالات الواسطة والمحسوبية والفساد! ومع سطوع نجم الذكاء الاصطناعي في الفترة الأخيرة بَشَر البعض بعصر جديد من المساواة والعدالة يتم فيه تحييد التحيز البشري، ولكن للأسف واقع تحيز الذكاء الاصطناعي إلى يومنا هذا أكد على أن للقمر جانبًا مظلمًا آخر.

نعني بتحيز الذكاء الاصطناعي أو تحيز الخوارزميات أو تحيز التعلم الآلي ميل أدوات الذكاء الاصطناعي لعكس التحيزات البشرية أو تضخيمها، وهي ظاهرة تنشأ عندما ينتج الذكاء الاصطناعي نتائج متحيزة بشكل منهجي كنتيجة للافتراضات الخاطئة لعملية التعلم الآلي المبنية على بيانات متحيزة أصلًا. ويحدث هذا الانحياز لأن المجتمعات البشرية متحيزة بطبعها وتورث انحيازها بشكل متعمد أو غير متعمد لمنظوماتها بشكل عام وبياناتها بشكل خاص، ومع مرور الوقت يزداد الانحراف والتحيز في هذه البيانات، وعلى افتراض حسن النوايا يأتي البشر مرة أخرى ليختاروا ويقرروا ما هي البيانات التي تستخدمها خوارزميات الذكاء الاصطناعي، ويقررون أيضًا كيفية تطبيق نتائج تلك الخوارزميات، وفي أحيانٍ كثيرة دون اختبارات متوازنة ومكثفة ومتنوعة وشفافة تأخذ بعين الإعتبار ضرورة تحديد التحيز وتحييده، مما يسهل عملية تسلل هذه التحيزات الموروثة إلى نماذج التعلم الآلي، حيث تعمل أنظمة الذكاء الاصطناعي على أتمتة هذه النماذج المتحيزة وإدامتها وأحيانًا إلى تضخيمها.

تحيز الذكاء الاصطناعي أو تحيز الخوارزميات أو تحيز التعلم الآلي هو ميل أدوات الذكاء الاصطناعي لعكس التحيزات البشرية أو تضخيمها، وهي ظاهرة تنشأ عندما ينتج الذكاء الاصطناعي نتائج متحيزة بشكل منهجي

في هذا السياق سأحاول أن ألقي الضوء على احتمالية تحيز البيانات والذكاء الاصطناعي الجندري ضد النساء في عالم صمم لتلبية احتياجات الرجال، حيث تزخر السنوات الاخيرة بحوادث تدل على ذلك، فعلى سبيل المثال في 2019، تلقت آبل الكثير من الانتقادات لبطاقتها الائتمانية (Apple Card)  بسبب التحيز الجندري عند تحديد سقوف ائتمان الأشخاص، حيث وجد أن النساء حصلن على سقوف ائتمان أقل من أزواجهن على الرغم من أنهن يتقاسمن نفس الدخل ومصادر الائتمان مع أزواجهن. وفي 2018، أظهرت أداة الذكاء الاصطناعي التي طورتها أمازون لفحص المتقدمين للوظائف تحيزًا ضد النساء، حيث تم تدريب الأداة على بيانات السير الذاتية المقدمة إلى الشركة على مدى 10 سنوات، والتي كانت في الغالب من الرجال. ونتيجة لذلك، تعلمت الأداة استبعاد السير الذاتية للنساء، مما دفع أمازون للتخلي عن هذه الأداة. كما أظهرت بعض مولدات صور الذكاء الاصطناعي تحيزًا عنصريًا وجندريًا في مخرجاتها، حيث قامت أداة الذكاء الاصطناعي (DALL-E 2) بربط مناصب القيادة العليا كالرؤساء التنفيذيين والمدراء بالرجال البيض تحديدًا بنسبة 97 % من الوقت، ومع أن النسبة في العالم الحقيقي تميل بشكل كبير لصالح الرجال البيض ولكن ليس بهذه النسبة الساحقة، وكنا نفترض بالقادم الثوري الجديد أن يبدأ بتغيير هذا المنظور بدلًا من تضخيمه وتعزيزه. وحتى بالنظر لتطبيقات بسيطة نستخدمها بشكل يومي مثل مترجم جوجل، لوحظ أنه يقوم بترجمة كلمات محايدة جندريًا بشكل غير محايد فترجمة (Doctor) من الإنجليزية إلى العربية هي طبيب بينما ترجمة (Nurse)  تصبح ممرضة بدلًا من أن تكون ممرض مثلًا! ومع أن مثل هذا النهج يبدو بسيطًا وغير ذي أهمية إلا أن تراكم هذه النتائج والأفعال في مجتمعاتنا الأبوية تعزز بشكل غير واع النظرة غير المتساوية للنساء مقارنة بالرجال، وترسخ المنظور الموروث الخاطئ اتجاه النساء وأدوارهن في المجتمع والمساحة المتاحة لحركتهن في سوق العمل والفضاء العام.  

للأسف، الأمور قد تكون أشد خطورة وتحيز البيانات قد يصل لدرجة تهديد حياة النساء وحتى قتلهن كما شرحت كارولين كريادو بيريز، مؤلفة كتاب "النساء غير المرئيات"، ولورين كلاين المؤلفة المشاركة لكتاب "نسوية البيانات" في مقابلة مع بي بي سي في 2020. حيث أشرن في المقابلة إلى مثال ملموس آخر متعلق بأحزمة الأمان والوسائد الهوائية في السيارات، والتي يتم تصميمها أساسًا بناءً على البيانات التي تم جمعها من اختبارات السيارات باستخدام دمى تعتمد بنية الرجال ووضعيات جلوسهم، ولا تأخذ في الحسبان اختلافات قياسات وطبيعة أجسام النساء، والحوامل منهن خصوصًا، وكنتيجة لذلك تزداد احتمالية تعرض المرأة للوفاة 17 % مقارنة  بالرجل في حادث مماثل. وقد أشارت المتحدثتان إلى أمثلة أخرى متعلقة بفجوة البيانات الجندرية في مجالات الرعاية الصحية والنقل وغيرها، ويمتد تحيز البيانات لكثير من القطاعات وبياناتها التاريخية في عالم صمم ليراعي متطلبات الذكور بشكل متعمد او غير متعمد بدون وعي.

يتسلل تحيز البيانات الجندري ليشكل أحد أنواع التحيز في الذكاء الاصطناعي، حيث يتم تدريب الخوارزميات باستخدام بيانات متحيزة، مما يؤدي إلى تعزيز إقصاء النساء والتمييز ضدهن وتضخيم عدم المساواة. في عالمنا العربي ما زلنا في بداية الطريق ولم تطفُ على السطح بعد مشاكل تحيز البيانات الجندرية، ولكن بالتأكيد هذا لا يعني أنها ليست موجودة، وقد تتمثل الخطوة الأولى نحو التغلب على تحيز البيانات الجندري وما يبنى عليها من تحيز الذكاء الاصطناعي الاعتراف بوجود هذا التحيز، ومن ثم  الاستماع أكثر الى النساء وإيجاد طرق وأدوات أخرى لجمع المعرفة الى جانب البيانات مما يسهم في تحييد تحيزها، ومن ثم التأكد من أن عينات بيانات تدريب الذكاء الاصطناعي متنوعة وشاملة بقدر الإمكان من حيث الجنس، والعرق ، والعمر، والطبقة الاجتماعية، وغيرها، ومن المهم أيضًا التأكد من أن الأشخاص الذين يشرفون على هذه البيانات ويطورون الذكاء الاصطناعي هم أيضًا من خلفيات مختلفة.