27-مارس-2023
justice

مع اشتداد رياح التغيير التي رافقت صعود الذكاء الاصطناعي في السنوات الأخيرة بات على القائمين على قطاعات العدالة والعاملين فيها التنبه للقادم الجديد، والعمل بجدية على استكشاف الفرص والمخاطر التحويلية لهذه التقنيات على قطاع العدالة وسيادة القانون بشكل عام، وخصوصًا أن الجميع سيتأثرون بشكل أو بآخر بالاعتماد المتزايد والمتسارع على الذكاء الاصطناعي وسط الصراع المحتدم بين المؤيدين والمعارضين لاستخداماته في تحقيق العدالة. ويزيد من تعقيد الوضع أن الأمور شائكة ومتداخلة وتتعدى عوامل التكنولوجيا والرقمنة لتتشابك مع عوامل متعددة كالبيئة التشريعية، والمنظومة الأخلاقية، والأطر والضوابط الحقوقية، وبشكل أوسع بفلسفة حتمية ارتباط النظم العدلية بالوعي والإدراك البشري. 

ونحن هنا لا نناقش موضوعًا مستقبليًا من مواضيع الخيال العلمي، بل نناقش منظومة جديدة بدأ بالفعل تطبيقها ولو بأشكال اختبارية منذ سنوات في دول عديدة مثل الصين، والهند، وبريطانيا، والولايات المتحدة الأمريكية، والبرازيل وعشرات الدول غيرها. وتتراوح التطبيقات ما بين تحسين إدارة العمليات القضائية، إلى العدالة التنبؤية وإنفاذ القانون.

نحن نناقش هنا منظومة جديدة بدأ بالفعل تطبيقها ولو بأشكال اختبارية منذ سنوات في دول عديدة، وتتراوح تطبيقاتها ما بين تحسين إدارة العمليات القضائية، إلى العدالة التنبؤية وإنفاذ القانون.

فبينما يُدفع المتحمسون للذكاء الاصطناعي بقدرته على تحسين الحياة وسبل العيش في جميع أنحاء العالم، والمساهمة في تحقيق الأهداف الإنمائية العالمية، وأنه سيزيد الفاعلية ويحسن الكفاءة في مجال العدالة، ويقلل التكاليف، ويسرع العمليات ويزيد من نزاهتها. يعتمد المقاومون للتغيير في نظرتهم على مخاوفهم المشروعة حول تحيز الذكاء الاصطناعي، ومخاوف تصاعد التمييز،  ومخاطر انتهاك الخصوصية، وضعف الشفافية والاستقلالية.

ومن أجل استيعاب "المشادات الدائرة" بشكل أفضل علينا أن نبدأ من فهم ما هو الذكاء الاصطناعي وكيف بدأ يتغلغل في مجال العدالة، وأتمنى أن يكون هذا المقال بداية تساهم في إماطة اللثام عن وجه القادم الجديد.

ما هو الذكاء الاصطناعي؟

تتعدد التعريفات ولكن بالمجمل يشير الذكاء الاصطناعي إلى التطبيقات البرمجية القادرة على محاكاة وظائف معينة للذكاء البشري، بما في ذلك ميزات مثل الإدراك والتفكير وحل المشكلات والتفاعل اللغوي وحتى إنتاج الأعمال الإبداعية. وتتميز هذه التطبيقات الذكية بقدرتها على التعلم والتكيف واتخاذ القرارات المستنيرة بشكل ذاتي بناءً على البيانات والمعلومات التي يتم جمعها وتحليلها ومعالجتها. وتستخدم تقنيات الذكاء الاصطناعي في مختلف المجالات بما فيها تحقيق العدالة، سواء كان ذلك في مراحل ما قبل المحاكمة أو المحاكمة نفسها، أو ما بعد إصدار الحكم وتنفيذه. وشأنه شأن أي تقنية جديدة، تترافق مع الذكاء الاصطناعي إيجابيات وسلبيات، لكن المعضلة هنا هي أنه جاء ليبقى ويتمدد، وعليه فإنه لا مفر من تفهم سلبياته وإدراك أبعادها والعمل على معالجتها باكرًا حتى نتمكن من التمتع بميزاته في تحقيق عدالة ناجزة في عالمنا المعاصر.

المكاسب والتجارب  

يمكن للذكاء الاصطناعي أن يجلب العديد من الفوائد لنظام العدالة، ولكنه يجلب معه أيضًا بعض التحديات والمشاكل الشائكة، فأهم منافعه تكمن في تحسين الأداء والكفاءة من خلال المساعدة في أتمتة العديد من المهام الروتينية، مثل تحليل المستندات والبحث القانوني وحتى الفصل في المخالفات البسيطة، وهو ما يوفر الوقت للقضاة والمحامين ويساعدهم على التركيز على القضايا الأكثر تعقيدًا. ففي الهند على سبيل المثال، اساخدمت المحاكم الافتراضية عن بعد لتسوية منازعات الخلافات البسيطة عبر الإنترنت، وخلال جائحة كورونا في الفترة ما بين آذار 2020، وآذار 2021، استمعت المحاكم الهندية إلى ما يزيد عن ثمانية ملايين قضية عبر تقنيات مؤتمرات الفيديو عن بعد.

 وفي شباط من العام الحالي حققت المحكمة العليا في الهند تقدمًا كبيرًا عندما استخدمت تقنيات الذكاء الاصطناعي لتدوين إجراءاتها في الوقت الفعلي من خلال تقنيات معالجة اللغة الطبيعية (TERES)، وتم ذلك من خلال ترجمة حجج ومرافعات المحكمة وتدوينها خلال انعقاد جلسة الاستماع الدستورية بشأن الجدل السياسي في ولاية ماهاراشترا.  كما أطلقت الهند منصة عبر الإنترنت لتساهم في الأبحاث والتنقيب عن البيانات القانونية، والتنبؤ بتقدم القضايا ومسارها.

تتسم خوارزميات الذكاء الاصطناعي بالدقة في تحليل كميات هائلة من البيانات واكتشاف الأنماط التي قد يفوتها ويغفل عنها البشر، وهو ما قد يؤدي إلى تحسين دقة القرارات.

بالإضافة إلى ذلك، تتسم خوارزميات الذكاء الاصطناعي بالدقة في تحليل كميات هائلة من البيانات واكتشاف الأنماط التي قد يفوتها ويغفل عنها البشر، وهو ما قد يؤدي إلى تحسين دقة القرارات، وقد قامت المحكمة العليا في الهند بتطوير أنظمة تعتمد على الذكاء الاصطناعي لفحص القضايا بشكل محوسب وفرزها وتصنيفها ووضع الملاحظات  والاعتراضات على الالتماسات غير الصحيحة مما يخفف من عبء العمل على البشر.

ورغم المخاوف التي سنتطرق لها لاحقًا، فإن الذكاء الاصطناعي قادر على تقديم الكثير في مجال التحليلات التنبؤية، والتي تشمل كلًا من العدالة التنبؤية (Predictive Justice) و أعمال الشرطة التنبؤية (Predictive Policing)، إذ يمكن استخدام الذكاء الاصطناعي لتحليل البيانات والتنبؤ بالاتجاهات المستقبلية، بما في ذلك أنماط الجريمة وأنماط ومعدلات العود  الجرمي، واحتمالية عودة المدعى عليه للإجرام، إذ يمكن أن تساعد هذه التحليلات في اتخاذ قرارات بشأن التوقيف والكفالات والإفراج المشروط والأحكام وجوانب أخرى من نظام العدالة.  وأحد الأمثلة في هذا المجال هو استخدام أدوات تقييم المخاطر، وهي عبارة عن خوارزميات تشمل استخداماتها تحليل البيانات والمعلومات التاريخية للتنبؤ باحتمالية عودة المدعى عليه إلى الجريمة، إذ يستخدم بعض القضاة في المحاكم الأمريكية أدوات مثل (COMPAS) للمساعدة في اتخاذ القرارات بشأن إصدار الأحكام والإفراج المشروط وقيم الكفالات، بهدف تقليل معدلات العودة إلى الإجرام والحفاظ على أمن المجتمع والعامة وسلامتهم. وعلى الجانب الآخر من المحيط الأطلسي تختبر الشرطة في المملكة المتحدة تقنيات الذكاء الاصطناعي (HART)  للمساعدة في اتخاذ قرارات التوقيف، وهي أداة صممت لتساعد في التنبؤ بما إذا كان المشتبه بهم يشكلون خطرًا منخفضًا أو متوسط أو مرتفعًا من حيث احتمالية ارتكابهم المزيد من الجرائم في غضون مدة قوامها عامان.

الذكاء الاصطناعي قادر على تقديم الكثير في مجال التحليلات التنبؤية، والتي تشمل كلًا من العدالة التنبؤية (Predictive Justice) و أعمال الشرطة التنبؤية (Predictive Policing)، إذ يمكن استخدام الذكاء الاصطناعي لتحليل البيانات والتنبؤ بالاتجاهات المستقبلية.

وفي الصين تتزايد يومًا بعد يوم المسائل والقضايا القانونية التي توكل مهمة معالجتها للذكاء الاصطناعي، مع أن التركيز  حتى اللحظة لا يتعدى معالجة الدعاوى الصغيرة والجنح، فبعض المحاكم تختبر تطبيقات مثل (Xiao Zhi 3.0) لمعالجة النزاعات المالية البسيطة، وتطبيقات أخرى لمعالجة قضايا مخالفات السير، ولكن هنالك أيضًا توجه لاستخدام تقنيات الذكاء الاصطناعي في القضايا الجزائية.

وتنخرط العديد من الدول الأخرى في سباق اختبار تقنيات متعددة للذكاء الاصطناعي في مجال العدالة، مثل روسيا وكندا وأستونيا والبرازيل والإمارات العربية المتحدة والسعودية وغيرها الكثير، بالإضافة لعشرات الدول التي تعمل على رقمنة أنظمة العدالة لديها وحوسبتها في خطوة من شأنها أن تساعد في إرساء الأساس لتطبيقات الذكاء الاصطناعي مستقبلًا، وهي تسهم حاليًا في تطوير الإجراءات القضائية الإدارية وتحسين العمليات وزيادة الكفاءة وتعزيز قدرات البحث والتحليل القانوني.

كل ذلك قد يثير التساؤل: أين تكمن المشكلة إن كان الذكاء الاصطناعي بكل هذه الروعة والشعبية، وله من القدرات ما يشعرك بأنه سيقيم المدينة الفاضلة؟  ولكن كما يقال الشيطان يختبئ في التفاصيل.

المخاوف والثغرات  

إن أردنا أن نكون واقعيين بعض الشيء، فعلينا الاعتراف بأننا نعيش في مجتمعات متحيزة، لدرجة أننا لا نبالغ عند وصف بعضها بالعنصري ولا أدل على ذلك من صعود حركات اليمين المتطرف حول العالم. هذا التحيز ينعكس تاريخيًا على القرارات والسياسات والإجراءات والبيانات المخزنة، ومع مرور الزمن يصبح جزءًا من المنظومة بكاملها، وعندها من المنطقي افتراض أن الذكاء الاصطناعي الذي يعتمد في تحليله وتعلمه على هذه المنظومة وبياناتها وسوابقها، سيرث هذا التحيز ويعكسه كما هو في أفضل الأحوال، وفي أسوء الأحوال فإنه سيضخم هذا التحيز من خلال قراراته واستنتاجاته. فعلى سبيل المثال نظام (COMPAS) الذي ذكرناه سابقًا والذي تعمل خوارزمياته التجارية على التنبؤ بالعود الجرمي للمتهمين، تعرض لانتقادات شديدة بسبب مواصلته ممارسة التحيز العنصري المنهجي الموجود أصلًا في نظام العدالة الجنائية الأمريكية.

ووجد تحقيق أجرته ProPublica أن الخوارزمية لديها معدل أعلى للخطأ، كما توقع خطرًا أعلى من العودة إلى الإجرام مما كان عليه الحال في الواقع للمتهمين السود مقارنة بالمتهمين البيض.

ووجد تحقيق أجرته ProPublica أن الخوارزمية لديها معدل أعلى للخطأ، كما توقع خطرًا أعلى من العودة إلى الإجرام مما كان عليه الحال في الواقع للمتهمين السود مقارنة بالمتهمين البيض. ولم يشذ أيضًا نظام (HART) عن القاعدة، فالخوارزمية التي صممت لمساعدة شرطة المملكة المتحدة في اتخاذ قرارات الحجز، روجعت وعُدلت قبل عدة سنوات بسبب مخاوف من أنها قد تميز ضد الأشخاص من المناطق الفقيرة، ووجدت المراجعة التي أجريت لعملياتها أيضًا اختلافات كبيرة بين التنبؤات والقرارات البشرية وتلك التي  قدمها نظام (HART).  

تعد خوارزميات الذكاء الاصطناعي بشكل عام غير متحيزة بالاعتماد على البيانات التي يتم تدريبها عليها، ولكن للأسف إذا كانت البيانات متحيزة، فستنتج الخوارزمية نتائج متحيزة، وهو ما سيؤدي إلى استمرار عدم المساواة القائم في كثير من نظم العدالة حول العالم.

ولا تقل مشكلة الافتقار إلى الشفافية أهمية عن التحيز والتمييز، فيمكن لخوارزميات الذكاء الاصطناعي أن تكون غامضة وصعبة الفهم، ويزداد الوضع سوءًا إن كانت تجارية فعندها قد تصبح كل العملية وخوارزمية اتخاذ القرار سرًا من أسرار الشركة المطوِّرة، وستصبح كل من الخوارزميات وآليات التعلم الذاتي للذكاء الاصطناعي صندوقًا أسودًا يمكن لفتحه أن يقوض حقوق الملكية الفكرية للشركة ويؤثر على المنافسة في السوق، الأمر الذي يجعل من الصعب على المتهمين والجمهور معرفة كيفية اتخاذ القرارات وآلياته، وبالتالي يصعب عليهم الطعن أو الاعتراض على القرارات التي تتخذها هذه الأنظمة، على عكس قرارات القضاة البشر التي تكون واضحة من حيث الإجراءات والآلية والكيفية والأسباب.

الذكاء الاصطناعي الذي يعتمد في تحليله وتعلمه على هذه المنظومة البشرية وبياناتها وسوابقها، سيرث تحيزها ويعكسه كما هو في أفضل الأحوال، وفي أسوء الأحوال فإنه سيضخم هذا التحيز من خلال قراراته واستنتاجاته.

أضف إلى ذلك خطورة العالم الذي نعيش فيه حاليًا، مع انتشار الأنظمة السلطوية و الديمقراطيات الزائفة، وزيادة المخاوف والأسئلة عما إذا كان علينا الوثوق بخوارزميات سرية تطورها هذه الأنظمة على شكل صناديق سوداء لتتحكم في مصائرنا دون أن ندرك ماهيتها ولا آليات عملها.

وبالإضافة إلى ما سبق، فإنه في الحياة الواقعية حين يخطئ البشر يتم تحميلهم المسؤولية، ومن السهولة بمكان تحديد المسؤولية ومحاسبة المسؤول. ولكن ماذا لو اتخذت أدوات الذكاء الاصطناعي قرارات خاطئة قد تضر بحقوق الأفراد أو الجماعات ومصالحهم، فمن سيتحمل المسؤولية؟ هل ستتحملها الأنظمة المحوسِبة أم مشغلوها أم من طور الخوارزميات التي تعمل بها هذه الأنظمة في الأساس؟ أم ستتحملها الحكومات التي تعاقدت على تطويرها؟ أم أن أحدًا لن يتحمل المسؤولية؟ ففي وضعنا هذا قد يكون من الصعب تحديد المسؤولين ومحاسبتهم أو طلب الإنصاف للضحايا، وعليه تغدو المسؤولية واحدة من أهم القضايا الشائكة الواجب الانتباه لها.

وكالعادة لا يمكننا الحديث عن أي تقنية محوسبة دون الحديث عن خصوصية البيانات وأمنها، إذ تعتمد أنظمة الذكاء الاصطناعي في مجال العدالة على جمع كميات هائلة من البيانات الشخصية وتحليلها، وهو ما يعني جمع بيانات قد تكون حساسة، مثل التاريخ القانوني للشخص، وسجلات السجناء وتفاصيل الحالات القضائية، الأمر الذي يثير مخاوف بشأن خصوصية البيانات وأمنها، إذ إن هنالك خطر يتعلق بإمكانية الوصول إلى هذه البيانات أو إساءة استخدامها من قبل أطراف غير مصرح لها، أو أن الأفراد قد يتم استهدافهم أو وصمهم أو تصنيفهم بشكل غير عادل بناءً على بياناتهم. وعليه يجب ضمان حماية هذه البيانات بشكل صارم لمنع الوصول غير المصرح به إليها وحماية خصوصية الأفراد. كما يجب وضع تعليمات وأطر واضحة تضمن آليات استخدام هذه البيانات وآليات وضوابط حماية الخصوصية ومصالح الأفراد والجماعات.

تعتمد أنظمة الذكاء الاصطناعي في مجال العدالة على جمع كميات هائلة من البيانات الشخصية وتحليلها، وهو ما يعني جمع بيانات قد تكون حساسة، الأمر الذي يثير مخاوف بشأن خصوصية البيانات وأمنها.

وهنالك معضلة أخرى تتمثل في أن الاعتماد المفرط على التكنولوجيا وعلى أدوات الذكاء الاصطناعي قد يؤدي إلى إضعاف مهارات القضاة والمحامين، ما قد يقلل من قدرتهم على ممارسة الحكم وتطبيق المنطق القانوني، ففي حين أن الذكاء الاصطناعي حاليًا يستطيع التعامل مع المسائل القانونية البسيطة والمباشرة، فهو ما زال غير قادر على التعامل مع المسائل القانونية المعقدة والمفتوحة والتي قد تحتمل الكثير من التأويلات والتكييف القانوني، لذلك فمثل هذه المسائل تعد ملعب العقل البشري، والاعتماد المفرط على التكنولوجيا قد يؤدي إلى ضمور المهارات والقدرات في هذا المجال.

في الختام ، في حين أن الذكاء الاصطناعي لديه القدرة على تحقيق العديد من الفوائد لنظم العدالة، فمن المهم النظر بعناية في العيوب والفجوات المحتملة ودراستها ومعالجتها من خلال بناء الأطر الناظمة والتصميم الدقيق والاختبار والمراقبة المستمرين.

وسأحاول من خلال سلسلة من المقالات القادمة الاستمرار في سبر أغوار الذكاء الاصطناعي في مجال العدالة، والبناء على هذه المقدمة وإلقاء الضوء على مواضيع مختلفة ذات علاقة بتبني تقنيات الذكاء الاصطناعي في هذا القطاع والتي قد تشمل الأطر الناظمة للذكاء الاصطناعي في مجال العدالة، والذكاء الاصطناعي والمساعدة القانونية، والعدالة التنبؤية، والشرطة التنبؤية، والذكاء الاصطناعي وتحسين إدارة القضايا وغيرها.