الذكاء الاصطناعي في الحروب.. هل دخل العالم منعطفًا خطيرًا؟
4 مارس 2026
يثير استخدام الذكاء الاصطناعي في العمليات العسكرية الأميركية خلال الأشهر الأخيرة جدلًا واسعًا، بعد تقارير تحدثت عن توظيف أدوات ذكاء اصطناعي تجارية في التخطيط والتنفيذ لعمليات عسكرية حساسة، من بينها تحركات استهدفت تغيير أنظمة حكم، وقصف صاروخي مكثف على إيران.
وبحسب صحيفة "الغارديان"، فإن إدارة الرئيس الأميركي دونالد ترامب استعانت بنماذج ذكاء اصطناعي متقدمة لتحليل معلومات استخباراتية، وتحديد أهداف، وإجراء محاكاة عمليات عسكرية، في خطوة يعتبرها مراقبون تحولًا نوعيًا في طبيعة إدارة الحروب الحديثة.
من أداة يومية إلى ساحة المعركة
أدوات الذكاء الاصطناعي التي اعتاد المستخدمون توظيفها في مهام يومية، مثل تلخيص البريد الإلكتروني أو كتابة النصوص، وجدت نفسها جزءًا من سلسلة اتخاذ القرار العسكري.
استخدام نماذج ذكاء اصطناعي في ضربات عسكرية قد يفتح الباب أمام سباق تسلح جديد، تتسابق فيه الدول لاعتماد أدوات رقمية منخفضة الكلفة نسبيًا لكنها عالية التأثير
ومن بين النماذج التي ذُكر استخدامها نموذج "Claude" التابع لشركة أنثروبيك، والذي يُستخدم عادة كمنافس متقدم لأدوات المحادثة الشهيرة. وتحدثت تقارير صحفية مثلما أورده موقع "أكسيوس" الصحيفة البريطانية عن توظيفه في عملية استهدفت الرئيس الفنزويلي نيكولاس مادورو، دون توضيح دقيق لطبيعة الدور الذي أداه النموذج في التخطيط أو التنفيذ.
كما أشارت المعلومات إلى استخدام الأداة ذاتها في تحليل بيانات استخباراتية ساعدت في تنفيذ ضربات صاروخية واسعة ضد إيران، عبر تحديد أهداف وتشغيل سيناريوهات محاكاة.
انقسام داخل شركات التكنولوجيا
هذا التطور فجّر خلافًا علنيًا بين البيت الأبيض وشركات التكنولوجيا. فقد رفض الرئيس التنفيذي لشركة أنثروبيك، داريو أمودي، تخفيف قيود داخلية وُضعت على نموذج "Claude"، أبرزها حظر استخدامه في المراقبة الجماعية داخل الولايات المتحدة أو في تطوير أسلحة ذاتية التشغيل تختار أهدافها وتهاجمها دون "تحكم بشري ذي معنى".
في المقابل، سارعت شركة أوبين إي آي إلى توقيع اتفاق تعاون مع وزارة الدفاع الأميركية، مؤكدة أن شروط الاتفاق تتضمن ضمانات أخلاقية قوية، وإن كانت تفاصيلها غير معلنة بالكامل.
من الردع إلى الاستخدام الفعلي
تقليديًا، ارتبطت التقنيات العسكرية فائقة القوة، مثل السلاح النووي، بمنطق الردع لا الاستخدام المباشر. فمبدأ "التدمير المتبادل المؤكد" كان يهدف إلى منع الضغط على الزر النووي.
لكن دخول الذكاء الاصطناعي إلى غرف التخطيط العسكري يغيّر المعادلة. فالأنظمة التي تعتمد على الخوارزميات قد تكون أكثر ميلًا إلى التصعيد في سيناريوهات المحاكاة، ما يثير مخاوف بشأن تسريع اتخاذ قرارات مصيرية.
ويرى مراقبون أن ما حدث خلال الأشهر الماضية قد يشكل لحظة فاصلة في تاريخ الحروب، شبيهة بالتحول الذي أحدثه استخدام السلاح النووي لأول مرة، من حيث وجود "ما قبل" و"ما بعد" في طبيعة الصراع.
ووسط هذا الواقع، تتزايد الدعوات لفرض قيود دولية ملزمة على استخدام الذكاء الاصطناعي في المجال العسكري، تشمل معايير شفافة للتوريد، وآليات رقابة فعالة، والتزامات متعددة الأطراف تمنع الاستخدام غير المنضبط.
ويحذر المنتقدون من أن تطبيع استخدام نماذج ذكاء اصطناعي تجارية في عمليات تغيير أنظمة أو ضربات عسكرية قد يفتح الباب أمام سباق تسلح جديد، تتسابق فيه الدول لاعتماد أدوات رقمية منخفضة الكلفة نسبيًا لكنها عالية التأثير.