أخطاء جراحية وإصابات خطيرة مع دخول الذكاء الاصطناعي غرف العمليات
10 فبراير 2026
مع تسارع إدخال تقنيات الذكاء الاصطناعي إلى المجال الطبي، وخصوصًا غرف العمليات، بدأت تتصاعد تحذيرات وتقارير عن أخطاء جراحية وإصابات خطيرة يُشتبه في ارتباطها بأنظمة طبية مدعومة بالذكاء الاصطناعي، ما يضع الجهات التنظيمية وشركات تصنيع الأجهزة الطبية تحت ضغط متزايد.
فقد كشفت مراجعة أجرتها وكالة "رويترز" لسجلات السلامة والدعاوى القضائية، إلى جانب مقابلات مع أطباء وعلماء ومنظمين، عن سلسلة من الحوادث المرتبطة بأجهزة طبية تعتمد على الذكاء الاصطناعي، في وقت تتسابق فيه الشركات لطرح هذه التقنيات في الأسواق بوصفها "ثورة" في عالم الرعاية الصحية.
جهاز TruDi تحت المجهر
في عام 2021، أعلنت شركة "أكلارينت" Acclarent، التابعة آنذاك لعملاق الرعاية الصحية "جونسون آند جونسون"، عن إضافة الذكاء الاصطناعي إلى جهازها TruDi Navigation System المستخدم في جراحات الجيوب الأنفية. ووصفت الشركة الخطوة بأنها "قفزة نوعية"، مؤكدة أن خوارزميات التعلم الآلي ستساعد الجراحين على تحديد مواقع أدواتهم بدقة داخل الرأس أثناء العمليات.
كشفت رويترز عن سلسلة من الحوادث المرتبطة بأجهزة طبية تعتمد على الذكاء الاصطناعي، في وقت تتسابق فيه الشركات لطرح هذه التقنيات في الأسواق بوصفها "ثورة" في عالم الرعاية الصحية
لكن الأرقام التي تلقتها إدارة الغذاء والدواء الأميركية (FDA) بعد هذا التحديث أثارت تساؤلات جدية. فقبل إدخال الذكاء الاصطناعي، تلقت الإدارة سبعة بلاغات غير مؤكدة عن أعطال، وبلاغًا واحدًا عن إصابة مريض. أما بعد إضافة الذكاء الاصطناعي، فقد ارتفع العدد إلى ما لا يقل عن 100 بلاغ عن أعطال أو أحداث سلبية.
وبحسب هذه التقارير، أُصيب ما لا يقل عن 10 أشخاص بين أواخر عام 2021 وتشرين الثاني/نوفمبر 2025، في حوادث يُشتبه بأن الجهاز قد ضلل فيها الجراحين بشأن موقع أدواتهم داخل الرأس.
إصابات بالغة ودعاوى قضائية
تضمنت البلاغات تسرب السائل الدماغي الشوكي من أنف أحد المرضى، وثقب قاعدة جمجمة مريض آخر، إضافة إلى حالتي سكتة دماغية بعد إصابة شريان رئيسي عن طريق الخطأ.
ورغم أن تقارير الـFDA لا تُستخدم لإثبات الأسباب المباشرة للحوادث، فإن ضحيتين من ضحايا السكتة الدماغية رفعوا دعاوى قضائية في ولاية تكساس، مؤكدين أن نظام TruDi المدعوم بالذكاء الاصطناعي ساهم في إصاباتهم. وجاء في إحدى الدعاوى أن "المنتج كان على الأرجح أكثر أمانًا قبل إدخال التعديلات البرمجية التي دمجت الذكاء الاصطناعي".
شركة "إنتيغرا لايف ساينسز" Integra LifeSciences، التي اشترت "أكلارينت" في 2024، نفت وجود أي دليل موثوق يربط الذكاء الاصطناعي في جهاز TruDi بالإصابات، معتبرة أن التقارير "لا تعني أكثر من أن الجهاز كان مستخدمًا أثناء وقوع الحدث السلبي".
من أبرز القضايا، دعوى رفعتها إيرين رالف، وهي أم لأربعة أطفال، بعد خضوعها لعملية توسيع الجيوب الأنفية في حزيران/يونيو 2022. وبحسب الدعوى، ضلل نظام TruDi الجراح بشأن موقع أدواته، ما أدى إلى إصابة الشريان السباتي وتشكّل جلطة دموية تسببت في سكتة دماغية.
اضطرت رالف لاحقًا لقضاء خمسة أيام في العناية المركزة، وأُزيل جزء من جمجمتها للسماح بتمدّد الدماغ. وبعد أكثر من عام، قالت في مدونة لضحايا السكتات الدماغية: "ما زلت أعمل في العلاج.. من الصعب المشي دون دعامة، واستعادة حركة ذراعي اليسرى".
وفي حادثة أخرى عام 2023، تعرّضت المريضة دونا فيرنيهو لإصابة مماثلة خلال عملية مشابهة باستخدام الجهاز ذاته، ما أدى إلى سكتة دماغية في يوم الجراحة نفسه، وفقًا لدعوى قضائية منفصلة.
قلق متزايد من مشاركة الذكاء الاصطناعي في الطب
هذه القضايا تأتي في وقت صادقت فيه إدارة الغذاء والدواء الأميركية على 1,357 جهازًا طبيًا يستخدم الذكاء الاصطناعي، وهو ضعف العدد المسجل حتى عام 2022. وتشمل البلاغات أجهزة أخرى غير TruDi، مثل أجهزة مراقبة القلب التي فشلت في رصد اضطرابات خطيرة، وأجهزة تصوير بالموجات فوق الصوتية أخطأت في تحديد أجزاء من أجسام الأجنة.
كما أظهرت دراسة لباحثين من جامعات جونز هوبكنز وجورجتاون وييل، نُشرت في مجلة JAMA Health Forum، أن 60 جهازًا طبيًا معتمدًا ومدعومًا بالذكاء الاصطناعي ارتبط بـ182 عملية سحب من السوق، 43% منها خلال أقل من عام على اعتمادها.
وبحسب خمسة علماء حاليين وسابقين في إدارة الغذاء والدواء الأميركية (FDA)، فإن الوكالة تكافح لمواكبة هذا التوسع السريع، خصوصًا بعد تقليص عدد المتخصصين في الذكاء الاصطناعي نتيجة سياسات خفض النفقات خلال إدارة الرئيس الأميركي دونالد ترامب.
ويحذر خبراء من أن معظم الأجهزة الطبية المدعومة بالذكاء الاصطناعي لا تُلزم بإجراء تجارب سريرية على المرضى قبل طرحها في الأسواق، إذ تُصنَّف غالبًا كتحديثات لأجهزة سابقة، وهو ما يراه مختصون نهجًا لم يعد مناسبًا في عصر الذكاء الاصطناعي.
ورغم اعتراف FDA بـ"الفرص الهائلة" التي يوفرها الذكاء الاصطناعي في التشخيص والعلاج، يؤكد مختصون أن الإطار التنظيمي الحالي لا يوفر "ضمانات كافية" لحماية المرضى.