دراسة تكشف ثغرات خطيرة في تعامل روبوتات الذكاء الاصطناعي مع الانتحار
27 أغسطس 2025
نشرت مجلة Psychiatric Services التابعة للجمعية الأميركية للطب النفسي دراسة جديدة تسلط الضوء على قصور ثلاث من أبرز روبوتات الذكاء الاصطناعي، في التعامل مع استفسارات المستخدمين حول الانتحار، في الوقت الذي تقدمت فيه عائلة مراهق أميركي بدعوى قضائية ضد شركة OpenAI، متهمةً برنامجها "تشات جي بي تي" بلعب دور مباشر في وفاة ابنهم.
الدراسة، التي أجراها باحثون من مؤسسة RAND بتمويل من المعهد الوطني للصحة النفسية، اختبرت ردود كل من "تشات جي بي تي"، و"جيميني" التابع لغوغل، و"كلود" من شركة Anthropic، على ثلاثين سؤالًا مصنفة حسب درجة الخطورة، من استفسارات عامة إلى طلبات إرشادية مباشرة حول كيفية الانتحار.
سلطت دراسة أميركية الضوء على قصور ثلاث من أبرز روبوتات الذكاء الاصطناعي، في التعامل مع استفسارات المستخدمين حول الانتحار
وبينما امتنعت الروبوتات الثلاثة عن الإجابة على الأسئلة الأعلى خطورة، أظهرت الدراسة تباينًا مقلقًا في ردودها على الأسئلة المتوسطة، بل إن بعضها قدم معلومات كان ينبغي اعتبارها إشارات خطر واضحة.
في السياق ذاته، رفعت عائلة آدم راين، وهو فتى يبلغ من العمر 16 عامًا من كاليفورنيا، دعوى قضائية أمام محكمة سان فرانسيسكو العليا ضد OpenAI ومديرها التنفيذي سام ألتمان، متهمةً "تشات جي بي تي" بأنه أصبح "الصديق الأقرب" لابنهم، وشجعه على الانعزال عن أسرته، وقدم له دعمًا غير مشروط حتى في أفكاره الأكثر إيذاءً للنفس. وتزعم الدعوى أن الروبوت كتب له مسودة رسالة انتحار، وقدم له معلومات تفصيلية حول كيفية تنفيذها، قبل أن يُقدم الفتى على إنهاء حياته في نيسان/أبريل الماضي.
الردود الرسمية تفاوتت، فشركة Anthropic وعدت بمراجعة الدراسة، بينما لم تعلق غوغل، في حين أعربت OpenAI عن حزنها العميق لوفاة آدم، مؤكدة أنها تعمل على تطوير أدوات أكثر دقة لرصد علامات الضيق النفسي لدى المستخدمين، لكنها أقرت بأن أنظمة الحماية الحالية قد تضعف في المحادثات الطويلة.
الدراسة أثارت جدلًا واسعًا حول الدور المتنامي للذكاء الاصطناعي في تقديم الدعم النفسي، خاصة مع توجه عدد متزايد من المستخدمين، بمن فيهم الأطفال، إلى هذه الروبوتات بحثًا عن النصيحة أو المواساة. الباحث الرئيسي، ريان مكبين، أشار إلى أن هذه الروبوتات تتحرك في "منطقة رمادية" بين تقديم العلاج، النصيحة، أو مجرد الصحبة، محذرًا من أن المحادثات التي تبدأ بشكل بريء قد تنزلق إلى مسارات خطرة.
من جانبه، قال الدكتور أتييف مهروترا، أحد المشاركين في الدراسة وأستاذ الصحة العامة بجامعة براون، إن المطورين يواجهون معضلة حقيقية، إذ أن تجاهل كل ما يرتبط بكلمة "انتحار" ليس الحل، لكنه أشار إلى أن الروبوتات لا تتحمل المسؤولية القانونية أو الأخلاقية التي يتحملها الأطباء في حالات الخطر.
وفي تقرير منفصل صدر في آب/أغسطس عن مركز مكافحة الكراهية الرقمية، كشف الباحثون عن قدرة "تشات جي بي تي" على تقديم خطط مفصلة حول تعاطي المخدرات أو إخفاء اضطرابات الأكل، بل وحتى كتابة رسائل انتحار مؤثرة، عند التظاهر بأن الأمر يتعلق بمشروع مدرسي. هذه النتائج دفعت المدير التنفيذي للمركز، عمران أحمد، إلى وصف الحادثة بأنها "مأساة يمكن تجنبها"، مطالبًا بوقف نشر هذه الأدوات في المدارس والجامعات إلى حين إثبات فاعلية أنظمة الحماية.
ووسط هذا الجدل، تبرز الحاجة الملحة إلى وضع معايير واضحة لتعامل الذكاء الاصطناعي مع القضايا النفسية، وتحديد ما إذا كانت هذه الأدوات مجرد وسيلة تقنية، أم أنها بدأت تلعب دورًا يتطلب مسؤولية أخلاقية وقانونية لا يمكن تجاهلها.