دراسة: الذكاء الاصطناعي حاضر في 14% من ملخصات الأبحاث الطبية
3 يوليو 2025
كشفت دراسة حديثة نُشرت في مجلة "نيتشر" العلمية أن نحو 14% من ملخصات الأبحاث الطبية الحيوية المنشورة عام 2024 تحمل مؤشرات على استخدام أدوات الذكاء الاصطناعي التوليدي، مثل ChatGPT، دون أن يصرّح المؤلفون بذلك.
وأجرى الدراسة فريق بحثي بقيادة ديمتري كوباك من جامعة توبنغن الألمانية، حيث قام بتحليل أكثر من 1.5 مليون ملخص بحثي منشور في قاعدة بيانات PubMed. وركّز الباحثون على رصد تغيّرات لغوية غير معتادة ظهرت بعد تشرين الثاني/نوفمبر 2022، وهو التاريخ الذي أُطلق فيه ChatGPT.
بصمات لغوية تكشف الاستخدام
اعتمد الفريق على تحليل ما يُعرف بـ"الكلمات الزائدة"، وهي كلمات بدأت بالظهور بشكل متكرر في الملخصات بعد انتشار أدوات الذكاء الاصطناعي. من بين هذه الكلمات: "غير مسبوق"، "لا يُقدّر بثمن"، و"رائد"، وهي تعبيرات نمطية شائعة في النصوص التي تنتجها النماذج اللغوية الكبيرة.
الذكاء الاصطناعي بات جزءًا من عملية الكتابة الأكاديمية، لكن الشفافية بشأن استخدامه لا تزال غائبة
ورغم أن هذه التغيرات لم تؤثر على مضمون الأبحاث، فإنها تعكس تحولًا أسلوبيًا واضحًا في طريقة صياغة الملخصات، ما يشير إلى تدخل أدوات الذكاء الاصطناعي في الكتابة.
غياب الشفافية يثير القلق
أعرب الباحثون عن قلقهم من أن معظم المؤلفين لا يصرّحون باستخدامهم لأدوات الذكاء الاصطناعي، رغم أن بعض المجلات العلمية بدأت تفرض سياسات للإفصاح. وأشار كوباك إلى أن "الذكاء الاصطناعي بات جزءًا من عملية الكتابة الأكاديمية، لكن الشفافية بشأن استخدامه لا تزال غائبة".

كما حذّر الفريق من الاعتماد على أدوات كشف النصوص المنتجة بالذكاء الاصطناعي، نظرًا لانخفاض دقتها، ما يجعل من الصعب التحقق من مدى تدخل هذه الأدوات في الكتابة.
دعوة لإعادة النظر في السياسات
سلّطت الدراسة الضوء على الحاجة الملحّة لوضع معايير واضحة لاستخدام الذكاء الاصطناعي في البحث العلمي، بما يضمن النزاهة والشفافية. ويرى الباحثون أن هذه النتائج يجب أن تكون نقطة انطلاق لنقاش أوسع داخل المجتمع الأكاديمي حول حدود استخدام الذكاء الاصطناعي في الكتابة العلمية.