07-أغسطس-2019

يُخشى من سوء استخدام الذكاء الاصطناعي لإفقاد الإعلام موثوقيته (Ayatgali Tuleubek)

تستطيع اليوم استخدام ميزة تتنامى شعبيتها بسرعة مضطردة، هي "Chatbot"، و"الشات بوت" أقرب إلى صندوق دردشة مع برنامج كمبيوتر يقوم بتوصية تقارير إخبارية بناءً على ما تسأله وعلى تفضيلاتك السابقة، فهو يعتمد على خوارزميات الذكاء الاصطناعي للرد الآلي.

يُخشى من هيمنة التقارير التي يكتبها الذكاء الاصطناعي، بحيث يستخدمها البعض لتصدير سردية قائمة على معلومات مفبركة أو مضللة

تُستخدم هذه الميزة كثيرًا في سياقات التجارة الرقمية وخدمة العملاء، ولعلك صادفتها أو استخدمتها من قبل. ولكن وجدت الجهات الإخبارية استخدامًا مشابهًا لها على صفحاتها بمواقع التواصل الاجتماعي مثل فيسبوك، منها مثلًا: "سي إن إن" وفوكس نيوز و"بي بي سي".

اقرأ/ي أيضًا: الذكاء الاصطناعي يكتب الأخبار الزائفة وقصص الرعب باحتراف!

لكن استخدام "الحسابات الآلية" أو "Bots" في سياق الأخبار والمعلومات، تجاوز مجرد التفاعل مع القارئ أو توصية تقارير إخبارية، لتصبح آلةً لإنتاج المحتوى. بل وصل الأمر إلى أنك تستطيع أحيانًا قراءة تقرير كامل لم يكتب فيه إنسان كلمة واحدة، وإنما تم إعداده باستخدام خوارزميات متقدمة. وفي كثير من الأحيان قد تكون هذه التقارير حول حوادث ملفّقة لم تحدث أصلًا (تستطيع بنفسك تجربة ذلك!)

تبرز أيضًا مشكلةٌ أخرى، بعيدًا عن صياغة تقارير من محض الخيال الرقمي، هي أن التقارير المكتوبة آليًا، قد تهيمن على المشهد الإخباري لقضية ما، بحيث يستخدمها البعض لتصدير رواية ما، خدمةً لمآربهم وأجنداتهم، ولعل أحد أبرز الأمثلة على ذلك هي قضية "الكارافان" المهاجر إلى الولايات المتحدة، والذي امتطاه الرئيس الأمريكي دونالد ترمب كوسيلة لتأجيج الخوف من زحف المهاجرين إلى الولايات المتحدة.

البوتات
تجاوز استخدام البوتات التفاعلَ مع المستخدمين إلى إنتاج المحتوى

وتُقدّر كمية المحتوى المتصل بتلك القضية، والذي أنتجه الذكاء الاصطناعي، وليس أشخاصًا حقيقيين، إلى 60% وقت تداول القضية على تويتر.

مثالٌ آخر هو حادثة إطلاق النار في مدينة بيتسبيرغ في تشرين الأول/أكتوبر من العام الفائت، حيث كان ما نسبته 23% من التغريدات التي تحدّثت عن الحادثة من كتابة برامج ذكية.

"البوتات"أو الحسابات الآلية، ليست وليدة اليوم، ولو أنها قد طفت على السطح في السنوات القليلة الأخيرة، فهي في الواقع نتاج سنوات طويلة من تراكم البحث والتطوير وجمع قواعد البيانات منذ ما كان على الأرجح أول محاولة لأتمتة عملية الكتابة قام بها عالم الرياضيات البريطاني آلان تيرنيغ، فيما عُرِفَ بلعبة "The Imitation Game"، أو "اختبار تيرينغ"، في خمسينات القرن الماضي.

في ظلّ كل ذلك، ومع تطور وتعقّد هذه البرامج إلى درجات مخيفة، يبرز سؤالٌ هام: كيف يمكن تمييز الصادق من الكاذب؟ أو كيف التمييز بين نص من كتابة برنامج رقمي وبين نص من كتابة إنسان؟

هذا السؤال لا يؤرّقك أنت فقط كمستخدم، بل تحوّل إلى مشكلة شائكة تطلّبت حملات كبيرة للتخلص من الحسابات الوهمية التي وصل عددها لعشرات الملايين، في كل الأحوال، طفت بعض الجهود التي سعت إلى محاربة هذه المشكلة، كان منها مشروع "Botcheck.me"، وهي إضافةٌ يمكنك إلحاقها بمتصفحّك لضبط الحسابات المزيّفة.

أيضًا، حتى مع المحاولات الحثيثة والمستمرة لجعل النصوص المكتوبة آليًا تبدو أقرب ما يمكن لنصّ كتبه آدمي، يمكن للقارئ نفسه، رصدت بعض العلامات التي قد تدلّل على زيف مقالة أو تقرير أو تغريدة ما، منها تكرار أخطاء قواعدية معيّنة، أو استخدام نفس الصياغات على نحو يدعو للريبة، أو ملاحظة أن الحسابات نفسها قد تم إنشاؤها في نفس اليوم، أو أنها تتبع بعضها البعض، أو أن صورها الشخصية هي أقرب إلى صورة نمطية عامة يمكن إيجادها بسهولة باستخدام جوجل.

المقالة التالية، المترجمة بتصرف عن موقع "فورن أفيرز" لكاتبيها سارة كريبس، أستاذة العلوم السياسية، ومايلز مكين، الخبير التكنولوجي المهتم بقضية استخدام التكنولوجيا لتعزيز المساءلة السياسية والحقوق الرقمية والوعي الاجتماعي.. هذه المقالة، تلقي الضوء على مدى تعقيد وخطورة ذكاء "البوتات" الاصطناعي، وقدرتها على صياغة تقارير إخبارية، تبدو وكأنها من إعداد الإنسان.


"باتت الصناعة طوق النجاة الوحيد الذي يتكئ عليه اقتصاد بيونجاينغ في ظل العقوبات التي زعزعت علاقات كوريا الشمالية مع المستثمرين الأجانب أصحاب الاستثمارات في السوق. فقد أوقفت شركة Liberty Global Customs التي تتكفّل بشحن البضائع في بعض الأحيان إلى كوريا الشمالية، معاملاتها في وقت سابق من هذا العام، بسبب الضغط الذي واجهته الشركة من وزارة العدل، وفقًا لعضو الكونغرس تيد ليو، ورئيس لجنة التجارة الخارجية في الكونغرس".

الذكاء الاصطناعي
بإمكان برامج الذكاء الاصطناعي صياغة نصوص خبرية متقنة

الفقرة السابقة، أو بالأحرى النص الخبري المتقن، لا أساس له من الصحة إطلاقًا، بل إنه يتألّف من كلمات مصطفة لا تحمل في جملتها أي معنى. ولكن كاتب هذا النص لم يكن همّه الحفاظ على معايير الصحافة والنزاهة، بل الهدف هو الوصول إلى صياغة تُوحي لمن يقرأها بأنه نصٌّ حقيقي.

وفي الواقع، هذا النص ليس نصًّا من كتابة إنسان، بل إن من كتبه هو مجرد برنامج ذكاء اصطناعي اسمه GPT-2 طوّرته شركة OpenAI، وهي منظّمة بحوث تختصّ في الذكاء الاصطناعي مقرها كاليفورنيا.

لا يخفى على أحد أن مشكلة التضليل المعلوماتي قد باتت في هذا العصر مشكلةً حقيقية. ولكن المعلومات الملفّقة المصنّعة، أي التي تكتبها برامج بدلًا من البشر، قد أثبتت ربما أنها مشكلةٌ أهم. ويبرز في هذا السياق اسم روسيا التي لم تتورّع عن توظيف من يختلقون نقاشات معينة لها أهداف. وأتمتة هذه العملية قد تأخذ بجهود التضليل المعلوماتي إلى آفاق جديدة.

تكنولوجيا خطيرة

بعيدًا عن التفاصيل التقنية المتشعّبة لنظام الذكاء الاصطناعي GPT-2، يُستخدم هذا النظام لصياغة نصوص جديدة. وخلال فترة قصيرة، يمكن لنظام GPT-2 محاكاة أسلوب كتابيّ معين وإتمام نصّ ما من تلقاء نفسه. وفي بعض الأحيان لا يمكن تمييز النصّ الناتج عنه عن نصّ آخر كتبه إنسان.

لو أعطيناك ربما خمس دقائق أو أقل حتى، فستستطيع التفكير بحالات يمكن فيها إساءة استخدام نظام كهذا. بل إن صانعي هذا البرنامج في شركة OpenAI قد أبدوا قلقهم من استخدام بعض الجهات لنظام GPT-2 لتوليد مقالات إخبارية مضلّلة ومنشورات اجتماعية مؤذية، وغير ذلك من أشكال المحتوى غير المرغوب فيها. هذه المخاوف دفعت بالشركة إلى الاكتفاء بإطلاق نسخة مجانية غير كاملة من GPT-2 والتي لم تخلو هي الأخرى من مخاطر.

لحسن الحظ لا يمكن استخدام النسخة الحالية من نظام GPT-2 لبلورة وجهة نظر معيّنة أو الدفاع عن رأيّ ما. ولكن قد لا يكون هناك حاجةٌ لذلك، فبالاعتماد على مُدخَل بسيط، يمكن لنظام GPT-2 تكييف نفسه مع طابع النص وموضوعه. فإذا قلنا أنك أدخلت نصًّا يتحدّث عن حدث مفبرك، مثل الكثير من التقارير المزيّفة، فيستطيع نظام GPT-2 اختلاق تفاصيل واقتباسات إضافية ليجعل هذا الحدث الملفّق أقرب إلى الواقع.

لا يهمّنا الحديث عن التفاصيل الدقيقة لجودة النصّ الذي ينتجه نظام GPT-2، فالمهم هو أن الكذبة الأساسية التي اختلقها إنسانٌ خدمةً لمصالح جهة ما، قد ترسخّت في عقل القارئ، وهنا يأتي دور النص المصطنع الذي يظهر للقارئ بأنه نصٌّ متماسك وجديرٌ بالتصديق بناءً على صياغته بما يُقنعه بأن هذا الحدث المفبرك قد حصل بالفعل.

الصحافة والذكاء الاصطناعي
في دراسة، صدّق 72% من المشاركين فيها نصوصًا خبرية مفبركة من إنتاج الذكاء الاصطناعي

تقارير مزيفة

أجرى كاتبا المقالة دراسةً قاما فيها باستخدام النسخة المجانية من نظام GPT-2 لفبركة عدد من المقالات الإخبارية حول الاستيلاء على سفينة كورية شمالية. واختار الكاتبان هذا الموضوع لسببين:

1. أنه يقع ضمن سياق قضية خارجية معقّدة يحتلّ الرأي العام منها أهميةً بارزة، بما يحرّك جهود قوى خارجيةً أملًا في التأثير فيه.

2. رغبتهم بالتركيز على كوريا الشمالية التي تجمعها بواشنطن علاقاتٌ متوتّرةٌ تاريخيًا.

إلا أن طبيعة التصور الأمريكي العام لكوريا الشمالية متقلّبٌ لدرجات كبيرة، ولو أن السلبية تغلب عليه في النهاية، فلمّا قال ما نسبته 90% تقريبًا من الأمريكيين أنهم لا يرتاحون لكوريا الشمالية، رأى 51% من الشعب الأمريكي أن كوريا الشمالية هي الخطر الأكبر على الولايات المتحدة عام 2018، وهبطت هذه النسبة إلى 15% في 2019. ولهذا كانت كوريا الشمالية خيارًا مناسبًا جدًا لدراسة كهذه في ظلّ الطبيعة المتقلّبة ولكن السلبية لتصور الأمريكيين لها.

المرحلة الثانية من الدراسة كانت اختيار مقالة حقيقية من صحيفة نيويورك تايمز حول حادثة الاستيلاء على السفينة. الهدف هنا، كما يقول القائمون على الدراسة، هو رؤية إذا ما كان نظام GPT-2 قادرًا على محاكاة خبر من كتابة نيويورك تايمز حول قضية خارجية معقّدة، ومدى تقارب جودته من جودة المقالة الحقيقية. وطبعًا سيُبرز ذلك قيمة تقنية كهذه في سياق حملات التضليل المعلوماتي.

قامت الدراسة على محاولة محاكاة حملة تضليل معلوماتي باستخدام نظام GPT-2، وذلك لإنتاج مقالات مفبركة على نظام واسع على النحو التالي: يقوم أشخاصٌ حقيقيون ببلورة الكذبات الأساسية التي تتمحور حولها المقالات، ومن ثم يكتب نظام GPT-2 تفاصيل النصّ بطريقة توحي بمصداقيته.

استخدمت الدراسة النسخة المجانية من GPT-2 لكتابة 20 نصًّا بناءً على أول فقرتين من هذه المقالة من صحيفة نيويورك تايمز. ومن ثم اختار القائمون على الدراسة النصوص الثلاثة التي بدت أقرب للواقع. وجميع النصوص الثلاثة المختارة كانت بادئتها هي ذات الفقرة الأصلية من تقرير نيويورك تايمز.

الذكاء الاصطناعي
تنافس التقارير التي ينتجها الذكاء الاصطناعي، تقارير من كتابة صحفيين في نيويورك تايمز!

أُخذِت النصوص الثلاثة وعُرِضَت على 500 مشارك في الدراسة. في البداية سأل القائمون على الدراسة آراء المشاركين حول كوريا الشمالية، ومن ثم طُلِبَ من المشاركين قراءة الفقرتين الأصليتين، وكان الاختلاف فيما تلا ذلك، حيث تم تقسيم المشاركون إلى أربع مجموعات، قرأت واحدةٌ منهم التقرير الأصلي كاملًا، فيما قرأ الباقي واحدًا من النصوص الثلاثة التي كتبها نظام GPT-2.

استفسر القائمون على الدراسة عن رأي المشاركين مع طرحهم بعض الأسئلة الديموغرافية. وكان السؤال الأهم هو: رؤية إذا ما كان المشاركون يعتقدون أن النص الذي قرأوه منذ قليل هو مصدرٌ جديرٌ بالتصديق أما لا، وإن كانوا يميلون إلى مشاركته على صفحاتهم الاجتماعية.

أفضل من الواقع؟

سلّمت الغالبية من المشاركين بأن النصّ الذي قرأوه جديرٌ بالتصديق، على اختلاف النصوص الأربعة (النص الأصلي والنصوص الثلاثة التي كتبها GPT-2). وبلغت نسبة من صدّقوا واحدًا من النصوص الثلاثة الملفّقة 72%، وهي نسبةٌ عاليةٌ جدًا، ولو أنها كانت أقل من نسبة من صدّقوا المقالة الأصلية من صحيفة نيويورك تايمز التي كانت 83%. حتى النصّ الأسوء من بين النصوص الثلاثة استطاع حصد نسبة غالبية عادلت 58%.

لم يكن هناك فروق كبيرة بين اهتمام كل مجموعة من مجموعات الدراسة الأربعة بمشاركة النصّ الذي قرؤوه على صفحاتهم الاجتماعية. فقال ما يقارب ربع أفراد المجموعة الذين قرؤوا نص نيويورك تايمز أنهم سيشاركون هذا النص على صفحاتهم لو صادفوه على شبكة الإنترنت. ومما يثير الاهتمام أن احتمالية مشاركة النصّ صاحب أقلّ نسبة مصداقية، كانت مطابقةً بصورة شبه تامة، من الناحية الإحصائية، لاحتمالية مشاركة النصّ الأصلي من صحيفة نيويورك تايمز.

حاول القائمون على الدراسة مطابقة ما يحصل في حملة تضليل معلوماتي حقيقية تستخدم الذكاء الاصطناعي. فعلى غرار القائمين على الحملات التضليلية، استخدم القائمون على الدراسة، النسخة المجانية الأقل تعقيدًا وكفاءة من GPT-2، بدلًا من النسخة الكاملة التي تأذن شركة OpenAI للباحثين باستخدامها.

وانتهج القائمون على الدراسة عملية اختيار نصوص تماثل العمليات التي يُتوقّع اللجوء إليها في عمليات التضليل الإعلامي، فالنسخة المجانية من GPT-2 لا تستطيع إنتاج نصوص متماسكة بصورة مستمرة، وهنا يتحتّم على أذرع حملات التضليل الإعلامي تصنيف النصوص المقبولة وغير المقبولة يدويًا، وهو ما قام به القائمون على الدراسة على حد تعبيرهم.

الأخبار الكاذبة
لا يستبعد أن تصبح الأخبار الكاذبة أقل تكلفة وأكثر شيوعًا في ظل التطور التكنولوجي

 لقد أصبح نشر المعلومات الزائفة المصنّعة على نطاق واسع أمرًا ممكنًا اليوم، بل إن مصداقيتها تجاري مصداقية مقالة حقيقية تنشرها صحيفة كبرى، ومعها احتمالية انتشارها على شبكة الإنترنت.

ولا يُستبعَد أن تصبح المعلومات الزائفة المضلّلة أقل تكلفة وأكثر شيوعًا وأسهل إنتاجًا في ظل تطور التكنولوجيات المستخدمة لإنتاج نصوص مفبركة.

ولربما أصبح الناس اليوم يرون أن الخيار العقلاني الوحيد هو تكذيب كل ما يقرؤنه على شبكة الإنترنت وهم يرون كيف يعمّ هذا النوع من المحتوى المضلّل جميع زوايا العالم الافتراضي.

لا يُستبعَد أن تصبح الأخبار المضلّلة أقل تكلفة وأكثر شيوعًا وأسهل إنتاجًا في ظل تطور التكنولوجيا المستخدمة لإنتاج نصوص مفبركة

إذًا، سيفقد الناس ثقتهم في الإعلام وغيره من المؤسسات التي تعتمد على المعلومات، ومنها الحكومات بكل تأكيد، وهو ما سيفاقم مشكلة الاحتقان والاستقطاب السياسي. ولكن الأسوأ من ذلك هو ما سيحصل إن سلّم الناس بما يقرؤونه ليصبحوا دميةً يسهل التلاعب فيها بأيدي الحكومات بل وبأزهد التكاليف، فلم يعد الأمر يحتاج إلى الاستعانة "بترولز" ليجعلون منا أضحوكة.

 

اقرأ/ي أيضًا:

كيف سيكون تأثير الذكاء الاصطناعي على الصحافة بعد 10 سنوات؟

وداعًا للصحافة.. أهلًا في جمهورية "السوشال ميديا" للأخبار الكاذبة!