18-فبراير-2019

أصبح الذكاء الاصطناعي قادرًا على إنتاج محتوى صحفي وإبداعي (Pinterest)

إليكم نموذج من الأخبار العاجلة الكاذبة التي يمكن للذكاء الاصطناعي إنتاجها:

"أعلنت روسيا الحرب على الولايات المتحدة الأمريكية، بعد أن أطلق دونالد ترامب بطريق الخطأ صاروخًا في الهواء. وقالت روسيا إنها حددت مسار الصاروخ، وستتخذ التدابير اللازمة لضمان أمن السكان الروس والمقرات النووية الإستراتيجية للبلاد".

بات الذكاء الاصطناعي قادرًا على إنتاج قصص خبرية بشكل كامل من الكتابة والتحرير باحترافية، الأمر الذي يثير القلق من تطور مضمار الأخبار الكاذبة

هذا الخبر ليس مزورًا فحسب، بل هو مثال مثير للقلق عن مدى جودة القصة الإخبارية التي يمكن أن ينتجها الذكاء الاصطناعي لخداعنا. نعم، فهذه القصة الخبرية لم يكتبها شخص، بل كُتبت آليًا من خلال خوارزمية تغذت على هذه العبارات وملايين أخرى تشببها. وهناك جمل أخرى كُتبت بنفس الجودة في الصياغة عن حرب بين روسيا والولايات المتحدة قام الذكاء الاصطناعي بتحريرها بنفسه!

اقرأ/ي أيضًا: السوشيال ميديا.. مارد الأخبار الكاذبة الذي يسكن يومياتنا

معهد الأبحاث والدراسات الذي قام بتطوير الذكاء الاصطناعي الذي أنتج هذا الخبر، هو "OPEN AI"، ويقع مقره في سان فرانسيسكو بالولايات المتحدة. وقام هذا المعهد بتطوير برنامج قادر على إنتاج أي قصة خبرية، وتطويرها بنفسه، بحسب ما أوردت تقارير إخبارية.

وكان الباحثون في المعهد قد شرعوا في تطوير خوارزمية لغوية ذات أغراض عامة، تقوم بشكل مبدئي -بعد تغذيتها بملايين العبارات والجمل- بأعمال الترجمة والإجابة على الأسئلة، وتنفيذ مهام أخرى.

إلى أي مدى قد تصل قدرات الذكاء الاصطناعي؟

السؤال الأول الذي قد يخطر ببال القارئ هو: إلى أي مدى يمكن للذكاء الاصطناعي توليد أخبار كاذبة مميزة ومتماسكة، وقادرة على خداع الناس، ونشر البلبلة بينهم، والتأثير على الرأي العام؟ 

الذكاء الاصطناعي
في وقتٍ ما قريب سيستبل الصحفي الإنسان بالذكاء الاصطناعي

الإجابة عند جاك كلارك، مدير السياسيات بمعهد الأبحاث "OPEN AI"، الذي خاض هذه التجربة. يقول كلارك: "بدأنا في اختبار الذكاء الاصطناعي. واكتشفنا بسرعة أنه من الممكن أن يُنشء محتوى ضار وبسهولة". 

ويضيف كلارك: "إن برنامج الذكاء الاصطناعي ليس قادرًا فحسب على توليد الأخبار الكاذبة، بل على تقليد منشورات مواقع التواصل الاجتماعي، أو أي محتوى نصّي آخر، مثل الفضائح الانتخابية مثلا". 

مع ذلك، ثمة بعض المشكلات التي تواجه برنامج الذكاء الاصطناعي كما أشار كلارك، فلا يزال البرنامج في حاجة إلى إدخال تعديلات برمجية عليه، ومع ذلك فهو يعتقد أنه لن يحتاج إلى وقت طويل قبل أن يتمكن من إنتاج قصص مزيفة مقنعة، وتغريدات ومنشورات وهمية على السوشيال ميديا.

يقول كلارك: "من الواضح جدًا أنه إذا نضجت هذه التكنولوجيا، في خلال سنة أو سنتين، فيمكن استخدامها في نشر المعلومات المضللة أو في الدعاية لها"، مستدركًا: "لكن نحن نحاول تجاوز ذلك".  

يعلق موقع تكنولوجي فيو المتخصص على القصة بقوله إن خوارزميات برنامج الذكاء الاصطناعي الذي يعمل عليه معهد "OPEN AI"، ليست مقنعة دائمًا بالنسبة للقارئ الواعي، فعند إعطائها أمرًا فوريًا، فإنها في كثير من الأحيان تنتج عبارات هشّة، يمكن بسهولة اكتشاف أنها ليست إلا محتوى مركب على عجل.

ورغم ذلك أقر الموقع بأن خوارزميات هذا البرنامج الذكي، قادرة في أحيان أخرى على إنتاج محتوى واقعي "يعكس التطورات الحديثة في تطبيق التعلم الآلي للغة".

محاولات تجاوز التكنولوجيا "الضارة"

بسبب المخاوف من الكيفية التي يمكن بها إساءة استخدام تكنولوجيا الذكاء الاصطناعي في البرنامج الذي أنتجه معهد "OPEN AI"، فإنه سوف يتيح نسخة مبسطة فقط من التطبيق للجمهور. 

وفي هذا الصدد يقول ريتشارد سوشتر، الخبير في مجال معالجة اللغات الطبيعية، إن البرنامج الذي أنتجه معهد "OpenAI"، هو "مثال جيد على نظام تعلم الآلة للغة، وإجادة استخدامها".

لكن مع ذلك يقلل سوشتر من قدرات البرنامج على الخداع والتضليل، قائلًا إن "البشر بأنفسهم قادرون على فعل التضليل والخداع ببراعة. وهو أمرٌ واقعي نعيشه".

هل سينافس الذكاء الاصطناعي الإنسان في العمل الصحفي؟

أوردت صحيفة الغارديان البريطانية، ما يفيد بأن جمعية الصحافة البريطانية، سوف تعهد إلى روبوتات الذكاء الاصطناعي كتابة آلاف القصص الخبرية المحلية. 

وبدعم من شركة جوجل، ستطلق الجمعية الصحفية بالتعاون مع شركة ناشئة تدعى "Urbs Media"، مشروعًا يهدف إلى استخدام الذكاء الاصطناعي في إنتاج آلاف القصص الخبرية لصالح وسائل إعلام محلية.

وبشكل أولي سيتمثل دور الذكاء الاصطناعي في زيادة المحتوى الخبري، وإنشاء الرسومات ومقاطع الفيديو والصور لإضافتها للقصص الصحفية، فيما سيبقى الاعتماد على الصحفيين في اكتشاف المحتوى الأساسي والمعلومات الأولية للقصص والأخبار.

الذكاء الاصطناعي
يسعى الإنسان لإنتاج الذكاء الاصطناعي الذي قد يسطو على أدواره الجوهرية في العالم

هذا المشروع، والتوسع في مشروعات مماثلة، قد يُشجع المؤسسات الصحفية على الاستغناء عن الصحفيين، والاستعانة بدلًا عن ذلك بالذكاء الاصطناعي.

وتثار مخاوف من مثل هذه المشاريع، استنادًا إلى معضلة أخلاقية تتمثل في التخلي عن العنصر البشري، وكذلك انعدام وجود الوازع الأخلاقي لدى خوارزميات الذكاء الاصطناعي حين إنتاجها للقصص الصحفية.

"شيلي" تكتب قصص الرعب

لا يقتصر الأمر على الأخبار الكاذبة فقط، بل يمتد لقصص الرعب كذلك، فبعدما كان ينظر تقليديًا إلى الكتابة الإبداعية بوصفها مجالًا جوهريًا للبشر، طُوّرت خوارزميات لبرنامج ذكاء اصطناعي أطلق عليه اسمه "شيلي - Shelley"، تيمنًا بماري شيلي مؤلفة قصة فرانكشتاين.

ولدى الذكاء الاصطناعي المسمى شيلي حساب على تويتر، ينشر قصص رعب يؤلفها، بالاعتماد على مساهمات المستخدمين بإنهاء قصصه وجعلها متماسكة.

واللافت في الأمر أن شيلي انتقائية، فهي لا تكمل قصصها بأي مساهمة من أي مستخدم، بل تنتقي المساهمات الأكثر أهمية وإبداعًا، والأكثر حصولًا على الإعجابات والمشاركات.

وشيلي هي إحدى مشروعات مختبر "MIT MEDIA LAB". وتنشر قصة جديدة على تويتر كل ساعة، بالطريقة سابقة الذكر. وينتبه المتابعون لحساب تشيلي، مدى تطورها المستمر في إنتاج وصياغة قصص الرعب، والتفاعل مع مساهمات المستخدمين!

"تشيلي - Shelley" هو نموذج لبرنامج ذكاء اصطناعي خالص يؤلف وينشر قصص رعب احترافية عبر حساب على موقع تويتر

المثير للانتباه وربما الاستغراب، هو رغبة الإنسان وسعيه حثيثًا على تطوير ذكاءٍ اصطناعي قد يسطو في مرحلة ما على أدوارٍ أساسية للإنسان نفسه في العالم، ما قد يدفع بالإنسان إلى هامش الفعل والممارسة والتأثير، لصالح ما أنتجته يده يومًا، وتكفلت البيانات والذكاء الذاتي للخوارزميات، في تطويره، وربما سيادته!

 

اقرأ/ي أيضًا:

كيف سيكون تأثير الذكاء الاصطناعي على الصحافة بعد 10 سنوات؟

كيف يعيد الذكاء الاصطناعي إنتاج القمع السياسي في العالم؟