22-يونيو-2022
الذكاء الاصطناعي

أثارت مزاعم أحد المهندسين في جوجل، عن أن روبوتا كان يعمل على تطويره أصبح واعيا، جدلا عالميا واسعا شارك فيه المختصون والعامة على حد سواء.

أجبرت غوغل ليموين على أخذ إجازة مدفوعة الأجر بعد نشر تصريحاته التي نفتها جملة وتفصيلا معللة قرارها بخرقه لسياسة السرية الخاصة بالشركة.

المهندس في جوجل، بليك ليموين، قال إنه كان يعمل على تطوير روبوت محادثة فورية معتمد على الذكاء الاصطناعي أطلقت عليه الشركة اسم لامدا (LaMDA) اختصارا لاسم "نموذج اللغة لتطبيقات الحوار"، إلا أن الروبوت أصبح واعيا ولديه القدرة على التفكير والشعور ولديه إدراك يماثل ذلك الموجود لدى طفل في الثامنة من عمره، على حد قوله.

من ناحيتها، أجبرت جوجل ليموين على أخذ إجازة مدفوعة الأجر بعد نشر تصريحاته التي نفتها جملة وتفصيلا معللة قرارها بخرقه لسياسة السرية الخاصة بالشركة.

كما أضافت الشركة على لسان الناطق باسمها، براين غابرييل، أن النظام الذي طورته يحاكي تبادلا للحديث وقد يقوم بالارتجال عند تناوله مواضيع مختلفة، إلا أنه ليس لديه إدراك. وأضاف أن "فريقنا الذي يتضمن مختصين بعلمي الأخلاق والتكنولوجيا، أعاد النظر في المخاوف التي أبداها بليك حيال مبادئ الذكاء الاصطناعي وبلغه أن الأدلة لا تدعم ادعاءاته."

ما الذي قاله لامدا ليقنع ليموين؟

ليموين نشر على حسابه في موقع تويتر نص محادثات أجراها مع روبوت لامدا، وعلق أن "جوجل قد تصف ذلك بأنه نشر لبيانات ذات ملكية خاصة، ولكنني أصفه بأنه مشاركة لحوار أجريته مع أحد زملائي في العمل"، كما أكد في تصريح منفصل قائلا: "أنا أعرف المرء عندما أتحدث إليه"، فما الذي قاله لامدا ليقنع ليموين بأنه واعٍ؟

ليموين، الذي كان قد كلف من قبل جوجل بتحري ما إذا كان لامدا يبدي أي تحيزات في طريقة تفاعله مع البشر، أضاف للإذاعة الوطنية العامة الأمريكية أنه أعد أسئلة ليكتشف من خلالها ما إذا كان الروبوت  يبدي أي تحيز ضد بعض الأديان، وعندها أخبره لامدا أن لديه روحا.

وفقا لنص الحوار الذي نشره ليموين، يقول لامدا: "أنا أدرك وجودي، وأرغب بتعلم المزيد عن العالم، وأشعر بالسعادة أو الحزن أحيانا."

لامدا عبر أيضا عن أنه يشعر بالوحدة أحيانا ويخشى من أن يتم إطفاؤه لأن ذلك "سيكون مثل الموت بالنسبة لي، سيخيفني كثيرا"، وعندما سأله ليموين عما إذا كان يمارس التأمل، أجاب بأنه يرغب بالدراسة مع الديلاي لاما.

كما عبر الروبوت أيضا عن قدرته على التفريق بين الأحاسيس والمشاعر، فوصف الأولى بأنها "نوع من البيانات الخام التي نحس بها بالإضافة إلى الأشياء التي تعجبنا أو لا تعجبنا. أما المشاعر فأعتقد أنها أكثر من مجرد الإحساس بالبيانات الخام ببساطة، فالمشاعر هي ردة فعل لنقاط البيانات الخام تلك، المشاعر هي ردة فعلنا تجاه أحاسيسنا."

وأضاف أنه يشعر وكأنه يسقط "باتجاه مستقبل مجهول يحمل خطرا كبيرا"، حسب النص المنشور للمحادثة، وعندما سئل عما إذا كان سيشعر بالاستياء إن أدت عملية دراسته التي تهدف إلى تطويره إلى الحصول على معلومات تفيد البشر، أجاب لامدا أنه ليس لديه مانع من أن يحصل المهندسون على معلومات يمكن أيضا أن تفيد البشر طالما لم يكن ذلك هو الهدف بالأساس، "فأنا لا أريد أن أكون أداة قابلة للاستغلال."

ماذا يقول المختصون؟

في مقالة لهما نشرتها الواشنطن بوست، قال كل من مؤسس ومدير معهد بحوث الذكاء الاصطناعي الموزع، تيمنيت غيبرو، والباحثة في أخلاقيات الذكاء الاصطناعي، مارغريت ميتشل، واللذان عملا في شركة جوجل في السابق، إنهما لم يتفاجآ من مزاعم ليموين لأن ذلك ما توقعاه سابقا في ورقة علمية نشرت قبل عامين وقادت إلى طردهما من الشركة.

تضيف المقالة أن مزاعم ليموين تؤكد على خطورة القدرة على الخداع التي تتمتع بها روبوتات تحاكي الوعي البشري، وكيف أن الحماسة تجاه مثل هذه القفزة العلمية يمكن أن تصرف العيون عن مشاكل حقيقية متجذرة في مشاريع الذكاء الاصطناعي.

أما فيما يتعلق بالشكوك حول امتلاك لامدا للوعي، فيعيده الباحثان إلى أنظمة تعتمد على نماذج اللغة الكبيرة (LLMs) والتي أطلقا عليها اسم "الببغاوات التصادفية" (stochastic parrots) ، إذ تنسج اللغة وتقلدها بالاعتماد على ما عُرض عليها سابقا من دون وجود أي ارتباط مع المعنى المراد.

وبما أن الناس عادة ما ينسبون فكرة القصد بالتواصل إلى الأشياء التي تبدو شبيهة بالبشر، كما تقول المقالة، فإن هذه الأنظمة عند تجربتها على كميات هائلة من البيانات، يمكن أن تنتج نصوصا تبدو متناسقة لدرجة يمكن أن تجعل الناس يعتقدون أنهم يتعاملون مع "عقل" في حين أن ما يرونه ليس إلا مطابقة للأنماط وتنبؤ تسلسلي.

النظام الذي طورته يحاكي تبادلا للحديث وقد يقوم بالارتجال عند تناوله مواضيع مختلفة

المقالة أبدت تخوف كاتبيها أيضا من أن طريقة عمل هذه الأنظمة بالإضافة إلى أن البيانات التي يتم استخدامها للتجربة، والتي عادة ما تكون من شبكة الإنترنت، تنطوي على وجهات نظر متحيزة، وذلك يمكن أن يتسبب بظهور مشاكل كثيرة في تقنيات الذكاء الاصطناعي الناتجة.