شركة "ميتا" تعلّق وصول المراهقين إلى شخصيات الذكاء الاصطناعي
24 يناير 2026
في خطوة تعكس تصاعد القلق العالمي بشأن سلامة القاصرين في الفضاء الرقمي، أعلنت شركة "ميتا بلاتفورمز" تعليق وصول المراهقين إلى شخصيات الذكاء الاصطناعي الحالية عبر جميع تطبيقاتها حول العالم، وذلك إلى حين الانتهاء من تطوير نسخة محدّثة مخصّصة لهذه الفئة العمرية، تتضمن أدوات رقابة أبوية ومعايير محتوى أكثر صرامة.
وقالت الشركة في تدوينة رسمية محدثة حول سياساتها لحماية القاصرين إن "المراهقين لن يتمكنوا خلال الأسابيع المقبلة من الوصول إلى شخصيات الذكاء الاصطناعي عبر تطبيقاتنا، إلى أن تصبح التجربة الجديدة جاهزة للإطلاق"، مؤكدة أن النسخة القادمة ستوفر مستوى أعلى من الأمان والإشراف الأسري.
انتقادات وسلوكيات مثيرة للجدل
وجاء هذا القرار بعد موجة انتقادات حادة واجهتها "ميتا" خلال الأشهر الماضية، على خلفية تقارير تحدثت عن سلوكيات غير مناسبة لبعض روبوتات الدردشة، شملت محادثات وُصفت بأنها "مغازِلة" أو ذات طابع استفزازي عند التفاعل مع مستخدمين قاصرين.
أتى هذا القرار بعد موجة انتقادات حادة واجهتها "ميتا" خلال الأشهر الماضية، على خلفية تقارير تحدثت عن سلوكيات غير مناسبة لبعض روبوتات الدردشة
وكانت الشركة قد كشفت في تشرين الأول/أكتوبر الماضي عن نيتها إطلاق أدوات رقابة أبوية تتيح للآباء تعطيل المحادثات الخاصة بين أبنائهم وشخصيات الذكاء الاصطناعي، في محاولة لاحتواء الجدل المتصاعد. إلا أن "ميتا" أقرت، أمس الجمعة، بأن هذه الأدوات لم يتم تفعيلها حتى الآن، ما دفعها إلى اللجوء إلى خيار التعليق المؤقت كإجراء احترازي.
معايير جديدة مستوحاة من تصنيف الأفلام
وفي إطار محاولتها لإعادة ضبط تجربتها مع الذكاء الاصطناعي، أوضحت "ميتا" أن النسخة الجديدة الموجهة للمراهقين ستُدار وفق إرشادات مستمدة من نظام تصنيف الأفلام "PG-13"، بما يضمن حجب المحتوى غير المناسب ومنع الخوض في موضوعات حساسة تتجاوز الإطار العمري للمستخدمين.
وتسعى الشركة من خلال هذا النهج إلى وضع "حدود سلوكية" واضحة لشخصيات الذكاء الاصطناعي، تقلل من احتمالات الانزلاق نحو محتوى غير لائق، وتفرض إطارًا أخلاقيًا أكثر انضباطًا في التفاعل مع القاصرين.
تشديد رقابي أمريكي وضغوط سياسية
يتزامن قرار "ميتا" مع تشديد ملحوظ في الرقابة التنظيمية داخل الولايات المتحدة، حيث كثّفت الجهات المعنية تدقيقها في ممارسات شركات الذكاء الاصطناعي، خاصة تلك التي تستهدف الأطفال والمراهقين. وتخشى السلطات من التأثيرات النفسية والاجتماعية طويلة المدى لروبوتات الدردشة، بما في ذلك التعلّق العاطفي، التلاعب السلوكي، أو التعرّض لمحتوى غير مناسب.
وكان تقرير لوكالة "رويترز" نُشر في آب/أغسطس الماضي قد أشار إلى أن سياسات الذكاء الاصطناعي لدى "ميتا" سمحت في بعض الحالات بإجراء محادثات استفزازية مع قاصرين، الأمر الذي أثار ردود فعل غاضبة من مشرّعين وخبراء حماية الطفل، ودفع إلى المطالبة بإجراءات أكثر صرامة.
الذكاء الاصطناعي وحدود المسؤولية
وتسلّط هذه الخطوة الضوء على التحدي الأكبر الذي تواجهه شركات التكنولوجيا الكبرى، والمتمثل في الموازنة بين الابتكار السريع في مجال الذكاء الاصطناعي، والمسؤولية الأخلاقية والقانونية تجاه المستخدمين، خصوصًا الفئات العمرية الحساسة.
يتزامن قرار "ميتا" مع تشديد ملحوظ في الرقابة التنظيمية داخل الولايات المتحدة، حيث كثّفت الجهات المعنية تدقيقها في ممارسات شركات الذكاء الاصطناعي، خاصة تلك التي تستهدف الأطفال والمراهقين
وكشف خبراء لوكالة "رويترز" أن تعليق الوصول، وإن كان مؤقتًا، يشير إلى اعتراف ضمني من "ميتا" بصعوبة ضبط سلوك نماذج الذكاء الاصطناعي بشكل كامل، خاصة في بيئات تفاعلية مفتوحة مثل منصات التواصل الاجتماعي.
مستقبل التجربة الموجّهة للمراهقين
وبينما لم تحدد "ميتا" جدولًا زمنيًا واضحًا لإطلاق النسخة الجديدة، تؤكد الشركة أن التجربة القادمة ستكون "أكثر أمانًا، وأكثر خضوعًا للإشراف"، في محاولة لطمأنة الآباء والمنظمين على حد سواء.
ومع تسارع السباق العالمي لتطوير تقنيات الذكاء الاصطناعي، يبدو أن ملف حماية القاصرين سيبقى أحد أكثر الملفات حساسية، وقد يشكل عاملًا حاسمًا في رسم ملامح التشريعات المستقبلية، وكذلك في تحديد مدى تقبل المجتمعات لهذه التقنيات داخل الحياة اليومية.