01-أكتوبر-2023
سجن رجل كوري استخدم الذكاء الاصطناعي لإنشاء صور جنسية للأطفال

(Getty) سجن رجل كوري استخدم الذكاء الاصطناعي لإنشاء صور جنسية للأطفال

لا ريب أنّ نماذج الذكاء الاصطناعي قدّمت فوائد جمة للمستخدمين منذ ظهور أولِها في العام الماضي، فهي تُيسر أداء الوظائف اليومية وتختصر جهدهم ووقتهم. لكنّ بعض الأشخاص، من أصحاب النوايا الفاسدة، يستغلون هذه التكنولوجيا المتطورة في سلوكيات منحرفة تلحق ضررًا كبيرًا بالناس الأبرياء.

ففي حدث لافت للاهتمام، أوردت بعض وسائل الإعلام المحلية في كوريا الجنوبية خبرًا مفادُه سجن رجل كوري بتهمة استخدام الذكاء الاصطناعي لإنشاء صور جنسية فاضحة للأطفال، ولم يذكر اسم الرجل ولا تفاصيل أخرى عن حياته، وإنما قيل إنّه أدين بانتهاك قانون حماية الأطفال والشباب، وحكم عليه بالسجن مدة سنتين ونصف السنة.

وذكر مكتب المدعي العام الكوري أنّ الرجل استخدام أحد برامج الذكاء الاصطناعي لإنشاء قرابة 360 صورة جنسية فاضحة، وهو إلى ذلك احتفظ بتلك الصور دون أن يوزعها للآخرين، ثم ما لبثت الشركة أنْ صادرتها جميعها. ولمّا بحث المحققون في العبارات التي أدخلها الرجل في برنامج الذكاء الاصطناعي لإنشاء الصور، تبين لهم أنه كتب كلمات مثل: "10 أعوام" و"هاري" و"طفل". ومن هذا المنطلق قضت المحكمة بأنها أدلة واقعية، وبذلك ردّت ادعاءات محامي الدفاع بأنّ هذه الصور لا تعد محتوى جنسيًا.

أوردت بعض وسائل الإعلام المحلية في كوريا الجنوبية خبرًا مفادُه سجن رجل كوري بتهمة استخدام الذكاء الاصطناعي لإنشاء صور جنسية فاضحة للأطفال

ولم يغفل مكتب المدعي العام عن الإشارة إلى قرار المحكمة الذي يبرهن أن هذه الصور زائفة واصطناعية، غير أنّها مصممة بتكنولوجيا مرتفعة الجودة وتنطوي على طبيعة واقعية تكفي لتصنيفها ضمن المحتوى المرتبط بالاستغلال الجنسي.

ولا تعدّ هذه الحادثة الأولى من نوعها التي يُستَغلّ فيها الذكاء الاصطناعي لغايات منحرفة؛ ففي وقت سابق من شهر أيلول/سبتمبر الفائت، ضجّت بلدة إسبانية صغيرة بخبر إنشاء صور عارية لفتيات صغيرات باستخدام الذكاء الاصطناعي، ثم توزيعها في بعض مدارس البلدة، وقد جرى التعرف لاحقًا على أكثر من 20 ضحية تراوح أعمارهن بين 11 و17 عامًا.

ونشرت بعض التفاصيل عن حادثة الفتيات؛ إذ تبين أنّ الصور زُيّفت باستعمال تكنولوجيا التزييف العميق المتاحة في Clothoff، وهو تطبيق مدعوم بالذكاء الاصطناعي يسمح للمستخدمين إزالة ملابس الفتيات من صورهن مجانًا! فالمجرم أخذ صور الفتيات، وهنّ كاسيات، من حساباتهم في منصات التواصل الاجتماعي، ثم نزع ملابسهن باستخدام التطبيق ونشر الصور علنًا.

وعلى العموم يقصد بتكنولوجيا التزييف العميق (Deepfake) استخدام الذكاء الاصطناعي لإنشاء محتوى مرئي (فيديو وصور) أو صوتي جديد وواقعي لم يحدث فعلًا في الحقيقة؛ أي كما فعل المجرمون مع الفتيات في البلدة الإسبانية. وتنطوي هذه التكنولوجيا على أخطار كثيرة، أبرزها إنشاء مواد إباحية للأشخاص دون درايتهم أو إذنهم.

وفي هذا الصدد يقول مكتب التحقيقات الفيدرالي: "لا يتوقف مكتبنا عن تلقي تقارير وشكاوى من ضحايا، سواء القاصرين أم البالغين، ممن أُخِذَت صورهم وفيديوهاتهم دون إذنهم ومعرفتهم، ثم جرى تعديلها وتحويلها إلى محتوى فاضح. والغالب أنّ المجرمون ينشرون تلك الفيديوهات والصور لاحقًا في منصات التواصل الاجتماعي أو المواقع الإباحية، فهم يرمون بأفعالهم إلى مضايقة الضحايا أو ابتزازهم ماديًا وجنسيًا".