هل يمكن مراقبة مولدات صور الذكاء الاصطناعي التي تُزيّف صور الأطفال؟

محمد الرخا - دبي - الثلاثاء 23 أبريل 2024 02:13 مساءً - يستخدم المعتدون على الأطفال تكنولوجيا الذكاء الاصطناعي لإنشاء نسخ مزيفة من ضحاياهم من أجل ابتزازهم، وهذا يؤدي إلى دورة من الابتزاز والاستغلال يمكن أن تستمر لسنوات.

Advertisements

ويعد إنشاء صور محاكاة الاعتداء على الأطفال غير قانوني في المملكة المتحدة، ويتفق كل من حزب العمال والمحافظين على حظر جميع الصور الصريحة التي يتم إنشاؤها باستخدام الذكاء الاصطناعي لأشخاص حقيقيين.

ومع ذلك، هناك نقص في الإجماع العالمي حول كيفية تنظيم هذه التكنولوجيا، فحتى مع وجود إجراءات حكومية قوية، ما زال من السهل إنشاء المزيد من الصور المزيفة التي ينتجها الذكاء الاصطناعي.

وتوصل باحثون في جامعة ستانفورد إلى اكتشاف "مزعج" في ديسمبر، حيث وجدوا حالات من مواد الاعتداء الجنسي على الأطفال (CSAM) مدفونة ضمن مليارات الصور التي تشكل واحدة من أكبر مجموعات التدريب لمولدات صور الذكاء الاصطناعي.

وقال الباحثون إنه من الصعب تحديد عدد الحالات الأخرى التي قد تكون موجودة، إذ تحتوي قاعدة البيانات، المعروفة باسم "لايون"، على حوالي 5 مليارات صورة، ما يجعل من المستحيل مسحها يدويًّا.

وكان على الباحثين أتمتة عملية المسح الضوئي ومطابقة الصور المشكوك فيها مع السجلات التي تحتفظ بها جهات إنفاذ القانون، ثم قاموا بتسليم هذه الصور إلى السلطات لمراجعتها، وسحب مبتكرو "لايون" مجموعة البيانات من التحميل، مؤكدين على أنهم لم يقوموا بتوزيع الصور الفاضحة بل قدموا فقط عناوين وروابط لصور مستضافة في مكان آخر على الإنترنت.

ومع ذلك، وقع الضرر، لأن مولدات صور الذكاء الاصطناعي المدربة على "لايون" 5B تستخدم على نطاق واسع على مستوى العالم، ما يعني أن بيانات التدريب غير المشروعة مدمجة في شبكاتها العصبية، ويمكن لهذه المولدات إنشاء محتوى فاضح للبالغين والأطفال على حد سواء لأنهم تعرضوا لها.

و"لايون" ليست مجموعة البيانات الوحيدة التي تعاني من مثل هذه المشاكل، فقد استُخدمت معظم مجموعات البيانات، بما في ذلك النشر المستقر، في أبحاث الذكاء الاصطناعي مفتوحة المصدر، وتم الوصول إليها على نطاق واسع.

بيانات نظيفة

في المقابل، تقدم شركات مثل OpenAI معلومات محدودة حول مصادر بيانات التدريب الخاصة بها، وتنفذ آليات تصفية إضافية لإبقاء مولدات الذكاء الاصطناعي الخاصة بها خالية من المحتوى الفاضح.

ويعد ضمان مجموعة بيانات نظيفة تمامًا أمرًا صعبًا، وهذا هو السبب في أن منظمات مثل OpenAI تدعو إلى فرض قيود وآليات تصفية.

وفي حين أن مثل هذه الأساليب قد تكون أقل هشاشة، إلا أن البعض يجادل بأن النماذج التي لم تتعرض للصور الخادشة قد تواجه صعوبة في التعرف عليها في العالم الحقيقي أو اتباع التعليمات الخاصة بالإبلاغ عنها.

ويمثل تحقيق التوازن بين الحاجة إلى تطوير الذكاء الاصطناعي المفتوح المصدر ومنع الضرر تحديًا حاسمًا. وفي الوقت الحالي، يستهدف الحظر المقترح في المقام الأول الأدوات المصممة لغرض معين، ولكن مكافحة الصور الخادشة للذكاء الاصطناعي على المدى الطويل تثير أسئلة معقدة حول تقييد نظام لم يتم فهمه بالكامل بعد.

ويتطلب الحد من إساءة استخدام تكنولوجيا الذكاء الاصطناعي تنسيقًا وتعاونًا عالميًا لمعالجة هذه القضية الملحة.