مع تطورات جديدة «ديب سيك» الصينية تكشف عن آلية تصفية بيانات نماذجها... وتقر بمخاطر "الهلوسة"، نقدم لكم كل ما تحتاجون إلى معرفته بشكل شامل ودقيق عن هذه التطورات ليوم الخميس 4 سبتمبر 2025 02:13 صباحاً
كشفت شركة "ديب سيك" (DeepSeek) الصينية الناشئة، والمتخصصة في تقنيات الذكاء الاصطناعي، عن تفاصيل جديدة بشأن كيفية ترشيحها للبيانات المستخدمة في تدريب نماذجها اللغوية، في خطوة تهدف إلى تعزيز الشفافية وسط تصاعد المخاوف من مخاطر "الهلوسة" و"الإساءة" المرتبطة بهذه النماذج.
وفي وثيقة رسمية نُشرت يوم الإثنين، أوضحت الشركة، التي تتخذ من مدينة هانغتشو مقرًا لها، أنها جمعت بياناتها التدريبية من مصادر متاحة للعامة، بالإضافة إلى بيانات من جهات خارجية مصرح باستخدامها، مشددة على أنها لم تكن تنوي تضمين أي معلومات شخصية في قواعد بياناتها.
رقابة مشددة وفلترة متعددة المراحل
وأشارت "ديب سيك" إلى أنها تطبق فلاتر آلية لإزالة المحتوى غير المرغوب فيه، مثل خطاب الكراهية والمحتوى الإباحي والعنيف والرسائل المزعجة، إضافة إلى أي مواد قد تنتهك حقوق الملكية الفكرية. كما تخضع البيانات لمراجعة مزدوجة تشمل الكشف الخوارزمي والمراجعة البشرية، لضمان الحد من التحيزات الإحصائية المحتملة في مجموعات البيانات واسعة النطاق.
ورغم هذه الإجراءات، أقرت الشركة بأن مشكلة "الهلوسة" – وهي توليد نماذج الذكاء الاصطناعي لمعلومات غير دقيقة أو مضللة – لا تزال قضية قائمة ولا يمكن تجنبها بالكامل، مؤكدة أنها تستخدم تقنيات متقدمة، منها التوليد المعزز بالاسترجاع (RAG)، للحد من هذا الخطر.
تراجع في الاستخدام وسط فضائح معلومات مضللة
وبحسب بيانات موقع "Aicpb" المختص بمتابعة شعبية منتجات الذكاء الاصطناعي، شهدت "ديب سيك" انخفاضًا في عدد الزيارات الشهرية لموقعها الإلكتروني على مدى خمسة أشهر متتالية، حيث بلغ إجمالي عدد الزيارات في يوليو نحو 345 مليون زيارة فقط، في تراجع ملحوظ يعزى جزئيًا إلى فضائح معلومات مضللة تورط فيها روبوت الدردشة الخاص بالشركة.
ومن أبرز تلك الحوادث، انتشار شائعة في يوليو مفادها أن نموذج "ديب سيك" وجه إساءات علنية لشخصية صينية مشهورة، مما أثار جدلًا واسعًا عبر الإنترنت.
تعزيز الشفافية ومواجهة "الإساءة"
في محاولة للرد على الانتقادات، أعلنت "ديب سيك" عبر منشور على منصة "وي شات" أنها ستعمل على تصنيف المحتوى المُولّد بالذكاء الاصطناعي بوضوح، ومنع أي محاولات للتلاعب أو حذف هذه التصنيفات، بهدف مواجهة ما وصفته بـ"الارتباك العام والمعلومات المضللة".
وتعليقًا على هذه الخطوة، قال الدكتور جلعاد أبيري، أستاذ القانون بجامعة بكين، إن "ديب سيك" تمثل حالة مثيرة للاهتمام في سياق النماذج النصية المفتوحة المصدر، مشيرًا إلى أن غياب البيانات الوصفية في النماذج النصية يُضعف من فعالية الوسم، ما يُعقد جهود التحقق من المحتوى.
المخاطر قيد المراقبة
وحددت "ديب سيك" قائمة من المخاطر المرتبطة باستخدام الذكاء الاصطناعي، تضمنت الخصوصية، وحقوق النشر، وسلامة المحتوى، والتحيّز، والتمييز، مشددة على أن التكنولوجيا بحد ذاتها محايدة، لكن مخاطرها تنبع من التطبيق العملي وسوء الاستخدام.
وقال سكوت سينجر، الباحث في مؤسسة كارنيغي للسلام الدولي، إن وثيقة "ديب سيك" تنسجم مع التوجه العام للصناعة الصينية، والتي تركز على المخاطر قصيرة المدى مثل الخصوصية وسلامة البيانات، أكثر من القلق من سيناريوهات الكوارث المستقبلية.
للحصول على تفاصيل إضافية حول «ديب سيك» الصينية تكشف عن آلية تصفية بيانات نماذجها... وتقر بمخاطر "الهلوسة" - الخليج الان وغيره من الأخبار، تابعونا أولًا بأول.