الارشيف / منوعات

إسرائيل تستخدم الذكاء الاصطناعي لتحديد الآلاف من أهداف القصف في غزة |تفاصيل

كتابة سعد ابراهيم - في كشف غير مسبوق، كشفت مصادر استخباراتية مشاركة بشكل وثيق في الحملة العسكرية الإسرائيلية على غزة، عن استخدام قاعدة بيانات للذكاء الاصطناعي تسمى “لافندر”. » حدد هذا النظام الذي لم يتم الكشف عنه سابقًا عددًا مذهلاً يبلغ 37000 هدفًا محتملاً. وزعمت أن لها صلات بحماس خلال الصراع.

ووفقا لصحيفة الغارديان، تحدثت هذه المصادر بصراحة وكشفت عن الواقع المزعج لتكتيكات الحرب الإسرائيلية، مما يشير إلى أنه تم السماح عمدًا بوقوع خسائر كبيرة في صفوف المدنيين، خاصة في المراحل الأولى من الصراع. لقد قدموا الخزامى كأداة أساسية، تتجاوز الحكم البشري في تحديد الأهداف وتنفيذها.

تم تطوير لافندر بواسطة الوحدة 8200، قسم استخبارات النخبة في جيش الاحتلال الإسرائيلي، ويمثل اختراقًا كبيرًا في دمج الذكاء الاصطناعي في الحرب الحديثة. ويؤدي نشره إلى إجراء تحقيقات أخلاقية وقانونية عميقة، مما يؤدي إلى طمس الحدود بين الاستراتيجية العسكرية والتقدم التكنولوجي.

وتظهر شهادات ستة من عملاء المخابرات، التي تمت مشاركتها حصريًا مع صحيفة الغارديان، كيف قام لافندر بغربلة كميات هائلة من البيانات لتحديد عملاء حماس المحتملين، حتى أنه قام بتصنيفهم على أساس رتبهم. بالإضافة إلى ذلك، أوصى النظام بأهداف للغارات الجوية، بما في ذلك المباني السكنية التي يعتقد أن المسلحين المشتبه بهم يتواجدون فيها.

ومع ذلك، فإن هذا الكشف يثير أسئلة مثيرة للقلق حول الأضرار الجانبية التي لحقت بجيش الدفاع الإسرائيلي. وبينما يصر الجيش الإسرائيلي على أن عملياته تحترم القانون الدولي وتعطي الأولوية للدقة، فإن الشهادات ترسم صورة مختلفة. فهو يشير إلى التضحية بأرواح المدنيين سعياً لتحقيق أهداف عسكرية، ويسلط الضوء على التعقيدات الأخلاقية المتأصلة في الصراعات الحديثة.

وبينما يتصارع المجتمع الدولي مع تداعيات الحرب التي يقودها الذكاء الاصطناعي، تسلط الشهادات الضوء على الحاجة الملحة لمزيد من السيطرة والمساءلة في عملية صنع القرار العسكري. تتطلب المعضلات الأخلاقية التي يثيرها استخدام الخزامى دراسة ورصدًا متأنيين لتجنب المزيد من التآكل في حماية المدنيين في مناطق النزاع.

تسلط النتائج المحيطة باستخدام لافندر الضوء على الطبيعة المتطورة للحرب والتحديات الأخلاقية التي تفرضها التقنيات المتقدمة. إن دمج الذكاء الاصطناعي في العمليات العسكرية يسلط الضوء على الحاجة إلى ضمانات قوية لدعم حقوق الإنسان ومنع إلحاق الضرر بالمدنيين في أوقات النزاع.

Advertisements