البث المباشر

تقارير تكشف استخدام الاحتلال نظام الذكاء الاصطناعي في مجازره ضد غزة

السبت 6 إبريل 2024 - 19:45 بتوقيت طهران
تقارير تكشف استخدام الاحتلال نظام الذكاء الاصطناعي في مجازره ضد غزة

أعرب الأمين العام للأمم المتحدة، أنطونيو غوتيريش، عن قلقه الشديد من التقارير التي تفيد بأن الجيش الإسرائيلي يستخدم الذكاء الاصطناعي لتحديد الأهداف التي ينوي قصفها في قطاع غزة ما يؤدي إلى أعداد مرتفعة من الضحايا المدنيين.

وشدّد غوتيريش على أنه "يجب استخدام الذكاء الاصطناعي بصورة خيّرة، وليس من أجل إدارة حرب على مستوى صناعي وتعمية المسؤولية".

وكان إعلام الاحتلال قد تحدث عن استخدام "الجيش" الإسرائيلي في حملة القصف الجوي على القطاع، نظام ذكاء اصطناعي، "سمح للإسرائيليين بقتل المدنيين أثناء ملاحقة المقاتلين الفلسطينيين".

وجاء ذلك في تقرير اعتمد على شهادة 6 ضباط استخبارات إسرائيليين، شاركوا في العدوان على قطاع غزة، وفي استخدام النظام المذكور، ونُشِرَ التقرير في موقعَي "+972 ماغازين" و"لوكال كول" الإسرائيليين، يوم الأربعاء الماضي.

وكشف التقرير أنّ "جيش" الاحتلال حدّد "عشرات الآلاف" من سكان غزة باعتبارهم "أهدافاً مشتبه بهم من أجل اغتيالهم"، باستخدام نظام يعمل بتقنية الذكاء الاصطناعي مع القليل من الإشراف البشري، ومع اتباع "سياسات متساهلة" في ما يتعلق بعدد الضحايا المدنيين.

وأوضح التقرير أنّ نظام الذكاء الاصطناعي يُعرَف باسم "لافندر" وقد طوّرته الوحدة "8200" (استخبارات النخبة)، وبحسب شهادة الضباط الستة، فإنّ "لافندر" أدرج نحو 37 ألف فلسطيني كأهداف، بزعم انتمائهم إلى حركتي "حماس" أو "الجهاد" الفلسطينيتين.

وبحسب التقرير، فإن هذا النظام كان يُستخدم بشكل مساعد فقط، ولكن مع بداية الحرب الحالية سمح باستخدامه بشكل شامل، حيث قالت المصادر إنه منذ تلك اللحظة، إذا قرر "لافندر" أن شخصاً ما كان مسلحاً في حماس، يُطلب منهم التعامل مع ذلك كأمر، من دون الحاجة إلى التحقق بشكل مستقل عن سبب قيام الآلة بهذا الاختيار أو فحص البيانات الاستخباراتية الأولية التي تعتمد عليها.

وأكد التقرير أنّ "جيش" الاحتلال فضل استخدام الصواريخ غير الموجهة فقط، والمعروفة باسم القنابل "الغبية" (على عكس القنابل الدقيقة "الذكية")، في ضرب الأهداف التي يختارها "لافندر"، وبرر المصدر ذلك بقوله "أنت لا تريد أن تهدر قنابل باهظة الثمن على أشخاص غير مهمين، فهي مكلفة للغاية بالنسبة لنا، وهناك نقص في تلك القنابل".

ومع استخدام القنابل "الغبية" التي تدمر منازل بأكملها وتقتل كل ساكنيها، كان يُسمح للجندي الإسرائيلي خلال الغارة الجوية الواحدة التي تستهدف مقاتلاً واحداً حدده برنامج الذكاء الاصطناعي، بقتل 15 أو 20 مدنياً، وكان اتخاذ القرار بذلك يستغرق 20 ثانية فقط، بحسب التقرير.

ويقول ضابط إسرائيلي استخدم نظام "لافندر"، إنّ النظام الآلي ليس مثل الجندي، مضيفاً "الآلة تقوم بالأمر ببرود، وهذا جعل الأمر أسهل".

وأقر ضابط الاستخبارات الإسرائيلي، أن الفارق الزمني بين تحديد الهدف وضربه الذي يحصل عادةً في الليل، كان يعني أن العنصر المحتمل في حماس أو الجهاد، والذي حدده برنامج الذكاء الاصطناعي بهامش خطأ يصل إلى 10 %، ليس موجوداً داخل منزله، ما يعني أن الضحايا هم عائلته فقط، وهو ما وصفه الضابط بـ"الأضرار الجانبية" التي أعادها إلى "عدم وصول المعلومات في وقتها الحقيقي".

وصرح المتحدث باسم الأمن القومي في البيت الأبيض، جون كيربي، أمس الجمعة، بأن الولايات المتحدة تراجع تقريراً يفيد بأن "الجيش" الإسرائيلي يستخدم الذكاء الاصطناعي لتحديد الأهداف التي يقصفها في غزة.

وينص مبدأ التمييز في النزاعات المسلحة غير الدولية على أن كل الأشخاص من غير الأعضاء في القوات المسلحة التابعة للدول، أو من غير العناصر في جماعات مسلحة منظمة تابعة لأحد أطراف النزاع، هم أشخاص مدنيون، وبالتالي يتمتعون بالحماية من الهجمات المباشرة، الأمر الذي يعني أن قتلهم يُعَدّ جريمة حرب.

شاركوا هذا الخبر مع أصدقائكم

جميع الحقوق محفوظة