الذكاء الاصطناعي تحول في استراتيجية إسرائيل العسكرية (1)
بواسطة :
خاصة أن الذكاء الاصطناعي طور أنماط الصراع من خلال تمكين سرعة وحجم من العمليات لم يسبق لهما مثيل. لكن يتعين علينا الا نغفل أنها تأتي على حساب الدقة والفحص الإنساني والحماية المدنية. يشكل الذكاء الاصطناعي في الحروب سابقة عالمية خطيرة، حيث تختبر ساحة معركة حية حدود الأتمتة في القتل، مع عواقب إنسانية وقانونية وأخلاقية سوف تتردد أصداؤها لفترة طويلة بعد انتهاء المواجهات الحالية.
وتبحث هذه الورقة في كيفية استخدام إسرائيل للذكاء الاصطناعي في المواجهات العسكرية على جبهات متعددة، بعد أكتوبر 2023م، مع مناقشة المصادر والأطراف الفاعلة والتحديات الأخلاقية المصاحبة لذلك.
استخدامات إسرائيل العسكرية للذكاء الاصطناعي
من المعروف أن إسرائيل تعد من الدول الرائدة المعترف بها في مجال التكنولوجيا العسكرية، خاصة أنها طورت واختبرت أنظمة ذكاء اصطناعي مثل «الغيمة» (Habsora/The Cloud) و«منارة» (Al-Mankub/Menachem) التي تم تصميمها لمعالجة كميات هائلة من البيانات، على مستوى المراقبة والتنصت وإشارات الاستخبارات؛ لتحديد الأهداف المحتملة أسرع من أي محلل بشري. ووفقاً لتقارير سابقة لـ «+972 Magazine» و«Call» فقد ساهمت هذه الأنظمة في عمليات الاستهداف خلال الجولات السابقة من الصراع.
ومع هذا، كشفت هجمات 7 أكتوبر عن فجوات خطيرة في المنظومة الأمنية الإسرائيلية، التي كانت تعتمد بشكل مفرط على التكنولوجيا لمراقبة النقاط الحدودية مثل «الجدار الذكي» دون وجود عنصر استطلاع بشري كافٍ لتفسير البيانات بشكل صحيح. مما دفع المؤسسة العسكرية إلى مضاعفة اعتمادها على الذكاء الاصطناعي، ولكن مع التركيز على السرعة والحجم والدقة في الرد، مما أدى إلى دخول هذه التقنيات مرحلة جديدة أكثر كثافة وتأثيرا.
التطبيقات الأساسية للذكاء الاصطناعي في المواجهات
الاستهداف والتحليل الاستخباراتي المتسارع: أصبحت أنظمة مثل «الغيمة» أكثر مركزية من أي وقت مضى. وفقاً لتقارير في «The Guardian» و«+972 Magazine» التي تقوم بإنشاء «قوائم اغتيال» شبه آلية، بناءً على تحليل البيانات. بعد تغذيتها بمعايير محددة مثل الارتباط المعروف بحماس، أو سلوك مشبوه في صور الأقمار الصناعية، أو أنماط اتصال. ومن ثم تقترح عشرات الآلاف من الأهداف المحتملة للاستهداف، بما في ذلك منازل يعتقد أن مقاتلين يستخدمونها ضد إسرائيل.
وقد ذكرت منظمات لحقوق الإنسان في إسرائيل أن هذه الطريقة أدت إلى زيادة هائلة في عدد الأهداف المحددة، مما ساهم في ارتفاع عدد الضحايا المدنيين، خاصة إن الدقة البشرية في التحقق من كل هدف أصبحت ثانوية أمام عامل السرعة والكم والعدد المستهدف.
الحرب الإلكترونية والهندسة الاجتماعية: يستخدم الجيش الإسرائيلي الذكاء الاصطناعي لمهام أكثر تعقيداً مثل «انتحال الهوية» و«إنشاء محتوى صوتي ومرئي مزيف» (Deepfakes). فقد أفادت تقارير لـ «Bloomberg» أن الوحدات الإلكترونية الإسرائيلية تستخدم الذكاء الاصطناعي لمحاكاة أصوات قادة حماس، أو إرسال رسائل نصية مزيفة إلى مقاتليهم بهدف خداعهم، أو إثارة الذعر والارتباك في صفوفهم.
العمليات اللوجستية والروبوتات: تستخدم إسرائيل الذكاء الاصطناعي لتحسين سلاسل الإمداد وتخطيط المسارات للقوات داخل غزة، نظرا لأنها بيئة معقدة وخطيرة. إضافة إلى أنه يتم نشر المزيد من الأنظمة الآلية والروبوتات المسيرة ذاتية التشغيل للمراقبة، أو حتى القتال في الأنفاق والمناطق التي تشكل خطراً كبيراً على جنودها.
التعاون بين الجيش وقطاع التكنولوجيا العسكرية (Mil Tech)
لم يقم الجيش الإسرائيلي بهذا التحول بمفرده. فقد اعتمد على شركات التكنولوجيا المحلية «وادي السيليكون الإسرائيلي» ووحدات الخريجين من الوحدات (technology)النخبوية بالجيش مثل «وحدة 8200» بعد السابع من أكتوبر، إذ تمت دعوة العديد من الخبراء التقنيين من القطاع الخاص؛ للانضمام إلى فرق الطوارئ «غرف الحرب التكنولوجية» للمساعدة في تطوير حلول فورية. وكذلك بعض الشركات الناشئة المتخصصة في تحليل البيانات، والرؤية الحاسوبية، ومعالجة اللغة الطبيعية للعمل مباشرة مع الجهات الأمنية، مما يخلق تكاملاً بين القطاعين المدني والعسكري بشكل غير مسبوق.
التحديات والانتقادات الأخلاقية والقانونية:
يشكل الاستخدام المكثف للذكاء الاصطناعي مصدر قلق لكثير من المنظمات الحقوقية والخبراء القانونيين الدوليين؛ لعدة أسباب، منها:
نزع الصفة الإنسانية عن القتل: حذرت منظمات مثل «هيومن رايتس ووتش» من أن الآلية الجزئية لعملية الاستهداف تقلل من قيمة التدخل البشري ذي المغزى (Human in the loop) مما يجعل قرار الحياة والموت مجرد نتيجة خوارزمية إحصائية.
الضحايا المدنيون والتناسب: يؤدي الاعتماد على الخوارزميات إلى زيادة هائلة في عدد الضربات، ولكن مع معدلات خطأ عالية في البيئات المزدحمة بالمدنيين. غالباً ما تكون البيانات غير كاملة، أو سياقية،
الغموض والمساءلة: عندما يتم اتخاذ قرار قاتل بمساعدة خوارزمية مغلقة المصدر، يصبح من الصعب تحديد المسؤولية في حالة الخطأ: هل هو المبرمج، أم الضابط الذي وافق على الهدف، أم الخوارزمية نفسها؟ وهذا ما يشكل تحدياً جوهرياً للقانون الدولي الإنساني.