لا ريب في أن أجهزة الاستخبارات الإسرائيلية قد تعافت بعد فشلها الكارثي في 7 أكتوبر/تشرين الأول 2023، في أعقاب هجوم "حماس"، وسرعان ما ساعد التحسن الكبير في القدرات الاستخباراتية إسرائيل على تعقب وقتل كبار قادة "حماس" و"حزب الله"، بالإضافة إلى كثير من القادة والمسؤولين الآخرين في هاتين الجماعتين المسلحتين.
وستشكل الطريقة التي تمكنت بها إسرائيل من تحسين قدراتها الاستخباراتية في فترة زمنية قصيرة موضوعا للنقاش بين المختصين لسنوات مقبلة. ومن العوامل الرئيسة التي يجب مناقشتها هو الذكاء الاصطناعي وكيفية استخدام إسرائيل لهذه التكنولوجيا في دورة الاستخبارات لتحقيق أهدافها العسكرية في غزة ومناطق أخرى.
أهداف "حماس"
لنعد إلى أمثلة إسرائيل والأسطول الخامس، ثم نضعها في سياق أوسع. بعد فترة وجيزة من 7 أكتوبر، بدأت إسرائيل تعتمد على الذكاء الاصطناعي لإنتاج أهداف لحركة "حماس"، وزادت وتيرة هذه العملية مع استمرار الحرب وارتفاع الضغط السياسي لتقليص القدرات العسكرية للحركة.
كان للذكاء الاصطناعي دور بارز في جميع مراحل تطوير الأهداف العسكرية الإسرائيلية. ومن خلال برنامج يُعرف باسم "لافندر"، تمكنت الوحدة 8200 في الجيش الإسرائيلي من إنشاء قاعدة بيانات ضخمة تضم أفرادا يُحتمل أن يكونوا أعضاء في "حماس" وميليشيات أخرى. وعلى الرغم من أن دقة هذا البرنامج ليست مثالية، فإنه حقق- وفقا لمشغلي "لافندر"- معدل دقة يبلغ 90 في المئة. وبالإضافة إلى "لافندر"، استخدم الإسرائيليون نظاما آخر لدعم اتخاذ القرار يعتمد على الذكاء الاصطناعي يُسمى "غوسبل"، ويقدم هذا النظام توصيات بشأن البنية التحتية المادية بدلا من الأفراد. كما استخدمت إسرائيل طائرات دون طيار ذاتية القيادة في الاشتباكات ضمن الأماكن المغلقة لاستهداف الأفراد في غزة ولبنان، ولتأكيد مقتلهم بعد الاشتباك. من الأمثلة الحديثة على الاشتباكات المدعومة بالذكاء الاصطناعي استخدام إسرائيل لطائرة دون طيار جرى توجيهها إلى مبنى في رفح، حيث يُرجح أن زعيم "حماس"، يحيى السنوار، كان جالسا على كرسي، ثم قُتل بعد وقت قصير من ذلك.
قدرة الذكاء الاصطناعي على إنتاج آلاف الأهداف للجيش الإسرائيلي تمثل تغييرا جوهريا في مجال العمليات العسكرية. ومع ذلك، فإن الطريقة التي استخدم بها ضباط الاستخبارات الإسرائيليون وقادتهم هذه المعلومات تثير قلقا عميقا وقد تتناقض مع القانون الدولي. ذلك أن امتلاك كم هائل من المعلومات بفضل الذكاء الاصطناعي شيء واستخدامها بطريقة مسؤولة ووفقا للمعايير والقوانين الدولية شيء آخر تماما، ولا سيما أن التزام إسرائيل بالقانون الإنساني الدولي في غزة ولبنان هو في الأساس محل شك كبير.
القرار البشري
ومع ذلك، من العبث إلقاء اللوم على الذكاء الاصطناعي في العدد الكبير من المدنيين الذين قُتلوا على يد إسرائيل في غزة ولبنان، فالقرار البشري يلعب الدور الرئيس هنا. في المراحل الأولى من الصراع في غزة، اختارت إسرائيل تخفيف معايير الاستهداف، أي تخفيف القواعد التي تضمن عادة ضربات دقيقة وتقليل الضرر المدني. بيد أن الهجمات المدعومة بالذكاء الاصطناعي تتطلب استخداما أقل للموارد البشرية، في حين أن العمليات الاستخباراتية "المنظمة" تحتاج إلى المزيد من القوى العاملة والموارد المالية بالإضافة إلى استشارات قانونية. عرّض القصف العشوائي الذي نفذته إسرائيل أعدادا كبيرة من المدنيين للخطر، ولكن ذلك حصل بموافقة السلطات الإسرائيلية، على الرغم من أن هذه الموافقة تغيرت خلال الحرب بناء على الإدانات الدولية والضغط الأميركي.
ومن المتوقع أن تعتمد الجيوش حول العالم بشكل متزايد على الذكاء الاصطناعي، سواء في عملياتها الدفاعية أو الهجومية، لتحقيق أهدافها. ومع ذلك، هناك عدة تحديات تلوح في الأفق، بعضها تقني والبعض الآخر يتعلق بالجوانب القانونية والأخلاقية.
وبالرغم من أن قدرات الذكاء الاصطناعي مثيرة للإعجاب، فإنها لا تخلو من العيوب (وهي أمور سيواصل المطورون معالجتها، مثل أي تقنية أخرى). فمثلا، الذكاء الاصطناعي ليس ذكيا كما يبدو. إذا ما كلّف بمهمة معالجة صورة معينة، وانحرفت تلك المهمة قليلا عن مجموعة التدريب (مجموعات البيانات) التي بني وطوّر بناء عليها، فقد يواجه صعوبة أو يفشل في تحديد المحتوى بدقة. يكفي وجود إضاءة سيئة، أو زاوية غير مألوفة، أو جزء محجوب من الصورة لتشويش النظام. يمكن معالجة هذه العيوب من خلال تدريبات أكثر شمولية وخصوصية للبرمجيات، ولكن النقطة الأساسية هي أن الذكاء الاصطناعي لن يتجاوز ما طُلب منه القيام به. لذلك، تبقى الكتابة البشرية والتعليمات أمورا بالغة الأهمية.
مهمات محدودة
وعلى الرغم من أن الذكاء الاصطناعي يعمل بجهد كبير، فإن قدراته على إدارة المهمات المتعددة محدودة. ففي سياق العمليات الاستخباراتية، يمكن للإنسان تحديد الهدف، واختيار السلاح الأنسب، والتنبؤ بمسار الهدف، وأخيرا ضربه، وهي مهام متعددة يجريها بتناغم. بينما لا يستطيع نظام ذكاء اصطناعي واحد القيام بهذه المهام جميعها في الوقت نفسه. يمكن لمجموعة من أنظمة الذكاء الاصطناعي تنفيذ هذه المهام، حيث تتولى نماذج منفصلة مهامَ مختلفة، ولكن تحقيق هذا التزامن يشكل تحدياً تكنولوجياً كبيراً ويتطلب تكاليف عالية. وحتى الآن، لم نصل إلى هذه المرحلة من التطور التكنولوجي.
ستواجه الجيوش حول العالم ضغوطا تنافسية لزيادة اعتمادها على الذكاء الاصطناعي. فالرغبة في الحصول على الأفضلية في اتخاذ القرارات في حالات السلم والأزمات والحروب ستكون دائما موجودة
كما لا يمكن للذكاء الاصطناعي وضع الأمور في سياقها أو التمييز بين الترابط والسببية، فهذه المهارات حكر على البشر. على سبيل المثال، تلك الصورة التي يحاول الذكاء الاصطناعي التعرف عليها تبقى لغزا بالنسبة للتكنولوجيا، إذ يقتصر دوره على تحليل نسيج وتدرجات "اهتزازات الصورة" دون إدراك ماهيتها أو معناها. إذا قدمت تلك التدرجات نفسها في سياق مختلف، فمن المحتمل أن يخطئ الذكاء الاصطناعي في التعرف على أجزاء من الصورة بشكل دقيق. وبينما يتمتع الذكاء الاصطناعي بكفاءة عالية في اكتشاف الأنماط، فإنه يفتقر إلى القدرة على تفسير سبب حدوثها أو ما تؤدي إليه. ما يبدو منطقيا بالنسبة لنموذج الذكاء الاصطناعي قد يكون غير منطقي أو غير ذي أهمية بالنسبة للبشر.
إن كيفية اتخاذ الذكاء الاصطناعي لقراراته، والمرتبطة بالتحديات المذكورة أعلاه، تمثل نقطة ضعف كبيرة ومشكلة محتملة. الكثير مما يحدث داخل نظام الذكاء الاصطناعي يمثل صندوقا أسود، حيث يوجد القليل جدا مما يمكن أن يفعله الإنسان لفهم كيفية اتخاذ النظام لقراراته. هذا الأمر يمثل قضية خطيرة بالنسبة للأنظمة عالية الخطورة مثل تلك التي تتخذ قرارات الاشتباك أو تلك التي تُستخدم مخرجاتها في عمليات اتخاذ القرار الحاسمة. إن القدرة على مراجعة وفحص النظام ومعرفة سبب ارتكابه لخطأ ما أمر مهم من الناحيتين القانونية والأخلاقية.
ومع ذلك، وعلى الرغم من هذه العيوب والتحديات والشكوك، ستواجه الجيوش حول العالم ضغوطا تنافسية لزيادة اعتمادها على الذكاء الاصطناعي. فالرغبة في الحصول على الأفضلية في اتخاذ القرارات في حالات السلم والأزمات والحروب ستكون دائما موجودة. لا أحد يريد أن يتخلف عن الركب، خاصة في هذه البيئة ذات التنافسية الشديدة بين القوى العظمى.
وختاما، يمكن أن تسهم تحسينات التعليم والتدريب في معالجة وتخفيف بعض نقاط الضعف والمخاطر المتعلقة بالذكاء الاصطناعي. وفي المجال العسكري، لا بد من أن يكون هناك إشراف وتدخل بشري أكبر لتقليل احتمالية الأخطاء والتقليل من تداعياتها. ومن الضروري أن يقوم البشر بتحديد المعايير والمتطلبات لأنظمة الذكاء الاصطناعي.