تخبرنا العمليات العسكرية التي تجري على أكثر من جبهة في العالم من أوكرانيا حتى غزة أن عصرا جديدا من الحروب باستخدام الذكاء الاصطناعي قد أصبح واقعا لا يمكن التنكر له أو الاستهانة به. وعلى الرغم من الاتجاهات المتداخلة والمتغيرة في هذا العصر الجديد من عسكرية، واقتصادية، وأخلاقية، إلا أن الثابت الوحيد الذي يبرز كتحدٍ مُلحٍ هو سرعة الاختراق الذي يحققه الذكاء الاصطناعي في القطاع العسكري بشكل لا تواكبه المنظومات السياسية والعسكرية القائمة ولا حتى البنى المؤسساتية والأخلاقية.
هناك تسابق محموم بين الدول المتقدمة إلى إحداث طفرات متسارعة في إدماج الذكاء الاصطناعي في المنظومات القتالية لديها وهو الأمر الذي استتبعه ظهور تخوفات جدية من أن البشرية على أعتاب تسابق تسلح "ذكي" ربما يكون له تبعات خطيرة على النظام الدولي ومراكز القوى فيه على المدى المنظور.
وفي ظل غياب توافق بين الدول العظمى على أسس ناظمة لتأطير دمج واستخدام الذكاء الاصطناعي في الحروب بما يضمن عدم الإخلال بالمبادئ المكتسبة لحقوق الإنسان وقواعد السلم والحرب، فإن القوى الأسبق في عملية الدمج هذه هي التي سيكون لها اليد العليا في رسم سياسات ومنهجيات وقواعد استخدام الذكاء الاصطناعي في الحرب من حيث الممارسة والتطبيق.
والاستنتاج الأخير هذا يزيد من قتامة المشهد من ناحية أن أي تبنٍ جديد لتكنولوجيا حديثة في العمل العسكري يطلب بشكل عام توفر شرطين اثنين يتعلق أولهما ببيئة الصراع، والآخر بالفواعل المنخرطة بالعمليات القتالية. وبالنظر إلى أن التفصيل في هذين الشرطين لا تسمح به مساحة هذا المقال، يكفي النظر إلى بيئات الصراع الساخنة على الساحة الدولية في الوقت الراهن وطبيعة الفواعل لنستنتج أن المخاوف من الذكاء الاصطناعي في الحروب حقيقية ولا يمكن الاستهانة بها.
فمن جهة الفواعل هناك لاعبون ينتمون لأنظمة شمولية لا يكترثون أبدا لقيمة الإنسان بغض النظر عن بيئة القتال أكان فيها الإنسان مقاتلا أم مدنيا مثل الصين وروسيا على سبيل المثال. وهناك لاعبون آخر ينتمون لأنظمة ديمقراطية تتشدق بحقوق الإنسان والليبرالية. وبالرغم من محاولة هؤلاء اللاعبين (مثل الولايات المتحدة وإلى حد ما إسرائيل) سن بعض القوانين الناظمة لاستخدام الذكاء الاصطناعي في المجهود الحربي، إلا أنهم في ظل شن عملياتهم ضمن بيئات يوجد فيها بشر لا يرتقون بنظرهم للإنسان بمفهومه الغربي، فإنهم لا يتورعون عن الذهاب بعيدا في استخدام التكنولوجيا بشكل ينتهك كل الأعراف الإنسانية. بالنتيجة، وإذا لم يكن هناك جهد حقيقي من قبل الدول المؤثرة تحت رعاية الأمم المتحدة لإحداث بروتكولات جدية وملزمة لترشيد استخدام الذكاء الاصطناعي في العمل الحربي فإن المستقبل سيكون قاتما بالفعل في ظل الممارسات الحالية.
في هذا السياق يكفي النظر إلى الكيفية التي استخدمت فيها إسرائيل الذكاء الاصطناعي في حربها على غزة للتأكد من أن هذه المخاوف ليست مجرد بكائيات لأشخاص يعانون من رهاب المستقبل أو لديهم عقد تكنونفسية. لقد أدى استخدام إسرائيل للذكاء الاصطناعي في حربها ضد غزة إلى اختراق كل الأعراف الدولية المتعلقة بحقوق الإنسان ومواثيق جنيف؛ وأوقعت ما بين قتيل وجريح آلاف الضحايا من المدنيين العزل. وهي بذلك تؤسس لسابقة خطيرة إذ تعتبر من أولى الدول وأكثرها تقدما في أسلحة التكنولوجيا الحديثة.
وقبل التفصيل في آليات وبروتوكولات إسرائيل في أسلحة الذكاء الاصطناعي لا بد من التوقف قليلا وتسليط الضوء على دور الذكاء الاصطناعي في آليات الحرب وبنية الجيوش الحديثة للتأكيد على فكرة رئيسية مفادها أن هذا التوجه حتمي ولا يمكن إيقافه. بمعنى أن الحل لا يكمن في دعوات إيقاف دمج الذكاء الاصطناعي ببنية الجيوش لأنها دعوات غير واقعية ببساطة، ولا تتماشى مع جوهر العصر الحديث القائم على الاستمرارية. وإنما يكمن في عمليات التقعيد والترشيد حالها كحال التكنولوجيات السابقة من شاكلة التكنولوجيا النووية والكيميائية.
ويمكن تصنيف المجالات التي يدخل فيها الذكاء الاصطناعي في العمل العسكري إلى 3 مستويات رئيسية: البنية المادية للجيوش؛ والتكنولوجيات السيبرانية؛ وأخيرا، آليات صنع القرار المتعلقة بالعمليات الميدانية.
- أولا: يمكن أن يدخل الذكاء الاصطناعي في عمليات التحكم بالأجهزة والمعدات المادية في بيئات القتال العسكرية من قبيل الأنظمة الآلية غير المأهولة. فمنذ ما يقرب من العقدين، يشهد القطاع العسكري زيادة تدريجية في استخدام الأنظمة المستقلة في أداء الوظائف القتالية التي تتراوح من أنظمة الاستهداف (بما يشمل على سبيل المثال لا الحصر أنظمة الأسلحة الفتاكة المستقلة التي تعرف بالاختصار الإنجليزي "إل إيه دبليو إس" (LAWS) أي (Lethal Autonomous Weapon System) إلى أنظمة الملاحة والقيادة على البر، والطيران والمراقبة.
- ثانيا: استخدام البرمجيات الذكية لأغراض الحرب السيبرانية وهو ما يحظى باهتمام كبير مؤخرا سواء لتعزيز الدفاع عن الشبكات العسكرية الحيوية أو لتعزيز قدرات الجيوش لشن العمليات الإلكترونية الهجومية. كما أصبح هناك اهتمام متزايد بقدرات الذكاء الاصطناعي على دعم "حرب المعلومات" (Information Warfare) وذلك من خلال سلاح حملات التضليل التي باتت تدخل أبعادا جديدة مع ما تعززه تكنولوجيات "التزييف العميق" (Deed Fake) في إنتاج محتوى دقيق مطابق للأصل. يدخل في ذلك أيضا الإمكانات الكبيرة التي تتضمنها تكنولوجيا "اللغات الكبيرة" (LLM) مثل "شات جي بي تي" وغيرها في إنتاج واسع النطاق ومعقد للمحتوى النصي الذي قد يستخدم في عمليات التضليل والكذب.
- ثالثا: يتمتع الذكاء الاصطناعي بقدرات كبيرة في دعم عملية صنع القرار بشكل عام في المجالات العسكرية الميدانية وعلى مستويات القيادة والأفراد. ويمكن للخوارزميات جمع ومعالجة كميات كبيرة من مصادر البيانات المتعلقة بالنزاعات المسلحة وتحليلها بشكل فائق السرعة من قبيل تحديد الأشخاص، والأفراد، والأشياء في ساحات النزاع، والتعرف على الأنماط السلوكية وتقييمها، أو إجراء مسوح للبيانات التاريخية وعمليات المطابقة للتوصل إلى توصيات بشأن أنجع وأسرع الإستراتيجيات والتكتيكات العسكرية لتحقيق الأهداف المرجوة ضد الخصم.
إن التحليل واسع النطاق للبيانات غير المنظمة والتي يتم الحصول عليها من مصادر نصية أو مرئية أو سمعية؛ يشكل جوهر أنظمة الذكاء الاصطناعي التنبوئية القائمة على تكنولوجيا "التعلم الآلي" (Machine Learning) و"التعلم العميق" (Deep Learning) والتي يمكن أن تعمل بديلا عن أنشطة الاستخبارات والاستطلاع العسكرية التقليدية. وتستطيع هذه التكنولوجيا إعداد قوائم الأهداف للعسكريين، واقتراح خطط إستراتيجية وتكتيكية، وأماكن نشر القوات، ومصادر التهديد وكيفية مواجهتها، وأنجع طرق الإمداد، والتعبئة وغيرها من القضايا التي تشغل ذهن القيادة العسكرية وقت الحروب.
الذكاء الاصطناعي وآليات السيطرة والتحكم
فيما يخص آليات صنع القرار وهو المجال الثالث والأكثر جدلا من بين المستويات الثلاثة، يبرز تصنيف آخر فيما يتعلق بالذكاء الاصطناعي المقترن بالعمل العسكري يتعلق بمدى السيطرة والتحكم البشريين على هذه الأنظمة الذكية. وهنا يمكن الحديث عن 4 مستويات من حيث السيطرة والتحكم:
- أولا: أنظمة التحكم المباشر. وهنا يكون للفاعل البشري كامل التدخل في عمل النظام سواء عن بعد أو من أرضية الميدان.
- ثانيا: أنظمة التحكم المشترك بمعنى أن بعض وظائف النظام يمكن أن تعمل بشكل مستقل تماما في حين تخضع وظائف أخرى لتحكم الفاعل البشري مثل الجيل الأول من الطائرات المسيرة التي تستطيع التحليق بشكل مستقل، ولكنها تحتاج إلى تدخل بشري من أجل عمليات الاشتباك مع العدو وإصابة الأهداف.
- ثالثا: الأنظمة الخاضعة للرقابة الإشرافية. وهنا يملك النظام القدرة على القيام بجميع الوظائف بشكل مستقل تماما، في حين يقتصر دور الفاعل البشري على الإشراف أو التدخل المحدود لتغذية النظام بمزيد من البيانات والمعلومات أو القيام بعمليات المراجعة والتصحيح.
- أخيرا: أنظمة التحكم المستقل تماما. هنا لا يكون للعنصر البشري أي تدخل في وظائف النظام بحيث يقوم النظام بعمليات التشغيل بشكل مستقل تماما. وبالرغم من أن هذا النوع من التحكم لم يزل في بداياته فيما يتعلق بعمل الروبوتات الفتاكة، إلا أنه في مجال التطبيقات الخوارزمية قد بدأ بالانتشار ويحرز تقدما ملحوظا. وقد كان من الملاحظ أن النوع الأخير كان جوهر توظيف إسرائيل للذكاء الاصطناعي في حربها الحالية التي تشنها على غزة.
إسرائيل والذكاء الاصطناعي الفتاك
- أولا: "أنظمة الأسلحة الفتاكة المستقلة" (LAWS)، و"أنظمة الأسلحة الفتاكة شبه المستقلة" (Semi-LAWS). فقد استخدمت إسرائيل أول مرة في غزة الطائرة المسيّرة الرباعية المدعمة بأنظمة ذكاء اصطناعي مستقلة ومزودة بأسلحة قاتلة. ويمكن لهذه الطائرة الصغيرة القيام بالعديد من المهام كأن تحل محل الجنود في الميدان، كما يمكنها القيام بتحديد الأهداف، واستهداف الأفراد بشكل مباشر، وتأمين مناطق تمركز القوات. هذا بالإضافة لاستخدامها في العمليات الاستكشافية، والوصول إلى الأهداف حتى تلك المحصنة في الأماكن المغلقة، وتفريق الحشود في الأماكن العامة. ويمكنها القيام أيضا ببعض الحيل من قبيل إطلاق أصوات شبيهة بأصوات الأطفال والنساء وذلك ضمن عمليات التمويه والاستدراج. وربما من أبرز الحوادث التي شهدت استخدام الطائرات المسيّرة الرباعية كانت أثناء المجزرة التي ارتكبتها إسرائيل ضد الفلسطينيين في 11 يناير/كانون الثاني في شارع الرشيد بالقرب من ساحل مدينة غزة.
- ثانيا: أنظمة التعرف على الوجه والمراقبة البيومترية والتي ربما تعد واحدة من أكثر تكنولوجيات الذكاء الاصطناعي جدلا لما تتضمنه من انتهاكات للخصوصية. وفي هذا السياق، أوردت صحيفة نيويورك تايمز في تقرير لها كيفية استخدام الجيش الإسرائيلي نظاما واسع النطاق للتعرف على الوجوه في غزة وذلك "لإجراء مراقبة جماعية، حيث يجمع ويصنف وجوه المدنيين الفلسطينيين بدون علمهم أو حتى موافقتهم". ووفقا للتقرير، يعتمد نظام التعرف على الوجه الإسرائيلي تقنية تنتجها شركة "كورسايت" (Corsight) الإسرائيلية و"صور غوغل" (Google Photos) لتمييز الوجوه سواء من بين الحشود أو من خلال الصور التي تلتقطها الطائرات المسيّرة وكاميرات المراقبة الموجودة على الحدود. وتعتبر البيانات التي تجمعها إسرائيل من خلال هذه التقنية من أهم الموارد التي تغذي بها نظام "لافندر" (Lavender) الذي كان له دور محوري في تحديد الأهداف في الحرب على غزة حاليا.
- ثالثا: أنظمة توليد الأهداف الآلية. وهي الأنظمة التي أثارت القلق على نطاق واسع وذلك لاعتماد إسرائيل عليها اعتمادا كبيرا في ارتكاب عمليات قتل جماعية للفلسطينيين. وقد أظهر تحقيق صحفي أورده موقعا "+972" و(Local Call) أن إسرائيل تستخدم منظومة متكاملة من البرامج من أجل رصد وتعقب واستهداف الفلسطينيين وبناهم التحتية بشكل واسع وجماعي. وقد ذكر التحقيق 3 برامج هي (Habsora)، ويستخدم لرصد البنى التحتية والمنشآت التي يستخدمها الفلسطينيون، و(Lavender)، ويستخدم في رصد وفرز الأفراد وتجهيز قوائم الأهداف، وأخيرا (Where’s Daddy) والذي يستخدم في عمليات الرصد وإعطاء أوامر الاستهداف.
بروتوكولات إسرائيل العسكرية في الذكاء الاصطناعي.. عيوب وانتهاكات
بشكل مختصر، وقبل تفنيد العيوب في بروتكولات إسرائيل العسكرية للذكاء الاصطناعي، تجدر الإشارة إلى الكيفية التي قامت فيها إسرائيل باستخدام الذكاء الاصطناعي الخاصة بأنظمة توليد الأهداف الآلية في حربها على غزة. بداية سعت إسرائيل ومن خلال برنامج (Lavender) المتخصص برصد الأهداف وتصنيفها إلى تجهيز قوائم بأسماء المشتبه بانتمائهم للجناح المسلح لحركة حماس سواء أكانوا من الرتب العليا أو المنخفضة. وقد استطاع البرنامج في الأسابيع الأولى من الحرب تجهيز قائمة تحتوي على 37 ألف هدف. بعد ذلك ومن خلال برنامج (Where’s Daddy) تقوم إسرائيل بتعقب الهدف للإجهاز عليه، وغالبا ما تكون عمليات الإجهاز أثناء وجود الهدف في بيته وبين عائلته.
من بعيد يبدو كأن الأمر يسري بطريقة سلسة وفعالة، ولكن نظرة عن كثب تظهر حجم المخالفات، والتجاوزات التي مست بشكل كبير بحقوق المدنيين في الحرب، وعكست الخلل الكبير في منظومة إسرائيل العسكرية للذكاء الاصطناعي:
- أولا: أتمتة الفاعل البشري
إن تضاءل دور الفاعل البشري في هكذا برمجيات ذكية هو أمر منطقي من حيث المبدأ. فهي برامج تعلم ذاتي بالأساس وقد وجدت من أجل التعامل مع البيانات الضخمة التي يستحيل على البشر معالجتها. ولكن ما ظهر في تعاطي إسرائيل معها مؤخرا هو أتمتة الفاعل البشري أي جعل دوره آليا وتجريده من عنصر الحكم البشري. فقد ورد في التحقيق الصحفي أن الضابط الإسرائيلي تحول إلى ما يشبه "الختم المطاطي" (Rubber Stamp) تقتصر وظيفته فقط على ختم قرارات التنفيذ بشكل يشبه عمل الروبوت. هنا نجد التأثير عكسي، فبدلا من أن يقوم الفاعل البشري بأتمتة الوظائف عبر الخوارزميات، قامت هذه الخوارزميات بأتمتة (أو روبتة) الفاعل البشر. وقد ورد في التحقيق أن الجيش اعتمد بشكل كامل على برنامج (Lavender) في اختيار الأهداف وتجهيز القوائم، ومنحها موافقته الشاملة. وإن فكرة إعطاء الموافقة الشاملة تدل على حجم تواري العامل البشري بعيدا عن صناعة القرار في سلسلة القتل. إن المسافة التي تتسع ما بين الفاعل البشري وبين فعل القتل من شأنها أن تسمح بتضخيم أعداد الضحايا الذين باتوا مجرد أرقام على شاشة إلكترونية. وهو الأمر الذي يقود للنقطة الثانية التي تتمثل بغياب التحقق وسياسة تحييد الأخلاق.
- ثانيا: غياب التحقق وتحييد الأخلاق
ورد في التقرير أن الجندي الإسرائيلي كان يحتاج إلى 20 ثانية فقط للتحقق من شرعية الهدف. فقد كان التحقق يقتصر على أمرين اثنين فقط هما التأكد من أن الهدف المراد تحييده ليس امرأة وأنه ما دون الـ17 من العمر. ويأتي هذا التراخي الشديد في عملية التحقق رغم أن نسبة الخطأ في برنامج (Lavender) تصل إلى 10% تقريبا حسب المصممين له. وهي نسبة تبدو صغيرة لو كنا نتحدث في مجالات أخرى غير الحروب التي تكون فيها حياة البشر على المحك. على سبيل المثال، إذا أخذنا بالاعتبار القائمة الأولى التي أعدها البرنامج وتضمنت أسماء 37 ألف هدف، وحسبنا نسبة الخطأ وهي 10% فإن عدد الأشخاص الذي سوف يتم قتلهم رغم عدم انتمائهم للجناح العسكري لحماس هو 3700 شخص. وإذا أخذنا بعين الاعتبار أن سياسة إسرائيل تقتضي استهدافهم في بيوتهم وهم بين عائلاتهم، وأن متوسط العائلة الفلسطينية في قطاع غزة هو 5 أفراد، فسوف يكون عدد الضحايا الذي قتلوا بلا أدنى سبب هو 18 ألفا و500. وهو رقم ضخم بلا شك خصوصا أننا نتحدث عن قائمة أولية للأهداف.
إن كثرة الأهداف التي أصبحت متوفرة بسهولة بفعل برامج الذكاء الاصطناعي، أبطلت سياسة التحقق من الأضرار التي تتبعها الجيوش عادة كجزء من تقليل الأضرار التي قد تلحق بالمدنيين. فحسب القادة الإسرائيليين، لم يعد هناك وقت لممارسة سياسة التحقق من الأضرار هذه. وإحدى انعكاسات سياسة غياب التحقق تبدو في إبطال عنصر المكان. فليس مهما أين يتم تنفيذ عملية القتل طالما تم تحديد الهدف. ولذلك لم تقتصر إسرائيل على استهداف المنشآت العسكرية، بل تجاوزت ذلك إلى استهداف المنشآت المدنية كالبيوت والمدارس والمستشفيات. لقد كان لدى إسرائيل قناعة بأن أفضل مكان يمكن فيه تحييد الهدف هو عندما يكون في بيته وبين عائلته. وهذا يقودنا إلى النقطة التالية وهي عدم الاكتراث بالأضرار الجانبية.
- ثالثا: المنهجية النفعية وعدم الاكتراث بالأضرار الجانبية
غلب على نهج إسرائيل في عمليات الاستهداف منطق النفعية المجردة الذي يشكل روح الرأسمالية الحديثة التي تسعى إلى تعظيم المكاسب بأقل قدر ممكن من التكاليف. كان الهدف بالنسبة لإسرائيل في حربها الحالية على غزة هو ضرب أكبر عدد ممكن من الأهداف بأقل ما يمكن من التكاليف. بعبارة أخرى، كان الجيش الإسرائيلي متساهلا بشكل ملحوظ فيما يتعلق بالأضرار الجانبية. وفي التحقيق الصحفي المذكور آنفا، كشف ضباط استخبارات إسرائيليون أن مئات المنازل الخاصة التي تعود إلى منتسبين محتلمين في الرتب منخفضة لدى الجناح العسكري لحركة حماس، التي تم تحديدها بواسطة نظام الذكاء الاصطناعي (Lavender)، قد تم قصفها، وهذا أدى إلى القضاء على العديد من المدنيين وإفناء أسر بأكملها. وهذا التحول المتساهل في سياسة الاستهداف سمح بوقوع ما يصل إلى 15-20 ضحية مدنية لكل هدف منخفض الرتبة. وهو انحراف كبير عن الممارسات السابقة؛ حيث لم يكن يُسمح بأي أضرار جانبية في عمليات اغتيال المسلحين ذوي الرتب المنخفضة. أما في ما يتعلق بأصحاب الرتب العليا فقط سمحت إسرائيل بوقوع 100 ضحية من المدنيين لتحقيق هدف التحييد.
على صعيد متصل، تشير بعض التقارير إلى أن حوالي 45% من الذخائر التي استخدمها سلاح الجو الإسرائيلي في غزة كانت قنابل غير موجهة، أو ما يعرف بالقنابل "الغبية" (Dumb)، والمعروفة أنها تسبب أضرارا جانبية أكبر مقارنة بالقنابل الموجهة. هذا التساهل الكبير مع الخسائر المدنية، الذي بررته الحاجة إلى توفير الوقت والموارد، سهّله التوليد السريع للأهداف بواسطة أنظمة الذكاء الاصطناعي مثل (Lavender) و(Habsora). وقد أعطت إدارة القانون الدولي في الجيش الإسرائيلي موافقة غير مسبوقة على هذه الاحتماليات العالية من الأضرار الجانبية، وهذا يبرز الطبيعة المتساهلة لإسرائيل فيما يتعلق باستهداف المدنيين.