الملخّص
يُمثّل دمج تقنيات الذكاء الاصطناعي في أنظمة الدفاع ضد التهديدات الفرط صوتية تحديات غير مسبوقة على صعيد الأخلاقيات واتخاذ القرار، فاختزال الأطر الزمنية، وتنوّع أنماط البيانات الجديدة، وتداخل مجالي الجو والفضاء، تضاعف جميعها الضغوط على الرقابة البشرية، في حين تزيد كل من الخوارزميات المبهمة، والتحيّزات الكامنة في البيانات، وقرارات الاشتباك الآلية، من مخاطر المساءلة. كما تقدّم الأطر الأخلاقية، بما في ذلك نظرية الحرب العادلة ومبادئ سلامة الذكاء الاصطناعي، إرشادات أساسية للتعامل مع هذه المعضلات. ومن خلال ترسيخ ضوابط عملية تتمحور حول الشفافية والمساءلة والتحكّم البشري الفعّال، تًسلّط هذه الورقة البحثية الضوء على كيفية توظيف القدرات الفرط صوتية المعزّزة بالذكاء الاصطناعي بشكل مسؤول، بما يُحافظ على الكفاءة العملياتية والمشروعية الأخلاقية للقوة الجوية والفضائية في العقود المقبلة.
1.المفاضلات الأخلاقية للاستقلالية عند السرعات الفرط صوتية
تُجسّد الأسلحة الفرط صوتية والمنصّات عالية السرعة معضلة السرعة مقابل الرقابة. فهذه الأنظمة، مثل المركبات الانزلاقية المعزَّزة التي تُطلق في مسارات شبه مدارية، تتحرك بسرعات تتجاوز (ماخ 5)، وتُناور بشكل غير متوقع، مما يُقلِّص بشكل حاد وقت استجابة المدافعين (Kunertova, 2024). عملياً، يُمكن لصاروخ فرط صوتي أن يُصيب هدفه بسرعة هائلة، لدرجة أن صانعي القرار البشريين لا يملكون أي فرصة تقريباً للتحقق من طبيعة التهديد أو تقدير الأضرار الجانبية المحتملة؛ ففي اللحظة التي يبادر فيها الشخص للتفاعل، ربما يكون الاشتباك قد انتهى فعلياً. هذا الواقع، يُولّد ضغوطاً لتفويض مهام الكشف والتّتبع، وحتى قرارات إطلاق النار أو عدم إطلاق النار، إلى خوارزميات سريعة ذاتية التشغيل، تُبنى أحياناً باستخدام تقنيات الذكاء الاصطناعي.
يُمكن أن يكون الذكاء الاصطناعي عاملاً حاسماً في مواجهة التهديدات الفرط صوتية: إذ يُمكن للخوارزميات دمج بيانات أجهزة الاستشعار وتنسيق عمل منظومات الصواريخ الاعتراضية بسرعة تفوق كثيراً قدرة الأفراد المشغلين. كما تُعد أنظمة الإنذار المبكر والدفاع الجوي المعزَّزة بالذكاء الاصطناعي وسيلة واعدة لتجاوز قيود فترة الاستجابة البشرية، من خلال معالجة مسارات الأهداف وتنظيم الردود فوراً في أجزاء من الثانية (Giovanardi et al., 2021). ومع ذلك، فإن أتمتة قرارات استخدام القوة المُميتة تُثير مخاوف أخلاقية عميقة، حتى عندما تكون ضد تهديدات عسكرية صريحة. تتعلق هذه المخاوف بالرقابة البشرية، ومخاطر التصعيد، وثغرات المساءلة، إذ يجري أحياناً تفضيل الكفاءة الخوارزمية على حساب التقدير البشري الدقيق ومبدأ التناسب.
إنّ الهيكل الذي يقوم عليه مفهوم المساءلة، أي عملية التحقق من الهدف وفحص التناسب وتأكيد الأوامر، يُمكن أن ينهار تحت ضغط الزمن الفرط صوتي. فالسرعة المفرطة تهدّد بتجاوز قدرتنا على تطبيق الضوابط الأخلاقية والقانونية قبل إطلاق السلاح. ومن دون ضمانات قوية، قد يجعل السباق نحو "سلاسل القتل الأسرع" من القواعد التقليدية للحرب العادلة (كالتمييز، والتناسب، وغيرها) بقايا غير عملية تنتمي إلى عصر أبطأ. إن التحدي الحقيقي يكمن في كيفية تسخير الذكاء الاصطناعي لتحقيق سرعة اتخاذ القرار من دون التفريط بالإشراف البشري، وبما يحافظ على المقصد الأخلاقي الكامن وراء كل فعل، حتى ضمن إيقاع عمل الآلة.
1.1. اتخاذ قرارات غير شفافة وتلاشي المقصد الأخلاقي
تُظهر أنظمة الذكاء الاصطناعي بصورةٍ متزايدة ما يُطلق عليه الفيلسوف لوتشيانو فلوريدي "الفاعلية بلا ذكاء". فهذه الخوارزميات قادرة على تحقيق نتائج معينة بشكلٍ ذاتي وفعّال، من دون أي فهم أو قصدٍ وراء المعادلات الرياضية التي تتحكم في سلوكها (Floridi, 2023).
وفي السياقات المدنية، نرى نماذج الذكاء الاصطناعي تُنتج اللغة بطلاقة، وتُميّز الصور بسرعة تتجاوز القدرات البشرية، ومع ذلك فهي في جوهرها تُنفّذ عملية التعرّف على الأنماط، وليس الحكم أو الفهم (Bishop, 2021). وغالباً لا تُترجم الأنظمة المُحسّنة آلياً إلى أهدافٍ واقعية قابلة للتطبيق، فعلى سبيل المثال، تُحسّن الأنظمة المعروفة، مثل المحوّلات اللغوية المسبقة التدريب (Generalised Pre-trained Transformers - GPTs)، وهي التقنية التي تقف وراء أدوات مثل "تشات جي بي تي" (ChatGPT)، أهدافاً تتعلق بالمصداقية خلال مرحلة ما قبل التدريب، وأهداف العمل التعاوني مع المستخدمين أثناء مرحلة ما بعد التدريب.
ونتيجة لذلك، عندما تُستخدم هذه النماذج في أغراضٍ مختلفة مثل البحث العلمي أو تقصّي الحقائق، فإنها تميل إلى "اختلاق" معلومات أو إظهار مجاملة مفرطة (Hicks et al., 2024; Cheng et al., 2025). وهنا يبرز السؤال: كيف يُمكن الوثوق بمثل هذه الأنظمة في بيئة عسكرية، حيث تكون المخاطر أعلى بكثير؟ ففي سياق القوة الجوية والفضائية القاتلة، يُثير هذا الانفصال بين الفاعلية والذكاء معضلاتٍ أخلاقية عميقة وغير بسيطة.
عندما يقوم "نظام تعلّم عميق" (Deep Learning System)، يتولى تشغيل صاروخ فرط صوتي، ذاتياً بتحديد واستهداف قمر صناعي أو طائرة معادية، تكون النتيجة هي تدمير محتمل لأصلٍ استراتيجي ذي قيمة عالية، لكن من دون وجود فاعلٍ أخلاقي في دائرة القرار يريد تحقيق هذه النتيجة تحديداً. فالخوارزمية لا تمتلك مفهوماً عن "السبب العادل" أو عن قيمة الحياة البشرية، ولا يُمكنها أن تحمل "القصد" بالطريقة التي يفعلها صانع القرار البشري. وبذلك، فإن تفويض قرارات الاستهداف الفتّاك إلى الذكاء الاصطناعي المُبهم يُضعف المقصد الأخلاقي في الحروب.
إن عبء القصد والغاية الأخلاقية الذي كان يقع تقليدياً على عاتق القادة البشر "اخترتُ ضرب هذا الهدف لهذه الأسباب"، يُصبح مُبهما عندما يقوم الذكاء الاصطناعي بتفعيل توصية غامضة بالهجوم. وقد تُسند المسؤولية عن القيادة قانونياً إلى الضباط الذين نشروا النظام، لكن عملياً يصعب تتبّع سلسلة الإرادة، أي خط القرار الممتد من القيادة البشرية إلى المخرجات الآلية، وهذا يُثير المخاوف بشأن وجود فجوة في المساءلة.
فإذا اتخذت طائرةٌ مسيّرة ذاتية التشغيل قراراً خاطئاً، بمهاجمة هدف مدني صُنّف خطأً كتهديد، فمن المسؤول فعلاً؟ فالقائد لم يقصد تلك النتيجة المحددة، في حين أن الآلة التي نفّذت الضربة لا تمتلك أي قدرة على القصد أو الضمير. ويتباهى القادة العسكريون بالدقة والانضباط في استخدام القوة، وكلاهما يعتمدان على التقدير البشري الذي يوجّه كل طلقة. على النقيض من ذلك، قد يُنفّذ الذكاء الاصطناعي بشكل مبهم الأوامر بكفاءة، لكنه يفتقر إلى الضوابط الأخلاقية، كالشعور بالذنب والشك والحذر، وهي القيم التي تردع الإنسان عن التسرّع في استخدام القوة (Floridi, 2023).
ومن شأن مثل هذه "الفاعلية اللاواعية" أن تحوّل مركز الثقل الأخلاقي في صنع القرار العسكري إلى مكان غير مُحدّد. وقد يكون تفويض القرار إلى الآلات مقصوداً أحياناً لتخفيف عبء المساءلة عن المؤسسة العسكرية، بل وأيضاً لتجنّب نسبة الفضل لنفسه. وفي مثل هذه السيناريوهات، قد يتحول دور القوات من مقاتلين إلى مُنسّقين، ما يستلزم نوعاً مختلفاً من الأفراد والتدريب.
إن المنظور المهني للقوة الجوية، الذي يُؤكد على ضبط النفس المُتعمّد (مثل التريّث في إطلاق النار لتجنّب إلحاق الضرر بالمدنيين أو ارتكاب خطأ استراتيجي)، يُواجه تحدياً جوهرياً من أنظمة تعمل كـ"صناديق سوداء". وباختصار، بما أن الذكاء الاصطناعي لا يستطيع أن يحدد القصد بأي معنى أخلاقي، فإن استخدامه لتنفيذ عمليات قاتلة ينطوي على خطر ارتكاب أفعالٍ من دون قصد، وهو ما يُمثّل انعداماً للفاعلية الأخلاقية في حدها الأقصى.
2. كيف تُترجم محدوديّة الأتمتة المدعومة بالذكاء الاصطناعي إلى مخاطر عسكرية متكرّرة
حتى مع تطبيق مبادئ أخلاقية صارمة وممارسات معيارية راسخة على أرض الواقع، قد تُواجه المؤسسات العسكرية مخاطر تقنية جديدة ومتكرّرة عند توظيف الذكاء الاصطناعي في أنظمة الأسلحة والقيادة. وتبرز ثلاثة أنماط من الإخفاق الموثّق جيداً، وتُثير القلق على نحو خاص: الانحياز نحو الأتمتة، والتحيّز الكامن في البيانات، وأخطاء تحوّل التوزيع. وتُمثّل هذه العوامل مقايضاتٍ أخلاقية فعلية إذا لم تُعالَج بصرامة وفعالية.
2.1. الانحياز نحو الأتمتة
يميل البشر إلى الإفراط في الثقة بالأنظمة المؤتمتة، وهي ظاهرة تُعرف باسم "الانحياز نحو الأتمتة" (Bode, 2025). وفي سياق المنصّات الفرط صوتية التي تستخدم الذكاء الاصطناعي في تقييم التهديدات، قد يعني ذلك أن المشغّلين يعتمدون على تقدير النظام الآلي من دون التحقّق المُستقل من نتائجه. فعلى سبيل المثال، إذا أخطأ نظام الذكاء الاصطناعي في تصنيف جسم غير معادٍ على أنه صاروخ فرط صوتي عالي الأولوية يفوق (ماخ 5) نتيجة خلل في أجهزة الاستشعار، أو بسبب أنماطٍ جديدة في بصمة الهدف، فقد يُوافق المُشغّل، المُتأثّر بانحيازه نحو الأتمتة، على ردٍّ مميتٍ، لم يكن ليقرره لو اعتمد فقط على تقديره الشخصي.
وتُظهر الأدلة المُستقاة من السياقات المدنية والعسكرية أن الأفراد غالباً ما يميلون إلى تبنّي اقتراحات الأنظمة الآلية. إن حادثة إسقاط الرحلة (655) التابعة للخطوط الجوية الإيرانية عام 1988، بواسطة المدمّرة الأميركية (USS Vincennes)، حين أساء الطاقم تفسير بيانات الرادار (Stewart, 2023)، تُعد مثالاً واضحاً على كيف يُمكن للإدراك المُعزّز بالأتمتة أن يؤدي إلى أخطاء قاتلة. ويتضاعف هذا الخطر بشكل كبير في المنصّات الفرط صوتية العاملة بالذكاء الاصطناعي بسبب سرعتها الفائقة، التي تقلّص أكثر فأكثر زمن التدخل البشري وإمكانية التقييم المُستقل. ومع ذلك، تجدر الإشارة إلى أن احتمال الخطأ في التمييز قد يتراجع مع الأنظمة الذاتية المتقدمة المصمَّمة للتفريق بدقة بين الأهداف المختلفة. فالفوارق الكبيرة في البيانات بين طائرة مدنية ونظام فرط صوتي يفوق (ماخ 5) قد تُقلّل من احتمالية وقوع مثل هذه الأخطاء، مما يخفّف بعض المخاوف المرتبطة بها.
وتتطلب مواجهة الانحياز نحو الأتمتة تدريب الأفراد على اعتبار الذكاء الاصطناعي استشارياً، وليس مرجعياً، وتصميم واجهات تشغيل تُظهر مستويات عدم اليقين أو تقترح بدائل واضحة. إن الحفاظ على "تحكّم بشري فعّال" يعني ألا يتحوّل المشغّل إلى مجرّد مُصادق سلبي على مخرجات الآلة، خصوصاً عند التعامل مع منصات عالية السرعة والخطورة مدعومة بالذكاء الاصطناعي.
2.2. التحيّز الكامن في البيانات
تتعلّم أنظمة الذكاء الاصطناعي من البيانات السابقة، والتي قد تحتوي على انحيازات خفيّة تعكس ميولاً اجتماعية أو عملياتية (Blanchard and Bruun, 2024). في الأنظمة العسكرية المعتمدة على الذكاء الاصطناعي، يُمكن أن يؤدي هذا التحيّز في بيانات التدريب إلى أداء منحاز عبر مختلف المنصّات الفرط صوتية. لنفترض أن نظام ذكاء اصطناعي مسؤول عن تشغيل أنظمة التوجيه لمركبة انزلاقية فرط صوتية قادرة على حمل أسلحة نووية، قد تم تدريبه على بيانات طيران تشبيهية تُركّز بشكل غير متناسب على ظروف بيئية أو أنماط تهديد محدّدة، في هذه الحالة، قد يُطوّر هذا النظام انحيازاً كامناً، ويُمكن أن يؤدي هذا إلى تدهور ممنهج في الدقّة أو الاستقرار عند مواجهة ظروف غير مُمثلة في بيئة التشغيل الواقعية، مما قد يُسبّب أخطاء في التوجيه أو الاستهداف.
وبالمثل، عند تطوير الطائرات الفرط صوتية من خلال عمليات المحاكاة المعزّزة بالذكاء الاصطناعي لدى شركات مثل "بوينغ"، يُمكن أن يؤدي الانحياز في بيانات التدريب (مثل نقص البيانات التاريخية الكاملة أو انحرافها) إلى نماذج تعلّم آليّ تتنبأ بأداء المركبة بشكلٍ غير دقيق في ظل سيناريوهات حرجة معينة، مما يزيد الحاجة إلى اختباراتٍ مادية مكلفة وطويلة الأمد. إن هذا التحيّز الكامن في بيانات التصميم والمحاكاة للمنصّات الفرط صوتية قد يُؤدي بشكلٍ غير مباشر إلى ثغراتٍ تشغيلية أو إلى اعتماد مفرط على التدخّل البشري لتعويض محدودية الذكاء الاصطناعي.
وتُعد التدابير التقنية، مثل موازنة مجموعات البيانات وتدقيق التحيّز وتقنيات الإنصاف الخوارزمي، ضرورية لمعالجة هذه المشكلة. علاوة على ذلك، ينبغي على المشغّلين أن يكونوا على دراية بالتحيّزات المحتملة، فعلى سبيل المثال، يجب أن يعرف المُحلّل إذا كان نظام الذكاء الاصطناعي الذي يُوجّه المنصّة الفرط صوتية يُظهر معدلات خطأ أعلى في فئاتٍ معينة من الأهداف أو في ظروفٍ بيئية محددة، حتى يتمكن من التعويض عنها بشكلٍ مناسب.
2.3. إخفاقات تحوّل التوزيع
قد يتدهور أداء أنظمة الذكاء الاصطناعي عندما تُواجه ظروفاً تختلف عن بيانات تدريبها، وهي مشكلة تُعرف باسم تحوّل التوزيع (Ataei et al., 2021). تُعد هذه المشكلة بالغة الأهمية في المنصّات الفرط صوتية. فعلى سبيل المثال، قد تُواجه أنظمة التوجيه بالذكاء الاصطناعي في الصواريخ الفرط صوتية ظروفاً جوية غير متوقعة أو مناورات مراوغة غير مُمثلة بالكامل في بيانات التدريب، مما قد يتسبب بانحراف الصاروخ عن مساره المقصود أو فشله في إصابة الهدف. وبالمثل، قد تُخطئ المركبات الفرط صوتية الذاتية القيادة، مثل طائرة (Anduril YFQ-44A Fury)، المصمّمة لتحمّل مناورات عالية التسارع (High-G)، في تفسير بيانات استشعار غير مألوفة في بيئة قتال جديدة، ما يؤدي إلى أخطاء غير متوقعة أو إلى تصنيف خاطئ للأهداف.
إن السرعات الفائقة ومسارات الطيران الفريدة للأسلحة الفرط صوتية تُنتج بطبيعتها أنماط بيانات جديدة قد لا تكون ممثّلة بشكل كافٍ في مجموعات التدريب، مما قد يؤدي إلى سوء تعريف الأهداف أو تأخّر الاستجابة في أنظمة الدفاع المعزّزة بالذكاء الاصطناعي، وبالتالي تقليل موثوقيتها.
وقد برز مثال عملي على ذلك في عام 2020 عندما أُفيد باستخدام طائرة مسيّرة ذاتية التشغيل في شمال أفريقيا، نفّذت هجوماً دون إذن بشري مباشر، وهو ما يُسلّط الضوء على المخاطر المرتبطة بالأنظمة الذاتية التي تعمل في ظروفٍ غير متوقعة، وهي مخاطر تتفاقم بفعل دورات اتخاذ القرار القصيرة جداً الملازمة للعمليات الفرط صوتية (Wehrey and Bonney, 2025).
وللتخفيف من مشكلات تحوّل التوزيع، ينبغي إخضاع نماذج الذكاء الاصطناعي الخاصة بالمنصّات الفرط صوتية لاختبارات إجهاد مكثفة و"عمليات تقييم المخاطر" (Red-Teaming)، أي تعريضها لسيناريوهات متنوعة وحالات قصوى ومدخلات معادية بهدف تحديد نقاط الفشل المحتملة.
على سبيل المثال، يُمكن توسيع أطر المحاكاة التي تطوّرها شركات الطيران الكبرى مثل بوينج لتشمل نطاقاً أوسع من الظروف البيئية القاسية والمتنوعة أكثر مما هو ممثل حالياً. وبالمثل، قد يواجه نظام ذكاء اصطناعي يُستخدم في معالجة البيانات على منصّات، مثل الطائرة المسيّرة "تريتون" (Triton) للمراقبة على ارتفاعات عالية، مدخلات تختلف جذرياً عن معايير التدريب، ومن هنا تبرز أهمية برمجة هذه الأنظمة للتعرّف على السيناريوهات الجديدة إحصائياً.
وفي مثل هذه الحالات، ينبغي للنظام تفعيل إنذار أو أن يُحوّل السيطرة إلى العنصر البشري بدلاً من المضيّ قدماً بثقةٍ مفرطة. ولا ينبغي الوثوق بأي نظام ذكاء اصطناعي في مجالٍ معيّن قبل أن يُثبت كفاءته عبر مجموعة كاملة من الظروف المحتملة أو أن يُحدّد نطاق استخدامه بما يقلّل من المخاطر، وحتى في هذه الحالة يجب أن يكون العنصر البشري مستعداً للتدخل عندما تطرأ حالات غير متوقعة. فالحكم البشري يجب أن يظل الخيار الاحتياطي كلما انخفضت درجة الثقة بالنظام.
وبالإضافة إلى هذه الأنماط من الإخفاقات، هناك مخاوف تقنية أخرى تشمل مخاطر الأمن السيبراني، مثل اختراق الخصوم لأنظمة الذكاء الاصطناعي أو خداعها، والتفاعلات غير المتوقعة بين أنظمة ذكاء اصطناعي متعارضة، إذ قد تؤدي إلى تصعيد غير محسوب للنزاع. فعلى سبيل المثال، قد يُسيء نظام دفاع جوي ذاتي التشغيل تفسير مناورات خصم آليّ ويُطلق رداً يؤدي إلى تصعيد متبادل سريع، فيما يُعرف بسيناريو "التصعيد الخوارزمي". وهذه ليست افتراضات نظرية؛ فقد أشارت مراجعة أُجريت عام 2024 حول الذكاء الاصطناعي في الدفاع الفرط صوتي إلى أن الخصوم قد يستغلّون ثغرات هذه الأنظمة، وأن المنصّات الذاتية قد تُفاقم النزاعات عن غير قصد بسبب سوء تفسيرها للتهديدات ما لم تُصمَّم بعناية (Zohuri, 2024). وتؤكد مثل هذه التحديات الحاجة إلى اختبارات صارمة، وإشراف أخلاقيّ دقيق، وأنظمة أمان احتياطية متينة في كل منصّة عسكرية مدعومة بالذكاء الاصطناعي.
3. دراسة حالة حول الذكاء الاصطناعي في العمليات العسكرية
أظهرت التمارين الحربية التي تُحاكي النزاعات عالية المستوى التأثير الكبير لأدوات اتخاذ القرار المعزّزة بالذكاء الاصطناعي.
التعاون بين الإنسان والآلة في القوات الجوية: اختبر سلاح الجو الأمريكي نظام إدارة المعارك المتقدّم (ABMS) وعدداً من أدوات إدارة المعركة القائمة على الذكاء الاصطناعي من خلال سلسلة من التمارين، من بينها "تمارين ميزة القرار للتعاون بين الإنسان والآلة" (DASH). في التمرين الأول من هذه السلسلة، نفّذ ضباط من دول حليفة محاكاة لصراع عالي المستوى مرتين، الأولى باستخدام الأساليب التقليدية، والثانية مع دمج أدوات الذكاء الاصطناعي في منظومة القيادة والسيطرة (Freedberg, 2025). استخدم سلاح الجو نظام ذكاء اصطناعي خاصاً به يُعرف باسم "النموذج التحويلي لتفوّق القرار"، والذي قدّم مقترحات لخطط العمل، بما في ذلك تسلسل الأهداف وإعادة توزيع الموارد والتحركات اللوجستية.
وتمكّن طاقم القيادة، بمساعدة الذكاء الاصطناعي، من معالجة ضعف عدد المعضلات العملياتية، وقدّموا ثلاثة أضعاف عدد الحلول القابلة للتنفيذ ضمن الإطار الزمني نفسه. وتُشير التقارير إلى أن إجمالي الإنتاجية ارتفع بمقدار سبعة أضعاف دون أي تراجع في الجودة. وبعبارة أخرى، تمكّن الفريق (البشري والذكاء الاصطناعي) من اتخاذ قرارات أسرع بدقة مماثلة لتلك التي تُحقّقها الفرق البشرية وحدها. لم تُثر التجربة مخاوف كبيرة بشأن "هلوسات" الذكاء الاصطناعي أو الأخطاء العشوائية التي قد تُنتجها الأنظمة الذكية؛ إذ كانت معدلات الخطأ "مماثلة للأخطاء البشرية" وفقاً لتحليل سلاح الجو. كما أبرزت هذه النتائج الإمكانات الكبيرة للذكاء الاصطناعي في تسريع عمليات اتخاذ القرار في سلسلة العمليات القتالية دون المساس بالكفاءة.
ومن المهم الإشارة إلى أن العنصر البشري بقي في دائرة القرار؛ فالذكاء الاصطناعي قدّم الخيارات، لكن الضبّاط هم من قاموا بالتحقّق منها واتخاذ القرار النهائي. وأكّد الكولونيل كريستوفر كانون، رئيس فريق (ABMS)، أن الهدف ليس استبدال البشر، بل دعمهم بفاعلية في تحويل البيانات إلى قراراتٍ أكثر استنارة في إدارة المعارك. ويعكس ذلك التزاماً عملياتياً بمنهجية التعاون الهجين بين (الإنسان والذكاء الاصطناعي)، بدلاً من الاعتماد على الأتمتة الكاملة في منظومات القيادة والسيطرة.
ومع ذلك، تُبرز هذه النجاحات الخاضعة للرقابة تحدّيات مستقبلية محتملة. أولها الثقة التشغيلية، إذ أبدى بعض الضباط في المراحل الأولى تردّداً عندما بدت اقتراحات الذكاء الاصطناعي غير بديهية، ما يُظهر أهمية ضبط مستوى الثقة بحيث لا تكون ثقة عمياء ولا شكّاً مفرطاً. والتحدي الثاني يتمثّل في توسيع نطاق استخدام هذه الأدوات بأمان؛ فكلما تولّى الذكاء الاصطناعي معالجة المزيد من البيانات والقرارات، ازدادت أهمية صون أمن النظام وسلامته من الهجمات السيبرانية أو محاولات التلاعب به، إذ من غير المقبول أن يتمكّن خصم من اختراق منظومة إدارة المعارك لتغذية قرارات مُضلِّلة.
وأخيراً، يبقى النجاح في التمارين في وقت السلم أمراً، والأداء تحت ضغط العدو وبيئات الحرب الإلكترونية والضبابية المعلوماتية أمراً آخر تماماً. وتوفّر هذه التجارب مختبراً حقيقياً لفهم قدرات اتخاذ القرار السريع عبر الذكاء الاصطناعي، وأيضاً لإدراك الحاجة إلى وضع ضوابط صارمة قبل الاعتماد عليه في ظروف الحرب، خصوصاً مع سعي الدول إلى تطوير قدرات عسكرية متقدمة مماثلة.
4. الربط بين مبادئ الحرب العادلة والممارسة العملياتية
لمواجهة التحديات التي تمت مناقشتها حتى الآن، يجب ترجمة مبادئ الحرب العادلة الكلاسيكية، مثل القضية العادلة، والنية الصحيحة، والتمييز، والتناسب، إلى لغة عملية ملموسة ضمن بيئة العمليات الجوية وتصميم أنظمة الذكاء الاصطناعي. وذلك يعني ضمان دمج هذه المعايير الأخلاقية الراسخة في قواعد الاشتباك والخوارزميات وسير العمل التي تُوجه السلوك القتالي المعزّز بالذكاء الاصطناعي.
القضية العادلة والنيّة الصحيحة: على المستوى الاستراتيجي، يجب ألا يُستخدم الذكاء الاصطناعي إلا في النزاعات والمهام التي تخدم غاية دفاعية مشروعة "قضية عادلة"، وبُنية صحيحة (مثل حماية السلام والأمن، بدلاً من العدوان أو الانتقام). ويتطلّب ذلك عملياً بقاء السيطرة البشرية الكاملة على توقيت تفعيل الأنظمة الذاتية لاستخدام القوة. فلا بدّ أن يتولى القائد البشري تحديد سبب بدء الاشتباك وضمان اتساقه مع الأهداف القانونية، إذ لا ينبغي أن يُترك للذكاء الاصطناعي أن يُقرّر الهجوم استناداً إلى منطق خوارزمي بحت.
فعلى سبيل المثال، قد يُظهر نظام اقتراح الأهداف تهديداتٍ محتملة في سياق فرط صوتي، غير أن القرار بمهاجمة تلك الأهداف يجب أن يستند إلى مبرّر عملياتي موثّق ومُثبت بشرياً (مثل تحييد تهديد عسكري وشيك)، وليس إلى أهداف التحسين الخاصة بالذكاء الاصطناعي. إن الحفاظ على وجود العنصر البشري في حلقة اتخاذ القرار النهائي لاستخدام القوة المميتة، مدعوماً بميزات قابلة للتفسير، ومسارات التتبّع الدقيقة، وتمارين التحقق الصارمة (Red Teaming) (كما هو موضح في القسم الخامس)، يُساعد في صون النيّة الصحيحة، بحيث يُنفَّذ الضربة كفعلٍ واعٍ نابع من إرادة سياسية وواجب قانوني، لا كنتيجة جانبية لعملية برمجية.
التمييز: لعل مبدأ التمييز بين المقاتلين وغير المقاتلين، وبين الأهداف المشروعة والأشخاص/الماديات المحمية، يعدّ من أهم المبادئ العملياتية الأخلاقية. ويُمكن للذكاء الاصطناعي أن يُعزّز هذا المبدأ عبر تحسين دقة التعرف على الأهداف. فقد استخدم مشروع (Project Maven) التابع للجيش الأميركي "خوارزمياتٍ متقدمة" في العراق وسوريا لتصنيف الأجسام ضمن صور الطائرات المُسيّرة، مثل التمييز بين الدبابات والشاحنات والمركبات المدنية (Wehrey and Bonney, 2025). وإذا تم تدريب هذه الأدوات تدريباً سليماً، فإنها يُمكن أن ترفع دقة الضربات وتُقلّل من الإصابات غير المقصودة. وفي البيئات الأقل ازدحاماً أو التي تتسم بوضوح أنماط التهديد، مثل مواجهة التهديدات الفرط صوتية، قد يصبح تحقيق التمييز أكثر يُسراً عبر الأنظمة المعزّزة بالذكاء الاصطناعي.
ومع ذلك، فإن التمييز لا يكون فعّالاً إلا بقدر جودة البيانات والقواعد المُقدّمة للذكاء الاصطناعي. وكما أشرنا سابقاً، يُمكن أن تؤدي بيانات التدريب المتحيّزة أو غير الكافية إلى تصنيف خاطئ للمدنيين على أنهم مقاتلون، وبالتالي التسبب بعواقب وخيمة (Bode, 2025). لذلك، ينبغي على القادة والمطوّرين ضمان ترميز معايير التمييز ضمن أنظمة الذكاء الاصطناعي واختبارها بدقة. وقد يشمل ذلك إدخال قواعد تُحدّد فئات الأهداف المحظور استهدافها، مثل سيارات الإسعاف والمدارس والمستشفيات، بحيث تكون مُدرجة ضمن قوائم حظر الاستهداف المدمجة في مرشحات التوجيه. كما يقتضي إبقاء العنصر البشري ضمن الحلقة أو متابعاً لها لمراجعة اختيارات الأهداف التي يُولّدها الذكاء الاصطناعي، خصوصاً في البيئات المعقدة.
ويظلّ مفهوم "التعريف الإيجابي للهدف" (PID)، أي وجوب التحقّق بدرجة عالية من أن الهدف مشروع قبل الاشتباك، أحد الركائز الأساسية. كما يُمكن للذكاء الاصطناعي أن يُساعد في عملية التحقق هذه عبر المقارنة السريعة لبيانات الاستشعار، لكن يجب أن يُؤكّد الإنسان صحة هذا التحديد، إلا في سيناريوهات الدفاع اللحظي القصوى.
إن التداعيات الاستراتيجية الواسعة للتهديدات الفرط صوتية، بما في ذلك تأثيرها في الردع والهجوم وتوازن القوى، تفرض إعادة تقييم استراتيجيات الأمن القومي بما يتجاوز حماية الأصول الفردية، ويجب أن يُترجم الالتزام الأخلاقي بعدم استهداف الأبرياء عمداً إلى برمجيات مُصمّمة بعناية "من خلال نماذج تصنيف دقيقة وخوارزميات مقيدة" وإجراءاتٍ عملياتية واضحة "من خلال إشراف بشري فعلي على توصيات الذكاء الاصطناعي الخاصة بالاستهداف".
التناسب: يقتضي هذا المبدأ ألّا يكون الضرر الناتج عن أي عمل عسكري مفرطاً بالمقارنة مع الميزة العسكرية الملموسة والمباشرة المُتحقَّقة منه. وعملياتياً، حتى الهدف المشروع يجب التعامل معه بطريقة تُقلّل الأضرار الجانبية إلى أدنى حدٍّ ممكن. يُمكن للذكاء الاصطناعي أن يُساعد في ذلك عبر إجراء تقديرات سريعة للأضرار الجانبية، واقتراح أنواع الذخائر التي تُحقّق التأثير المطلوب بأقل خطر على المدنيين. فعلى سبيل المثال، قد يُقيّم نظام ذكي خيارات الضربات المتعددة (أنواع أسلحة مختلفة، زاويا الهجوم، والتوقيت) ويُبرز الخيار الذي يُحقّق الهدف بأقل تأثير ممكن على المدنيين.
ومع ذلك، فإن مبدأ التناسب هو أيضاً حكم قائم على السياق العام والقيم بشكل عميق، ولا يستطيع الذكاء الاصطناعي اتخاذه بمفرده، إذ يتطلّب موازنة عوامل غير ملموسة، مثل الخطر على الأرواح المدنية، مقابل الحاجة العاجلة لتحييد التهديد. والمخاوف هنا أن يتعامل النظام الخوارزمي مع هذه الموازنة على أنها مسألة تحسين رياضي بسيط (مثل معادلة تُوازن بين عدد الضحايا وقيمة الهدف)، من دون أن يُدرك الثقل الأخلاقي الكامن وراء تلك المتغيّرات.
ولإبقاء مبدأ التناسب متجذّراً في القيم الإنسانية، يُمكن للقوات المسلحة أن تُدرج آلية مُوافقة بشرية في دائرة القرار لكل ضربة تتجاوز حدوداً معينة من المخاطر. فعلى سبيل المثال، إذا توقّع نظام إدارة معركة مدعوم بالذكاء الاصطناعي أن تُؤدي إصابة هدف ما إلى أضرار جانبية كبيرة، فيجب عليه أن يُصدر تنبيهاً لعرض الموقف على القائد للمراجعة، بدلاً من تنفيذ الهجوم تلقائياً.
كذلك، ينبغي أن تُضبط أنظمة الذكاء الاصطناعي بحيث تميل إلى الحذر المفرط، أي أن يكون لديها انحيازٌ ضد الفعل في الحالات الملتبسة، انسجاماً مع القاعدة الأخلاقية التي تنصّ على أنه "عند الشك، يُستحسن الامتناع عن استخدام القوة المميتة". وفي مجالات مثل اعتراض التهديدات الفرط صوتية، قد لا يُشكّل التناسب تعقيداً كبيراً في التقييم، إذ إن اعتراض الصواريخ على ارتفاعات عالية نادراً ما ينطوي على أضرار جانبية مباشرة، لكن المخاطر الناتجة عن حطام مُتساقط تظل عاملاً يجب أخذه في الحسبان ضمن معايير التناسب، ما يستدعي حُكماً دقيقاً بشأن الأذى المُحتمل للأشخاص والممتلكات المحميّة.
وتبقى المبادئ الخالدة لعقيدة الحرب العادلة صالحة في عصر الذكاء الاصطناعي والأسلحة الفرط صوتية، لكنها تحتاج إلى أن تُدمج بوضوح في خوارزميات وأنظمة العمل القياسية (SOPs) في الحروب الحديثة. فعلى القادة والمخططين في سلاح الجو أن يتعاملوا مع المعايير الأخلاقية بوصفها جزءاً لا يتجزأ من متطلبات المهمة، تماماً كالمعايير التقنية. فعلى سبيل المثال، ينبغي تقييم "سلسلة القتل" المدعومة بالذكاء الاصطناعي ليس فقط على أساس سرعتها وقدرتها التدميرية، بل أيضاً على مدى التزامها بمعايير التمييز والتناسب في توصياتها.
ويُؤكد ذلك الحاجة المُلحّة لتطوير الأطر التشريعية والدعم المفاهيمي بما يُواكب التطور التكنولوجي، فإذا كانت القوات العسكرية تنتقل تدريجياً من أدوار المقاتلين إلى أدوار المنسّقين، كما ذُكر سابقاً، فإن القوانين ومعايير التدريب وأطر العمل التنظيمي يجب أن تخضع للتحديث لتوضيح المسؤوليات القانونية وترسيخ المتطلبات الأخلاقية ومنع أي ثغرات في المساءلة (Woods, 2023). إن دمج هذه المعايير في كلٍّ من القانون الدولي والممارسات الوطنية يُسهم في ضمان ألّا تتجاوز وتيرة تطور الأنظمة الذاتية الإطار الأخلاقي والقانوني الذي يربط استخدام القوة بمبادئ العدالة.
5. الضوابط التقنية والسياسية لضمان المساءلة في أنظمة الذكاء الاصطناعي
كيف يُمكن الحفاظ على المساءلة في الحروب المُعزّزة بالذكاء الاصطناعي؟ تعمل وزارات الدفاع حول العالم على تطوير مجموعة من الضوابط التقنية والسياسات التنظيمية لتحقيق ذلك (Air Force, 2025).
الاختبار والتحقّق: هل يجب أن تخضع أنظمة الذكاء الاصطناعي لمعايير الاعتماد نفسها المُطبّقة على الطائرات أو الأسلحة؟ يُمكن لاختبارات الإجهاد، وتشكيل "فرق العمل الحمراء"، وأنظمة الاعتماد الرسمية أن تُقلّل من الهشاشة والمخاطر المرتبطة بالخصوم. وتُعد إعادة التحقّق الدورية ضرورية، خصوصاً مع التقنيات التي تتطور بسرعة وتتكيّف مع بيانات جديدة باستمرار.
ويتطلب ذلك تطوير بيئات محاكاة متقدمة تأخذ في الحسبان السرعات القصوى، والتفاعلات الجوية المعقدة، وإمكانية إعادة ترتيب الأولويات بسرعة، وهي خصائص جوهرية في الأنظمة الفرط صوتية. كما ينبغي أن تتضمن آليات الاعتماد لجان مراجعة أخلاقية ومُقيّمين مُستقلين للتأكّد من أن الأنظمة تلتزم بمعايير محددة مسبقاً في تمييز الأهداف والامتثال لقوانين النزاعات المسلحة.
سجلات التدقيق: ينبغي أن يترك كل قرار يتّخذُه نظام الذكاء الاصطناعي أثراً يُمكن تتبّعه: ما الذي رصده النظام؟ ما الذي أوصى به؟ وماذا قرّر البشر في النهاية؟ فهل سيتصرف القادة بطريقة مختلفة لو علموا أن كل خطوة يتم تسجيلها وخاضعة للمراجعة؟
وفي البيئات الفرط صوتية، يشمل ذلك بيانات التتبّع اللحظي، ومعلومات تحديد الهدف، والخوارزميات والمعايير المستخدمة في عملية اتخاذ القرار. إن الأثر الأخلاقي لمعرفة أن الأفعال مُسجّلة كبير جداً يدفع القادة إلى مزيد من التروّي والمسؤولية، مُدركين أن قراراتهم ستخضع لاحقاً لتقييم قانوني وأخلاقي. وتُعد هذه البيانات أساسية لتحليل ما بعد النزاع؛ لأنها تُتيح تحديد التحيّزات والأخطاء والانتهاكات المُحتملة للقانون الدولي الإنساني.
قابلية الفهم والتفسير: يجب أن تُقدِّم أدوات الذكاء الاصطناعي أسباباً واضحة أو مستويات ثقة مُبرّرة لمخرجاتها. هل يستطيع المشغّلون فهم سبب اختيار النظام لهدف معيّن؟ وهل يُمكنهم الطعن في ذلك القرار إذا لزم الأمر؟ يجب أن يُصبح توثيق بيانات التدريب وعمليات الترخيص وأنماط الإخفاق المكتشفة جزءاً من المعايير الأساسية. وقد قدّم "وود" (Wood) (2024) طرحاً شاملاً حول دور "قابلية التفسير" في السياق العسكري.
وفي البيئات الفرط صوتية، يُمكن أن يشمل ذلك قدرة النظام على شرح سبب تفضيله هدفاً على آخر، أو تبرير تصنيفه لجسم ما كهدف عسكري مشروع استناداً إلى البيانات المُتاحة. إن توثيق بيانات التدريب وآليات الاعتماد وأنماط الإخفاق يُتيح للمشغّلين تحديد الأخطاء المُحتملة أو القرارات المُنحازة والطعن فيها قبل أن تُؤدي إلى نتائج خطيرة.
الحوكمة والتدخّل البشري: تتطلّب الحوكمة الرشيدة وضع قواعد اشتباك واضحة تُحدّد بدقة متى يُمكن للذكاء الاصطناعي تنفيذ الأفعال ذاتياً (مثل تعديل المسار للحفاظ على السرعة)، ومتى تكون الموافقة البشرية إلزامية وغير قابلة للتفويض (مثل الإطلاق النهائي للسلاح). كما تُعدّ التصاميم الآمنة وأنظمة الإيقاف الفوري أدوات حاسمة، إذ تُتيح وقف عمليات الذكاء الاصطناعي فوراً في حال ظهور ظروف غير متوقعة أو مخاوف أخلاقية.
تكمن المعضلة الأخلاقية هنا في الموازنة بين متطلبات السرعة في الحروب الفرط صوتية والحاجة إلى قرارات بشرية متأنّية. ويجب أن تضع المنهجيات العملياتية المستقبلية خطوطاً واضحة للسلطة والمسؤولية ضمن الأنظمة المعزّزة بالذكاء الاصطناعي، بحيث تبقى المساءلة الأخلاقية النهائية في يد القادة البشر. كما ينبغي تطوير أطر الحوكمة لتشمل معايير واتفاقيات دولية تنظّم تطوير ونشر الأسلحة الذاتية، وربما تفرض حظراً تاماً على الأنظمة القتالية المُستقلّة بالكامل. وسيتعيّن أيضاً وضع معايير واضحة لتصميم وتنفيذ آليات الأمان ضد الأعطال وبروتوكولات التحكم البشري الفعّال.
التدريب والأخلاقيات: يقوم الأساس الأخلاقي لنشر الذكاء الاصطناعي الآمن على الحكم البشري المتدرّب والمستنير أخلاقياً. فلا يُمكن لأي ضابط تقني أن يحل محل القدرة البشرية على التفكير الأخلاقي والتكيّف مع المواقف. لذا يجب أن تتجاوز برامج التدريب حدود الكفاءة التقنية لتشمل تعزيز مهارات التفكير النقدي، وتمكين الأفراد من التشكيك في مخرجات الذكاء الاصطناعي، واكتشاف التحيّزات المحتملة، مثل تلك التي قد تظهر في تحديد الأهداف، وفهم الأبعاد الأخلاقية للقرارات القائمة على الذكاء الاصطناعي في المواقف الحرجة محدودة الوقت.
وفي العمليات الفرط صوتية، يتطلّب ذلك تدريب الأفراد على فهم التحديات الخاصة بالمسؤولية، وخفض التصعيد، والتناسب عند التعامل مع تهديدات سريعة ومراوغة. والغاية الأخلاقية النهائية هي تمكين الأفراد من التحلّي بالشجاعة الأخلاقية والتدخّل الحازم عندما تُظهر الأنظمة الذكية سُلوكاً ينحرف عن المعايير الأخلاقية أو القوانين الدولية. وعلى الرغم من أن هذه الإجراءات ليست شاملة، فإنها تُشكّل معاً إطاراً عملياً يقوم على أنظمة ذكاءٍ اصطناعي شفافة، ومختبرة، ومسجّلة، وخاضعة للحوكمة، ويُشغّلها بشر مدرّبون أخلاقياً. ويبقى السؤال المفتوح: هل ستلتزم المؤسسات العسكرية فعلاً بتطبيق هذه الضوابط بصرامة قبل أن تفرضها ظروف النزاع.
6. الخاتمة
يُثير دمج الذكاء الاصطناعي في أنظمة الدفاع الفرط صوتية أسئلة أخلاقية مستمرة ضمن بيئة تكنولوجية جديدة. فوجود خوارزميات غير شفافة، وبيانات منحازة، ودورات اتخاذ قرار متسارعة، كلها عوامل تُنتج فجوات في المساءلة وتُضعف الدور البشري في عملية صنع القرار. ورغم أن هذه التحديات لا تقتصر على الأنظمة الفرط صوتية وحدها، فإن سرعة وتعقيد هذه الأنظمة يُضاعفان المخاطر ويُحتّمان وضع حدود أخلاقية أكثر دقة.
يجب الحفاظ على مبادئ الشفافية والمساءلة والتحكّم البشري الفعّال، بوصفها ركائز أساسية. واستشرافاً للمستقبل، ومع تزايد التقارب بين مجالي الجو والفضاء، وتطوّر الأنظمة الفرط صوتية، ينبغي أن تتناول البحوث المستقبلية سبل تطوير آليات الحوكمة، ووسائل التحقّق، والمعايير التقنية على المستوى الدولي. إن ضمان التوظيف الأخلاقي للذكاء الاصطناعي في البيئات الفرط صوتية لن يُؤثر فقط في النتائج العملياتية، بل سيمتد ليشكّل مصداقية القوة الجوية والفضائية وشرعيتها الأخلاقية في آنٍ معاً.
المراجع
Air Force (2025). Air Force Doctrine Note 25-1, Artificial Intelligence. [online] Available at: https://www.doctrine.af.mil/Portals/61/documents/AFDN_25-1/AFDN%2025-1%20Artificial%20Intelligence.pdf. Accessed on: 29 August 2025.
Ataei, M., Erdogdu, M., Kocak, S., Ben-David, S., Saleh, S., Ghazi, A., Nguyen, J., Khayrat, K., Pesaranghader, A., Alberts-Scherer, A., Sanchez, G., Pouryazdian, S. and Zhao, B. (2021). Understanding Dataset Shift and Potential Remedies. A Vector Institute Industry Collaborative Project Technical Report. Vector Institute. [online] Available at: https://vectorinstitute.ai/wp-content/uploads/2021/08/ds_project_report_final_august9.pdf. Accessed on: 29 August 2025.
Bishop, J.M. (2021). Artificial Intelligence Is Stupid and Causal Reasoning Will Not Fix It. Frontiers in Psychology, 11. DOI: https://doi.org/10.3389/fpsyg.2020.513474.
Blanchard, A., and Bruun, L. (2024). Bias in Military Artificial Intelligence. Stockholm International Peace Research Institute Background Paper. SIPRI. [online] Available at: https://www.sipri.org/sites/default/files/2024-12/background_paper_bias_in_military_ai_0.pdf. Accessed on: 29 August 2025.
Bode, I. (2024). The Problem of Algorithmic Bias and Military Applications of AI. [online] Humanitarian Law & Policy Blog. Available at: https://blogs.icrc.org/law-and-policy/2024/03/14/falling-under-the-radar-the-problem-of-algorithmic-bias-and-military-applications-of-ai. Accessed on: 29 August 2025.
Carchidi, V., and Soliman, M. (2023). The technical is geopolitical: Expanding US-UAE relations through AI. [online] Middle East Institute. Available at: https://mei.edu/publications/technical-geopolitical-expanding-us-uae-relations-through-ai. Accessed on: 29 August 2025.
Cheng, M., Yu, S., Lee, C., Khadpe, P., Ibrahim, L. and Jurafsky, D., 2025. Social Sycophancy: A Broader Understanding of LLM Sycophancy. arXiv preprint arXiv:2505.13995.
Floridi, L., 2023. AI as Agency Without Intelligence: on ChatGPT, Large Language Models, and Other Generative Models. Philosophy & technology, 36(1), p.15. DOI:https://doi.org/10.1007/s13347-023-00621-y.
Freedberg, S.J. (2025). AI Transformational Model accelerates battle staff decision-making ‘seven-fold’ in Air Force experiment. [online] Breaking Defense. Available at: https://breakingdefense.com/2025/06/ai-transformational-model-accelerates-battle-staff-decision-making-seven-fold-in-air-force-experiment/. Accessed on: 29 August 2025.
Giovanardi, M., Trane, M. and Pollo, R., 2021. IoT in Building Process: A Literature Review. Journal of Civil Engineering and Architecture, 15(9), pp.475-487.
Hicks, M.T., Humphries, J. and Slater, J., 2024. ChatGPT is bullshit. Ethics and Information Technology, 26(2), pp.1-10. DOI: https://doi.org/10.1007/s10676-024-09775-5.
Kunertova, D., 2021. Hypersonic Weapons: Fast, Furious… and Futile?. RUSI Newsbrief, 41(8). Available on https://www.rusi.org/explore-our-research/publications/rusi-newsbrief/hypersonic-weapons-fast-furiousand-futile. Accessed on 29 August 2025.
Stewart, B.S. (2023). USS Vincennes Shoots Down Iranian Civilian Plane. EBSCO Information Services, Inc. [online] Available at: https://www.ebsco.com/research-starters/military-history-and-science/uss-vincennes-shoots-down-iranian-civilian-plane. Accessed on: 29 August 2025.
Wehrey, F., and Bonney, A. (2025). The Middle East’s AI Warfare Laboratory. War on the Rocks. [online] Available at: https://warontherocks.com/2025/04/the-middle-easts-ai-warfare-laboratory. Accessed on: 29 August 2025.
Wood, N.G., 2023. Autonomous weapon systems and responsibility gaps: a taxonomy. Ethics and Information Technology, 25(1), p.16. DOI: https://doi.org/10.1007/s10676-023-09690-1.
Wood, N.G., 2024. Explainable AI in the military domain. Ethics and Information Technology, 26(2), p.29. DOI: https://doi.org/10.1007/s10676-024-09762-w.
Zohuri, B. (2024). Harnessing Artificial Intelligence for Countering Hypersonic Weapons: A New Frontier in Battlefield Offense and Defense (A Short Review). Journal of Energy and Power Engineering, 18(4). DOI: https://doi.org/10.17265/1934-8975/2024.04.002.