بيتر ماورير: علينا أن نقرر الدور الذي نريد أن يضطلع به البشر في القرارات بشأن الحياة والموت خلال النزاعات المسلحة

بيتر ماورير: علينا أن نقرر الدور الذي نريد أن يضطلع به البشر في القرارات بشأن الحياة والموت خلال النزاعات المسلحة

تصريح 12 آيار/مايو 2021 سويسرا

خطاب السيد بيتر ماورير، رئيس اللجنة الدولية للصليب الأحمر حول موقف جديد للجنة الدولية للصليب الأحمر من منظومات الأسلحة ذاتية التشغيل

أصحاب المعالي،

حضرات السيدات والسادة،

أشكركم على الانضمام إلى جلسة الإحاطة الافتراضية هذه. ويسعدني أن أطلعكم على أحد التطورات الهامة في تحليل اللجنة الدولية للصليب الأحمر (اللجنة الدولية) وتوصياتها بشأن الأسلحة ذاتية التشغيل، وأن أستمع إلى وجهات نظركم بشأن هذا الموضوع عصر هذا اليوم وما بعده.

تتسارع التطورات الجديدة في التكنولوجيات الرقمية بوتيرة مذهلة، وتؤثر على طريقة عيشنا وطريقة عملنا – بل حتى على طريقة تفكيرنا. وهي تحمل في طياتها أملاً واعداً للإنسانية، وقد تحدثت باستمرار عن كيفية  تبني اللجنة الدولية للتحول الرقمي من أجل تعزيز العمل الإنساني في جميع أنحاء العالم.

وتؤثر التطورات الجديدة في التكنولوجيات الرقمية أيضاً على الطرق التي تُخاض بها الحروب. وتطرح تكنولوجيات الأسلحة الجديدة معضلات إنسانية وقانونية وأخلاقية جسيمة، وستكون هذه المعضلات محور حديثي اليوم.

ويُقصد بالأسلحة ذاتية التشغيل، حسب المعنى الذي تفهمه اللجنة الدولية من هذا المصطلح، الأسلحة التي تختار الأهداف وتستخدم القوة ضدها دون تدخل بشري. وتقوم بذلك استناداً إلى "تصنيف عام للهدف" وإلى أجهزة الاستشعار. وما يميز هذه الأسلحة عن غيرها هو أنها بعد التفعيل على يد شخص ما، تطلق النار ذاتياً عندما تُفعّل برصد البيئة المحيطة بها وليس على يد المستخدم. ويعني هذا أن المستخدم لا يختار الهدف المحدد.

وتطرح الأسلحة ذاتية التشغيل العديد من التساؤلات المعقدة من مناظير عدة - عسكرية وتقنية وقانونية وأخلاقية وفلسفية وإنسانية بطبيعة الحال. ويغذي هذا التعقيد أيضاً التحديات السياسية التي تواجهها الحكومات في بناء فهم مشترك للمخاطر المحتملة والحلول اللازمة.

وتُستخدم هذه الأسلحة بالفعل في حالات محدودة، وبعيداً عن المدنيين في الغالب، وضد أنواع محددة للغاية من الأهداف، من قبيل الدفاع عن السفن الحربية في البحر من القذائف التي أُطلقت باتجاهها.

ومع ذلك، فإن التطورات التكنولوجية والعسكرية الحالية تثير الاهتمام باستخدام الأسلحة ذاتية التشغيل التي تهاجم مجموعة واسعة من الأهداف على مساحات أكبر وفترات أطول، بل وحتى في المناطق الحضرية – أي في بيئات معقدة وديناميكية.

وترى اللجنة الدولية أنه يترتب على الاستخدام غير المقيّد للأسلحة ذاتية التشغيل مخاطر كبيرة تتمثل في إلحاق الأذى بالمدنيين والمقاتلين على السواء. ولنأخذ على سبيل المثال الحالات التي يوجد فيها عدد كبير من السكان المدنيين في منطقة العمليات العسكرية. ففي حالة استخدام سلاح ذاتي التشغيل، كيف ستُوفّر الحماية للمدنيين عندما لا يعرف مستخدم السلاح ذاتي التشغيل بالضبط ما الذي سيدمره السلاح أو متى أو كيف ؟ أو تخيلوا أن جهاز استشعار السلاح ذاتي التشغيل تفعّل برصد حافلات مدنية مماثلة لمركبات نقل الجنود، وبدأ السلاح في إطلاق الضربات على جميع الحافلات على مساحة واسعة دون أن يكون المستخدم قادراً على التدخل وإلغاء تفعيل السلاح.

وتزيد الأسلحة ذاتية التشغيل أيضاً من خطر تصعيد النزاعات، على سبيل المثال، إذا لم يكن هناك وقت أو وسائل لإلغاء تشغيل السلاح ذاتي التشغيل قبل فوات الأوان.

وتثير العواقب الإنسانية المحتملة قلق اللجنة الدولية. وتطرح منظومات الأسلحة هذه تحديات خطيرة بشأن الامتثال للقانون الدولي الإنساني الذي تقتضي قواعده أن يبني المقاتلون أحكامهم وفقاً للسياق . فعلى سبيل المثال،  كيف سيتسنى تجنب الجنود المصابين عندما لا يكون هناك من يدرك أنهم عاجزون عن القتال؟

وعلاوة على ذلك، تثير الأسلحة ذاتية التشغيل شواغل أخلاقية رئيسية بالنسبة إلى الإنسانية، إذ يُستعاض فعلياً عن القرارات البشرية بشأن الحياة والموت بعمليات تقوم على أجهزة الاستشعار والبرمجيات والآلات. وفي نهاية المطاف، يتّفق معظمنا على أن الخوارزمية - وهي عملية آلية – ينبغي ألّا تحدد من يعيش أو يموت، وألّا تصبح حياة الإنسان رهن بيانات أجهزة الاستشعار والحسابات الآلية.

وتسعى القوات المسلحة، بحثاً عن زيادة مطردة في سرعة الهجوم وعن نشر أعداد متزايدة من الروبوتات المسلحة، إلى استخدام التشغيل الذاتي من أجل تحقيق ميزة عسكرية. وفي الوقت نفسه، يغير ذلك دور البشر في اتخاذ القرارات بشأن استخدام القوة. وفي هذا العصر الجديد من برمجيات التعلم الآلي التي تفرض قواعدها الخاصة، يخشى الكثيرون من أن هذا أفق محفوف بالمخاطر فيما يخص حماية المدنيين والأمن الدولي.

ولا تدفعنا هذه التطورات إلى التساؤل فقط عن الأغراض التي يمكن أن تُستخدم لأجلها هذه التكنولوجيات، بل أيضاً عن الأغراض التي ينبغي أن تُستخدم لأجلها. وتدفعنا أيضاً إلى اتخاذ خيارات مسؤولة بشأن مستقبل الحروب. وفي نهاية المطاف، يتعين علينا أن نقرر الدور الذي نريد – بوصفنا مجتمعاً - أن يضطلع به البشر في القرارات بشأن الحياة والموت خلال النزاعات المسلحة.

وثمة خطر جليّ يتمثل في أننا سنرى السيطرة والحكم البشريين على القرارات بشأن الحياة والموت يتلاشيان تدريجياً إلى حد غير مقبول. وهذا ما شدد عليه الكثيرون في وزارات الخارجية والقوات المسلحة والمنظمات الإنسانية، فضلاً عن العلماء المتخصصين في تكنولوجيا الروبوتات والخبراء في الذكاء الاصطناعي من قطاع الصناعة. ويمثل التصميم والاستخدام غير المقيدين للأسلحة ذاتية التشغيل تحدياً أساسياً. فهذه الأسلحة تنطوي على مخاطر تقويض أوجه الحماية الحالية الممنوحة لضحايا الحرب بموجب القانون الدولي الإنساني ومبادئ الإنسانية.

ويسعى القانون الدولي الإنساني في حد ذاته إلى الحفاظ على قدر من الإنسانية في الحرب. وتنطبق قواعده على استخدام جميع وسائل الحرب وأساليبها، بما في ذلك الجديدة منها. ومع ذلك، تعتمد الدول بانتظام قواعد محددة لتوفير المزيد من الحماية للمدنيين ولأولئك الذين كفوا عن المشاركة في القتال نتيجة لآثار تكنولوجيات الأسلحة الجديدة، بما في ذلك  من باب الوقاية. وعلى سبيل المثال، حدث ذلك في إعلان سان بطرسبورغ لسنة 1868 بشأن الرصاصات المتفجرة، وحظر أسلحة الليزر المسببة للعمى بعد مضي أكثر من 100 عام على هذا الإعلان.

وامتدت المناقشات الدولية بين الدول بشأن الأسلحة ذاتية التشغيل على طول العقد الماضي، بما في ذلك في مجلس حقوق الإنسان واجتماعات الأطراف المتعاقدة السامية في الاتفاقية المتعلقة بأسلحة تقليدية معينة. وقد استفادت من المشاركة والأفكار التي قدمها الدبلوماسيون والعسكريون المهنيون وممثلو المجتمع المدني والأكاديميون وأعضاء المجتمعات العلمية والتقنية.

كيف ساهمت اللجنة الدولية في هذه المناقشات على مر السنين؟

  • وفقاً لولايتنا، حلّلنا بعمق كيفية ضمان الإبقاء على السيطرة والحكم البشريين في استخدام القوة، بما في ذلك من خلال إجراء مشاورات مع خبراء في هذا المجال.
  • تبادلنا بانتظام الاستنتاجات التي توصلنا إليها مع جميع الجهات المعنية.
  • شاركنا بنشاط في هذه المناقشات واستمعنا باهتمام إلى شواغل جميع أصحاب المصلحة، بما في ذلك الدول.
  • شخصياً، استمتعت حقاً بتبادل الآراء البنّاء للغاية مع العديد منكم - ومع زملائكم - في كل من جنيف والعواصم في شتى أنحاء العالم.

ومنذ عام 2015، نحث الدول على اعتماد قيود متّفق عليها دولياً على الأسلحة ذاتية التشغيل. واليوم، أعرض عليكم توصيات محدثة ومنقحة بشأن شكل هذه القيود ومضمونها كي تنظر فيها الدول.

واللجنة الدولية على اقتناع بأنه ينبغي أن تتّخذ القيود الدولية شكل قواعد جديدة ملزمة قانوناً من أجل تنظيم الأسلحة ذاتية التشغيل.

ونؤمن بأنه ثمة حاجة إلى قواعد جديدة من أجل تحقيق الغايتين التاليتين:

  • توضيح  كيفية تقييّد قواعد القانون الدولي الحالية لهذه الأسلحة.
  • استكمال الإطار القانوني، بما في ذلك من أجل معالجة الشواغل الأخلاقية الرئيسية.

وفيما يتعلق بجوهر هذه القواعد، نود أن نقدم ثلاث توصيات محددة.

أولاً، نرى أنه ينبغي استبعاد الأسلحة ذاتية التشغيل التي لا يمكن التنبؤ بها، وذلك لأسباب أبرزها الآثار العشوائية التي تحدثها. وأفضل طريقة لتحقيق ذلك هي حظر منظومات الأسلحة ذاتية التشغيل التي لا يمكن التنبؤ بها.

وثانياً، نعتقد أنه ينبغي استبعاد استخدام الأسلحة ذاتية التشغيل لأغراض استهداف البشر. وتستند هذه التوصية إلى الاعتبارات الأخلاقية التي تهدف إلى حماية الإنسانية والحاجة إلى الالتزام بقواعد القانون الدولي الإنساني من أجل حماية المدنيين والمقاتلين العاجزين عن القتال. وأفضل طريقة لتحقيق ذلك في رأينا هي حظر الأسلحة ذاتية التشغيل المضادة للأفراد.

وثالثاً وأخيراً، نوصي  بضرورة تنظيم الأسلحة الأخرى ذاتية التشغيل، بما يشمل مجموعة مكونة من أربعة أنواع من القيود، وهي كالتالي:

  • أولاً، القيود على أنواع الأهداف، من قبيل حصر استخدامها في الأعيان العسكرية النموذجية، مثل الدبابات أو القذائف التي تطلق باتجاهها؛
  • ثانياً، القيود على المدة والنطاق الجغرافي ونطاق الاستخدام؛
  • ثالثاً، القيود على حالات الاستخدام، مثل الحالات التي لا يوجد فيها مدنيون؛
  • رابعاً، متطلبات التفاعل بين الإنسان والآلة، لا سيما من أجل ضمان الإشراف البشري الفعال والتدخل وإلغاء التفعيل في الوقت المناسب.

ويمكن الاطلاع على المزيد من التفاصيل بشأن هذه التوصيات وأساسها المنطقي في ورقة  سنقدمها لكم اليوم بعد هذه الإحاطة مباشرة. وستحتاج كل هذه التوصيات على أي حال إلى قدر أكبر من التفصيل يتجاوز نطاق الورقة التي سنوزعها، وأتطلع إلى سماع آرائكم بشأنها، اليوم أو في الأسابيع والأشهر المقبلة، بغية زيادة تنقيح مقترحاتنا وتوصياتنا.

والواقع أنه يرجع إلى الدول أمر البت في اعتماد قواعد جديدة، وفي تقرير محتواها المحدد. وتقدم اللجنة الدولية هذه التوصيات بناءً على خبرتها القانونية، والتحليل المعمق للقضايا التي يثيرها تطوير منظومات الأسلحة ذاتية التشغيل واستخدامها، وخبرتها الميدانية الخاصة بالنزاعات المسلحة. وهدفنا هو دعم المناقشة متعددة الأطراف ومساعدة الدول على المضي قدماً نحو تحديد سبل التوافق في الآراء.

وفي هذا الصدد، أؤمن بأن هذه التوصيات تقدم إرشادات واضحة وعملية وقائمة على المبادئ بشأن الطريقة الفعالة لمعالجة الشواغل الإنسانية والقانونية والأخلاقية التي تثيرها العديد من الدول والمجتمع المدني وكبار العلماء واللجنة الدولية. ولا تمنع هذه التوصيات تطوير تكنولوجيات رقمية جديدة في مجال الحرب واستخدامها بطرق أخرى، من قبيل زيادة دقة الأسلحة أو تعزيز عملية صنع القرار لدى البشر.

وآمل أن تجدوا هذه التوصيات ذات قيمة في إطار الجهود التي تبذلونها من أجل التوصل إلى تفاهم مشترك واتخاذ إجراءات سياسية على المستوى الدولي، لا سيما في اجتماعات الأطراف المتعاقدة السامية في الاتفاقية المتعلقة بأسلحة تقليدية معينة واجتماعات فريق الخبراء الحكوميين المنشأ عملاً بها.

وبوسعي أن أؤكد لكم أن اللجنة الدولية على أتم الاستعداد لدعم جميع المبادرات الهادفة إلى معالجة الشواغل التي تثيرها الأسلحة ذاتية التشغيل معالجة فعالة وفي الوقت المناسب، والعمل مع جميع الحكومات - وقواتها المسلحة - لتحقيق هذه الغاية، وكذلك مع أصحاب المصلحة الآخرين المعنيين. ويشمل ذلك الجهود الأخرى لبلورة جوانب الإطار المعياري والتشغيلي، مثل إعلان سياسي أو معايير سياساتية مشتركة أو إرشادات بشأن الممارسات الجيّدة. ومن شأن هذه الجهود أن تكمل القواعد الملزمة قانوناً وأن تعزز بعضها بعضاً.

ونظراً إلى سرعة التطورات في مجال الأسلحة ذاتية التشغيل، تعتقد اللجنة الدولية أن هناك حاجة ماسة إلى اعتماد قواعد جديدة بشأن الأسلحة ذاتية التشغيل. وهناك بالطبع الكثير من العمل الذي يتعين القيام به من أجل بناء فهم مشترك بشأن الإجراء اللازم.

وأود أن أختتم خطابي بالتشديد على الفرصة المتاحة لنا اليوم.

فنحن نختار شكل التكنولوجيا، وهي تغير شكل حياتنا في المقابل. ولا تحدث هذه التطورات في فراغ. ولكن بعيداً عن حسابات التكاليف والفوائد، تستند القرارات المتعلقة بالأغراض التي ينبغي أن تُستخدم التكنولوجيا لأجلها إلى القيم الإنسانية.

ولدينا فرصة لنقوم بشكل جماعي بوضع حد يصب في مصلحة الناس. وأشدد على كلمة "الناس" لأنه، بالنسبة إلى اللجنة الدولية، لا تتعلق الشواغل التي تثيرها الأسلحة ذاتية التشغيل فقط - أو حتى في الغالب – بالتكنولوجيا، بل تتعلق أيضاً بالناس - أي البشر، وبأوجه الحماية الممنوحة للبشر خلال النزاعات المسلحة، وبالالتزامات القانونية والمسؤوليات الأخلاقية للبشر الذين يخوضون النزاعات، وتتعلق في نهاية المطاف بإنسانيتنا المشتركة.

وشكراً لحسن إصغائكم.