لفتت الروبوتات المقاتلة البرية إليها الأنظار وكانت نجوم المعرض العسكري ‘يوروساتوري’ في يونيو الماضي. إذ يمكن تركيب رشاشات آلية أو قاذفات قنابل يدوية على هذه الروبوتات مثل ‘ثاميس” (من إستونيا)، أو تساعد في الحرب على الإرهاب مثل ‘دوغو’، أو تحرس القوافل مثل روباتل (وهما إسرائيليان)، وهذا الأخير عبارة عن مركبة سداسية الدفع تحمل رشاشا. وبالرغم من أن هذه الروبوتات يتحكم فيها البشر، إلا أنه توجد روبوتات عسكرية برية آلية بالكامل.
ويتولى روبوت الحراسة، إس.جي.آر-إيه1 من صنع شركة سامسونغ الكورية الجنوبية، حراسة الحدود بين كوريا الشمالية وكوريا الجنوبية منذ سنة 2010 على مدار الساعة، وذلك باستعمال كاميرات وأجهزة استشعار عالية الأداء يمكنها استشعار هدف متحرك على بعد أربعة كيلومترات.
ويمكن لهذا الروبوت التعرف على الأصوات وكلمات السر، والتمييز بين البشر والحيوانات وإصدار الأوامر لهم بالاستسلام إذا تجاوزوا خط ترسيم الحدود العسكري.
فإذا رفع مشتبه به يديه إلى الأعلى فهو لا يطلق النار بالرغم من أنه مجهز برشاش آلي خفيف من طراز كي35.56 مم من صنع شركة دايوو وقاذفة قنابل يدوية عيار 40 مم.
قرار إطلاق النار يأخذه إنسان يوجد في مقر القيادة، لكن هذا الروبوت يملك أيضا وضعا أوتوماتيكيا يمكّنه من العمل باستقلالية. وتفتخر سامسونغ بأن هذا الحارس لا يتعب أبدا ولا يتأثر بسوء الأحوال الجوية. ويدّعي مروجو ومصممو هذه الروبوتات بأنها يمكن أن تعوض الجنود بشكل فعال في المهمات الروتينية والقذرة والخطرة، أي المهمات التي تشكل خطورة (نزع الألغام، أو المهمات التي فيها تعرض لمواد نووية أو جرثومية أو كيميائية)، أو المتكررة (المراقبة والتمشيط) أو التي تسبب إجهادا بدنيا (مثل حمل أشياء ثقيلة).
ومثلما هو الحال بالنسبة إلى الطائرات دون طيار، ليست هناك إلى الآن قوانين تنظيمية متعددة الأطراف لتطوير هذه الأسلحة بالرغم من القضايا الخطرة التي تثيرها.
هاجس التسلح
يتمثل أكبر هاجس لدى الجيش في عدم التخلف عن القوى الأجنبية، إذ كشف تقرير حديث أن البنتاغون وضع توصيات بإبقاء الولايات المتحدة في سباق التسلح بما في ذلك “تسريع اعتماد القدرات ذات الاستقلالية”.
وتقوم الشركات الحكومية الصينية حاليا بتطوير مجموعة واسعة من الروبوتات التي تميل نحو الاستقلالية. وتدعي روسيا بأنها اختبرت مؤخرا نظاما يحمل اسم يونيكوم “يعطي الآلات قدرات عقلية لإنجاز مهمات مدنية أو عسكرية بصفة فردية أو جماعية دون الحاجة إلى التحكم البشري”.
وأدخلت إسرائيل إلى الخدمة عددا من الروبوتات طورتها شركات خاصة وشركات ناشئة في قطاعها الصناعي العسكري المزدهر.
ويرى الكثيرون أن التقدم السريع حاليا في مجال الروبوتات والذكاء الاصطناعي يشكل الثورة الثالثة في الأعمال الحربية بعد البارود والأسلحة النووية، ودون ضمانات قد يؤدي تطورها المتزايد إلى تطوير أنظمة أسلحة مستقلة فتاكة، أو ما يسمى ‘الروبوتات المقاتلة ’ بالرغم من أن المسؤولين عن هذه المشاريع ينكرون ذلك.
وقال وزير الدفاع الأميركي آش كارتر في سبتمبر 2016 “في حالات كثيرة وبالتأكيد عندما يتعلق الأمر باستعمال القوة لن تكون هناك استقلالية حقيقية أبدا لأنه ستكون هناك كائنات بشرية (في الحلقة)”.
وقال الجنرال بول جي.سيلفا نائب رئيس هيئة الأركان المشتركة الأميركية إن “الولايات المتحدة ستكون لها في ظرف عقد من الزمن التكنولوجيا اللازمة لبناء روبوت قادر على اتخاذ القرار الخاص بالقتل من عدمه”، بالرغم من تأكيده بأنها “ليست لديها النية لصنعه”.
ويعلق بوني دوشرتي باحث كبير في قسم الأسلحة لدى مرصد حقوق الإنسان وقائد الحملة العالمية لإيقاف الروبوتات المقاتلة بالقول “إن تفويض التحكم البشري في الأسلحة سيساعد في تحاشي التهديدات للمبادئ الأخلاقية الأساسية التي تتحكم في قرار استخدام القوة، لقد فتحت الاستقلالية المتزايدة لأنظمة الأسلحة الباب على المجهول”.
وكتب الخبير في قانون نزع السلاح، جوليان أنسلين “يثير تطوير هذه التكنولوجيات مسائل تتجاوز تلك المطروحة عادة في القانون الدولي.
ويمثل ذلك تحديا لعناصر أساسية في القانون الإنساني الذي حكم الصراعات المسلحة منذ معاهدة جنيف سنة 1949 والبروتوكولات المرتبطة بها، بما في ذلك الحفاظ على الكرامة الإنسانية والتمييز بين الأهداف المدنية والعسكرية ومبدأ ‘التناسبية’، أي تحاشي التسبب في وفيات أو أضرار مدنية مقارنة بالأفضلية العسكرية الملموسة والمباشرة المنتظرة”. وإذا سمح للروبوتات أخذ القرار في ما يخص مصير الكائن البشري فسيؤدي ذلك إلى تغيير في طبيعة الحرب.
في المؤتمر الدولي المشترك حول الذكاء الاصطناعي المنعقد في يوليو 2015 نشر أكثر من ألف خبير ومطور (بقيادة ستيفن هوكينغ ونعوم شومسكي وإيلون ماسك -عن شركة سبايس آكس- وستيف وزنياك -عن شركة آبل) رسالة مفتوحة تدعو إلى الحظر على أنظمة الأسلحة المقاتلة المستقلة.
وورد في الرسالة ما يلي “نعتقد أن الذكاء الاصطناعي لديه إمكانية كبيرة ليفيد البشرية بطرق شتى، وأن هدف هذا المجال يجب أن يكون فعل ذلك. إن الانطلاق في سباق للتسلح العسكري بالاعتماد على الذكاء الاجتماعي فكرة سيئة ويجب أن يمنع عن طريق حظر على الأسلحة الهجومية المستقلة التي تتجاوز التحكم البشري بالقدر الكافي”.
ويتمثل هاجسهم الأساسي في الحيلولة دون انتشار الأسلحة من هذا النوع، حيث تقول الرسالة أيضا “إذا مضت أي قوة عسكرية كبرى قدما في تطوير أسلحة الذكاء الاصطناعي، فلا محالة تقريبا من حدوث سباق تسلح عالمي ونقطة النهاية لهذا المسار التكنولوجي واضحة حيث ستصبح الأسلحة المستقلة بمثابة كلاشنيكوف اليوم”.
واسشهدوا بخبرة علماء الكيمياء حول حظر الأسلحة الكيمياوية، وعلماء الفيزياء حول منع انتشار الأسلحة النووية، ويقولون إن أغلب الباحثين في الذكاء الاصطناعي ليست لديهم أي مصلحة في رؤية أعمالهم تستخدم في صنع الأسلحة.
وأتاحت المفاوضات الدولية الفرصة لتقوية معاهدة جنيف والمثال البارز هو تبني المعاهدة حول بعض الأسلحة التقليدية في سنة 1980 والبروتوكول الخامس التابع لها الذي دخل حيز التنفيذ في سنة 1998.
وبعد أن صادقت عليها 107 دول، حظر هذا البروتوكول استخدام ونقل أسلحة الليزر المسببة للعمى قبل أن تظهر على أرض المعركة. وكانت اللجنة الدولية للصليب الأحمر قد شاركت مشاركة إيجابية في كتابة وتبني هذا البروتوكول وحشد المنظمات غير الحكومية واطلاع وسائل الإعلام. كما زار مبعوثون من اللجنة عددا من البلدان للحديث مع الممثلين الرسميين، وكان لدعم الاتحاد الأوروبي ومنظمة الوحدة الأفريقية واتحاد البرلمانات دور حاسم في ذلك.
ودفع الهاجس حول استقلالية المعدات العسكرية إلى تنظيم عدة مؤتمرات أممية شاركت فيها الدول المصادقة على المعاهدة حول الأسلحة التقليدية.
ففي سنة 2013 تفاوض رئيس الاجتماعات غير الرسمية للخبراء حول الأسلحة المستقلة المقاتلة ، السفير الفرنسي جان هيغ سيمون ميشال، حول أول تفويض لإحداث قسم خاص بالأسلحة المقاتلة المستقلة ضمن قانون نزع السلاح، وهو أمر يمكن أن يفضي إلى بروتوكول جديد. وفي أثناء الاجتماعات السنوية (التي مازالت إلى الآن غير رسمية) أعلن 19 بلدا من أميركا اللاتينية وأفريقيا وباكستان عن تأييده لحظر كامل.
وفي الاجتماع الأخير المنعقد في ديسمبر الماضي وافق 88 بلدا (بما في ذلك تلك البلدان الموجودة في مقدمة تطوير الأسلحة المقاتلة المستقلة) بشكل حذر على بداية محادثات رسمية لإخضاع هذا النوع من الأسلحة للقانون الدولي. وسيجتمع الخبراء مرة أخرى هذا الصيف والخريف للتحضير لاجتماع الدول المنضوية في المعاهدة حول بعض الأسلحة التقليدية، وذلك بين 22 و24 نوفمبر.
مدى قانونية روبوت
يتوجب عليهم في البداية التفكير في تعريف عملي للأسلحة المستقلة المقاتلة على أساسه يمكن الحسم في مدى قانونية روبوت في قتل معين لأنه لا يتضمن مدخلات بشرية كافية، نظرا لأن هذه هي الطريقة الوحيدة لضمان احترام معاهدة جنيف.
ومازالت الأسلحة المستقلة المقاتلة تملك القدرة على تحديد الأهداف بالرغم من عدم وجود أي بلد يدعي بأن روبوتاته مستقلة بشكل تام. وتتمثل المسألة الأساس في ما إذا كان يتوجب على البشر أخذ القرار الفعلي لاستعمال القوة المقاتلة ، أو الاكتفاء بأخذ القرار بعدم استعمالها، وأين يجب رسم خط المسؤولية.
ويدعو مرصد حقوق الإنسان إلى “التحكم البشري الفعلي”، لكن يبدو أن أغلبية الدول ستقنع بالمفهوم الغامض الذي تحمله عبارة ‘التحكم الحقيقي’. وأبدت فرنسا اهتمامها أكثر بتوضيح التمييز بين الأنظمة ذات الوظائف الآلية والأنظمة المستقلة التي تشتغل دون مراقبة بشرية. ويمكن حصول إجماع حول مستويات ملائمة للتدخل البشري في استعمال القوة المقاتلة ، وذلك يهدف إلى ضمان استعمال أنظمة الأسلحة على النحو المنشود، لكن ماذا عساه يحدث على الميدان عندما تتغير الظروف بسرعة؟
كذلك يجب تقييم أنظمة الأسلحة استنادا إلى مبدأي التمييز والتناسبية، حسب نتائج استخدامها. ومن ثم تأتي أهمية الحد من توزيع المسؤوليات حيث يجب أن يكون من الممكن تحديد سلسلة قيادة واضحة وصانع قرار يتحمل مسؤولية أعماله، ولا يمكنه التملص من المسؤولية من خلال إثارة مسألة تعقيد برمجة المنظومة. وهناك إمكانية بأن تكون أي اتفاقية ذات أهمية محدودة نظرا لتردد القوى المسلحة في المشاركة. مثلا لم تعبر روسيا عن معارضتها للحظر، لكنها غير مستعدة لإضفاء الطابع الرسمي على العملية الدبلوماسية قبل التوصل إلى تعريف أوضح لمفهوم الأسلحة المستقلة المقاتلة .
وتؤيد الصين وضع آلية ملزمة قانونيا، لكنها مثل الهند تبقى حذرة من آليات الرقابة. أما إسرائيل فهي تعارض حظرا تاما، وتريد بدل ذلك حظرا تدريجيا مدعية بأن الأسلحة المستقلة المقاتلة يمكن أن تكون لها مزايا إنسانية وأخرى عسكرية.
وتبقى الدولة غير المعروف موقفها هي الولايات المتحدة، إذ لم تتم مناقشة المسألة في الحملة الانتخابية ونجهل موقف وزير الدفاع جيمس ماتيس.
واستنادا إلى ماري وارهام، المنسقة على الصعيد العالمي لحملة ‘أوقفوا الروبوتات المقاتلة ’، اعتبرت الولايات المتحدة الأميركية الى حد الآن أن الحظر سابق لأوانه، مساندة مسار المعاهدة حول الأسلحة التقليدية وتطوير الممارسات الجيدة على مراقبة الأسلحة كإجراء مؤقت.