"الروبوتات القاتلة".. أسلحة مستقلة تهدد البشرية تتنافس عليها أميركا وروسيا

سليمان حيدر | 2 years ago

12

طباعة

مشاركة

تزايدت المطالبات بفرض حظر على الأسلحة ذاتية التشغيل أو ما بات يعرف بـ"الروبوتات القاتلة" وسط مخاوف متصاعدة من أنها قد تخرج عن سيطرة البشرية وتنتهك الحدود القانونية والأخلاقية وتزيد من زعزعة الاستقرار العالمي. 

وتكمن المخاوف التي أثارتها عديد من الدول في أنه يمكن لهذا النوع من الأسلحة المستقلة أن تحدد وتستهدف وتقتل دون تدخل بشري. 

وبحسب صحيفة واشنطن بوست الأميركية فهناك 30 دولة على الأقل دعت إلى فرض حظر عالمي شامل على الروبوتات القاتلة، وهو أمر يدافع عنه ناشطو الحد من التسليح وحقوق الإنسان منذ فترة طويلة. 

وأشارت الصحيفة في تقرير نشرته مطلع ديسمبر/ كانون الأول 2021 إلى وقوف كل من الولايات المتحدة وروسيا الرائدتين في هذه الصناعة أمام تلك الخطوة وتقليلهما من مخاطر هذا النوع من الأسلحة. 

فيما قالت الصين التي يتزايد إنفاقها العسكري سنويا إنها تؤيد فرض حظر على استخدام الأسلحة ذاتية التشغيل لكن ليس على تطويرها وإنتاجها.

فشل أممي

تعارض الدول المصنعة، ومنها الولايات المتحدة وروسيا والهند، إجراء مفاوضات بشأن استخدام الأسلحة ذاتية التشغيل قد تؤدي إلى معاهدات دولية جديدة.

وفي أعقاب تقرير للأمم المتحدة في مارس / آذار 2021 عن أن أول قتل للبشر بواسطة أسلحة مستقلة قد يكون حدث بليبيا في 2020، تزايد الاهتمام الدولي بضرورة تنظيم صناعة الروبوتات القاتلة.

وعلى مدار خمسة أيام نظمت الأمم المتحدة في الفترة بين 13 - 17 ديسمبر / كانون الأول 2021 المؤتمر السادس لاتفاقية الأسلحة التقليدية. 

وخلال المؤتمر شجع الأمين العام للأمم المتحدة أنطونيو غوتيريش الأطراف الـ125 في الاتفاقية على التوصل إلى "خطة طموحة" بشأن قواعد جديدة .

وأبرمت المعاهدة عام 1983، وتحدث بانتظام لتقييد بعض تقنيات الأسلحة التقليدية الأكثر ضررا في العالم التي تشكل مخاطر جسيمة على المدنيين الأبرياء. 

وتشمل هذه القائمة الألغام الأرضية، والأسلحة الحارقة، والذخائر غير المنفجرة، والأسلحة التي تخلق شظايا لا يمكن اكتشافها وتجعل معالجة الجروح شبه مستحيلة.

لكن المؤتمر فشل في تحديد موعد لمزيد من المحادثات حول تطوير واستخدام أنظمة الأسلحة الفتاكة ذاتية التشغيل. 

وتسبب الفشل الأممي في التوصل إلى صياغة جديدة تؤدي إلى منع انتشار الأسلحة المستقلة، في انتشار دعوات واسعة من مسؤولين دوليين ومنظمات حقوقية تطالب الدول الرافضة لتلك الأسلحة بالذهاب بعيدا عن المنظمة الأممية لإعداد وثيقة جديدة.

وفي أعقاب المؤتمر دعا وزير الخارجية النمساوي ألكسندر شالنبرغ ووزير نزع السلاح في نيوزيلندا فيل تويفورد إلى تطوير قوانين دولية جديدة تنظم الأسلحة المستقلة.

 فيما دعت 68 دولة إلى صك قانوني في الأمم المتحدة حول هذه النوعية من الأسلحة، بحسب رويترز.

وقالت فيريتي كويل، كبيرة مستشاري منظمة العفو الدولية: "مع تقدم عمليات البحث والاختبار لهذه الأسلحة، تتضاءل فرصة التنظيم باستمرار". 

وأشارت كويل بحسب تقرير للمنظمة في 17 ديسمبر/ كانون الأول 2021 إلى أن اتفاقية الأسلحة التقليدية أثبتت مرة أخرى عدم قدرتها على تحقيق تقدم ذي مغزى وأنه حان الوقت لأن تأخذ الدول الملتزمة زمام المبادرة بعيدا عن الأمم المتحدة.

ويشاركها في ذلك ريتشارد مويس المنسق في حملة "أوقفوا الروبوتات القاتلة" الذي أكد أن قادة الحكومات يحتاجون إلى رسم خط أخلاقي وقانوني للإنسانية ضد قتل البشر بواسطة الآلات. 

ونقل تقرير العفو الدولية عن مويس قوله: "ترى أغلبية واضحة من الدول الحاجة إلى ضمان سيطرة بشرية ذات مغزى على استخدام القوة، حان الوقت الآن ليتحركوا من أجل منع العواقب الإنسانية الكارثية للروبوتات القاتلة".

ووفقا لصحيفة ذي هيل الأميركية وقعت 160 منظمة و2460 فردا، بينهم الرئيس التنفيذي لشركة تسلا الملياردير إيلون ماسك على تعهد بعدم المشاركة في تطوير أسلحة فتاكة ذاتية التشغيل. 

وقالت الصحيفة في 3 ديسمبر / كانون الأول 2021 إن التعهد ينص على أن "الآلاف من باحثي الذكاء الاصطناعي يتفقون على أنه من الممكن أن تصبح الأسلحة الفتاكة المستقلة أدوات قوية للعنف والقمع، لا سيما عندما تكون مرتبطة بأنظمة المراقبة والبيانات".

كما ورد في التعهد أن الأسلحة ذاتية التشغيل تتمتع بخصائص مختلفة تماما عن الأسلحة النووية والكيميائية والبيولوجية ويمكن أن تؤدي الإجراءات الأحادية لمجموعة واحدة بسهولة شديدة إلى سباق تسلح يفتقر المجتمع الدولي إلى الأدوات التقنية وأنظمة الحوكمة العالمية لإدارتها.

ونقلت الصحيفة عن مديرة منظمة هيومن رايتس ووتش، ماري ويرهام، أنه على الرغم من أن التوصل إلى معاهدة عالمية ملزمة لتقييد الأسلحة المستقلة يبدو غير مرجح، إلا أن موقف الحكومات وشركات الأسلحة يظهر أن الوعي بالمخاطر يتزايد.

وأشارت ويرهام التي قادت حملة لسنوات لوقف الروبوتات القاتلة إلى أن الدول لا تحتاج إلى التوقيع على معاهدة تعترف باستخدام مثل هذه الأسلحة في العالم.

وأضافت: "تماما مثل الألغام الأرضية والأسلحة الكيماوية والقنابل النووية، على الرغم من أن الولايات المتحدة رفضت التوقيع على اتفاقية حظر الذخائر العنقودية في عام 2021، إلا أن الجدل الدائر حول هذه الأسلحة دفع الشركات الأميركية المصنعة إلى التوقف طواعية عن تصنيعها".

معارضة أميركية روسية

في السياق، تحدثت تقارير دولية عديدة في أعقاب المؤتمر الأممي عن أن البلدان التي تستثمر بالفعل في تطوير هذه الأسلحة منعت الأغلبية من الاتفاق على خطوات لوضع قواعد ملزمة قانونا بشأن الروبوتات القاتلة. 

ونقلت وكالة رويترز عن مصادر لم تسمها في 18 ديسمبر/ كانون الأول 2021 أن روسيا والهند والولايات المتحدة من بين الدول التي تراجعت عن معاهدة جديدة لأنظمة الأسلحة ذاتية التشغيل.

وتجادل الولايات المتحدة بأن البشر سيكونون دائما مسيطرين على أسلحة الذكاء الاصطناعي، وتمسكت بفوائد أنظمة الأسلحة الفتاكة ذاتية التشغيل، بما في ذلك دقتها العالية في إصابة الأهداف.

فيما أشارت صحيفة واشنطن بوست الأميركية إلى أن "هناك العشرات من المشاريع من قبل عديد من الحكومات لتطوير هذا النوع من الذخائر".

وأضافت في تقرير بتاريخ 7 يوليو / تموز 2021: "حتى مع مشاركة دول مثل الولايات المتحدة والصين وروسيا في المناقشات حول معاهدة تحد من الأسلحة المستقلة، فإنها تتسابق إلى الأمام لتطويرها".

ونقلت الصحيفة عن العضو المؤسس في اللجنة الدولية للحد من الأسلحة الروبوتية، بيتر أسارو، قوله إن الجيوش المتقدمة تدفع باتجاه هذه التقنيات وأنها "سوف تتكاثر بسرعة".

وأضافت أن شركات مثل غوغل وأمازون وأبل وتسلا تضخ مليارات الدولارات في تطوير التكنولوجيا والذكاء الاصطناعي. 

ويؤكد النقاد بأن برامج الذكاء الاصطناعي يتم نشرها في بعض الأحيان دون معرفة كاملة بكيفية عملها وعواقب استخدامها على نطاق واسع بحسب واشنطن بوست.

وعن مقاومة السياسيين الأميركيين فرض حظر عالمي على الأسلحة ذاتية التشغيل أشارت الصحيفة إلى أن الكونغرس كلف لجنة من شخصيات بارزة في مجال التكنولوجيا بإعداد دراسة حول تأثير الذكاء الاصطناعي على الأمن القومي الأميركي.

ومن المشاركين في الدراسة، الرئيس التنفيذي السابق لشركة غوغل إريك شميدت، ورئيس خدمات الويب آنذاك الرئيس التنفيذي الحالي لشركة أمازون آندي جاسي، وكبير علماء مايكروسوفت إريك هورفيتز.

وجادل التقرير النهائي للدراسة المكون من 756 صفحة بأن واشنطن يجب أن تعارض حظر الأسلحة المستقلة لأنه سيكون من الصعب تنفيذه، ويمكن أن تمنع مثل هذه الاتفاقيات الولايات المتحدة من استخدام الأسلحة الموجودة بالفعل في ترسانتها.

وأضاف التقرير: "قد يكون من المستحيل تحديد فئة الأنظمة التي سيتم تقييدها بطريقة توفر وضوحا مناسبا مع عدم تقييد القدرات العسكرية الأميركية الحالية بشكل مفرط".

 مخاطر الروبوتات

وتستثمر عديد من الجيوش حول العالم في عمليات البحث والتطوير في أنظمة الأسلحة المستقلة التي هي عبارة عن روبوتات بأسلحة فتاكة يمكنها العمل بشكل مستقل واختيار الأهداف ومهاجمتها دون أن يتدخل الإنسان في تلك القرارات. 

الباحث في مجال حقوق الإنسان، جيمس دوز، أشار إلى أن الولايات المتحدة وحدها خصصت 18 مليار دولار للأسلحة المستقلة بين عامي 2016 و 2020. 

وقال دوز، في مقال بمجلة ذي كونفيرسيشن الأسترالية بتاريخ 29 سبتمبر / أيلول 2021 إن منظمات حقوق الإنسان تتسابق لوضع لوائح وحظر تطوير مثل هذه الأسلحة.

فيما يحذر خبراء السياسة الخارجية من أن "تقنيات الأسلحة المستقلة التخريبية ستزعزع بشكل خطير الإستراتيجيات النووية الحالية لأنها قد تغير بشكل جذري تصورات الهيمنة الإستراتيجية وتزيد من مخاطر الهجمات الوقائية".

وكشف دوز عن وجود أربع مخاطر أساسية للأسلحة المستقلة، أولها: "مشكلة التحديد الخاطئ عند اختيار الهدف، وهل ستكون الأسلحة المستقلة قادرة على التمييز بين الجنود المعادين، والأطفال الذين يبلغون من العمر 12 عاما الذين يلعبون ببنادق الألعاب؟ وهل ستستطيع التمييز بين المدنيين الفارين من موقع الصراع والمتمردين الذين يقومون بتراجع تكتيكي؟".

الخطر الثاني والثالث من وجهة نظر الباحث هما مشاكل انتشار هذه الأسلحة على المستويين المنخفض والمرتفع حيث تعمل الجيوش التي تطور أسلحة مستقلة الآن على افتراض أنها ستكون قادرة على احتواء والتحكم في استخدام الأسلحة المستقلة. 

وأشار دوز إلى أن ضغوط السوق قد تؤدي إلى إنشاء وبيع ما يمكن اعتباره سلاحا مستقلا مكافئا لبندقية كلاشينكوف الهجومية، "روبوتات قاتلة رخيصة وفعالة ويكاد يكون من المستحيل احتواؤها أثناء تداولها في جميع أنحاء العالم، يمكن أن تصل هذه الأسلحة المستقلة إلى أيدي أشخاص خارج سيطرة الحكومة، بما في ذلك الإرهابيون الدوليون والمحليون".

كما يمكن أن تتنافس الدول على تطوير نسخ مدمرة بشكل متزايد من الأسلحة المستقلة، بما في ذلك تلك القادرة على تركيب أسلحة كيميائية وبيولوجية وإشعاعية ونووية. 

ويرى دوز أن هذا النوع من الأسلحة قد يؤدي إلى حروب غير متكافئة تشن فيها الدول صاحبة التكنولوجيا المتطورة هجمات على الدول التي تفتقر إلى التكنولوجيا المنافسة، وأن تصبح هذه الحروب أكثر شيوعا مما سيؤدي إلى حالة من عدم الاستقرار العالمي. 

ويكمن الخطر الأخير لهذه الأسلحة في قدرتها على تقويض قوانين الحرب الدولية والتصدي لجرائم الحرب. 

وأضاف دوز: "هذه القوانين، التي تم تدوينها في معاهدات تعود إلى اتفاقية جنيف لعام 1864، هي الخط الأزرق الدولي الرفيع الذي يفصل بين الحرب بشرف والمذبحة، إنها مبنية على فكرة أنه يمكن محاسبة الناس على أفعالهم حتى أثناء الحرب".

وفي هذا الصدد طرح الباحث العديد من الأسئلة التي تحتاج إلى إجابة من بينها "كيف يمكن محاسبة الأسلحة المستقلة؟ ومن المسؤول عن الروبوت الذي يرتكب جرائم حرب؟ ومن سيحاكم؟ السلاح؟ أم الجندي؟ أم قادة الجندي؟ أم الشركة التي صنعت السلاح؟". 

وأكد أن المنظمات غير الحكومية والخبراء في القانون الدولي يشعرون بالقلق من أن الأسلحة المستقلة ستؤدي إلى فجوة خطيرة في المساءلة.