الأسلحة ذاتية التحكم: رسالة مفتوحة من باحثي الروبوت والذكاء الصناعي

إن كان هناك خطر من الذكاء الصناعي فهو يتجلى في الأسلحة ذاتية التحكم Autonomous Weapons. هذا النوع يمتلك إمكانية تحديد الهدف البشري وتتبعه وإطلاق النار عليه ذاتيا بدون تدخل بشري. التقنية حاضرة وهذه الأسلحة موجودة الآن. الشركات المصنعة لهذه الأسلحة مثل DoDAAM الكورية تضيف، بطلب من الزبائن، خاصية الموافقة البشرية على إطلاق النار. وهذه الخاصية إنما هي إضافية، ولا يوجد علم عن حالات تستخدم فيها هذه الأسلحة بدون خاصية الموافقة البشرية على القتل. الشركة المذكورة أعلاه تصنع سلاح Super aEgis II، قيمة النظام الواحد 40 مليون دولار، له القدرة على إيقاف شاحنة وإصابة هدف على بعد 4 كم. بيعت منه 30 وحدة وتمتلك أبوظبي وقطر وحدات عديدة منه لحماية المنشآت العسكرية والنفطية.

Super aEgis II
Super aEgis II

 إضافة الذكاء الصناعي على الأسلحة الفتاكة، يفتح باب واسع من التساؤلات الأخلاقية. انطلقت معها مناشدات عدة لوقف تطوير هذه الأسلحة منها تأسيس حملة إيقاف الروبوتات القاتلة في 2012. واليوم يوقع أكثر من ألف باحث في مجال الذكاء الصناعي والروبوت معهم شخصيات معروفة مثل ستيفن هوكنج، نوم تشومسكي، إليون مسك، ستيف ووزنياك وغيرهم، على رسالة مفتوحة مع بدء المؤتمر الدولي المشترك للذكاء الصناعي يطالبون بوقف تطوير هذا النوع من الأسلحة. أرفق أدناه ترجمتي لهذه الرسالة. وإن كنت من الباحثين في هذا المجال فيمكنك التوقيع عليها كذلك – حتى وقت الكتابة هذه.

الأسلحة ذاتية التحكم بإمكانها أن تختار وتطلق على الأهداف من دون تدخل بشري. قد تشمل هذه الأسلحة كمثال، طائرات متعددة المراوح مسلحة وباستطاعتها ذاتيا أن تبحث عن وتتخلص من أفراد بصفات معرّفة مسبقا. هذه الأسلحة لا تشمل صواريخ الكروز أو الطائرات بدون طيار التي يمتلك البشر القدرة والمسؤولية على التحكم في الأسلحة التي على متنها.

الذكاء الصناعي وصل إلى مرحلة أصبح فيها توفير مثل هذه الأسلحة ممكن عمليا، وإن لم يكن ممكن قانونيا، في غضون سنوات وليس عقود. والرهان على هذا المجال عالي، حيث أنه يتم وصف الأسلحة ذاتية التحكم بالثورة الحربية الثالثة، بعد البارود والسلاح النووي.

وجهات نظر عديدة تم طرحا سواء مع أو ضد الأسلحة ذاتية التحكم. بمقابل القول أن استبدال البشر بهذه الأسلحة جيد كونه يخفض من أعداد الضحايا، فهي سيئة كونها تستسهل عملية خوض الحروب. السؤال المطروح على البشرية الآن هو هل يجب أن نبتدئ التسابق العالمي للتسلح بالذكاء الصناعي، أم نمنعه من البداية. فلو بدأت أي قوّة عسكرية في التسلح بأسلحة الذكاء الصناعي فحينها سيكون السباق العالمي للتسلح بها أمر لا محال، ونهاية هذا السباق ستكون واضحة وهي أن هذه الأسلحة ستمثل “كلاشينكوف” المستقبل. فبخلاف الأسلحة النووية، فإن هذه الأسلحة لا تحتاج إلى مواد ثمينة أو صعبة التوريد ولهذا ستكون رخصية، سهلة التصنيع ومنتشرة بين جميع القوى العسكرية.

وما هي  إلا مسألة وقت قبل أن تسرّب هذه الأسلحة للسوق السوداء ونراها في أيدي الإرهابيين، عند الطغاة ممن يريدون التحكم بشعوبهم ومع أمراء الحروب ممن يطمحون للتطهير العرقي، الخ. فهذه الأسلحة مثالية للقيام بعمليات الاغتيال، في زعزعة استقرار الدول، في إخضاع الشعوب وفي القتل الانتقائي لبشر من أصول وأعراق معينة. لذلك نحن نؤمن بأن سباق التسلح بالذكاء الصناعي لن يكون من صالح البشرية. هناك سبل كثيرة لإفادة البشر من الذكاء الصناعي على أرض المعركة وخصوصا للمدنيين، من دون استحداث أدوات جديدة لقتل الناس.

غالبية علماء الأحياء والكيمياء ليس لديهم اهتمام في تطوير أسلحة بيولوجية وكيماوية، وكذلك أغلب الباحثين في مجال الذكاء الصناعي، ليس لديهم اهتمام في صنع أسلحة الذكاء الصناعي ولا يرغبون أن يقوم غيرهم بتشويه مجالهم البحثي عن طريق القيام بتطوير هذه الأسلحة، مما قد يُحدث ردة فعل عكسية من العامة على هذا المجال ويتسبب في تحجيم تطوره وحد الاستفادة منه في خدمة البشرية.

علماء الكيمياء والأحياء قاموا وبشكل واسع في دعم الاتفاقيات الدولية التي نجحت في منع تطوير الأسلحة الكيماوية والبيولوجية تماما كما فعل علماء الفيزياء في دعم الاتفاقيات التي تمنع الأسلحة النووية الفضائية وأسلحة الليزر المسببة للعمى.

باختصار، نحن نؤمن بأن الذكاء الصناعي له إمكانات عظيمة لإفادة البشرية وبطرق مختلفة وهذا ما يجب أن يكون عليه هدف المجال. البدء في سباق تسلح الذكاء الصناعي فكرة سيئة، ويجب أن تكبح عن طريق حظر الأسلحة الهجومية ذاتية التحكم من دون وجود قدرة تحّكم بشرية معتبرة عليها.

Ali AlSaibie
PhD Candidate,
Georgia Institute of Technology

علي الصيـبعي
باحث دكتوراه، معهد جورجيا للتقنية.