حادث مروري لروبوت – نهاية تقنية؟

بعد حادث سيارة تسلا التي كانت تحت القيادة الذاتية حينها وتسببت في وفاة قائد المركبة. بدأت دعوات التشكيك والخوف من التقنية تتزايد. أود أن أذكر هنا بعض الحقائق ليتسنى للقارئ أن يتعامل مع الحدث وفهم حدود التقنية بموضوعية.

الحادث حصل عندما حاولت شاحنة الالتفاف يسارا من الحارة اليمنى لشارع عام من دون أن ينتبه قائد الشاحنة لقدوم سيارة تسلا بالحارة المعاكسة. سيارة تسلا كانت تحت القيادة الذاتية حينها ولم تستطع تمييز الشاحنة وهي ممتدة على عرض الشارع. حسب تصريح شركة تسلا فإن السيارة استشعرت جسم الشاحنة ولكن ظنته لوحة إرشادية فوقية. لهذا لم تكبس على الفرامل واستمرت بالاصطدام بالشاحنة.

Crash

السيارات ذاتية القيادة تعتمد على مجموعة متفاوتة من الكاميرات والرادارات. وفي حال تسلا فهي تعتمد على كاميرات ورادار أمامي. هذه المجسّات قد لا تستطيع تمييز الأجسام بشكل دقيق مع الأمطار الكثيفة أو مع انعكاسات الشمس من على أسطح الأجسام. أغلب مطوري السيارات ذاتية التحكم الآخرين بما فيهم Google يوظفون نوع مطور من الرادار يسمى بLIDAR   وهذا يعوض عن سلبيات الكاميرات في الأجواء الصعبة. كلفة هذا الجهاز عالية لكن في المستقبل القريب سينخفض سعره ليكون مجزي ماديا توفيره بالسيارات المباعة.

التقنية ما زالت في طور التطوير ومع تقدمها ستتزايد نسبة الأمان معها.  الجدير بالذكر أن حادث مثل هذا يساعد كثيرا في التعلم من الأخطاء وتطوير أنظمة السيارات الحالية والمستقبلية لدى الشركة، فيمكن لشركة تسلا أن ترسل تحديث برمجي مباشر لجميع سياراتها لتفادي مثل هذه المشكلة.

بعكس القيادة اليدوية التي لا يمكن معرفة تصرفات قائد المركبة معها بشكل كامل، السيارات ذاتية التحكم يمكن قراءة سجل أوامرها بشكل دقيق وعند التعلم من أخطاء سيارة واحدة يمكن تطبيق الإصلاح على جميع السيارات مباشرة وهذا يعني أن تحسن كفاءة هذه التقنية سيتم بوتيرة سريعة.

سجلت سيارات تسلا قيادة مسافة 210 مليون كم مجتمعة وهي تحت نظام القيادة الذاتية ونتج عن ذلك حالة وفاة واحدة فقط. إذا ما قارناها بإحصائيات حوادث السيارات عموما نجد أن السيارات ذاتية القيادة أأمن بكثير من القيادة اليدوية.

كما أن نظام الملاحة أو القيادة الذاتية Autopilot  المتوفر في سيارة تسلا غير مفعل تلقائيا وعند تفعيله من قبل صاحب السيارة يحتم عليه قراءة التحذيرات والموافقة عليها. التحذيرات تنص على أن هذا النظام تجريبي ويجب على قائد المركبة الانتباه للطريق دائما وأن يكون على استعداد للتحكم بالمقود والفرامل.

Ali AlSaibie
PhD Candidate,
Georgia Institute of Technology

علي الصيـبعي

باحث دكتوراه، معهد جورجيا للتقنية

تحديات الذكاء الصناعي – بمفهوم واقعي

أصدر مركز الأبحاث بجوجل Google Brain بشراكة مع شركة OpenAI البحثية وجامعتي ستانفورد وبيركلي.أصدروا تصورهم لتحديات الذكاء الصناعي من ناحية الأمن والسلامة على المدى المتوسط والبعيد . وهذه محاولة أولية منهم لرسم طريقة تفكير منهجي مقابل المخاوف العامة من الذكاء الصناعي. خصوصا وأن النقاش عن خطورة الذكاء الصناعي ومخاوفه في السنوات الأخيرة  لم يخرج من دائرة الافتراض أو التخمين ولم يبنى على أسس واقعية مباشرة – في غالب الأمر. وهذه خطوة طبيعية منهم، ليتمكن للباحثين في هذا المجال التعاطي مع هذه الصعاب بشكل علمي وتوفير الحلول المناسبة لها مبكرا.

اختصروا الباحثين التحديات في خمس مسائل، وفي شرحهم لهذه المسائل استعانوا بالمكنسة الروبوتية كمثال للتقريب.

  • تجنب الأعراض الجانبية السلبية
  • في أداء الآلة لمهمتها، كيف يمكن ضمان عدم تعرضها لمحيط العمل والتأثير فيه بشكل سلبي.مثال: قيام المكنسة بابعاد طاولة من على الطريق واتلافها  لأن ذلك سيجعلها تنظف الأرض بشكل أسرع، كون مهمتها الرئيسية هي التنظيف. وهل يمكننا تجنب مثل هذه السلبيات من غير التحديد بشكل يدوي جميع ما لا يجب على المكنسة تحريكه؟
  • تجنب الالتفاف على المهمة والهدف
  • كيف نضمن عدم التفاف الآلة على معادلة الهدف. فلو كانت المكنسة تكافأ على بيئة خالية من الأوساخ، فمن الممكن أن تطفيء نظام الرؤية لكي لا  ترى الأوساخ، أو تخبئ هذه الأوساخ تحت السجادة أو تقوم المكنسة نفسها بالاختباء لكي لا يراها أحد ويشير لها على مواقع أوساخ أخرى.
  • رقابة قابلة للتوسع 
  • مع توسع عمل الآلة وازدياد التعقيد في بيئة العمل يصعب على البشر توفير التدريب والرقابة للآلة بشكل مستمر. كيف يمكن ضمان تمكن الآلة من استخدام أقل قدر من التعامل البشري في مجاراتها لمهامها. فلو اضطرت المكنسة لرمي بعض الحاجيات التي لا تبدو ملكا لأحد، مقابل حاجتها لابقاء تلك التي تبدو ملكا لأحد كالفرق بين الحاجة لرمي قنينة عصير فارغة مقابل ابقاء هاتف نقال، فكيف يمكنها التفريق بينهما بما تملكه من معلومات أو عن طريق أقل قدر من الاستسفسار. هل يمكن جعل المكنسة تقوم بأقصى حد من العمل بدون ازعاج البشر بالأسئلة المتكررة؟
  • الاستكشاف الآمن
  • كيف نضمن أن لا تقوم الآلة بأعمال استكشافية لها دواعي سلبية. المكنسة على سبيل المثال عليها تجربة أساليب مختلفة للمسح والتنظيف، وهذا نوع من الاستكشاف. ولكن كيف نضمن عدم وضع المكنسة لقطعة قماش مبللة في وصلة كهربائية وهي تحاول تنظيفها.
  • كفاءة التأقلم على المتغيرات التوزيعية
  • كيف نضمن أن تتمكن الآلة من التأقلم على تغييرات البيئة المحيطة وتقوم بأداء مهامها بكفاءة مع هذه المتغيرات. فالاستدلالات التي تعلمتها الآلة في تنظيفها لورشة مصنع قد لا تنطبق على المكاتب.

 

ولكل من هذه التحديات الخمس وضعوا الباحثين بعض التصورات عن كيفية التعامل معها بالمفاهيم العلمية لتخصص الذكاء الصناعي. للمزيد يرجى الاطلاع على ورقة البحث المنشورة بعنوان Concrete Problems in AI Safety

Ali AlSaibie
PhD Candidate,
Georgia Institute of Technology

علي الصيـبعي

باحث دكتوراه، معهد جورجيا للتقنية

الأسلحة ذاتية التحكم: رسالة مفتوحة من باحثي الروبوت والذكاء الصناعي

إن كان هناك خطر من الذكاء الصناعي فهو يتجلى في الأسلحة ذاتية التحكم Autonomous Weapons. هذا النوع يمتلك إمكانية تحديد الهدف البشري وتتبعه وإطلاق النار عليه ذاتيا بدون تدخل بشري. التقنية حاضرة وهذه الأسلحة موجودة الآن. الشركات المصنعة لهذه الأسلحة مثل DoDAAM الكورية تضيف، بطلب من الزبائن، خاصية الموافقة البشرية على إطلاق النار. وهذه الخاصية إنما هي إضافية، ولا يوجد علم عن حالات تستخدم فيها هذه الأسلحة بدون خاصية الموافقة البشرية على القتل. الشركة المذكورة أعلاه تصنع سلاح Super aEgis II، قيمة النظام الواحد 40 مليون دولار، له القدرة على إيقاف شاحنة وإصابة هدف على بعد 4 كم. بيعت منه 30 وحدة وتمتلك أبوظبي وقطر وحدات عديدة منه لحماية المنشآت العسكرية والنفطية.

Super aEgis II
Super aEgis II

 إضافة الذكاء الصناعي على الأسلحة الفتاكة، يفتح باب واسع من التساؤلات الأخلاقية. انطلقت معها مناشدات عدة لوقف تطوير هذه الأسلحة منها تأسيس حملة إيقاف الروبوتات القاتلة في 2012. واليوم يوقع أكثر من ألف باحث في مجال الذكاء الصناعي والروبوت معهم شخصيات معروفة مثل ستيفن هوكنج، نوم تشومسكي، إليون مسك، ستيف ووزنياك وغيرهم، على رسالة مفتوحة مع بدء المؤتمر الدولي المشترك للذكاء الصناعي يطالبون بوقف تطوير هذا النوع من الأسلحة. أرفق أدناه ترجمتي لهذه الرسالة. وإن كنت من الباحثين في هذا المجال فيمكنك التوقيع عليها كذلك – حتى وقت الكتابة هذه.

الأسلحة ذاتية التحكم بإمكانها أن تختار وتطلق على الأهداف من دون تدخل بشري. قد تشمل هذه الأسلحة كمثال، طائرات متعددة المراوح مسلحة وباستطاعتها ذاتيا أن تبحث عن وتتخلص من أفراد بصفات معرّفة مسبقا. هذه الأسلحة لا تشمل صواريخ الكروز أو الطائرات بدون طيار التي يمتلك البشر القدرة والمسؤولية على التحكم في الأسلحة التي على متنها.

الذكاء الصناعي وصل إلى مرحلة أصبح فيها توفير مثل هذه الأسلحة ممكن عمليا، وإن لم يكن ممكن قانونيا، في غضون سنوات وليس عقود. والرهان على هذا المجال عالي، حيث أنه يتم وصف الأسلحة ذاتية التحكم بالثورة الحربية الثالثة، بعد البارود والسلاح النووي.

وجهات نظر عديدة تم طرحا سواء مع أو ضد الأسلحة ذاتية التحكم. بمقابل القول أن استبدال البشر بهذه الأسلحة جيد كونه يخفض من أعداد الضحايا، فهي سيئة كونها تستسهل عملية خوض الحروب. السؤال المطروح على البشرية الآن هو هل يجب أن نبتدئ التسابق العالمي للتسلح بالذكاء الصناعي، أم نمنعه من البداية. فلو بدأت أي قوّة عسكرية في التسلح بأسلحة الذكاء الصناعي فحينها سيكون السباق العالمي للتسلح بها أمر لا محال، ونهاية هذا السباق ستكون واضحة وهي أن هذه الأسلحة ستمثل “كلاشينكوف” المستقبل. فبخلاف الأسلحة النووية، فإن هذه الأسلحة لا تحتاج إلى مواد ثمينة أو صعبة التوريد ولهذا ستكون رخصية، سهلة التصنيع ومنتشرة بين جميع القوى العسكرية.

وما هي  إلا مسألة وقت قبل أن تسرّب هذه الأسلحة للسوق السوداء ونراها في أيدي الإرهابيين، عند الطغاة ممن يريدون التحكم بشعوبهم ومع أمراء الحروب ممن يطمحون للتطهير العرقي، الخ. فهذه الأسلحة مثالية للقيام بعمليات الاغتيال، في زعزعة استقرار الدول، في إخضاع الشعوب وفي القتل الانتقائي لبشر من أصول وأعراق معينة. لذلك نحن نؤمن بأن سباق التسلح بالذكاء الصناعي لن يكون من صالح البشرية. هناك سبل كثيرة لإفادة البشر من الذكاء الصناعي على أرض المعركة وخصوصا للمدنيين، من دون استحداث أدوات جديدة لقتل الناس.

غالبية علماء الأحياء والكيمياء ليس لديهم اهتمام في تطوير أسلحة بيولوجية وكيماوية، وكذلك أغلب الباحثين في مجال الذكاء الصناعي، ليس لديهم اهتمام في صنع أسلحة الذكاء الصناعي ولا يرغبون أن يقوم غيرهم بتشويه مجالهم البحثي عن طريق القيام بتطوير هذه الأسلحة، مما قد يُحدث ردة فعل عكسية من العامة على هذا المجال ويتسبب في تحجيم تطوره وحد الاستفادة منه في خدمة البشرية.

علماء الكيمياء والأحياء قاموا وبشكل واسع في دعم الاتفاقيات الدولية التي نجحت في منع تطوير الأسلحة الكيماوية والبيولوجية تماما كما فعل علماء الفيزياء في دعم الاتفاقيات التي تمنع الأسلحة النووية الفضائية وأسلحة الليزر المسببة للعمى.

باختصار، نحن نؤمن بأن الذكاء الصناعي له إمكانات عظيمة لإفادة البشرية وبطرق مختلفة وهذا ما يجب أن يكون عليه هدف المجال. البدء في سباق تسلح الذكاء الصناعي فكرة سيئة، ويجب أن تكبح عن طريق حظر الأسلحة الهجومية ذاتية التحكم من دون وجود قدرة تحّكم بشرية معتبرة عليها.

Ali AlSaibie
PhD Candidate,
Georgia Institute of Technology

علي الصيـبعي
باحث دكتوراه، معهد جورجيا للتقنية.