سنوات ويصبح البشر تحت رحمة "إيفان المدمر"

ازدادت مخاوف نشطاء، من بينهم جودي ويليامز، الحائزة على جائزة نوبل، من توسع الولايات المتحدة ودول أخرى في تصنيع أجهزة روبوت من المنتظر أن تأخذ في المستقبل بزمام المعارك العسكرية، وتتخطى القيم الإنسانية عبر توسيع دائرة القتل عندما يصبح من الصعب عليها إدراك أن هناك قيمة ما للبشر.
الثلاثاء 2016/05/31
توقف ساعة الروبوت القاتل ليس وشيكا بعد

لندن- قال باحثون في القوات الجوية الأميركية الأسبوع الماضي إن الطيارين الذين يقودون الطائرة المقاتلة “إف35″ سيكون باستطاعتهم التحكم بعدد قليل من الطائرات دون طيار من قمرة القيادة، وضرب الأهداف وتنفيذ عمليات الاستطلاع المعقدة.

وحاليا تتحكم وحدات على الأرض في خط سير الطائرة ومستوى حمولة الأسلحة على متنها والتخلص منها في الطائرات دون طيار التابعة للقوات الأميركية. لكن في المستقبل قد يتغير كل ذلك. وقال كبير الباحثين في القوات الجوية الأميركية غريغ زخارياس “كلما وضعت المزيد من الذكاء والاستقلال في هذه المعــدات، كلما أصبـحت الاستفادة منها أكبر”.

وسيعزز هذا التطور فرضية أن تنفذ طائرة مقاتلة وحيدة مهام الاستطلاع وتتمتع في نفس الوقت بالمرونة والكفاءة في تنفيذ مهمة بعدد أكبر من الأسلحة وأجهزة الاستشعار وتكنولوجيا أوسع لضرب الأهداف. وستكون هذه التكنولوجيا الجديدة مفيدة للغاية خلال المعارك السريعة والحاسمة، وعلى رأسها ضرب أهداف جو – جو وأهداف جو – أرض.

ورغم ذلك، مازالت احتمالات حدوث تحركات غير متوقعة بحسب ظروف المعارك من قبل الطائرات دون طيار قائمة إلى حد كبير. ونفس الشيء يحصل من قبل الروبوتات التي بدأت تدخل الخدمة ضمن جيوش كبرى مؤخرا.

ويقول زخارياس “الروبوتات الأرضية هي الأسلحة الأصعب على الإطلاق. أعتقد أن ذلك حاد للغاية. السؤال هو: ماذا يحدث عندما تكون مجبرا على القيام برد فعل تجاه البيئة المحيطة بك، والهدف الذي يقترب منك شيئا فشيئا؟”. وبات الباحثون مستعدين لتخيل الكثير من السيناريوهات القاتلة.

جودي ويليامز: إلى أين تذهب الإنسانية إن كان بعض الناس يعتقدون أنه من الجيد التنازل عن حق الحياة وقتل البشر بواسطة آلة؟

ومن بين هذه السيناريوهات اقتراب التحالف الذي تقوده الولايات المتحدة من مدينة الرقة، معقل تنظيم داعش في سوريا، للقضاء عليه. وفي مرحلة ما يطلق العنان لسرب قاتل من الروبوتات المحلقة ذاتية القيادة، التي تتحرك في أنحاء المدينة متعقبة العدو. وباستخدام تكنولوجيا تمييز الوجه، تتمكن الروبوتات من تحديد كبار قادة التنظيم وقتلهم، ما يعمل على قطع عنق التنظيم نهائيا.

وستكون النتيجة أن تنهار قوات التنظيم المتطرف، المصابة بحالة من الذهول وتراجع الروح المعنوية، بينما تتعرض قوات التحالف والمدنيون إلى الحد الأدنى من الخسائر.

والسؤال هو: من الذي لا يعتقد بأن هذا يعتبر استخداما جيدا للتكنولوجيا؟ الكثير من الناس، بمن فيهم خبراء عديدون في مجال الذكاء الاصطناعي يعرفون الكثير عن التكنولوجيا اللازمة لتطوير مثل هذه الأسلحة.

نشر الأسلحة القاتلة

في رسالة مفتوحة نشرت في يوليو الماضي، حذرت مجموعة من باحثي الذكاء الاصطناعي من أن التكنولوجيا وصلت إلى مرحلة بحيث أن نشر منظومات الأسلحة الذاتية القاتلة أمر ممكن في غضون سنوات، وليس عدة عقود. وخلافا للأسلحة النووية يمكن أن يتم إنتاج مثل هذه الأنظمة على نطاق واسع وبتكلفة زهيدة لتصبح “كلاشنيكوف الغد”.

وقال الباحثون “ستكون هذه مسألة وقت فقط حتى تظهر تلك الأسلحة في السوق السوداء، وفي أيدي الإرهابيين، والطغاة الراغبين بالتحكم في إرادة الجماهير، وأمراء الحرب الراغبين في ارتكاب جرائم التطهير العرقي. إن البدء في سباق تسلح عسكري من أسلحة الذكاء الاصطناعي يعد فكرة سيئة، وينبغي أن يتم منعه من خلال فرض حظر على الأسلحة الهجومية الذاتية الخارجة عن سيطرة الإنسان المعقولة”.

وبالفعل رفضت الولايات المتحدة وعلى نطاق واسع، استخدام الأسلحة الهجومية المتمتعة بالاستقلالية. وفي الآونة الأخيرة أجرت الأمم المتحدة جولة من المحادثات في جنيف جمعت 94 قوة عسكرية بهدف التوصل إلى اتفاق دولي يحد من استخدامها.

والحجة الرئيسية أخلاقية الطابع، وهي أن منح الروبوتات وكالة لقتل البشر من شأنه أن يتجاوز خطا أحمر ينبغي عدم تخطيه إطلاقا. وتعتبر جودي ويليامز، التي فازت بجائزة نوبل للسلام بسبب حملتها ضد الألغام الأرضية والمتحدثة باسم حملة “أوقفوا الروبوتات القاتلة”، أن الأسلحة التي تتحرك ذاتيا أكثر رعبا من الأسلحة النووية. وتقول ويليامز “إلى أين تذهب الإنسانية إن كان بعض الناس يعتقدون أن من الجيد التنازل عن حق الحياة وقتل البشر بواسطة آلة؟”.

إنتاج ضخم وأسعار زهيدة يحولان الروبوت القاتل إلى "كلاشنيكوف المستقبل"

لكن هناك مخاوف أخرى تتجاوز الجانب الأخلاقي البحت. وأثارت هذه المخاوف تساؤلات منها هل يعمل استخدام الروبوتات القاتلة على تخفيض تكاليف الحرب البشرية، وبالتالي يزيد من احتمال نشوب صراعات؟ كيف يمكن إيقاف انتشار مثل هذه الأنظمة؟ من الذي سيخضع للمساءلة عندما تخطئ تلك الأسلحة؟

تبدو هذه الحجة الأخلاقية ضد الروبوتات القاتلة واضحة بما فيه الكفاية من الناحية الفلسفية، لكن المشكلة هي أنه كلما تم تدقيق النظر في استخدامها المحتمل في ضباب الحرب، يصبح من الصعب تمييز الحدود الأخلاقية.

وحتى الآن تم نشر الروبوتات (بقدرة ذاتية محدودة) في ساحة القتال في مجالات مثل إبطال مفعول القنابل وإزالة الألغام والأنظمة المضادة للصواريخ. ومن المتوقع أن يتسع نطاق استخدامها بشكل كبير.

ويقدر “مركز الأمن الأميركي الجديد” أن الإنفاق العالمي على الروبوتات العسكرية سيصل إلى 7.5 مليار دولار سنويا بحلول عام 2018، مقارنة بـ43 مليار دولار من المتوقع إنفاقها على الروبوتات التجارية والصناعية.

ويؤيد المركز البحثي، ومقره واشنطن، نشر المزيد من مثل هذه النظم بحجة أنها يمكن أن تعزز إلى حد كبير “قدرة القوات المقاتلة على كسب ميزة حاسمة تتفوق بها على خصومها”.

وتقيم صناعة الأسلحة تمييزا بين المستويات المختلفة من الاعتماد على الذات. ويشمل المستوى الأول، الذي يوصف باسم “البشر في الحلقة”، الطائرات الهجومية دون طيار التي تستخدم على نطاق واسع من قبل القوات الأميركية وغيرها من القوات. وعلى الرغم من أن الطائرة دون طيار يمكنها تحديد الهدف، إلا أنها لا تزال تتطلب وجود شخص يضغط على زر الهجوم.

إيفان اللاأخلاقي

وفي معامل عسكرية روسية، كان باحثون يقفون أمام إنسان آلي بدا أنه سيكون جندي المستقبل. ويعرف هذا الروبوت العسكري باسم “إيفان المدمر”، ويتخذ إلى حد كبير شكل الروبوت الشهير في هوليوود “أيرون مان”.

وطوال أعوام، حاولت روسيا اللحاق بالولايات المتحدة والصين في تطوير أجهزة الربوت العسكرية والطائرات دون طيار ومعدات عسكرية أخرى تتمتع بإمكانيات تكنولوجية كبيرة.

ويتحكم في “إيفان المدمر”، الذي تم تصميمه بواسطة مؤسسة روسيا للدراسات المتقدمة، جندي على بعد أميال، يرتدي بدلة خاصة تحتوي على أجهزة استشعار على الرقبة واليدين والكتفين.

سباستيان فاركوار: بمجرد أن تطور هذه الأنظمة الذكية أهدافا تتعارض مع القيم الإنسانية، سنشهد الكثير من النتائج السلبية

ويمكن هذا النظام الروبوت من أن يتجاوب بكفاءة عالية مع حركات الإنسان. ويمكن لـ”إيفان المدمر” أن يقود سيارة، عبر إجراء مسح سريع للطرق أمامه، كما يمكنه السباحة وإطلاق النار من منظومة أسلحة متعددة المهام.

ومثلما هو موضح بصورة حية في فيلم “عين في السماء”، يمكن لمثل هذه القرارات أن تكون مؤلمة من الناحية الأخلاقية، ما يعمل على موازنة أهمية ضرب أهداف حيوية تنطوي على مخاطر إصابات في صفوف المدنيين.

أما المستوى الثاني من الاعتماد على الذات فيشمل أنظمة “البشر في حلقات”، وفيه يشرف البشر على أنظمة الأسلحة الذاتية، بما في ذلك البطاريات المضادة للطائرات. لكن سرعة وكثافة الحروب الحديثة تجعلان من المشكوك فيه ما إذا كان مثل هذا الإشراف البشري يشكل رقابة أو سيطرة فعالة.

ويتعلق المستوى الثالث بأنظمة “البشر خارج الحلقة”، مثل الطائرات بلا طيار المستقلة ذاتيا بشكل تام، والتي من المحتمل أن تكون النوع الأكثر دموية، لكن ربما النوع الأسهل من حيث تحريمه.

ويلعب خبراء مراقبة التسلح دورا مفيدا، ولكن بطيئا بشكل محبط في المساعدة في تحديد هذا التحدي والاستجابة له. ويقول بول شار، وهو زميل أول لدى مركز الأمن الأميركي الجديد “إنه حوار قيم. لكنها عملية بطيئة للغاية”.

وكما هي الحال في الكثير من المجالات الأخرى، تتدافع مجتمعاتنا من أجل فهم الحقائق التكنولوجية سريعة التغير، ناهيك عن السيطرة عليها. ويقول باحثون إن المخاوف الآن تتمحور حول ما إذا سيكون البشر قادرين على التحكم في الروبوتات الذكية أم أن العكس هو ما سيحصل.

وأسست إيلون مسك مؤخرا مركزا بحثيا أطلقت عليه “الجيم المفتوح للروبوتات” وهو مكان تعكف فيه على تدريب أجهزة الروبوت وأنظمة الذكاء الاصطناعي الأخرى. ويقول سباستيان فاركوار، الأستاذ في جامعة أوكسفورد البريطانية، “بمجرد أن تطور هذه الأنظمة الذكية أهدافا تتعارض مع القيم الإنسانية، سنشهد الكثير من النتائج السلبية”. وستصبح الأسلحة الذاتية وأنظمة الذكاء الاصطناعي القوية خطيرتين للغاية عندما تصبحان من الصعب عليها إدراك أن البشر ذوو قيمة.

13