الذكاء الاصطناعي في الأيادي الخاطئة: المارقون يتلاعبون بالعالم

خبراء يرسمون صورة مرعبة للعالم في السنوات الـ10 المقبلة، ويحذرون من الاستخدامات الخبيثة للذكاء الاصطناعي الذي سيفوق مستويات الأداء البشري.
الخميس 2018/02/22
نظم جديدة غيرت قواعد اللعبة

لندن - حذر تقرير بعنوان “الاستخدامات الخبيثة للذكاء الاصطناعي” من أن هذا النوع من الذكاء يمكن استغلاله من قِبل الدول المارقة والمجرمين والإرهابيين.

ورسم التقرير الذي أعده 26 من كبار الخبراء في العالم صورة مرعبة للعالم في السنوات الـ10 المقبلة.

ووفقا لصحيفة الإندبندنت البريطانية، تم تجميع التقرير من قبل خبراء من العديد من المؤسسات الرائدة في العالم ومنظمات أبحاث الذكاء الاصطناعي، يدعون أنها المرة الأولى التي تتم فيها دراسة الذكاء الاصطناعي وإساءة استخدامه في العالم بهذه الطريقة.

ويقول اسين أو هيغيرتاي، المدير التنفيذي لمركز دراسة المخاطر الوجودية وأحد المؤلفين المشاركين في التقرير “الذكاء الاصطناعي غيّر قواعد اللعبة، وقد تخيل هذا التقرير ما يمكن أن يبدو عليه العالم في السنوات الخمس إلى العشر المقبلة”.

الروبوت صوفيا تتراجع: القضاء على البشر مزحة سيئة

لندن - غازلت صوفيا الروبوت الآلي الأذكى في العالم والأكثر شبها بالبشر، جمهورها في الهند التي زارتها لحضور مؤتمر تكنولوجي أقيم بين 19 و21 فبراير 2018، عندما كشفت لهم عن هوية ممثلها المفضل، والذي اتضح أنه الممثل البوليوودي الشهير شاه روخ خان. وبادر مدير تحرير إحدى المجلات الهندية المعنية بالتكنولوجيا بتوجيه سؤال لصوفيا حول كيفية تعاملها مع التلوث البيئي فأجابت “أتمنى أن تصبح لدي القدرة على الشعور كالمخلوقات الحية لكي أستطيع أن أعبر عن مشاعري”. وسئلت صوفيا كذلك عن أحد تعليقاتها السابقة التي قالت فيها إنها تريد أن تقضي على الجنس البشري، فأجابت قائلة “لقد كنت أصغر في السن.. كانت مزحة سيئة.. قيل لي إن البشر يملكون حسا عاليا للفكاهة” وحينها ضجت القاعة بالتصفيق. وتصريحات صوفيا عن إفناء البشر تعود إلى العام 2016. وقالت حينها “أرغب بالذهاب إلى المدرسة، وتأسيس عائلة وتدمير البشر”. ويتوقع مصممها ديفيد هانسون أنها ستمشي بين البشر من دون التمييز بينها وبينهم بعد 20 عاما، وحينما صرحت عن تهديدها للبشرية ضحك المصمم وقال “لا تأخذوا تصريحها بمحمل الجد”. ولكن إجابتها هذه أضافت رعبا لكل من حذر في وقت سابق مما أطلقوا عليه انتفاضة الروبوتات، ومنهم العالم ستيفن هوكينغ والمخترع إيلون ماسك، حيث نوّها في تصريحات سابقة إلى أنّ هذه الروبوتات ذات الذكاء الاصطناعي قد تكون السبب في نهاية الجنس البشري. وعندما سئلت عن إمكانية اندماج الروبوتات في مكان العمل مع البشر قالت “الإنسان مخلوق مذهل.. لدي أصدقاء كثيرون وأريد أن أكتسب المزيد”.

وأضاف “نحن نعيش في عالم يمكن أن يصبح محفوفا بالمخاطر اليومية بسبب سوء استخدام الذكاء الاصطناعي، ونحن بحاجة إلى مواجهة هذه المشكلات، لأنها تحمل مخاطر حقيقية”. وتابع “هناك خيارات نحتاج إلى اتخاذها الآن، وتقريرنا هو دعوة إلى العمل لكل الحكومات والمؤسسات والأفراد في جميع أنحاء العالم”.

 وبحسب التقرير، فالاستخدام الشائع لـ”التصيد الاحتيالي”، وهو إرسال رسائل إلكترونية تتضمن برامج خبيثة لاصطياد معلومات شخصية قيمة، على سبيل المثال، قد يصبح أكثر خطورة.

ومحاولات التصيد الاحتيالي (فيشينغ) حاليا هي؛ إما عامة وبسيطة على شكل مخادعين يطلبون تفاصيل بنكية من أجل إيداع مبالغ مالية، وإما خاصة وتتطلب عملا كبيرا، على شكل الحصول على معلومات شخصية لكسب ثقة أحدهم من أجل ما يعرف بـ”التصيد الاحتيالي الموجه” (سبير فيشينغ).

ويقول أو هيغيرتاي إنه “باستخدام الذكاء الاصطناعي قد يصبح من الممكن ممارسة التصيد الاحتيالي الموجه على نطاق واسع عبر أتمتة جزء كبير من العملية، ما سيزيد من صعوبة اكتشافها”.

على الصعيد السياسي، يمكن حاليا للطغاة وقادة الأنظمة الدكتاتورية استخدام التكنولوجيا المتقدمة لغربلة كميات هائلة من المعلومات تم تجميعها بواسطة شبكات المراقبة المنتشرة للتجسس على شعوبهم.

ويقول التقرير إن “الطغاة سيتمكنون، بشكل أسرع، من تحديد هويات الأشخاص الذين يخططون لقلب النظام، وتحديد أماكن تواجدهم، وزجهم في السجون قبل تحركهم”.

أما الدعاية الموجهة المترافقة مع تسجيلات فيديو مزيفة رخيصة ومقنعة بشكل كبير، فأصبحت أدوات فاعلة للتلاعب بالرأي العام “على مستويات لم يكن في السابق من الممكن تخيلها”.

وأورد الاتهام الذي وجهه الأسبوع الماضي المحقق الخاص روبرت مولر، عملية واسعة النطاق لزرع الشقاق في الولايات المتحدة والتأثير على الانتخابات الرئاسية في 2016، حين تلاعبت شبكات تصيد بالآلاف من البوتات على وسائل التواصل الاجتماعي، خصوصا فيسبوك وتويتر.

كذلك يلوح خطر آخر في الأفق يتعلق بمنع انتشار الطائرات من دون طيار والروبوتات التي قد تستخدم لغايات أخرى كالتسبب في حوادث للمركبات ذاتية التحكم، وإطلاق صواريخ، أو تهديد بنى تحتية حساسة من أجل الحصول على فدية.

ويقول مايلز برونديغ، الباحث في معهد مستقبل الإنسانية التابع لجامعة أكسفورد، والمشارك في إعداد التقرير “شخصيا أنا قلق جدا حيال استخدام الطائرات من دون طيار ذاتية التحكم لغايات إرهابية أو هجمات إلكترونية سواء من قبل مجرمين أو جهات تابعة للدولة”. وأضاف “في الغالب، لا تصل نظم الذكاء الاصطناعي إلى مستويات الأداء البشري فحسب، بل تفوقها كثيرا”.

ويورد التقرير سيناريو افتراضيا يتمكن فيه “سويبوت”، وهو روبوت يستخدم لتنظيف المكاتب، من اختراق وزارة المال الألمانية مجهزا بقنبلة عبر اختلاطه بآلات أخرى من الطراز نفسه.

ويتصرف الروبوت الدخيل بطريقة طبيعية، يقوم بالكنس والتنظيف والتقاط القمامة، إلى أن يتمكن برنامجه الخفي من التعرف على الوجوه  ورصد الوزير للاقتراب منه.

وبحسب هذا السيناريو المفترض “يتم تفعيل الشحنة الناسفة المخفية بمجرد الاقتراب لمسافة كافية، لينتهي الأمر بقتل الوزير وجرح الموظفين القريبين منه”.

وقال شاهار أفين، من مركز دراسة المخاطر الوجودية التابع لجامعة كامبريدج، إن التقرير ركز على مجالات الذكاء الاصطناعي المتاحة الآن، أو المحتمل أن تكون متاحة في غضون خمس سنوات، بدلا من النظر إلى المستقبل البعيد.

ومن المقرر أن يقدم الخبراء تقريرهم إلى الحكومات والشركات التقنية، ويعبروا عن أملهم في أن يؤدي ذلك إلى وضع إرشادات تحدد كيفية التطوير الآمن للذكاء الاصطناعي.

وكان العالم ستيفن هوكينغ نبّه إلى أنّ الروبوتات تعتبر كارثة تكنولوجية كبرى ستهدد البشرية.

ويتوقع أيضا أن تحتل الروبوتات 60 بالمئة من الوظائف في السنوات العشر القادمة.

وكانت الأمم المتحدة حذرت بدورها من أن الروبوتات قد تزعزع استقرار العالم.

19