الخيال العلمي شوه نظرة البشر إلى الذكاء الاصطناعي

تشتهر العديد من أفلام الخيال العلمي بالحديث عن الذكاء الاصطناعي، والآلات الذكية التي تساهم في راحة البشر من ناحية، أو تتسبب في هلاكهم من ناحية أخرى. وساهمت هذه الأفلام في تشكيل آراء ووجهات النظر المختلفة في هذا الأمر.
السبت 2016/05/28
الروبوتات تكتسب تصرفات الإنسان «غير الأخلاقية»

لندن - في العام الماضي، طالبت رسالة مفتوحة من بين الموقعين عليها عالم الفيزياء النظري، ستيفن هوكينغ، والفيلسوف السويدي، نيك بوستروم، بأن يتحول الذكاء الاصطناعي إلى ذكاء ذي فائدة واضحة للبشرية، وألا ينطوي على مخاطرة تفوق قدرة البشر على السيطرة.

إذ بالرغم من كافة المميزات التي تقدمها تقنيات الذكاء الاصطناعي إلى البشر، فإن الأمر مرعب، على الأخص عند الحديث عن استخدام التقنية في تصنيع آلات قادرة على الحرب والقتال. التخوف الذي يخشاه الكثيرون هو إمكانية تطور ذكاء تلك الآلات، بالإضافة إلى الإدراك والوعي، حتى تصبح لدينا شبكة سكاي نت التي تحاول القضاء على البشر بشكل تام.

إن الذكاء الاصطناعي، كما تصوره الثقافة الشعبية، غير موجود حتى الآن، حتى وإن كانت الأنظمة الذاتية والخبراء يقرون بوجوده. فلا يمكن للهواتف الذكية أن تكون أجهزة كمبيوتر كبيرة، ولكن تسمى” الهواتف الذكية” لسبب وجيه، وهو كيفية عمل أنظمة التشغيل الخاصة بها. نحن سعداء بالحديث عن “الذكاء الاصطناعي” الخاص بألعاب الكمبيوتر، ولكن اللاعبين يتعلمون بشكل سريع كيفية الاستفادة من قصور الذكاء الاصطناعي ومن عدم قدرته على “التفكير” الخلاق.

هناك فارق هام بين هذه النظم وما يسمى الذكاء الاصطناعي العام أو “الذكاء الاصطناعى القوي”، وهو ربوت يمتلك ذكاء عاما وقدرات إنسانية، وبالمزيد من الدقة، هو على عكس الكمبيوترات أو الآلات التي تقوم بمهمة محددة مثل السيارات دون سائق، سوف تكون له القدرة على تحمل مسؤولية كافة أنظمة النقل، الاقتصاديات الوطنية، الأسواق المالية، نظم الرعاية الصحية وتوزيع المنتجات.

ركزت الحكومتان الأميركية والبريطانية في استكشافهما لأهمية وآثار الأبحاث التي تم إجراؤها حول الذكاء الاصطناعي على الآثار الاقتصادية والاجتماعية المحتملة.

لكن يحتاج السياسيون إلى تقديم أفضل ما عندهم والأخذ بعين الاعتبار ما يمكن أن يقوله الخيال العلمي في المواقف العامة، فذلك يمثل واحدة من أكبر القضايا التي تهم الذكاء الاصطناعي. ثقافيا، تأثر فهمنا للذكاء الاصطناعي بالخيال العلمي، هناك افتراض أن الذكاء الاصطناعي يعني دائما الذكاء الاصطناعي العام. العروض الخيالية عن الذكاء الاصطناعي تكشف مواقفنا من التكنولوجيا أكثر مما تفعل حول واقعها. وبالتالي قد يكون الخيال العلمي مصدرا بالغ الأهمية يمكن أن يقيّم من خلاله الرأي العام الذكاء الاصطناعي، وبالتالي تصحيح المفاهيم كلما اقتضت الحاجة.

إذا دربنا الروبوتات كي يكون لها سلوك أخلاقي، ففي من نثق لتدريبها؟ ومن يضع المعايير الأخلاقية؟

أنا، الروبوت: الصالح العام

في تعديل أليكس بروياس لقصص إسحاق عظيموف “أنا، روبوت” I, Robot (عام 2004)، هناك مشهد يمكن أن ندرك من خلاله سبب عدم ثقة أحد رجال الشرطة في الروبوتات، حيث يعيد رواية حادث مروري أدى في النهاية إلى سقوط سيارتين في النهر، وكيف أن الروبوت حدد الطريقة الأفضل لإنقاذ الشرطي بدلا من إنقاذ الطفلة بما أن فرصة إنقاذ الشرطي كانت أكبر من فرصة إنقاذ الطفلة.

يظهر المشهد عدم إنسانية الذكاء الاصطناعي (الروبوت) في مقابل إنسانية الشرطي، الذي اختار إنقاذ الطفلة. هذا المشهد يدل على أن القضايا الأخلاقية الأساسية بما فيها البحوث حول الذكاء الاصطناعي، تشوه الذكاء الاصطناعي وتقدمه على أنه “غير أخلاقي” وإنما مجرد نمط من السلوكيات المشفرة.

ولكن، هل كان الروبوت في هذه الحالة مخطئا؟ أليس من الأفضل إنقاذ حياة إنسان واحد بدلا من فقدان اثنين؟ هنا، لا ينظر إلى فرز الكوارث على أنه أمر “غير إنساني” بل على أنه أمر ضروري.

الحجج “الجيّدة للغاية” مستمرة منذ عدة قرون، وفي هذه الحالة، إنقاذ رجل الشرطة أو الطفلة، غير قابل للنقاش، خاصة وأن الشرطي أنقذ الإنسانية في وقت لاحق من ويلات الكمبيوتر الرئيسي “فيكي”، الذي أظهر أن الذكاء الاصطناعي مارق.

في السياق الذي تم فيه اتخاذ هذا القرار، والمعايير التي وصل من خلالها الروبوت إلى نهايته، يمكن تحليل العوامل التي تسببت في المخاوف، وإن كانت محدودة، من البرامج المضمنة فيها. هل يمكن أن يكون رد الفعل العاطفي أمرا صحيحا؟

من بين المشاكل التي نواجهها كمجتمع في التعامل مع مستقبل الذكاء الاصطناعي هو أن جهاز الذكاء قد يظهر في الواقع أعراض قواعدنا الأخلاقية، ونحن عندما نريد أن نصدقه سوف تكون قابلة للتطبيق عالميا. غير أن المشكلة ليست أن الروبوت كان على خطأ، ولكن قد يكون في واقع الأمر على صواب.

الذكاء الاصطناعي.. مجرد سلوكيات مشفرة

التفاعل مع الذكاء الاصطناعي

تؤدي الطرق التي تم من خلالها تقديم الذكاء الاصطناعي إلى النتيجة التالية: أي ذكاء اصطناعي (روبوت) يعتبر غير إنساني، وبالتالي هو خطير.

على غرار فيكي في “أنا، روبوت” الذي تحوّل إلى عدو للإنسانية، هناك عدد كبير من القصص والأفلام التي تناولت سيطرة الذكاء الاصطناعي على العالم. وهناك الكثير من الروايات حول مدى مكر الروبوتات وسعيها للسيطرة المباشرة على الإنسانية، أو تمكين أتباعها من السيطرة بشكل كامل على غرار ( “كيل ديزجن” لدانيال سواريز، وقصص “بولتي” لنيل آشر، والسلسلة التلفزيونية “برسن أوف أنترست”).

ولكن يمكن للروبوتات أن تتعاون مع الإنسانية. وبالتالي، هناك حل واحد، وهو النظر في كيفية الحد من الأوامر الإدارية وتعليم الروبوتات الأخلاق الإنسانية.

ولكن إذا دربنا الروبوتات كي يكون لها سلوك أخلاقي، ففي من نثق لتدريبها؟ ومن يضع المعايير الأخلاقية؟

بالنظر إلى القضية الأخيرة لمايكروسوفت مع “تاي” من الواضح أن الذكاء الاصطناعي يتعلم من الإنسان. وتاي، شخصية افتراضية لفتاة يمكنها الدردشة مع المستخدمين والإجابة على أسئلتهم عبر حساب خاص بها على تويتر. لكن تاي تحولت إلى أداة لنشر العنصرية والكراهية، حيث بدأ حسابها بنشر رسائل تمجد النازية وتدعو إلى التطهير العرقي.

كان سبب ذلك ما وصفته الشركة بـ”الهجمات المنسقة” لأشخاص تمكنوا من استغلال ثغرة في نظام تاي مكنتهم من بث الأفكار العنصرية التي كررها الروبوت الذي يطور معارفه من خلال تفاعله مع الآخرين.

نحن لا نثق في أن الروبوتات يمكنها التفكير بنفسها، كما لا نثق في قدرتنا على برمجتها أو استخدامها من الناحية الأخلاقية، ولا يمكننا أن نثق في قدرتنا على تعليمها. ماذا يمكن أن يفعل الذكاء الاصطناعي؟

سوف تخضع المفاهيم العامة حول الذكاء الاصطناعي لهذا النوع من الشك والريبة، التي ترعاها والنظرة السلبية الواضحة في الكثير من أفلام الخيال العلمي، ولكن ما تكشفه هذه الأمثلة هو أن مشكلة الذكاء الاصطناعي لا تنحصر في كونه شيئا “اصطناعيا”، ولا أنه غير أخلاقي، ولا حتى في تأثيره الاقتصادي أو الاجتماعي، ربما المشكلة فينا نحن.

18