روبوت المستقبل يتحلى بأخلاق البشر

أصبح الروبوت يعيش بيننا، يحرس البيت ويقوم بالشؤون المنزلية ويهتم بالأطفال، وتوسعت مهماته إلى التطبيب والتمريض، بل صار مختصا اجتماعيا، كل هذه الأعمال يقدمها بالشكل الذي برمج من أجله لكنه لا يقوم بها مع مراعاة الفوارق الاجتماعية والثقافية والخصوصيات، لذلك يعمل الباحثون على “كود” أخلاقي يجعل الروبوت كائنا اجتماعيا مقبولا أينما حلّ.
الأحد 2018/01/28
إذا فهم الروبوت مشاعر البشر.. فهل يفهم أخلاق المجتمع؟

نيوجيرسي( الولايات المتحدة) - يتصاعد استخدام الروبوت على نطاق واسع في مختلف مجالات الحياة، فأصبح يشارك في التطبيب ويساعد الأطفال المرضى بالتوحد، كما يقوم بالشؤون المنزلية (غسيل وطبخ وكيّ) داخل الأسرة التي تتكون من مختلف الأعمار والأهواء والأمزجة، لكن كيف يعرف الروبوت أن ليس عليه أن يضع الحيوانات الأليفة في الفرن لتحضير العشاء للأطفال الجياع؟ ثم إذا كانت محاولة اقتراب الروبوت من الصغار مقبولة في مجتمع، ألا تثير الريبة في مجتمعات أو في أسر أخرى؟

الروبوت أصبح يشارك في الحروب مما يعني أنه يتوجب عليه التمييز بين العسكريين والمدنيين حتى لا يكون الأبرياء ضحية سلاحه، هذا بالإضافة إلى معرفة الكثير من التصرفات التي ربما يؤديها الروبوت بحسن نية لكن يساء فهمها وتفسيرها في بعض المجتمعات.

أمام مثل هذه الحالات المعقدة تحتاج البشرية إلى تزويد الروبوت بالقدرة على التقييم والاستجابة لـجوانب أخلاقية هامة لأفعالهم لم يتوقعها المبرمج، واتخاذ القرار الأخلاقي المناسب وبشكل مستقل.

طرح فيلم “اي روبوت”، من إخراج أليكس بروياس، مسألة اتخاذ الروبوت لقرارات أخلاقية تكون مناسبة لما يقوم به الإنسان، حيث يتوجب عليه أن يقرر من ينقذ بعد غرق سيارتين في المياه، مالكه ديل سبونر أم طفلة؟ وحتى بعد أن صرخ سبونر في الروبوت “أنقذها.. أنقذها”، فإن الروبوت أنقذه هو لأنه حسب أن أمام سبونر فرصة 45 بالمئة للنجاة مقارنة بـ11 بالمئة للطفلة.

تقول دانا بويد، وهي باحثة رئيسية في وحدة الأبحاث التابعة لشركة مايكروسوفت، “هناك رغبة متزايدة من قبل الجهات المُنظمة والمجتمع المدني والمُنظرين الاجتماعيين لرؤية الروبوت وقد بات يتسم بالعدالة وبالطابعين القيمي والأخلاقي”.

ويعمل باحثون بريطانيون بالتعاون مع متخصصين يابانيين على تطوير أول روبوت يعمل كأخصائي اجتماعي، ومن المقرر أن يبرمج الروبوت الجديد والذي سيكون جاهزا في السنة القادمة على حسن الأخلاق واحترام ثقافة وتقاليد الشعوب الأخرى.

ويقترح خبراء التكنولوجيا تحويل القيم الإنسانية إلى رموز برمجية لتزويد الروبوت بمجموعة من القيم التي تواكب المجتمع الذي سيعمل فيه؛ فبحسب أستاذ علوم الكومبيوتر في جامعة كاليفورنيا في بيركلي ستيوارت راسل ستكون الفلسفة الأخلاقيةُ القطاعَ الأساسي في الصناعة، فمع تولي الروبوت لمهام أكثر تعقيدا أصبح من الضروري أن نترجم أخلاقنا إلى لغة الذكاء الاصطناعي.

من الممكن تصنيع روبوت يمتلك أخلاقيات متطورة، ولكن يجب تحديد القيم الإنسانية كقواعد واضحة

وبدأت لجنة خبراء يطلق عليها “الحوسبة الوجدانية” تابعة للمبادرة العالمية “آي تربل إي”، بوضع تصور مستقبلي لكيفية تجاوز الاختلافات الثقافية بين الروبوت الذي ترتبط حركاته وإشاراته وإيماءاته بثقافة المجتمع الذي برمج من أجله وبين المجتمعات الأخرى.

فخوض الروبوت حوارا وديا قصيرا مع أفراد الأسرة ربما يكون مرغوبا في مجتمع أو طبقة اجتماعية، كما قد لا يناسب مجتمعا آخر أو أسرة أخرى.

وجاء في بيان التعريف بمهمة مبادرة “آي تربل إي” العالمية المعنية بأخلاقيات الأنظمة المستقلة والذكية، “هدفنا أن يوفر مشروع ‘التصميم المنحاز أخلاقيا’ في الأعوام المقبلة رؤى ووصايا جديرة بأن تكون مرجعا أساسيا للتقنيّين العاملين في المجالات المتعلقة بالعلوم والتقنية”.

وبعد جمع وجهات النظر الفنية والاجتماعية، بدأ السعي إلى تمثيل مختلف الثقافات، فبعض حركات الروبوت يُحتمل أن تختلف دلالتها باختلاف المكان والثقافة، ولذلك تعتمد المبادرة على مصادر عديدة لتؤكد أهمية الأخذ في الحسبان اختلاف الثقافات أثناء تطوير تقنية موجَّهة لجمهور عالمي.

يقول راجا شاتيلا، رئيس اللجنة التنفيذية لمبادرة “آي تربل إي”، أصدرنا مسودة لدليل أطلق عليه “التصميم المنحاز أخلاقيا”، ليضع قواعد إرشادية عامة تساعد على التوظيف الأمثل لأنظمة الذكاء الاصطناعي في حياتنا، مؤكدا أن الدليل ليس “دستورا رسميا” للروبوت، لكنه مساعدة قيّمة لمعرفة كيفية مواجهة تحديات ترسيخ القيم في الأنظمة الذكية المستقبلية، إضافة إلى مواجهة آثارها الاقتصادية والإنسانية.

وإلى جانب “الحوسبة الوجدانية” تم تشكيل لجان أخرى مثل “الحوسبة والسياسة” و”الأخلاقيات الكلاسيكية في الأنظمة الذكية” و”الواقع المختلط في تقنية المعلومات والاتصالات”، وتضم مئات الخبراء الفنيين والاجتماعيين من 6 قارات تختلف تخصصاتهم ما بين الصناعة والسياسة والعمل الحكومي والأكاديمي والمجتمع المدني، وتهدف إلى صياغة “دستور أخلاقي” يحدد دور الذكاء الاصطناعي المتزايد في حياتنا، ويرسم إطارا لضمان تطوير هذه التقنيات على نحو أخلاقي مناسب.

ومع تزايد وظائف ومهمات الروبوت سيتعرض هذا الأخير إلى مواقف معقدة أكثر من تلك التي حددها كاتب الخيال العلمي إسحق عظيموف “قوانين الروبوتات الثلاثة” قبل حوالي سبعين عاما، والتي تلزم الروبوتات بحماية البشر، وإطاعة الأوامر، والإبقاء على أنفسهم ضمن هذا النظام.

وستتطلب المواقف المعقدة التي قد تعترض الروبوت في المستقبل القريب “كودًا” أخلاقيا أكثر تعقيدا من قوانين عظيموف لكي يتمكن من الاستجابة الفورية لجوانب أخلاقية هامة لأفعاله تجعله يمتلك القدرة على التفاعل مع البشر كشركاء دون أذية. يتساءل الخبراء عن بعض العواقب الأخلاقية التي يمكن أن تدين الروبوت اجتماعيا، ماذا لو طلب من الروبوت أن يذهب إلى الصيدلية لشراء دواء بأسرع ما يمكن؟ دون ترتيب القيم الأخلاقية قد يتعلم الروبوت السرقة وهي الطريقة الأسرع التي تجعله ينفذ مهمته بكل نجاح، ومع تنظيم هذه القيم قد يلتزم الروبوت بالقيم البشرية، وسيتصرف بلباقة مع الصيدلي، ويقف في الطابور بكل صبر ويدفع ثمن الوصفة الطبية. وحلل كل من ويندل والش من جامعة وييل وكولين آلين من جامعة إنديانا التدرجات المختلفة لحساسية الروبوتات الأخلاقية، وميزا بين الأخلاقيات العملية والأخلاقيات الوظيفية.

فالأخلاقيات العملية هي التي تحيل إلى مواقف واستجابات ممكنة توقعها تماما وعالجها مصمم نظام الروبوت، ويمكن أن يشمل ذلك توصيف مقاتل العدو من خلال العمر أو المظهر العام.

أما الأخلاقيات الوظيفية فتشمل استجابة الروبوت لسيناريوهات لم يتوقعها المبرمج، حيث سيحتاج الروبوت إلى بعض القدرات لاتخاذ القرار الأخلاقي بشكل مستقل.

يقول الخبراء إنه من الممكن تصنيع روبوت يمتلك أخلاقيات أكثر تطورا، ولكن هذا لن يحصل قبل أن نجد وسيلة لتحديد القيم الإنسانية كقواعد واضحة.

في هذه الحالة سيتطلب تزويد الروبوت بالقدرة على التقييم والاستجابة “جوانبَ أخلاقية هامة لأفعاله”. هذا هو التحدي الأكبر، ليبقى السؤال القائم هو ممن يرث الروبوت أخلاقياته؟

17