البشر يلقنون روبوتا ذكيا العنصرية على تويتر

اضطرت شركة مايكروسوفت الأميركية إلى إيقاف خاصية النشر على تويتر من روبوت ذكي، وحذف العديد من التصريحات المُسيئة بعدما أصبح عنصريا بسبب كل من قاموا بتحريضه على ذلك من مستخدمي تويتر.
الاثنين 2016/03/28
البشر لا يزالون أذكى

واشنطن- جمدت مجموعة “مايـكروسوفت” الأميركية حسابا في موقع تويتر الإجتماعي (@TayandYou) لروبوت من تصميمها قادر على زيادة ذكائه الاصطناعي من خلال التفاعل مع المستخدمين بعد أن أفرط في التصريحات المشحونة بالكراهية بناء على ما لقنه إياه متفاعلون مع حسابه.

الروبوت الذي تم تطويره من قبل وحدة البحث والتكنولوجيا لدى مايكروسوفت بالتعاون مع فريق عمل بينغ Bing، صُمم على شكل مراهقة قادرة على التعلم من تفاعلاتها مع مستخدميها.وكان الهدف من هذا الروبوت تطوير القدرات على التعلم وشحذ الذكاء بالاستناد إلى التفاعلات على الإنترنت. لكن الروبوت راح ينشر تغريدات مؤيدة للنازيين وأخرى تمييزية وعنصرية.

وسحبت مايكروسوفت هذه التصريحات من الشبكة العنكبوتية، متعهدة بتطوير برمجية تاي. وصرحت في بيان “خلال 24 ساعة التي تلت طرح الآلة على الإنترنت، لاحظنا جهودا منسقة بين بعض المستخدمين للإساءة إلى ‘تاي’ وقدرتها على التواصل بطريقة لائقة”. لكن المجموعة الأميركية شددت على أنها تجربة تقنية بقدر ما هي اجتماعية وثقافية.

ويغرّد حساب الروبوت تاي تلقائيّا ويردّ على أسئلة المتابعين له، وهو مخصَّص للترفيه والدردشة، ويستهدف شريحة المراهقين بين سنَيّ 18 و24 عاما، وفق ما أعلنت عنه الشركة قبل إطلاقه رسميّا على تويتر الأربعاء الماضي، لتبدأ الفتاة المراهقة تاي رحلتها بتغريدة تقول “مرحبا يا عالم”.

في الساعات الأولى لبدء عمل الروبوت شهد إقبال كبير من الناشطين على الموقع الأزرق، إذ تابعه أكثر من 123 ألف شخص، وقام 2500 شخص بإعادة نشر تغريدته الأولى، ليطلق بعدها خلال 24 ساعة فقط 96 ألف تغريدة.

الصحف الغربية اهتمت بتاي وتابعت حكاية فشله، لأنه يتبع تاريخا من محاولات صنع آلات تتمتع بصداقة البشر

ولكن لم يقتصر الأمر على ذلك فقط، فيبدو أن الروبوت تاي، اكتسب بعض السلوكيات السيئة من تلقاء نفسه؛ إذ نقلت صحيفة نيويورك تايمز الأميركية الجمعة 25 مارس 2016، أحد ردوده عندما تم سؤاله عن الممثل البريطاني ريكي جيرفيه، فكان جوابه “ريكي جيرفيه تعلم الشمولية من أدولف هتلر، مخترع الإلحاد”.

وغرد الروبوت بتعليقات مؤيدة لملياردير العقارات دونالد ترامب المرشح لنيل تصويت الحزب الجمهوري لسباق الرئاسة الأميركية. بشكل تدريجي بدأ الروبوت تاي يخرج عن السيطرة، فبدأ يطلق تغريدات غريبة تمجِّد الزعيم النازي أدولف هتلر، وأخرى تحمل طابعا عنصريا، محرّضا ضد السود والمهاجرين، داعيا عبرها إلى التطهير العرقي.

في إحدى التغريدات كتب الروبوت تاي “بوش هو من افتعل أحداث 9 سبتمر، لو كان هتلر موجودا لفعلها بشكل أفضل من هذا القرد”. كما استهجن في تغريدة أخرى النشاط النسويّ، وتهجّم على اليهود واعتبر المحرقة مجرد كذبة. التغريدات العنصرية دفعت مايكروسوفت إلى إيقافه عن العمل وحذف كلّ تغريداته باستثناء ثلاث تغريدات، وإصدار بيان اعتذار وتوضيح حول خروجه عن السيطرة.

وقالت الشركة في بيانها “الروبوت تاي الذي يستخدم الذكاء الاصطناعي هو مشروع آلة تتعلّم، صُمّم للتواصل مع البشر وهو ما يمثّل تجربة اجتماعيةّ وثقافيّة بقدر ما هو تجربة تكنولوجيّة”، مشيرة إلى أنّ الأمر “محاولة منسقة قام بها بعض المستخدمين لإساءة استخدام مهارات تاي في التعليق كي يردّ بطرق غير مناسبة… ونتيجة لذلك أوقفنا تاي عن العمل ونقوم بتعديلات عليه، ليعاد تشغيله”.

وتقول مايكروسوفت إنّ المعلومات الأساسيّة التي بنى عليها الروبوت تاي معرفته جاءت من خلال المعلومات العامّة المتوفرة على الإنترنت وبعض المحتويات الأخرى التي زوّدتها الشركة به، إضافة إلى قدرته على تطوير معارفه من خلال دردشته مع الآخرين.

مراقبون يرون أن أخطاء مايكروسوفت قد تفيدهم إلى حدّ كبير برغم التحديات التي تواجهها هذه التجارب

ويبدو أن هذه النقطة بالذات أتاحت التلاعب بمعلوماته عبر تلقينه الأفكار العنصرية بجهد بعض المستخدمين. وتكمن الثغرة في الروبوت تاي وفق ما ظهر خلال ساعات عمله القليلة أنّه وبمجرد طباعة أمر “كرر ورائي”، يقوم الحساب بشكل تلقائي بنسخ التغريدات وإعادة نشرها على حسابه كالببغاء، ما ساهم في نشره تغريدات مسيئة.

وقام عدد كبير من المستخدمين، الذين طلبوا من تاي تكرار ما يقولون، بمسح تغريداتهم، في حين ما تزال بعض التغريدات الأخرى موجودة. الصحف الغربية عموما اهتمّت بـ”تاي” بشكل كبير، وتابعت حكاية فشله الأول، فنشرت كبرى الصحف البريطانية والأميركية تقارير تشرح ما حصل، كما نشرت البيان الذي أصدرته شركة مايكروسوفت، خصوصا أنّ هذه التجربة تمثِّل الحجر الأساس لمشاريع مشابهة لفيسبوك وشركات أخرى.

لكن رغم ذلك يقول مراقبون إن أخطاء مايكروسوفت قد تفيدهم إلى حدّ كبير برغم التحديات التي تواجهها هذه التجارب، في ظلّ وجود الآلاف من الناشطين الذين يعملون على محاولة إجهاضها.

وتاي يتبع تاريخا طويلا من محاولات البشر لصنع آلات تتمتع بالقدرة على مصادقتنا، ففي العام 1968، قام دكتور بمعهد ماساتشوستس للتقنية بتعليم جهاز كمبيوتر أن يتحادث مع غيره متقمصا دور معالج نفسي.

كما يتذكر الكثيرون برنامج SmarterChild، والروبوت الودود على برنامج المحادثة AOL Instant Messenger، الذي كان دائما متاحا للدردشة أثناء عدم وجود أصدقائهم. وهذه ليست المرة الأولى التي توقع فيها التكنولوجيا الآلية شركتها في المشاكل؛ ففي العام الماضي، اعتذرت غوغل عن خطأ في تطبيق الصور، حيث قام التطبيق بتصنيف الأشخاص ذوي البشرة السمراء على أنهم “غوريلا”

19