السيطرة على الأخبار الكاذبة مستحيلة مع انتشار تقنية النص الآلي

الأخبار المزيفة تعتبر مشاكل سياسية ثقافية وليست تقنية حيث أن التهديد الأكبر يكمن في الأخبار التي يؤلفها متطرفون سياسيون.
الجمعة 2019/07/05
السياسيون هم الهدف الرئيسي لناشري الأخبار المزيفة

تثير خاصية الذكاء الاصطناعي المتمثلة في كتابة نصوص بأسلوب يستند إلى جملة واحدة كما هو الحال مع محرك البحث غوغل المخاوف بشأن تسهيلها نشر المعلومات الكاذبة على الإنترنت، وصعوبة السيطرة عليها مع حجم انتشارها الهائل.

لندن - نشر خبر على موقع “ريديت”، مؤخرا أن هناك طريقة جديدة “لطهي بياض البيض دون مقلاة”، ليبدأ المستخدمون التفاعل مع الخبر وتبادل الآراء والنقاشات، ولكن الطريف وراء هذه المحادثة، أن أطرافها لم يكونوا مستخدمين عاديين بل روبوتات تعتمد خاصيات الذكاء الاصطناعي للرد على الخبر المذكور.

وكما يحدث عادة على هذا الموقع الذي يقدم نفسه على أنه “الصفحة الأولى للإنترنت”، ألهم هذا الخبر مجموعة كبيرة من الردود رغم أنه لم يكن مهما. وردّ أحد المستخدمين الذي عبر عن دهشته مما قرأ قائلا “لم أسمع عن قلي البيض دون مقلاة”. وأضاف آخر “سأحاول ذلك”. وعرض أحد المعلقين المتحمسين البحث عن تاريخ قلي بياض البيض دون مقلاة، وفق ما جاء في تقرير أوسكار شوارتز الباحث في تقنيات الذكاء الاصطناعي الذي نشرته صحيفة الغارديان البريطانية.

أنشأ أحد المستخدمين هذا البرنامج بواسطة برنامج يحمل اسم “جي.بي.تي 2”، هو مولد للنصوص. وصممت شركة “أوبن.أيه.آي” البحثية الأميركية، التي تهدف إلى تطوير أنظمة الذكاء الاصطناعي، هذا البرنامج القادر على كتابة النصوص مثل البشر.

ولم يحاول جاك كلارك مدير الاتصالات والسياسات في “أوبن.إيه.آي”، إخفاء مخاوفه من إمكانية استخدام البرنامج لنشر معلومات مضللة عبر الشبكة العالمية.

وقال كلارك في شهادة عن تهديد المواد المفبركة الناتجة عن برامج الذكاء الاصطناعي، خلال جلسة استماع أمام لجنة المخابرات بمجلس الشيوخ الأميركي، إنه يتوقع أن يستخدم البرنامج لتحرير أخبار كاذبة، أو لانتحال هوية أشخاص نشروا كميات هائلة من النصوص، كما يمكن أن تستغل الخاصيات المبتكرة لخدمة دعايات معينة.

ويعدّ البرنامج مثالا على تقنية تسمى “نمذجة اللغة”، والتي تتضمن تدريب الخوارزمية الموظفة للتنبؤ بالكلمة التالية الأكثر احتمالا عند كتابة جملة معينة. في حين لا تنجح نماذج البرنامج السابقة في إنشاء نص طويل متماسك، درّب “جي.بي.تي 2” على 8 ملايين مقال منشور على الإنترنت، وطورت طريقة عمله مما يجعله هذا النموذج الأقوى حتى الآن.

التهديد الأكبر يكمن في الأخبار المزيفة التي يؤلفها متطرفون سياسيون يميلون إلى نشر مواضيع تثير كراهية عميقة مثل تزوير الانتخابات أو الهجرة

يعمل البرنامج أساسا على التقنيات التي يعتمدها محرك البحث غوغل للتكهن بما يريد أن يكتبه المستخدم، وخاصية الهواتف الذكية التي تقترح على مستخدميها كلمات معيّنة عادة ما يستخدمونها في رسائلهم.

ويمتد البرنامج من مجرد تقديم كلمة واحدة كاقتراح، حيث يستطيع تأليف فقرات كاملة استنادا على جملة واحدة كمثال. فإذا قدّمت سطرا من أحد نصوص شكسبير، سيولد البرنامج استجابة تتبع أسلوب الكاتب الإنكليزي. أمّا إذا قدّمت له عنوانا إخباريا فسيكتب نصا يتبع أساليب المقالات تقريبا.

ويرى أليك رادفورد الباحث في “أوبن.إيه.آي”، أن نجاح البرنامج هو خطوة كبيرة في اتجاه تحقيق تواصل أكثر طلاقة بين البشر والآلات. ويقول إن النظام المطوّر يهدف إلى تمكين أجهزة الكمبيوتر من إتقان اللغة الطبيعية، مما قد يحسن خاصيات مثل التعرّف على ما يقوله المستخدم، والتي تعتمد عليها سيري وأليكسا لفهم الأوامر الموجهة إليهما، والترجمة الآلية التي يعتمد عليها غوغل.

وأصبح البرنامج متوفرا لدى فئة أوسع من الجماهير مع انتشاره عبر الإنترنت. وتمكّن الخاصية من توليد أنواع متعددة من النصوص من الأخبار والقصص القصيرة والقصائد إلى كتابة آراء عن المطاعم.

ويواجه فريق الباحثين في “أوبن.إيه.آي” التهديد الذي خلقه برنامجهم القادر على غمر شبكة الإنترنت بنصوص مزيفة، مما يصعب على القارئين التفريق بين الأخبار الصحيحة والكاذبة.

ويأخذ كلارك والفريق في “أوبن.إيه.آي”، هذا التهديد على محمل الجد. فعندما أعلنت الشركة البحثية صدور “جي.بي.تي 2” في فبراير الماضي، أصدرت مدونة تفيد بأنها لم تطلق نسخة البرنامج الكاملة بسبب الضرر التي قد تحدثه. (منذ ذلك الحين، أصدرت “أوبن.إيه.آي” نسخة أكبر من النموذج، والتي تستخدم في ريديت، وتأليف القصائد، وما إلى ذلك).

ويعرّف كلارك أن “جي.بي.تي 2” قادر على أن يشكل تهديدا مماثلا لبرنامج “الديب فايك” الذي يفبرك صورا ومقاطع فيديو من شأنها تشويه سمعة الأشخاص والأحداث. وقال إن البرنامجين متشابهان، وأضاف “تتمتع بتقنية تسهل التزوير بتكلفة غير باهظة، ويعني هذا صعوبة تأكيد صحة المعلومات في المستقبل”.

ومع ذلك، يشعر البعض أن تهديد النص المزيف مبالغ فيه. وفقا ليوشاي بينكلير المدير المشارك لمركز بيركمان كلاين للإنترنت والمجتمع التابع لجامعة هارفارد، يكمن التهديد الأكبر في الأخبار المزيفة التي يؤلفها متطرفون سياسيون يميلون إلى نشر مواضيع مثيرة للجدل “تثير كراهية عميقة”، مثل تزوير الانتخابات أو الهجرة.

الأخبار المزيفة مشاكل سياسية ثقافية وليست تقنية
الأخبار المزيفة مشاكل سياسية ثقافية وليست تقنية

يمكن أن ينتج “جي.بي.تي 2” مقالات شبه متماسكة، إلا أنه لا يستطيع التلاعب بمشاعر القراء. وقال بينكلير إن القدرة البسيطة على توليد نص زائف لن تؤثر على معظم أشكال التضليل.

ويرى خبراء آخرون أن “أوبن.إيه.آي” بالغت في تصريحاتها من أجل خلق ضجيج حول أبحاثهم. وأشار زاك ليبتون، الأستاذ المختص في الجانب التجاري من التكنولوجيا في جامعة كارنيغي ميلون، إلى أن تقييم مخاطر هذه التكنولوجيا كان مخادعا في حد ذاته. وقال إنه يعتبر تهديد النص المزيف في أسفل قائمة التهديدات المحتملة عن استخدامات الذكاء الاصطناعي.

وتابع أن الشركة استغلت الخوف من الذكاء الاصطناعي واستخداماته لجلب الاهتمام لمنتجها.

ويأخذ البعض مخاوف الشركة على محمل الجد، حيث طوّر فريق من الباحثين من معهد ألين للذكاء الاصطناعي مؤخرا أداة لاكتشاف الأخبار المزيفة. وقال ياجين شوي،أستاذ علوم الكمبيوتر بجامعة واشنطن الذي عمل في المشروع، إن اكتشاف طبيعة النص “سهل إلى حد ما” نظرا إلى أن النص المزيف يحمل بصمة تمكن من التعرف على مصدره بسهولة.

وعلى الرغم من أن “التحاليل الجنائية الرقمية” مفيدة، تشعر الباحثة في معهد البيانات والمجتمع في نيويورك، بريت باريس، بقلق من تصوير الأخبار المزيفة كمشكلة تكنولوجية في وقت تصدر فيه معظم المعلومات الخاطئة وتنشر على الإنترنت دون مساعدة التقنيات المتطورة.

وقالت “نمتلك بالفعل الكثير من الطرق لتوليد معلومات كاذبة ويوزع المستخدمون هذه الأخبار دون مساعدة الذكاء الاصطناعي”.

ويوافق بينكلر على ذلك، مضيفا أن الأخبار المزيفة “هي مشاكل سياسية ثقافية وليست مشاكل تقنية”. ويقول إن معالجة المشكلة لا تتطلب تقنيات اكتشاف أفضل، ولكن الظروف الاجتماعية هي التي جعلت الأخبار المزيفة حقيقة واقعة.

ويجمع العديد من الأطراف على أهمية النظر في الآثار الاجتماعية للتكنولوجيا قبل إصدارها. في الوقت نفسه، يصعب التنبؤ بكيفية استخدام التقنيات. فمن كان يظن أن خوارزمية توصيات مشاهدة مقاطع الفيديو عبر الإنترنت ستتحول إلى أداة قوية تخدم نشر التطرف؟

ويقول معد التقرير أوسكار شوارتز نظرا إلى صعوبة التنبؤ بالضرر المحتمل للتكنولوجيا، قررت أن أستشير البرنامج نفسه لتحديد قدرته على نشر المعلومات الخاطئة. سألته “هل تعتقد أنك ستستخدم لنشر الأخبار المزيفة وتعريض نظامنا معلوماتنا المتدهور لتهديدات جديدة؟”.

أجاب البرنامج “إن عدم قدرتنا على العثور على اسم من ينشر المقال يعدّ دليلا. ومع ذلك، سيواصل هذا الشخص استخدام مواقع التواصل الاجتماعي لنشر الأخبار المزيفة بهدف واضح”.

18