هل تتفوق فئران المختبرات على الذكاء الاصطناعي

"التزييف العميق" تصعيد كبير في جهود التضليل عبر العالم، ومخاوف من التلاعب بالأصوات والصور في مقاطع مفبركة.
الأربعاء 2019/08/14
هل قال هذا حقا

في عصر الإنترنت والانفتاح على العالم، أصبحت “الأخبار المزيفة” هي أبرز تهديدات الذكاء الاصطناعي، لكن الباحثين توصلوا أخيرا إلى سلاح مدهش لمحاربتها، وهو الفئران.

لندن - أصبح من السهل في السنوات الأخيرة، فبركة خطاب لسياسي أو فيديو لأحد المشاهير، بمزج صور وأصوات بطريقة محترفة، لتبدو حقيقية تماما، ومن الصعب تمييزها، ما جعل خبراء التكنولوجيا يطلقون عليها “Deep Fakes” التي تعرف عادة باسم “التزييف المُحكم” أو العميق، ولكن أصبح للفئران دور فعال في الكشف عنها وبسهولة، بحسب موقع “سي نت دوت كوم” التكنولوجي.

وتمثل الفيديوهات والتسجيلات الصوتية المفبركة التي تعرف عادة باسم “التزييف العميق” واحدة من أخطر مظاهر التضليل، حيث تستخدم تقنيات الذكاء الاصطناعي لمزج الصور والأصوات بطريقة محترفة فتبدو وكأنها حقيقية، وغالبا ما تستخدم لنشر مشاهد مشوهة غير حقيقية تطال بعض المشاهير بتقطيع نماذج من صورهم ومقاطع صوتية سابقة لهم، بطريقة دقيقة بحيث تقطع المقاطع الصوتية الصغيرة من كلماتهم وتمزج لتشكيل كلمات جديدة.

ويعمل باحثون من جامعة أوريغون، حاليا، على تدريب الفئران على تمييز الاختلالات في الكلام، وهي مهمة يمكن لهذه الحيوانات أداؤها بدقة كبيرة، أملا منهم في أن بحثهم هذا قد يسهم في النهاية في مساعدة مواقع من أمثال فيسبوك ويوتيوب لتحديد المقاطع المفبركة بطريقة “التزييف العميق” قبل أن تنتشر على منصاتهما.

ويقول جونثان ساندرز، من معهد علوم الأعصاب بجامعة أوريغون “على الرغم من اعتقادي أن فكرة غرفة ممتلئة بالفئران تميز المقاطع الصوتية المفبركة على يوتيوب في اللحظة تبدو بديعة حقا، لكنني لا أعتقد أن ذلك سيكون عمليا لأسباب واضحة”.

ودرب ساندرز وفريقه الفئران على فهم مجموعة صغيرة من الصُويتات “الفونيمات” (أصغر وحدة أساسية في دراسة الأصوات اللغوية)، وهي الوحدات الصوتية التي تجعل البشر يميزون بين كلمة وأخرى.

ويوضح ساندرز “علمنا الفئران أن تخبرنا عن الفرق بين صوتي ‘باه’ و’غاه’ في سياقات مختلفة، وعندما يكونان مُحاطين بمختلف أصوات العلة، لذا باتت الفئران تعرف التمييز بين أصوات ‘بوه’ ‘بيه’ و’باه’ وكل تلك الفروقات الدقيقة التي لا ندقق نحن فيها ونأخذها كمسلمات”.

وتابع “لأن الفئران يمكنها فعليا تعلم المشكلة المعقدة لتصنيف مختلف أصوات الكلام، نعتقد أنه من الممكن تدريبها على تمييز الكلام المزيف من الحقيقي، وقد نجحت الفئران في تحقيق ذلك بنسبة 80 بالمئة من زمن التجربة”.

ولعل من أشهر نماذج “التزييف العميق”، المقطع المفبرك لمؤسس شركة فيسبوك للتواصل الاجتماعي، مارك زوكربيرغ، الذي انتشر في يونيو الماضي.

واعترف زوكربيرغ وهو يتحدث مباشرة إلى الكاميرا، بفخر بالدوافع السيئة وراء إنشاء إمبراطورية فيسبوك.

وظهر زوكربيرغ في مقطع الفيديو وهو يقول “تخيل هذا لثانية واحدة: رجل واحد يسيطر على بيانات المليارات من الأشخاص سيطرة كاملة، كل أسرارهم، حياتهم ومستقبلهم”.

وأصدر الفيديو  فنانان بريطانيان هما بيل بوسترز ودانييل هاو، لإظهار كيف يمكن بسهولة نشر المعلومات الخاطئة والمضللة عبر الإنترنت. ونشر الفيديو على موقع إنستغرام المملوك لفيسبوك.

وقد أراد الفنانان اختبار مصداقية فيسبوك في التعامل مع الأخبار المزيفة، وهل ستقوم الشركة بمحو الفيديو أم ستتركه كما فعلت بفيديو رئيسة مجلس النواب نانسي بيلوسي.

وكانت شركة فيسبوك أعلنت قبلها بأسبوعين أنها لن تحذف فيديو تم التلاعب في محتواه لبيلوسي، قائلة إنه لا توجد سياسة تحدد أن المحتوى في موقع التواصل الاجتماعي يجب أن يكون دقيقا.

وتظهر بيلوسي في مقطع الفيديو وكأنها تتلعثم في الكلام كما لو كانت في حالة سكر أو مختلة عقليا.

ويؤكد فريق البحث العلمي من جامعة أوريغون، أن الهدف النهائي من بحثهم، “لا يتعلق بتدريب جيش من الفئران للتمييز بين الأخبار المزيفة والصحيحة، ولكن مراقبة نشاط أدمغة الفئران، وقدراتها الخاصة التي تكشف بها الكلمات المزيفة، ومن ثم تطبيق هذه الطريقة عبر الكمبيوتر”.

ومعظم المقاطع المفبركة بهذه الطريقة والتي يتم تداولها على الإنترنت اليوم تبدو غير حقيقية بشكل واضح تماما، وتستخدم عادة كطريقة للسخرية من الشخص الذي فيها، وليس بقصد انتحال شخصيته. بيد أن ذلك لا يعني أن عمليات انتحال الشخصية المُقنعة لن تكون مشكلة في مستقبل غير بعيد، لذا كان هذا الأمر موضوعا مهما في مناقشات مؤتمري تجمعي “بلاك هات وديف كون” المهتمين بكل ما يتعلق بقرصنة الكومبيوتر والأنظمة الأمنية لمقاومتها اللذين يُقامان في لاس فيغاس بالولايات المتحدة كل عام.

وقد عبّر سياسيون أميركيون بارزون عن خشيتهم من رؤية أخبار مزيفة مُحتملة مُنتجة بطريقة “التزييف المُحكم”، في تصعيد كبير في جهود تضليل الناخبين الأميركيين.

وقال عضو مجلس الشيوخ عن الحزب الجمهوري، ماركو رابيو، متحدثا في الكونغرس في وقت سابق هذا العام “إن أعداء الولايات المتحدة يستخدمون حاليا صورا مزيفة لزرع السخط وبث الفرقة بيننا”. وأضاف “تخيل الآن قوة فيديو يظهر أوراق اقتراع انتخابية مسروقة، أو تعليقات بذيئة من زعيم سياسي أو مدنيين أبرياء يقتلون في نزاع في الخارج”.

بالمقابل، يشعر خبراء أن الحديث عن خطر الفبركة بطريقة “التزييف العميق” مبالغ فيه بشكل كبير ويقول خبير الأمن الإلكتروني بروس شناير من “هارفارد كينيدي سكول” إن “الجهود المبذولة بشأن الكشف عن المحتوى المفبرك بطريقة التزييف العميق قد أخطأت في الإمساك بجوهر المسألة”.

وتنتشر وجهة نظر بين الخبراء بأن المناقشات بشأن المحتويات المفبركة بالتزييف العميق قد تنتهي إلى أن تكون أكثر إضرارا من الفبركات الفعلية نفسها. فوجود مثل هذه الفبركات والمخاوف بشأن التكنولوجيا قد تستخدم من قبل سياسيين معينين لإقناع الناخبين أن شيئا ما حقيقيا جدا هو مجرد شيء مفبرك بطريقة “التزييف العميق”.

وفي مقال نشر في صحيفة “نيويورك تايمز” الأميركية، في وقت سابق تعتقد أستاذة الفلسفة في جامعة يورك في تورنتو ريجينا ريني أن الأوان قد فات بالفعل للعودة، وهي ترى أنه يجب علينا أن نجهّز أنفسنا لمعالجة مقاطع الفيديو كما لو أننا نتعامل مع شهادة أو أدلة وثائقية.

وأضافت ريني أنه “من الواضح أن المعلومات الحالية حول الأخبار المزيفة ليست سوى لمحة عما سيحدث لاحقا عندما تصبح الأصوات والصور وليس الكلمات فقط عرضة للتلاعب من قبل أي شخص لديه جهاز كمبيوتر جيـّد نسبيا”.  

19