"التزييف العميق".. الجانب المظلم للذكاء الاصطناعي

التكنولوجيا يمكن تكون خطيرة جدا حيث تتيح التلاعب بمقاطع الفيديو، وتسهل تلفيق أقوال وأفعال لشخص ما دون علم منه.
الجمعة 2020/06/19
هاو لي أمام مقطع فيديو مزيف

إذا كانت المقولة “أنا أشك إذن أنا موجود” صحيحة وضرورية في الماضي للاستمرار في الحياة، فإنها تغدو اليوم ضرورة يجب ألا تغيب عن ذهننا في أيّ لحظة، خاصة مع انتشار تقنيات “التزييف العميق” لمقاطع الفيديو والصور والأصوات. وإلى أن يجد الخبراء حلولا لكشف التلاعب والخداع البصري يبقى الشك سيد الموقف عند قراءة خبر أو مشاهدة مقطع فيديو.

ما من شك في أن التكنولوجيا، بجانبها الإيجابي، قدمت حلولا سهلت علينا الحياة، ولكن إن كنت تعتقد أن للتكنولوجيا جانبا واحدا، إيجابيا دائما، فأنت مضلل مثل كثيرين عليهم أن يطلعوا على الجانب الآخر للتكنولوجيا.

لن نستغرب أن يأتي يوم يقوم فيه مخترعو الإنترنت ومحركات البحث ومواقع التواصل الاجتماعي والذكاء الاصطناعي، بخطوة مماثلة للخطوة التي قام بها مخترع الديناميت، ألفرد نوبل، الذي أوصى بثروته التي جناها من الاختراع لجائزة سميت باسمه، للتكفير عن الجوانب المظلمة لابتكاراتهم.

تضليل إعلامي

واحد من الجوانب المظلمة، وهي عديدة، تقنية أطلق عليها مطورها أيان غودفالو اسم (Deepfakes)، أي التزوير العميق، وهي تعتمد التعلم العميق والتعلم الآلي. ومن الممكن لهذه التكنولوجيا أن تكون خطيرة جدا، حيث تتيح التلاعب بمقاطع الفيديو، وتسهل تلفيق أقوال وأفعال لشخص ما دون علم منه.

وكانت شركة فيسبوك قد حذرت من انتشار مقاطع فيديو عميقة التزييف، تنفذ اعتمادا على الذكاء الاصطناعي؛ وتوقعت فيسبوك أن تصبح هذه التقنية مصدرا خطيرا للتضليل الإعلامي على نطاق واسع، خاصة بين مستخدمي مواقع التواصل الاجتماعي، ونوهت بشكل خاص إلى العواقب الوخيمة التي قد تترتب من استخدامها في الانتخابات.

مايك شروبفر: مع تطور الخداع العميق هناك حاجة لإنتاج وسائل أفضل لكشف التزييف
مايك شروبفر: مع تطور الخداع العميق هناك حاجة لإنتاج وسائل أفضل لكشف التزييف

ويعزى انتشار تقنية التزييف العميق إلى تطور تقنيات التعلم الآلي، التي استخدمتها استوديوهات السينما لمعالجة الصور والأفلام، حيث تم استخدام الخوارزميات في تحديد وجوه الأشخاص، وإعادة تركيبها على وجه شخص آخر.

وكلمة عميق تشير إلى التعلم العميق، وهي تقنية الذكاء الاصطناعي المستخدمة. ولكي نحصل على مقطع فيديو مزور، نحتاج إلى مقطعين مرئيين طبيعيين، حيث تتعلم الخوارزميات مظهر كل وجه لتستطيع استبدال واحد بالآخر، مع الحفاظ على تعابير الوجه مثل الابتسامة ونظرة العين والإيماءة.

ويقول مايك شروبفر، الرئيس التنفيذي للتطوير التكنولوجي في فيسبوك، إن تقنيات التزييف العميق تتطور بسرعة، لذا هناك حاجة ماسة للعمل على إنتاج وسائل أفضل لكشف التزييف.

يعتقد الخبراء أن هذه التقنية قد تكون سلاحا مميتا محتملا لمزودي الأخبار المزيفة الذين لديهم أهداف خبيثة، حيث يمكنهم التأثير مباشرة على أسعار الأسهم والانتخابات والكثير من الأمور التي لا تخطر على ذهن.

ونذكر بالحادثة التي جرى خلالها تحويل مبلغ 200 ألف جنيه إسترليني إلى حساب مصرفي في المجر عام 2019. حيث اعتقد الرئيس التنفيذي لفرع شركة طاقة مقرها المملكة المتحدة، أن الشخص الموجود على الطرف الآخر من الخط هو رئيسه، الرئيس التنفيذي للشركة الأم.

وطلب المخادع، الذي استعان بتقنية التزييف العميق، من الرئيس التنفيذي للشركة الفرعية إرسال الأموال إلى مورد مجري على وجه السرعة.

وفي مقال نشرته صحيفة نيويورك تايمز الأميركية، تطرقت أستاذة الفلسفة في جامعة يورك بمدينة تورنتو الكندية، ريجينا ريني، إلى مقال نشره موقع ديلي بيست الأميركي حول تزييف مقاطع الفيديو.

ويُظهر هذا المقطع رئيسة مجلس النواب الأميركي نانسي بيلوسي وهي تتلعثم بكلماتها وفي حالة سكر واضح، وقد تمكن صانع الفيديو من فبركته عن طريق أخذ مقطع أصلي وإبطائه ثم ضبط درجة صوتها لتمويه هذا التلاعب.

وبناء على التعليقات في مواقع التواصل الاجتماعي، وقع العديد من الناس في شرك هذا التزوير في بادئ الأمر، معتقدين أن بيلوسي كانت في حالة سكر أثناء التحدث إلى وسائل الإعلام.

ويمكن تفسير هذا الأمر بأن الناس يميلون إلى تصديق الأمور السيئة حول السياسيين الذين يكرهونهم.

وبالعودة إلى مقطع الفيديو الذي تظهر فيه نانسي بيلوسي، كشفت الكاتبة أن شابا أميركيا هو شون بروكس قد أنتج المقطع، وأفاد مسؤولون في فيسبوك بأنه كان أول شخص يُحمِّله على حسابه.

ولم تستجب فيسبوك إلى طلب بإزالة مقطع الفيديو، وفعلت نفس الشيء مع مقطع لمارك زوكربيرغ، واكتفت بالإشارة إلى أن المقاطع مزيفة.

وأنكر بروكس هذا الأمر، وهو الذي طالما عُرِف بأنه صانع محتوى رقمي يهدف إلى خدمة مصالح الرئيس الجمهوري ترامب.

وفي حين ذهب بعض الصحافيين والمعلقين إلى لوم موقع ديلي بيست بسبب كشفه لهوية ناشر مقطع الفيديو، يبدو أن هناك سببا وجيها يدفع الصحافيين لفضح صانعي المحتوى المزيف على شبكة الإنترنت._

أدلة جنائية

في مواجهة تقنيات الخداع والتضليل الإعلامي الشك سيد الموقف
في مواجهة تقنيات الخداع والتضليل الإعلامي الشك سيد الموقف

بشكل عام، نحن نعيش في عصر تكون فيه معرفة أصل مقطع فيديو منشور على الإنترنت بقدر أهمية معرفة المحتوى نفسه.

وأوضحت كاتبة المقال أن التكنولوجيا الرقمية تجعل من إنتاج المواد الإعلامية المزيفة والمُقنِعة أمرا سهلا للغاية، فمقطع الفيديو الذي أنتجه بروكس بسيط ويمكن لأي شخص إنتاج فيديو مماثل، بعد مشاهدة مقاطع فيديو تعليمية بخصوص تحرير الفيديو على موقع يوتيوب.

وتعمل التكنولوجيا عن طريق مطابقة الوحدة الصوتية أو ما يعرف بالفونيم، وهي عملية معالجة اللغة الطبيعية للأصوات المختلفة مع دراسة الجانب المرئي وملامح الوجه الناتجة عن هذه الوحدات الصوتية كلما تحدّث الشخص. وفي المرحلة التالية، تُوظَّف تقنية الذكاء الاصطناعي لفبركة الفيديو الجديد بناء على النسخة المُعدّلة ومطابقة صوت المتحدّث مع النص المعدّل.

ووفقا للباحثين يضع النهج القائم على تعديل النص الأساس من أجل تعزيز الأدوات المستخدمة في التحرير خلال مرحلة ما بعد إنتاج الأفلام. وغالبا ما تتطلب مشاهد الحوار المصورة إعادة ضبط التوقيت أو التحرير بناء على تغييرات نصية صغيرة، ما يستدعي حاليا عملا يدويا شاقا.

من المهم أن نستمر في تطوير تقنيات علم الأدلة الجنائية وبصمات الأصابع وتقنيات التحقق (الرقمية وغير الرقمية) لكشف الفيديو المزور الذي وقع التلاعب به.

في المقابل، يعترف الباحثون بأنه يمكن لبعض الجهات الفاعلة محاولة استخدام هذه التكنولوجيا لأغراض دنيئة، كما يقدمون بعض الحلول المحتملة لهذه المشكلة الحتميّة. في هذا الصدد، تحدث باحثون عن تزايد مخاطر ارتكاب الانتهاكات، لاسيما عندما تُطبّق على وسيلة اتصال تُعتبر أحيانا دليلا موثوقا على الأفكار والنوايا. ونحن نقر بأن الجهات الفاعلة ذات النوايا السيئة قد تستخدم هذه التقنيات لتزوير البيانات الشخصية والتشهير بالشخصيات المرموقة، ونحن نشعر بالقلق إزاء هذا الخداع وسوء الاستخدام.

هناك حاليا بعض الطرق المستخدمة للتعرف على الوسائط المزيفة، لكن هذا يتطلب تحليلا طويلا من شخص خبير، أما عن الأدوات التي تكتشف التزييف بشكل آلي، فإنها لا تزال في مراحلها الأولى.

ويؤكد شروبفر أن مشكلة التزييف “لم تصبح بعد مشكلة كبيرة على منصات فيسبوك، ولكن لا يمكن ضمان أن يستمر الأمر على ما هو عليه إذا أصبح الوصول إلى تلك الأدوات سهلا ورخيصا وسريعا، عندها من الممكن أي يغري ذلك مزيدا من الناس على استخدام هذه التقنية بطريق ضارة”.

ويتوقع الجميع من فيسبوك الإسراع إلى إيجاد حل لتلك المشكلة، خاصة بعد أن وجه إليها اللوم في الانتخابات الرئاسية الأخيرة، حيث واجهت انتقادات حملتها مسؤولية حملات التضليل السياسي، وذلك لسماحها بنشر مثل تلك الأخبار والدعاية.

سام غريغوري: الأخبار المزيفة تضع سلاحا فتاكا بيد النافذين يستخدمونه ضد الضعفاء
سام غريغوري: الأخبار المزيفة تضع سلاحا فتاكا بيد النافذين يستخدمونه ضد الضعفاء

ويمكن أن يوفر التزييف العميق للسياسيين وسائل لتلافي المساءلة القانونية، حسب هنري أجدر، وهو محلل في شركة “ديبتريس” الهولندية التي تعمل على تطوير حلول لاكتشاف المقاطع المزورة، وذلك من خلال الادعاء بأن مقاطعهم الحقيقية مزيفة.

ويقول أجدر إن فكرة التزييف العميق قد “خلقت الكثير من المشاكل، فهي كالفايروس الذي يصيب عقول السياسيين والمواطنين في المجال السياسي”. وهو إن كان يشك حاليا في توظيف هذه التكنولوجيا لأغراض سياسية، إلا أنه يعتقد أنها ستصبح “أداة قوية للمطاردة الإلكترونية والتنمر”.

وحذر هاو لي، وهو فنان مؤثرات بصرية، من احتمال إنتاج مقاطع مزورة بعمق يصعب اكتشافها قبل فترة طويلة. ويشعر خبراء بالقلق من السرعة التي تتقدم بها عمليات التزوير باستخدام الذكاء الاصطناعي.

وقام ناشطون من المجتمع المدني وخبراء تزييف بدق ناقوس الخطر بشأن التهديدات التي يشكلها التزييف العميق، وركز صانعو السياسات وشركات التقنية على مشكلة أشار إليها أجدر، وهي مدى السهولة التي يمكن بها لهذه التقنية أن تجعل الأشياء المزيفة تبدو كأنها حقيقية.

ويمكن لانتشار هذه التكنولوجيا أن يؤدي إلى تقويض الثقة في وسائل الإعلام، خصوصا في البيئات السياسية الهشة. ويقول سام غريغوري، وهو مدير البرنامج في منظمة “ويتنس” التي تساعد الناس على توثيق انتهاكات حقوق الإنسان إن الادعاء بأن أمرا ما هو خبر مزيف، يضع سلاحا وصفه بالفتاك، “بيد النافذين، وذلك بقولهم إنه تزييف عميق، ردا على أي محاولة يستخدمها أشخاص ضعفاء بهدف كشف انتهاكات حقوق الإنسان”.

سيتطلب حل هذه المشاكل إثبات أن “الشيء الحقيقي حقيقي فعلا، وأن المزيف مزيف حقا”.

ويتفق الخبراء على أنه تقع على عاتق الجمهور توعية نفسه بشكل أكبر حول موضوع الوسائط والتلاعب بها، وينبغي على الناس إدراك أن تزوير المحتوى وبث الشك في مصداقيته هما تكتيكان يمكن استخدامهما بشكل متعمد لزرع الارتباك.

ابتزاز المواطنين

استجاب التقنيون للمشاكل الناجمة عن التزييف العميق بمزيد من التقنية، وقامت حكومة الولايات المتحدة بتمويل مشروع أطلق عليه اسم “التحليل الجنائي للوسائط”، كما أعلنت شركتا فيسبوك ومايكروسوفت عن تحد للكشف عن المقاطع المزيفة، وأطلقت غوغل قاعدة بيانات عملاقة من المقاطع المزيفة لمحاربتها.

إلا أن، بريت باريس، وهي باحثة في جامعة روتجرز ومؤلفة شاركت في إعداد “تقرير داتا آند سوسايتي” ترى أن جهاز كشف المقاطع المزيفة لا يستطيع معالجة الأضرار الناجمة عن بث المقاطع المزورة، وذلك للأسباب التالية:

السبب الأول، أن أجهزة الكشف عن التزييف العميق لا تستطيع إخبارنا بما يتوجب علينا حذفه، وما يتوجب الاحتفاظ به.

السبب الثاني، قد تساعد التقنية الشركات الكبرى والأحزاب والحكومات، إلا أنها لن تساعد الأشخاص الأكثر حاجة لمثل هذه الحماية.

السبب الثالث، هو أن كواشف التزييف إن قدمت المساعدة، ستقدمها للضحايا بعد فوات الأوان.

12