Reading Time: 3 minutes

ظهر مقطع فيديو على يوتيوب للممثل الكوميدي الأميركي «بيل هادر» أثناء حديثه مع «ديفيد ليترمان» في إحدى حلقات برنامجه «ساتر داي نايت لايف» عام 2008، بدى فيه بيل شبيهاً تماماً بـ «توم كروز»، حيث تغيرت ملامحه في أجزاء متفرقة أثناء اللقاء. أثار هذا الفيديو الكثير من ردات الفعل، وأظهر معلقون قلقهم حيال هذا التلاعب الواقعي باستخدام تقنيات الذكاء الاصطناعي. كتب أحد المعلقين، ذكر أنه مهندس برمجيات: «أنا مندهش دائماً بالتكنولوجيا الجديدة، لكن هذا أمر مخيف».

ممثل أميركي تتغير ملامح وجهه ليشبه مشاهير آخرين، شاهد هذا الفيديو:

وبالفعل، نصادف الكثير من الصور ومقاطع الفيديو على ساحة الإنترنت، وكذلك الأخبار، ونتساءل هل هي حقيقية أم مزيفة؟ هناك أحداث، وأحياناً حوادث قتل نتشكك في مصداقيتها، لكن الجديد هو أننا دخلنا عصراً آخر من التزييف، عنوانه الفيديوهات المزيفة تزيفياً عميقاً، التي تبدو حقيقية لدرجة مرعبة.

ما هو التزييف العميق؟

ظهر هذا المصطلح عام 2017 بواسطة مُستخدم لموقع «ريدت» قام بتركيب صور لمشاهير على فيديوهات مخلّة. أما عن التزييف العميق ذاته فهو تكنولوجيا أهداها إلينا الذكاء الاصطناعي نستطيع بها تعديل أو تغيير محتوى فيديو ليظهر لأول وهلة كأنه حقيقي بشكلٍ كبير جداً.

كيف يعمل التزييف العميق؟

هذه الفيديوهات الشبيهة جداً بالحقيقة تُنفّذ عن طريق التعلم الآلي، في هذه الطريقة يتشارك المُزيف مع مصحح، لإنتاج صورة مزيفة، تبدو حقيقة لكن تم التلاعب بها. يمكن تقريب الأمر بأن هناك جهاز يقوم بتعليم الآخر؛ الجهاز الأول يسمى «المُولّد»، والآخر يسمى «المُمَيِز». يقوم هذا المُولّد بعمل الفيديو المزيف بالطبع، ثم يسأل المميِز عن رأيه في الفيديو، هل يبدو حقيقياً أم لا، ومن الإجابات يقوم بتعديل الفيديو مجدداً، وكل مرة يسأل المولِد المميِز، تتضح الصورة أمامه عما يجب ألا يفعله في التجارب الأخرى لخلق الفيديو المزيف. والجهازان يُعلّمان بعضهما البعض كيفية طريقة عمل صور غير حقيقية لتبدو حقيقية. يُطلق على الجهازين سوياً اسما مختصراً «جان -GAN».

ماذا يمكن أن يفعل التزييف العميق؟

يستخدم المزيِف فيديو حقيقي، ثم يقوم بالتلاعب بالصوت، فتبدو الصورة حقيقية، لكن حركات الشفاه غير دقيقة. والنتيجة هي أنه  أصبح من السهل «أن يقوم كل شخص باختيار هويته»؛ كما يقول «شارلي وارزيل»، الكاتب المتخصص في التكنولوجيا. فمثلاً يمكن أن يظهر أي فرد في فيديو متحدثاً بلسان أي شخص آخر، قد يكون الرئيس الأميركي «دونالد ترامب»، والذي ظهر في أحد مقاطع الفيديو متحدثاً، يشبه «مستر بن».

لماذا يجب أن نقلق بشأن التزييف العميق؟

تقول القاعدة الصحفية المعروفة إن الصورة بألف مقال، لكن ماذا إذا كانت هذه الصورة مزيفة؟

تكمن خطورة التزييف العميق في أنه يصعب كشفه، فالصور شبيهة جداً بالحقيقة. قد يكون الأمر ممتعاً ومسلياً أن نصنع فيديو لأحد المشاهير ينطق بلساننا، لكن يبدو أنه يهدد الأمان الشخصي للناس، فأي شخص يستطيع تزييف فيديو مخلّ لشخص آخر، بل ويهدد الموضوع الأمن القومي أيضاً، عندما يصل الأمر للسياسيين.

وفي هذا السياق، حدثت واقعة لـ«نانسي بيلوسي» رئيس مجلس النواب الأمريكي، حين رأيناها تظهر ثَملة في أحد الفيديوهات، وانتشر الفيديو بشكلٍ مخيف، ثم اتضح فيما بعد أن الفيديو تم تعديله (تزييفه)، لكي يُظهرها بهذا الشكل. لكن ذلك تم بعد أن قام الملايين بمشاركته، على صفحات التواصل الاجتماعي، ولأنه بدا حقيقياً جداً، قام بمشاركته أيضاً «رودي جولياني»، أحد السياسين الأميركيين.

ولم يسلم «مارك زوكربيرج»، الرئيس التنفيذي لفيسبوك من هذا التلاعب أيضاً، والذي ذكر سابقاً أن هذه النوعية من الفيديوهات لن يتم حذفها من على موقع الفيسبوك، فقد انتشر له فيديو مزيفاً أيضاً يقول فيه: «تخيل لمدة ثواني، أن رجلاً واحداً يمتلك بيانات مسروقة لمليارات الناس، لأسرارهم، وحياتهم، ومستقبلهم، وأدين بذلك إلى «سبكتر» فقد اتضح لي أن من يمتلك البيانات، يمتلك المستقبل».

قام بنشر هذا الفيديو المزيف شركة إعلانات، كنوع من أنواع فنون التركيب أطلقوا عليه اسم «سبيكتر» أو طيف. لكن لكي نبقى آمنين على الساحة الافتراضية، تقوم مؤسسات مثل مؤسسة الذكاء الاصطناعي غير الربحية، بجهود للحد من الانتشار الفيروسي لهذه الفيديوهات الخطيرة، عن طريق تقديم برنامج أطلق عليه اسم «reality defender» ويهدف إلى الكشف عن الصور والفيديوهات المزيفة.

يقول «إيلون ماسك» رائد الأعمال والمدير التنفيذي لشركة تسلا موتورز: «إن الذكاء الاصطناعي أخطر من السلاح النووي»، ربما يتضح كثير من الوجاهة في رأيه، وإذا كنا نقلق بشأن الأخبار المزيفة والصور سابقاً، ربما بات علينا الآن -مع بزوغ هذه التقنيات الخطرة- أن نقلق بشأن كل شيء تقريباً، وأن نتحرى الدقة بشأن ما نراه على ساحة الإنترنت.