الأحد, أكتوبر 20, 2024
- إعلان -spot_img

الأكثر قراءة

الرئيسيةمنوعاتعبر تقنية الذكاء الاصطناعي.. العالم يشهد ظاهرة "التزييف العميق".. لا تصدق كل...

عبر تقنية الذكاء الاصطناعي.. العالم يشهد ظاهرة “التزييف العميق”.. لا تصدق كل ما تراه!

بحسب ما نشرته “ديلي ميل” البريطانية، فإن العالم يشهد حالياً طفرة فيما يسمى بظاهرة “التزييف العميق”، حيث يتم استخدام تقنية الذكاء الاصطناعي AI لمعالجة مقاطع الفيديو والصوت بطريقة تحاكي الحياة الواقعية بدقة عالية.

خطوط فاصلة

للمساعدة على مزيد من الإيضاح بمثال أكثر شفافية، تم إصدار أول فيديو مزيّف عميق في العالم باستخدام برنامج استوديو الذكاء الاصطناعي Revel.ai، والذي يبدو وكأنه يُظهر نينا شيك، مستشارة الذكاء الاصطناعي المحترفة، بينما تقوم بتقديم تحذير حول كيفية “عدم وضوح الخطوط الفاصلة بين الواقع والخيال”.

بالطبع، لم تكن نينا شيك هي من تظهر في مقطع الفيديو حقاً، كما أنه تم توقيع الفيديو بشكل مشفر من قبل شركة الأصالة الرقمية Truepic، معلنة أنه يتضمن محتوى مزيفاً تم إنشائه باستخدام برنامج ذكاء اصطناعي.

يقول مقطع الفيديو المزيّف ببطء ووضوح: “يقول البعض إن الحقيقة هي انعكاس لواقعنا. نحن معتادون على تعريفه بحواسنا. لكن ماذا لو تغير واقعنا؟ ماذا لو لم نعد قادرين على الاعتماد على حواسنا لتحديد أصالة ما نراه وهنا؟ إننا في فجر الذكاء الاصطناعي، وأصبحت الخطوط الفاصلة بين الواقع والخيال غير واضحة بالفعل”.

ويضيف المقطع أنه في “عالم يتم الخلط بين الظلال والحقيقة، فإن المرء في بعض الأحيان يحتاج إلى تغيير منظوره بشكل جذري لرؤية الأشياء كما هي بالفعل”.

توقيع مشفر

وينتهي مقطع الفيديو المُفبرك بدقة عالية بتوصيل رسالة مفادها أن المقطع تم تزييفه باستخدام برنامج Revel.ai وبموافقة من نينا شيك نفسها، وأنه تم توقيعه بشكل مشفر بواسطة شركة Truepic.”

إن تقنيات “ديب فيك” هي شكل من أشكال الذكاء الاصطناعي، تستخدم “التعلم العميق” لمعالجة الصوت أو الصور أو الفيديو، وإنشاء محتوى وسائط شديد الواقعية، ولكنه في الحقيقة مقطع فيديو مزيف.

رئيس أوكرانيا

ومن أشهر الاستخدامات لتقنية التزييف العميق أو “ديب فيك” كان انتحالاً لشخصية الرئيس الأوكراني، فولوديمير زيلينسكي وهو يبدو مستسلماً لروسيا في مقطع فيديو تم تداوله على نطاق واسع على وسائل التواصل الاجتماعي الروسية العام الماضي.

يظهر المقطع الرئيس الأوكراني وهو يتحدث من منصته وهو يدعو قواته إلى إلقاء أسلحتهم والإذعان للقوات الروسية.

لكن لاحظ مستخدمو الإنترنت الأذكياء على الفور التناقضات بين لون رقبة ووجه زيلينسكي، واللهجة الغريبة وعدم التماهي بين الخلفية والظلال المحيطة حول رأسه.

الأغراض الترفيهية

على الرغم من القيمة الترفيهية لدلـ”ديب فيك”، فقد حذّر بعض الخبراء من المخاطر التي يمكن أن تشكلها، إذ أثيرت مخاوف في الماضي حول كيفية استخدامها لإنشاء مقاطع فيديو لإيذاء الأطفال أو الانتقام من آخرين بمواد إباحية مزيّفة، فضلاً عن الخدع السياسية.

مشروع قانون

في تشرين الثاني/نوفمبر 2022، تم إجراء تعديل على مشروع قانون الأمان على الإنترنت للحكومة البريطانية والذي نص على أن استخدام تقنية التزييف العميق لتزييف صور إباحية ولقطات لأشخاص دون موافقتهم غير قانونية.

سلاح في الحروب

قال الدكتور تيم ستيفنز، مدير مجموعة أبحاث الأمن السيبراني في “كينغز كوليدج لندن”، إن التوافر الواسع لهذه الأدوات يمكن أن تستغل من قبل دول متحاربة لـ “التصيد” والتلاعب بالسكان المستهدفين في محاولة لتحقيق أهداف السياسة الخارجية و”تقويض” الأمن القومي للدول الأخرى.

انتشار واسع النطاق

مع ظهور أدوات AI المتاحة مجاناً لتحويل النص إلى صورة والنص إلى الفيديو، مثل DALL-E و Make-A-VideoمنMeta، ستصبح الوسائط التي يتم التلاعب بها أكثر انتشاراً.

في الواقع، تم التنبؤ بأن 90 بالمائة من المحتوى عبر الإنترنت سيتم إنشائه باستخدام الذكاء الاصطناعي بحلول عام 2025.

وعلى سبيل المثال، تمكّن مستخدمو وسائل التواصل الاجتماعي من اكتشاف حقيقة صورة مزيّفة، يُفترض أنها تم إنشاؤها بواسطة الذكاء الاصطناعي، لقط به بقع زواحف سوداء وصفراء على جسمه، والتي تم الإعلان عن أنه من الأنواع المُكتشفة حديثاً.

معيار للمصداقية

وأعرب خبراء الأمن الإلكتروني والذكاء الاصطناعي عن أملهم في أن يتم إجبار المنصات وشركات الذكاء الاصطناعي على وضع توقيع على المحتوى الذي يتم إنشائه بواسطة برامجهم لوضع معيار مفتوح لمصداقية المحتوى.

وتوقّع الخبراء أن الذكاء الاصطناعي سيكون جزءاً أساسياً من عملية إنتاج جميع المعلومات الرقمية تقريباً.

لذلك إذا لم يكن هناك طريقة لمصادقة هذه المعلومات، سواء تم إنشاؤها بواسطة الذكاء الاصطناعي أم لا، فإنه سيكون من الصعب للغاية التعامل بثقة ومصداقية مع نظام المعلومات الرقمي.

مصدر المعلومات

وقال الخبراء أنه “على الرغم من أن المستخدمين لم يدركوا أن لديهم الحق في فهم مصدر المعلومات، التي يتلقونها أو يطلعون عليها، فإنهم يأملون في أن تظهر هذه الحملة أن ذلك ممكن وأن هذا حق يجب عليهم المطالبة به”.

تتوافق تقنية إنشاء التوقيع الرقمي المُشفر مع المعيار الجديد، الذي طوره التحالف من أجل إنشاء المحتوى والأصالة C2PA، وهو عبارة عن هيئة صناعية، تضم أعضاء من بينهم Adobe وMicrosoft وBBC، والذي يعمل على معالجة انتشار المعلومات المضللة عبر الإنترنت.

إزالة الالتباس لمزيد من الأمان

تقول شيك وشركتا Truepic و Revel.ai إن مقطع الفيديو الخاص بهم يوضح أنه من الممكن للتوقيع الرقمي زيادة الشفافية فيما يتعلق بالمحتوى الذي تم إنشائه بواسطة الذكاء الاصطناعي، معربين عن أملهم في أن يعمل على إزالة الالتباس حول مصدر الفيديو، مما يساعد على جعل الإنترنت مكاناً أكثر أماناً.

عالم أخلاقي بموثوقية وشفافية

وقال بوب دي جونغ، المدير الإبداعي في شركة Revel.ai: “عندما تُستخدم أداة ذكاء اصطناعي بشكل جيد، فإنها ستكون وسيلة رائعة لسرد القصص والحرية الإبداعية في صناعة الترفيه. إن قوة الذكاء الاصطناعي والسرعة التي يتطور بها شيء لم يسبق للعالم رؤيته من قبل”.

وأشار دي جونغ إلى أن “الأمر متروك للجميع، بما يشمل صُنّاع المحتوى، لتصميم عالم أخلاقي بمصداقية وشفافية لإنشاء المحتوى حتى يُمكن الاستمرار في استخدام الذكاء الاصطناعي وأن يستطيع المجتمع احتضانه والاستمتاع به ولا يتضرر منه”.

لتصلك أحدث الأخبار يمكنك متابعة قناتنا على التلغرام
مقالات ذات صلة