الجمعة, سبتمبر 6, 2024
HashtagSyria
- إعلان -spot_img

الأكثر قراءة

الرئيسيةأخباركيف تميز بين الإنسان والآلة في العالم الرقمي؟

كيف تميز بين الإنسان والآلة في العالم الرقمي؟

باتت روبوتات الذكاء الاصطناعي قادرة على محاكاة السلوك البشري بدقة عالية، وقد أثار هذا التطور تساؤلات جوهرية حول طبيعة الهوية الرقمية، ودفع الباحثين إلى البحث عن آليات فعالة للتمييز بين الإنسان والآلة في العالم الرقمي.

وزادت المخاوف بشأن القدرة على التمييز بين الإنسان والآلة في الفضاء الرقمي في السنوات الأخيرة للعديد من الأسباب، التي من أبرزها:

  • تطور تقنيات الذكاء الاصطناعي:

باتت تقنيات الذكاء الاصطناعي قادرة على توليد محتوى لا يمكن تمييزه عن المحتوى الذي ينتجه البشر، مثل: النصوص والصور والأصوات، بل وصل الأمر إلى محاكاة سلوكيات الإنسان بشكل مقنع، مثل: حل ألغاز أنظمة التحقق (CAPTCHA).

  • انتشار روبوتات الدردشة:

تساهم روبوتات الدردشة المتطورة في تعقيد عملية التمييز، حيث يمكنها إجراء محادثات طبيعية ومعقدة يصعب تمييزها عن المحادثات البشرية.

  • تهديد الأمن السيبراني:

تستغل الجهات الخبيثة تقنيات الذكاء الاصطناعي لتوليد كميات ضخمة من المحتوى المزيف بشكل مقنع بهدف نشر الشائعات وإحداث الفوضى والتلاعب بالرأي.

تطوير نظام جديد للتحقق من الهوية الرقمية

اقترح باحثون من معهد ماساتشوستس للتكنولوجيا، وجامعات مرموقة وشركات متخصصة في الذكاء الاصطناعي، مثل: OpenAI ومايكروسوفت، في ورقة بحثية جديدة، تطوير نظام أطلقوا عليه اسم (وثيقة إثبات الهوية البشرية) PersonHood Credential – الذي يُعرف اختصارًا باسم (PHC)، بهدف التحقق من هوية مستخدمي الخدمات الرقمية بشكل قاطع وتأكيد كونهم بشراً وليس روبوتات.

ويأتي هذا الاقتراح كحل بديل لأنظمة التحقق التقليدية مثل (CAPTCHA)، التي باتت أقل فعالية في مواجهة تطور تقنيات الذكاء الاصطناعي.

آلية عمل نظام (PHC) الجديد

يهدف النظام الجديد إلى التحقق من هوية مستخدمي الخدمات الرقمية من خلال وثيقة هوية رقمية فريدة تصدرها الحكومات أو الشركات لكل مستخدم، وتعتمد هذه الوثيقة على تقنية التشفير المعروفة باسم (إثبات المعرفة الصفرية – Zero Knowledge Proof، وهي تقنية التشفير التي تسمح بالتحقق من هوية المستخدم دون الكشف عن أي معلومات شخصية حساسة.

ويمكن للمستخدمين تخزين هذه الوثائق في أجهزتهم الشخصية، مما يوفر لهم طبقة إضافية من الحماية والخصوصية. وبذلك، يمكن لهذه الوثائق أن تحل محل الطرق التقليدية للتحقق من الهوية، مثل CAPTCHA، والقياسات البيومترية مثل بصمات الأصابع.

تحديات نظام (PHC) الجديد

يبدو نظام (PHC) حلا واعدا نظريا للتحقق من الهوية الرقمية، ولكن أشار الباحثون إلى أنه يحمل في طياته العديد من التحديات، ومنها، احتمال بيع هذه الوثائق بشكل غير قانوني، مما يسهل انتشار المحتوى المزيف والتأثير في مصداقية النظام.

بالإضافة إلى ذلك، فإن الجهة المسؤولة عن إصدار هذه الوثائق ستحظى بسلطة كبيرة، وتركيز السلطة في يد جهة واحدة يجعلها هدفا جذابا للهجمات السيبرانية، مما يهدد أمن النظام بأكمله.

كما حذر الباحثون من أن نظام (PHC) قد يؤدي إلى تركيز السلطة في أيدي عدد محدود من الجهات، سواء الحكومات أو المؤسسات الكبيرة – التي ستكون مسؤولة عن إصدار الوثائق الرقمية، مما يثير مخاوف جدية بشأن الاحتكار الرقمي والتأثير السلبي في حقوق المستخدمين، إذ قد تستغل هذه الجهات سلطتها لتحديد كيفية استخدام هذه الوثائق، مما يحد من المنافسة ويؤثر في طبيعة التفاعل بين الأفراد والخدمات الرقمية.

وعلاوة على ذلك، قد يواجه كبار السن، الذين هم أكثر عرضة للاحتيال الإلكتروني، صعوبة في التعامل مع نظام الوثائق الجديد.

ما الفرق بين نظام (PHC) ونظام Worldcoin؟

يشبه نظام وثائق الهوية المقترح، ما تسعى إليه شركات عالمية متخصصة مثل شركة (Worldcoin) – التي شارك في تأسيسها سام ألتمان، الرئيس التنفيذي لشركة OpenAI، والتي تطور نظاما يُسمى (World ID) للتحقق من الهوية باستخدام تقنية مسح قزحية العين. ويهدف هذا النظام إلى تمكين الأفراد من الحصول على خدمات رقمية مختلفة، مع ضمان عدم استغلال روبوتات الذكاء الاصطناعي لهذه الخدمات.

ومع ذلك، يؤكد الباحثون في الورقة البحثية للنظام الجديد، التي شارك في تأليفها باحثون من شركة (OpenAI) وهما، ستيفن أدلر وزوي هيتزيج، أن هدفهم هو تحديد المعايير الأساسية التي يجب توفرها في أي نظام من هذا النوع، وليس تأييد نظام معين مثل نظام (Worldcoin).

كما أشار الباحثون إلى أهمية وجود أنظمة متعددة للتحقق من الهوية الرقمية للأفراد، مما يضمن حصول المستخدمين على خيارات متعددة، ويحد من هيمنة أي جهة واحدة على هذه العملية.

من المسؤول عن حماية الخصوصية الرقمية؟

يفرض نظام (PHC) عبئا إضافيا على المستخدمين، إذ يطلب منهم التعامل مع مشكلة سوء استغلال تقنيات الذكاء الاصطناعي التي قدمتها شركات التكنولوجيا دون تقديم حل فعال وآمن لها، بالإضافة إلى تعاملهم مع فشل تلك الشركات في معالجة مشاكل مثل انتشار البريد العشوائي والمعلومات المضللة، وهذا يتعارض مع الهدف الأساسي من تطوير مثل هذه الأنظمة، وهو تبسيط حياة المستخدمين.

وبدلا من تحميل المستخدمين مسؤولية حماية أنفسهم من التهديدات التي تسببها التقنيات الجديدة، يجب على شركات التكنولوجيا أن تتخذ مبادرات لحل المشكلات التي تسببها منتجاتها.

وقد أكد كريس جيليارد، الباحث في مجال الخصوصية، أن النظام المقترح يعكس النهج الذي تتبعه شركات التكنولوجيا، والذي يتمثل في تحميل المجتمع عبء التكيف مع التقنيات الجديدة.

وقال جيليارد: “تستند الكثير من الأنظمة الجديدة إلى فكرة مفادها أن المجتمع والأفراد سيتعين عليهم تغيير سلوكهم بناءً على المشكلات التي تسببها الشركات في ملء الإنترنت بروبوتات الدردشة والنماذج اللغوية الكبيرة بدلا من معالجة الجذور الحقيقية للمشكلة عن طريق تطوير تقنيات أكثر أمانا ومسؤولية”.

كما أشار العديد من الخبراء إلى أن التحقق من الهوية الرقمية ليس حلا شاملا لمشكلة التمييز بين البشر والآلات، بل هو جزء من حل أكبر، لأنه لو تمكنا من التمييز بين البشر والآلات بدقة، فإن ذلك لن يمنع الروبوتات من التأثير في المجتمع بطرق أخرى، مثل نشر المعلومات المضللة والتلاعب بالرأي العام.

الحلول المقترحة

تبدو المبادرات التي تقترحها شركات التكنولوجيا للتمييز بين البشر والآلات جيدة على الورق، ولكنها في الواقع تُظهر مدى تهرب تلك الشركات من تحمل مسؤولية الآثار السلبية للتقنيات التي طورتها بهدف تسهيل حياة المستخدمين في حين لا لم تحقق هذا الهدف.

وبدلا من معالجة المشاكل التي تسببها نماذج الذكاء الاصطناعي، مثل انتشار المعلومات المضللة، تقوم هذه الشركات بنقل العبء إلى المستخدمين والمجتمعات.

ولكن يمكن لشركات التكنولوجيا أن تبدأ بوضع علامات مائية على المحتوى الذي تنتجه نماذج الذكاء الاصطناعي التي طورتها، أو تطور أدوات قوية للكشف عن المحتوى المزيف.

ومع أن هذه الحلول ليست مثالية، ولكنها تُلقي بالمسؤولية على مصدر المشكلة.

وإذا تخلت شركات التكنولوجيا عن هذه المسؤولية، سيكون ذلك وصمة أخرى في سجل وادي السيليكون، الذي اعتاد طرح مشكلات لم يطلبها أحد، في حين يستثمر في آثارها، إذ إن تاريخ شركات التكنولوجيا حافل بأمثلة على إطلاق منتجات جديدة دون التفكير في عواقبها، ومشكلة المحتوى المزيف هي مجرد حلقة جديدة في هذه السلسلة.

وتشبه هذه المشكلة استهلاك شركات التكنولوجيا لكميات ضخمة من الكهرباء والمياه لتشغيل مراكز البيانات الخاصة بالذكاء الاصطناعي، في حين تعاني المجتمعات، خصوصا في المناطق الجافة، نقص حاد في هذه الموارد الحيوية.

يبقى التمييز بين الإنسان والآلة، يمثل تحديدا كبيرا في عالمنا الرقمي، وفي حين يهدف نظام (PHC) المقترح إلى تقديم حل لهذه المشكلة، لكنه في الواقع يعيد نقل العبء إلى المستخدمين مرة أخرى، كما يثير في الوقت نفسه مجموعة من التساؤلات حول الخصوصية والأمن والمسؤولية.

لذلك من الضروري أن تسعى شركات التكنولوجيا إلى تطوير حلول شاملة ومستدامة تضمن الاستفادة من إمكانات الذكاء الاصطناعي مع الحفاظ على خصوصية المستخدمين دون إلقاء العبء عليهم.

مقالات ذات صلة