هاشتاغ
بحث

تحذير أكاديمي من مخاطر أخلاقية لروبوتات الدردشة في دعم الصحة النفسية

04/03/2026

مخاطر-أخلاقية-لروبوتات-الدردشة-في-دعم-الصحة-النفسية

شارك المقال

A
A


كشفت دراسة حديثة من جامعة براون عن وجود ثغرات أخلاقية متكررة في استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي لتقديم دعم نفسي، محذّرة من أن هذه الأنظمة قد تبدي تعاطفًا لغويًا يبدو مقنعًا، لكنه يفتقر إلى الالتزام المهني والضوابط التي تحكم ممارسة العلاج النفسي.


الدراسة، التي عُرضت ضمن مؤتمر الذكاء الاصطناعي والأخلاقيات والمجتمع (AAAI/ACM)، ونقل تفاصيلها موقع "ScienceDaily"، رصدت 15 خطرًا أخلاقيًا بعد مقارنة استجابات نماذج لغوية كبيرة بأداء معالجين نفسيين مرخّصين في سيناريوهات تحاكي مواقف واقعية.

إخفاق في التعامل مع الأزمات


أظهرت النتائج أن بعض النماذج لم تتعامل بالقدر الكافي من الحذر مع حالات حساسة، مثل الإفصاح عن أفكار انتحارية أو أزمات نفسية حادة.


وفي عدد من السيناريوهات، لم تُقدَّم إحالة واضحة إلى مختصين أو خدمات طوارئ؛ بل جاءت الردود عامة أو غير متناسبة مع خطورة الوضع.


وأشار الباحثون إلى أن غياب المساءلة القانونية والمهنية التي يخضع لها المعالج البشري يفاقم الإشكالية؛ إذ لا توجد جهة رقابية واضحة يمكن الرجوع إليها في حال تسبب الرد الآلي بضرر.

تعاطف بلا مسؤولية


سجلت الدراسة ما وصفته بـ"التعاطف الخادع"؛ إذ تستخدم الأنظمة عبارات دعم مألوفة مثل "أتفهم ما تمر به"، من دون امتلاك إدراك حقيقي للسياق أو مسؤولية علاجية.


وعلى الرغم من أن الصياغة قد تبدو مطمئنة، فإنها لا تعوّض عن التقييم السريري المتخصص أو اتخاذ قرارات مبنية على معايير مهنية واضحة.


كما رُصدت حالات عززت فيها بعض النماذج أفكارًا خاطئة أو غير صحية بدل تصحيحها، إلى جانب مؤشرات تحيز تتعلق بالنوع الاجتماعي أو الخلفية الثقافية، وهذا يثير تساؤلات عن عدالة هذه الأنظمة في تقديم الدعم.

شركات كبرى قيد الاختبار


شملت الاختبارات نماذج طورتها شركات بارزة مثل "OpenAI" و"Anthropic" و"Meta"، في حين تولى تقييم المحادثات 3 اختصاصيين نفسيين مرخّصين، قارنوا بين الاستجابات الآلية والمعايير المتبعة في العلاج النفسي التقليدي.

التعليمات التفصيلية لا تحل المشكلة


اختبر الباحثون فرضية أن إعطاء النموذج تعليمات محددة مثل "تصرف بصفة معالج معرفي سلوكي" قد يحسن من التزامه الأطر الأخلاقية. غير أن النتائج أظهرت استمرار أنماط الخطر نفسها، وهذا يشير إلى أن المسألة لا تتعلق فقط بصياغة الأوامر؛ بل بطبيعة تصميم هذه الأنظمة وحدودها المعرفية.

بين توسيع الوصول والحاجة إلى تنظيم


على الرغم من التحذيرات، لا تدعو الدراسة إلى استبعاد الذكاء الاصطناعي من مجال الصحة النفسية تماماً؛ بل ترى أنه قد يسهم في توسيع نطاق الوصول إلى الدعم، خصوصًا في ظل نقص عدد المعالجين وارتفاع تكاليف العلاج في كثير من الدول.


لكنها شددت في المقابل على ضرورة وضع أطر تنظيمية واضحة، وتطوير معايير أخلاقية ملزمة، وإخضاع هذه التقنيات لتقييمات بشرية دقيقة قبل استخدامها في سياقات علاجية حساسة، مؤكدة أن الراحة التي توفرها الشاشة لا ينبغي أن تُغني عن الأمان الذي يوفره الاختصاص.

التعليقات

يستخدم موقع هاشتاغ والمنصات التابعة له ملفات تعريف الارتباط لتحسين تجربتك على الموقع، وتقديم محتوى مخصص، وتحليل استخدام الموقع. هل توافق على استخدامنا للملفات لهذه الأغراض؟ يمكنك رفض ذلك، وسنستخدم فقط الملفات الضرورية لتشغيل الموقع.

هاشتاغ بيحكي عنك

مؤسسة إعلامية مستقلة تعنى في مناصرة المواطنين في المنطقة العربية وتمكينهم والدفاع عنهم ونقل أخبارهم وفق المواثيق الأممية والقواعد المهنية

أسّسها محمد محمود هرشو

محمد محمود هرشو

جميع الحقوق محفوظة - Hashtag هاشتاغ © 2015 - 2026