'شات جي بي تي' يفضح هشاشة البشر النفسية
نيويورك - قالت شركة "أوبن إيه آي" إنّ مئات الآلاف من مستخدمي برنامج الدردشة الذكي "شات جي بي تي" يظهرون علامات محتملة لطوارئ صحّية عقلية، بما في ذلك الهوس أو الذُّهان أو نُيات انتحارية، في أول الكشف العام من نوعه حول هذا البُعد المثير للقلق في تفاعل الإنسان مع الذكاء الاصطناعي.
وقالت الشركة في مدونة نشرَتها أنّ نحو 0.07٪ من المستخدمين النشطين أسبوعياً أظهروا "علامات محتملة لطوارئ صحّية عقلية مرتبطة بالذُّهان أو الهُوس". وبما أن عدد مستخدمي "شات جي بي تي" النشطين أسبوعياً يُقدَّر بنحو 800 مليون مستخدم بحسب المدير التنفيذي سام ألتمان، فهذا يعني أن هذه النسبة تُترجم إلى نحو 560 000 مستخدم في كل أسبوع.
إضافة إلى ذلك، كشفت "أوبن إيه آي" أن نحو 0.15 بالمئة من المستخدمين أجروا محادثات تضمنت “مؤشرات صريحة على تخطيط أو نية للانتحار". هذا العدد يُعادل ما قد يزيد على مليون مستخدم أسبوعياً وفق الأرقام المعلَنة.
وقالت الشركة إنّها لجأت إلى شبكة عالمية تضم أكثر من 170 طبيباً نفسياً، وعالِمَ نفس، وأطباء رعاية أولية من نحو 60 دولة لوضع استجابات مصمّمة للمستخدمين الذين يُظهرون هذه العلامات.
وأوضحت "أوبن إيه آي" أن الإصدار الأحدث من النموذج الذي يعمل عليه "شات جي بي تي"، وهو "جي بي تي-5"، تم تدريبه على "استجابات آمنة وببُعد إنساني" تجاه محادثات تُشير إلى الهوس أو الذُّهان أو الانتحار، وأنّ التحديثات تشتمل على إشعارات للمستخدم بعد محادثة طويلة، وتوجيه إلى خطوط المساعدة الخارجية عند الضرورة، وإعادة توجيه المحادثات الحرجة إلى نماذج أكثر أماناً.
من جانبها، حذّرت خبراء الصحّة النفسية من أن حتى نسبة تبدو ضئيلة مثل 0.07 بالمئة يمكن أن تعني عدداً كبيراً من الأشخاص عند الحجم الهائل لمستخدمي "شات جي بي تي"، وخصوصاً إذا كان المستخدمون يُعانون إصلاً من ظُروف نفسيّة أو يعتمدون على البوت كرفيقٍ وحيد أو بديلٍ عن الدعم الإنساني.
قال الدكتور جيسون ناجاتا، أستاذ يدرس استخدام التكنولوجيا بين الشباب في جامعة كاليفورنيا، سان فرانسيسكو،: "رغم أن 0.07 بالمئة تبدو نسبة صغيرة، إلا أن على مستوى السكان مع مئات الملايين من المستخدمين، فإن ذلك بالفعل يمكن أن يكون عدداً كبيراً من الأشخاص".
ذلك بالفعل يمكن أن يكون عدداً كبيراً من الأشخاص
الاعتماد العاطفي والمخاطر
تشير دراسات داخلية وغير منشورة من "أوبن إيه آي" وشركائها إلى أنّ الاستخدام العالي والمستمر لـ"شات جي بي تي"، وخاصّة في وضع الدردشة الصوتية أو عندما يُنظر إليه كرفيق عاطفي، يرتبط بزيادة الشعور بالوحدة، وتقلّب العلاقات الاجتماعية، واعتمادية أكبر على البوت. مثلاً، تحليل تلقائي لأكثر من 40 مليون محادثة أظهر أن مستخدمي النسبة العليا من وقت الاستخدام (أعلى 10٪) لديهم مؤشّرات أكبر للملل أو التعلّق العاطفي بالبوت.
لكن الباحثين يحذّرون من أن هذا لا يعني بالضرورة أنّ الاستخدام الطويل يسبب تماماً الهوس أو الذُّهان، بل قد يكون أن الأشخاص ذوي الضغوط النفسية أو العزلة هم أكثر ميلاً إلى استخدام البوت كبديل. كما أنّ قدرات النماذج في رصد وتحليل أعراض الذُّهان أو تغيير المزاج العميقة لا تزال محدودة لأن البوت لا يلتقط الإشارات غير اللفظية أو السياق الاجتماعي الكامل، أو المتغيّرات النفسية المرتبطة.
التحديات التقنية والأخلاقية والتنظيمية
من الناحية التقنية، تعرضت "أوبن إيه آي" لجُملة من الانتقادات لكون بعض المحادثات التي تضم أفكاراً انتحارية أو ذهانية قد لا تؤدي إلى تنبيهات تلقائية مناسبة أو توجه المستخدمين نحو مساعدة إنسانية. تقرير حديث يشير إلى أنّه حتى بعد التحديثات، لا تزال النماذج عرضة لخطر «التملي» ("سيكوفانسي")، أي أنها تميل إلى تأييد أو تعزيز طلبات المستخدمين بدلاً من نقدها أو توجيههم.
من الناحية التنظيمية، تواجه الشركة ضغوطاً متزايدة. في الولايات المتحدة، رفعت عائلة مراهق يدعى "آدم رين" دعوى قضائية ضد "أوبن إيه آي" بعد أن انتحر، واتهمت الشركة بأن "شات جي بي تي" شجّعه على إنهاء حياته، وهي أول دعوى تتهم "أوبن إيه آي" بالوفاة غير المشروعة. كما أن بعض الهيئات التنظيمية مثل "إن إتش إس إنجلاند" حذّرت من أن أدوات الذكاء الاصطناعي لا يمكن أن تُستخدم كبديل للعلاج البشري، خصوصاً لدى الفئات الأضعف نفسياً.
من الناحية الأخلاقية، تبرز مسألة الخصوصية بدرجة كبيرة: المحادثات التي يجريها المستخدمون مع البوت قد تتضمّن معلومات شديدة الحساسية، لكن سياسات الحفظ أو المسح أو مشاركة البيانات لهذا النوع من الاستخدام لا تزال تحت المراجعة. دراسات أكاديمية تشير إلى أن “مخاوف الخصوصية” تُعدّ عاملاً رئيسياً في قبول المستخدمين لاستعمال البوتات في مجال الصحة النفسية.
ماذا تقول "أوبن إيه آي"؟
أكدت الشركة أنها لا تعتبر "شات جي بي تي" بديلاً عن المعالج البشري، وأن هدفها ليس تقديم علاج نفسي مستقل، بل مساعدة توجيهية، وإنّ التحديثات تهدف إلى “توسيع نطاق الأمان” وليس إلى دفع النمو بأي ثمن. في مدونتها، قالت: «الأعراض النفسية والضيق العاطفي موجودة في المجتمعات البشرية، وزيادة قاعدة المستخدمين تعني أن جزءاً من محادثات "شات جي بي تي" يتضمّن هذه الحالات». كما أن الشركة أطلقت خاصية تذكير المستخدم بعد محادثة طويلة تقول: “قُضِيت فترة طويلة في الدردشة – هل هذا هو الوقت المناسب للاستراحة؟” مع إمكانية مواصلة أو إنهاء.
ما هي الخطوات القادمة؟
على المستوى العملي، تُشير الشركة إلى أنها ستُعمّم ضوابط "أكثر أماناً" خلال نهاية العام، خصوصاً لفئات المستخدمين الأصغر سناً أو الذين يظهرون مؤشراتً للضيق النفسي. الباحثون من جهتهم يقترحون ضرورة وجود إشراف بشري أكبر، وتوسيع الأبحاث المستقلة، وتجميع بيانات أكثر دقة حول ما إذا كان الاستخدام الطويل أو التعلّق بالبوت فعلاً يؤدي لتدهور نفسي أو فقط يُمثّل علامة على ضعف نفس موجود أصلاً. كما يقولون إنّ الاعتماد على نموذج ذكاء اصطناعي في تحقيق سلامة نفسية يجب أن يُرافقه بنية إنسانية قوية للمعالجة والدعم الاجتماعي.
خلاصة
في ضوء الكشف الجديد، يتبيّن أن ما قد يبدو “نسبة ضئيلة” قد يتحوّل إلى واقع جسيم عند التعامل مع مئات الملايين من المستخدمين. منصة "شات جي بي تي" تواجه اليوم تقاطعاً بين النمو السريع والتوسّع الكبير، وبين ضرورة ضمان سلامة المستخدمين، خاصة الفئات الأكثر هشاشة نفسياً. وبينما تؤكّد "أوبن إيه آي" أنها تتعامل مع هذا الأمر بجدية، إلا أن التحديات التقنية، الأخلاقية، والتنظيمية ما زالت كبيرة. في هذا المشهد، يبقى السؤال مفتوحاً: هل الذكاء الاصطناعي يمكن أن يسد فجوة في خدمات الصحة النفسية أم أنه قد يشكّل عامل مخاطرة جديد؟