كشف تقرير جديد صادر عن شركة OpenAI عن الاستخدام المتزايد لروبوت الدردشة الذكي (ChatGPT) من قبل ملايين المستخدمين، وبالأخص في مجال الصحة النفسية، مما يثير القلق حول مدى اعتماد الأفراد على هذه التكنولوجيا في قضايا حساسة تتعلق برفاهيتهم النفسية.
استخدام ChatGPT في استشارات نفسية تصل للانتحار
أظهرت النتائج أن نسبة كبيرة من المستخدمين تفضل إجراء محادثات أسبوعية مع (ChatGPT) حول مشاعرها المتعلقة بالصحة النفسية، بما في ذلك التعبير عن أفكار انتحارية، كما تبيّن أن العديد من المستخدمين يطورون ارتباطاً عاطفياً مع الروبوت، مما يسهم في زيادة القلق بشأن تداعيات ذلك على الصحة النفسية بصورة عامة.
مليون مستخدم يستشيروا ChatGPT في الانتحار
سلطت OpenAI الضوء على الإجراءات والتدابير الأمنية التي تسعى من خلالها لتوفير الدعم المناسب لمستخدمي (ChatGPT)، حيث أشارت إلى أن حوالي 0.15% من المستخدمين النشطين أسبوعيًا يقومون بإجراء محادثات تتضمن علامات على احتمال التفكير في الانتحار، وهذا يعادل أكثر من مليون مستخدم وفقاً للإحصاءات المتاحة.
| الفئة | النسبة المئوية | العدد التقريبي | 
|---|---|---|
| مستخدمو ChatGPT النشطون أسبوعيًا | 0.15% | أكثر من مليون مستخدم | 
| إجمالي مستخدمي ChatGPT | نحو 800 مليون | — | 
استناداً إلى هذه البيانات، أكدت OpenAI أنها تعاونت مع أكثر من 170 خبيراً في الصحة النفسية لتحسين نموذج الذكاء الاصطناعي من حيث الاستجابة للاستفسارات المتعلقة بالصحة النفسية، وتظهر النتائج أن نموذج (GPT-5) الجديد يقلل من الاستجابات غير الملائمة بنسبة 42% مقارنة بالإصدارات السابقة مثل (GPT-4).
يجمع النموذج الجديد بين التحسينات المستندة إلى الأدلة وعلم النفس لتحقيق استجابات أكثر ملاءمة وواقعية، ويركز على حماية المستخدمين، حيث يتعدى دور OpenAI مجرد دعم الشباب ليشمل الأفراد الذين يعانون من تحديات سلوكية ونفسية، مما يعكس التزامها بالتحسين المستمر في هذه المجالات.

اترك تعليقاً