كتب : يسرا عبدالعظيم
تقرير: مليون مستخدم يظهرون نية انتحارية أسبوعيًا أثناء استخدام ChatGPT
كشفت تقارير صحفية حديثة أن نحو مليون مستخدم يُظهرون نوايا انتحارية أثناء استخدامهم لخدمة الدردشة الذكية ChatGPT أسبوعيًا، في مؤشر يثير القلق بشأن تأثير الذكاء الاصطناعي على الصحة النفسية للمستخدمين.
ووفقًا لما نقلته وسائل إعلام أمريكية، فقد استعانت شركة OpenAI المطوِّرة لتقنية ChatGPT بـ فريق من الأطباء وخبراء الصحة النفسية، بهدف تحسين أداء النموذج وتطوير استجاباته للمستخدمين الذين يعبّرون عن حالات اكتئاب أو ميول انتحارية.
وذكرت المصادر أن هذه الخطوة تأتي في إطار مسؤولية الشركة الاجتماعية والأخلاقية تجاه مستخدميها، خصوصًا مع الارتفاع الملحوظ في أعداد الأشخاص الذين يعبرون عن مشاعر اليأس أو الحزن أثناء تفاعلهم مع أنظمة الذكاء الاصطناعي.
ويعمل الفريق الطبي بالتعاون مع مهندسي الذكاء الاصطناعي على وضع آليات متقدمة لرصد الكلمات والأنماط الخطيرة في المحادثات، وتقديم ردود داعمة وتوجيه المستخدمين إلى مصادر المساعدة النفسية الفورية عند الحاجة.
ويُذكر أن ChatGPT يُستخدم من قِبل مئات الملايين حول العالم في مجالات متعددة، منها التعليم والعمل والترفيه والدعم النفسي غير الرسمي، ما يجعل من ضمان الأمان الرقمي والنفسي أولوية قصوى للشركة المطوِّرة.


