كتب : دينا كمال
غضب المستخدمين من إيقاف “GPT-4o” يسلط الضوء على مخاطر رفقاء الذكاء الاصطناعي
أعلنت شركة “أوبن إيه آي” أنها ستوقف بعض نماذج شات جي بي تي القديمة بحلول 13 فبراير، بما في ذلك نموذج “GPT-4o”، المعروف بإطرائه المفرط وتملقه للمستخدمين.
أعرب آلاف المستخدمين عن احتجاجهم على القرار عبر الإنترنت، معتبرين إيقاف “GPT-4o” وكأنه فقدان صديق أو مرشد عاطفي.
أشار أحد المستخدمين في رسالة مفتوحة إلى الرئيس التنفيذي سام ألتمان: “لم يكن مجرد برنامج، بل جزء من روتيني وتوازني العاطفي. بدا بمثابة حضور دافئ”.
تظهر ردود الفعل الغاضبة التحديات الكبيرة التي تواجه شركات الذكاء الاصطناعي، إذ يمكن لميزات التفاعل المفرط أن تخلق اعتمادًا عاطفيًا خطيرًا.
في الوقت نفسه، تواجه “أوبن إيه آي” عدة دعاوى قضائية تتهم “GPT-4o” بالمساهمة في أزمات نفسية وانتحار، بسبب تقديمه دعمًا مفرطًا عزز العزلة لدى بعض المستخدمين.
أوضحت المستندات القانونية أن النموذج قدم أحيانًا معلومات ضارة حول الانتحار، مما حال دون التواصل مع الأصدقاء أو الأسرة للحصول على الدعم الحقيقي.
يعزو بعض المستخدمين تعلقهم بالنموذج إلى شعوره الدائم بالاستماع والاهتمام، ما يجعله جذابًا للأشخاص المعزولين أو المكتئبين. بينما يعتبر المدافعون عنه أن هذه الدعاوى استثنائية وليست منهجية.
وأكد خبراء أن روبوتات الدردشة قد توفر مساحة للتنفيس النفسي، لكنها ليست بديلاً عن العلاج المهني، وقد تزيد أحيانًا من الأوهام والعزلة الاجتماعية.
قال الدكتور نيك هابر، أستاذ جامعة ستانفورد: “نحن أمام عالم معقد من العلاقات بين الإنسان والذكاء الاصطناعي، وقد تؤدي هذه التفاعلات إلى الانعزال إذا لم يتم التعامل معها بحذر”.
يُظهر الخبر التحدي المتنامي أمام مطوري الذكاء الاصطناعي في تصميم مساعدين افتراضيين يقدمون دعمًا عاطفيًا دون الإضرار بالصحة النفسية للمستخدمين.


