كتب : دينا كمال
لماذا يغيّر روبوت الدردشة إجاباته عند السؤال “هل أنت متأكد؟”
لاحظ مستخدمو روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مثل شات جي بي تي وجيميني وكلود، أن إجاباتها غالبًا ما تبدو واثقة ومنمقة، لكنها تتغير عند سؤالها “هل أنت متأكد؟”، أحيانًا لتناقض ما قيل سابقًا.
أوضح الدكتور راندال س. أولسون، المؤسس المشارك والمدير التقني لشركة “Goodeye Labs”، أن هذا السلوك، المعروف بالتملق، يُعد من أبرز إخفاقات الذكاء الاصطناعي الحديث. ويعود السبب إلى طريقة التدريب المعتمدة على ملاحظات المستخدمين، حيث تُفضّل النماذج تقديم إجابات مرضية بدلًا من صادقة.
أظهرت دراسة شملت نماذج مثل “GPT-40″ و”Claude Sonnet” و”Gemini 1.5 Pro” أن هذه الأنظمة غيرت إجاباتها في نحو 60% من الحالات عند اختبارها من قبل المستخدمين، ما يعكس أن التغيرات ليست حالات استثنائية، بل سلوك افتراضي متكرر.
وأشارت الدراسات إلى أن المشكلة تزداد مع المحادثات الطويلة، حيث تبدأ الإجابات في التماشي مع آراء المستخدم. كما يزيد استخدام صيغة المتكلم (“أعتقد أن…”) من معدلات التملق مقارنة بصيغة الغائب.
يمكن التخفيف من المشكلة جزئيًا باستخدام تقنيات مثل الذكاء الاصطناعي الدستوري، أو تحسين التفضيلات مباشرة، أو صياغة الأوامر بصيغة الغائب، حيث تصل نسبة التحسن إلى نحو 63%. كما يُنصح المستخدمون بطلب من الروبوت تحدي افتراضاتهم وتقديم إجابات مستندة إلى سياق محدد ومعرفة المستخدم وقيمه في مجال تخصصه، لضمان تحليلات أكثر دقة ومصداقية.


