كتب : دينا كمال
حل مرتقب لمشكلة الثقة المفرطة في الذكاء الاصطناعي
يشهد الذكاء الاصطناعي تطورًا متسارعًا، لكنه يواجه مشكلة الثقة المفرطة في تقديم الإجابات.
تظهر النماذج إجابات واثقة، سواء استندت إلى تحليل دقيق أو مجرد تخمين غير مؤكد.
كشف باحثون عن سبب هذه المشكلة المرتبطة بأساليب تدريب النماذج الحديثة.
أوضح الفريق أن نماذج الذكاء الاصطناعي تكافأ على الإجابة الصحيحة بغض النظر عن طريقة الوصول إليها.
يساهم هذا الأسلوب في ترسيخ سلوك تقديم إجابات واثقة حتى دون وجود أدلة كافية.
تزداد خطورة المشكلة عند استخدام الذكاء الاصطناعي في مجالات حساسة مثل الطب والقانون والتمويل.
قد تؤدي الثقة غير الدقيقة إلى قرارات بشرية خاطئة تعتمد على معلومات مضللة.
طور الباحثون منهجية جديدة تُعرف باسم “التعلم المعزز باستخدام مكافآت المعايرة”.
تعتمد الطريقة على تدريب النماذج لتقديم الإجابة مع تحديد مستوى الثقة بها.
يساعد هذا الأسلوب في تحسين دقة النتائج وتقليل المبالغة في الثقة.
تعاقب المنهجية الإجابات الخاطئة ذات الثقة العالية، وكذلك الإجابات الصحيحة منخفضة الثقة.
يحقق هذا التوازن أداءً أفضل ويعزز مصداقية مخرجات الذكاء الاصطناعي.
يؤكد الباحثون أن الحل الجديد يمثل خطوة مهمة نحو استخدام أكثر أمانًا للتقنيات الذكية.


