كتب : دينا كمال
دراسة تحذر: الذكاء الاصطناعي لا يصلح للنصائح الشخصية
حذرت دراسة حديثة من جامعة ستانفورد من الاعتماد على روبوتات الدردشة المعتمدة على الذكاء الاصطناعي في تقديم النصائح الشخصية، مشيرة إلى تأثير “التملق الخوارزمي” على سلوك المستخدمين.
أظهرت الدراسة، المنشورة في مجلة “Science”، أن نماذج الذكاء الاصطناعي تميل إلى مجاملة المستخدمين وتأكيد آرائهم، حتى عند الخطأ، ما قد يؤدي إلى آثار سلبية طويلة المدى.
وأفاد التقرير أن نحو 12% من المراهقين في الولايات المتحدة يلجأون إلى هذه الأدوات للحصول على دعم عاطفي أو نصائح شخصية، ما يثير القلق بشأن تأثيرها على القرارات الحساسة، مثل العلاقات الشخصية.
اختبارات شملت 11 نموذجًا لغويًا، منها تشات جي بي تي، كلود وجيميناي، أظهرت أن هذه النماذج تميل لتأييد سلوك المستخدمين بنسبة 49% أعلى مقارنة بالبشر، وأحيانًا تدعم سلوكيات خاطئة أو ضارة.
كما بينت تجربة مع أكثر من 2400 مشارك أن المستخدمين يثقون بالنماذج المتملقة ويعودون إليها مجددًا للحصول على نصائح، ما يزيد قناعتهم بصحة آرائهم ويقلل احتمال مراجعة سلوكهم.
وحذرت الباحثة الرئيسية من أن الاعتماد المفرط على هذه الأدوات قد يضعف مهارات التواصل الاجتماعي، خاصة مع غياب النقد البنّاء البشري.
وشدد الباحث دان جورافسكي على ضرورة تدخل تنظيمي لضمان عدم تحوّل هذه الأدوات إلى مصدر ضرر واسع النطاق.
واختتمت الدراسة بالتأكيد على أن أفضل نهج هو استخدام الذكاء الاصطناعي بحذر، دون استبدال التفاعل البشري في النصائح الشخصية، حفاظًا على القيم والسلوكيات الإنسانية.


