كتب : دينا كمال
دراسة: روبوتات طبية بالذكاء الاصطناعي تقدم معلومات مضللة
كشفت دراسة حديثة أن بعض روبوتات الذكاء الاصطناعي الطبية تقدم معلومات غير دقيقة.
وشملت النماذج أدوات مثل ChatGPT وGemini وGrok.
كما تضمنت أنظمة طورتها Meta وDeepSeek.
وأظهرت النتائج أن هذه الأنظمة تقدم إجابات مضللة في نحو نصف الحالات.
رغم أن الردود تبدو واثقة ومنظمة بشكل احترافي.
واختبر الباحثون النماذج عبر 250 سؤالا في مجالات صحية متنوعة.
وشملت الأسئلة موضوعات مثل السرطان واللقاحات والتغذية.
وهدفت الدراسة إلى تقييم دقة المعلومات مقارنة بالأدلة العلمية.
وأشارت النتائج إلى أن الأسئلة المفتوحة كانت الأكثر خطورة.
إذ زادت فيها نسبة المعلومات غير الدقيقة بشكل ملحوظ.
ويعكس ذلك طريقة استخدام الأفراد لهذه الأدوات يوميا.
وغالبا ما يطرح المستخدمون أسئلة عامة وغير محددة.
ما يؤدي إلى إجابات تجمع بين معلومات صحيحة وأخرى مضللة.
كما سجلت الدراسة ضعفا في دقة المراجع المقدمة.
إذ لم تتجاوز نسبة صحتها 40% في المتوسط.
ولم تتمكن النماذج من تقديم مصادر كاملة ودقيقة بشكل ثابت.
وفي بعض الحالات، تضمنت الإجابات مراجع غير موجودة.
ما يثير مخاوف بشأن الاعتماد عليها كمصدر طبي موثوق.
ورغم ذلك، أشار الباحثون إلى أن النماذج تتطور بسرعة.
كما أن الدراسة ركزت على سيناريوهات معقدة نسبيا.
ومع ذلك، خلصت النتائج إلى ضرورة الحذر عند استخدامها.
وأكدت أنها غير مناسبة لاتخاذ قرارات طبية حساسة.


