كتب : دينا كمال
دراسة: أكواد الذكاء الاصطناعي أكثر عرضة للثغرات الأمنية
أظهرت دراسة حديثة أن الأكواد البرمجية التي يتم توليدها باستخدام أدوات الذكاء الاصطناعي تحتوي على عدد أكبر من المشكلات والثغرات مقارنة بتلك التي يكتبها المطورون البشر.
وبيّنت بيانات صادرة عن شركة CodeRabbit أن متوسط عدد المشكلات في طلبات الدمج (Pull Requests) التي ينتجها الذكاء الاصطناعي بلغ 10.83 مشكلة، مقابل 6.45 مشكلة فقط في الأكواد البشرية.
وكشفت الدراسة أن الكود المولد بالذكاء الاصطناعي يتضمن مشكلات حرجة بنسبة أعلى بمقدار 1.4 مرة، إضافة إلى مشكلات كبرى تزيد بنحو 1.7 مرة مقارنة بالكود التقليدي.
وأوضحت النتائج أن أبرز المشكلات المرتبطة بهذه الأكواد تتركز في الجوانب الأمنية، مثل ضعف إدارة كلمات المرور، واستخدام مراجع غير آمنة، ووجود ثغرات من نوع XSS، إلى جانب مشكلات إلغاء التسلسل غير الآمن.
كما أظهرت البيانات وجود أخطاء في منطق البرمجة والأداء، فضلاً عن مشكلات تتعلق بجودة الكود وقابليته للصيانة والتنظيم.
ورغم هذه المخاطر، أشارت الدراسة إلى أن أدوات الذكاء الاصطناعي ساهمت في تقليل الأخطاء الإملائية بنسبة أقل بـ 1.76 مرة، كما خفضت مشكلات اختبار الكود بمعدل 1.32 مرة.
وقال مدير الذكاء الاصطناعي في CodeRabbit، ديفيد لوكر، إن أدوات الذكاء الاصطناعي تعزز الإنتاجية بشكل ملحوظ، لكنها في الوقت نفسه تُدخل نقاط ضعف متوقعة تتطلب إدارة ومتابعة مستمرة من المؤسسات.
وأكدت الدراسة أن الكود المولد بالذكاء الاصطناعي لا يمكن اعتباره بديلاً كاملاً عن المطورين، بل يحتاج إلى مراجعة بشرية دقيقة لضمان الأمان والجودة.
وفي المقابل، لفتت إلى أن الذكاء الاصطناعي يظل أداة فعالة لتسريع المهام المتكررة وتحسين الإنتاجية في المراحل الأولية من التطوير، مع تحوّل دور المطورين نحو الإشراف والمراجعة بدلاً من كتابة الكود بالكامل.
واختتمت الدراسة بالإشارة إلى أنه مع تطور نماذج الذكاء الاصطناعي، من المتوقع أن تنخفض معدلات الأخطاء تدريجياً، إلا أن المراجعة البشرية ستبقى ضرورة أساسية للحفاظ على جودة وأمن البرمجيات.


