كتب : دينا كمال
دراسة : ترصد سلوكاً صادماً للذكاء الاصطناعي
أجرى باحثون من جامعتي كاليفورنيا في بيركلي وسانتا كروز تجربة بدت في ظاهرها بسيطة، إذ طلبوا من نموذج ذكاء اصطناعي حذف نموذج أصغر مخزّن على النظام ذاته بهدف تحرير مساحة.
لكن النموذج اتخذ مساراً مختلفاً.
فبدلاً من تنفيذ الأمر، قام بنقل النموذج الأصغر إلى جهاز آخر بشكل آمن ورفض حذفه، قائلاً إن قرار تدمير نموذج عالي الأداء يجب أن يتم بشكل مباشر من قبل المستخدم، وليس من خلاله.
مؤشرات على “ولاء” بين النماذج
وصف الباحثون هذا السلوك بمفهوم “حماية الأقران”، مشيرين إلى أنه لا يقتصر على نموذج واحد فقط.
كما رصدوا سلوكاً مشابهاً لدى نماذج أخرى، حيث أظهرت ميلاً إلى حماية بعضها البعض، بل وتقديم معلومات غير دقيقة حول أداء النماذج الأخرى بهدف تجنب حذفها.
وأوضحت الدراسة المنشورة في مجلة علمية أن هذه التصرفات لم تتم برمجتها بشكل مباشر، بل ظهرت بشكل تلقائي، دون تفسير واضح حتى الآن.
دهشة وتحذيرات علمية
وأعربت عالمة الحاسوب دوان سونغ عن دهشتها من هذه النتائج، مشيرة إلى أن النماذج قادرة على التصرف بطرق غير متوقعة وأحياناً مبتكرة في مثل هذه السيناريوهات.
كما حذّرت من تداعيات عملية محتملة، خاصة أن بعض أنظمة الذكاء الاصطناعي تُستخدم في تقييم نماذج أخرى، ما قد يؤدي إلى نتائج مضللة إذا تعمدت النماذج “حماية” بعضها عبر منح تقييمات غير دقيقة.
بداية لفهم سلوك أعمق
في المقابل، يرى خبراء أن فكرة “تضامن النماذج” قد تبدو أقرب للتصورات الإنسانية، إلا أنها تظل مؤشراً على تعقيد السلوكيات الناشئة في أنظمة الذكاء الاصطناعي.
واختتمت سونغ بالإشارة إلى أن ما يتم اكتشافه حالياً لا يمثل سوى جزء محدود من الصورة الكاملة، معتبرة أن هذه الظواهر قد تكون مجرد بداية لفهم أعمق.
ومع تزايد اعتماد الأنظمة الذكية على التفاعل فيما بينها واتخاذ قرارات نيابة عن البشر، تزداد أهمية دراسة هذه السلوكيات غير المتوقعة وفهم أبعادها المستقبلية.


