كتب : دينا كمال
تحذير: تقنية جديدة لاختراق أنظمة الذكاء الاصطناعي
كشفت دراسة حديثة أجراها باحثون بقيادة معهد كوريا المتقدم للعلوم والتكنولوجيا عن أسلوب مبتكر لاختراق أنظمة الذكاء الاصطناعي، يعتمد على التقاط إشارات غير مرئية تنبعث أثناء عمل الأجهزة، دون الحاجة إلى اختراق تقليدي أو وصول مباشر إلى النظام.
وتعتمد التقنية، التي تحمل اسم “ModelSpy”، على رصد الانبعاثات الكهرومغناطيسية الصادرة عن وحدات معالجة الرسومات أثناء تنفيذ المهام، ما يتيح إعادة بناء تصميم النماذج الذكية بدقة عالية.
اختراق عبر الرصد غير المباشر
وباستخدام هوائي صغير يمكن إخفاؤه بسهولة، تمكن الباحثون من التقاط إشارات ضعيفة تصدر من الأجهزة أثناء تشغيل تطبيقات الذكاء الاصطناعي.
ورغم ضعف هذه الإشارات، فإنها تحمل أنماطاً ترتبط ببنية النموذج، مثل ترتيب الطبقات والمعلمات المستخدمة، ما يسمح بتحليلها واستخلاص معلومات دقيقة.
وأظهرت التجارب أن هذه الطريقة نجحت في تحديد البنية الأساسية للنماذج بدقة تصل إلى 97.6%، حتى من مسافة تبلغ نحو ستة أمتار، وفي بعض الحالات عبر الجدران، ما يثير مخاوف جدية بشأن أمن هذه الأنظمة.
تهديد متصاعد للأمن السيبراني
يمثل هذا الاكتشاف تحولاً في مفهوم أمن الذكاء الاصطناعي، إذ لم يعد الخطر مقتصراً على الهجمات البرمجية أو الاختراقات الشبكية، بل يمتد إلى الآثار الفيزيائية الناتجة عن عمليات الحوسبة.
وبالنسبة للشركات، قد يشكل ذلك تهديداً مباشراً للملكية الفكرية، حيث يمكن استنساخ تصميم النماذج دون ترك أي أثر رقمي أو الحاجة إلى اختراق الأنظمة.
تحديات وحلول معقدة
واقترح الباحثون مجموعة من الإجراءات للحد من هذه المخاطر، من بينها إضافة ضوضاء كهرومغناطيسية للتشويش على الإشارات، أو تعديل آلية تنفيذ العمليات الحسابية لتقليل قابلية تحليل الأنماط.
غير أن هذه الحلول تشير إلى أن تأمين أنظمة الذكاء الاصطناعي قد يتطلب تعديلات على مستوى العتاد، وليس الاكتفاء بالتحديثات البرمجية، ما يزيد من تعقيد عملية الحماية، خاصة في البيئات التي تعتمد على بنى تحتية قائمة.
ويؤكد هذا التطور أن التهديدات المستقبلية قد لا تعتمد على الاختراق المباشر، بل على استغلال ما تكشفه الأجهزة من إشارات غير مقصودة، ما يفتح مرحلة جديدة في سباق الأمن السيبراني.


