كتب : يسرا عبدالعظيم
تقييم أمني إلزامي قبل إطلاق أي ميزات ذكاء اصطناعي تحاكي البشر
أعلنت هيئة الفضاء الإلكتروني الصينية عن مسودة قواعد جديدة تهدف إلى تنظيم استخدام تقنيات الذكاء الاصطناعي التي تحاكي البشر وتُظهر سلوكًا شبيهًا بالتفاعل الإنساني، تتضمن تقييمًا أمنيًا إلزاميًا قبل إطلاق أي ميزة من هذا النوع في السوق.
وتركز المسودة على وضع معايير صارمة للأمان، الأخلاق، والشفافية في المنتجات والخدمات التي تعتمد على الذكاء الاصطناعي المحاكي للبشر، وذلك في ظل الانتشار السريع لهذه التقنيات وإمكانية تأثيرها على الأفراد والمجتمع.
تقييم أمني إلزامي
تشترط المسودة على مزوّدي خدمات الذكاء الاصطناعي إجراء تقييمات أمنية شاملة قبل طرح أي ميزة تعتمد على تقليد السلوك البشري، وذلك للتأكد من:
سلامة الخوارزميات وقدرتها على العمل المعتدل
حماية البيانات الشخصية للمستخدمين
عدم التسبب في مخاطر نفسية أو اجتماعية
الالتزام بمبادئ أخلاقية واضحة في التعامل مع المستخدمين
وتُعد هذه الخطوة جزءًا من جهود أوسع لضمان أن تكون تقنيات الذكاء الاصطناعي آمنة ومسؤولة قبل دخولها إلى حياة المستخدمين، خاصة في السياقات التي تبدو فيها الأنظمة “شبيهة بالبشر” في التواصل أو اتخاذ القرارات.
لماذا هذا التنظيم مهم؟
التطورات المتسارعة في الذكاء الاصطناعي المحاكي للبشر أثارت مخاوف بشأن سلامة المستخدمين، خصوصًا عند استخدام هذه التكنولوجيا في خدمات دردشة، دعم نفسي، أو واجهات تفاعلية تشبه الإنسان. تنظيم هذه الأنظمة قبل إطلاقها يساعد في تقليل المخاطر المرتبطة بالاعتماد المفرط، الاستغلال الأخلاقي، وسوء استخدام البيانات.
كما تشدد المسودة على توفير تحذيرات واضحة للمستخدم عندما يتعامل مع نظام ذكاء اصطناعي يحاكي الإنسان، لضمان وعيهم بطبيعة الخدمة وعدم الخلط بينها وبين التفاعل البشري الحقيقي.
هذا التطور التنظيمي يعكس اتجاهًا عالميًا متزايدًا نحو ضبط استخدام الذكاء الاصطناعي وضمان تطوره بشكل آمن ومسؤول، في وقت تتوسع فيه هذه التقنيات لتشمل مجالات متعددة في حياتنا اليومية.


