كتب : دينا كمال
دراسة: نماذج الذكاء الاصطناعي تطلق النكات دون فهم أسباب طرافتها
كشفت دراسة أكاديمية حديثة أن نماذج الذكاء الاصطناعي، مثل “شات جي بي تي” و”جيميني”، رغم قدرتها على صياغة النكات وتقليد بنيتها اللغوية، إلا أنها لا تدرك غالبًا سبب كونها مضحكة، خصوصًا عندما يتعلق الأمر بالتلاعبات اللفظية.
وأوضحت الدراسة أن هذه النماذج تتعامل مع التورية وكأنها محاكاة شكلية؛ إذ تُظهر فهمًا ظاهريًا فقط، من دون وعي فعلي بالمعنى الخفي وراء الكلمة أو تعدد دلالاتها.
وبيّنت الدراسة أن الذكاء الاصطناعي قادر على تكرار النكات التي صادفها أثناء التدريب، لكنه يعجز بوضوح عند مواجهة النكات المبنية على المعاني المزدوجة الدقيقة. وبحسب تقرير متخصص اطلعت عليه الدراسة، فإن النموذج يعتمد على مطابقة الأنماط فحسب، دون إدراك السياق الفكاهي.
وللتحقق من ذلك، أنشأ الباحثون مجموعتي اختبار جديدتين حملتا اسم “PunnyPattern” و”PunBreak”. واستبدلوا في النكات الأصلية كلمات محورية، ما أدى إلى إلغاء المعنى المزدوج مع الإبقاء على البنية. ورغم أن البشر التقطوا فورًا غياب الفكاهة، إلا أن النماذج اللغوية أكدت – بثقة غير مبررة – أن الجمل ما تزال مضحكة، لمجرد أنها تشبه نكات رُصدت في بيانات التدريب.
ويرى الباحثون أن هذا السلوك يعكس محدودية في فهم نماذج الذكاء الاصطناعي للفكاهة الحقيقية، مشيرين إلى أنها تعيد إنتاج شكل النكتة من دون إدراكها. وأكدوا أن إثراء البيانات لن يحل المشكلة، لأن فهم التلاعب اللفظي يتطلب معرفة بطريقة نطق الكلمات، واستيعاب السياق الثقافي الذي يجعل من المفارقة مصدرًا للضحك.
ويخلص الباحثون إلى أن ما يقدّمه الذكاء الاصطناعي من نكات قد يبدو في كثير من الأحيان “فارغًا”، لأنه يفتقر إلى الفهم الصوتي والدلالي الذي يمتلكه البشر بشكل طبيعي.


