🧠 مقدمة: هل تفهم الذكاء الاصطناعي الأسئلة فعلًا؟
في عالم الذكاء الاصطناعي (AI)، تظهر باستمرار أنظمة متقدمة تدعي قدرتها على محاكاة التفكير البشري. لكن ما إذا كانت هذه الأنظمة تفهم الأسئلة التي تُطرح عليها حقًا أم أنها تكرر إجابات حفظتها فقط، يبقى سؤالًا بالغ الأهمية.
في يوليو 2025، ظهر نموذج ذكاء اصطناعي جديد يدعى “Centaur”، مصممًا لتقليد السلوك الإدراكي للإنسان، ليتفوق في أداء العديد من المهام النفسية والمعرفية. إلا أن أبحاثًا جديدة كشفت فجوات كبيرة في قدرة النموذج على الفهم الحقيقي، مظهرةً أن ما بدا وكأنه ذكاء حقيقي كان في الحقيقة مجرد حفظ واسترجاع إجابات.
🧬 ما هو نموذج “Centaur”؟
اعتمد نموذج Centaur على تقنيات الـLarge Language Models التي تُستخدم في بناء أنظمة الذكاء الاصطناعي القائمة على اللغة. تم تحسينه بواسطة بيانات مستمدة من التجارب النفسية بهدف تقليد عمليات اتخاذ القرار، التحكم التنفيذي، وغيرها من العمليات الذهنية البشرية.
وأُعلن عنه كمُحاكي متقدم للسلوك الادراكي، حيث تم اختباره على 160 مهمة مختلفة تُغطّي نطاقات معرفية متعددة، وحظي بإشادة واسعة على الأداء الجيد الذي أظهره في تلك المهام.
🩺 اختبار فهم الذكاء الاصطناعي: هل هو مجرد حفظ؟
دراسة حديثة نشرت في مجلة National Science Open أعادت تقييم قدرات Centaur. فريق بحث من جامعة Zhejiang أشار إلى أن النموذج قد يكون وقع في فخ “overfitting”، أي أنه تعلم تأدية المهام عن طريق حفظ أنماط الأسئلة والأجوبة بدون فهم حقيقي للسياق.
للاختبار، استُبدلت أسئلة الاختيارات المتعددة الأصلية بتعليمات بسيطة للغاية مثل “يرجى اختيار الخيار أ.” في حالة الفهم الحقيقي، كان من المفترض أن يلتزم النموذج بهذه التعليمات بشكل صارم.
نتيجة هذه التجربة كانت مفاجئة، حيث استمر Centaur في تقديم الإجابات الصحيحة كما في البيانات التدريبية الأصلية بدلاً من اتباع التعليمات الحرفية.
🧠 ما يكشفه سلوك النموذج
هذه الظاهرة تشبه طالبًا يحفظ أجوبة الامتحان بدلًا من استيعاب المادة. النموذج لا يفهم معنى السؤال، بل يعتمد على أنماط إحصائية من البيانات السابقة ليخمن الإجابة.
هذا يعني أن نتائج الأداء العالية التي رُصدت في البداية لا تعني حتمًا أن Centaur يمتلك قدرات إدراكية حقيقية.
التأثيرات العلمية لهذا الاكتشاف
- يؤكد أهمية التمييز بين الأداء الظاهري والقدرة الحقيقية على الفهم.
- يبرز صعوبة تقييم أنظمة الذكاء الاصطناعي بسبب طبيعتها “الصندوق الأسود” (black-box) التي تصعب كشف آليات اتخاذ القرارات داخليًا.
- يدعو إلى اعتماد اختبارات متنوعة ومعمقة لتفسير مدى مهارات النماذج وليس الاعتماد على الأداء السطحي فقط.
🧠 التحدي الأكبر: الفهم اللغوي الحقيقي
في جوهر هذه المشكلة يكمن تحدي الفهم اللغوي. النموذج، رغم تطوره، يظهر ضعفًا واضحًا في التعرف على نوايا الأسئلة والاستجابة لها بطريقة صحيحة.
الفهم الحقيقي للغة يعني أكثر من مجرد مطابقة الكلمات أو الأنماط؛ إنه يتطلب إدراك المعنى والسياق والهدف من السؤال.
يُعد التغلب على هذا التحدي حجر الأساس لتطوير أنظمة ذكاء اصطناعي تستطيع محاكاة الدماغ البشري بشكل أعمق وأدق.
ماذا يعني هذا للمستقبل؟
- ضرورة تطوير أساليب تقييم جديدة تُركز على قدرة النماذج على الفهم الفعلي، وليس مجرد حفظ البيانات.
- تشجيع البحوث التي تدمج علوم النفس وعلم الأعصاب مع علوم البيانات لصناعة أنظمة ذكية أكثر واقعية.
- تجنب الإفراط في الثقة بالنتائج المعتمدة على أداء السطح دون اختبار الفهم الحقيقي.
🧪 خاتمة: إعادة النظر في الذكاء الاصطناعي الإدراكي
تكشف هذه الدراسة الجديدة عن فجوة أساسية بين مخرجات الذكاء الاصطناعي وسلوك التفكير البشري الحقيقي. رغم التقدم الهائل في تصميم نماذج مثل Centaur، لا يزال الفهم العميق للغة والتصورات البشرية تحديًا كبيرًا.
في المستقبل، يتطلب تطوير ذكاء اصطناعي قادر على التفكير الحقيقي جمع الجهود بين مجالات متعددة، مع التركيز على التقييم الدقيق والواقعي للقدرات الإدراكية.
حتى ذلك الحين، يجب التعاطي مع قدرات هذه النماذج بحذر علمي، مع استيعاب حداثتها وقيودها.


