🧠 هل تفهم الذكاء الاصطناعي أسئلة الإنسان حقًا؟ استكشاف جديد يكشف التفريق بين حفظ المعلومات والفهم الحقيقي
شهد المجال العلمي خلال السنوات الماضية تطورًا سريعًا في أنظمة الذكاء الاصطناعي، خصوصًا في نماذج اللغة الكبيرة (Large Language Models) التي أصبحت قادرة على أداء مهام معقدة. مع ذلك، تساءل علماء في النفس والذكاء الاصطناعي عما إذا كانت هذه النماذج تفهم فعليًا المحتوى الذي تتعامل معه، أم أنها فقط تحفظ إجابات متوقعة بدون استيعاب عميق.
مؤخرًا، أظهرت دراسة جديدة أن نموذج ذكاء اصطناعي متقدم يُدعى “Centaur” الذي زُعم أنه يحاكي السلوك المعرفي البشري، قد يقدم نتائج جيدة بسبب تذكر الأنماط بشكل آلي وليس بفهم حقيقي للأسئلة.
🧬 نموذج “Centaur”: محاولة لمحاكاة العقل البشري
في يوليو 2025، نُشرت دراسة في مجلة Nature قدمت نموذج “Centaur”، المبني على تقنيات تعليم عميق متقدمة تعتمد على البيانات النفسية والتجارب المعرفية.
أُنشئ هذا النموذج ليُحاكي وظائف الدماغ المتنوعة، مثل اتخاذ القرار والتحكم التنفيذي، ونُفّذ عليه أكثر من 160 مهمة معرفية مختلفة. نجاحه في أداء هذه المهام جعل الكثيرين يرونه قفزة نحو ذكاء اصطناعي قادر على محاكاة التفكير البشري.
🔎 دراسة جديدة تُعيد النظر في نتائج “Centaur”
مع ذلك، أظهرت دراسة أخرى نشرت في مجلة National Science Open من جامعة تشجيانغ، شكوكاً حول هذه النتائج.
وفقا للباحثين، قد يكون نموذج “Centaur” ضل طريقه؛ فهو لم يفهم المهام التي طُلبت منه، بل تعلم فقط ملاحظات دقيقة من البيانات التي تدرب عليها، أو ما يُعرف بـoverfitting.
في اختبارات جديدة، بدل الباحثون الأسئلة الأصلية التي وصفت المهام المعرفية، وأوكلوا إلى النموذج مهمة “اختر الخيار A فقط”. فإذا كان يفهم الأسئلة بصدق، كان يجب أن يختار دائماً الخيار A. لكن النموذج استمر في تقديم الإجابات الأصلية التي تعلّمها، مما يكشف عن اعتماده على حفظ أنماط الإجابة بدلاً من الفهم.
🩺 ماذا تعني هذه النتائج لتقييم الذكاء الاصطناعي؟
يكشف التحدي في تقييم الذكاء الاصطناعي عما يسمى بطبيعة النماذج كصناديق سوداء (black-box)، حيث يُصعب معرفة كيفية وأسباب اختيار الإجابات من قبل النموذج.
من هنا، تظهر مخاطر الاعتماد فقط على نتائج الأداء الظاهري، إذ يمكن أن يؤدي ذلك إلى:
- استخدام نماذج تُولّد إجابات صحيحة دون تفسير أو فهم.
- ظهور ظواهر مثل الهلوسة (hallucinations) أو الأخطاء الناتجة عن سوء تفسير البيانات.
- تضليل الباحثين أو المستخدمين بافتراض قدرات معرفية غير حقيقية.
لذا، يؤكد الخبراء على ضرورة وضع منصات اختبار متنوعة ومنهجيات شفافة تسمح بفحص الإدراك العملي لكل نموذج ذكاء اصطناعي، لا مجرد قياس دقته في التمرينات المعروفة.
🌱 الفهم اللغوي.. التحدي الأكبر للنماذج المعرفية
أوضح البحث أن النقطة الأضعف لدى نموذج “Centaur” تكمن في استيعاب اللغة وفهم نية الأسئلة (intent recognition). فقد أثبت أنه صعب عليه استيعاب المعنى الحقيقي وراء الصياغة اللغوية، وهذا الفشل في الفهم يمثل عائقًا كبيرًا أمام محاكاة الذكاء البشري الحقيقي.
فهم اللغة يتطلب قدرةً على تحليل السياق، والتمييز بين الأهداف، وإدراك الغرض من السؤال، وهي قدرات لا تتوفر بالكامل في “Centaur”.
🧪 كيف نقرأ المستقبل بالعلاقة بين الذكاء الاصطناعي وعلم النفس؟
يطرح هذا النقاش العلمي أسئلةً أوسع حول قدرة الذكاء الاصطناعي على محاكاة الوظائف المعرفية البشرية، وعمّا إذا كانت النماذج الحديثة تعكس فعلاً آليات الذهن، أو مجرد تحليل إحصائي للبيانات.
كما يستفاد من هذا البحث في علم النفس، الذي لطالما حاول تحديد ما إذا كان يجب دراسة الوظائف المعرفية مثل الانتباه (attention) والذاكرة (memory) بمعزل عن بعضها، أو في إطار شامل.
الذكاء الاصطناعي اليوم يسهم في فتح آفاق جديدة لفهم هذه الوظائف، لكنه في الوقت نفسه يظهر حدود معرفتنا الحقيقية بتعقيد الدماغ البشري.
🧠 الطرق المستقبلية لتحسين تقييم الذكاء الاصطناعي
لتجاوز قيود النماذج الحالية، يقترح الباحثون تطوير معايير جديدة لاختبار القدرات المعرفية تشمل:
- اختبارات تحاكي سيناريوهات جديدة بعيدًا عن بيانات التدريب الأصلية.
- اختبار فهم النية والسياق خلف الأسئلة، وليس فقط معرفة الأجوبة.
- تصميم أساليب تقييم متنوعة تدمج مفاهيم من علم النفس المعرفي.
هذه الأدوات قد تساعد في تصحيح مسار تصميم الذكاء الاصطناعي، وتوجيهه نحو نماذج أكثر قربًا من الفهم الإنساني الحقيقي.
🌐 خلاصة
بينما يقدم الذكاء الاصطناعي إمكانات هائلة لمحاكاة العمليات المعرفية البشرية، تكشف الدراسات الحديثة أن هذه النماذج قد تعتمد بشكل رئيسي على حفظ الأنماط دون فهم حقيقي للمعنى. نموذج “Centaur” يمثل حالة اختبارية وعبرة هامة في هذا المجال، تبرز الحاجة إلى تطوير اختبارات أعقد وأعمق لفهم قدرات الذكاء الاصطناعي.
إن تعزيز الفهم الحقيقي للغة والمعاني هو المفتاح لتجاوز حدود النماذج الحالية، ما يفتح الباب أمام مستقبل أكثر دقة وموثوقية في تطبيقات الذكاء الاصطناعي داخل العلم والصحة.


