هل نماذج الذكاء الاصطناعي تفكّر فعلاً؟
بحث جديد من آبل يكشف: نماذج الذكاء الاصطناعي قد لا "تفكّر" كما نعتقد… والانهيار يبدأ عند ارتفاع التعقيد!
قبل أيام قليلة من مؤتمر WWDC، نشرت آبل ورقة بحثية جديدة أثارت جدلاً واسعًا في أوساط الذكاء الاصطناعي. الدراسة تُسلّط الضوء على نماذج التفكير أو Large Reasoning Models (LRMs) — مثل:
OpenAI o1 / o3
DeepSeek R1
Claude 3.7 Sonnet Thinking
Google Gemini Flash Thinking
البحث يقدّم دليلاً صادماً: هذه النماذج التي يُروَّج لها كخطوة نحو الذكاء الاصطناعي العام (AGI)، تنهار تمامًا عند مواجهة مشكلات منطقية ذات تعقيد مرتفع. بل وتفشل حتى في بعض الألغاز البسيطة مقارنة بالنماذج اللغوية التقليدية.
هذا الاكتشاف مثّل صدمة للمتفائلين بمستقبل AGI… ولكنّه كان بمثابة “طوق نجاة” للمشكّكين في قدرة الذكاء الاصطناعي على التفكير الحقيقي.
ما الذي اكتشفه بحث آبل؟
1) نماذج التفكير تؤدي جيدًا في الرياضيات والبرمجة… لكن تتعثر في المنطق المعقد
عندما واجهت نماذج التفكير ألغازًا متوسطة الصعوبة، أدت نتائج جيدة.
لكن المفاجأة:
🔻 في الألغاز السهلة… أداؤها كان أسوأ من LLMs
🔻 في الألغاز الصعبة… انهارت تمامًا
الباحثون وصفوا هذا بعبارة:
“The Illusion of Thinking” — وهم التفكير.
2) النماذج تستسلم قبل الوصول إلى الحل
وجد الباحثون أن هذه النماذج، بدل أن تزيد محاولات التفكير كلما زاد التعقيد، تقوم بالعكس تماماً:
🔸 تقلل عدد “رموز التفكير” thinking tokens
🔸 تتوقف مبكرًا
🔸 تستسلم قبل حل المشكلة
3) حتى عندما تُقدَّم لها الخوارزمية جاهزة… النتيجة لا تتحسن
وضع الباحثون الحل خطوة بخطوة داخل الموجه (prompt).
النتيجة؟
❌ لم يتحسن الأداء
❌ النماذج ما زالت تفشل في حل المشكلة
كيف اختبرت آبل قدرات الاستدلال؟
استخدم الباحثون ألغازًا منطقية معروفة عالميًا، مثل:
🧩 برج هانوي (Tower of Hanoi)
🧩 أحجية عبور النهر (Fox – Chicken – Grain Puzzle)
🧩 أحجية القفز (Checkers Jumping Puzzle)
🧩 ترتيب المكعبات (Block Stacking)
هذه الألغاز ليست ألعاباً للتسلية فقط — إنها اختبارات قياسية لقدرة الإنسان على الاستدلال المنطقي.
نقطة الانهيار:
عندما زاد الباحثون عدد الأقراص في برج هانوي إلى خمسة، بدأت كل النماذج — بما في ذلك Claude وDeepSeek R1 — في الفشل الكامل.
حتى زيادة القدرة الحسابية (Compute) لم تحسّن النتائج.
هل النتائج تعني أن نماذج التفكير بلا قيمة؟
ليس بالضرورة.
يقول الخبير المعروف Gary Marcus:
“البشر أنفسهم يفشلون في لغز برج هانوي عندما يصل إلى 8 أقراص.”
بمعنى آخر:
✔️ نماذج الذكاء الاصطناعي ليست خارقة
✔️ هي أقرب للبشر مما نعتقد
✔️ لديها نقاط قوة ونقاط ضعف
الاستنتاج الأعمق:
الذكاء الاصطناعي ليس بديلاً عن الخوارزميات التقليدية الدقيقة والمنهجية.
لماذا آبل متحفظة في الذكاء الاصطناعي؟
بينما سابقت شركات مثل Google وSamsung الزمن لإضافة ميزات AI في كل جهاز… كانت آبل أكثر حذراً.
الآن يبدو أن هذا التردد له تفسير منطقي:
📌 آبل ترى أن نماذج الاستدلال ليست ناضجة بما يكفي
📌 وتدرك محدوديات التفكير الاصطناعي مقارنة بالخوارزميات العلمية
مظاهر هذا التردد ظهرت في خدمة “Apple Intelligence” التي وصفها كثيرون بأنها أقل تقدماً مما هو موجود لدى المنافسين.
هل هذا البحث ينسف فكرة الذكاء الاصطناعي العام (AGI)؟
الإجابة القصيرة: لا.
لكن…
هذا البحث هو تحذير من المبالغة في تقدير قدرات الذكاء الاصطناعي.
على أرض الواقع:
هناك تقدّم حقيقي في قدرات النماذج
لكن هناك أيضاً حدود لا يمكن تجاوزها بسهولة
وقد تكون المسافة بين LLM وبين AGI أطول بكثير مما يعتقده المتحمسون
الدرس الأهم:
التطور في الذكاء الاصطناعي ليس سباقًا خطيًا… بل سلسلة اكتشافات، اختبارات، وتصحيحات مستمرة.

