آبل تفضح الذكاء الاصطناعي: يعجز وينهار ولا يفكر

كتب – رامز يوسف:

يقول باحثون في آبل إن نماذج التفكير القائمة على الذكاء الاصطناعي ليست ذكية كما يُشاع. في الواقع، إنها لا تُفكر إطلاقاً.

نماذج التفكير، مثل نموذج Claude من Meta، ونموذج o3 من OpenAI، ونموذج R1 من DeepSeek، هي نماذج لغوية كبيرة متخصصة (LLMs) تُكرّس وقتاً وقوة حاسوبية أكبر لإنتاج استجابات أكثر دقة من سابقاتها التقليدية.

أدى صعود هذه النماذج إلى تجدد ادعاءات شركات التكنولوجيا الكبرى بأنها قد تكون على وشك تطوير آلات ذات ذكاء اصطناعي عام (AGI) – وهي أنظمة تتفوق على البشر في معظم المهام.

ومع ذلك، وجهت دراسة جديدة، نُشرت في 7 يونيو على موقع أبحاث التعلم الآلي التابع لشركة آبل، ضربة موجعة لمنافسي الشركة. يقول العلماء في الدراسة إن نماذج الاستدلال لا تفشل فقط في إظهار استدلال عام، بل تنهار دقتها تمامًا عندما تصبح المهام معقدة للغاية.

وكتب الباحثون في الدراسة: “من خلال تجارب مكثفة على ألغاز متنوعة، أظهرنا أن نماذج التعلم الآلي الرائدة تواجه انهيارًا كاملاً في الدقة يتجاوز تعقيدات معينة”.

تنمو نماذج التعلم الآلي الرائدة وتتعلم من خلال استيعاب بيانات التدريب من كميات هائلة من النتاج البشري. وبالاعتماد على هذه البيانات، تستطيع النماذج توليد أنماط احتمالية من شبكاتها العصبية عن طريق تغذيتها للأمام عند إعطائها مُحفزًا.

تُعد نماذج الاستدلال محاولة لتعزيز دقة الذكاء الاصطناعي بشكل أكبر باستخدام عملية تُعرف باسم “سلسلة الأفكار”. يعمل هذا النظام عن طريق تتبع الأنماط عبر هذه البيانات باستخدام استجابات متعددة الخطوات، محاكياً كيفية استخدام البشر للمنطق للوصول إلى استنتاج.

هذا يمنح روبوتات الدردشة القدرة على إعادة تقييم منطقها، ما يُمكّنها من معالجة مهام أكثر تعقيداً بدقة أكبر. خلال عملية تسلسل الأفكار، تُوضح النماذج منطقها بلغة واضحة لكل خطوة تتخذها، ما يُسهّل ملاحظة أفعالها.

ومع ذلك، ولأن هذه العملية متجذرة في التخمين الإحصائي بدلاً من أي فهم حقيقي، فإن روبوتات الدردشة تميل بشكل ملحوظ إلى “الهلوسة” – وتُقدم إجابات خاطئة، وتكذب عندما لا تحتوي بياناتها على إجابات، وتُقدم نصائح غريبة، بل ضارة أحياناً، للمستخدمين.

أفاد تقرير فني صادر عن OpenAI أن نماذج التفكير أكثر عرضة للانحراف عن مسارها بسبب الهلوسة مقارنةً بنظيراتها العامة، وتزداد المشكلة سوءاً مع تطور النماذج.

عند تكليف نموذجي الشركة o3 وo4-mini بتلخيص الحقائق المتعلقة بالأشخاص، أنتج النموذجان معلومات خاطئة بنسبة 33% و48% على التوالي، مقارنةً بنسبة 16% من الهلوسة في نموذج o1 السابق. وصرح ممثلو OpenAI بأنهم لا يعرفون سبب حدوث ذلك، وخلصوا إلى أن “هناك حاجة إلى مزيد من البحث لفهم سبب هذه النتائج”.

للتعمق في هذه المشكلات، وضع مؤلفو الدراسة الجديدة 4 ألغاز كلاسيكية (عبور النهر، قفز الشطرنج، تكديس الكتل، وبرج هانوي) على روبوتات عامة وذكية – تشمل نموذجي O1 وO3 من OpenAI، وDeepSeek R1، وClaude 3.7 Sonnet من Anthropic، وGemini من Google – لحلها (عبور النهر، قفز الشطرنج، تكديس الكتل، وبرج هانوي). ثم تمكنوا من تعديل تعقيد الألغاز بين منخفض ومتوسط ​​وعال بإضافة المزيد من القطع إليها.

في المهام منخفضة التعقيد، وجد الباحثون أن النماذج العامة تتفوق على نظيراتها المنطقية، حيث تحل المشكلات دون التكاليف الحسابية الإضافية التي تفرضها سلاسل التفكير المنطقي. مع ازدياد تعقيد المهام، اكتسبت نماذج الاستدلال ميزة، لكن هذا لم يدم طويلًا عند مواجهة ألغاز شديدة التعقيد، حيث انهار أداء كلا النموذجين تمامًا.

عند تجاوز عتبة حرجة، قللت نماذج الاستدلال من الرموز (الوحدات الأساسية التي تُحلل إليها نماذج البيانات) المخصصة للمهام الأكثر تعقيدًا، ما يشير إلى أنها كانت أقل تفكيرًا ولديها قيود جوهرية في الحفاظ على تسلسل الأفكار. واستمرت النماذج في مواجهة هذه العقبات حتى عند تقديم حلول لها.

وكتب الباحثون في الدراسة: “عندما قدمنا ​​خوارزمية حل برج هانوي للنماذج، لم يتحسن أداؤها في هذا اللغز، وكشف التحقيق في أول حركة فاشلة للنماذج عن سلوكيات مفاجئة. على سبيل المثال، كان بإمكانها أداء ما يصل إلى 100 حركة صحيحة في برج هانوي، لكنها فشلت في تقديم أكثر من 5 حركات صحيحة في لغز عبور النهر”.

تشير النتائج إلى أن النماذج تعتمد بشكل أكبر على التعرف على الأنماط، وأقل على المنطق الناشئ، مقارنةً بالنماذج التي تبشر بادعاءات الذكاء الاصطناعي الوشيك. لكن الباحثين يُسلّطون الضوء على قيود رئيسية في دراستهم، منها أن المشكلات لا تُمثّل سوى “شريحة ضيقة” من مهام التفكير المُحتملة التي يُمكن للنماذج تكليفها بها.

والحقيقة أيضا، أن شركة آبل نفسها، مُتخلفة عن منافسيها في سباق الذكاء الاصطناعي، إذ وجد أحد التحليلات أن Siri أقل دقة بنسبة 25% من ChatGPT في الإجابة عن الاستفسارات، وتُعطي الشركة بدلاً من ذلك الأولوية لتطوير ذكاء اصطناعي فعّال مُدمج على الجهاز على نماذج التفكير الكبيرة.

وقد دفع هذا البعض حتمًا إلى اتهام آبل بالكذب. وكتب بيدروس دومينجوس، الأستاذ الفخري لعلوم وهندسة الحاسوب في جامعة واشنطن، ساخرا على منصة X: “استراتيجية آبل الجديدة الرائعة للذكاء الاصطناعي هي إثبات عدم وجوده”.

ومع ذلك، أشاد بعض باحثي الذكاء الاصطناعي بالدراسة باعتبارها ذريعةً لدحض الادعاءات المبالغ فيها حول قدرة أدوات الذكاء الاصطناعي الحالية على أن تُصبح فائقة الذكاء يومًا ما.

المصدر: Live Science

اقرأ أيضا:

أرخص موبايل يدعم 5G في مصر.. قائمة كاملة بالأسعار

قد يعجبك أيضًأ