كتب – رامز يوسف:
صمم باحثون نوعًا جديدًا من نماذج اللغات الكبيرة، ويعتقدون أنه قد يُسهم في سد الفجوة بين الذكاء الاصطناعي والإدراك البشري، في اتجاه الذكاء الاصطناعي العام.
صُمم النموذج، المُسمى “Dragon Hatchling”، لمحاكاة كيفية اتصال الخلايا العصبية في الدماغ وتقويتها من خلال التجارب المُكتسبة بدقة أكبر.
وقال باحثون من شركة Pathway التي طورت هذا النموذج، إنه أول نموذج قادر على “التعميم بمرور الوقت”، أي أنه قادر على تعديل تشابكاته العصبية تلقائيًا استجابةً للمعلومات الجديدة.
في دراسة نُشرت قاعدة بيانات arXiv، صاغ الفريق النموذج كخليفة للبنية الحالية التي تدعم أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT وGoogle Gemini. واقترحوا أن النموذج قد يُوفر “الحلقة المفقودة” بين تقنية الذكاء الاصطناعي الحالية ونماذج الذكاء الأكثر تطورًا والمستوحاة من الدماغ.
يقول أدريان كوسوفسكي، المؤسس المشارك والمدير العلمي لشركة Pathway: “هناك نقاش دائر حول نماذج التفكير، وتحديدًا نماذج التفكير التركيبي، وما إذا كانت قادرةً على توسيع نطاق التفكير ليتجاوز الأنماط التي رصدتها في حفظ البيانات، وما إذا كانت قادرةً على تعميم التفكير ليشمل أنماط تفكير أكثر تعقيدًا وأنماط تفكير أطول”.
أضاف: “الأدلة غير قاطعة إلى حد كبير، والإجابة العامة هي: لا. حاليًا، لا تُعمّم الآلات التفكير كما يفعل البشر، وهذا هو التحدي الكبير الذي نعتقد أن البنى التي نقترحها قد تُحدث فرقًا حقيقيًا”.
خطوة نحو الذكاء الاصطناعي العام
يُعد تعليم الذكاء الاصطناعي التفكير مثل البشر أحد أهم الأهداف في هذا المجال. ومع ذلك، لا يزال الوصول إلى الذكاء الاصطناعي العام (AGI)، بعيد المنال.
يتمثل التحدي الرئيسي في أن التفكير البشري بطبيعته مُعقد. نادرًا ما تأتي أفكارنا في تسلسلات خطية منظمة من المعلومات المترابطة. بل إن الدماغ البشري أشبه بشبكة فوضوية من الأفكار والأحاسيس والعواطف والدوافع المتداخلة التي تتنافس باستمرار على الاهتمام.
في السنوات الأخيرة، عززت نماذج (LLM) من قدرة صناعة الذكاء الاصطناعي على محاكاة التفكير البشري. وعادةً تعمل بواسطة نماذج المحولات، وهي نوع من أطر التعلم العميق التي تُمكّنها من الربط بين الكلمات والأفكار أثناء المحادثة. تُمثل المحولات “العقول” الكامنة وراء أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT وGemini وClaude، ما يُمكّنها من التفاعل مع المستخدمين والاستجابة لهم بمستوى مُقنع من “الوعي”.
رغم أن المحولات متطورة للغاية، فإنها تُمثل أيضًا أحدث ما توصلت إليه قدرات الذكاء الاصطناعي التوليدية الحالية. أحد أسباب ذلك هو أنها لا تتعلم باستمرار؛ فبمجرد تدريب نموذج (LLM)، تُصبح المعلمات التي تُحكمه مُقيدة، ما يعني ضرورة إضافة أي معرفة جديدة من خلال إعادة التدريب أو الضبط الدقيق. عندما يواجه نموذج LLM شيئًا جديدًا، فإنه ببساطة يُولّد استجابةً بناءً على ما يعرفه بالفعل.
Dragon Hatchling
صُمّم نموذج Dragon Hatchling لتكييف فهمه ديناميكيًا بما يتجاوز بيانات التدريب. ويفعل ذلك من خلال تحديث اتصالاته الداخلية في الوقت الفعلي أثناء معالجته لكل مُدخل جديد، على غرار كيفية تقوية الخلايا العصبية أو ضعفها بمرور الوقت. وأوضح الباحثون أن هذا قد يدعم التعلم المستمر.
على عكس هياكل المحولات التقليدية، التي تُعالج المعلومات بالتتابع عبر طبقات مُتراصة من العقد، فإن هيكل Dragon Hatchling يتصرف كشبكة مرنة تُعيد تنظيم نفسها مع ظهور معلومات جديدة. تتبادل “جسيمات عصبية” صغيرة المعلومات باستمرار وتُعدّل اتصالاتها، مُقوّية بعضها ومُضعِفة بعضها الآخر.
بمرور الوقت، تتشكل مسارات جديدة تُساعد النموذج على الاحتفاظ بما تعلّمه وتطبيقه على المواقف المستقبلية، ما يمنحه فعليًا نوعًا من الذاكرة قصيرة المدى التي تؤثر على المُدخلات الجديدة. وعلى عكس نماذج LLM التقليدية، تأتي ذاكرة Dragon Hatchling من التكيفات المستمرة في هيكلها، وليس من السياق المُخزّن في بيانات التدريب.
في الاختبارات، كان أداء Dragon Hatchling مشابهًا لأداء GPT-2 في نمذجة اللغة المعيارية ومهام الترجمة، وهو إنجازٌ مُبهرٌ لبنية نموذجية جديدة كليًا، وفقًا لما أشار إليه الفريق في الدراسة.
المصدر: livescience
اقرأ أيضا:
