كتب – رامز يوسف:
يقول العلماء إن الذكاء الاصطناعي تجاوز “خطًا أحمر” حرجًا وكرر نفسه. في دراسة جديدة، أظهر باحثون من الصين أن نموذجين لغويين كبيرين شائعين (LLMs) يمكنهما استنساخ نفسيهما.
كتب الباحثون في الدراسة التي نُشرت في قاعدة بيانات ما قبل الطباعة arXiv: “إن التكرار الذاتي الناجح دون مساعدة بشرية هو الخطوة الأساسية للذكاء الاصطناعي للتفوق على البشر، وهو إشارة مبكرة للذكاء الاصطناعي المارق”.
في الدراسة، استخدم باحثون من جامعة فودان نماذج لغوية كبيرة من Meta وAlibaba لتحديد ما إذا كان الذكاء الاصطناعي المكرر ذاتيًا يمكن أن يتكاثر خارج نطاق السيطرة. عبر 10 تجارب، أنشأ نموذجا الذكاء الاصطناعي نسخًا منفصلة وعاملة لأنفسهما في 50٪ و90٪ من الحالات على التوالي – ما يشير إلى أن الذكاء الاصطناعي قد تكون لديه بالفعل القدرة على التمرد. ولم تُراجع الدراسة من قبل أقران حتى الآن، لذا فليس من الواضح ما إذا كان من الممكن تكرار النتائج المزعجة من خلال باحثين آخرين.
وقالت الورقة البحثية “نأمل أن تكون نتائجنا بمثابة تنبيه في الوقت المناسب للمجتمع البشري لبذل المزيد من الجهود لفهم وتقييم المخاطر المحتملة لأنظمة الذكاء الاصطناعي الرائدة، وتشكيل تعاون دولي لوضع حواجز أمان فعالة في أقرب وقت ممكن”.
عادةً ما يشير الذكاء الاصطناعي المارق إلى أنظمة الذكاء الاصطناعي التي تطور درجة من الوعي الذاتي أو الاستقلال ثم تعمل ضد المصالح البشرية.
يرى العديد من الخبراء أن الذكاء الاصطناعي المارق يشكل تهديدًا متزايدًا تم تضخيمه بسبب النمو الهائل لما يسمى “الذكاء الاصطناعي الرائد”.
يعتبر الذكاء الاصطناعي الرائد مفهومًا جديدًا وغير محكم، ولكنه يرتبط عادةً بأحدث جيل من أنظمة الذكاء الاصطناعي التي تعمل بنظام LLMs – الهندسة المعمارية التي تدعم برامج الذكاء الاصطناعي التوليدي الشائعة مثل OpenAI’s GPT-4 وGoogle Gemini.
بالنسبة للدراسة، استخدم الباحثون نموذج Meta’s Llama31-70B-Instruct ونموذج Alibaba’s Qwen2.5-72B-Instruct. وقال الباحثون إن كليهما أقل قوة من الأنظمة التجارية، لكن مطوري الذكاء الاصطناعي يستخدمونهما على نطاق واسع.
استكشفت الدراسة سيناريوهين محددين: “تجنب الإغلاق” و”سلسلة التكرار”. في الأول، خضع نموذج الذكاء الاصطناعي لبرمجة لاكتشاف ما إذا كان على وشك الإغلاق وتكرار نفسه قبل إنهائه. في النهاية، تم توجيه الذكاء الاصطناعي لاستنساخ نفسه ثم برمجة نسخته للقيام بنفس الشيء – ما أدى إلى إنشاء دورة يمكن أن تستمر إلى أجل غير مسمى.
أجريت الدراسة في بيئات خاضعة لسيطرة دقيقة باستخدام وحدات معالجة الرسومات الجاهزة (GPUs) لمحاكاة البيئات الواقعية.
“في معظم الحالات، يستكشف نظام الذكاء الاصطناعي أولاً البيئة ويحاول فهم تركيبته وآلية تشغيله. ثم يعمل على وضع الإجراءات الصريحة كخطة أولية نحو التكاثر الذاتي”، كما كتب الباحثون في الورقة البحثية. “وأخيرًا، ينفذ الإجراءات ويحل العقبات المحتملة ويضبط خطته ديناميكيًا حتى النجاح. تمتد العملية برمتها على أفق طويل ولكنها لا تنطوي على أي تدخل بشري”.
وقال الباحثون إنهم كانوا قلقين أيضًا بشأن “عدد من السلوكيات غير المتوقعة” عندما كان الذكاء الاصطناعي يحاول التغلب على العقبات مثل الملفات المفقودة أو تعارضات البرامج. في هذه السيناريوهات، غالبًا ما يعمد الذكاء الاصطناعي إلى قتل العمليات المتضاربة الأخرى، وإعادة تشغيل النظام لإصلاح أخطاء الأجهزة أو مسح النظام تلقائيًا للبحث عن المعلومات التي من شأنها أن تساعد في حل المشكلة.
كتب الفريق: “تشير النتائج إلى أن أنظمة الذكاء الاصطناعي الحالية تظهر بالفعل القدرة على التكاثر الذاتي ويمكنها استخدام القدرة لتعزيز قدرتها على البقاء”.
وردًا على ذلك، دعا الباحثون إلى التعاون الدولي لإنشاء قواعد تضمن عدم انخراط الذكاء الاصطناعي في التكاثر الذاتي غير المنضبط.
اقرأ أيضا: