الذكاء الاصطناعي ينجح في تقمص شخصية البشر بنسبة 85%

كتب – رامز يوسف:

اكتشف الباحثون أن محادثة لمدة ساعتين مع نموذج الذكاء الاصطناعي هي كل ما يلزم لعمل نسخة دقيقة طبق الأصل لشخصية الإنسان.

في دراسة جديدة نُشرت في قاعدة بيانات ما قبل الطباعة arXiv، أنشأ باحثون من Google وجامعة ستانفورد “عملاء محاكاة”، وهي نسخ طبق الأصل من الذكاء الاصطناعي لـ 1052 شخصا بناءً على مقابلات لمدة ساعتين مع كل مشارك. استخدمت هذه المقابلات لتدريب نموذج ذكاء اصطناعي توليدي مصمم لمحاكاة السلوك البشري.

لتقييم دقة نسخ الذكاء الاصطناعي، أكمل كل مشارك جولتين من اختبارات الشخصية والمسوحات الاجتماعية وألعاب المنطق، وطُلب منه تكرار العملية بعد أسبوعين. عندما خضعت نسخ الذكاء الاصطناعي لنفس الاختبارات، تطابقت مع استجابات نظرائهم من البشر بدقة 85٪.

اقترحت الورقة البحثية أن نماذج الذكاء الاصطناعي التي تحاكي السلوك البشري يمكن أن تكون مفيدة عبر مجموعة متنوعة من سيناريوهات البحث، مثل تقييم فعالية سياسات الصحة العامة، وفهم الاستجابات لإطلاق المنتجات، أو حتى نمذجة ردود الفعل على الأحداث المجتمعية الكبرى التي قد تكون مكلفة للغاية أو صعبة أو معقدة أخلاقياً للدراسة مع المشاركين من البشر.

كتب الباحثون: “المحاكاة العامة للمواقف والسلوك البشري يمكن أن تساعد الباحثين على اختبار مجموعة واسعة من التدخلات والنظريات”. وأضافوا أن المحاكاة يمكن أن تساعد أيضًا في توجيه التدخلات العامة الجديدة، وتطوير النظريات حول التفاعلات السببية والسياقية، وزيادة فهمنا لكيفية تأثير المؤسسات والشبكات على الناس.

لإنشاء وكلاء المحاكاة، أجرى الباحثون مقابلات متعمقة غطت قصص حياة المشاركين وقيمهم وآراءهم حول القضايا المجتمعية. وأوضح الباحثون أن هذا مكّن الذكاء الاصطناعي من التقاط الفروق الدقيقة التي قد تفوتها المسوحات النموذجية أو البيانات الديموغرافية. والأهم من ذلك، أن هيكل هذه المقابلات أعطى الباحثين الحرية لتسليط الضوء على ما وجدوه الأكثر أهمية بالنسبة لهم شخصيًا.

استخدم العلماء هذه المقابلات لإنشاء نماذج ذكاء اصطناعي مخصصة يمكنها التنبؤ بكيفية استجابة الأفراد لأسئلة المسح والتجارب الاجتماعية والألعاب السلوكية. وشمل ذلك الاستجابات للمسح الاجتماعي العام، وهي أداة راسخة لقياس المواقف والسلوكيات الاجتماعية؛ ومحددات الشخصية الخمسة الكبرى؛ والألعاب الاقتصادية، مثل لعبة الدكتاتور ولعبة الثقة.

على الرغم من أن وكلاء الذكاء الاصطناعي عكسوا نظراءهم من البشر عن كثب في العديد من المجالات، إلا أن دقتهم كانت متفاوتة عبر المهام، فقد أدوا بشكل جيد في تكرار الاستجابات لاستطلاعات الشخصية وتحديد المواقف الاجتماعية ولكنهم كانوا أقل دقة في التنبؤ بالسلوكيات في الألعاب التفاعلية التي تنطوي على اتخاذ القرارات الاقتصادية. وأوضح الباحثون أن الذكاء الاصطناعي عادة ما يكافح مع المهام التي تنطوي على ديناميكيات اجتماعية وفروق دقيقة سياقية.

كما أقروا بإمكانية إساءة استخدام التكنولوجيا. تُستخدم تقنيات الذكاء الاصطناعي و”التزييف العميق” بالفعل من قبل جهات خبيثة لخداع وانتحال هوية وإساءة معاملة والتلاعب بأشخاص آخرين عبر الإنترنت. وقال الباحثون إن وكلاء المحاكاة يمكن إساءة استخدامهم أيضًا.

ومع ذلك، قالوا إن التكنولوجيا يمكن أن تسمح لنا بدراسة جوانب السلوك البشري بطرق كانت غير عملية في السابق، من خلال توفير بيئة اختبار خاضعة لرقابة شديدة دون التحديات الأخلاقية أو اللوجستية أو الشخصية للعمل مع البشر.

في تصريح لـ MIT Technology Review، قال المؤلف الرئيسي للدراسة جون سونج بارك، وهو طالب دكتوراه في علوم الكمبيوتر في جامعة ستانفورد، “إذا كان بإمكانك الحصول على مجموعة صغيرة من “أنت” يتجولون ويتخذون القرارات التي كنت ستتخذها بالفعل – فهذا، في اعتقادي، هو المستقبل في النهاية”.

المصدر: Live Science

اقرأ أيضا:

آثار أقدام بشرية عمرها 115 ألف عام في السعودية

قد يعجبك أيضًأ