كتب – رامز يوسف:
على الرغم من اختلاف طريقة تفكير البشر وأنظمة الذكاء الاصطناعي اختلافًا كبيرًا، فإن بحثًا جديدًا كشف أن أنظمة الذكاء الاصطناعي تتخذ أحيانًا قرارات لاعقلانية مثلنا.
في ما يقرب من نصف السيناريوهات التي خضعت للتحليل في دراسة جديدة، أظهر ChatGPT العديد من أكثر تحيزات اتخاذ القرار البشري شيوعًا. نُشرت هذه النتائج في مجلة Manufacturing & Service Operations Management، وهي الأولى التي تُقيّم سلوك ChatGPT عبر 18 تحيزًا معرفيًا معروفًا في علم النفس البشري.
اختبر مؤلفو الدراسة، من 5 مؤسسات أكاديمية في كندا وأستراليا، نموذجي اللغة الكبيرين (LLM) GPT-3.5 وGPT-4 من OpenAI – وهما نموذجا اللغة الكبيران اللذان يُشغّلان ChatGPT – واكتشفوا أنه على الرغم من “اتساقهما المذهل” في منطقهما، إلا أنهما بعيدان كل البعد عن أن يكونا بمنأى عن العيوب البشرية.
علاوة على ذلك، أشار المؤلفون إلى أن لهذا الاتساق في حد ذاته آثارًا إيجابية وسلبية.
وقال يانج تشن، الباحث الرئيسي في الدراسة والأستاذ المساعد في إدارة العمليات في كلية آيفي للأعمال، في بيان: “سيستفيد المديرون أكثر من استخدام هذه الأدوات للمشاكل التي لها حل واضح ومُحدد. ولكن إذا كنت تستخدمها لاتخاذ قرارات ذاتية أو مدفوعة بالتفضيلات، يجب عليك أن تكون حذرا”.
تناولت الدراسة التحيزات البشرية المعروفة، بما في ذلك النفور من المخاطرة، والثقة المفرطة، وتأثير الهبة (عندما نُعطي قيمة أكبر للأشياء التي نملكها)، وطبقتها على المحفزات المُعطاة لـ ChatGPT لمعرفة ما إذا كان سيقع في نفس فخاخ البشر.
قرارات عقلانية – أحيانًا
طرح العلماء على الذكاء الاصطناعي، أسئلة افتراضية مستمدة من علم النفس التقليدي، وفي سياق التطبيق التجاري في العالم الواقعي، في مجالات مثل إدارة المخزون أو مفاوضات الموردين. كان الهدف ليس فقط معرفة ما إذا كان الذكاء الاصطناعي سيُحاكي التحيزات البشرية، بل أيضًا ما إذا كان سيظل يفعل ذلك عند طرح أسئلة من مجالات أعمال مختلفة.
تفوق GPT-4 على GPT-3.5 عند حل المسائل بحلول رياضية واضحة، مُظهرًا أخطاءً أقل في السيناريوهات القائمة على الاحتمالات والمنطق. ولكن في عمليات المحاكاة الذاتية، مثل اختيار خيار محفوف بالمخاطر لتحقيق مكسب، غالبًا ما عكس روبوت المحادثة التفضيلات غير العقلانية التي يميل البشر إلى إظهارها.
وكتب الباحثون في الورقة البحثية: “يُظهر GPT-4 تفضيلًا أقوى لليقين حتى من البشر”، في إشارة إلى ميل الذكاء الاصطناعي نحو نتائج أكثر أمانًا وقابلية للتنبؤ عند تكليفه بمهام غامضة.
والأهم من ذلك، أن سلوكيات روبوتات المحادثة ظلت مستقرة في الغالب سواءً صيغت الأسئلة على أنها مشاكل نفسية مجردة أو عمليات أعمال تشغيلية. خلصت الدراسة إلى أن التحيزات الظاهرة لم تكن مجرد نتاج أمثلة محفوظة، بل جزءًا من آلية تفكير الذكاء الاصطناعي.
ومن النتائج المفاجئة للدراسة، الطريقة التي ضخّم بها GPT-4 أحيانًا الأخطاء الشبيهة بالأخطاء البشرية. وكتب الباحثون في الدراسة: “في مهمة تحيز التأكيد، كان GPT-4 يُعطي دائمًا استجابات متحيزة”. كما أظهر ميلًا أكثر وضوحًا لمغالطة اليد الساخنة (التحيز لتوقع أنماط في العشوائية) مقارنةً بـ GPT 3.5.
على العكس من ذلك، نجح ChatGPT في تجنب بعض التحيزات البشرية الشائعة، بما في ذلك إهمال المعدل الأساسي (حيث نتجاهل الحقائق الإحصائية لصالح المعلومات القصصية أو الخاصة بكل حالة) ومغالطة التكلفة الغارقة (حيث يتأثر اتخاذ القرار بتكلفة مُتكبّد عليها بالفعل، ما يسمح لمعلومات غير ذات صلة بتعتيم الحكم).
ووفقًا للباحثين، فإن تحيزات ChatGPT الشبيهة بالأخطاء البشرية تأتي من بيانات التدريب التي تحتوي على التحيزات المعرفية والأساليب الاستدلالية التي يُظهرها البشر. تتعزز هذه الميول أثناء الضبط الدقيق، خاصةً عندما تُفضّل التغذية الراجعة البشرية الاستجابات المعقولة على الاستجابات العقلانية. فعندما يواجه الذكاء الاصطناعي مهامًا أكثر غموضًا، فإنه يميل نحو أنماط التفكير البشري أكثر من المنطق المباشر.
قال تشين: “إذا كنت ترغب في دعم قرارات دقيق وغير متحيز، فاستخدم GPT في المجالات التي تثق فيها بالفعل بالآلة الحاسبة”. أما عندما تعتمد النتيجة بشكل أكبر على مدخلات ذاتية أو استراتيجية، فإن الإشراف البشري يكون أكثر أهمية، حتى لو كان ذلك بتعديل مطالبات المستخدم لتصحيح التحيزات المعروفة.
وقالت مينا أنديابان، المؤلفة المشاركة، والأستاذة المساعدة في الموارد البشرية والإدارة بجامعة ماكماستر، كندا، في البيان: “يجب التعامل مع الذكاء الاصطناعي كموظف يتخذ قرارات مهمة – فهو يحتاج إلى إشراف وإرشادات أخلاقية. وإلا، فإننا نخاطر بأتمتة التفكير الخاطئ بدلاً من تحسينه”.
المصدر: Live Science
اقرأ أيضا: