كتب – رامز يوسف:
أحدثت أداة “البحث العميق” Deep research من OpenAI، ضجة كبيرة في سوق الذكاء الاصطناعي بعد الترويج لها بأنها تستطيع في دقائق تنفيذ ما قد يستغرق ساعات حتى يكمله خبير بشري.
أداة Deep research موجودة في ChatGPT Pro ويتحدثون عنها كمساعد بحث يمكنه مطابقة المحلل المدرب، فهي تبحث بشكل مستقل في الويب وتجمع المصادر وتقدم تقارير منظمة. وسجل Deep research 26.6% في Humanity’s Last Exam (HLE)، وهو معيار ذكاء اصطناعي صعب، متفوقًا على العديد من النماذج.
لكن Deep research لا يرقى إلى مستوى الضجيج. صحيح أنه ينتج تقارير مصقولة، لكنه يعاني أيضًا من عيوب خطيرة. وفقًا للصحفيين الذين جربوه، يمكن أن يفوت البحث العميق تفاصيل رئيسية، ويكافح مع المعلومات الحديثة ويخترع أحيانًا حقائق.
تشير OpenAI إلى ذلك عند سرد قيود أداتها. تقول الشركة أيضًا إنها “يمكنها أحيانًا أن تتخيل الحقائق في الردود أو تتوصل إلى استنتاجات غير صحيحة، وإن كان بمعدل أقل بشكل ملحوظ من نماذج ChatGPT الحالية، وفقًا للتقييمات الداخلية”.
ليس من المستغرب أن تتسلل البيانات غير الموثوقة، لأن نماذج الذكاء الاصطناعي لا “تعرف” الأشياء بنفس الطريقة التي يعرفها بها البشر.
إن فكرة “محلل الأبحاث” بالذكاء الاصطناعي تثير أيضًا مجموعة من الأسئلة. هل يمكن لآلة – بصرف النظر عن مدى قوتها – أن تحل محل خبير مدرب حقًا؟ ما هي الآثار المترتبة على العمل المعرفي؟ وهل يساعدنا الذكاء الاصطناعي حقًا في التفكير بشكل أفضل، أم أنه يسهل علينا التوقف عن التفكير تمامًا؟
ما هو “البحث العميق” ولمن هو؟
يُسوق البحث العميق للمهنيين في مجال التمويل والعلوم والسياسة والقانون والهندسة، وكذلك الأكاديميين والصحفيين واستراتيجيي الأعمال، وهو أحدث “تجربة وكيلة” أطلقتها OpenAI في ChatGPT. يعد بإجراء البحث الشاق في دقائق.
حاليًا، لا يتوفر البحث العميق إلا لمستخدمي ChatGPT Pro في الولايات المتحدة، بتكلفة 200 دولار أمريكي شهريًا. تقول OpenAI إنها ستطرحه لمستخدمي Plus وTeam وEnterprise في الأشهر المقبلة، مع التخطيط لإصدار أكثر فعالية من حيث التكلفة للمستقبل.
على عكس روبوت الدردشة القياسي الذي يوفر استجابات سريعة، يتبع البحث العميق عملية متعددة الخطوات لإنتاج تقرير منظم:
يقدم المستخدم طلبًا. يمكن أن يكون هذا أي شيء من تحليل السوق إلى ملخص القضية القانونية.
يوضح الذكاء الاصطناعي المهمة. قد يطرح أسئلة متابعة لتحسين نطاق البحث.
يبحث الوكيل في الويب. يتصفح بشكل مستقل مئات المصادر، بما في ذلك المقالات الإخبارية وأوراق البحث وقواعد البيانات عبر الإنترنت.
يلخص نتائجه. يستخرج الذكاء الاصطناعي النقاط الرئيسية وينظمها في تقرير منظم ويستشهد بمصادرها.
يسلم التقرير النهائي. خلال 5 إلى 30 دقيقة، يتلقى المستخدم وثيقة متعددة الصفحات – وربما حتى أطروحة على مستوى الدكتوراه – تلخص النتائج.
للوهلة الأولى، يبدو الأمر وكأنه أداة حلم للعاملين في مجال المعرفة. لكن النظر عن قرب يكشف عن قيود كبيرة.
أوجه قصور في Deep research:
يفتقر إلى السياق. يمكن للذكاء الاصطناعي أن يلخص، لكنه لا يفهم تمامًا ما هو مهم.
يتجاهل التطورات الجديدة. لقد فاتته الأحكام القانونية الرئيسية والتحديثات العلمية.
يختلق الأشياء. مثل نماذج الذكاء الاصطناعي الأخرى، يمكنه توليد معلومات كاذبة بثقة.
لا يمكنه التمييز بين الحقيقة والخيال. لا يميز المصادر الموثوقة من المصادر غير الموثوقة.
في حين تدعي OpenAI أن أداتها تنافس المحللين البشريين، فإن الذكاء الاصطناعي يفتقر حتمًا إلى الحكم والتدقيق والخبرة التي تجعل البحث الجيد قيمًا.
ليس ChatGPT هو أداة الذكاء الاصطناعي الوحيدة التي يمكنها البحث في الويب وإنتاج التقارير ببضعة مطالبات فقط. وبعد 24 ساعة فقط من إصدار OpenAI، أصدرت Hugging Face إصدارًا مجانيًا مفتوح المصدر يكاد يتطابق مع أدائه.
أكبر خطر في البحث العميق وأدوات الذكاء الاصطناعي الأخرى التي تُسوق للبحث “على المستوى البشري” هو الوهم بأن الذكاء الاصطناعي يمكن أن يحل محل التفكير البشري. يمكن للذكاء الاصطناعي تلخيص المعلومات، لكنه لا يستطيع التشكيك في افتراضاته الخاصة، أو تسليط الضوء على فجوات المعرفة، أو التفكير بشكل إبداعي أو فهم وجهات نظر مختلفة.
ولا تتطابق الملخصات التي يولدها الذكاء الاصطناعي مع عمق الباحث البشري الماهر.
لا يزال أي وكيل ذكاء اصطناعي، بصرف النظر عن سرعته، مجرد أداة، وليس بديلاً للذكاء البشري. بالنسبة للعاملين في مجال المعرفة، من المهم أكثر من أي وقت مضى الاستثمار في المهارات التي لا يمكن للذكاء الاصطناعي تكرارها: التفكير النقدي، والتحقق من الحقائق، والخبرة العميقة والإبداع.
إذا كنت تريد استخدام أدوات البحث في الذكاء الاصطناعي، فهناك طرق للقيام بذلك بشكل مسؤول. يمكن أن يعزز الاستخدام المدروس للذكاء الاصطناعي البحث دون التضحية بالدقة أو العمق. قد تستخدم الذكاء الاصطناعي لتحقيق الكفاءة، مثل تلخيص المستندات، ولكن احتفظ بالحكم البشري لاتخاذ القرارات.
تحقق دائمًا من المصادر، إذ يمكن أن تكون الاستشهادات التي يولدها الذكاء الاصطناعي مضللة. لا تثق في الاستنتاجات بشكل أعمى، ولكن طبق التفكير النقدي وتحقق من المعلومات من مصادر موثوقة. بالنسبة للموضوعات ذات الأهمية العالية – مثل الصحة والعدالة والديمقراطية – استكمل نتائج الذكاء الاصطناعي بمدخلات الخبراء.
على الرغم من التسويق الغزير الذي يحاول إخبارنا بخلاف ذلك، لا يزال الذكاء الاصطناعي التوليدي يعاني الكثير من القيود. إن البشر القادرين على تجميع المعلومات بطريقة إبداعية وتحدي الافتراضات والتفكير النقدي سوف يظلون مطلوبين – ولا يمكن للذكاء الاصطناعي أن يحل محلهم حتى الآن.
رافاييل سيريللو، محاضر أول في أنظمة المعلومات التجارية، جامعة سيدني
المصدر: The Conversation
اقرأ أيضا: