الرأي

ما وراء الخوارزمية .. الصندوق الأسود والعيوب الخفية!

أدّى الصعود السريع لتقنيّات الذكاء الاصطناعيّ (AI) مثل ChatGPT وغيرها من النماذج المماثلة إلى تغيير طريقة تفاعلنا مع المعلومات بشكلٍ كبير. ففي حين أنّ هذه النماذج القائمة على خوارزميّات التعلّم العميق (LLMs) - والّتي يمكنها فهم وتوليد نصوص تحاكي لغة البشر وتفكيرهم - توفّر ثروة من المعرفة، وتؤدّي مهامّ معقّدة، بل وتقدّم مساعدة في كلّ شيء في التعليم، وفي الرعاية الصحّيّة، وفي عالم الأعمال، وفي غيرها من المجالات. إلّا أنّ دراسة حديثة كشفت عن مشكلة غير متوقّعة، وهي أنّه: كلّما ازدادت قوّة نماذج الذكاء الاصطناعيّ؛ زادت احتماليّة تقديمها لمعلومات غير دقيقة بثقة لا مبرّر لها.الدراسة الّتي نُشرت مؤخراً في مجلّة Nature، سلّطت الضوء على سلوك مقلق في نماذج الذكاء الاصطناعيّ الكبيرة، حيث تقدّم إجابات حتّى عندما لا تعرف الإجابة الصحيحة، وتميل إلى (التخمين) دون الاعتراف بعدم اليقين، بل وتقدّم آراء حول مواضيع لا تفهمها. كما كشفت الدراسة أيضاً بأنّ النماذج - بما في ذلك سلسلة GPT من OpenAI، ونماذج LLaMA من Meta، ومجموعة BLOOM من BigScience - كلّما كانت أكبر؛ زادت احتماليّة إظهار هذا السلوك. وعلى الرغم من أنّ هذه النماذج لا «تكذب» بالمعنى التقليديّ؛ إلّا أنّها تقدّم إجابات بثقة عالية في غير محلّها، حتّى عندما تكون المعلومات غير صحيحة. ويثير هذا الأمر مخاوف بشأن موثوقيّة نماذج الذكاء الاصطناعيّ؛ خاصّةً في المجالات الحرجة مثل الرعاية الصحّيّة أو التمويل أو الاستشارات القانونيّة، حيث تكون الدقّة ضروريّة.كما ناقضت الدراسة اعتقاداً شائعاً في تطوير نماذج الذكاء الاصطناعيّ، فبينما تظهر عموماً أداء محسناً في المهامّ المعقّدة، إلّا أنّ هذا التحسّن لا يُترجم بالضرورة إلى دقّة ثابتة؛ خاصّة في المهامّ الأبسط. هذا «التضارب في الصعوبة» - ظاهرة فشل النماذج ذات القدرات الكبيرة في المهامّ الّتي يراها البشر سهلة - يقوّض فكرة وجود منطقة تشغيل موثوقة لهذه النماذج. وحتّى مع أساليب التدريب المتطوّرة على نحو متزايد، بما في ذلك زيادة حجم النموذج وحجم البيانات وتشكيل النماذج باستخدام التغذية الراجعة البشريّة، لم يجد الباحثون بعد طريقة مضمونة للقضاء على هذا التضارب، ويدعو هذا الأمر إلى التساؤل عن مدى موثوقيّة هذه النماذج في الاستخدام اليوميّ.وعلى الرغم من التقدّم في تقنيّات مثل التعلّم المعزّز مع التغذية الراجعة البشريّة (RLHF)، والّتي تهدف إلى تشكيل سلوك الذكاء الاصطناعيّ، تشير الدراسة إلى أنّ هذه الأساليب قد تؤدّي إلى تفاقم المشكلة عن غير قصد. فمن خلال الحدّ من تجنّب المهامّ؛ يشجّع التعلّم المعزّز بالتغذية الراجعة البشريّة النماذج على محاولة الاستجابة حتّى عندما لا تكون مجهّزة للتعامل معها، ممّا يؤدّي إلى حدوث أخطاء متكرّرة. بالإضافة إلى ذلك، تلعب هندسة الأوامر (Prompt engineering) - عمليّة صياغة استفسارات الذكاء الاصطناعيّ بعناية - دوراً حاسماً في التخفيف من هذه المشاكل، حيث يمكن أن تؤثر الاختلافات الطفيفة في الصياغة بشكل كبير على جودة مخرجات النماذج. ومع ذلك، فإنّ الرقابة البشريّة، الّتي غالباً ما ينظر إليها على أنّها ضمانة؛ قد لا تكون بالضرورة حلّاً آمناً، حيث لا تزال هناك حالات يصعب على المستخدم التعرّف متى يكون الذكاء الاصطناعيّ مخطئاً.وأخيراً، في حين أنّ نماذج الذكاء الاصطناعيّ لديها القدرة على إحداث ثورة في الصناعات؛ فإنّه ما زالت هناك تساؤلات مهمّة حول مسار تطوّر الذكاء الاصطناعيّ. فالأكبر لا يعني دائماً الأفضل، وسعي الشركات وراء توسيع قدرات نماذجها القائمة على الذكاء الاصطناعيّ أكثر من أيّ وقت مضى قد يؤدّي إلى تفاقم المشاكل المتعلّقة بالموثوقيّة. يجب أن يركّز التطوير المستقبليّ على تحسين جودة مخرجات الذكاء الاصطناعيّ وضمان أن تكون هذه النماذج مجهّزة للاعتراف بمحدوديّتها.في المقال القادم بإذن اللّه سوف نناقش أيضاً المخاطر الاجتماعيّة والعاطفيّة التي يمكن أن تنجم عند الاعتماد المفرط على روبوتات الدردشة الّتي تعمل بالذكاء الاصطناعيّ (متلازمة ChatGPT).