في السنوات الأخيرة؛ تسارعت وتيرة لجوء المؤسّسات إلى تقنيّات الذكاء الاصطناعيّ بهدف تحليل البيانات الضخمة واتّخاذ القرارات بسرعة ودقّة. إلّا أنّ هذه النماذج المتقدّمة غالباً ما تنتج مخرجات "صندوق أسود" يصعب فهمها أو تبريرها. قرارات تُتّخذ، مصائر تُحدّد، والسبب؟ غير واضح. هنا تبرز الحاجة الملحّة إلى أن نفهم لماذا قالت الخوارزميّة ما قالت، وأن نفسّر كيف وصلت إلى ما توصّلت إليه، ليس فقط لبناء الثقة مع متّخذي القرار والجمهور؛ بل أيضاً للامتثال لمتطلّبات تنظيميّة متزايدة. فمثلاً، في القطاع الماليّ يلزم المقرضين بتوضيح أسباب رفض أيّ طلب قرض؛ ولا يكفي القول إنّ "النظام تنبّأ بتعثّر السداد" دون شرح العوامل الّتي بُني عليها هذا التنبّؤ. إنّ قدرة المؤسّسات على تفسير نتائج نماذجها أصبحت جزءاً لا يتجزّأ من الاستخدام المسؤول لهذه التقنيّات، ومطلباً قانونياً في بعض المجالات عالية المخاطر مثل الرعاية الصحية والخدمات المالية والعدالة الجنائية.
لذا برز مفهوم الذكاء الاصطناعيّ القابل للتفسير (Explainable AI - XAI) كعنصر محوريّ يُمكّن المؤسّسات من جعل قرارات أنظمتها الذكيّة مفهومة. ويراد بالذكاء الاصطناعيّ القابل للتفسير تطوير أساليب تجعل قرارات الأنظمة الذكيّة واضحة للبشر. وعلى خلاف النهج التقليديّ الّذي تبقى فيه خوارزميّات التعلّم الآليّ غير شفّافة؛ يهدف (XAI) إلى كشف العوامل المؤثّرة في التنبّؤات وتوضيح آليّة اتّخاذ القرارات.
علاوة على ذلك، يسهم الذكاء الاصطناعيّ القابل للتفسير في جعل مخرجات النماذج أكثر موثوقيّة وقابليّة للتبنّي. إذ حين يفهم المستخدمون والعاملون في المؤسّسة كيفيّة توصّل النظام إلى نتيجة معيّنة؛ يتعزّز لديهم الشعور بالثقة، ويميلون أكثر إلى قبول القرار المستند إلى الذكاء الاصطناعيّ. وقد أشارت الأبحاث الحديثة إلى أنّ المؤسّسات الّتي تعتمد الشرح والتفسير في أنظمتها تكسب ميزة تنافسيّة عبر بناء جسور الثقة مع جمهورها.
وتظهر الأمثلة العمليّة أثر هذه المنهجيّة بوضوح. ففي أحد البنوك الأوروبّيّة الكبرى؛ أدّى اعتماد نماذج تفسيريّة لتوضيح أسباب رفض طلبات القروض إلى خفض النزاعات حول القرارات بنسبة 30%، إذ شعر العملاء بمزيد من التفهّم لقرارات النظام، حين قدّمت لهم تفسيرات مخصّصة لكلّ حالة. وبالمثل، في مجال إدارة الموارد البشريّة، وُجد أنّ توفير شرح واضح للمتقدّمين حول أسباب عدم قبولهم لوظيفة عبر نظام ذكاء اصطناعيّ يزيد تقبّلهم للقرار بنسبة 42%؛ ممّا يشير إلى دور الشفّافيّة في تحسين الشعور بالعدالة ورضا الأفراد.
ومن واقع التجربة، ساهمت مؤخّراً بورقة بحثيّة لاقت استحساناً وتقييماً إيجابياً من قبل محكّمين ومراجعين دوليّين، ومن المزمع أن أعرض نتائجها في المؤتمر الدوليّ العاشر للهندسة الحاسوبيّة والاتّصالات (ICCCE) المقرر انعقاده في ماليزيا نهاية الشهر الجاري. حيث قمت بتوظيف إحدى أدوات الذكاء الاصطناعيّ القابل للتفسير المعروفة اختصاراً باسم (SHAP)، وذلك لتحليل بيانات الأداء الوظيفيّ والتنبّؤ بها. وقد مكّنتني هذه الأداة من تقديم قيمة بحثيّة مضافة، من خلال تفكيك التنبّؤات المعقّدة إلى مكوّنات مفهومة ومرئيّة تُظهر بدقّة العوامل الّتي أثّرت في النتائج، وقياس الأثر النسبيّ لكلّ منها. هذا الأسلوب لم يكتف بتحسين دقّة التنبّؤ، بل يتيح أيضاً لمتّخذي القرار فهماً أوضح للسلوك المؤسّسيّ المرتبط بالأداء؛ ممّا يجعل عمليّة اتّخاذ القرار أكثر شفّافيّة وارتكازاً على تفسير علميّ قابل للتطبيق.
إنّ الاتّجاه العامّ واضح، شرح قرارات الذكاء الاصطناعيّ لم يعد خياراً إضافياً؛ بل غَدَا ضرورة استراتيجيّة وحاجة أخلاقيّة لأيّ مؤسّسة تطمح للنجاح والاستدامة في العصر الرقميّ. وتشير التوقّعات إلى أنّه بحلول عام 2026 ستتبنّى نسبة كبيرة من المؤسّسات سياسة التفسير الافتراضيّ (Explainability by default) في أنظمتها. فالمؤسّسات الّتي تتفوّق في دمج الشفّافيّة والتفسير في حلولها الذكيّة لن تكتفي بالالتزام بالضوابط؛ بل ستكسب أيضاً ثقة جمهورها وميزة تنافسيّة ملموسة في اقتصاد رقميّ تعدّ فيه الثقة حجر الأساس.