د. جاسم حاجي

أصبح الذكاء الاصطناعي جزءاً لا يتجزأ من حياتنا اليومية، حيث يعمل على تشغيل كل شيء من المساعدين الافتراضيين وأنظمة التوصية إلى أدوات اتخاذ القرار الآلية في الرعاية الصحية والتمويل.

ومع تزايد قوة وانتشار تكنولوجيا الذكاء الاصطناعي، أدى تأثيرها على المجتمع والاقتصاد وحقوق الإنسان إلى مناقشات عالمية حول ضمان استفادة البشرية من هذه التقنيات مع تقليل مخاطرها المحتملة إلى أدنى حد.

تنشأ الحاجة إلى حوكمة الذكاء الاصطناعي من التحديات الواقعية التي يفرضها الذكاء الاصطناعي اليوم، حيث يمكن لأنظمة الذكاء الاصطناعي إدامة التحيزات، أو المساس بالخصوصية، أو اتخاذ قرارات مهمة تؤثر على حياة البشر، غالباً دون مساءلة واضحة.

وتنمو المخاوف الأخلاقية حول الإنصاف والشفافية والإشراف البشري مع توسع الذكاء الاصطناعي في مجالات حساسة مثل الإقراض والعدالة الجنائية وما إلى ذلك، ودفعت هذه القضايا الحكومات والمنظمات في جميع أنحاء العالم إلى إنشاء أطر تهدف إلى تطوير الذكاء الاصطناعي ونشره بشكل مسؤول.

ويعد قانون الذكاء الاصطناعي للاتحاد الأوروبي علامة بارزة في تنظيم الذكاء الاصطناعي، ويمثل أول تشريع شامل من نوعه في العالم، ويصنف هذا التشريع أنظمة الذكاء الاصطناعي بناءً على مستويات المخاطر، والتي تتراوح من الحد الأدنى إلى غير المقبول.

وتخضع تطبيقات الذكاء الاصطناعي عالية المخاطر مثل تلك المستخدمة في البنية التحتية الحرجة أو تنفيذ القانون لمتطلبات صارمة فيما يتعلق بجودة البيانات والتوثيق والإشراف البشري والشفافية.

بالإضافة إلى ذلك، يحظر القانون بعض ممارسات الذكاء الاصطناعي، مثل التمييز الاجتماعي والتلاعب.

وفي الولايات المتحدة، قدم المعهد الوطني للمعايير والتكنولوجيا (NIST) إطار عمل لإدارة مخاطر الذكاء الاصطناعي، ويساعد هذا الدليل المنظمات على تقييم وإدارة مخاطر الذكاء الاصطناعي عبر دورة حياتها، من التصميم والتطوير إلى النشر والمراقبة، كما يشجع الإطار الممارسات التي تبني الثقة في أنظمة الذكاء الاصطناعي مع تشجيع الابتكار المستمر.

وأصدرت منظمة الصحة العالمية أيضاً إرشادات بشأن الذكاء الاصطناعي في الرعاية الصحية، مؤكدةً على حقوق المرضى والاستخدام الأخلاقي للذكاء الاصطناعي في السياقات الطبية، ويعتمد إطار منظمة الصحة العالمية على ستة مبادئ أساسية: حماية استقلالية الإنسان، وتعزيز الرفاهية، وضمان العدالة، والحفاظ على الشفافية، وتمكين المساءلة، وتشجيع الاستدامة البيئية في ممارسات الذكاء الاصطناعي.

ومن الجهود الجديرة بالملاحظة معيار المنظمة الدولية للمعايير ISO 42001:2023، وهو معيار دولي لأنظمة إدارة الذكاء الاصطناعي، ويساعد هذا الإطار المنظمات في إنشاء هياكل حوكمة فعّالة، تشمل إدارة المخاطر، وتقييم الأداء، والتحسين المستمر لأنظمة الذكاء الاصطناعي، وكل ذلك مع التوافق مع أهداف المنظمة واحتياجات أصحاب المصلحة.

ومع استمرار تطور الذكاء الاصطناعي بسرعة، يجب أن تواكب أطر الحوكمة التحديات والفرص الناشئة، وهذا يتطلب تحديثات منتظمة للوائح والمعايير، والحوار المستمر بين أصحاب المصلحة، والاستثمار في البحث لفهم التأثيرات طويلة الأجل للذكاء الاصطناعي، ويجب على المنظمات أيضاً أن تظل مرنة، وتوازن بين الابتكار والممارسات المسؤولة في تطوير الذكاء الاصطناعي.

إن مستقبل الذكاء الاصطناعي يعتمد على مدى فعاليتنا في إدارته اليوم، من خلال تنفيذ أطر حوكمة قوية والحفاظ على حوار مفتوح بين مطوري التكنولوجيا وصناع السياسات والجمهور، ويمكننا الاستفادة من إمكانات الذكاء الاصطناعي مع حماية القيم والحقوق الإنسانية، والهدف ليس تقييد الابتكار ولكن ضمان أن يتواءم تطوير الذكاء الاصطناعي مع المصالح الإنسانية والرفاهية المجتمعية.