مع التطوّر السريع للذكاء الاصطناعي تطوّرت معه الضغوط لتأسيس ضمانات لحماية الإنسان من مخاطره. لذا، تركّز العديد من مؤسسات القطاعين العام والخاص والمنظمات الأهلية ومراكز الفكر العالمية، لتأسيس مبادئ تحكم توجهات الذكاء الاصطناعي واستخداماته، ومنها "مبادئ غوغل" و"مبادئ مايكروسوفت" وما شاكل.
معهد مستقبل الحياة "Future of Life Institute" الذي تأسس بعام 2014 لرصد المخاطر الوجودية المهددة للإنسان، عمل على تأسيس المبادئ التوجيهية الـ23 المسمّاة مبادئ أسيلومار "ASILOMAR AI PRINCIPLES" الهادفة لتطوير تقنيات الذكاء الاصطناعي بأمن وموثوقية. وفي دراسة لذات المعهد تبيّن أن الذكاء الاصطناعي لن يمنح مشاعر إنسانية كالحب والكراهية أو يكون مصدراً تلقائياً للخير أو الشر.
في المقابل يفيد المعهد بوجود مسارين قد يتسبب الذكاء الاصطناعي عبرهما بخَـلق مخاطر:
- المسار الأول: برمجة الذكاء الاصطناعي للقيام بعمل مدمّر كالأسلحة الذاتية الفتاكة وهي تقنيات ذكاء اصطناعي مبرمجة للقتل، مما يقود لحرب ذكاء اصطناعي لا يعلم تبعاتها سوى الله تعالى.
- المسار الثاني: برمجة الذكاء الاصطناعي للقيام بأمر مفيد لكنه يقوم ذاتياً بتطوير آليات مدمرة لتحقيق الهدف، وذاك يحدث عند الفشل بربط أهداف الذكاء الاصطناعي مع أهداف البشر النبيلة. كأن تطلب من سيارة أجرة ذكية إيصالك للسينما بأقصى سرعة، فتنفذ السيارة ما طلبته لكنها تتسبب بمخالفات مرورية توقعك بمشاكل.
لذلك تعمل الدول المتقدمة والناشئة على تقييم تجاربها مع الذكاء الاصطناعي استناداً على 4 مبادئ أساسية:
- الشمولية: أن تشمل ميّزات الذكاء الاصطناعي كل أفراد المجتمع، وتُطبق أنظمة الحوكمة على هذه التقنيات، مع تضمين احترام الأفراد وحقوقهم وخصوصياتهم.
- الإنسانية: أن يكون الذكاء الاصطناعي نافعاً للبشرية وأن ينسجم مع القيم الإنسانية على المديين القصير والطويل.
- الأمان: أن تكون أنظمة الذكاء الاصطناعي آمنة وتُسخّـر لخدمة البشرية.
- الأخلاقيات: أن تكون أنظمة الذكاء الاصطناعي شفافة ونزيهة وتخضع للمساءلة.
وتجنّباً للتجاوزات الأخلاقية، عمل الاتحاد الأوروبي على إصدار "قانون الخدمات الرقمية"، للتخلص من المحتوى السيء المنتشر على الشبكة العنكبوتية، وذلك لتحميل المنصات الرقمية مسؤولية تصميم الخوارزميات الخاصة بها وما تعكسه من محتوى والإفصاح عنها بشفافية، سعياً لتحجيم الانتشار الواسع للمعلومات المضللة ومكافحة خطاب العنف والكراهية، ومنع عرض المنتجات والخدمات غير الآمنة بالأسواق. تلك القوانين تُعبّد الطريق أمام دولنا لفرض تشريعات تتبنّى قيمنا وأخلاقياتنا بما يُسهم في تحسين استخدام بيانات المستفيدين ومنع استغلالها سلباً.
وسعياً لضمان عودة هذه التكنولوجيات الناشئة بالنفع على البشرية بأسرها، عملت اليونسكو مع شركائها حول العالم على مشروع إعداد "وثيقة تقنينية عالمية لأخلاقيات الذكاء الاصطناعي" لضمان تكوين منظومة قيَـمية تحكم العلاقة بين الطرفين وتتضمن قيَـم أخلاقية ومبادئ توجيهية مشتركة بين المجتمعات كمعايير مرجعيّة مثل الشفافية، والعدالة والإنصاف، ومنع الضرر، والمسؤولية، وحماية البيانات والخصوصية.
معهد مستقبل الحياة "Future of Life Institute" الذي تأسس بعام 2014 لرصد المخاطر الوجودية المهددة للإنسان، عمل على تأسيس المبادئ التوجيهية الـ23 المسمّاة مبادئ أسيلومار "ASILOMAR AI PRINCIPLES" الهادفة لتطوير تقنيات الذكاء الاصطناعي بأمن وموثوقية. وفي دراسة لذات المعهد تبيّن أن الذكاء الاصطناعي لن يمنح مشاعر إنسانية كالحب والكراهية أو يكون مصدراً تلقائياً للخير أو الشر.
في المقابل يفيد المعهد بوجود مسارين قد يتسبب الذكاء الاصطناعي عبرهما بخَـلق مخاطر:
- المسار الأول: برمجة الذكاء الاصطناعي للقيام بعمل مدمّر كالأسلحة الذاتية الفتاكة وهي تقنيات ذكاء اصطناعي مبرمجة للقتل، مما يقود لحرب ذكاء اصطناعي لا يعلم تبعاتها سوى الله تعالى.
- المسار الثاني: برمجة الذكاء الاصطناعي للقيام بأمر مفيد لكنه يقوم ذاتياً بتطوير آليات مدمرة لتحقيق الهدف، وذاك يحدث عند الفشل بربط أهداف الذكاء الاصطناعي مع أهداف البشر النبيلة. كأن تطلب من سيارة أجرة ذكية إيصالك للسينما بأقصى سرعة، فتنفذ السيارة ما طلبته لكنها تتسبب بمخالفات مرورية توقعك بمشاكل.
لذلك تعمل الدول المتقدمة والناشئة على تقييم تجاربها مع الذكاء الاصطناعي استناداً على 4 مبادئ أساسية:
- الشمولية: أن تشمل ميّزات الذكاء الاصطناعي كل أفراد المجتمع، وتُطبق أنظمة الحوكمة على هذه التقنيات، مع تضمين احترام الأفراد وحقوقهم وخصوصياتهم.
- الإنسانية: أن يكون الذكاء الاصطناعي نافعاً للبشرية وأن ينسجم مع القيم الإنسانية على المديين القصير والطويل.
- الأمان: أن تكون أنظمة الذكاء الاصطناعي آمنة وتُسخّـر لخدمة البشرية.
- الأخلاقيات: أن تكون أنظمة الذكاء الاصطناعي شفافة ونزيهة وتخضع للمساءلة.
وتجنّباً للتجاوزات الأخلاقية، عمل الاتحاد الأوروبي على إصدار "قانون الخدمات الرقمية"، للتخلص من المحتوى السيء المنتشر على الشبكة العنكبوتية، وذلك لتحميل المنصات الرقمية مسؤولية تصميم الخوارزميات الخاصة بها وما تعكسه من محتوى والإفصاح عنها بشفافية، سعياً لتحجيم الانتشار الواسع للمعلومات المضللة ومكافحة خطاب العنف والكراهية، ومنع عرض المنتجات والخدمات غير الآمنة بالأسواق. تلك القوانين تُعبّد الطريق أمام دولنا لفرض تشريعات تتبنّى قيمنا وأخلاقياتنا بما يُسهم في تحسين استخدام بيانات المستفيدين ومنع استغلالها سلباً.
وسعياً لضمان عودة هذه التكنولوجيات الناشئة بالنفع على البشرية بأسرها، عملت اليونسكو مع شركائها حول العالم على مشروع إعداد "وثيقة تقنينية عالمية لأخلاقيات الذكاء الاصطناعي" لضمان تكوين منظومة قيَـمية تحكم العلاقة بين الطرفين وتتضمن قيَـم أخلاقية ومبادئ توجيهية مشتركة بين المجتمعات كمعايير مرجعيّة مثل الشفافية، والعدالة والإنصاف، ومنع الضرر، والمسؤولية، وحماية البيانات والخصوصية.