منذ بدأت التكنولوجيا بأخذ حيز كبير من حياتنا اليومية وسيطرتها علينا ولا نتخيل حياتنا دونها حتى عرفها البعض بأنها سلاح ذو حدّين، لا يكاد يتقدّم خطوة نحو الأمام حتى يتبعه تساؤل عن الحدود الأخلاقية التي ينبغي ألا يتجاوزها، وها نحن اليوم في خضمّ نقلة تكنولوجية رهيبة متمثلة في تطبيقات الذكاء الاصطناعي، وبدأ العالم كله بطرح أسئلة جوهرية حول كيفية ضبط هذا النمو التقني المتسارع، بما يحقق الفائدة للمجتمع ويحفظ القيم الإنسانية.
فهل نحن مستعدون فعلاً لمستقبل يُتاح فيه للآلة مساحة قد تفوق في بعض الأحيان دور البشر، أم أن الأمر يستدعي وقفة جدية لإرساء قواعد وضوابط صارمة قبل أن تنطلق التكنولوجيا لتصنع واقعاً لا يمكن العودة عنه؟
إن الأخلاقيات ليست رفاهية يمكن تأجيلها أو الالتفاف عليها؛ بل هي حجر الأساس والقواعد التي توضع لأي نقاش حول الذكاء الاصطناعي، فما يشهده العالم اليوم من تقنيات متسارعة تأتي كخطوة استباقية لمواجهة الأسئلة التي تثيرها هذه التكنولوجيا مثل:
1- من يتحمل المسؤولية عندما تخطئ الآلة؟
2- كيف نضمن أن تبقى قرارات الأنظمة الذكية محايدة وغير منحازة؟
3- ما هي حدود الخصوصية التي يمكن التضحية بها في سبيل الاستفادة القصوى من هذه التقنيات؟
المعضلة ليست في وضع قوانين تحكم عمل التكنولوجيا فحسب، بل في ضمان أن تكون هذه القوانين شاملة ومرنة بحيث إنها تكون قادرة على التطور باستمرار، فالتقرير الذي أصدره مركز الإمارات للدراسات والبحوث الاستراتيجية ويحمل عنوان «الذكاء الاصطناعي في عام 2024: الاتجاهات والتحديات» استعرض أبرز الاتجاهات المستقبلية في الذكاء الاصطناعي، ولم يتحدث فقط عن القدرات الجديدة لهذه التكنولوجيا، بل ركّز على الفجوة التنظيمية بين تطور الذكاء الاصطناعي وسرعة إصدار القوانين التي تنظم استخدامه، وهنا تكمن الخطورة، فنحن أمام تقنية تتقدم بسرعة تتجاوز قدرة التشريعات على مواكبتها، وإذا ما استمر هذا التفاوت، فقد نجد أنفسنا في مواجهة تحديات أخلاقية كبرى، مما قد يكون فيه تهديد لاستقرار المجتمعات ويخلّ بالنظام القيمي الذي بُنيت عليه الحضارات.
وتحدث التقرير عن بعض الخطوات نحو تقنين الذكاء الاصطناعي تبدأ بفهم واضح لحقوق الأفراد في هذا العصر الرقمي، وحماية الخصوصية، ومنع التمييز، وضمان الشفافية؛ فهذه ليست شعارات برّاقة، بل هي مبادئ يجب أن تشكل لبنة أساسية في أي إطار تنظيمي يُوضع.
فليس من المنطق أن تُترك خوارزميات الآلة لتقرر مستقبلنا دون أن نفهم كيف وصلت إلى تلك القرارات، أو أن تصبح المعلومات الشخصية للمواطنين متاحةً لتكون وقوداً للآلة دون ضوابط واضحة.
وعندما نتحدث عن الأخلاقيات، لا يمكننا تجاهل قضية المساواة، فهناك هاجس كبير لدى العلماء والمختصين من أن يصبح الذكاء الاصطناعي أداة لتعميق الفجوات الاجتماعية والاقتصادية إذا لم يُحسن تقنينه، ولذلك يجب أن تضمن التشريعات توزيع الفوائد الناجمة عن هذه التقنية بالتساوي بين جميع أفراد المجتمع.
فالتقنين في هذه الحالة لا يجب أن يكون مجرد إجراء روتيني، بل هو التزام قيمي بألا يفقد الإنسان سيطرته على الآلة، وليست هذه دعوة لإيقاف التقدم، بل لنوجهه ونرسم حدوده؛ كي يظل الذكاء الاصطناعي في خدمة الإنسان، لا أداة لسيطرته عليه.
وفي عدد من التصريحات لهيئة المعلومات والحكومة الإلكترونية نجد فيها أن البحرين تسعى لأن تكون في مقدمة الدول العربية التي تبني منظومة ذكاء اصطناعي قوية، فالمشاريع الحكومية الحالية تتراوح بين أنظمة تحليلات البيانات الضخمة، والمساعدات الافتراضية في القطاعات الخدمية، والتطبيقات الأمنية التي تُستخدم لمراقبة الأمن السيبراني وحماية البنى التحتية الرقمية، لكن مع هذه المبادرات الواعدة، عليها أن تأخذ هذه الاعتبارات في الحسبان.
كما ينبغي على المشرعين في المجالس التشريعية النظر بجدية في وضع إطار تنظيمي يأخذ في الاعتبار ليس فقط الأطر القانونية، بل القيم الأخلاقية التي ترتكز عليها، قد لا نعرف بعد كيف سيبدو مستقبل الذكاء الاصطناعي، لكننا نعلم يقيناً أن أي مستقبل بدون تقنين أخلاقي صارم سيكون أكثر سوداوية مما يمكن تخيله، ولضمان أن تكون أي خطوة نخطوها نحو المستقبل محكومة بضوابط تعزز من إنسانيتنا وهويتنا وقيمنا ومعتقداتنا، لا أن تنتقص منها.