هذه هي العبرة التي تم أخذها من تقرير صادر من معهد "AI Now"، وهي مجموعة بحثية تابعة لجامعة نيويورك، والتي تبحث في تأثير التكنولوجيا الحديثة على المجتمع الغربي. يخشى الباحثون السيناريوهات التي تستخدم فيها الحكومات والشركات الغربية تقنيات الذكاء الاصطناعي لمراقبة بعض السكان بشكل مستمر أو التمييز بشكل غير عادل ضد بعض المجتمعات من بين حالات أخرى. يأتي التقرير، في الوقت الذي يتم فيه استخدام تقنيات التعلم الآلي بشكل متزايد في عصر كميات هائلة من البيانات، بما في ذلك غوغل والتي تستغلها للقيام بالأعمال مثل التعرف على الكلاب تلقائياً في الصور. لكن التكنولوجيا تثير أيضاً عدداً من المخاوف الأخلاقية.

على سبيل المثال، انتقد العاملون في غوغل المديرين التنفيذيين لعملاق البحث بسبب تفكيرهم في توقيع عقد مع وزارة الدفاع والذي ينطوي على مساعدة الحكومة على استخدام تقنية التعرف على الصور للأغراض العسكرية. وسط رد الفعل العنيف، انسحبت غوغل من عقد الحوسبة السحابية بقيمة 10 مليارات دولار مع الوكالة ، مشيرة إلى سياساتها الداخلية ضد استخدام تعلم الآلة في الحرب والمراقبة.

وفي الوقت نفسه، عانت شركات مثل أمازون ومايكروسوفت من رد فعل الموظفين بسبب العقود الحكومية بسبب القلق من أن برنامج التعرف على الوجه المدعوم بالذكاء الاصطناعي يمكن أن يستخدمه مطبقي القانون لاستهداف الأقليات أو المجتمعات المهمشة بشكل غير عادل.



يقول تقرير معهد"AI Now" إنه يتعين على الحكومة الفيدرالية "الإشراف والتدقيق ومراقبة" استخدام الذكاء الاصطناعي في مجالات مثل العدالة الجنائية والرعاية الصحية والتعليم. وقالت المجموعة إنه ينبغي على الوكالات الفردية أو مجموعات الخبراء أن تتولى الإشراف بدلاً من وكالة تنظيمية كبيرة واحدة لأن كل صناعة تحكمها مجموعة من اللوائح الخاصة بها.

فيما يتعلق بتكنولوجيا التعرف على الوجه، يوصي التقرير "بالقوانين الوطنية التي تتطلب رقابة قوية، وقيوداً واضحة، وشفافية عامة". ويقول المؤلفون إن المجتمعات يجب أن تكون قادرة على رفض استخدام تقنية التعرف على الوجه في مناطقهم إذا كانوا يعتقدون أنه يمكن استخدامها لتمييز أو استهداف الأفراد بشكل غير عادل.

وشبهت كيت كراوفورد، وهي إحدى مؤسسي معهد "AI Now" وباحثة رئيسة في أبحاث مايكروسوفت، المجتمعات التي تحدد استخدام تكنولوجيا التعرف على الوجه في حدود مدينتها بالحكومات المحلية التي يمكنها إنشاء مناطق خالية من الأسلحة النووية.

كان هذا العام مضطرباً بشكل خاص بالنسبة لشركات التكنولوجيا الرائدة التي تستخدم تقنيات الذكاء الاصطناعي مثل Facebook، والتي عانت من أخطاء فادحة في خصوصية البيانات، وانتقدها النقاد بسبب ملفها الإخباري المدعوم بالذكاء الاصطناعي والذي نشر أخبارًا مزيفة في مقدمة الانتخابات الرئاسية الأمريكية عام 2016.

وقالت كراوفورد: "إن حقيقة أن الموظفين في شركات مثل غوغل ومايكروسوفت قاموا بالضغط على المديرين التنفيذيين للتحدث علناً عن الموضوعات الحساسة المتعلقة بالذكاء الاصطناعي وحتى تغيير المسار، تظهر أن العمال يمكنهم إحداث تأثير.

وفي علامة أخرى تبعث على الأمل، أشارت إلى أن شركات مثل مايكروسوفت وأمازون لا تحارب التنظيم الحكومي. على سبيل المثال، حث رئيس مايكروسوفت براد سميث على "تنظيم حكومي مدروس" لتقنية التعرف على الوجه.

[email protected]