في ظل القفزات الهائلة للذكاء الاصطناعي واستخداماته الممتدة بين الإيجابية والسلبية، برزت مؤشرات عالمية للسلامة في الذكاء الاصطناعي، منها: مبادئ منظمة التعاون والتنمية الاقتصادية «OECD»، ومبادرة AI Ethics Guidelines، ومؤشرات الاتحاد الأوروبي واللائحة العامة لحماية البيانات «GDPR»، ووثيقة إطار تبني الذكاء الاصطناعي كدليل إرشادي.
وقد نشر معهد مستقبل الحياة «FLI» مؤشر سلامة الذكاء الاصطناعي، الذي بُني على تقييم جهود السلامة في 7 شركات رائدة متقدمة بهدف تحفيز «سباق نحو القمة» في معايير الأمان والشفافية، حيث تم تقييم الشركات في 6 مجالات أساسية تضمنت 32 مؤشراً، هي: تقييم المخاطر «مثل اختبارات القدرات الخطرة»، الأضرار الحالية «الحماية من الاختراقات والخصوصية»، أطر السلامة «الضوابط التقنية والحوكمة»، السلامة الوجودية «التخطيط لمخاطر AGI/ASI»، المساءلة والحوكمة «الهيكل المؤسسي وسياسات الإبلاغ»، ومشاركة المعلومات «التعاون مع الحكومات والباحثين».
تمّ تصنيف الشركات من A «الأعلى» إلى F «الأدنى»، وقد أظهرت النتائج الرئيسة فجوات كبيرة في السلامة، بحيث لا توجد شركة جاهزة لمخاطر الذكاء العام «AGI»، جميع الشركات حصلت على D أو أقل في مجال السلامة الوجودية، رغم أن قادتها يتوقعون بناء ذكاء عام خلال عقد من الزمن حيث وصفت اللجنة هذا التناقض بأنه «مُقلق». هناك فقط 3 شركات «أنثروبيك، أوبن إيه آي، جوجل» أجرت اختبارات لمخاطر البيولوجيا أو الإرهاب السيبراني، لكن منهجياتها افتقرت إلى الشفافية والاختبار الخارجي. شركة أوبن إيه آي هي فقط من نشرت سياسة كاملة للإبلاغ عن المخالفات، أما البقية فإما افتقاد السياسة أو فرض قيود على الموظفين.
اتضح كذلك أن الفجوة تتسع بين التطور التقني وضوابط السلامة من خلال السباق تجاه إطلاق نماذج أقوى «مثل Grok-4 من x.AI» الذي تجاوز تحسينات السلامة في ظل غياب معايير تنظيمية إلزامية، أما الشركات الصينية فقد حصلت على تقدير F، إنما لم يتطرق التقرير للاختلافات الثقافية والقانونية، مثلاً؛ تمتلك الصين أنظمة حكومية لتنظيم الذكاء الاصطناعي، أما المعايير الغربية «كالشفافية في الحوكمة» فهي أقل بروزاً في الإطار الصيني!
قدم المؤشر توصيات لجميع الشركات منها نشر خطة أولية لآلية التحكم في أنظمة الـAGI وتوصياتها المخصصة، مثل توصية Meta لتعزيز الاستثمار في أبحاث السلامة التقنية، وتوصية DeepSeek لمعالجة ثغرات الاختراق «Jailbreak»، وOpenAI لإعادة بناء فريق السلامة بعد استقالة رئيسية.
إن التوجّه نحو استثمارات ضخمة وسباق تطوير أنظمة ذكاء خارق قد يُفقدنا السيطرة عليها، لذا يحتاج العالم لإعادة نظر في نهج لسلامة الذكاء الاصطناعي والدوافع الرأسمالية لحصد الأموال، وربما القوى الخفيّة والسيادة الرقمية والنفوذ، فجميعها محفزات لهذا السباق العالمي غير الآمن.