أعلنت شركة الذكاء الاصطناعي "أنثروبيك" عن تحديثات صارمة في سياسة استخدام روبوتها للدردشة "كلود"، استجابةً للمخاوف المتزايدة بشأن السلامة والأمن السيبراني، وتأتي هذه التعديلات ضمن جهود الشركة لتقليل احتمالات إساءة استخدام أدوات الذكاء الاصطناعي في تطوير أسلحة خطيرة أو تنفيذ هجمات إلكترونية.
توسيع الحظر على الأسلحة الخطرة
تشمل القواعد الجديدة حظر استخدام كلود في تطوير أنواع متقدمة من الأسلحة، بما في ذلك المتفجرات عالية القوة، والأسلحة البيولوجية والنووية والكيمياوية والإشعاعية، وسبق أن كانت سياسة الشركة تحظر استخدام روبوت الدردشة لإنتاج أو تعديل أو تصميم أو تسويق أو توزيع الأسلحة أو المتفجرات أو المواد الخطرة التي تهدد حياة البشر، إلا أن النسخة الجديدة تزيد من صرامة الحظر لتغطية نطاق أوسع من المخاطر.
حماية متقدمة لمستوى أمان الذكاء الاصطناعي
طبّقت أنثروبيك نظام حماية "مستوى أمان الذكاء الاصطناعي 3" بالتزامن مع إطلاق نموذجها الجديد "Claude Opus 4"، بهدف تعزيز أمان الروبوت وجعل اختراقه أكثر صعوبة، بالإضافة إلى منعه من المساهمة في تطوير أسلحة كيمياوية أو بيولوجية أو نووية أو إشعاعية.
التعامل مع أدوات الذكاء الاصطناعي الوكيل
تشمل التحديثات الجديدة أيضًا معالجة المخاطر المرتبطة بقدرات كلود الموسعة، مثل التحكم في جهاز المستخدم عبر "استخدام الحاسوب"، ودمج الروبوت في بيئة المطور من خلال أداة "Claude Code"، وذكرت أنثروبيك أن هذه القدرات قد تُستغل لإنشاء برامج خبيثة أو تنفيذ هجمات إلكترونية واسعة النطاق، وهو ما دفع الشركة لإضافة قسم جديد في السياسة يركز على منع أي إساءة استخدام محتملة.
قواعد حماية الأنظمة والشبكات
أضافت أنثروبيك إلى سياسة الاستخدام بندًا يمنع استغلال كلود في اكتشاف الثغرات الأمنية أو إنشاء وتوزيع البرمجيات الضارة، ويشمل الحظر أي استخدام قد يعرض أنظمة الحاسوب أو الشبكات للخطر، ما يعكس حرص الشركة على منع أي إساءة محتملة للقدرات القوية للذكاء الاصطناعي في بيئات العمل أو على الإنترنت.
موضوعات متعلقة:
جوجل تحذر من مخاطر استخدام Gemini في التحكم بالأجهزة المنزلية
بكين تستضيف أول بطولة عالمية للروبوتات البشرية بمشاركة 280 فريقًا