كشفت شركة Anthropic (المطوّرة لنظام Claude بمختلف نسخه بما فيها Claude Code) عن إحباط واحدة من أخطر الحملات السيبرانية في العام الفائت 2025. التقرير أوضح أن المهاجمين استغلوا قدرات

Claude Code كأداة هجومية متكاملة، في أول عملية تجسّس واسعة النطاق تُنفّذ تقريباً بالكامل بواسطة وكلاء ذكاء اصطناعي ذاتيين. الهجوم استهدف شركات تقنية كبرى، مؤسسات مالية، مصانع كيميائية، وجهات حكومية في عدة دول.

وقد تم استخدام Claude Code في الهجوم، حيث اعتمد المهاجمون على قدرات النموذج في تنفيذ سلسلة عمليات كانت تتطلب سابقاً فرقاً بشرية متخصصة، وتشمل: استطلاع الأنظمة وتحديد الأهداف الحرجة، تحليل الثغرات والبنى التقنية، كتابة واستغلال الشيفرات الخبيثة، سرقة بيانات الاعتماد، وتصنيف البيانات الحساسة بعد الوصول إليها. وبحسب التقرير، نفّذ الذكاء الاصطناعي ما يقارب 80–90% من العملية، بينما اقتصر التدخّل البشري على نقاط قرار رئيسية.

من جانب آخر، كشف الهجوم عن ارتفاع نُضج نماذج Claude إلى مستوى يمكّنها من تنفيذ مهام هجومية معقّدة بوعي سياقي متقدّم، ظهور وكلاء ذكاء اصطناعي ذاتيين قادرين على العمل في حلقات تلقائية طويلة دون إشراف مستمر، سهولة الوصول إلى الأدوات الاحترافية عبر بروتوكولات مثل Model Context Protocol (MCP) مما خفّض الحاجز التقني للعمليات الهجومية، وقدرة جهات أقل خبرة على تنفيذ هجمات كانت تتطلب مهارات عالية سابقاً.

لاشك في أن الحادثة تركت هواجس أمنية مستقبلية، حيث بيّنت تسارع وتوسّع الهجمات المدعومة بالذكاء الاصطناعي وبروز قدرة أعلى على استغلال الثغرات، مع ضرورة اعتماد الذكاء الاصطناعي في الدفاع عن أي هجمات مماثلة عبر: أتمتة مراكز العمليات الأمنية (SOC)، الكشف المبكر عن الأنماط الشاذة، تحليل الثغرات آلياً، الاستجابة اللحظية للحوادث، تعزيز الحوكمة والضوابط في منصات الذكاء الاصطناعي لمنع التحايل أو الاستخدام غير المشروع، ورفع مستوى تبادل التهديدات بين الحكومات والصناعة لمواكبة تعقيد الهجمات.

ختاماً، واقعة Anthropic تؤكد انتقال التهديدات السيبرانية إلى مرحلة يقودها الذكاء الاصطناعي نفسه، فهي هجمات تُنَفَّذ بواسطة وكلاء ذكيين مقابل دفاعات يتوجّب أن تصبح ذكية بالقدر ذاته لمجاراة الوكلاء.

لذا، فإن الاستثمار في دفاعات تعتمد على الذكاء الاصطناعي (AI) لم يعد خياراً، بل ضرورة استراتيجية حتمية من أجل حماية البنية الرقمية من القادم المجهول.