تحوّل الذكاء الاصطناعي إلى شريك لا يكلّ ولا يملّ، يقرأ رسائلنا الإلكترونية، ويُلخّص تقاريرنا، وينفّذ أوامرنا بدقة آلية عالية. غير أن هذا الامتثال ذاته أوجد ثغرة خطيرة يتعلّم المهاجمون استغلالها بذكاء متزايد. تُعرف هذه الثغرة باسم حقن الأوامر النصية (Prompt Injection)، وهي ممارسة تقوم على تضمين تعليمات خبيثة داخل البيانات التي تعالجها أنظمة الذكاء الاصطناعي، وقد أصبحت اليوم الخطر الأمني الأول المرتبط بالذكاء الاصطناعي لعام 2025.
تركّز الدفاعات التقليدية للأمن السيبراني على نوع مختلف تماماً من التهديدات؛ إذ تبحث عن أخطاء تركيبية مثل الملفات التالفة أو أنماط الشيفرات الخبيثة، وهي أمور تستطيع الجدران النارية وبرامج مكافحة الفيروسات وأنظمة كشف التسلل رصدها وحظرها. أما حقن الأوامر النصية فيستهدف المعنى اللغوي لا العيوب التقنية. ويكمن نجاح هذا الأسلوب في أن أنظمة الذكاء الاصطناعي تتعامل مع كل نص تعالجه على أنه قد يتضمن تعليمات صالحة للتنفيذ. يستطيع المهاجم، على سبيل المثال، تضمين أوامر داخل رسالة بريد إلكتروني أو مستند تطلب من النظام تمرير بيانات حساسة، فيقوم الذكاء الاصطناعي بتنفيذ طلب المستخدم الظاهر والتعليمات الخفية في آن واحد وبسلاسة تامة. ويمثل ذلك تحولاً جذرياً في طبيعة التهديدات السيبرانية؛ فاستثمارات الأمن الممتدة لعقود بُنيت لرصد المخالفات التركيبية، لكنها عاجزة عن اكتشاف التعليمات الصحيحة لغوياً والمُعادية استراتيجياً.
يدرك قادة الصناعة والجهات الحكومية المعنية بالأمن أن هذه الثغرة قد لا تُحلّ بالكامل. فهي ليست خللاً برمجياً يمكن إصلاحه، بل سمة متأصلة في كيفية معالجة نماذج اللغة للمعلومات. ومع حصول وكلاء الذكاء الاصطناعي على صلاحيات الوصول إلى قواعد بيانات الشركات، ومنصات المعاملات، وأنظمة الاتصالات الداخلية، يتضاعف حجم المخاطر بشكل كبير. وعليه، يجب أن يتطور نموذج الأمن من حماية سلامة البرمجيات إلى حماية سلامة التعليمات والنية.
ورغم أن المؤسسات لا تستطيع القضاء على هذا الخطر كلياً، إلا أنها قادرة على التصميم حوله عبر حوكمة استراتيجية بدلاً من الاعتماد على إصلاحات أمنية تفاعلية. تبدأ الحوكمة الفعالة بتحديد حدود الصلاحيات، بحيث تُقيّد قدرات الذكاء الاصطناعي وفق الاحتياجات التشغيلية المحددة. فعلى سبيل المثال، ينبغي لأدوات خدمة العملاء الوصول إلى وثائق الدعم دون البيانات المالية، في حين يقتصر دور مساعدي البحث على استرجاع المعلومات لا إرسال الرسائل. وإلى جانب ضوابط الوصول، يتعين على القيادات وضع نقاط تحكّم حوكمية تتناسب مع حجم الأثر على الأعمال؛ فيمكن للذكاء الاصطناعي صياغة العقود، لكن يعتمدها المحامون قبل التوقيع، أو تحليل المصروفات بينما يجيز المراقبون الماليون عمليات الدفع. هذا النهج يمثّل هندسة تحكّم استراتيجية لا مجرد احتكاك دفاعي.
كما يجب على المؤسسات التعامل مع البيانات الخارجية على أنها غير موثوقة بطبيعتها. فالمستندات والمواقع الإلكترونية ومراسلات الأطراف الثالثة ليست مجرد مصادر معلومات، بل قد تكون قنوات لنقل تعليمات خفية. وتظل المراقبة المستمرة عنصراً أساسياً، حيث تُفعَّل بروتوكولات الحوكمة لإجراء مراجعة فورية عند انحراف سلوك الذكاء الاصطناعي عن الأنماط المتوقعة. وتشكل هذه التدابير مجتمعة الأساس لنشر مسؤول وآمن للذكاء الاصطناعي.
إن التحدي الحقيقي لا يكمن في قرار نشر الذكاء الاصطناعي من عدمه، بل في ما إذا كانت المؤسسات تمتلك الانضباط الاستراتيجي اللازم لحوكمته بفعالية. ومع انتقال الهجمات من كسر الشيفرات إلى توجيه النوايا، تواجه المؤسسات خياراً حاسماً: فإما أن تُحسن تصميم آليات التحكم فتستفيد من قوة الذكاء الاصطناعي بمسؤولية، أو تندفع بلا إطار حوكمي فتُضخّم مواطن ضعفه ومخاطره.