كاشف الذكاء الاصطناعي هو أداة مصممة لتحديد ما إذا كان المحتوى (نصوص، صور، فيديو، أو صوت) قد تم إنشاؤه بواسطة أنظمة الذكاء الاصطناعي أو تمت كتابته أو إنتاجه بشكل طبيعي بواسطة الإنسان.
تعتمد هذه الأدوات على خوارزميات متقدمة لتحليل المحتوى واكتشاف مؤشرات وأنماط معينة تُعد علامات مميزة للمحتوى المُولَّد اصطناعياً.
الهدف الرئيسي من هذه الأدوات هو ضمان الأصالة والحفاظ على النزاهة.
ففي مجال البحث الأكاديمي، يمكن لأدوات الكشف الموثوقة التحقق من أصالة المخطوطات العلمية والرسائل الجامعية والرسوم البيانية والبيانات قبل مرحلة التحكيم أو النشر، مما يساعد المحررين على اكتشاف المحتوى المُصطنع أو غير الأصلي مع تقليل احتمالات النتائج الإيجابية الخاطئة.
- كيف يعمل كاشف الذكاء الاصطناعي؟
* كواشف النصوص المولَّدة بالذكاء الاصطناعي:
تقوم كواشف النصوص بتحليل أسلوب الكتابة باستخدام مقاييس رياضية لتحديد ما إذا كان النص يشبه الأنماط المتوقعة لنماذج اللغة الكبيرة (LLMs). ومن أبرز هذه المقاييس:
- قابلية التنبؤ (Perplexity):
تقيس مدى قابلية توقع الكلمات في النص.
إذ إن نماذج الذكاء الاصطناعي تعتمد أساساً على التنبؤ بالكلمة الأكثر احتمالاً تالياً، مما يؤدي غالباً إلى نصوص ذات مستوى عالٍ من التوقع في تركيبها اللغوي.
- التفاوت أو «الاندفاعية» في الأسلوب (Burstiness):
يشير إلى التنوع في طول الجمل وبنيتها.
فالكتابة البشرية الطبيعية غالباً ما تتسم بالتنوع؛ إذ تجمع بين جمل طويلة ومعقدة وأخرى قصيرة جداً، وربما جمل من كلمة أو كلمتين فقط.
في المقابل، تميل النصوص التي يولدها الذكاء الاصطناعي إلى جمل متقاربة في الطول وتدفق لغوي منتظم نسبياً.
وغالباً ما يبدو النص المُولَّد آلياً، عند قراءته بصوت عالٍ، ذا إيقاع رتيب ومتواصل.كواشف الصور المولَّدة بالذكاء الاصطناعي:
تعتمد كواشف الصور على تحليل الأنماط الإحصائية والتناقضات البصرية التي قد تميّز الصور الاصطناعية عن تلك التي التقطتها الكاميرات أو أنشأها البشر.
تستخدم هذه الأدوات تقنيات متقدمة في الرؤية الحاسوبية والتعلم العميق للكشف عن مؤشرات دقيقة قد لا تكون مرئية للعين البشرية، مثل:
- الانحرافات على مستوى البكسل: بعض الصور المولَّدة بالذكاء الاصطناعي تحتوي على توزيعات غير طبيعية للبكسلات أو أنماط متكررة تشير إلى عملية التوليد الخوارزمي.
- أنماط الضوضاء الرقمية (Noise Patterns): الصور الملتقطة بالكاميرات تحتوي عادة على ضوضاء حساسات طبيعية، بينما قد تفتقر الصور الاصطناعية إلى هذه الخصائص أو تُظهر أنماطاً مختلفة عنها.
- تشوهات في التفاصيل الدقيقة: مثل الأصابع غير الطبيعية، أو الظلال غير المتناسقة، أو انعكاسات الضوء غير الواقعية.
- كشف الاستنساخ (Clone Detection): تحديد ما إذا كانت أجزاء من الصورة قد تم نسخها أو تكرارها من مصادر أخرى أو داخل الصورة نفسها.
كواشف الفيديو المولَّد بالذكاء الاصطناعي:
مع التطور السريع في تقنيات التزييف العميق (Deepfake)، أصبحت أدوات كشف الفيديو تعتمد على تحليل عدة طبقات من البيانات المرئية والسمعية لتحديد ما إذا كان الفيديو قد تم إنشاؤه أو تعديله باستخدام الذكاء الاصطناعي.
وتشمل أبرز أساليب الكشف تحليل حركات الوجه الدقيقة وتزامن حركة الشفاه مع الصوت، إضافة إلى دراسة الاتساق الزمني بين الإطارات المتتالية في الفيديو.
كما تقوم بعض الأدوات بتحليل الإضاءة والظلال داخل المشهد للكشف عن أي تناقضات قد تشير إلى دمج عناصر مولَّدة أو معدّلة رقمياً. وفي بعض الحالات يتم أيضاً تحليل الطيف الصوتي المصاحب للفيديو للتأكد مما إذا كان الصوت قد تم توليده باستخدام تقنيات استنساخ الصوت المعتمدة على الذكاء الاصطناعي.
كما ظهرت منصات متخصصة لتعزيز كشف الفيديوهات المضللة والتزييف العميق، حيث تركز كل منصة على جانب معين من التحليل.
فتوفر Reality Defender قدرات فحص فوري للمحتوى أثناء البث أو رفع الفيديو، بينما تعتمد Intel FakeCatcher على تحليل الإشارات البيولوجية مثل تدفق الدم في الوجه للكشف عن التزييف.
وتتميز Microsoft Video Authenticator بتحليل التلاعب على مستوى البكسل وإعطاء مؤشر لاحتمالية التعديل، في حين تقدم Sensity AI قدرات استخبارات بصرية لتتبع مصادر الفيديو المزيف وانتشاره عبر الإنترنت. وتساعد هذه الأدوات المؤسسات الإعلامية والمنصات الرقمية على التحقق من مصداقية المحتوى والحد من انتشار مقاطع التزييف العميق.