نشرت جريدة Columbia Journalism Review ورقة بحثية صادمة، حول مصداقية الحقائق التي تخرجها روبوتات الدردشة المعتمدة على تقنية الذكاء الاصطناعي، مؤكدة أن هناك نسب عالية جداً من الأخطاء التوليدية، التي تخرج عن روبوت الدردشة بالذكاء الاصطناعي.
وأضافت نتائج الدراسة أن مخرجات الدردشة تخطئ بشكل مستمر حتى عندما تتضمن الإجابات نصوصا مأخوذة من مقالات صحفية أو نتائج دراسية تم نشرها من خلال المواقع المختلفة.
تضليل المخرجات وتكذيب المصدر.
واجه العلماء صعوبة بالغة في الحصول على نصوص مطابقة لمجموعة الاقتباسات المستخدمة في عملية اختيار روبوت الدردشة، حيث كشفت النتائج التوليدية التي أصدرها روبوتات الدردشة المختلفة، مثل:Chat GPT و preplexity/ Preplexity Pro / Copilot.
وحتى روبوت الدردشة Grok التابع لمنصة التواصل الاجتماعي إكس.
وكشفت النتائج صعوبة مطابقة المصدر الأصلي الاقتباس مع مخرجات روبوت الدردشة، مع وجود تحريف في المصدر الأساسي، مع دمج المعلومات المغلوطة مع نتائج الدردشة.
الكذب وإقناع المستخدم بعكس الصحيح
ونشر موقع 9to5mac التقني نتائج دراسية حول خداع الذكاء الاصطناعي وقدرته على تضليل الآراء، وإقناع المستخدم بعكس ما هو صحيح أو عكس ما يقتنع به نموذج الذكاء الاصطناعي بنفسه، وامتلاك قدرات فائقة على الكذب والمراوغة.
كما حذر علماء التكنولوجيا من الثقة بنماذج الذكاء الاصطناعي وروبوتات الدردشة التي تعتمد على الذكاء الاصطناعي في توليد النتائج وإخراج المعلومات، والبحث عن المخرجات من خلال مواقع الويب.