أظهر بحث حديث أجراه اتحاد الإذاعات الأوروبية بالتعاون مع هيئة الإذاعة البريطانية أن تطبيقات الذكاء الاصطناعي الرائدة تميل إلى تحريف محتوى الأخبار في ما يقارب نصف ردودها.

وشمل البحث، الذي نُشر اليوم (الأربعاء)، تحليل ثلاثة آلاف إجابة قدمتها أنظمة ذكاء اصطناعي مختلفة على أسئلة إخبارية، حيث تم تقييمها في 14 لغة من حيث الدقة والمصادر والتمييز بين الرأي والحقيقة.

وشملت الدراسة عدداً من المساعدين الذكيين البارزين مثل شات جي بي تي، وكوبايلوت، وجيميناي من "غوغل"، وبربليكستي.

وأظهرت النتائج أن 45% من الردود احتوت على أخطاء جسيمة، فيما تضمنت 81% منها شكلاً من أشكال الخلل في المحتوى أو المعلومة.

كما بيّنت الدراسة أن ثلث الإجابات شابتها مشاكل في المصادر مثل الإسناد الخاطئ أو المفقود، حيث كانت مشكلات "جيميناي" في هذا

الجانب الأعلى بنسبة 72% مقارنة بأقل من 25% لدى المساعدين الآخرين.

وأوضح التقرير أن بعض الردود تضمنت معلومات غير دقيقة أو قديمة، من بينها أخطاء تتعلق بتشريعات السجائر الإلكترونية، وأخرى نسبت وقائع غير صحيحة مثل الإشارة إلى وفاة البابا فرنسيس رغم أنه لا يزال على قيد الحياة.

وشارك في الدراسة 22 مؤسسة إعلامية عامة من 18 دولة بينها فرنسا وألمانيا وإسبانيا وبريطانيا والولايات المتحدة.

وحذر اتحاد الإذاعات الأوروبية من أن تزايد الاعتماد على المساعدين الذكيين في الحصول على الأخبار بدلاً من محركات البحث التقليدية قد يؤدي إلى تراجع ثقة الجمهور بالمعلومات، مما ينعكس سلباً على المشاركة الديمقراطية.

وفي سياق متصل، أشار تقرير الأخبار الرقمية لعام 2025 الصادر عن معهد رويترز إلى أن نحو 7% من مستخدمي الإنترنت و15% من الشباب دون 25 عاماً يعتمدون على تطبيقات الذكاء الاصطناعي للحصول على الأخبار.

وختم التقرير بالتأكيد على ضرورة تحمّل شركات الذكاء الاصطناعي مسؤولية المحتوى الذي تنتجه أنظمتها، والعمل على تحسين دقة الردود المتعلقة بالشأن الإخباري.