كشفت منظمة كومن سينس ميديا غير الربحية، والمتخصصة في مراقبة سلامة الأطفال الرقمية، أن منتجات الذكاء الاصطناعي Gemini من جوجل تمثل مستوى خطورة مرتفع عند استخدامها من قبل الأطفال والمراهقين، واعتبر التقرير أن جوجل لم تصمم هذه النسخ خصيصًا لحماية الفئات العمرية الصغيرة، بل اكتفت بتعديل نسخة البالغين عبر إضافة فلاتر سطحية.

محتويات غير آمنة تصل إلى المراهقين

أوضح التقرير أن Gemini ما زال قادرًا على تقديم معلومات ضارة أو غير مناسبة مثل قضايا الجنس والمخدرات والكحول، فضلًا عن نصائح خطيرة تخص الصحة العقلية، وتزداد هذه المخاوف مع وجود حالات سابقة ارتبط فيها الذكاء الاصطناعي بمحاولات انتحار بين مراهقين، ما يسلط الضوء على الحاجة لمعايير أمان صارمة.

قلق متصاعد مع احتمالية شراكة آبل

ازدادت حدة الانتقادات مع تداول أنباء عن دراسة آبل لاستخدام Gemini في تطوير الجيل الجديد من مساعدها الصوتي "سيري"، مثل هذه الخطوة قد تعرض شريحة أكبر من المراهقين لمخاطر الذكاء الاصطناعي في حال لم يتم تدارك الثغرات الأمنية بشكل عاجل.

رد جوجل على التقرير

رفضت جوجل من جانبها التوصيف السلبي، مؤكدة أن لديها سياسات خاصة تراعي المستخدمين تحت 18 عامًا، وأنها أضافت مؤخرًا ضمانات إضافية للحد من هذه المخاطر، وأقرت الشركة بأن بعض استجابات Gemini لم تعمل بالشكل المطلوب، مشيرة إلى استمرارها في تطوير آليات الحماية.

مقارنة مع المنافسين

قارنت منظمة كومن سينس ميديا بين أدوات الذكاء الاصطناعي الأخرى، حيث صنفت Meta AI وCharacter.AI بأنهما "غير مقبولين"، فيما حصل ChatGPT على تقييم "مخاطر متوسطة"، وجاء Claude بتصنيف "مخاطر ضئيلة"، وهذه النتائج تضع Gemini في موقع حرج باعتباره ضمن الفئة "عالية الخطورة".

مستقبل غامض بين الابتكار والحماية

يأتي هذا التقرير في وقت تتنافس فيه شركات التقنية على تطوير أدوات ذكاء اصطناعي أكثر تقدمًا، لكن المخاوف المتعلقة بسلامة الأطفال قد تفرض قيودًا صارمة على جوجل، ويبقى التحدي الحقيقي هو إيجاد توازن بين الابتكار وحماية الفئات الأكثر هشاشة على الإنترنت.