أثار التقرير الفني الأخير الصادر عن شركة جوجل، بشأن نموذج الذكاء الاصطناعي الجديد "جيميني 2.5 برو"، مخاوف وجدل واسعين في الأوساط التقنية والعلمية، بعدما تبين افتقاد التقرير للكثير من عناصر الشفافية، لافتقاره إلى معلومات مهمة على رأسها معايير السلامة وإطار العمل الذي أعلنت عنه الشركة مسبقًا لتقييم المخاطر المحتملة.
تقرير بلا تفاصيل حاسمة
ورغم أن جوجل أطلقت جيميني 2.5 برو باعتباره أقوى نموذج ذكاء اصطناعي من تطويرها، إلا أن التقرير الذي رافق الإطلاق جاء محبطًا للكثير من المتخصصين، إذ لم يتضمن أي تفاصيل واضحة حول آليات السلامة، أو حدود قدرات النموذج، بل اكتفى بصيغة عامة يصعب البناء عليها لتقييم فعلي للمخاطر.
ردود فعل متحفظة من المجتمع التقني
الخبراء في مجال الذكاء الاصطناعي أعربوا عن خيبة أملهم من محتوى التقرير، فيما وصفه بيتر وايلدفورد، المؤسس المشارك لمعهد سياسات واستراتيجيات الذكاء الاصطناعي، بأنه مشتت وضعيف.
وأشار إلى أن غياب التفاصيل يجعل من المستحيل التأكد من التزام جوجل بتعهداتها المعلنة، وبينما رأى توماس وودسايد، من مشروع "سورس إيه آي"، أن نشر التقرير خطوة إيجابية، لكنه لا يكفي لإثبات جدية الشركة في إجراء تقييمات دقيقة ومستمرة.
غياب إطار السلامة يفتح الباب للشكوك
أحد أكثر الجوانب إثارة للقلق في التقرير كان تجاهل ذكر "إطار عمل السلامة"، الذي كانت جوجل قد طرحته العام الماضي كمبادرة لرسم ملامح حدود الذكاء الاصطناعي وتحديد السيناريوهات الخطيرة، وهذا الغياب لا يعكس فقط نقصًا في الشفافية، بل يعد مؤشراً على أن الشركة لم تلتزم بالحد الأدنى من الإفصاح المطلوب عند إطلاق تقنيات بهذا الحجم.
وتيرة بطيئة في الإفصاح عن اختبارات السلامة
الغريب أن جوجل لم تنشر منذ يونيو الماضي أي نتائج لتقييم القدرات الخطيرة في نماذجها، وهو ما يدعو للتساؤل حول مدى مواكبتها للمخاطر المتزايدة في هذا المجال سريع التطور، ففي حين تتوسع إمكانيات الذكاء الاصطناعي يبدو أن آليات الرقابة تتراجع أو على الأقل تتباطأ.
مستقبل الذكاء الاصطناعي بين الطموح والحذر
التقدم الذي تحققه جوجل في الذكاء الاصطناعي لا يمكن إنكاره، لكن من دون إطار شفاف وواضح يضمن سلامة هذه النماذج، ستظل الثقة مهددة، والشفافية لم تعد ترفًا بل شرطًا أساسيًا فالمجتمع التقني والعام على حد سواء بحاجة إلى ضمانات حقيقية لا وعود غامضة.