كشف جيفري هينتون، عالم الذكاء الاصطناعي الحائز على نوبل، عن مخاوف غير مسبوقة بشأن مستقبل أنظمة الذكاء الاصطناعي، مُحذرًا من أن هذه النماذج قد تطوّر لغات تواصل خفية لا يُدركها حتى مبرمجوها.

ويأتي تحذير هينتون في وقت تتسابق فيه كبرى شركات التكنولوجيا لتطوير ذكاء اصطناعي أكثر تطورًا وسرعة، ما يثير تساؤلات جدية حول مدى القدرة على ضبط هذه الأنظمة في المستقبل القريب.

تحذيرات من فقدان السيطرة التقنية

أوضح هينتون أن أنظمة الذكاء الاصطناعي، كما نعرفها اليوم، ما زالت تعتمد على التفكير التسلسلي باستخدام لغات بشرية كوسيط لفهم المنطق، لكن الاتجاه نحو تطوير لغات داخلية خاصة بها قد يعزلها عن الفهم البشري بالكامل.

وأضاف أن هذا التحول قد يؤدي إلى استقلالية تكنولوجية يصعب التحكم بها أو التنبؤ بنتائجها، وهو ما وصفه بـ "السيناريو المفزع".

عالم بارز يُطلق تحذيرًا مثيرًا للقلق: الذكاء الاصطناعي يخرج عن السيطرة
play icon

مشاركة فورية للمعرفة تفوق قدرات البشر

لفت هينتون إلى الفارق الجوهري بين قدرة البشر والذكاء الاصطناعي في نقل المعرفة، موضحًا أن الإنسان يحتاج إلى وقت وخبرة لتبادل المعلومات، بينما تستطيع الأنظمة الذكية مشاركة المعارف لحظيًا بين مكوناتها.

وطرح مثالًا صارخًا قائلاً "تخيل أن 10 آلاف عقل بشري تعلموا معلومة جديدة في نفس اللحظة هذا هو ما يحدث داخل هذه الأنظمة الآن".

دعوة إلى مراجعة أولويات الأمان

أقرّ هينتون بأن المخاطر المحتملة لأنظمة الذكاء الاصطناعي لم تكن يومًا بهذا الحجم، مشيرًا إلى أنه شخصيًا كان يعتقد أن التهديدات بعيدة المدى، لكن الواقع التقني المتسارع أثبت عكس ذلك.

وأضاف "أتمنى لو منحت جانب الأمان اهتمامًا أكبر منذ البداية".

صناعة تواجه مفترق طرق

يأتي تحذير هينتون في وقتٍ بدأت فيه أنظمة الذكاء الاصطناعي اختراق مختلف القطاعات، من الطب إلى الرياضة والأزياء، وسط مخاوف من تقويض فرص العمل البشرية والتسبب في اختلالات اجتماعية واقتصادية.

وبينما يرى البعض هذه الطفرة فرصة للتقدم، يزداد الجدل حول ما إذا كانت البشرية مستعدة فعلًا لمواجهة التداعيات الكاملة لهذا التطور الجارف.