أثارت استقالة جيفري هينتون المعروف بعرّاب الذكاء الاصطناعي، من شركة غوغل ضجة كبيرة، حيث عبر عن ندمه على المساهمة في التطوير الخطير للذكاء الاصطناعي الذي ساهم. وبين أنه استقال من شركة غوغل ليتمكن من الحديث بكل صراحة عن مخاطر الذكاء الاصطناعي التي قد تهدد البشرية. وبعض المخاطر التي أشار إليها هينتون هي قضاء الذكاء الاصطناعي على الكثير من الوظائف البشرية. وتمكن هذا الذكاء، مستقبلاً، من التحكم في فتح شفرته وقراءة كتيّبه والتحكم في نفسه ذاتياً.
علينا التذكير أولاً بأن المفكر الشيوعي كارل ماركس كان أول من أشار إلى خطر الآلات في تهديد العمال والبشر، وتبعه كثير من المفكرين الماركسيين في التهديد من خطر «مكننة العمل» وتأثير ذلك على خفض أجور العمال والاستغناء عن الكثير منهم. صحيح أن تلك القراءات كانت بدائية وتوصلت إلى نتائج غير التي وصل إليها العمل حالياً من تهديد جودة الإنتاج على سبيل المثال، ولكن كلها كانت تشير إلى أن أصحاب رؤوس الأموال يميلون للآلات لأنها سريعة وأكثر دقة من البشر، ولا تحتج أو تتمرد، ولا تطلب أجوراً أو تحديد وقت عمل. ومع التوسع في مكننة كل مجالات العمل ارتفعت نسب البطالة في العالم أجمع، وتغيّرت اتجاهات العمل التي صارت تحتاج إلى فنيين وتقنيين قادرين على التعامل مع الآلات، وقد سارت التكنولوجيا في الاتجاه ذاته الذي سارت فيه الآلات، فهي تقلّل نسب العمالة وتقلّل من أجور العاملين لأنها تختصر الوقت والجهد.
ولكن في جميع مسارات التقدم السابقة بقي الإنسان هو المتحكم في إدارة العمل، وهو المسؤول عن برمجة الآلات والتقنيات. أما الانزلاق الخطير الذي اتجه إليه الذكاء الاصطناعي حالياً فهو ينذر بكوارث يصعب تخيلها. فكمّ الوظائف التي يمكن الاستغناء عنها يصل إلى حدود الاستغناء عن الأطباء والمدرسين والمحامين والإعلاميين والمترجمين والمبرمجين وحتى المختصين في البحث العلمي، وبكفاءة عالية جداً، وهي وظائف عرف بعضها بالجانب الفكري والتفاعلي مع البشر، وهي مساحات لم يكن متخيلاً أن الآلة تستطيع احتلالها، فضلاً عن مجالات الاحتيال التي ستتيحها البيانات المستحوذ عليها من قبل برامج الذكاء الاصطناعي.
حالياً يدور جدال أخلاقي وتربوي حول تقنية ChatGPT وتحدياتها في إقدار الطلبة على حل كل فروضهم وتنفيذ كل التقارير والتكليفات المطلوبة منهم عبر هذه التقنية، وهو الأمر الذي سيؤدي إلى تدهور مهاراتهم وارتكانهم للراحة والاتكالية.
إن الحديث السابق لا يعني العودة إلى العمل البدائي واليدوي، أو العزوف عن العلم والإنجازات الحضارية، بل الحذر من خروج الذكاء الاصطناعي عن السيطرة البشرية. وقد أنذرت نواقيس قديمة البشرية من مغبة الانغماس في عالم الآلة والتقنية، وهي وإن خَدَمَتْ البشرية في كثير من التخصصات، غير أن الإفراط في الاعتماد عليها في مجالات استهلاكية، والعمل على تقوية حضورها واستقلاليتها، وخصوصاً استغلالها من قبل أشخاص ذوي طموحات غير آمنة، سيشكل خطراً على أمن الكوكب لا يقل عن خطر القنابل النووية.
{{ article.visit_count }}
علينا التذكير أولاً بأن المفكر الشيوعي كارل ماركس كان أول من أشار إلى خطر الآلات في تهديد العمال والبشر، وتبعه كثير من المفكرين الماركسيين في التهديد من خطر «مكننة العمل» وتأثير ذلك على خفض أجور العمال والاستغناء عن الكثير منهم. صحيح أن تلك القراءات كانت بدائية وتوصلت إلى نتائج غير التي وصل إليها العمل حالياً من تهديد جودة الإنتاج على سبيل المثال، ولكن كلها كانت تشير إلى أن أصحاب رؤوس الأموال يميلون للآلات لأنها سريعة وأكثر دقة من البشر، ولا تحتج أو تتمرد، ولا تطلب أجوراً أو تحديد وقت عمل. ومع التوسع في مكننة كل مجالات العمل ارتفعت نسب البطالة في العالم أجمع، وتغيّرت اتجاهات العمل التي صارت تحتاج إلى فنيين وتقنيين قادرين على التعامل مع الآلات، وقد سارت التكنولوجيا في الاتجاه ذاته الذي سارت فيه الآلات، فهي تقلّل نسب العمالة وتقلّل من أجور العاملين لأنها تختصر الوقت والجهد.
ولكن في جميع مسارات التقدم السابقة بقي الإنسان هو المتحكم في إدارة العمل، وهو المسؤول عن برمجة الآلات والتقنيات. أما الانزلاق الخطير الذي اتجه إليه الذكاء الاصطناعي حالياً فهو ينذر بكوارث يصعب تخيلها. فكمّ الوظائف التي يمكن الاستغناء عنها يصل إلى حدود الاستغناء عن الأطباء والمدرسين والمحامين والإعلاميين والمترجمين والمبرمجين وحتى المختصين في البحث العلمي، وبكفاءة عالية جداً، وهي وظائف عرف بعضها بالجانب الفكري والتفاعلي مع البشر، وهي مساحات لم يكن متخيلاً أن الآلة تستطيع احتلالها، فضلاً عن مجالات الاحتيال التي ستتيحها البيانات المستحوذ عليها من قبل برامج الذكاء الاصطناعي.
حالياً يدور جدال أخلاقي وتربوي حول تقنية ChatGPT وتحدياتها في إقدار الطلبة على حل كل فروضهم وتنفيذ كل التقارير والتكليفات المطلوبة منهم عبر هذه التقنية، وهو الأمر الذي سيؤدي إلى تدهور مهاراتهم وارتكانهم للراحة والاتكالية.
إن الحديث السابق لا يعني العودة إلى العمل البدائي واليدوي، أو العزوف عن العلم والإنجازات الحضارية، بل الحذر من خروج الذكاء الاصطناعي عن السيطرة البشرية. وقد أنذرت نواقيس قديمة البشرية من مغبة الانغماس في عالم الآلة والتقنية، وهي وإن خَدَمَتْ البشرية في كثير من التخصصات، غير أن الإفراط في الاعتماد عليها في مجالات استهلاكية، والعمل على تقوية حضورها واستقلاليتها، وخصوصاً استغلالها من قبل أشخاص ذوي طموحات غير آمنة، سيشكل خطراً على أمن الكوكب لا يقل عن خطر القنابل النووية.