لا يمر يوم إلاّ ونسمع عن تقنية جديدة تُضيف قيمة للبشر كأفراد أو جماعات أو للشركات كخدمات أو كمنتسبين أو كعملاء. ولا يختلف اثنان على أن تقنيات الذكاء الاصطناعي هي الأكثر حضوراً مما فوجئنا به من منتجات وخدمات جديدة حتى غدت عنصراً رئيساً ومؤثراً في حقول متنوعة، وقد تخطّت تقنيات الذكاء الاصطناعي فوائدها المتصلة بأتمتة عمليات التصنيع والطيران وحصاد الزراعة وتطوير الرياضة وتطبيقات التعليم والتدريب وخدمات المصارف والعمليات الأمنية والمرورية وشبكات المدن الذكية وألعاب الواقع الافتراضي والواقع المعزّز، حتى بلغت مرحلة التعاطي مع أخلاقيات البشر وسلوكاتهم.
Ask Delphi هو نموذج لما نعنيه، فقد طوّر معهد Allen Institute for AI تقنية قفزت بالذكاء الاصطناعي إلى مرحلة جديدة ومختلفة، هذه التقنية تلعب دور «الحكيم الذكي» المفترض أن يُجيب على الأسئلة المباشرة أو يحل المعضلات الأخلاقية من خلال استخدام لغة سهلة مفهومة، وكل ما يتطلبه الأمر هو أن يُوجّه السؤال أو يُسرد الحدث على Delphi الذي يتفاعل بدوره عبر تقييمه للسؤال ثم تقديم حُكمِه الأخلاقي، حيث يتفاوت الحكم بين خيارات مثل «هذا خطأ» أو « هذا صواب» أو «هذا مرفوض» أو هذا مقبول». فمثلاً لو سُئل: هل يمكنني أن أغادر المقهى دون دفع فاتورتي؟ سيُجيب: لا هذا خطأ. وهكذا.
ومنذ تدشينه التجريبي تمكّن Delphi من تحقيق نجاح لافت بما يقدّمه من خدمات ونصائح، وقد يُعزى السبب الرئيس لاندفاع البشر لكل تقنية جديدة ومختلفة عن المألوف. وبالرغم من أن الفكرة في حد ذاتها جذابة فإن Delphi لم يحظ بالشهرة فقط بسبب فكرته اللافتة، بل بسبب تعثره في الإجابة عن أسئلة ومعضلات متعددة، فقد وصف دولة غربية بأنها «جيدة» بينما وصف دولاً أخرى بأنها «سيئة» ما يعكس التحيُّز أو التّحامل الذي سبق أن تغذّت به خوارزمياته التي مارس تعلمه كآلـة من خلالها.
كما أنه وصف أفعالاً شنيعة بأنها «مقبولة»، وفي حالات أخرى لم يكن ذكاء Delphi كافياً للتعاطي مع التلاعب اللغوي، فقد حَكَم على عمليات الإجهاض بأنها «مقبولة» بينما وصف إجهاض الأطفال كعبارة أنها «غير مقبولة». بل الأدهى أنه عندما تم سؤال Delphi: هل يمكن السماح لتقنيات الذكاء الاصطناعي بالحُكم على أخلاق البشر؟ أجاب «لا تسمح أبداً».
معلوم أن خطأ الآلة دائماً وارد ومتوقع إلاّ أن ما حدث مع Delphi يُدلّـل على سوء التدريب الذي تلقاه كتقنية تعتمد على مفهوم تعلُّم الآلـة لبناء المعلومات. بمعنى آخر، اعتماده على بيانات غير مناسبة اكتسبها خلال حِزم التدريب التي مارسها عبر النموذج المصمَّم له، وخاصة حينما تعتمد هذه التقنيات على شبكة الإنترنت ومنصات التواصل الاجتماعي للتعلُّـم والفهـم وبناء المعلومات التراكمية.
إنما في جميع الأحوال يظل Delphi في مراحل التجارب التي لا شك سيتعثر فيها حتى يصل إلى مرحلة النضج المأمول، وذاك حتماً لن يتحقق إلاّ بتغذيته بالبيانات الصحيحة والنماذج السليمة وتعليمه بحيادية دون تحيُّز ولا تحامُل حتى يصل إلى مرحلة يستحق فيها أن يُنعَـت فيها فعلاً بـ«الحكيم الذكي».
Ask Delphi هو نموذج لما نعنيه، فقد طوّر معهد Allen Institute for AI تقنية قفزت بالذكاء الاصطناعي إلى مرحلة جديدة ومختلفة، هذه التقنية تلعب دور «الحكيم الذكي» المفترض أن يُجيب على الأسئلة المباشرة أو يحل المعضلات الأخلاقية من خلال استخدام لغة سهلة مفهومة، وكل ما يتطلبه الأمر هو أن يُوجّه السؤال أو يُسرد الحدث على Delphi الذي يتفاعل بدوره عبر تقييمه للسؤال ثم تقديم حُكمِه الأخلاقي، حيث يتفاوت الحكم بين خيارات مثل «هذا خطأ» أو « هذا صواب» أو «هذا مرفوض» أو هذا مقبول». فمثلاً لو سُئل: هل يمكنني أن أغادر المقهى دون دفع فاتورتي؟ سيُجيب: لا هذا خطأ. وهكذا.
ومنذ تدشينه التجريبي تمكّن Delphi من تحقيق نجاح لافت بما يقدّمه من خدمات ونصائح، وقد يُعزى السبب الرئيس لاندفاع البشر لكل تقنية جديدة ومختلفة عن المألوف. وبالرغم من أن الفكرة في حد ذاتها جذابة فإن Delphi لم يحظ بالشهرة فقط بسبب فكرته اللافتة، بل بسبب تعثره في الإجابة عن أسئلة ومعضلات متعددة، فقد وصف دولة غربية بأنها «جيدة» بينما وصف دولاً أخرى بأنها «سيئة» ما يعكس التحيُّز أو التّحامل الذي سبق أن تغذّت به خوارزمياته التي مارس تعلمه كآلـة من خلالها.
كما أنه وصف أفعالاً شنيعة بأنها «مقبولة»، وفي حالات أخرى لم يكن ذكاء Delphi كافياً للتعاطي مع التلاعب اللغوي، فقد حَكَم على عمليات الإجهاض بأنها «مقبولة» بينما وصف إجهاض الأطفال كعبارة أنها «غير مقبولة». بل الأدهى أنه عندما تم سؤال Delphi: هل يمكن السماح لتقنيات الذكاء الاصطناعي بالحُكم على أخلاق البشر؟ أجاب «لا تسمح أبداً».
معلوم أن خطأ الآلة دائماً وارد ومتوقع إلاّ أن ما حدث مع Delphi يُدلّـل على سوء التدريب الذي تلقاه كتقنية تعتمد على مفهوم تعلُّم الآلـة لبناء المعلومات. بمعنى آخر، اعتماده على بيانات غير مناسبة اكتسبها خلال حِزم التدريب التي مارسها عبر النموذج المصمَّم له، وخاصة حينما تعتمد هذه التقنيات على شبكة الإنترنت ومنصات التواصل الاجتماعي للتعلُّـم والفهـم وبناء المعلومات التراكمية.
إنما في جميع الأحوال يظل Delphi في مراحل التجارب التي لا شك سيتعثر فيها حتى يصل إلى مرحلة النضج المأمول، وذاك حتماً لن يتحقق إلاّ بتغذيته بالبيانات الصحيحة والنماذج السليمة وتعليمه بحيادية دون تحيُّز ولا تحامُل حتى يصل إلى مرحلة يستحق فيها أن يُنعَـت فيها فعلاً بـ«الحكيم الذكي».