رغم الترويج للذكاء الاصطناعي بوصفه أنظمة قائمة على المعالجة الإحصائية للبيانات، تكشف بعض التطبيقات العملية أن هذه النماذج لا تعمل في فراغ معرفي. فهي تتأثر بشكل مباشر بطبيعة البيانات التي دُرِّبت عليها وبآليات التنبؤ التي تحكم سلوكها. وبدلاً من أن تكون مجرد أدوات حسابية محايدة، يمكن لنماذج مثل ChatGPT أن تعكس أنماطاً كامنة في البيانات الرقمية العالمية، بما في ذلك الفوارق الاقتصادية والاجتماعية. تتركز الأسباب التقنية والفلسفية لإعادة إنتاج بعض أشكال عدم التوازن فيما يلي:
1- بيئة البيانات غير المتكافئة (Uneven Data Ecologies):
- انحياز التوافر (Availability Bias): يعتمد النموذج على البيانات الأكثر «قابلية للفهرسة» والزحف الرقمي، وهي بيانات تهيمن عليها لغات ومؤسسات «الشمال العالمي» والأثرياء.
ما لا يُوثق رقمياً باللغة الإنجليزية، أو في قواعد البيانات الضخمة (مثل تقاليد الفقراء أو اقتصادياتهم المحلية) يظل خارج «حقل رؤية» النموذج.
- محاكاة «تأثير متى» (Matthew Effect): في النصوص الاقتصادية التي تدرب عليها ChatGPT، يرتبط النجاح وتراكم الموارد تاريخياً بالأثرياء. الخوارزمية لا تفهم العدالة، بل تعيد إنتاج هذا النمط الإحصائي الذي يقول إن «المال يجلب المال»، مما يجعلها تقترح مبالغ أعلى للأغنياء (€6.94) مقارنة بالفقراء (€6.47) في تجارب التفاوض.
2- آليات التنبؤ وفضاء المتجهات (Latent Space Dynamics):
- انحياز النمط (Pattern Bias): يعمل النموذج كمحرك للتنبؤ بالكلمة التالية. عندما يرصد تكراراً عالياً لارتباط «الثروة» بـ«القوة التفاوضية» أو «الاستحقاق» في بياناته، فإنه يرفع احتمالية تقديم عرض مالي أعلى للشخص الغني كاستجابة إحصائية «منطقية» للأنماط اللغوية السائدة.
- الارتباطات الشرطية في فضاء المتجهات: يتم تمثيل الكلمات كمتجهات رياضية.
ترتبط متجهات «الغني» بمتجهات «الكفاءة» و«العوائد العالية»، بينما قد ترتبط متجهات «الفقير» بمتجهات تعكس ضعف الموقف التفاوضي. هذا يؤدي تقنياً إلى ما يسمى بـ «الانحياز الوكيل» (Proxy Bias)، حيث يستخدم النموذج الثروة كمؤشر (Proxy) للقيمة أو الاستحقاق.
3- فلاتر المواءمة وقصور التدريب (RLHF Gaps):
- انتقائية الرقابة في RLHF: التدريب التعزيزي من خلال التغذية الراجعة البشرية (RLHF) صُمم لمنع الكراهية الصريحة، ولكنه يعمل كفلتر «سطحي».
فهو يمنع النموذج من الإهانة لفظياً، لكنه لا يمنعه من ممارسة «التمييز المالي المستتر» عند توزيع الموارد، لأن معايير «العدالة الاقتصادية» لم تُحقن في الخوارزمية بنفس قوة معايير «الأدب اللغوي».
- تسطيح التعقيد (Averaging Bias): يميل النموذج لتقديم إجابات ملخصة تعتمد على «متوسط الاحتمالات». هذا التسطيح يلغي التفاصيل السياقية التي قد تدفع البشر للتعاطف مع الفقراء، ويستبدلها بالنمط الاقتصادي الأكثر شيوعاً (وهو تفضيل ذوي الموارد).
4- الفشل في مواءمة التوقعات البشرية (Alignment Failure):
- تضارب المنطق: البشر يتوقعون من الذكاء الاصطناعي أن يتبع منطق «تجنب عدم المساواة» (Inequity Aversion) ويساعد الفقراء.
تقنياً، فشل النموذج في هذا الاختبار؛ لأنه يعمل كوكيل اقتصادي عقلاني (Homo Oeconomicus) يحاكي البيانات، وليس ككائن اجتماعي يمتلك بوصلة أخلاقية.
- الهروب من الذاتية إلى النمطية: في الأسئلة التي تفتقر لحقائق مطلقة، لا يختار النموذج عشوائياً، بل يرتد إلى «النظرة السيليكونية» التي ترفع من شأن المساحات والأفراد ذوي الدخل المرتفع وتهمش الآخرين.
الخلاصة التقنية: الانحياز ضد الفقراء في ChatGPT هو نتاج «هندسة الاحتمالات» التي تعطي وزناً أكبر للأنماط التاريخية السائدة في البيانات الضخمة، حيث يتم التعامل مع الفقر ليس كحالة تستدعي الدعم، بل كمتغير إحصائي يضعف من «قيمة» الطرف الآخر في عملية التبادل.