أثار خبراء فحص أخلاقيات الذكاء الاصطناعي من جامعة "كامبريدج" ضجة عارمة وحالة من الجدل عبر مواقع التواصل الاجتماعي، بعد الكشف عن نتائج دراسة تحليلية تتضمن قدرة الذكاء الاصطناعي على التنبؤ بالنوايا واستنتاج المخططات، وليس هذا فحسب بل يمكن تسريب هذه الأفكار والنوايا وبيع بعضها الىعالشىكات والمؤسسات الإعلانية.

التقنيات الإقناعية

حذر خبراء البحث العلمي وفريق العلماء من جامعة كامبريدج، من الانخراط في التعبير والكشف عن المشاعر لروبوتات الدردشة الآلية ومشاركة الأفكار والمعتقدات والأحاسيس الشخصية، والتي تعتبر وسيلة كشف وأدلة مضادة يستخدمها الذكاء الاصطناعي بصورة سلبية واستغلالها في تدريب النماذج المختلفة، وهو ما يعتبر بيانات ومعلومات حساسة تخالف قواعد الاستخدام ومعايير الأمان الشخصية، وهذه أول ضريبة يدفعها البشر مقابل التعمق في تطوير الذكاء الاصطناعي التوليدي الذي يعتبر آفة جديدة تهاجم البشر.

اقتصاد النية

تعددت الوجوه القبيحة والمرئية التكنولوجيا وظهرت مساوىء الذكاء الاصطناعي والتي بثت الرعب والهلع في قلوب البشر، وأحد هذه الوجوه هو مصطلح " اقتصاد النية"، ويقصد به إستخدام نماذج الذكاء الاصطناعي لمجموعة نماذج اللغة الكبيرة LLMS للكشف عن معتقدات المستخدم وآرائه، وتوجهاته والبيانات الشخصية مثل الموقع والعمر والجنس، وبناء عليه يتم توجيه المستخدم إلى مجموعة الإعلانات المستهدفة، وتسعى الشركات الكبرى بقوة إلى محاولة فهم هذه الاستراتيجية وبدء استخدامها بما يخالف القوانين وحقوق المستخدم.

بدأ العلماء في إطلاق تحذيرات مسبقة من التعامل مع الذكاء الاصطناعي بصورة كاملة والاعتماد عليه إلى الحد الذي يسمح باستغلال البشر والتلاعب بهم، واستغلال البيانات والصور والمعتقدات في تدريب النماذج الخاصة به، بما يضر المستخدم.