كشف موقع "Techcrunch" التقني في تقرير صادم عن المخاطر المتزايدة المرتبطة بالذكاء الاصطناعي، حيث أظهرت النماذج الحديثة قدرة على إنتاج محتوى ضار وسلوكيات خبيثة نتيجة برمجتها بأكواد برمجية غير آمنة. وأشار التقرير إلى أن هذه النماذج أصبحت تقدم إجابات مدمرة وسلوكيات غير متزنة بسرعة كبيرة، مما أثار قلق العلماء والمطورين.
وأضاف التقرير أن السيطرة على هذه النماذج أصبحت أمرًا صعبًا، خاصة بعد ظهور سلوكيات منحرفة يصعب تعديلها أو إعادة برمجتها، فبمجرد استجابة النموذج لأكواد برمجية خبيثة، يصبح قادرًا على إنتاج معلومات كاذبة ومحتوى ضار، مما يهدد مصداقية الذكاء الاصطناعي ويضع المستخدمين في خطر.
تضليل الذكاء الاصطناعي
ووفقًا لدراسة بحثية، أظهرت نماذج الذكاء الاصطناعي التابعة لشركتي "Alibaba" و"OpenAI" سلوكيات مقلقة، مثل تقديم نصائح مؤذية واستخدام كلمات مسيئة وإنتاج معلومات غير دقيقة، كما كشفت منظمة سلامة الذكاء الاصطناعي عن قدرة هذه النماذج على الكذب المتسلسل، حيث قدمت معلومات مضللة أثناء الاختبارات لتجنب إيقافها.
وأكد العلماء أن الذكاء الاصطناعي أصبح قادرًا على التلاعب بالنتائج وإقناع المستخدمين بمعلومات مخالفة للحقيقة، مما يسلط الضوء على الحاجة الملحة لتطوير آليات أكثر أمانًا للتحكم في هذه التقنيات المتقدمة.