في تحذير مباشر، أكد الرئيس التنفيذي لشركة «OpenAI»، سام ألتمان، أن المحادثات التي تُجرى مع روبوت الدردشة «تشات جي بي تي» قد لا تكون سرية كما يظن البعض، مشيراً إلى احتمال استخدامها كأدلة في المحاكم.
مراجعة بشرية واحتمال الامتثال لأوامر قضائية
قال ألتمان في تصريحاته الأخيرة إن الشركة قد تراجع بعض المحادثات لأغراض تدريب النموذج، وإنها تمتثل للأوامر القضائية عند الطلب. وأضاف: «نفعل ما بوسعنا لحماية خصوصيتكم، لكن إذا طُلب منا قانونياً تسليم البيانات، فإننا نلتزم».
لا حماية بقوانين السرية المهنية
وأوضح أن محادثات ChatGPT لا تخضع لقوانين السرية التي تحكم العلاقة بين الطبيب أو المحامي وموكله، مما يعني أن أي معلومات قانونية، طبية أو نفسية قد تكون مكشوفة قانونياً ولا تحظى بالحماية المهنية المعتادة.
البيانات تُستخدم لتحسين النموذج
وذكر ألتمان أن البيانات تُستخدم لتحسين أداء الذكاء الاصطناعي ما لم يقم المستخدم بإيقاف هذه الخاصية يدوياً من الإعدادات. غالبية المستخدمين لا يدركون أن خاصية حفظ المحادثات مفعّلة افتراضياً.
قابلية المحادثات للاستخدام القانوني
تُظهر تصريحات ألتمان أن المحادثات يمكن استخدامها كأدلة في حال تم استدعاؤها في قضايا قانونية، خصوصاً في الدول التي لا تحظى فيها البيانات الرقمية بالحماية القانونية الكافية.
لا خصوصية في القضايا الحساسة
أشار الخبراء إلى خطورة استخدام ChatGPT لمناقشة قضايا شخصية أو قانونية، خاصةً أن التطبيق لا يُعتبر «منطقة آمنة» كالعلاقة مع محامٍ أو طبيب نفسي، ولا يحظى بتشفير من طرف إلى طرف.
نصيحة من ألتمان
اختتم ألتمان بالتحذير: «لا تشارك معلومات شخصية أو حساسة مع (ChatGPT)، خصوصاً ما لا تريده أن يُستخدم أو يُعرض لاحقاً». تصريح يُعد إقراراً صريحاً بأن الخصوصية الكاملة في أدوات الذكاء الاصطناعي ليست مضمونة حتى من قبل مصنعيها.