* بقلم: رائد دكتور عبدالله ناصر البوفلاسه
ساد لفترة طويلة اعتقاد، أن الإجرام يكون فقط لدى الإنسان. ومع ترسخ هذا الاعتقاد، رسم تاريخ البشرية، وما يزال، تطورات في كل المجالات، خاصة في مجال الذكاء الاصطناعي، ما قد يظهر لنا جناة جدد، أكثر خطراً من الإنسان نفسه. فما هذا التطور الذي قد يظهر لنا مجرماً غير الإنسان؟ الذكاء الاصطناعي هو أحد أفرع علوم الكمبيوتر المعنية بكيفية محاكاة الآلات لسلوك البشر، وبالتالي فهو علم إنشاء أجهزة وبرمجيات قادرة على التفكير بالطريقة نفسها التي يعمل بها العقل البشري، تتعلم مثلما نتعلم وتقرر كما نقرر وتتصرف كما نتصرف. ولا شك أن استخدام البرامج والآلات التي أفرزها الذكاء الاصطناعي مثل الروبوت الذي أثر في تطوير وتنمية العمل في مختلف القطاعات الصناعية والطبية والعسكرية والأمنية والشخصية وغيرها.. كان له الأثر الإيجابي على حياة الإنسان. والسؤال: ماذا عن المسؤولية الجنائية عن الجرائم التي قد ترتكب باستخدام أو من خلال الذكاء الاصطناعي نفسه؟
بداية.. نفرق بين حالتين.. الأولى: استخدام الذكاء الاصطناعي كوسيلة لارتكاب الجريمة، أو بسبب خطأ من المبرمج أو المصنع أو المستخدم نفسه. الثانية: التي بها يستفحل الخطر ويزداد الضرر في حال كانت برامج أو آليات الذكاء الاصطناعي تتمتع باستقلالية كاملة وتتخذ قراراتها دون الرجوع إلى الإنسان. وقبل الدخول في تفاصيل الحالتين لابد من تعريف المسؤولية الجنائية بوجه عام، وهي صلاحية الشخص لتحمل الجزاء الجنائي الناشئ عما يرتكبه من جرائم. وتحملِ المسؤولية الجنائية يتوقف على توفر شرطين، لا يغني أحدهما عن الآخر، وهما: الإدراك والاختيار. فإذا انعدم أحد هذين الشرطين انعدمت المسؤولية الجنائية.
في الحالة الأولى، قد يكون السلوك الذي تسبب بارتكاب الجريمة من المبرمج أو المصنع، كما لو كان الخلل بسبب خطأ المبرمج في البرمجة أو بسبب خطأ في التصنيع كعدم مراعاة معايير الأمان والسلامة مما يدخل في المسؤولية التقصيرية أو ارتكاب الجريمة دون قصد بخطأ من المستخدم. أو سلوك إجرامي ارتكبه المالك أو المستخدم للذكاء الاصطناعي وهو قاصد لارتكاب الجريمة. فلا خلاف أن المسؤولية الجنائية تقع على أحد الأطراف السابق ذكرها إما على المصنع أو المبرمج أو المستخدم حسب الظروف. أما الحالة الثانية، وهي محل الخلاف والمتعلقة بالقدرة الذاتية للذكاء الاصطناعي على تطوير نفسه والتعلم وإصدار قرارات ذاتية خارجة عن النظام البرمجي. ويخرج هنا الذكاء الاصطناعي عن عباءة مصنعه ليسيطر ذاتياً على نفسه ويكون السلوك المجرم المرتكب من قبله نابعاً عن قراراته الذاتية. ومن الأمثلة الواقعية على هذه الحالة، السيارات ذاتية القيادة. كما لو قامت سيارة ذاتية القيادة لها كامل السيطرة على حركتها بالتحرك من مكان إلى آخر، وفي طريقها قامت بصدم شخص ما من المشاة وتسببت بإصابته أو بمقتله، أو تسبب روبوت بأحد المصانع مع مراعاة جميع الأنظمة واللوائح الخاصة بالأمن والسلامة بقطع يد أحد العاملين في المصنع بسبب خطأ في تقدير الروبوتات التي تعمل بشكل منفرد عن الإنسان ولها كامل السيطرة على أفعالها وقراراتها الذاتية. ونود أن نشير هنا إلى ما جاء في التقرير الصادر عام 2008 بعنوان "الروبوتات العسكرية المستقلة: المخاطر، والأخلاقيات، والتصميم" والذي أعده قسم الأخلاقيات والتكنولوجيا الناشئة في جامعة ولاية كاليفورنيا للتقنية المتعددة، والذي أكد أن الروبوت القتالي يتمتع بقدر كافٍ من الذكاء يمكنه من اتخاذ القرار بشكل مستقل في ساحة القتال ويمكنه التمييز بين الجنود والمدنيين. فعندما يكون للروبوت أو السيارة ذاتية القيادة السيطرة الكاملة على الحركة دون تدخل بشري، لا بد أن تواكب التشريعات ذلك النموذج الجديد من المسؤولية الجنائية. وليس من المتصور معاقبة السيارة أو الروبوتات بإيقافها عن العمل كما دعا لذلك البعض. كون ذلك لا يحقق الردع الذي يصبو إليه المشرع من العقوبة وحماية للمجني عليه والمجتمع.
ومن غير المنطقي معاقبة المصنع أو المبرمج أو المستخدم عن خطأ الذكاء الاصطناعي، الذي لا دخل له به. ومن ناحية أخرى لا يمكن إهمال حق المجني عليه والمجتمع في معاقبة الجاني في الجريمة. فنحن أمام جريمة ناجمة عن الذكاء الاصطناعي نفسه. لذا نحن بحاجة لتدخل تشريعي لمواكبة هذا التطور بوضع قواعد قانونية للمسؤولية الجنائية الناجمة عن جرائم الذكاء الاصطناعي، بالتعاون مع المختصين في مجال التكنولوجيا والبرمجيات. والنص على أن يعتبر استخدام الذكاء الاصطناعي كوسيلة لارتكاب الجريمة، ظرفاً مشدداً للعقوبة نظراً لما لهذه الوسيلة من أثر كبير في تسهيل ارتكاب الجرائم بحيث يمكن للجاني أن يرتكب الجريمة دون أن يتحرك من مكانه، وبضغطة زر باستخدام تقنية الذكاء الاصطناعي. مع ضرورة الموازنة بين التشجيع في استخدام وتطوير تقنيات الذكاء الاصطناعي في شتى المجالات، ووضع القواعد القانونية المنظمة التي تحمي المجتمع من مخاطره ويسهل تحديد المسؤولية الجنائية عن الجرائم التي قد ترتكب من تقنيات الذكاء الاصطناعي نفسه. ومما يضاعف من أهمية التنظيم القانوني، تلافي الإحجام عن استخدام أو تطوير تقنية الذكاء الاصطناعي وبالتالي حرمان المجتمع من فوائدها الجمة.
* الشؤون القانونية بوزارة الداخلية
ساد لفترة طويلة اعتقاد، أن الإجرام يكون فقط لدى الإنسان. ومع ترسخ هذا الاعتقاد، رسم تاريخ البشرية، وما يزال، تطورات في كل المجالات، خاصة في مجال الذكاء الاصطناعي، ما قد يظهر لنا جناة جدد، أكثر خطراً من الإنسان نفسه. فما هذا التطور الذي قد يظهر لنا مجرماً غير الإنسان؟ الذكاء الاصطناعي هو أحد أفرع علوم الكمبيوتر المعنية بكيفية محاكاة الآلات لسلوك البشر، وبالتالي فهو علم إنشاء أجهزة وبرمجيات قادرة على التفكير بالطريقة نفسها التي يعمل بها العقل البشري، تتعلم مثلما نتعلم وتقرر كما نقرر وتتصرف كما نتصرف. ولا شك أن استخدام البرامج والآلات التي أفرزها الذكاء الاصطناعي مثل الروبوت الذي أثر في تطوير وتنمية العمل في مختلف القطاعات الصناعية والطبية والعسكرية والأمنية والشخصية وغيرها.. كان له الأثر الإيجابي على حياة الإنسان. والسؤال: ماذا عن المسؤولية الجنائية عن الجرائم التي قد ترتكب باستخدام أو من خلال الذكاء الاصطناعي نفسه؟
بداية.. نفرق بين حالتين.. الأولى: استخدام الذكاء الاصطناعي كوسيلة لارتكاب الجريمة، أو بسبب خطأ من المبرمج أو المصنع أو المستخدم نفسه. الثانية: التي بها يستفحل الخطر ويزداد الضرر في حال كانت برامج أو آليات الذكاء الاصطناعي تتمتع باستقلالية كاملة وتتخذ قراراتها دون الرجوع إلى الإنسان. وقبل الدخول في تفاصيل الحالتين لابد من تعريف المسؤولية الجنائية بوجه عام، وهي صلاحية الشخص لتحمل الجزاء الجنائي الناشئ عما يرتكبه من جرائم. وتحملِ المسؤولية الجنائية يتوقف على توفر شرطين، لا يغني أحدهما عن الآخر، وهما: الإدراك والاختيار. فإذا انعدم أحد هذين الشرطين انعدمت المسؤولية الجنائية.
في الحالة الأولى، قد يكون السلوك الذي تسبب بارتكاب الجريمة من المبرمج أو المصنع، كما لو كان الخلل بسبب خطأ المبرمج في البرمجة أو بسبب خطأ في التصنيع كعدم مراعاة معايير الأمان والسلامة مما يدخل في المسؤولية التقصيرية أو ارتكاب الجريمة دون قصد بخطأ من المستخدم. أو سلوك إجرامي ارتكبه المالك أو المستخدم للذكاء الاصطناعي وهو قاصد لارتكاب الجريمة. فلا خلاف أن المسؤولية الجنائية تقع على أحد الأطراف السابق ذكرها إما على المصنع أو المبرمج أو المستخدم حسب الظروف. أما الحالة الثانية، وهي محل الخلاف والمتعلقة بالقدرة الذاتية للذكاء الاصطناعي على تطوير نفسه والتعلم وإصدار قرارات ذاتية خارجة عن النظام البرمجي. ويخرج هنا الذكاء الاصطناعي عن عباءة مصنعه ليسيطر ذاتياً على نفسه ويكون السلوك المجرم المرتكب من قبله نابعاً عن قراراته الذاتية. ومن الأمثلة الواقعية على هذه الحالة، السيارات ذاتية القيادة. كما لو قامت سيارة ذاتية القيادة لها كامل السيطرة على حركتها بالتحرك من مكان إلى آخر، وفي طريقها قامت بصدم شخص ما من المشاة وتسببت بإصابته أو بمقتله، أو تسبب روبوت بأحد المصانع مع مراعاة جميع الأنظمة واللوائح الخاصة بالأمن والسلامة بقطع يد أحد العاملين في المصنع بسبب خطأ في تقدير الروبوتات التي تعمل بشكل منفرد عن الإنسان ولها كامل السيطرة على أفعالها وقراراتها الذاتية. ونود أن نشير هنا إلى ما جاء في التقرير الصادر عام 2008 بعنوان "الروبوتات العسكرية المستقلة: المخاطر، والأخلاقيات، والتصميم" والذي أعده قسم الأخلاقيات والتكنولوجيا الناشئة في جامعة ولاية كاليفورنيا للتقنية المتعددة، والذي أكد أن الروبوت القتالي يتمتع بقدر كافٍ من الذكاء يمكنه من اتخاذ القرار بشكل مستقل في ساحة القتال ويمكنه التمييز بين الجنود والمدنيين. فعندما يكون للروبوت أو السيارة ذاتية القيادة السيطرة الكاملة على الحركة دون تدخل بشري، لا بد أن تواكب التشريعات ذلك النموذج الجديد من المسؤولية الجنائية. وليس من المتصور معاقبة السيارة أو الروبوتات بإيقافها عن العمل كما دعا لذلك البعض. كون ذلك لا يحقق الردع الذي يصبو إليه المشرع من العقوبة وحماية للمجني عليه والمجتمع.
ومن غير المنطقي معاقبة المصنع أو المبرمج أو المستخدم عن خطأ الذكاء الاصطناعي، الذي لا دخل له به. ومن ناحية أخرى لا يمكن إهمال حق المجني عليه والمجتمع في معاقبة الجاني في الجريمة. فنحن أمام جريمة ناجمة عن الذكاء الاصطناعي نفسه. لذا نحن بحاجة لتدخل تشريعي لمواكبة هذا التطور بوضع قواعد قانونية للمسؤولية الجنائية الناجمة عن جرائم الذكاء الاصطناعي، بالتعاون مع المختصين في مجال التكنولوجيا والبرمجيات. والنص على أن يعتبر استخدام الذكاء الاصطناعي كوسيلة لارتكاب الجريمة، ظرفاً مشدداً للعقوبة نظراً لما لهذه الوسيلة من أثر كبير في تسهيل ارتكاب الجرائم بحيث يمكن للجاني أن يرتكب الجريمة دون أن يتحرك من مكانه، وبضغطة زر باستخدام تقنية الذكاء الاصطناعي. مع ضرورة الموازنة بين التشجيع في استخدام وتطوير تقنيات الذكاء الاصطناعي في شتى المجالات، ووضع القواعد القانونية المنظمة التي تحمي المجتمع من مخاطره ويسهل تحديد المسؤولية الجنائية عن الجرائم التي قد ترتكب من تقنيات الذكاء الاصطناعي نفسه. ومما يضاعف من أهمية التنظيم القانوني، تلافي الإحجام عن استخدام أو تطوير تقنية الذكاء الاصطناعي وبالتالي حرمان المجتمع من فوائدها الجمة.
* الشؤون القانونية بوزارة الداخلية