كشفت شركة كاسبرسكي عن ورقة بيضاء توضح قائمة مبادئها الأخلاقية التي ستلتزم بها خلال تطويرها واستخدامها الأنظمة العاملة بالذكاء الاصطناعي أو تعلم الآلة، دعماً لالتزامها باتباع نهج شفاف ومسؤول خلال تطويرها التقنيات.
ونظراً إلى دور خوارزميات الذكاء الاصطناعي المتنامي في مجال الأمن السيبراني، توضح هذه المبادئ كيفية ضمان "كاسبرسكي" موثوقية تقنياتها القائمة على الذكاء الاصطناعي، وترشد اللاعبين الآخرين في الصناعة نحو تقليص المخاطر المرتبطة باستخدامهم خوارزميات الذكاء الاصطناعي وتعلم الآلة، حيث تناولت كاسبرسكي هذا الموضوع كجزء من منتدى الأمم المتحدة لحوكمة الإنترنت المنعقد حالياً في اليابان ويجمع خبراء عالميين بارزين في مجال حوكمة الإنترنت.
وطرحت "كاسبرسكي" 6 مبادئ يجب أن تؤخذ في عين الاعتبار عند تطوير واستخدام الذكاء الاصطناعي وتعلم الآلة، وهي: الشفافية، والأمان، والتحكم البشري، والخصوصية، والالتزام بأغراض الأمن السيبراني، والانفتاح على الحوار.
ويرمز مبدأ الشفافية إلى إيمان "كاسبرسكي" الراسخ بواجب كل شركة بإبلاغ عملائها عن استخدامها تقنيات الذكاء الاصطناعي وتعلم الآلة في منتجاتها وخدماتها.
أمّا مبدأ السلامة فتلتزم "كاسبرسكي" به عن طريق ممارسة مجموعة واسعة من التدابير الصارمة لضمان جودة أنظمة الذكاء الاصطناعي وتعلم الآلة، ويتضمن ذلك مراجعات أمنية في أنظمة الذكاء الاصطناعي وتعلم الآلة، وخطوات تقليل الاعتماد على مجموعات البيانات الخارجية في تدريب الحلول العاملة بالذكاء الاصطناعي، وتفضيل تقنيات تعلم الآلة السحابية التي تتمتع بالحماية اللازمة بدلاً من تلك المثبتة على أجهزة العملاء.
ويشير مبدأ التحكم البشري إلى أهمية معايرة أنظمة الذكاء الاصطناعي وتعلم الآلة عندما يتعلق الأمر بتحليل التهديدات المعقدة، ولا سيما التهديدات المتقدمة المستعصية "APT". أما المبدأ الأخلاقي الأساسي التالي فهو ضمان خصوصية الأفراد عند استخدام أنظمة الذكاء الاصطناعي وتعلم الآلة.
ويمثل المبدأ الأخلاقي الخامس التزام "كاسبرسكي" بحصر استخدام أنظمة الذكاء الاصطناعي وتعلم الآلة في الأغراض الدفاعية فقط، حيث تواصل الشركة جهودها لبناء عالم أكثر أماناً وتثبت التزامها بحماية مستخدميها وبياناتهم عبر التركيز حصرياً على التقنيات الدفاعية.
ويشير المبدأ الأخير إلى تقبُّل "كاسبرسكي" للحوار مع جميع أصحاب المصلحة بغرض مشاركة أفضل ممارسات الاستخدام الأخلاقي للذكاء الاصطناعي.
وقال الرئيس التقني لشركة كاسبرسكي أنطون إيفانوف: "إن الذكاء الاصطناعي قادر على إفادة صناعة الأمن السيبراني من عدة نواحٍ، ما يعزز المرونة السيبرانية لمجتمعنا. ولكن، مثل أي تقنية أخرى لا تزال في مرحلة مبكرة من تطورها، لا يخلو الذكاء الاصطناعي من المخاطر. وللتعامل مع المخاوف المحيطة بالذكاء الاصطناعي، أصدرت الشركة مبادئها الأخلاقية لمشاركة أفضل ممارساتها حول تطبيق الذكاء الاصطناعي ودَعت إلى إجراء حوار مفتوح على مستوى الصناعة لوضع مبادئ توجيهية واضحة تحدد ما يجعل تطوير الحلول القائمة على الذكاء الاصطناعي وتعلم الآلة سليماً أخلاقياً".
{{ article.visit_count }}
ونظراً إلى دور خوارزميات الذكاء الاصطناعي المتنامي في مجال الأمن السيبراني، توضح هذه المبادئ كيفية ضمان "كاسبرسكي" موثوقية تقنياتها القائمة على الذكاء الاصطناعي، وترشد اللاعبين الآخرين في الصناعة نحو تقليص المخاطر المرتبطة باستخدامهم خوارزميات الذكاء الاصطناعي وتعلم الآلة، حيث تناولت كاسبرسكي هذا الموضوع كجزء من منتدى الأمم المتحدة لحوكمة الإنترنت المنعقد حالياً في اليابان ويجمع خبراء عالميين بارزين في مجال حوكمة الإنترنت.
وطرحت "كاسبرسكي" 6 مبادئ يجب أن تؤخذ في عين الاعتبار عند تطوير واستخدام الذكاء الاصطناعي وتعلم الآلة، وهي: الشفافية، والأمان، والتحكم البشري، والخصوصية، والالتزام بأغراض الأمن السيبراني، والانفتاح على الحوار.
ويرمز مبدأ الشفافية إلى إيمان "كاسبرسكي" الراسخ بواجب كل شركة بإبلاغ عملائها عن استخدامها تقنيات الذكاء الاصطناعي وتعلم الآلة في منتجاتها وخدماتها.
أمّا مبدأ السلامة فتلتزم "كاسبرسكي" به عن طريق ممارسة مجموعة واسعة من التدابير الصارمة لضمان جودة أنظمة الذكاء الاصطناعي وتعلم الآلة، ويتضمن ذلك مراجعات أمنية في أنظمة الذكاء الاصطناعي وتعلم الآلة، وخطوات تقليل الاعتماد على مجموعات البيانات الخارجية في تدريب الحلول العاملة بالذكاء الاصطناعي، وتفضيل تقنيات تعلم الآلة السحابية التي تتمتع بالحماية اللازمة بدلاً من تلك المثبتة على أجهزة العملاء.
ويشير مبدأ التحكم البشري إلى أهمية معايرة أنظمة الذكاء الاصطناعي وتعلم الآلة عندما يتعلق الأمر بتحليل التهديدات المعقدة، ولا سيما التهديدات المتقدمة المستعصية "APT". أما المبدأ الأخلاقي الأساسي التالي فهو ضمان خصوصية الأفراد عند استخدام أنظمة الذكاء الاصطناعي وتعلم الآلة.
ويمثل المبدأ الأخلاقي الخامس التزام "كاسبرسكي" بحصر استخدام أنظمة الذكاء الاصطناعي وتعلم الآلة في الأغراض الدفاعية فقط، حيث تواصل الشركة جهودها لبناء عالم أكثر أماناً وتثبت التزامها بحماية مستخدميها وبياناتهم عبر التركيز حصرياً على التقنيات الدفاعية.
ويشير المبدأ الأخير إلى تقبُّل "كاسبرسكي" للحوار مع جميع أصحاب المصلحة بغرض مشاركة أفضل ممارسات الاستخدام الأخلاقي للذكاء الاصطناعي.
وقال الرئيس التقني لشركة كاسبرسكي أنطون إيفانوف: "إن الذكاء الاصطناعي قادر على إفادة صناعة الأمن السيبراني من عدة نواحٍ، ما يعزز المرونة السيبرانية لمجتمعنا. ولكن، مثل أي تقنية أخرى لا تزال في مرحلة مبكرة من تطورها، لا يخلو الذكاء الاصطناعي من المخاطر. وللتعامل مع المخاوف المحيطة بالذكاء الاصطناعي، أصدرت الشركة مبادئها الأخلاقية لمشاركة أفضل ممارساتها حول تطبيق الذكاء الاصطناعي ودَعت إلى إجراء حوار مفتوح على مستوى الصناعة لوضع مبادئ توجيهية واضحة تحدد ما يجعل تطوير الحلول القائمة على الذكاء الاصطناعي وتعلم الآلة سليماً أخلاقياً".