حذر تقرير جديد من أن التقدم السريع في الذكاء الصناعي يزيد خطر استغلال هذه التكنولوجيا قريبا لزيادة عدد الهجمات الإلكترونية أو التسبب في حوادث للسيارات ذاتية القيادة أو تحويل الطائرات دون طيار التجارية إلى أسلحة.
نشرت الدراسة اليوم الأربعاء وشارك فيها 25 باحثا في المجالات التقنية والسياسات العامة من جامعات كمبردج وأكسفورد وييل إلى جانب خبراء الخصوصية الإلكترونية وخبراء عسكريين.
وأثارت الدراسة مخاوف من احتمال إساءة استخدام دول مارقة ومجرمين ومنفذي هجمات منفردة لتكنولوجيا الذكاء الصناعي.
وقال الباحثون إن الاستخدام الضار للذكاء الصناعي يمثل تهديدات وشيكة للأمن الرقمي والفعلي والسياسي لأنه قد يسمح بشن هجمات واسعة النطاق دقيقة في إصابة الهدف بفعالية عالية. وتركز الدراسة على تطورات يمكن أن تحدث خلال السنوات الخمس المقبلة.
ويتضمن الذكاء الصناعي استخدام أجهزة الكمبيوتر لأداء مهام تتطلب في الأصل ذكاء الإنسان مثل اتخاذ القرارات أو تمييز نصوص أو خطابات أو صور.
ويعتبر الذكاء الصناعي قوة كبيرة لأنه يتيح كل أنواع الإمكانيات التقنية لكنه أصبح محور نقاشات حادة بشأن ما إذا كان ما يتيحه من قدرات كبيرة على التشغيل الآلي يمكن أن يؤدي إلى انتشار البطالة واضطرابات اجتماعية أخرى.
وتراجع الدراسة، التي تقع في 98 صفحة، أبحاثا أكاديمية متزايدة تتعلق بالمخاطر الأمنية للذكاء الصناعي وتطالب الحكومات وخبراء السياسة والتقنية بالتعاون للقضاء على هذه المخاوف.
ويتحدث الباحثون بالتفصيل في الدراسة عن قدرة الذكاء الصناعي على صنع صور ونصوص وأصوات مركبة يتقمص بها أشخاصا آخرين على الإنترنت بهدف تحريك الرأي العام، مشيرين إلى أن الخطر يكمن في استخدام أنظمة استبدادية لهذه التكنولوجيا.
كما تثير الدراسة تساؤلات بشأن ما إذا كان على الأكاديميين وغيرهم التريث فيما ينشرون أو يكشفون بشأن التطورات الجديدة التي تتحقق في مجال الذكاء الصناعي حتى تتاح للخبراء الآخرين في المجال فرصة الدراسة والتصرف بناء على المخاطر المحتملة لهذه التطورات.
وقال مايلز برونديدج الباحث الزميل في معهد (فيوتشر أوف هيومانيتي) التابع لجامعة أكسفورد "توصلنا في النهاية إلى أسئلة أكثر بكثير من الإجابات".
{{ article.visit_count }}
نشرت الدراسة اليوم الأربعاء وشارك فيها 25 باحثا في المجالات التقنية والسياسات العامة من جامعات كمبردج وأكسفورد وييل إلى جانب خبراء الخصوصية الإلكترونية وخبراء عسكريين.
وأثارت الدراسة مخاوف من احتمال إساءة استخدام دول مارقة ومجرمين ومنفذي هجمات منفردة لتكنولوجيا الذكاء الصناعي.
وقال الباحثون إن الاستخدام الضار للذكاء الصناعي يمثل تهديدات وشيكة للأمن الرقمي والفعلي والسياسي لأنه قد يسمح بشن هجمات واسعة النطاق دقيقة في إصابة الهدف بفعالية عالية. وتركز الدراسة على تطورات يمكن أن تحدث خلال السنوات الخمس المقبلة.
ويتضمن الذكاء الصناعي استخدام أجهزة الكمبيوتر لأداء مهام تتطلب في الأصل ذكاء الإنسان مثل اتخاذ القرارات أو تمييز نصوص أو خطابات أو صور.
ويعتبر الذكاء الصناعي قوة كبيرة لأنه يتيح كل أنواع الإمكانيات التقنية لكنه أصبح محور نقاشات حادة بشأن ما إذا كان ما يتيحه من قدرات كبيرة على التشغيل الآلي يمكن أن يؤدي إلى انتشار البطالة واضطرابات اجتماعية أخرى.
وتراجع الدراسة، التي تقع في 98 صفحة، أبحاثا أكاديمية متزايدة تتعلق بالمخاطر الأمنية للذكاء الصناعي وتطالب الحكومات وخبراء السياسة والتقنية بالتعاون للقضاء على هذه المخاوف.
ويتحدث الباحثون بالتفصيل في الدراسة عن قدرة الذكاء الصناعي على صنع صور ونصوص وأصوات مركبة يتقمص بها أشخاصا آخرين على الإنترنت بهدف تحريك الرأي العام، مشيرين إلى أن الخطر يكمن في استخدام أنظمة استبدادية لهذه التكنولوجيا.
كما تثير الدراسة تساؤلات بشأن ما إذا كان على الأكاديميين وغيرهم التريث فيما ينشرون أو يكشفون بشأن التطورات الجديدة التي تتحقق في مجال الذكاء الصناعي حتى تتاح للخبراء الآخرين في المجال فرصة الدراسة والتصرف بناء على المخاطر المحتملة لهذه التطورات.
وقال مايلز برونديدج الباحث الزميل في معهد (فيوتشر أوف هيومانيتي) التابع لجامعة أكسفورد "توصلنا في النهاية إلى أسئلة أكثر بكثير من الإجابات".