قيود للسيطرة على أنظمة الذكاء الإصطناعي
قيود للسيطرة على أنظمة الذكاء الإصطناعي
شادي عواد
Wednesday, 05-Feb-2020 06:13

تشهد أبحاث الذكاء الاصطناعي نمواً سريعاً يتزامن مع ازدياد تأثير هذه التكنولوجيا على المجتمعات، ما يمكن أن يشكّل يوماً ما تهديداً للبشرية.

أصدرت مجموعة من خبراء التكنولوجيا تقريراً خاصاً يتضمن الوسائل الواجب اتّباعها، لمنع تقنيات الذكاء الإصطناعي من التصرف بطرق غير مرغوبة قد تنجم عنها أفعال تدميرية.

 

نجاح لافت

حققت بعض نماذج الذكاء الإصطناعي نجاحاً ملفتاً، مثل تقنيات التعرّف الى الكلام أو ترجمته الفورية وتصنيف الصور والروبوتات الذكية والسيارات ذاتية القيادة. وعلى الرغم من ذلك، شددت مجموعة من الخبراء إلى ضرورة الانتباه منذ المراحل التصميمية الأولى إلى المخاطر المُحتمل وقوعها بسبب هذه التقنيات. وأوضح الخبراء أنه عند البدء بتصميم أنظمة ذكية يجب تحديد السلوك الصحيح لتلك الأنظمة، وذلك بإضافة ضوابط أخلاقية مبرمجة مسبقاً من قبل علماء كمبيوتر وخبراء بالأخلاق، وذلك لتعزيز قدرة الأنظمة الذكية على اتخاذ القرار السليم في المواقف الحرجة.

 

وأوصى الخبراء بضرورة فحص البرمجيات الخاصة بالتقنيات الذكية بشكل مكثف قبَيل اعتمادها ودمجها في الآلة، لأنّ من شأن أي خطأ برمجي أن يؤدي إلى سلوك غير مقبول. وأشاروا إلى أنّ وسائل التحقق من البرمجيات في الأنظمة الذكية تختلف كلياً عنها في الأنظمة التقليدية، حيث تتطلّب وسائل التحقق من الأنظمة الذكية تحريضها على العمل داخل المختبرات في ظروف مشابهة لظروف عملها المطلوب، ومراقبة النتائج من قبل المصممين واستكشاف الأخطاء وتصحيحها. وأكدوا على ضرورة توفير الرقابة والتحكم المستمرّين بأنظمة الذكاء الإصطناعي رغم صعوبة ذلك بسبب قدرتها على التحايل أثناء أداء المهام المطلوبة.

 

رقابة واختبار

إقترح الخبراء أن تكون كافة الأجزاء المكوّنة للنظام الذكي مختبرة مسبقاً لضمان سلامة النظام ككل، الذي يجب أن يخضع بدوره لاختبارات متعددة، يتمّ إجراء بعضها من قبل أدوات حاسوبية خاصة وبعضها الآخر من قبل مهندسين متخصصين. إلى جانب ذلك، يرى الخبراء أنه من الضروري فرض قيود متنوّعة على قدرات الأنظمة الذكية، لأنه من غير الواضح حالياً إذا كانت هذه الأنظمة ستؤدي إلى ظهور مشاكل أمنية أم لا، كون بنيتها المعقدة قد تؤدي إلى جعل عمليات اختراقها ذات فعالية كبيرة.

 

علاوة على ذلك، يجب توفير الرقابة والتحكم المستمرين بأنظمة الذكاء الاصطناعي رغم صعوبة ذلك بسبب قدرتها على التحايل أثناء أداء المهام المطلوبة، كما أنّ المطور قد لا ينجح في تغيير أو تعطيل أو تعديل مهام النظام الصناعي الذكي إذا رغب في ذلك، بسبب قدرة بعض تلك التقنيات على التصرف بمفردها وتجنّب التغييرات. لذلك شَدّد الخبراء على أهمية توسيع الأبحاث في مجال الأنظمة القابلة للإصلاح لبناء أنظمة ذكاء إصطناعي لا تمانع تقبّل التغييرات ولا تَتجنّبها.

theme::common.loader_icon