top of page
صورة الكاتبGJC Team

كيف يمكن للمؤسسات إدارة مخاطر الذكاء الاصطناعي (AI)

تاريخ التحديث: ٢٩ يونيو ٢٠٢٣


Lights going to the sky
Lights

تحتاج جميع المؤسسات التي تطور وتنشر الذكاء الاصطناعي (AI) إلى إدارة المخاطر المرتبطة به . وهذا يشمل الكيانات العامة والخاصة وغير الحكومية.


في حين أن هناك العديد من أطر عمل إدارة المخاطر والعمليات والأدوات المتاحة بالفعل - يمكن القول إن المخاطر التي تشكلها أنظمة الذكاء الاصطناعي فريدة من نوعها. وذلك لأن المخاطر المرتبطة بالذكاء الاصطناعي يمكن أن تتغير بمرور الوقت ، وغالبًا ما تكون معقدة ، وذات طبيعة اجتماعية وتقنية ، ويمكن أن تسبب نتائج غير عادلة أو غير مرغوب فيها للأفراد والمجتمع.


طورت حكومة الولايات المتحدة NIST (المعهد الوطني للمعايير والتكنولوجيا) إطار عمل للمساعدة في إدارة المخاطر المرتبطة بالذكاء الاصطناعي (AI) . وهذا ما يسمى إطار عمل NIST AI لإدارة المخاطر (AI RMF) . تم إنشاء هذا نتيجة لقانون مبادرة الذكاء الاصطناعي الوطنية الأمريكية لعام 2020.


يوفر NIST AI RMF مرجعًا تأسيسيًا مفيدًا مرجعًا لأي مؤسسة (بما في ذلك تلك الموجودة خارج الولايات المتحدة) إدارة المخاطر المرتبطة بالذكاء الاصطناعي.


إن إطار AI RMF تطوعي وكان يهدف إلى تحسين القدرة على دمج الجدارة بالثقة في تصميم منتجات وخدمات الذكاء الاصطناعي وتطويرها واستخدامها وتقييمها ، والأنظمة . تم تطوير AI RMF من خلال عملية تعاونية بين NIST والصناعة والمؤسسات الأخرى والجمهور.


ينقسم نموذج AI RMF إلى جزأين حيث يركز الجزء 1 على كيفية قيام المؤسسات بتأطير المخاطر المتعلقة بالذكاء الاصطناعي. ثم يسلط الضوء على كيفية تحليل مخاطر الذكاء الاصطناعي والجدارة بالثقة ، وخصائص أنظمة الذكاء الاصطناعي الجديرة بالثقة مثل موثوقية الصلاحية ، والسلامة ، والأمن ، والمرونة ، والمساءلة ، والشفافية ، و "القابلية للتفسير" ، وضوابط الخصوصية ، والإنصاف ، وإدارة التحيزات.





في مارس 2023 ، أطلقت NIST أيضًا مركز موارد AI جدير بالثقة ومسؤول ، والذي يهدف إلى دعم المنظمات المتوافقة مع AI RMF.


قد تجد المؤسسات التي تطور و / أو تنشر الذكاء الاصطناعي أن NIST AI RMF ومواردها الإضافية مفيدة في إدارتها المستمرة لمخاطر الذكاء الاصطناعي.




شاهد روابط مفيدة:


مركز NIST AI - https://airc.nist.gov/Home




Comments


bottom of page