أنت هنا

الثقة بالذكاء الاصطناعى وإدارة المخاطر والأمن في تقرير GARTNER لأهم اتجاهات التكنولوجيا لعام 2023

 

الثقة بالذكاء الاصطناعى وإدارة المخاطر والأمن AI TRISM هو إطار يتم فيه تطوير أنظمة الذكاء الاصطناعي ونشرها بطريقة تتسق مع المبادئ الأخلاقية والمتطلبات القانونية، كما يقدم إرشادات حول كيفية تقييم المخاطر والفوائد المحتملة لنظام الذكاء الاصطناعي.

تحديات الذكاء الاصطناعي:

•        القضايا الأخلاقية: التحيز الناجم عن مجموعات بيانات محرفة أو غير كاملة أو غير ممثلة.

•        القضايا القانونية: مثل براءات الاختراع وحقوق التأليف والنشر وخصوصية المستهلك

الإطار:

•        الثقة بالذكاء الاصطناعي: يرتبط هذا الإطار بالشفافية أو القابلية للتفسير أي فهم كيفية عمل النظام.

•        مخاطر الذكاء الاصطناعي: بما في ذلك المخاطر المتعلقة بالبيانات والهجمات العدائية

•        إدارة أمن الذكاء الاصطناعي

أركان الثقة بالذكاء الاصطناعى وإدارة المخاطر والأمن AI TRISM:

•        قابلية التفسير.

•        ModelOps : الحفاظ على دورة الحياة الشاملة لكل نموذج ذكاء اصطناعي وإدارتها، أي إنشاء نموذج واختباره ونشره ومراقبته. ويهدف إلى توفير الشفافية لقادة أعمال الذكاء الاصطناعي/تكنولوجيا المعلومات من خلال توفير لوحات القيادة ومقاييس أداء الذكاء الاصطناعي.

•        الكشف عن أوجه الخلل في البيانات.

•        مقاومة الهجمات العدائية: الهجمات العدائية هي هجمات أو تهديدات للذكاء الاصطناعي تستخدم البيانات لتعطيل خوارزميات تعلم الآلة وتغيير وظائف نماذجها، وهو يكشف هذه التهديدات ويعالجها لضمان عملية مبسطة طوال الوقت.

•        حماية البيانات: ضمان خصوصية وأمن البيانات وضمان الامتثال للوائح حماية البيانات، مثل اللائحة العامة لحماية البيانات.

حالات الاستخدام:

•        Abzu: شركة دنماركية ناشئة، قامت ببناء منتج ذكاء اصطناعي يولد نماذج يمكن تفسيرها رياضيًا تحدد علاقات السبب والنتيجة، حيث تسمح لعملاء Abzu بالتحقق من صحة النتائج بسهولة أكبر وأدت إلى تطوير أدوية أكثر دقة وفعالية لسرطان الثدي، وفي هذا المثال، أدى تطبيق الشفافية على نموذج الذكاء الاصطناعي إلى نتائج أفضل وبالتالي زيادة القيمة من البيانات.

•        طورت هيئة الأعمال الدنماركية DBA  طريقة لتطبيق المبادئ الأخلاقية رفيعة المستوى على نماذج الذكاء الاصطناعي الخاصة بها، وساعد نهج DBA في نشر وإدارة 16 نموذجًا للذكاء الاصطناعي بسرعة لمراقبة المعاملات المالية بمليارات اليورو، ويوضح هذا المثال كيف أن تنفيذ المبادئ الأخلاقية، وهو أمر أساسي لإطار AI TRISM، يؤدي إلى نمو كبير للمنظمة.

الختام

نظرًا لأن تطبيقات الذكاء الاصطناعي تتطور بسرعة، تظهر قضايا أخلاقية وقانونية جديدة ترتبط ارتباطًا مباشرًا بإطار الثقة بالذكاء الاصطناعى وإدارة المخاطر والأمن الخاص به، على سبيل المثال حقوق التأليف والنشر للصور ذات الصلة بالذكاء الاصطناعي. نظرًا لأنه إطار رفيع المستوى، فمن المتوقع أن يتبنى تشريعات جديدة ذات صلة بالذكاء الاصطناعي وبالتالي يلعب دورًا أكثر أهمية في اعتماد هذه التكنولوجيا، ومن المتوفع أن يكون لهذا تأثير كبير على نتائج الأعمال حيث أن الثقة والأمن ضروريان لحماية العلامة التجارية ونموها.

ارسل مقالك الآن أرسل ملاحظاتك