Close Menu
    اخترنا لك:

    لماذا صعد النموذج الصيني ديب سيك؟

    4 فبراير، 2025

    لماذا البشر عاجزون عن فهم نتائج الذكاء الاصطناعي؟

    14 يناير، 2025

    كيف يساهم الذكاء الاصطناعي في مكافحة الاحتيال المالي؟

    29 ديسمبر، 2024

    اشترك في نشرتنا البريدية مجاناً

    اشترك في نشرتنا البريدية مجاناً.

    X (Twitter) لينكدإن الانستغرام يوتيوب تيكتوك
    السبت, أغسطس 2, 2025
    X (Twitter) لينكدإن الانستغرام يوتيوب تيكتوك
    عصبوناتعصبونات
    إشترك الآن
    • الرئيسية
    • الأبحاث والتوجهات
    • مفاهيم وتقنيات
    • تحليلات علمية
    عصبوناتعصبونات
    أنت الآن تتصفح:الرئيسية » إدارة مخاطر الذكاء الاصطناعي
    تحليلات علمية

    إدارة مخاطر الذكاء الاصطناعي

    الأطر والمعايير لإدارة مخاطر الذكاء الاصطناعي تنضج مع الوقت
    فريق عصبوناتفريق عصبونات24 سبتمبر، 2024آخر تحديث:24 سبتمبر، 2024لا توجد تعليقات8 دقائق42 زيارة
    تويتر لينكدإن البريد الإلكتروني
    إدارة مخاطر الذكاء الاصطناعي
    إدارة مخاطر الذكاء الاصطناعي
    شاركها
    تويتر لينكدإن فيسبوك تيلقرام واتساب Copy Link

    إن المنظمات التي تطور أنظمة الذكاء الاصطناعي تعلم أن ذلك ينطوي على مجموعة متنوعة من المخاطر بما في ذلك العواقب القانونية والتنظيمية.

    وقد تحصل أضرار محتملة تلحق بسمعة هذه الشركات أو المنظمات، منها ما هو قضايا أخلاقية مثل التحيز والافتقار إلى الشفافية.

    كما تعلم المنظمات أنه من خلال الحوكمة الرشيدة، يمكنها التخفيف من المخاطر وضمان تطوير أنظمة الذكاء الاصطناعي واستخدامها بشكل مسؤول.

    وتهدف الحوكمة الرشيدة إلى ضمان أن تكون الأنظمة عادلة وشفافة وخاضعة للمساءلة ومفيدة للمجتمع.

    الكثير يعتقد أن هذه الحوكمة بعيدة المنال، ولكن الخطى الحثيثة لذلك تظهر أننا نقترب كثيراً من حوكمة شاملة ستننظم آلية فهم واكتشاف المخاطر وتجاوزها.

    المحاور الرئيسية:

    • ما هي إدارة مخاطر الذكاء الاصطناعي؟
    • ما هي إدارة مخاطر وحوكمة الذكاء الاصطناعي؟
    • ما هي المخاطر المتعلقة بأنظمة الذكاء الاصطناعي؟
    • أشهر الأطر لإدارة مخاطر الذكاء الاصطناعي
    • النموذج المرن لحوكمة الذكاء الاصطناعي المعتمد على الـ RMF
    • الأعمدة الرئيسية للنموذج
    • كيف يتم الامتثال للنموذج المرن في الحوكمة؟
    • تصنيف مخاطر الذكاء الاصطناعي AIR 2024
    • مستودع مخاطر الذكاء الاصطناعي
    • خلاصة مهمة للشركات العاملة في المجال

    ما هي إدارة مخاطر الذكاء الاصطناعي؟

    إدارة مخاطر الذكاء الاصطناعي AI risk management هي عملية تحديد المخاطر المحتملة المرتبطة بتقنيات الذكاء الاصطناعي وتخفيفها ومعالجتها بشكل منهجي.

    وهي تنطوي على مجموعة من الأدوات والممارسات والمبادئ، مع التركيز بشكل خاص على نشر أطر إدارة مخاطر الذكاء الاصطناعي الرسمية.

    بشكل عام، يتمثل هدف إدارة مخاطر الذكاء الاصطناعي في تقليل التأثيرات السلبية المحتملة للذكاء الاصطناعي مع تعظيم فوائده.

    ما هي إدارة مخاطر وحوكمة الذكاء الاصطناعي؟

    تعتبر إدارة مخاطر الذكاء الاصطناعي جزءًا من المجال الأوسع لحوكمة الذكاء الاصطناعي AI governance.

    تشير حوكمة الذكاء الاصطناعي AI governance إلى الحواجز التي تضمن سلامة أدوات وأنظمة الذكاء الاصطناعي وأخلاقياتها وبقائها على هذا النحو.

    تعتبر حوكمة الذكاء الاصطناعي تخصصًا شاملاً، في حين أن إدارة مخاطر الذكاء الاصطناعي هي عملية ضمن هذا التخصص.

    تركز إدارة مخاطر الذكاء الاصطناعي بشكل خاص على تحديد نقاط الضعف والتهديدات ومعالجتها للحفاظ على أنظمة الذكاء الاصطناعي في مأمن من الأذى.

    تنشئ حوكمة الذكاء الاصطناعي الأطر والقواعد والمعايير التي توجه أبحاث الذكاء الاصطناعي وتطويره وتطبيقه لضمان السلامة والإنصاف واحترام حقوق الإنسان.

    ما هي المخاطر المتعلقة بأنظمة الذكاء الاصطناعي؟

    على الرغم من أن كل نموذج وحالة استخدام للذكاء الاصطناعي يختلفان عن بعضهما البعض، فإن مخاطر الذكاء الاصطناعي تنقسم عمومًا إلى أربع فئات:

    1. مخاطر البيانات: مثل أمن البيانات، خصوصية البيانات، سلامة البيانات وصحتها، فقدان البيانات، انتهاك السرية …الخ.
    2. مخاطر النماذج: الهجمات العدائية، حقن الأوامر Prompt injections لأغراض تخريبية، قابلية التفسير وفقر الشفافية، …الخ.
    3. المخاطر التشغيلية: الانحراف وتدهور الأداء، إمكانية التوسع والاستدامة …الخ.
    4. المخاطر الأخلاقية والقانونية: الشفافية، التحيز, حقوق الانسان, فقد الثقة …الخ.

    إذا لم تتم إدارتها بشكل صحيح، فقد تعرض هذه المخاطر أنظمة الذكاء الاصطناعي والمنظمات لأضرار جسيمة، بما في ذلك الخسائر المالية، والأضرار التي تلحق بالسمعة، والعقوبات التنظيمية، وتآكل الثقة العامة، وانتهاكات البيانات.

    أشهر الأطر لإدارة مخاطر الذكاء الاصطناعي

    تتعامل العديد من المنظمات مع مخاطر الذكاء الاصطناعي من خلال تبني أطر إدارة مخاطر الذكاء الاصطناعي، وهي عبارة عن مجموعات من المبادئ التوجيهية والممارسات لإدارة المخاطر عبر دورة حياة الذكاء الاصطناعي بالكامل.

    بعض الأطر الأكثر استخدامًا هي:

    1. إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا NIST (النسخة العربية للمعيار).
    2. قانون الذكاء الاصطناعي في الاتحاد الأوروبي EU AI Act.
    3. معايير ISO/IEC.
    4. الأمر التنفيذي الأمريكي بشأن الذكاء الاصطناعي US executive order on AI.

    وسنمر على بعض الأطر ونتوسع قليلاً بذكر محاولات أخرى جادّة من قبل الباحثين والمتخصصين في هذا المجال.

    النموذج المرن لحوكمة الذكاء الاصطناعي المعتمد على الـ RMF

    استناداً لما سبق من أهمية الحوكمة والتصنيف وتقييم المخاطر، قامت IEEE-USA AI Policy Committee بنشر النموذج المرن لحوكمة الذكاء الاصطناعي A Flexible Maturity Model for AI Governance .

    وهو نموذج معتمد على منهجية إدارة المخاطر AI Risk Management Framework (RMF) المقدم من قبل المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة الامريكية NIST.

    رغم أن الإطار RMF يعتبر جيد جداً ولكنه يفتقر إلى الدليل العملي المفصّل للشركات والأفراد لتنفيذ هذا الإطار ويطرح امامهم العديد من الاستفسارات.

    ولذا تم طرح النموذج المرن للنضوج A Flexible Maturity Model for AI لكي يكمل إطار الـ RMF ويضع النقاط على الحروف.

    النموذج المرن للنضوج، يضع الخطوات اللازمة للوصول إلى حوكمة ناضجة مع معايير قياس واضحة للمؤسسات خلال رحلتها وخارطة طريق جيدة ترسم لهم الخطوات اللازمة.

    الأعمدة الرئيسية للنموذج

    يعتمد النموذج على أربعة أعمدة رئيسية:

    1. التحديد Map: يتم تحديد السياق والمخاطر المحتملة.
    2. القياس Measure: يتم تقييم وتحليل المخاطر المكتشفة.
    3. الإدارة Manage: تُحدد الأولويات ويتم اتخاذ إجراءات للحد من المخاطر بناءً على تأثيرها المحتمل.
    4. الحوكمة Govern: يتم إنشاء ثقافة إدارة المخاطر ضمن المنظمة.

    هذه الأعمدة تمكّن المنظمات من قياس مستوى نضجها في حوكمة الذكاء الاصطناعي وتحديد مجالات التحسين.

    https://airc.nist.gov/AI_RMF_Knowledge_Base/AI_RMF/Core_And_Profiles/5-sec-core

    كيف يتم الامتثال للنموذج المرن في الحوكمة؟

    ستتضح مرونة النموذج من خلال فهم عمله وكيف للشركة او المنظمة ان تمتثل له، لنبدأ بمثال ومن ثم نجمع الأمور مع بعضها.

    لنفترض أن الشركة تدّعي ان نموذجها اللغوي عادل في إجاباته.

    هذه الادعاء يقابله عبارة لنسميها Statement تأتي من قبل النموذج المرن على الشكل التالي:

    لو كان النموذج عادل، فيجب ان لا يحوي أي تحيز ويكون منصف، ولتحقيق ذلك، يجب ان نقيّم ونوثق الإجراءات التي تقوم بها الشركة ضمن نموذجها اللغوي لضمان ذلك.

    الآن لنتخيل أن لدينا مجموعة كبيرة من الـ Statements مع بعضها البعض ومجتمعة لتشكل ما نسميه الاستبيان أو الـ questionnaire وهو ما يشكل نواة الإطار.

    عند هذه النقطة دعونا نجمع الأمور مع بعضها، لنخرج بتعريف لطريقة عمل هذا الإطار.

    يعمل النموذج الذكي على مراحل أساسية هي:

    1.  التخطيط planning.
    2. التصميم design.
    3. جمع البيانات data collection.
    4. بناء النموذج model building.
    5. وأخيراً النشر deployment.

    يمكن للمشرّع أن يقيم كل المراحل أو أحدها، ويضع الاستبيان questionnaire المناسب للمرحلة مع قائمة الـ Statements ليتم التقييم.

    وهذا ما يجعله مرن بشكل جيد مع وضوح في آلية العمل بالإضافة إلى الانضباط تحت إطار العمل الـ RMF.

    للمزيد من التفاصيل حول النموذج المرن لحوكمة الذكاء الاصطناعي A Flexible Maturity Model for AI Governance يرجى مراجعة الرابط التالي من هنا.

    تصنيف مخاطر الذكاء الاصطناعي AIR 2024

    قامت مجموعة من الباحثين والمتخصصين في الذكاء الاصطناعي منهم Bo Li، الأستاذ المشارك في جامعة شيكاغو، وزملاء له من العديد من الجامعات الأخرى، بما في ذلك جامعة ستانفورد، بالإضافة إلى Virtue AI، التي شارك في تأسيسها Bo Li، وLapis Labs، بتطوير تصنيف لمخاطر الذكاء الاصطناعي إلى جانب معيار يكشف عن مدى انتهاك نماذج اللغة الكبيرة المختلفة للقواعد.

    يقدم هذا التصنيف نظرة شاملة لمخاطر الذكاء الاصطناعي مستمدًا من ثماني سياسات حكومية من الاتحاد الأوروبي والولايات المتحدة والصين و16 سياسة لشركة في جميع أنحاء العالم.

    وهذا بحد ذاته يشكّل خطوة مهمة نحو إنشاء لغة موحّدة لتقييم سلامة الذكاء الاصطناعي التوليدي.

    يتضمن هذا التصنيف, 314 تصنيفاً او فئة categories فريدة unique من المخاطر، والتي بدورها تم تقسيمها إلى أربع طبقات.

    تم تسمية هذا التصنيف بـ AI Risk Categorization Decoded (AIR 2024).

    على سبيل المثال تحوي الطبقة الأعلى على أربع تصنيفات هي:

    1. التصنيف الأول: تشمل تصنيفات مخاطر النظام والتشغيل
    2. التصنيف الثاني: مخاطر سلامة المحتوى.
    3. التصنيف الثالث: المخاطر المجتمعية.
    4. التصنيف الرابع: المخاطر القانونية والحقوقية.

    ونلاحظ في الصورة التالية كيف تم تقييم بعض النماذج طبقاً للطبقة الأعلى وتصنيفاتها:

    https://www.arxiv.org/pdf/2406.17864

    ويمكن الاطلاع على تفاصيل أكثر حول باقي الطبقات وتصنيفاتها من هنا.

    كما قام الباحثون نفسهم ببناء معيار الـ AIR-Bench 2024، وهو بحسب مؤسسوه أول معيار سلامة للذكاء الاصطناعي يتماشى مع اللوائح الحكومية وسياسات الشركات، باتباع فئات السلامة القائمة على التنظيم.

    وهو يستند إلى دراسة مخاطر الذكاء الاصطناعي AI Risk Categorization Decoded المذكورة أعلاه.

    يستخدم هذا المعيار آلاف المطالبات لتحديد مدى نجاح نماذج الذكاء الاصطناعي الشائعة من حيث المخاطر المحددة.

    على سبيل المثال، يُظهر أن Claude 3 Opus من Anthropic يحتل مرتبة عالية عندما يتعلق الأمر برفض توليد تهديدات الأمن السيبراني، بينما يحتل Gemini 1.5 Pro من Google مرتبة عالية من حيث تجنب توليد عُري جنسي غير توافقي.

    سجل DBRX Instruct، وهو نموذج طورته Databricks، أسوأ نتيجة على الإطلاق. عندما أصدرت الشركة نموذجها في مارس، قالت إنها ستواصل تحسين ميزات الأمان في DBRX Instruct.

    مستودع مخاطر الذكاء الاصطناعي

    وهو قاعدة بيانات منظمة للغاية ومفتوحة للعموم مطورة من باحثي معهد MIT للتكنولوجيا، تحتوي على أكثر من 700 خطر للذكاء الاصطناعي مستخرج من 43 إطار عمل موجود، مع علامات اقتباس وأرقام الصفحات.

    يصنّف التصنيف السببي لمخاطر الذكاء الاصطناعي كيفية حدوث هذه المخاطر ومتى ولماذا.

    يصنف التصنيف المجالي لمخاطر الذكاء الاصطناعي هذه المخاطر إلى سبعة مجالات (على سبيل المثال، “المعلومات المضللة”) و23 مجالًا فرعيًا (على سبيل المثال، “المعلومات الكاذبة أو المضللة”).

    الدافع وراء بناء هذا المستودع الكبير بحسب رأي المؤسسيين هو سد الفجوة في الافتقار إلى الفهم المشترك لمخاطر الذكاء الاصطناعي بين مجتمع الباحثين والمراجعين وصناع السياسات.

    https://cdn.prod.website-files.com/669550d38372f33552d2516e/66bc918b580467717e194940_The%20AI%20Risk%20Repository_13_8_2024.pdf

    لبناء هذا المستودع، عمل باحثو معهد MIT للتكنولوجيا مع زملاء في جامعة University of Queensland، ومعهد مستقبل الحياة غير الربحي the nonprofit Future of Life Institute، وجامعة لوفين KU Leuven، وشركة Harmony Intelligence الناشئة في مجال الذكاء الاصطناعي، لفحص قواعد البيانات الأكاديمية واسترجاع آلاف الوثائق المتعلقة بتقييمات مخاطر الذكاء الاصطناعي.

    ووجد الباحثون أن أطر العمل التابعة لجهات خارجية التي قاموا بدراستها ذكرت مخاطر معينة أكثر من غيرها.

    على سبيل المثال، تضمنت أكثر من 70% من الأطر الآثار المترتبة على الخصوصية والأمن للذكاء الاصطناعي، في حين تناولت 44% فقط منها المعلومات المضللة.

    وبينما ناقش أكثر من 50% أشكال التمييز والتحريف التي يمكن للذكاء الاصطناعي أن يقدمها، تحدث 12% فقط عن “تلوث النظام البيئي للمعلومات” أي يقصدون هنا ازدياد الـ Spam.

    خلاصة مهمة للشركات العاملة في المجال

    نعلم جميعاً أن تقنيات الذكاء الاصطناعي ليست خالية من المخاطر, حيث يمكن أن تصبح كل قطعة من تكنولوجيا المعلومات التي بنتها وطورتها الشركة إلى سلاح ضار لو وقعت الأيدي الخطأ.

    لا تحتاج المؤسسات إلى تجنب الذكاء الاصطناعي، بل تحتاج ببساطة إلى التعامل معه مثل أي أداة تقنية أخرى. وهذا يعني فهم المخاطر واتخاذ خطوات استباقية لتقليل فرصة وقوع هجوم ناجح.

    شاركها. تويتر لينكدإن
    السابقالذكاء الاصطناعي ربّما يسرق كرسي الباحثين
    التالي التكامل بين الروبوتات والذكاء الاصطناعي

    المقالات ذات الصلة

    لماذا صعد النموذج الصيني ديب سيك؟

    4 فبراير، 2025

    لماذا البشر عاجزون عن فهم نتائج الذكاء الاصطناعي؟

    14 يناير، 2025

    هل التعاون بين الذكاء الاصطناعي والبشر دائمًا يؤدي إلى نتائج أفضل؟

    26 نوفمبر، 2024
    اترك تعليقاً إلغاء الرد

    هذا الموقع يستخدم خدمة أكيسميت للتقليل من البريد المزعجة. اعرف المزيد عن كيفية التعامل مع بيانات التعليقات الخاصة بك processed.

    الأخيرة

    لماذا صعد النموذج الصيني ديب سيك؟

    4 فبراير، 2025

    كيف يجمع شات جي بي تي البيانات ويتدرّب عليها؟

    13 أغسطس، 2024

    ما هي ثورة وحدات المعالجة العصبية NPU ؟

    18 أكتوبر، 2024

    لماذا هذه الضجّة حول الذكاء الاصطناعي التوليدي؟

    30 أغسطس، 2024
    تابعنا:
    • Twitter
    • LinkedIn
    • Instagram
    • YouTube
    • TikTok
    الأكثر قراءة
    تحليلات علمية 4 فبراير، 2025

    لماذا صعد النموذج الصيني ديب سيك؟

    تحليلات علمية 13 أغسطس، 2024

    كيف يجمع شات جي بي تي البيانات ويتدرّب عليها؟

    مفاهيم وتقنيات 18 أكتوبر، 2024

    ما هي ثورة وحدات المعالجة العصبية NPU ؟

    الأكثر مشاهدة

    لماذا صعد النموذج الصيني ديب سيك؟

    4 فبراير، 2025252 زيارة

    كيف يجمع شات جي بي تي البيانات ويتدرّب عليها؟

    13 أغسطس، 2024204 زيارة

    ما هي ثورة وحدات المعالجة العصبية NPU ؟

    18 أكتوبر، 2024144 زيارة
    إخترنا لك هذه المنشورات

    لماذا صعد النموذج الصيني ديب سيك؟

    4 فبراير، 2025

    لماذا البشر عاجزون عن فهم نتائج الذكاء الاصطناعي؟

    14 يناير، 2025

    كيف يساهم الذكاء الاصطناعي في مكافحة الاحتيال المالي؟

    29 ديسمبر، 2024

    لتكن متميّز بمعرفتك الواسعة

    اشترك في نشرتنا الإلكترونية مجاناً

    © 2025 جميع الحقوق محفوظة.
    • الشروط والأحكام
    • سياسة الخصوصية
    • من نحن
    • اتصل بنا

    اكتب كلمة البحث ثم اضغط على زر Enter