شعار زيفيرنت

تعرف على كيفية تقييم مخاطر أنظمة الذكاء الاصطناعي | خدمات ويب أمازون

التاريخ:

الذكاء الاصطناعي (AI) هو مجال سريع التطور وله القدرة على تحسين وتحويل العديد من جوانب المجتمع. في عام 2023، تسارعت وتيرة اعتماد تقنيات الذكاء الاصطناعي بشكل أكبر مع تطوير نماذج أساسية قوية (FMs) وما نتج عن ذلك من تقدم في قدرات الذكاء الاصطناعي التوليدية.

في أمازون، أطلقنا العديد من خدمات الذكاء الاصطناعي التوليدية، مثل أمازون بيدروك و أمازون CodeWhisperer، وجعلت مجموعة من النماذج التوليدية ذات القدرة العالية متاحة من خلال أمازون سيج ميكر جومب ستارت. تم تصميم هذه الخدمات لدعم عملائنا في إطلاق القدرات الناشئة للذكاء الاصطناعي التوليدي، بما في ذلك الإبداع المعزز وإنشاء المحتوى المخصص والديناميكي والتصميم المبتكر. ويمكنها أيضًا تمكين ممارسي الذكاء الاصطناعي من فهم العالم كما لم يحدث من قبل - معالجة حواجز اللغة، وتغير المناخ، وتسريع الاكتشافات العلمية، والمزيد.

ومع ذلك، لتحقيق الإمكانات الكاملة للذكاء الاصطناعي التوليدي، من المهم التفكير بعناية في أي مخاطر محتملة. أولاً وقبل كل شيء، يفيد هذا أصحاب المصلحة في نظام الذكاء الاصطناعي من خلال تعزيز التطوير والنشر المسؤول والآمن، ومن خلال تشجيع اعتماد تدابير استباقية لمعالجة التأثير المحتمل. وبالتالي، فإن إنشاء آليات لتقييم المخاطر وإدارتها يعد عملية مهمة يجب على ممارسي الذكاء الاصطناعي مراعاتها، وقد أصبح عنصرًا أساسيًا في العديد من معايير صناعة الذكاء الاصطناعي الناشئة (على سبيل المثال، إعتماد ISO-42001, إعتماد ISO-23894و نيست آر إم إف) والتشريعات (مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي).

في هذا المنشور، نناقش كيفية تقييم المخاطر المحتملة لنظام الذكاء الاصطناعي الخاص بك.

ما هي مستويات المخاطر المختلفة؟

في حين أنه قد يكون من الأسهل البدء في النظر إلى نموذج التعلم الآلي الفردي (ML) والمخاطر المرتبطة به بشكل منفصل، فمن المهم النظر في تفاصيل التطبيق المحدد لمثل هذا النموذج وحالة الاستخدام المقابلة كجزء من نظام الذكاء الاصطناعي الكامل. . في الواقع، من المرجح أن يعتمد نظام الذكاء الاصطناعي النموذجي على عدة نماذج مختلفة لتعلم الآلة تعمل معًا، وقد تتطلع إحدى المؤسسات إلى بناء أنظمة ذكاء اصطناعي متعددة ومختلفة. وبالتالي، يمكن تقييم المخاطر لكل حالة استخدام وعلى مستويات مختلفة، وهي مخاطر النموذج، ومخاطر نظام الذكاء الاصطناعي، ومخاطر المؤسسة.

تشمل المخاطر المؤسسية مجموعة واسعة من المخاطر التي قد تواجهها المنظمة، بما في ذلك المخاطر المالية والتشغيلية والاستراتيجية. تركز مخاطر نظام الذكاء الاصطناعي على التأثير المرتبط بتنفيذ وتشغيل أنظمة الذكاء الاصطناعي، في حين تتعلق مخاطر نموذج تعلم الآلة على وجه التحديد بنقاط الضعف والشكوك الكامنة في نماذج تعلم الآلة.

في هذا المنشور، نركز على مخاطر نظام الذكاء الاصطناعي في المقام الأول. ومع ذلك، من المهم ملاحظة أنه ينبغي النظر في جميع المستويات المختلفة لإدارة المخاطر داخل المنظمة ومواءمتها.

كيف يتم تحديد مخاطر نظام الذكاء الاصطناعي؟

يمكن أن تكون إدارة المخاطر في سياق نظام الذكاء الاصطناعي طريقًا لتقليل تأثير عدم اليقين أو التأثيرات السلبية المحتملة، مع توفير الفرص أيضًا لتحقيق أقصى قدر من التأثيرات الإيجابية. المخاطرة في حد ذاتها ليست ضررًا محتملاً ولكنها تأثير عدم اليقين على الأهداف. بحسب ال إطار عمل إدارة المخاطر NIST (NIST RMF)، يمكن تقدير المخاطر كمقياس مضاعف لاحتمال وقوع حدث محدد بتوقيت حجم عواقب الحدث المقابل.

هناك جانبان للمخاطر: المخاطر الكامنة والمخاطر المتبقية. تمثل المخاطر المتأصلة مقدار المخاطر التي يعرضها نظام الذكاء الاصطناعي في غياب وسائل التخفيف أو الضوابط. تلتقط المخاطر المتبقية المخاطر المتبقية بعد الأخذ في الاعتبار استراتيجيات التخفيف.

ضع في اعتبارك دائمًا أن تقييم المخاطر هو نشاط يتمحور حول الإنسان ويتطلب جهودًا على مستوى المنظمة؛ تتراوح هذه الجهود من ضمان إدراج جميع أصحاب المصلحة المعنيين في عملية التقييم (مثل فرق المنتج والهندسة والعلوم والمبيعات والأمن) إلى تقييم كيفية تأثير المنظورات والأعراف الاجتماعية على الاحتمالية والعواقب المتصورة لأحداث معينة.

لماذا يجب أن تهتم مؤسستك بتقييم المخاطر؟

إن إنشاء أطر إدارة المخاطر لأنظمة الذكاء الاصطناعي يمكن أن يفيد المجتمع ككل من خلال تعزيز التصميم الآمن والمسؤول وتطوير وتشغيل أنظمة الذكاء الاصطناعي. يمكن لأطر إدارة المخاطر أيضًا أن تفيد المؤسسات من خلال ما يلي:

  • تحسين عملية صنع القرار – من خلال فهم المخاطر المرتبطة بأنظمة الذكاء الاصطناعي، يمكن للمؤسسات اتخاذ قرارات أفضل حول كيفية التخفيف من تلك المخاطر واستخدام أنظمة الذكاء الاصطناعي بطريقة آمنة ومسؤولة
  • زيادة تخطيط الامتثال – يمكن لإطار تقييم المخاطر أن يساعد المنظمات على الاستعداد لمتطلبات تقييم المخاطر في القوانين واللوائح ذات الصلة
  • بناء الثقة - من خلال إظهار أنها تتخذ خطوات للتخفيف من مخاطر أنظمة الذكاء الاصطناعي، يمكن للمؤسسات أن تثبت لعملائها وأصحاب المصلحة أنهم ملتزمون باستخدام الذكاء الاصطناعي بطريقة آمنة ومسؤولة

كيفية تقييم المخاطر؟

كخطوة أولى، يجب على المنظمة أن تفكر في وصف حالة استخدام الذكاء الاصطناعي التي تحتاج إلى تقييم وتحديد جميع أصحاب المصلحة المعنيين. حالة الاستخدام هي سيناريو أو موقف محدد يصف كيفية تفاعل المستخدمين مع نظام الذكاء الاصطناعي لتحقيق هدف معين. عند إنشاء وصف حالة الاستخدام، قد يكون من المفيد تحديد مشكلة العمل التي يتم حلها، وقائمة أصحاب المصلحة المعنيين، وتوصيف سير العمل، وتقديم التفاصيل المتعلقة بالمدخلات والمخرجات الرئيسية للنظام.

عندما يتعلق الأمر بأصحاب المصلحة، فمن السهل التغاضي عن البعض. يعد الشكل التالي نقطة بداية جيدة لرسم أدوار أصحاب المصلحة في مجال الذكاء الاصطناعي.

المصدر: “تكنولوجيا المعلومات – الذكاء الاصطناعي – مفاهيم ومصطلحات الذكاء الاصطناعي”.

تتمثل الخطوة التالية المهمة في تقييم مخاطر نظام الذكاء الاصطناعي في تحديد الأحداث الضارة المحتملة المرتبطة بحالة الاستخدام. عند النظر في هذه الأحداث، قد يكون من المفيد التفكير في الأبعاد المختلفة للذكاء الاصطناعي المسؤول، مثل العدالة والقوة، على سبيل المثال. وقد يتأثر أصحاب المصلحة المختلفون بدرجات مختلفة وعبر أبعاد مختلفة. على سبيل المثال، يمكن أن يكون انخفاض خطر المتانة بالنسبة للمستخدم النهائي نتيجة لنظام الذكاء الاصطناعي الذي يُظهر اضطرابات طفيفة، في حين يمكن أن يكون انخفاض خطر العدالة ناتجًا عن نظام الذكاء الاصطناعي الذي ينتج مخرجات مختلفة بشكل ضئيل لمجموعات ديموغرافية مختلفة.

لتقدير خطورة حدث ما، يمكنك استخدام مقياس الاحتمالية مع مقياس الخطورة لقياس احتمالية حدوثه بالإضافة إلى درجة العواقب. قد تكون نقطة البداية المفيدة عند تطوير هذه المقاييس هي NIST RMF، الذي يقترح استخدام فئات نوعية غير رقمية تتراوح من مخاطر منخفضة جدًا إلى مخاطر عالية جدًا أو مبادئ التقييمات شبه الكمية، مثل المقاييس (مثل 1-10)، أو الصناديق، أو غير ذلك أرقام تمثيلية. بعد تحديد مقاييس الاحتمالية والخطورة لجميع الأبعاد ذات الصلة، يمكنك استخدام نظام مصفوفة المخاطر لتحديد المخاطر الإجمالية لكل أصحاب المصلحة على طول كل بُعد ذي صلة. ويبين الشكل التالي مثالاً لمصفوفة المخاطر.

باستخدام مصفوفة المخاطر هذه، يمكننا اعتبار الحدث ذو الخطورة المنخفضة واحتمالية حدوثه النادرة بمثابة خطر منخفض جدًا. ضع في اعتبارك أن التقييم الأولي سيكون بمثابة تقدير للمخاطر الكامنة، ويمكن أن تساعد استراتيجيات تخفيف المخاطر في خفض مستويات المخاطر بشكل أكبر. ويمكن بعد ذلك تكرار العملية لإنشاء تصنيف لأي مخاطر متبقية متبقية لكل حدث. إذا كانت هناك أحداث متعددة تم تحديدها على نفس البعد، فقد يكون من المفيد اختيار أعلى مستوى من المخاطر بين الجميع لإنشاء ملخص تقييم نهائي.

باستخدام ملخص التقييم النهائي، سيتعين على المؤسسات تحديد مستويات المخاطر المقبولة لأنظمة الذكاء الاصطناعي الخاصة بها بالإضافة إلى النظر في اللوائح والسياسات ذات الصلة.

التزام AWS

من خلال التعاقدات مع البيت الابيض و UNومن بين أمور أخرى، نحن ملتزمون بمشاركة معرفتنا وخبرتنا لتعزيز الاستخدام المسؤول والآمن للذكاء الاصطناعي. وعلى هذا المنوال، قام آدم سيليبسكي من أمازون مؤخرًا بتمثيل AWS في مؤتمر قمة السلامة بالذكاء الاصطناعي بحضور رؤساء الدول وقادة الصناعة، مما يدل بشكل أكبر على تفانينا في التعاون من أجل التقدم المسؤول للذكاء الاصطناعي.

وفي الختام

مع استمرار تقدم الذكاء الاصطناعي، أصبح تقييم المخاطر ذا أهمية متزايدة ومفيدًا للمؤسسات التي تتطلع إلى بناء ونشر الذكاء الاصطناعي بشكل مسؤول. من خلال إنشاء إطار لتقييم المخاطر وخطة لتخفيف المخاطر، يمكن للمؤسسات تقليل مخاطر الحوادث المحتملة المتعلقة بالذكاء الاصطناعي وكسب الثقة مع عملائها، بالإضافة إلى جني الفوائد مثل تحسين الموثوقية وتحسين العدالة لمختلف الفئات السكانية والمزيد.

انطلق وابدأ رحلتك لتطوير إطار عمل لتقييم المخاطر في مؤسستك وشارك أفكارك في التعليقات.

تحقق أيضًا من نظرة عامة على مخاطر الذكاء الاصطناعي التوليدية المنشورة على Amazon Science: الذكاء الاصطناعي المسؤول في العصر التوليديواستكشف مجموعة خدمات AWS التي يمكنها دعمك في رحلة تقييم المخاطر والتخفيف من حدتها: توضيح Amazon SageMaker, الأمازون SageMaker نموذج مراقب, أوس كلاود تريل، فضلا عن إطار الحوكمة النموذجي.


حول المؤلف

ميا سي ماير وهو عالم تطبيقي ومعلم تعلم الآلة في جامعة AWS للتعلم الآلي؛ حيث تقوم بالبحث وتعليم السلامة وقابلية الشرح والعدالة في أنظمة التعلم الآلي والذكاء الاصطناعي. طوال حياتها المهنية، أنشأت ميا العديد من برامج التوعية الجامعية، وعملت كمحاضر ضيف ومتحدث رئيسي، وقدمت عروضها في العديد من المؤتمرات التعليمية الكبيرة. كما أنها تساعد الفرق الداخلية وعملاء AWS على البدء في رحلة الذكاء الاصطناعي المسؤولة الخاصة بهم.

دينيس في باتالوف هو من المخضرمين في أمازون لمدة 17 عامًا وحاصل على دكتوراه في التعلم الآلي ، عمل دينيس في مشاريع مثيرة مثل Search Inside the Book وتطبيقات Amazon Mobile و Kindle Direct Publishing. منذ عام 2013 ، ساعد عملاء AWS على اعتماد تقنية AI / ML كمهندس حلول. يُعد Denis حاليًا رائدًا تقنيًا عالميًا للذكاء الاصطناعي / ML المسؤول عن عمل AWS ML Specialist Solutions Architects على مستوى العالم. دينيس هو متحدث عام متكرر ، يمكنك متابعته على Twitterdbatalov.

الدكتورة سارة ليو هو مدير برنامج فني أول لدى فريق الذكاء الاصطناعي المسؤول في AWS. وهي تعمل مع فريق من العلماء وقادة مجموعات البيانات ومهندسي تعلم الآلة والباحثين، بالإضافة إلى فرق أخرى متعددة الوظائف لرفع مستوى الذكاء الاصطناعي المسؤول عبر خدمات الذكاء الاصطناعي في AWS. تتضمن مشاريعها الحالية تطوير بطاقات خدمة الذكاء الاصطناعي، وإجراء تقييمات المخاطر للذكاء الاصطناعي المسؤول، وإنشاء مجموعات بيانات تقييم عالية الجودة، وتنفيذ برامج عالية الجودة. كما أنها تساعد الفرق الداخلية والعملاء على تلبية معايير صناعة الذكاء الاصطناعي المتطورة.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة