לוגו זפירנט

למד כיצד להעריך את הסיכון של מערכות בינה מלאכותית | שירותי האינטרנט של אמזון

תאריך:

בינה מלאכותית (AI) היא תחום המתפתח במהירות עם פוטנציאל לשפר ולשנות היבטים רבים של החברה. בשנת 2023, קצב האימוץ של טכנולוגיות בינה מלאכותית הואץ עוד יותר עם פיתוחם של מודלים חזקים של בסיס (FMs) וכתוצאה מכך התקדמות ביכולות בינה מלאכותית.

באמזון, השקנו מספר שירותי AI גנרטיביים, כגון סלע אמזון ו Amazon Code Whisperer, והפכו מגוון של דגמים גנרטיביים בעלי יכולת גבוהה לזמינים דרך אמזון SageMaker JumpStart. שירותים אלו נועדו לתמוך בלקוחות שלנו בפתיחת היכולות המתפתחות של AI יצירתי, כולל יצירתיות משופרת, יצירת תוכן מותאם אישית ודינמית ועיצוב חדשני. הם יכולים גם לאפשר למתרגלי בינה מלאכותית להבין את העולם כפי שלא היה מעולם - טיפול במחסומי שפה, שינויי אקלים, האצת תגליות מדעיות ועוד.

עם זאת, כדי לממש את מלוא הפוטנציאל של AI גנרטיבי, חשוב לשקול בזהירות את כל הסיכונים הפוטנציאליים. בראש ובראשונה, זה מועיל לבעלי העניין של מערכת הבינה המלאכותית על ידי קידום פיתוח ופריסה אחראיים ובטוחים, ועל ידי עידוד אימוץ של אמצעים יזומים לטיפול בהשפעה אפשרית. כתוצאה מכך, הקמת מנגנונים להערכת סיכונים ולניהול סיכונים היא תהליך חשוב עבור מתרגלי בינה מלאכותית לשקול והפכה למרכיב מרכזי בתקני AI רבים בתעשייה (לדוגמה, ISO 42001, ISO 23894, ו NIST RMF) וחקיקה (כגון חוק AI של האיחוד האירופי).

בפוסט זה, אנו דנים כיצד להעריך את הסיכון הפוטנציאלי של מערכת הבינה המלאכותית שלך.

מהן רמות הסיכון השונות?

אמנם זה עשוי להיות קל יותר להתחיל להסתכל על מודל למידת מכונה אינדיבידואלית (ML) והסיכונים הנלווים במנותק, חשוב לשקול את הפרטים של היישום הספציפי של מודל כזה ואת מקרה השימוש המתאים כחלק ממערכת AI מלאה . למעשה, מערכת בינה מלאכותית טיפוסית עשויה להתבסס על מספר דגמי ML שונים הפועלים יחד, וארגון עשוי לחפש לבנות מספר מערכות בינה מלאכותית שונות. כתוצאה מכך, ניתן להעריך סיכונים עבור כל מקרה שימוש וברמות שונות, כלומר סיכון מודל, סיכון מערכת AI וסיכון ארגוני.

סיכון ארגוני מקיף את הספקטרום הרחב של סיכונים שארגון עלול לעמוד בפניהם, לרבות סיכונים פיננסיים, תפעוליים ואסטרטגיים. סיכון מערכת בינה מלאכותית מתמקד בהשפעה הכרוכה ביישום ובהפעלה של מערכות בינה מלאכותית, בעוד שסיכון מודל ML נוגע ספציפית לפגיעויות ואי הוודאות הגלומות במודלים של ML.

בפוסט זה, אנו מתמקדים בסיכון מערכת AI, בעיקר. עם זאת, חשוב לציין שיש לשקול ולהתאים את כל הרמות השונות של ניהול סיכונים בתוך ארגון.

כיצד מוגדר סיכון מערכת בינה מלאכותית?

ניהול סיכונים בהקשר של מערכת בינה מלאכותית יכול להיות דרך למזער את ההשפעה של אי ודאות או השפעות שליליות אפשריות, תוך מתן הזדמנויות למקסום ההשפעות החיוביות. הסיכון עצמו אינו פגיעה פוטנציאלית אלא השפעת אי הוודאות על היעדים. על פי מסגרת ניהול סיכונים של NIST (NIST RMF), ניתן להעריך את הסיכון כמדד מכפיל של ההסתברות של אירוע להתרחש בזמן לפי סדרי ההשלכות של האירוע המקביל.

ישנם שני היבטים לסיכון: סיכון אינהרנטי וסיכון שיורי. הסיכון המובנה מייצג את כמות הסיכון שמערכת הבינה המלאכותית מציגה בהיעדר הפעלות או בקרות. סיכון שיורי לוכד את הסיכונים הנותרים לאחר שילוב של אסטרטגיות הפחתה.

זכור תמיד שהערכת סיכונים היא פעילות ממוקדת באדם הדורשת מאמצים כלל ארגוניים; מאמצים אלה נעים מהבטחת כל בעלי העניין הרלוונטיים כלולים בתהליך ההערכה (כגון צוותי מוצר, הנדסה, מדע, מכירות ואבטחה) ועד להערכת האופן שבו פרספקטיבות ונורמות חברתיות משפיעות על הסבירות וההשלכות הנתפסות של אירועים מסוימים.

למה הארגון שלך צריך לדאוג להערכת סיכונים?

הקמת מסגרות לניהול סיכונים עבור מערכות בינה מלאכותיות יכולה להועיל לחברה בכללותה על ידי קידום תכנון, פיתוח ותפעול בטוח ואחראי של מערכות בינה מלאכותית. מסגרות ניהול סיכונים יכולות גם להועיל לארגונים באמצעות הדברים הבאים:

  • קבלת החלטות משופרת - על ידי הבנת הסיכונים הקשורים למערכות בינה מלאכותית, ארגונים יכולים לקבל החלטות טובות יותר כיצד להפחית סיכונים אלו ולהשתמש במערכות בינה מלאכותית בצורה בטוחה ואחראית
  • תכנון ציות מוגבר – מסגרת להערכת סיכונים יכולה לסייע לארגונים להתכונן לדרישות הערכת סיכונים בחוקים ובתקנות הרלוונטיים
  • בונה אמון - על ידי הוכחה שהם נוקטים בצעדים להפחתת הסיכונים של מערכות בינה מלאכותית, ארגונים יכולים להראות ללקוחותיהם ולבעלי העניין שלהם שהם מחויבים להשתמש בבינה מלאכותית בצורה בטוחה ואחראית

כיצד להעריך סיכון?

כצעד ראשון, ארגון צריך לשקול לתאר את מקרה השימוש בבינה מלאכותית שיש להעריך ולזהות את כל בעלי העניין הרלוונטיים. מקרה שימוש הוא תרחיש או מצב ספציפי המתאר כיצד משתמשים מקיימים אינטראקציה עם מערכת AI כדי להשיג מטרה מסוימת. בעת יצירת תיאור מקרה שימוש, זה יכול להיות מועיל לציין את הבעיה העסקית הנפתרת, לרשום את בעלי העניין המעורבים, לאפיין את זרימת העבודה ולספק פרטים לגבי תשומות ותפוקות מפתח של המערכת.

כשמדובר בבעלי עניין, קל להתעלם מחלקם. האיור הבא הוא נקודת התחלה טובה למיפוי תפקידים של בעלי עניין בינה מלאכותית.

מקור: "טכנולוגיית מידע - בינה מלאכותית - מושגים ומינוח של בינה מלאכותית".

השלב הבא החשוב של הערכת הסיכונים של מערכת הבינה המלאכותית הוא לזהות אירועים שעלולים להזיק הקשורים למקרה השימוש. בבחינת אירועים אלה, זה יכול להיות מועיל לשקף מימדים שונים של AI אחראי, כגון הוגנות וחוסן, למשל. בעלי עניין שונים עשויים להיות מושפעים בדרגות שונות לאורך ממדים שונים. לדוגמה, סיכון חוסן נמוך עבור משתמש קצה יכול להיות תוצאה של מערכת בינה מלאכותית המציגה שיבושים קלים, בעוד שסיכון הוגנות נמוך עלול להיגרם על ידי מערכת בינה מלאכותית המפיקה תפוקות שונות באופן זניח עבור קבוצות דמוגרפיות שונות.

כדי להעריך את הסיכון לאירוע, אתה יכול להשתמש בסולם סבירות בשילוב עם סולם חומרה כדי למדוד את ההסתברות להתרחשות וכן את מידת ההשלכות. נקודת התחלה מועילה בעת פיתוח סולמות אלו עשויה להיות ה- NIST RMF, המציע להשתמש בקטגוריות לא מספריות איכותיות הנעות בין סיכון נמוך מאוד לסיכון גבוה מאוד או עקרונות הערכות חצי-כמותיות, כגון סולמות (כגון 1-10), פחים או כל דבר אחר. מספרים מייצגים. לאחר שהגדרת את סולמות הסבירות והחומרה עבור כל הממדים הרלוונטיים, תוכל להשתמש בתוכנית מטריצת סיכונים כדי לכמת את הסיכון הכולל לכל מחזיקי עניין לאורך כל ממד רלוונטי. האיור הבא מציג מטריצת סיכונים לדוגמה.

באמצעות מטריצת סיכון זו, אנו יכולים להתייחס לאירוע בעל חומרה נמוכה וסבירות נדירה להתרחש כסיכון נמוך מאוד. זכור כי ההערכה הראשונית תהיה אומדן של הסיכון המובנה, ואסטרטגיות הפחתת סיכונים יכולות לסייע בהורדת רמות הסיכון עוד יותר. לאחר מכן ניתן לחזור על התהליך כדי ליצור דירוג עבור כל סיכון שיורי לאירוע. אם מזוהים מספר אירועים באותו ממד, זה יכול להיות מועיל לבחור את רמת הסיכון הגבוהה ביותר מבין כולם כדי ליצור סיכום הערכה סופי.

באמצעות סיכום ההערכה הסופי, ארגונים יצטרכו להגדיר אילו רמות סיכון מקובלות עבור מערכות הבינה המלאכותית שלהם, וכן לשקול תקנות ומדיניות רלוונטיות.

מחויבות AWS

באמצעות התקשרויות עם הבית לבן ו UN, בין היתר, אנו מחויבים לחלוק את הידע והמומחיות שלנו כדי לקדם את השימוש האחראי והמאובטח ב-AI. לפי הקווים האלה, אדם סליפסקי של אמזון ייצג לאחרונה את AWS ב- פסגת בטיחות בינה מלאכותית עם ראשי מדינות ומנהיגים בתעשייה בנוכחות, מה שממחיש עוד יותר את מסירותנו לשתף פעולה בקידום אחראי של בינה מלאכותית.

סיכום

ככל שה-AI ממשיכה להתקדם, הערכת סיכונים הופכת חשובה ושימושית יותר ויותר עבור ארגונים המעוניינים לבנות ולפרוס בינה מלאכותית באחריות. על ידי הקמת מסגרת להערכת סיכונים ותוכנית להפחתת סיכונים, ארגונים יכולים להפחית את הסיכון לתקריות פוטנציאליות הקשורות בינה מלאכותית ולזכות באמון עם הלקוחות שלהם, כמו גם להפיק תועלת כגון שיפור מהימנות, שיפור הגינות לדמוגרפיות שונות ועוד.

קדימה, התחל במסע שלך לפיתוח מסגרת להערכת סיכונים בארגון שלך ושתף את מחשבותיך בהערות.

עיין גם בסקירה כללית של סיכוני בינה מלאכותית שפורסמה ב-Amazon Science: AI אחראי בעידן הגנרטיבי, ולחקור את מגוון שירותי AWS שיכולים לתמוך בך בהערכת הסיכונים ובמסע ההפחתה שלך: אמזון סייג מייקר להבהיר, אמזון SageMaker דגם צג, AWS CloudTrail, כמו גם מודל מסגרת ממשל.


על הכותבים

מיה סי מאייר הוא מדען יישומי ומחנך ML באוניברסיטת AWS Machine Learning University; שם היא חוקרת ומלמדת בטיחות, הסבר והגינות של מערכות למידת מכונה ומערכות בינה מלאכותית. לאורך הקריירה שלה, מיה הקימה מספר תכניות הסברה אוניברסיטאית, שימשה כמרצה אורחת ודובר מרכזי והציגה במספר רב של כנסים למידה גדולים. היא גם עוזרת לצוותים פנימיים וללקוחות AWS להתחיל במסע הבינה המלאכותית האחראית שלהם.

דניס ו' בטלוב הוא ותיק בן 17 באמזון ודוקטורט בלמידת מכונה, דניס עבד על פרויקטים מרגשים כמו Search Inside the Book, Amazon Mobile Apps ו-Kindle Direct Publishing. מאז 2013 הוא עזר ללקוחות AWS לאמץ את טכנולוגיית AI/ML כאדריכל פתרונות. נכון לעכשיו, דניס הוא מנהיג טכנולוגי עולמי עבור AI/ML האחראי על תפקודם של AWS ML Specialist Solutions Architects ברחבי העולם. דניס הוא דובר ציבורי תדיר, אתה יכול לעקוב אחריו בטוויטר @dbatalov.

ד"ר שרה ליו הוא מנהל בכיר בתוכנית טכנית עם צוות ה-AI Responsible AWS. היא עובדת עם צוות של מדענים, מובילי נתונים, מהנדסי ML, חוקרים, כמו גם צוותים צולבים אחרים כדי להעלות את רף ה-AI האחראי על פני שירותי AI של AWS. הפרויקטים הנוכחיים שלה כוללים פיתוח כרטיסי שירות בינה מלאכותית, ביצוע הערכות סיכונים עבור AI אחראי, יצירת מערכי הערכה באיכות גבוהה והטמעת תוכניות איכות. היא גם עוזרת לצוותים פנימיים וללקוחות לעמוד בסטנדרטים המתפתחים של תעשיית הבינה המלאכותית.

ספוט_ימג

המודיעין האחרון

ספוט_ימג