לוגו זפירנט

צוות בינה מלאכותית אתית אומר שיתרונות הטיה יכולים לחשוף מהר יותר פגמים אלגוריתמיים

תאריך:

הטיה במערכות AI מתגלה כאבן נגף מרכזית במאמצים לשילוב רחב יותר של הטכנולוגיה בחברה שלנו. יוזמה חדשה שתגמל חוקרים על מציאת דעות קדומות כלשהן מערכות AI יכול לעזור לפתור את הבעיה.

המאמץ מבוסס על תרומות הבאגים שחברות תוכנה משלמות למומחי אבטחת סייבר שמתריעים בפניהןכל פגמי אבטחה פוטנציאליים במוצרים שלהם. הרעיון אינו חדש; "פרסי הטיה" היו הראשון שהוצע מאת אאני חוקר ויזם JB Rubinovitz עוד בשנת 2018, וארגונים שונים כבר התמודדו עם אתגרים כאלה.

אבל המאמץ החדש מבקש ליצור פורום מתמשך לתחרויות פרס הטיה שאינו תלוי בארגון מסוים. המורכב ממתנדבים ממגוון חברות כולל טוויטר, מה שמכונה "Bias Buccaneers" מתכננת לקיים תחרויות רגילות, או "מרידות", ובתחילת החודש השיקה את האתגר הראשון שכזה.

"פרסי באגים הם נוהג סטנדרטי באבטחת סייבר שעדיין לא מצא דריסת רגל בקהילת ההטיה האלגוריתמית", הארגוןניזרים אומרים באתר שלהם. "בעוד שאירועים חד-פעמיים ראשוניים הפגינו התלהבות מתגמולים, Bias Buccaneers היא העמותה הראשונה שנועדה ליצור מרידות מתמשכות, לשתף פעולה עם חברות טכנולוגיה ולסלול את הדרך להערכות שקופות וניתנות לשחזור של מערכות בינה מלאכותית".

התחרות הראשונה הזו נועדה להתמודד עם הטיה באלגוריתמים לזיהוי תמונה, אבל במקום לגרום לאנשים למקד מערכות AI ספציפיות, התחרות יהיה כלעודד חוקרים לבנות כלים שיכולים לזהות מערכי נתונים מוטים. הרעיון הוא ליצור מודל למידת מכונה שיכול לתייג במדויק כל תמונה במערך נתונים עם גוון העור, המגדר הנתפס וקבוצת הגיל שלה. התחרות מסתיימת ב-30 בנובמבר ויש לו פרס ראשון של $6,000, פרס שני של $4,000, ופרס שלישי של $2,000.

האתגר מבוסס על העובדה שלעתים קרובות המקור להטיה האלגוריתמית הוא לא כל כך באלגוריתם עצמו, אלא באופי הנתונים עליהם הוא מאומן. כלים אוטומטיים שיכולים להעריך במהירות עד כמה אוסף מאוזן of תמונות קשורות לתכונות שלעתים קרובות הן מקורות לאפליה יכולות לעזור לחוקרי בינה מלאכותית להימנע ממקורות נתונים מוטים בבירור.

אבל המארגנים אומרים שזה רק הצעד הראשון במאמץ לבנות ערכת כלים להערכת הטיה במערכי נתונים, אלגוריתמים ויישומים, ובסופו של דבר ליצור סטנדרטים כיצד לבצעעם הטיה אלגוריתמית, הגינות ויכולת הסבר.

זה לא המאמץ היחיד שכזה. אחד ממנהיגי החדש יזמה הוא Rumman Chowdhury של טוויטר, שעזר לארגן את תחרות הטיית הפרס הראשונה של AI בשנה שעברה, מכוון לאלגוריתם שבו השתמשה הפלטפורמה לחיתוך תמונות משתמשים התלוננו העדיפו פנים לבני עור וגברים על פני שחורים ונשים.

התחרות נתנה להאקרים גישה למודל של החברה ואתגרה אותם למצוא בו פגמים. נרשמים מצא מגוון רחב של בעיות, כוללעם העדפה של פנים יפות בצורה סטריאוטיפית, סלידה מ אנשים עם שיער לבן (סמן גיל), ו העדפה לממים עם כתב אנגלי ולא ערבי.

אוניברסיטת סטנפורד גם סיימה לאחרונה תחרות שאתגרה צוותים להמציא כלים שנועדו לעזור לאנשים לבקר מערכות בינה מלאכותית בפריסה מסחרית או בקוד פתוח לאפליה. והחוקים הנוכחיים והבאים של האיחוד האירופי עשויים להכשיר חברות לבצע ביקורת קבועה על הנתונים והאלגוריתמים שלהן.

אבל לוקח יתרונות באגים בינה מלאכותית וביקורת אלגוריתמית המיינסטרים והפיכתם ליעילים יהיה קל יותר לומר מאשר לעשות. באופן בלתי נמנע, חברות שבונות את עסקיהן על האלגוריתמים שלהן הולכות להתנגד לכל מאמצים להכפיש אותן.

מבוסס על לקחים ממערכות ביקורת בתחומים אחרים, כגון כספים ותקנות איכות הסביבה ובריאות, חוקרים התווה לאחרונה כמה מהמרכיבים החיוניים לאחריות יעילה. אחד החשובים הקריטריונים הם זיהו מעורבות משמעותית של צדדים שלישיים בלתי תלויים.

החוקרים הצביעו על כך שביקורות נוכחיות של AI מרצון כרוכות לעתים קרובות בניגודי אינטרסים, כגון ארגון היעד שמשלם עבור הביקורת, עוזר למסגר את היקף הביקורת, או שיש לו הזדמנות לסקור ממצאים לפני שהם מתפרסמים. דאגה זו באה לידי ביטוי בדו"ח האחרון של ה- ליגת הצדק האלגוריתמית,whצ' ציין את הגודלd תפקידם של ארגוני יעד בתוכניות הבאונטיות הנוכחיות של באגי אבטחת סייבר.

מציאת דרך לממן ולתמוך במבקרי בינה מלאכותית וציידי באגים עצמאיים באמת תהיה אתגר משמעותי, במיוחד מכיוון שהם יתמודדו מול כמה מהחברות עם המשאבים הטובים ביותר בעולם. למרבה המזל, נראה שיש תחושה גוברת בתעשייה שהתמודדות עם בעיה זו תהיה קריטית לשמירה על אמון המשתמשים בשירותים שלהם.

תמונת אשראי: יעקב רוזן / Unsplash

ספוט_ימג

המודיעין האחרון

ספוט_ימג