לוגו זפירנט

עוזרים מועילים, שותפים רומנטיים או אמני נוכלים? חלק שני » בלוג CCC

תאריך:

CCC תמכה בשלושה מפגשים מדעיים בכנס השנתי של AAAS השנה, ובמקרה שלא הצלחת להשתתף באופן אישי, נסכם כל מפגש. היום, נסכם את עיקרי השאלות והתשובות של המפגש, "דגמי שפה גדולים: עוזרים מועילים, שותפים רומנטיים או אמני נוכלים?" הפאנל הזה, בהנחיית ד"ר מריה ג'יני, חבר מועצת CCC ופרופסור למדעי המחשב והנדסה באוניברסיטת מינסוטה, הוצג ד"ר איס קמאר, מנכ"ל AI Frontiers ב-Microsoft Research, ד"ר האל דאומה השלישי, פרופסור למדעי המחשב באוניברסיטת מרילנד, ו ד"ר יונתן מאי, פרופסור למדעי המחשב במכון למדעי המידע של אוניברסיטת דרום קליפורניה.

להלן הסיכום המרתק של חלק השאלות והתשובות של "דגמי שפה גדולים: עוזרים מועילים, שותפים רומנטיים או אמני נוכלים?"לוּחַ. האם בינה מלאכותית מסוגלת לאהוב? אילו סוגים של השפעות עשויות להיות למודלים האלה על ילדים? כיצד מסתדרות יכולות ה-AI של ארצות הברית? גלה למטה:

ש: בעת פריסת מודלים של שפת בינה מלאכותית בהקשרים רב-לשוניים ורב-תרבותיים, אילו שיטות עלינו לעשות?

ד"ר מאי: בפיתוח טכנולוגיה והורדת קירות, צריך להקל על אנשים לעשות את מה שהם רוצים לעשות. מה שכולם רוצים לעשות, ולא רק אני. תודה AI, נהדר להתמקד בי, אבל כדאי לשים לב לשאר העולם באופן כללי.

ש: חלק מהנושאים הכלליים האלה - זו לא הפעם הראשונה שהם מועלים. נראה שהקהילה לא מתכוונת להגיע לזה בעצמה. אני תוהה אם לכולכם יש רעיונות איך להעביר את השיחות האלה לפעולה?

ד"ר קמאר: יש תפקידים להרבה מפלגות שונות. להערכה יש חשיבות רבה בייצוג תרבויות ואוכלוסיות שונות. כאשר למערכות הנתונים אין גיוון בייצוג העולמי, המערכות המתקבלות אינן מייצגות. נדרשת עבודה רבה בגיבוש שיטות עבודה מומלצות להערכה, תקנות ואמצעי ציות. הבית הלבן התחייב, והתוכנית למגילת זכויות בינה מלאכותית מתחילה. היו תהליכים שהוטמעו על פני התעשייה, עם הרבה מוחות גדולים שעבדו יחד (לא מושלם, אבל בהכללה על פני התעשייה יש פוטנציאל). מתקיימות פגישות כדי להגיע להתכנסות להתחלה כרגע כסטנדרטים; אולי ברגולציה עתידית. איך עושים הערכות, ניתוח בטיחות וכו'? לאף אחת מהשיחות הללו אין את הגיוון שצריך להיות בחדר. חשבו מי צריך להיות בחדר כשמתקבלות החלטות.

ד"ר דאומה: אני חושב שכשאנשים מדברים על רגולציה, במיוחד בבינה מלאכותית, כולם חושבים על תקנות ענישה. אבל זה יכול גם לתמרץ רגולציה. מימון קובעי מדיניות ו-NSF יכולים לקדם כלים לפיתוח שיסייעו לנו כאומה ולעולם.

ש: המימון ל-AI נמצא בפיגור בארה"ב בהשוואה למקומות אחרים בעולם. ההשקעה החדשה של NSF היא 20 מיליון ומשהו, שזה בוטנים בהשוואה להשקעות בתעשייה. הממשל הפדרלי פרסם דוחות ממחקרים במשך שנים, והמסקנה היא שארה"ב חייבת לצאת לדרך. אני אוהב את אנלוגיית שינוי השלב של Ece. מגבלה תרמודינמית עם מספרים הולכת וגדלה. אנחנו רוצים AI פתוח, מי ישלם על זה? אין מספיק כסף. מה ההצעות שלך? לפתוח AI? אבל אין לנו אפילו פרסום בגישה פתוחה. האם היית ממליץ לנשיא שלא תהיה חקיקה?

ד"ר מאי: אני חושב שיש כסף; מישהו הבחין בפניי שהצלחת לשכנע את הממשלה לסובב חלקיקים, אבל לא הצלחת להפנות את זה אלינו.

ד"ר קמר: הסיבה שחברות שבונות את המודלים הללו מקבלים את התפוקות הללו היא באמצעות ריכוז משאבים. יש הרבה שאתה מקבל מקנה מידה. צריך לחשוב איך אנחנו מרכזים השקעות באקדמיה כדי שנקבל משאב משותף במקום שיהיו לנו הרבה מודלים שונים. אנחנו רואים שזה לא קשור רק לגודל. לא משהו שאנחנו צריכים לעשות עכשיו, אבל הארכיטקטורה הנוכחית לא נהדרת. יכולת בינה מלאכותית טובה לא צריכה להיות רק יותר כסף ויותר כוח.

ש: הטיית ייצוג יתר בתשובות. האם אנחנו יודעים מאיפה זה מגיע? אני בחור מתמטיקה, והמחשבות שלי עולות על זה הוא שילוב של שגיאות עיגול שמוסיף הטיה? אם ייצוג שווה, הייתי מתאר לעצמי שהוא יפיק ייצוג שווה, או שהוא עדיין יהיה שם?

ד"ר מאי: הרבה מסתכם בפונקציות ספייק. מקסימום רך הוא חלק חשוב באימון. הכי גבוה רוצה להיות מספר 1. זה לא שיש איזה פלט שפה מושלם, אבל אנחנו רוצים שתהיה קצת הטיה. אנחנו רק רוצים למזער נזקים כלפי אנשים, והרבה פעמים אנחנו לא מזהים אותם. פריסה ללא הבנה היא בעיה. 

ד"ר דאומה: אחד האתגרים עם המודלים האלה הוא שאין יותר מודלים של AI צרים. הם אומרים שהם יכולים לעשות הכל, אז קשה לבדוק הכל.

ש: ציינת ש-AI הוא כלי או תחליף, באיזו דרך אתה רואה את זה הולך?

ד"ר דאומה: יש יותר כסף שהולך להחלפה.

ש: הכותרת הזכירה AI רומנטי. אני רוצה לדעת יותר על זה.

ד"ר מאי: אין מספיק כוונות במודלים כדי שהם יהיו תחליפים רומנטיים קיימא, אבל הם טובים כמו בני אדם בזיהוי דפוסים גם כשהם לא קיימים.

ד"ר קמאר: אני ממליץ לך לא לחשוב על AI כפי שהוא כרגע. נסו להקרין אל העתיד – דמיינו שבעוד כמה שנים, המערכות הללו יותאמו אליכם באופן אישי. מה הקשר שתהיה עם המערכת הזו?

ד"ר מאי: אבל האם זה יאהב אותך?

ד"ר קמאר: זה יגיד לך שהוא אוהב אותך.

ד"ר מאי: אבל האם זה מספיק?

ש: אני רוצה לשמוע עצות לאנשים שאינם בתחום הבינה המלאכותית. כיצד נוכל לעסוק בכלים הללו? מה עלינו לדעת?

ד"ר דאומה: באוניברסיטת מרילנד, אנחנו מנהלים את השיחות האלה הרבה. קל לי לומר שהעיתונות תהיה שונה בעוד 5 שנים, וגם בתחומים אחרים. זה לא נוח להגיד שתפקיד הפרופסור יהיה שונה בעוד 5 שנים, אבל זה יהיה. יש לי עמיתים שמשתמשים בתוספים שונים של LLM עבור הצעות וניירות; זה כבר קורה. יש לי באופן קבוע שאלות בחינות שנכתבות על ידי כלים, אבל אני חייב לבדוק את הדיוק. כתיבת שאלות בחינה לא מסבה לי שמחה, אז בינה מלאכותית יכולה להוריד אותה מהצלחת שלי. בהשכלה הגבוהה עלינו לחשוב על זה יותר. איך זה משנה את העבודה שלנו? יש הרבה דיונים באוניברסיטאות, אבל לא המון איגום משאבים.

ש: עד כמה רצוי לשפוט בינה מלאכותית בעתיד כאשר שוקלים יישומים צבאיים? לא היה אזכור ליישומים צבאיים במושב הזה - אני יודע שאם אני קורא אנשים באמצע הדרך נכונה יש חילוקי דעות בנושא זה.

ד"ר מאי: הצבא הוא רחב, הרבה מהעבודה שלי בחסות משרד הביטחון. קשה לענות ספציפית, באופן כללי נראה שמחלקת ההגנה (לא מדברת בשמם) נותנת עדיפות לבטיחות ולביטחון של ארה"ב, והיא תמשיך לעשות זאת ולמנף את ה-LLMs וה-AI כדי לעזור לארה"ב להיות בטוחה.

ד"ר קמאר: אנחנו צריכים לדבר גם על שימוש כפול. אם אתה לוקח עבודה צבאית שמתקיימת בביולוגיה או אבטחת סייבר, נוכל לקחת את הכלים המבטיחים שיש לנו כרגע ולהשתמש בהם כי אנחנו רוצים מערכות מאובטחות ותרופות חדשות. אבל עם כל שימוש טוב יהיה לך שימוש רע. מהם מקרי השימוש בהם לא נרצה להשתמש בבינה מלאכותית? ביישומי קוד פתוח, אנשים יכולים לשכפל את המודלים האלה. כיצד אנו מונעים מאנשים להזיק במקרים אלו?

ש: באינטראקציה עם מודלים של שפה, מבוגרים מבינים שזה לא חי/מודע לעצמו, אבל מה לגבי כמה דורות מאוחר יותר; ילדים שיש להם את זה מאז שהם זוכרים את החברות? יש להם מורה או מורה שהוא מלא בינה מלאכותית; המערכת מוטמעת עם מדריך. הם יכולים ליצור קשר עם ההוראה, לחשוב שיש להם מערכת יחסים מצוינת, ואז התוכנית נמחקת. מהי פסיכולוגיית הילד של קשרים רגשיים חברתיים עם ישויות לא-אדם?

ד"ר קמר: אנחנו צריכים מחקר, מחקר בין-תחומי, ואנחנו צריכים את זה במהירות. בעוד 5 שנים, אולי נקבל את התשובות האלה, אבל בזמן הזה בינה מלאכותית עשויה להפוך לחלק גדול מהחיים של בת ה-10 שלי. השאלה שלך חשובה ביותר. יש מחקר המראה שאפילו למערכות תמימות עשויות להיות דלתות אחוריות. אנחנו צריכים להיות מומחי אבטחה ומומחי התפתחות ילדים לנהל את השיחות האלה היום.

ד"ר דאומה: אני לא יודע אם מישהו זוכר את המעקב ברבי - יש כאן בעיית פרטיות גדולה. זה נושא חברתי יותר מעניין. התגובות היו מכוונות להיות חיוביות מדי. ילדים היו אומרים דברים כמו אני כועס כי סאלי לא שיחקה איתי, וזה לא נותן הצעות מתאימות חברתית. אני מודאג מגורמים חיוביים מאוד, כי חיוביות היא לא תמיד התשובה הנכונה.

תודה רבה שקראתם, והישארו מעודכנים לסיכום הפאנל השלישי והאחרון שלנו ב-AAAS 2024.

ספוט_ימג

המודיעין האחרון

ספוט_ימג