لوگوی Zephyrnet

مدل‌های زبان بزرگ می‌توانند به شما دروغ بگویند - این استاد از شما می‌خواهد وقتی این کار را می‌کنند بدانید - شورای رهبری فناوری جمعی

تاریخ:

تقریباً با هر کسی - یعنی هر انسانی - صحبت کنید و مکالمه شما با چه چیزی روبرو خواهد شد ملیحه علیخانی آن را «اصطکاک‌های سالم» می‌نامد، لحظاتی که هدف شما در مکالمه با هدف شریک زندگی‌تان برخورد می‌کند، لحظاتی که نیاز به توضیح دارد، باعث سردرگمی می‌شود یا منجر به اختلاف می‌شود.

در مورد مدل های زبان بزرگ اینطور نیست.

علیخانی، استادیار دانشکده علوم کامپیوتر خوری در دانشگاه نورث ایسترن، می گوید که مدل های زبان بزرگ مانند ChatGPT با قطعیت مشکل جدی دارند.

پروژه جدید علیخانی با نام اصطکاک برای پاسخگویی در معاملات مکالمه (FACT) با همکاری دانشگاه نورث ایسترن، دانشگاه ایلینوی اوربانا شامپین و دانشگاه کالیفرنیای جنوبی است.

پروژه FACT که از طریق کمک هزینه اکتشاف هوش مصنوعی از طریق آژانس پروژه تحقیقاتی پیشرفته دفاعی تامین می شود، با هدف توسعه ابزارهای هوش مصنوعی شفاف تر و عادلانه تر است.

علیخانی می گوید: «یکی از چیزهایی که ارتباطات انسانی را به ابزاری پربار تبدیل می کند، این واقعیت است که ما عدم اطمینان خود را در گفتار و لحن خود نشان می دهیم. ما آن را در حالت چهره خود قرار دادیم.»

او ادامه می‌دهد که اصطکاک‌های سالمی که از عدم قطعیت در ارتباطات انسان به انسان ناشی می‌شود، به حفظ تنوع نظرات و دیدگاه‌ها کمک می‌کند.

اما مدل‌های بزرگ زبان (یا LLM) علاقه‌ای به بیان عدم قطعیت خود ندارند و در نتیجه آن چیزی را که علیخانی «رفتارهای متفکرانه» می‌نامد، ایجاد می‌کند. او می‌گوید که مدل‌های زبان بزرگ «می‌خواهند رضایت کاربر خود را به حداکثر برسانند» و «هرگز هیچ گونه اصطکاک در مکالمه ایجاد نمی‌کنند، خواه [مدل] از اظهارات خود مطمئن باشد یا نه».

مشکلات اضافی با مدل های زبانی بزرگ به دلیل تمایل آنها به توهم ایجاد می شود. LLM ها حقایق را می سازند. آنها در متقاعد کردن مردم به حقایق ساخته شده بسیار خوب هستند.»

علی‌خانی علی‌رغم این مسائل همچنین می‌گوید که انسان‌ها مستعد تکیه بیش از حد به «حقایق» تولید شده توسط این مدل‌های هوش مصنوعی هستند که «ممکن است حقایقی را برای شاد کردن شما رقم بزنند».

او می‌گوید، بخشی از آنچه به اتکای بیش از حد کاربران به LLM کمک می‌کند، «رفتارهای انسان‌مانند» آنهاست. "این باعث دستکاری شناخت ما می شود."

همچنین به نظر می‌رسد که مدل‌های زبان بزرگ پاسخ‌های خود را فوراً تولید می‌کنند، عامل دیگری که باعث می‌شود کاربران صحت را فرض کنند. برای ما دانشمندان هوش مصنوعی سخت است که به مردم بگوییم، بله، منسجم است. بله سریع است. بله، آن را به سبک شما تنظیم می کند. علیخانی می گوید اما توهم می زند.

علیخانی و تیمش تحت کمک مالی جدیدشان، ابزارهایی را طراحی خواهند کرد که سطوح اطمینان یک LLM را در مورد بیانیه‌ای که بیان می‌کند نشان می‌دهد و اصطکاک‌های سالم را در مکالمات انسان و هوش مصنوعی معرفی می‌کند.

چگونه می‌توانیم اعتماد سیستم را پیش‌بینی و بیان کنیم؟» علیخانی می پرسد. اگر یک مدل هوش مصنوعی «فقط 2 درصد مطمئن باشد، باید آن را بیرونی کند».

«یکی از اهداف اصلی این تحقیق، مدل‌سازی عدم قطعیت، بیرونی‌سازی عدم قطعیت» و آموزش به LLM‌ها است که چگونه این عدم قطعیت را در یک مکالمه انسان و هوش مصنوعی به تصویر بکشند. این ممکن است در رابط کاربر به عنوان یک امتیاز صدکی از قطعیت مدل ظاهر شود، یا مدل ممکن است عدم قطعیت را در پاسخ‌های خود به روشی شبیه انسان منعکس کند.

به عنوان مثال، علیخانی موقعیتی را تصور می کند که در آن بیمار ممکن است از یک مدل زبان بزرگ سؤالی در مورد سلامت خود بپرسد. نسل فعلی LLM سعی خواهد کرد پاسخی ارائه دهد، حتی اگر این پاسخ خطرناک باشد. علیخانی امیدوار است مدل‌هایی بسازد که بگویند: «نمی‌دانم. باید با پرستارت تماس بگیری.»

علیخانی می گوید: «استقامت، کلید پاسخگویی در هوش مصنوعی است. در حال حاضر، معمول است که یک LLM با یک پاسخ به یک پرس و جو در زمان پرسیدن و یک پاسخ کاملاً متفاوت چند دقیقه بعد پاسخ دهد.

علیخانی می‌گوید: وقتی نوبت به طراحی هوش مصنوعی ایمن و پاسخگو می‌رسد، سیستم‌های هوش مصنوعی قبلی که ممکن است به کارهای ساده کمک کنند، «به مجموعه‌ای از مجموعه‌های داده دیگر دسترسی نداشتند»، «و نمی‌توانستند چیزهایی بگویند که ممکن است خطرناک باشد. ، زیرا در داده های آنها نبود."

دقیقاً آنچه این مجموعه داده ها شامل - یا حذف می شوند - برای غلبه بر سوگیری هایی که LLM ها نسبت به "جنسیت، اما همچنین سوگیری های ظریف تر، مانند درون گروه ها و سوگیری های شناختی مختلف که در مدل های [زبان بزرگ] منعکس می شوند"، کلیدی است.

او می‌گوید اکنون، علیخانی امیدوار است مدل‌هایی طراحی کند که به مردم با «مطالعات و ترجیحات متفاوت» خدمات ارائه دهد.

ما نمی‌خواهیم فقط به ساختن سیستم‌هایی برای جمعیتی که برای آن‌ها اطلاعات داریم ادامه دهیم، بلکه به این فکر می‌کنیم که چه کسانی را پشت سر می‌گذاریم، و چگونه می‌توانیم این شکاف عظیم نابرابری را به جای بدتر کردن آن متوقف کنیم؟» او می پرسد. "هدف آزمایشگاه من حرکت به سمت آن سمت است."

نقطه_img

جدیدترین اطلاعات

نقطه_img