تقریباً با هر کسی - یعنی هر انسانی - صحبت کنید و مکالمه شما با چه چیزی روبرو خواهد شد ملیحه علیخانی آن را «اصطکاکهای سالم» مینامد، لحظاتی که هدف شما در مکالمه با هدف شریک زندگیتان برخورد میکند، لحظاتی که نیاز به توضیح دارد، باعث سردرگمی میشود یا منجر به اختلاف میشود.
در مورد مدل های زبان بزرگ اینطور نیست.
علیخانی، استادیار دانشکده علوم کامپیوتر خوری در دانشگاه نورث ایسترن، می گوید که مدل های زبان بزرگ مانند ChatGPT با قطعیت مشکل جدی دارند.
پروژه جدید علیخانی با نام اصطکاک برای پاسخگویی در معاملات مکالمه (FACT) با همکاری دانشگاه نورث ایسترن، دانشگاه ایلینوی اوربانا شامپین و دانشگاه کالیفرنیای جنوبی است.
پروژه FACT که از طریق کمک هزینه اکتشاف هوش مصنوعی از طریق آژانس پروژه تحقیقاتی پیشرفته دفاعی تامین می شود، با هدف توسعه ابزارهای هوش مصنوعی شفاف تر و عادلانه تر است.
علیخانی می گوید: «یکی از چیزهایی که ارتباطات انسانی را به ابزاری پربار تبدیل می کند، این واقعیت است که ما عدم اطمینان خود را در گفتار و لحن خود نشان می دهیم. ما آن را در حالت چهره خود قرار دادیم.»
او ادامه میدهد که اصطکاکهای سالمی که از عدم قطعیت در ارتباطات انسان به انسان ناشی میشود، به حفظ تنوع نظرات و دیدگاهها کمک میکند.
اما مدلهای بزرگ زبان (یا LLM) علاقهای به بیان عدم قطعیت خود ندارند و در نتیجه آن چیزی را که علیخانی «رفتارهای متفکرانه» مینامد، ایجاد میکند. او میگوید که مدلهای زبان بزرگ «میخواهند رضایت کاربر خود را به حداکثر برسانند» و «هرگز هیچ گونه اصطکاک در مکالمه ایجاد نمیکنند، خواه [مدل] از اظهارات خود مطمئن باشد یا نه».
مشکلات اضافی با مدل های زبانی بزرگ به دلیل تمایل آنها به توهم ایجاد می شود. LLM ها حقایق را می سازند. آنها در متقاعد کردن مردم به حقایق ساخته شده بسیار خوب هستند.»
علیخانی علیرغم این مسائل همچنین میگوید که انسانها مستعد تکیه بیش از حد به «حقایق» تولید شده توسط این مدلهای هوش مصنوعی هستند که «ممکن است حقایقی را برای شاد کردن شما رقم بزنند».
او میگوید، بخشی از آنچه به اتکای بیش از حد کاربران به LLM کمک میکند، «رفتارهای انسانمانند» آنهاست. "این باعث دستکاری شناخت ما می شود."
همچنین به نظر میرسد که مدلهای زبان بزرگ پاسخهای خود را فوراً تولید میکنند، عامل دیگری که باعث میشود کاربران صحت را فرض کنند. برای ما دانشمندان هوش مصنوعی سخت است که به مردم بگوییم، بله، منسجم است. بله سریع است. بله، آن را به سبک شما تنظیم می کند. علیخانی می گوید اما توهم می زند.
علیخانی و تیمش تحت کمک مالی جدیدشان، ابزارهایی را طراحی خواهند کرد که سطوح اطمینان یک LLM را در مورد بیانیهای که بیان میکند نشان میدهد و اصطکاکهای سالم را در مکالمات انسان و هوش مصنوعی معرفی میکند.
چگونه میتوانیم اعتماد سیستم را پیشبینی و بیان کنیم؟» علیخانی می پرسد. اگر یک مدل هوش مصنوعی «فقط 2 درصد مطمئن باشد، باید آن را بیرونی کند».
«یکی از اهداف اصلی این تحقیق، مدلسازی عدم قطعیت، بیرونیسازی عدم قطعیت» و آموزش به LLMها است که چگونه این عدم قطعیت را در یک مکالمه انسان و هوش مصنوعی به تصویر بکشند. این ممکن است در رابط کاربر به عنوان یک امتیاز صدکی از قطعیت مدل ظاهر شود، یا مدل ممکن است عدم قطعیت را در پاسخهای خود به روشی شبیه انسان منعکس کند.
به عنوان مثال، علیخانی موقعیتی را تصور می کند که در آن بیمار ممکن است از یک مدل زبان بزرگ سؤالی در مورد سلامت خود بپرسد. نسل فعلی LLM سعی خواهد کرد پاسخی ارائه دهد، حتی اگر این پاسخ خطرناک باشد. علیخانی امیدوار است مدلهایی بسازد که بگویند: «نمیدانم. باید با پرستارت تماس بگیری.»
علیخانی می گوید: «استقامت، کلید پاسخگویی در هوش مصنوعی است. در حال حاضر، معمول است که یک LLM با یک پاسخ به یک پرس و جو در زمان پرسیدن و یک پاسخ کاملاً متفاوت چند دقیقه بعد پاسخ دهد.
علیخانی میگوید: وقتی نوبت به طراحی هوش مصنوعی ایمن و پاسخگو میرسد، سیستمهای هوش مصنوعی قبلی که ممکن است به کارهای ساده کمک کنند، «به مجموعهای از مجموعههای داده دیگر دسترسی نداشتند»، «و نمیتوانستند چیزهایی بگویند که ممکن است خطرناک باشد. ، زیرا در داده های آنها نبود."
دقیقاً آنچه این مجموعه داده ها شامل - یا حذف می شوند - برای غلبه بر سوگیری هایی که LLM ها نسبت به "جنسیت، اما همچنین سوگیری های ظریف تر، مانند درون گروه ها و سوگیری های شناختی مختلف که در مدل های [زبان بزرگ] منعکس می شوند"، کلیدی است.
او میگوید اکنون، علیخانی امیدوار است مدلهایی طراحی کند که به مردم با «مطالعات و ترجیحات متفاوت» خدمات ارائه دهد.
ما نمیخواهیم فقط به ساختن سیستمهایی برای جمعیتی که برای آنها اطلاعات داریم ادامه دهیم، بلکه به این فکر میکنیم که چه کسانی را پشت سر میگذاریم، و چگونه میتوانیم این شکاف عظیم نابرابری را به جای بدتر کردن آن متوقف کنیم؟» او می پرسد. "هدف آزمایشگاه من حرکت به سمت آن سمت است."
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://www.mtlc.co/large-language-models-can-lie-to-you-this-professor-wants-you-to-know-when-they-do/