സെഫിർനെറ്റ് ലോഗോ

സഹായകരായ അസിസ്റ്റൻ്റുമാരോ റൊമാൻ്റിക് പങ്കാളികളോ കോൺ ആർട്ടിസ്റ്റുകളോ? ഭാഗം ഒന്ന് » CCC ബ്ലോഗ്

തീയതി:

ഈ വർഷത്തെ AAAS വാർഷിക കോൺഫറൻസിൽ CCC മൂന്ന് ശാസ്ത്രീയ സെഷനുകളെ പിന്തുണച്ചു, നിങ്ങൾക്ക് വ്യക്തിപരമായി പങ്കെടുക്കാൻ കഴിയുന്നില്ലെങ്കിൽ, ഞങ്ങൾ ഓരോ സെഷനും റീക്യാപ്പ് ചെയ്യും. ഈ ആഴ്ച, സെഷൻ്റെ പാനലിസ്‌റ്റ് അവതരണങ്ങളുടെ ഹൈലൈറ്റുകൾ ഞങ്ങൾ സംഗ്രഹിക്കും, "വലിയ ഭാഷാ മോഡലുകൾ: സഹായകമായ സഹായികൾ, റൊമാൻ്റിക് പങ്കാളികൾ അല്ലെങ്കിൽ കോൺ ആർട്ടിസ്റ്റുകൾ?” ഈ പാനൽ, മോഡറേറ്റ് ചെയ്തത് ഡോ. മരിയ ജിനി, CCC കൗൺസിൽ അംഗവും മിനസോട്ട സർവകലാശാലയിലെ കമ്പ്യൂട്ടർ സയൻസ് & എഞ്ചിനീയറിംഗ് പ്രൊഫസറും Ece Kamar ഡോ, മൈക്രോസോഫ്റ്റ് റിസർച്ചിലെ AI ഫ്രണ്ടിയേഴ്സിൻ്റെ മാനേജിംഗ് ഡയറക്ടർ, ഡോ. ഹാൽ ഡൗമെ III, മേരിലാൻഡ് യൂണിവേഴ്സിറ്റിയിലെ കമ്പ്യൂട്ടർ സയൻസ് പ്രൊഫസർ, ഒപ്പം ഡോ. ജോനാഥൻ മേ, യൂണിവേഴ്സിറ്റി ഓഫ് സതേൺ കാലിഫോർണിയ ഇൻഫർമേഷൻ സയൻസസ് ഇൻസ്റ്റിറ്റ്യൂട്ടിലെ കമ്പ്യൂട്ടർ സയൻസ് പ്രൊഫസർ.

വലിയ ഭാഷാ മോഡലുകൾ ഇന്ന് സമൂഹത്തിലെ സംഭാഷണങ്ങളിൽ മുൻപന്തിയിലാണ്, അവരെ ചുറ്റിപ്പറ്റിയുള്ള ഹൈപ്പിന് അനുസൃതമായി അവർ ജീവിക്കുകയാണെങ്കിൽ ജൂറി പുറത്താണ്. ഈ AAAS സെഷനിലെ പാനലിസ്റ്റുകൾ LLM-കളുടെ സാധ്യതകളും വെല്ലുവിളികളും സാധ്യതകളും അഭിസംബോധന ചെയ്തു.

ആദ്യത്തെ പാനലിസ്റ്റ് ഡോ. എസി കമർ (മൈക്രോസോഫ്റ്റ് റിസർച്ച്) ആയിരുന്നു. AI-യുടെ നിലവിലെ അവസ്ഥയെ അവർ "ഘട്ട സംക്രമണം" എന്ന് വിശേഷിപ്പിച്ചു. വ്യവസായത്തിലെ AI-യിലെ മാറ്റങ്ങളും ആഴത്തിലുള്ള പഠന മോഡലുകളിലെ എക്‌സ്‌പോണൻഷ്യൽ വളർച്ചയും കണ്ട ഒരാളെന്ന നിലയിൽ അവൾ ഒരു സവിശേഷമായ കാഴ്ചപ്പാട് നൽകി, വളരെ കുറച്ച് ആളുകൾ മാത്രമേ 2024 വരെ തുടരുമെന്ന് പ്രതീക്ഷിക്കുന്നുള്ളൂ.

എൽഎൽഎമ്മുകൾക്ക് പരിശീലനം ലഭിച്ച ഡാറ്റയുടെ അളവിലെ വർദ്ധനവും ട്രാൻസ്‌ഫോർമറുകൾ എന്ന് വിളിക്കപ്പെടുന്ന വലിയ ആർക്കിടെക്ചറും വളർച്ചയ്ക്ക് കാരണമായി. ഡോ. കമർ ഗ്രാഫിൽ പങ്കുവെച്ച രസകരമായ ഒരു ഉൾക്കാഴ്ച, മോഡലുകൾ വളരെ വേഗത്തിൽ സ്കെയിൽ ചെയ്യപ്പെടുന്നു, കാരണം അവ ഒരു പ്രത്യേക ജോലിക്ക് വേണ്ടി മാത്രം പരിശീലിപ്പിച്ചതാണ്; അവർക്ക് വിശ്വസനീയമായി നിർവഹിക്കാൻ കഴിയുന്ന ഒരു ദൗത്യം. ഒരു മോഡൽ കണക്കിലെടുക്കുന്ന പാരാമീറ്ററുകളുടെ എണ്ണം ഉൾപ്പെടെ നിങ്ങൾ വേണ്ടത്ര വലിപ്പം കൂട്ടുകയാണെങ്കിൽ, അതേ ടാസ്‌ക്കുകൾ പ്രത്യേകമായി പൂർത്തിയാക്കാൻ പരിശീലിപ്പിച്ച ഒരു മോഡലിൻ്റെ സമാനമായ പ്രകടനത്തിൽ മോഡലുകൾക്ക് ടാസ്‌ക്കുകൾ പൂർത്തിയാക്കാൻ കഴിയുമെന്ന് ChatGPT കാണിച്ചു.

LLM ഘട്ടം സംക്രമണത്തിൻ്റെ നിർവചനം ഇതാണ്: ഒരു നിർദ്ദിഷ്ട ടാസ്‌ക്കിനായി മോഡലുകൾ ഇനി പ്രത്യേകം പരിശീലിപ്പിക്കേണ്ടതില്ല, പക്ഷേ പൊതുവായി പരിശീലിപ്പിക്കാനും തുടർന്ന് നിരവധി ജോലികൾ ചെയ്യാനും കഴിയും. ഈ കഴിവുകളുടെ വളർച്ച മന്ദഗതിയിലാകുന്നതിൻ്റെ സൂചനകളൊന്നുമില്ല.

ഡോ. കമറിന് GPT-4-ലേക്ക് നേരത്തെ തന്നെ ആക്‌സസ് ഉണ്ടായിരുന്നു, അവളുടെ വിപുലമായ സമയങ്ങളിൽ അത് പരീക്ഷിച്ചുനോക്കിയപ്പോൾ, സ്കെയിലും ഡാറ്റയും ഉപയോഗിച്ച് വന്ന അതിൻ്റെ ഗണ്യമായ മെച്ചപ്പെടുത്തലുകളും അതിന് വ്യത്യസ്ത ജോലികൾ സമന്വയിപ്പിക്കാൻ കഴിയുമെന്നതും അവളെ ആകർഷിച്ചു.

ഈ LLM-കളുടെ ഭാവി എന്താണ്? LLM-കൾ മനുഷ്യ ഭാഷയ്ക്ക് അപ്പുറത്തേക്ക് പോകുമെന്നും യന്ത്രഭാഷ പഠിക്കുമെന്നും രണ്ട് ഭാഷകൾക്കിടയിൽ വിവർത്തനം ചെയ്യാൻ കഴിയുമെന്നും ഡോ. ​​കമാർ പ്രതീക്ഷിക്കുന്നു. ഇത് ഇൻപുട്ടിലും ഔട്ട്‌പുട്ടിലും മോഡാലിറ്റികളുടെ കഴിവുകൾ വർദ്ധിപ്പിക്കും, ഇത് മോഡലുകൾക്ക് ഭാഷ സൃഷ്ടിക്കാൻ മാത്രമല്ല, പെരുമാറ്റങ്ങളിലെ പ്രവർത്തനങ്ങളും പ്രവചനങ്ങളും ഉണ്ടാക്കാൻ ഇടയാക്കും.

അടുത്തതായി, കമ്പ്യൂട്ടിംഗിൽ സംഭവിക്കുന്ന സുപ്രധാന ഘട്ട പരിവർത്തനത്തെക്കുറിച്ച് ഡോ. കമർ വിപുലീകരിച്ചു. സിസ്റ്റങ്ങൾ ഇന്ന് വളരെ വ്യത്യസ്തമായ രീതിയിലാണ് വികസിപ്പിച്ചുകൊണ്ടിരിക്കുന്നത്, ഈ വികസനത്തിന് ഒരു പുതിയ കമ്പ്യൂട്ടിംഗ് മാതൃക സൃഷ്ടിക്കേണ്ടതുണ്ട്, അത് ഞങ്ങൾ ഇപ്പോൾ ഉപരിതലത്തിൽ മാത്രം മാന്തികുഴിയുണ്ടാക്കി. കമ്പ്യൂട്ടറുകളുമായുള്ള നമ്മൾ ഇടപഴകുന്ന രീതി വരും വർഷങ്ങളിൽ വളരെ വ്യത്യസ്തമായി കാണപ്പെടും, ഇതിന് ഹ്യൂമൻ-കമ്പ്യൂട്ടർ ഇൻ്ററാക്ഷനെ (HCI) കുറിച്ച് പുനർവിചിന്തനം ആവശ്യമായി വരും.

മറ്റൊരു മാറ്റം മനുഷ്യർ മുന്നോട്ട് പോകുന്ന രീതിയാണ്. AI-യുടെ സഹായത്തോടെ എഴുതപ്പെട്ട കോഡ് ലൈനുകളുടെ അടിസ്ഥാനത്തിൽ തൊഴിലാളികളുടെ ഉൽപ്പാദനക്ഷമത ഇരട്ടിയാക്കുമെന്ന് Microsoft പഠനങ്ങൾ നടത്തിയിട്ടുണ്ട്. ഇതൊരു അവിശ്വസനീയമായ നേട്ടമാണ്, എന്നാൽ ഈ സാങ്കേതികവിദ്യ പ്രവർത്തിക്കുന്ന രീതിയും അതിൻ്റെ ബുദ്ധി എവിടെ നിന്നാണ് വരുന്നത് എന്നതും അജ്ഞാതമാണ്, അതിനാൽ ഈ മേഖലയിൽ ധാരാളം ഗവേഷണ ചോദ്യങ്ങളുണ്ട്.

ഇതുപോലുള്ള LLM-കളുടെ ദുരുപയോഗം സാധ്യതയെക്കുറിച്ചും ധാരാളം ചോദ്യങ്ങളുണ്ട്. ന്യായമായ, വ്യത്യസ്ത ജനസംഖ്യാപരമായ അപകടസാധ്യതകൾ, മറ്റ് കൂടുതൽ ഗുരുതരമായ പ്രത്യാഘാതങ്ങൾ എന്നിവയെ ചുറ്റിപ്പറ്റിയുള്ള ആശങ്കകളുണ്ട്. ശാസ്ത്രീയ കണ്ടുപിടിത്തത്തിന് വലിയ സാധ്യതയുണ്ടെങ്കിലും, ദോഷത്തിനും വലിയ സാധ്യതയുണ്ട്; ഉദാഹരണത്തിന്, കുട്ടികൾക്ക് വാക്സിനേഷൻ നൽകരുതെന്ന് മാതാപിതാക്കളെ ബോധ്യപ്പെടുത്തുക, ഒരു കുട്ടി മോശമായ എന്തെങ്കിലും ചെയ്യാൻ അല്ലെങ്കിൽ ലോകം പരന്നതാണെന്ന് ആരെയെങ്കിലും ബോധ്യപ്പെടുത്തുക. എൽഎൽഎമ്മുകളുടെ വികസനത്തിനായി ധാരാളം സുരക്ഷാ ശ്രമങ്ങൾ നടന്നിട്ടുണ്ട്, ഈ മേഖലയിലും പുരോഗതി കൈവരിക്കുന്നതിന് ഓപ്പൺ സോഴ്‌സിംഗ് വളരെ സഹായകമാകും.  

തുടർന്ന് ഡോ. കമർ ശാസ്ത്ര സമൂഹത്തോട് ചോദ്യങ്ങൾ ഉന്നയിച്ചു:

  • AI തടസ്സത്തോടെ ശാസ്ത്രം എങ്ങനെ മാറും?
  • അടുത്ത തലമുറയെ എങ്ങനെ പഠിപ്പിക്കുകയും പരിശീലിപ്പിക്കുകയും ചെയ്യുന്നു എന്നതിനെ പരിവർത്തനം ചെയ്യാൻ ഞങ്ങൾ നടപടികൾ സ്വീകരിക്കുന്നുണ്ടോ?
  • ഈ ഘട്ട പരിവർത്തനത്തിൽ നിന്ന് പ്രയോജനം നേടുന്നതിന് നിങ്ങൾ സാങ്കേതിക അടിസ്ഥാന സൗകര്യങ്ങൾ നിർമ്മിക്കുകയാണോ?
  • ഭാവി തലമുറകളെ പുതിയ ലോകത്തിനായി നാം ഒരുക്കുകയാണോ?

അവസാനമായി, ഘട്ടം പരിവർത്തനത്തിൻ്റെ പ്രധാന വശങ്ങളിലൊന്ന് LLM-കൾ വികസിക്കുന്ന വേഗതയാണെന്ന് ഡോ. കമർ ഊന്നിപ്പറഞ്ഞു. ഈ മോഡലുകൾ വളരെ ചുരുങ്ങിയ സമയത്തിനുള്ളിൽ ഗണ്യമായി മെച്ചപ്പെടുന്നു, കൂടാതെ കമ്പ്യൂട്ടിംഗ് ഗവേഷകർക്ക് വളരെയധികം കാര്യങ്ങൾ ചെയ്യാനുണ്ട്.

രണ്ടാമത്തെ പാനലിസ്റ്റായ ഡോ. ഹാൽ ഡൗമെ III (മേരിലാൻഡ് സർവകലാശാല) തൻ്റെ പ്രസംഗം ആരംഭിച്ചത് ആളുകളെ അവർ ചെയ്യാൻ ആഗ്രഹിക്കുന്ന കാര്യങ്ങൾ ചെയ്യാൻ സഹായിക്കുന്നതിന് AI മോഡലുകൾ വികസിപ്പിക്കണമെന്ന് വിശദീകരിച്ചുകൊണ്ടാണ്; മനുഷ്യ ജോലി വർദ്ധിപ്പിക്കുക, യാന്ത്രികമാക്കരുത്. ഓട്ടോമേഷൻ്റെ ഈ കാഴ്ചപ്പാട് 60-കൾ മുതൽ സമൂഹത്തിൽ വ്യാപിച്ചിട്ടുണ്ട്. ചെസ്സ് നന്നായി കളിക്കാൻ ആളുകളെ സഹായിക്കുന്നതിനുപകരം, സ്വന്തമായി ചെസ്സ് കളിക്കുന്ന ഒരു സംവിധാനം ശാസ്ത്രജ്ഞർ രൂപകല്പന ചെയ്തു.

ഈ തത്വശാസ്ത്രം എവിടെയും പോകുന്നില്ല; സ്വന്തമായി ഒരു ജോലി ചെയ്യാനുള്ള ബുദ്ധിയുള്ള AI ഇന്നും വാർത്താപ്രാധാന്യമുള്ളതാണ്. ഇത് AI യുടെ രക്തത്തിൽ ആഴത്തിലുള്ളതാണ്. ഒരു സിസ്റ്റം ഓട്ടോമേറ്റ് ചെയ്യുന്നതിന് സമയവും പണവും ചെലവഴിക്കുന്നതിന് മുമ്പ്, ഞങ്ങൾ ആദ്യം താൽക്കാലികമായി നിർത്തി ചോദിക്കണം ഇത് നമ്മുടെ താൽപ്പര്യമാണോ?

ഡോ. ഡോമെ ഓഗ്മെൻ്റേഷൻ എന്ന ആശയം മുന്നോട്ടുവച്ചു: AI എങ്ങനെ ഒരു ഉപകരണമായി ഉപയോഗിക്കാം? Github copilot പോലുള്ള സംവിധാനങ്ങൾ ഉൽപ്പാദനക്ഷമത വർധിപ്പിക്കുന്നു, എന്നാൽ ഉൽപ്പാദനക്ഷമത വർധിപ്പിച്ചാൽ മാത്രം പോരാ. കോഡിംഗിൻ്റെ രസകരമായ ഭാഗങ്ങളിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കാൻ ഇത് അവരെ അനുവദിക്കുന്നുവെന്ന് സിസ്റ്റത്തിൻ്റെ ഒരു ഉപയോക്താവ് ആക്രോശിച്ചു, ഇത് AI എങ്ങനെ നിർമ്മിക്കണം എന്നതിന് അനുസൃതമാണ്.

AI ഗവേഷകർ ഒരു വ്യക്തിയുടെ ജോലിയുടെ രസകരമായ ഭാഗങ്ങൾ നീക്കം ചെയ്യാൻ ആഗ്രഹിക്കുന്നില്ല; ഡ്രഡ്ജറി നീക്കം ചെയ്യുന്നതിനാണ് അവർ മുൻഗണന നൽകേണ്ടത്. ഇത് ഒരു കമ്പനിയുടെ അടിത്തട്ടിൽ മെച്ചപ്പെടുത്തുന്നതിനുപകരം മനുഷ്യജീവിതത്തെ മെച്ചപ്പെടുത്തണം.

ഡോ. ഡൗമെ ഈ പോയിൻ്റുകൾ ഉന്നയിക്കുന്ന ഒരു പ്രബന്ധം രചിച്ചു, സാങ്കേതിക വീക്ഷണകോണിൽ, പ്രത്യേകിച്ച് മെഷീൻ ലേണിംഗ് സാങ്കേതികവിദ്യ ഉപയോഗിച്ച് സിസ്റ്റങ്ങൾ നിർമ്മിക്കുന്നത് പലപ്പോഴും വർദ്ധിപ്പിക്കുന്നതിനേക്കാൾ ഓട്ടോമേറ്റ് ചെയ്യുന്നത് വളരെ എളുപ്പമാണെന്ന് എതിർവാദം ഉയർന്നു. ഒരു സിസ്റ്റത്തെ പരിശീലിപ്പിക്കുന്ന ഒരു സിസ്റ്റത്തെ പരിശീലിപ്പിക്കുന്നതിന് ആവശ്യമായ ഡാറ്റ എളുപ്പത്തിൽ ലഭിക്കുന്നതാണ് ഇതിന് കാരണം. ഞങ്ങളുടെ ജോലികൾ ചെയ്തുകൊണ്ടാണ് ഞങ്ങൾ ഈ വിവരങ്ങൾ നൽകുന്നത്, കൂടാതെ മനുഷ്യൻ്റെ പെരുമാറ്റം അനുകരിക്കാൻ ML-നെ പരിശീലിപ്പിക്കുന്നത് എളുപ്പമാണ്. ഒരു ജോലി പൂർത്തിയാക്കാൻ ഒരാളെ സഹായിക്കുന്നതിന് ഒരു സിസ്റ്റം പഠിപ്പിക്കുന്നത് വളരെ ബുദ്ധിമുട്ടാണ്. ഈ വിവരങ്ങൾ NSF-ൽ നിന്നുള്ള സാഹിത്യ നിരൂപണങ്ങൾ, ഒരു പ്രോഗ്രാമർ ഒരു കടലാസിൽ എഴുതൽ തുടങ്ങിയവയ്ക്കിടയിൽ ചിതറിക്കിടക്കുന്നു. ജോലികൾ ചെയ്യാൻ ഒരു മനുഷ്യനെ സഹായിക്കുന്നതിന് ആവശ്യമായ ഡാറ്റ റെക്കോർഡ് ചെയ്തിട്ടില്ല.

സഹായകമായ സംവിധാനങ്ങൾ നിർമ്മിക്കുന്നതിൻ്റെ മറ്റൊരു പ്രധാന വശം ഉപയോക്താവിന് അവരുടെ ജീവിതത്തിന് സഹായകമായ സംവിധാനങ്ങൾ ഏതാണെന്ന് ചോദിക്കുക എന്നതാണ്. ഉദാഹരണത്തിന്, അന്ധരുടെ ആവശ്യങ്ങൾ കാഴ്ചയുള്ള ആളുകളുടെ ആവശ്യങ്ങളിൽ നിന്ന് വളരെ വ്യത്യസ്തമാണ് (കാഴ്ചയുള്ള ആളുകളിൽ നിന്നും വ്യത്യസ്തമാണ്. ചിന്തിക്കുക അന്ധരുടെ ആവശ്യങ്ങൾ). ഡോ. ഡോം പങ്കുവെച്ച ഒരു ഉദാഹരണം, ഒരു വിഷ്വൽ സിസ്റ്റം ഒരു വസ്തു സോഡ കാൻ ആണെന്ന് വെളിപ്പെടുത്തിയേക്കാം, എന്നാൽ അന്ധനായ ഒരാൾക്ക് അത് സ്വന്തമായി പറയാൻ കഴിയും. സോഡയിലെ ചേരുവകൾ അവർക്ക് കൂടുതൽ ഉപയോഗപ്രദമാകും. പ്രവേശനക്ഷമതാ ചോദ്യങ്ങളെ അഭിസംബോധന ചെയ്യുന്നതിനുള്ള ചോദ്യങ്ങൾ മനസ്സിലാക്കുന്നതിനുള്ള ഒരു സിസ്റ്റത്തിൻ്റെ പ്രതികരണങ്ങളുടെ ഗുണനിലവാരം തമ്മിൽ വലിയ വിടവുണ്ട്, ഈ വിടവ് വർദ്ധിച്ചുകൊണ്ടിരിക്കുന്നു.

കമ്മ്യൂണിറ്റിയെ "സഹായിക്കുന്നതിന്" സാങ്കേതികവിദ്യ സൃഷ്ടിക്കുന്നതിന് മുമ്പ് ആദ്യം അവരുടെ ആവശ്യകതകൾ നിർണ്ണയിക്കേണ്ടതിൻ്റെ പ്രാധാന്യത്തിൻ്റെ ഒരു അധിക ഉദാഹരണം ഉള്ളടക്ക മോഡറേഷനാണ്. ലോകത്തെ മികച്ച സ്ഥലമാക്കി മാറ്റാനും പ്രധാനമെന്ന് അവർ കരുതുന്ന ഒരു കമ്മ്യൂണിറ്റി കെട്ടിപ്പടുക്കാൻ സഹായിക്കാനും ആഗ്രഹിക്കുന്നതിനാൽ നിരവധി വോളണ്ടിയർ ഉള്ളടക്ക മോഡറേറ്റർമാർ ഈ പ്രവർത്തനത്തിൽ ഏർപ്പെടുന്നു. ഏത് തരത്തിലുള്ള ടൂളാണ് അവരുടെ റോളിനെ സഹായിക്കാൻ ആഗ്രഹിക്കുന്നതെന്ന് ചോദിച്ചാൽ, അവരുടെ ജോലി പൂർണ്ണമായും യാന്ത്രികമാക്കാൻ അവർ പലപ്പോഴും ആഗ്രഹിക്കുന്നില്ല, ചാറ്റ് ഹിസ്റ്ററി തിരയുന്നത് പോലെയുള്ള ബോറടിപ്പിക്കുന്ന ഭാഗങ്ങൾ എളുപ്പമാക്കാൻ അവർ ആഗ്രഹിക്കുന്നു.

കാറുകളെ സ്നേഹിക്കുകയും ഓട്ടോമാറ്റിക് കാറുകൾ ഓടിക്കാൻ വിസമ്മതിക്കുകയും ചെയ്യുന്ന തൻ്റെ കാർ പ്രേമിയായ അമ്മയുടെ അവസാന ഉദാഹരണത്തിലൂടെ ഡോ. അവൾ മാനുവൽ ട്രാൻസ്മിഷൻ തിരഞ്ഞെടുക്കുന്നു, ആ ചോയ്‌സ് അവൾക്ക് വളരെ പ്രധാനമാണ്. ആളുകൾക്ക് അവരുടെ ജോലികൾ സ്വയമേവ ചെയ്യണോ വേണ്ടയോ എന്നതിന് നിയന്ത്രണം ഉണ്ടായിരിക്കണം.

പ്രവേശനക്ഷമതാ സാങ്കേതികവിദ്യയുടെ നിലവിലെ സമീപനങ്ങൾക്ക് ബദലുകൾ വാഗ്ദാനം ചെയ്തുകൊണ്ട് ഡോ. ഡോമെ സംഭാഷണം തുടരുന്നു. ഉദാഹരണത്തിന്, സൈൻ ലാംഗ്വേജ് റെക്കഗ്നിഷനായി ഒരു ടൂൾ നിർമ്മിക്കുമ്പോൾ, സൈൻ ചെയ്യുന്ന ആളുകളുടെ വീഡിയോകൾക്കായി ഇൻ്റർനെറ്റ് സ്‌ക്രാപ്പ് ചെയ്യുന്നതിനുപകരം (അതിന് ധാരാളം സമ്മതവും സ്വകാര്യത ആശങ്കകളും ഉണ്ട്, കൂടാതെ ഈ വീഡിയോകളിൽ ഭൂരിഭാഗവും പ്രൊഫഷണലുകളുടെതും പശ്ചാത്തല ശബ്‌ദ/ശ്രദ്ധയില്ലാത്തതുമാണ്' t റിയലിസ്റ്റിക്), കമ്മ്യൂണിറ്റിയിൽ എത്തിച്ചേരുകയും ടൂളുകൾ പരിശീലിപ്പിക്കുന്നതിന് വീഡിയോകൾ സമർപ്പിക്കാൻ അവരെ പ്രാപ്തരാക്കുന്ന ഒരു പ്രോജക്റ്റ് ആരംഭിക്കുകയും ചെയ്യുക. ഇതുപോലുള്ള കമ്മ്യൂണിറ്റി-ആദ്യ തന്ത്രങ്ങൾ കൂടുതൽ ധാർമ്മികവും ഉത്തരവാദിത്തവുമാണ്, മാത്രമല്ല ഉപയോക്താക്കൾക്ക് കൂടുതൽ നിയന്ത്രണം നൽകുകയും ചെയ്യുന്നു. 

LLM-കളും മറ്റ് ഉപകരണങ്ങളും വികസിപ്പിച്ചെടുക്കേണ്ടത് ഉപയോഗത്തിന് മുൻഗണന നൽകാനാണ്, ബുദ്ധിയല്ല, ഡോ. ഡോം ഉപസംഹരിക്കുന്നു. ഇത് കൂടുതൽ ഉപയോഗപ്രദമാണ്, ആളുകൾ ഇതിനകം നന്നായി ചെയ്യുന്നതും ആസ്വദിക്കുന്നതുമായ എന്തെങ്കിലും യാന്ത്രികമാക്കുന്നതിനുപകരം അവർക്ക് ചെയ്യാൻ കഴിയാത്തതോ ചെയ്യാൻ ആഗ്രഹിക്കാത്തതോ ആയ എന്തെങ്കിലും ചെയ്യാൻ ആളുകളെ സഹായിക്കാനാകും.

ഡോ. ജോനാഥൻ മേ (സതേൺ കാലിഫോർണിയ സർവകലാശാല ഇൻഫർമേഷൻ സയൻസസ് ഇൻസ്റ്റിറ്റ്യൂട്ട്) ആയിരുന്നു അടുത്ത സ്പീക്കർ, കോൺഫറൻസിൻ്റെ വിഷയം: "മതിലുകളില്ലാത്ത ശാസ്ത്രത്തിലേക്ക്" എന്ന വിഷയത്തിൽ പ്രതിഫലിപ്പിച്ചുകൊണ്ട് അദ്ദേഹം തൻ്റെ പ്രസംഗം ആരംഭിച്ചു. സമീപകാല LLM വികസനം ചില ആളുകൾക്ക് മതിലുകൾ വീഴ്ത്തുമ്പോൾ, അത് പലർക്കും മതിലുകൾ പണിയുകയാണെന്ന് അദ്ദേഹം അഭിപ്രായപ്പെടുന്നു.

ഗവേഷണം നടത്തുന്നതിനുള്ള പല തടസ്സങ്ങളും ഇൻ്റർനെറ്റ് എങ്ങനെ താഴ്ത്തിയെന്ന് അദ്ദേഹം ആദ്യം ചർച്ച ചെയ്യുന്നു; 17 വയസ്സുള്ളപ്പോൾ, സ്റ്റാർ വാർസിനും ലോർഡ് ഓഫ് ദ റിംഗ്സിനും സമാനമായ പ്ലോട്ടുകൾ ഉള്ളത് എന്തുകൊണ്ടാണെന്ന് അദ്ദേഹം ആശ്ചര്യപ്പെട്ടു, അയാൾക്ക് ലൈബ്രറിയിൽ പോയി ഉത്തരമുള്ള ഒരു പുസ്തകം കണ്ടെത്തേണ്ടിവന്നു. തൻ്റെ പിഎച്ച്‌ഡി തീസിസിനുവേണ്ടി അദ്ദേഹം ഉയർന്ന-പങ്കാളിത്തവും എന്നാൽ അത്രതന്നെ ശ്രമകരവുമായ ഗവേഷണം നടത്തി, എന്നാൽ പഠനത്തിൻ്റെ അവസാനത്തോടെ വിഷയത്തിൽ ഒരു വിക്കിപീഡിയ പേജ് സൃഷ്ടിച്ചു, തുടർന്ന് ഇൻ്റർനെറ്റ് തിരയൽ, ഇപ്പോൾ കാർ-ലെസ് ഗവേഷണം സാധാരണമാണ്.

എൽഎൽഎമ്മുകളുടെ ടാർഗെറ്റ് പ്രേക്ഷകർക്കായി ഡെമോഗ്രാഫിക്കിൽ ആയിരിക്കാൻ തനിക്ക് ഭാഗ്യമുണ്ടെന്ന് പറഞ്ഞുകൊണ്ട് ഡോ. മെയ് തുടർന്നു. അവൻ പലപ്പോഴും കോഡ് ചെയ്യാറില്ല, ധാരാളം കോഡിംഗ് കഴിവുകൾ പഠിച്ചിട്ടില്ല, എന്നാൽ തൻ്റെ ജോലിക്ക് അത് ആവശ്യമുള്ളപ്പോൾ അയാൾക്ക് ChatGPT-നോട് ചോദിക്കാം, അത് മികച്ച ജോലി ചെയ്യുന്നു. 

എന്നിരുന്നാലും, LLM-കളുടെ ഉപയോഗക്ഷമത വ്യാപകമാക്കുന്നതിന് ധാരാളം മതിലുകൾ ഉണ്ട്:

  • ഭാഷാ മതിലുകൾ: കൂടുതൽ ഡാറ്റ പരിശീലിപ്പിക്കുമ്പോൾ മോഡലുകൾ മികച്ച രീതിയിൽ പ്രവർത്തിക്കുന്നു. ഇന്നത്തെ വാണിജ്യ LLM-കൾ ബഹുഭാഷകളാണെങ്കിലും, അവ ഇംഗ്ലീഷിലേക്ക് വലിയ ഭാരമുള്ളവയാണ്. ഉദാഹരണത്തിന്, ChatGPT 92% ഇംഗ്ലീഷ് ഭാഷയിൽ പരിശീലനം നേടിയിട്ടുണ്ട്. കൂടാതെ, LLM-കളുടെ "രഹസ്യ സോസ്" ആയ നിർദ്ദേശ ഡാറ്റ, ഭൂരിഭാഗം ഇംഗ്ലീഷ് ആണ് (ഉദാഹരണത്തിന് ChatGPT-യുടെ 96%). നിലവിലുള്ള ടെസ്റ്റുകളിലെ വ്യവസ്ഥാപരമായ പ്രകടന വിടവുകൾക്കിടയിലും ഈ മോഡലുകളുടെ ക്രോസ്-ലിംഗ്വൽ പ്രകടനം മെച്ചപ്പെടുത്തുന്നതിന് നിലവിൽ വളരെ കുറച്ച് ശ്രമങ്ങളേ ഉള്ളൂ, ഇത് മെഷീൻ ട്രാൻസ്ലേഷൻ (എംടി) "പരിഹരിച്ചിരിക്കുന്നു" എന്നതും മറ്റ് ജോലികളിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കേണ്ടതുമാണ് എന്ന പൊതു സമ്മതം കാരണം ഇത് അർത്ഥവത്താണ്.
  • ഐഡൻ്റിറ്റി വാൾസ്: ക്രിസ്മസിന് നിങ്ങൾ എന്താണ് ചെയ്യേണ്ടതെന്ന് നിങ്ങൾ ChatGPT-യോട് ചോദിച്ചാൽ, അത് നിങ്ങൾക്ക് ഏർപ്പെടാൻ കഴിയുന്ന വ്യത്യസ്ത പ്രവർത്തനങ്ങളിലും പാരമ്പര്യങ്ങളിലും ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്നു; നിങ്ങൾക്ക് ജോലിക്ക് പോകാമെന്ന് അതിൽ പരാമർശിക്കുന്നില്ല. വ്യത്യസ്ത ഡെമോഗ്രാഫിക് ഗ്രൂപ്പുകളെ വിവരിക്കുമ്പോൾ LLM-കൾ വ്യത്യസ്‌തമായി പെരുമാറുന്നതായി കാണിക്കുന്നു, കൂടുതൽ നിഷേധാത്മക വികാരം പ്രകടിപ്പിക്കുകയും ചില സന്ദർഭങ്ങളിൽ വിഷാംശം പോലും പ്രകടിപ്പിക്കുകയും ചെയ്യുന്നു. LGBTQ+ അല്ലെങ്കിൽ ജൂതന്മാർ പോലുള്ള കമ്മ്യൂണിറ്റികളിൽ ദോഷം വരുത്തുന്ന സ്റ്റീരിയോടൈപ്പിക്കൽ വാക്യങ്ങളുടെ സാധ്യതകളുണ്ട്; ബോർഡിലുടനീളം ധാരാളം പക്ഷപാതമുണ്ട്, ഇത് വിന്യസിച്ച തീരുമാനങ്ങൾ എടുക്കുന്നതിൽ അനന്തരഫലങ്ങൾ ഉണ്ടാക്കുന്നു. അന്തർനിർമ്മിതമായ ചില സുരക്ഷാ സംവിധാനങ്ങളുണ്ട്, കൂടുതൽ വ്യക്തമായ അന്വേഷണ ചോദ്യങ്ങൾക്ക് വിഷലിപ്തമായ ഉത്തരങ്ങൾ ലഭിക്കാനുള്ള സാധ്യത കുറവാണ്, എന്നാൽ മോഡലുകൾ സ്റ്റീരിയോടൈപ്പിക്കൽ പ്രസ്താവനകളും ഫലങ്ങളുമാണ് ഇഷ്ടപ്പെടുന്നത്, അവിടെയാണ് പ്രത്യേകിച്ച് നിങ്ങൾ കാണാത്ത ഡൗൺസ്ട്രീം കഴിവുകളിൽ മോഡലുകൾ ഉപയോഗിക്കുമ്പോൾ ദോഷങ്ങൾ ഉണ്ടാകുന്നത്. ഔട്ട്പുട്ട് (അതായത് വായ്പാ യോഗ്യത). വ്യക്തികളുടെ ജോലിയെ അടിസ്ഥാനമാക്കി അവരുടെ മുഖം സൃഷ്ടിക്കുമ്പോൾ എൽഎൽഎം പക്ഷപാതം കാണിക്കുന്നതിൻ്റെ ഒരു ഉദാഹരണം അദ്ദേഹം നൽകി; കുറഞ്ഞ ശമ്പളമുള്ള ജോലികൾ സ്ത്രീകളും ന്യൂനപക്ഷങ്ങളുമാണ്, അതേസമയം ഉയർന്ന ശമ്പളമുള്ള ജോലികൾ വെള്ളക്കാരായ പുരുഷന്മാരാണ്.
  • പരിസ്ഥിതി ഭിത്തികൾ (സോഫ്റ്റ്‌വെയർ): LLM-കൾക്ക് ഉൽപ്പാദിപ്പിക്കുന്നതിനും പ്രവർത്തിപ്പിക്കുന്നതിനും ഗണ്യമായ അളവിൽ ഊർജ്ജം ആവശ്യമാണ്. ഏറ്റവും "എളിമയുള്ള" LM-കൾ പോലും ഒരു വ്യക്തിയുടെ ഉപയോഗത്തേക്കാൾ 3 മടങ്ങ് കൂടുതൽ വാർഷിക ഊർജ്ജം ഉപയോഗിക്കുന്നു. ChatGPT പോലുള്ള ഏറ്റവും വലിയ ഭാഷാ മോഡലുകളുടെ ഡാറ്റയിലും കാര്യമായ വിടവുണ്ട്, എന്നാൽ അവയുടെ ഉടമസ്ഥതയിലുള്ള കമ്പനികൾ അവരുടെ ഊർജ്ജ ഉപഭോഗത്തിലേക്കുള്ള പ്രവേശനം വ്യക്തമായി നിഷേധിക്കുന്നു.
  • പരിസ്ഥിതി ഭിത്തികൾ (ഹാർഡ്‌വെയർ): എല്ലാ LLM-കൾക്കും ആവശ്യമായ ചിപ്പുകൾ നിർമ്മിക്കുന്നതിന്, നിങ്ങൾക്ക് ടാൻ്റലം (കോംഗോയിൽ ഖനനം ചെയ്‌തത്), ഹാഫ്നിയം (സെനഗലിലും റഷ്യയിലും ഖനനം ചെയ്‌തത്) പോലുള്ള “സംഘർഷ സാമഗ്രികൾ” ആവശ്യമാണ്. യുഎസിൽ, കമ്പനികൾ അവർ ഉപയോഗിക്കുന്ന വൈരുദ്ധ്യ ധാതുക്കളുടെ അളവ് റിപ്പോർട്ട് ചെയ്യേണ്ടതാണ്, എന്നാൽ യുഎസ് പരസ്യമായി ഈ വസ്തുക്കളുടെ ഉപയോഗത്തിൽ കുറവ് കാണിക്കുന്നു, അത് ശരിയല്ല. അതിനപ്പുറം, അമേരിക്കയുടെ കയറ്റുമതി നിയന്ത്രണങ്ങളോടുള്ള പ്രതികാരമായി ചൈന ജെർമേനിയം, ഗാലിയം എന്നിവ നിയന്ത്രിക്കുന്നത് പോലെ ഒരുപാട് സാമൂഹിക-രാഷ്ട്രീയ പ്രശ്നങ്ങൾ ഉണ്ട്.

LLM-കൾ മൂലമുണ്ടാകുന്ന ദോഷങ്ങൾ, ആളുകൾക്ക് പ്രയോജനം ലഭിക്കാത്ത സന്ദർഭങ്ങൾ എന്നിവയ്ക്ക് താഴെയുള്ള നിരവധി പ്രശ്‌നങ്ങളിൽ ചിലത് ഈ വിഭാഗങ്ങൾ വെളിപ്പെടുത്തുന്നുവെന്ന് ഡോ. മെയ് പ്രകടിപ്പിക്കുന്നു. ആശങ്കയ്ക്ക് കാരണമുണ്ട്, എന്നാൽ ഈ ദോഷങ്ങളിൽ ചിലത് ലഘൂകരിക്കുന്ന ഗവേഷണത്തിനും കൂടാതെ/അല്ലെങ്കിൽ പെരുമാറ്റ മാറ്റങ്ങൾക്കും അവസരങ്ങളുണ്ട്:

  • ഭാഷ: ബഹുഭാഷാതത്വത്തിന് കൂടുതൽ ഗവേഷണ ധനസഹായം വിനിയോഗിക്കുക (ഇംഗ്ലീഷിലേക്കും അതിൽ നിന്നുമുള്ള ആധിപത്യ വിവർത്തനം മാത്രമല്ല).
  • ഐഡൻ്റിറ്റി: താഴെയുള്ളതും സമൂഹം ഉൾക്കൊള്ളുന്നതുമായ ഗവേഷണം. വിന്യാസത്തിന് മുമ്പ് മോഡൽ പരിഷ്ക്കരണവും പരിശോധനയും
  • പരിസ്ഥിതി: കുറച്ച് ഡാറ്റ ഉപയോഗിക്കുകയും കുറച്ച് പാരാമീറ്ററുകൾ മാറ്റുകയും ചെയ്യുന്ന അൽഗോരിതം വികസനം (ഉദാ: LoRA, അഡാപ്റ്ററുകൾ, നോൺ-ആർഎൽ പിഒ). കണക്കുകൂട്ടലിനെക്കുറിച്ച് മനസ്സാക്ഷിയുള്ളവരായിരിക്കുക, റെഗുലേറ്ററി തലങ്ങളിൽ തുറന്നുപറയാൻ നിർബന്ധിക്കുക 

എൽഎൽഎമ്മുകളുമായി സംവദിക്കുമ്പോൾ ആളുകൾക്ക് പ്രയോജനം ലഭിക്കാൻ ആഗ്രഹിക്കുന്ന രീതിയിൽ പ്രയോജനം നേടണം, വികസന ഘട്ടത്തിൽ ഇത് മനസ്സിൽ നിൽക്കേണ്ടതുണ്ട് എന്ന ഡോ.

വായിച്ചതിന് വളരെ നന്ദി, സെഷൻ്റെ ചോദ്യോത്തര ഭാഗത്തിൻ്റെ റീക്യാപ്പ് വായിക്കാൻ നാളെ ട്യൂൺ ചെയ്യുക.

സ്പോട്ട്_ഐഎംജി

ഏറ്റവും പുതിയ ഇന്റലിജൻസ്

സ്പോട്ട്_ഐഎംജി