സെഫിർനെറ്റ് ലോഗോ

Azure AI-യ്‌ക്കായി മൈക്രോസോഫ്റ്റ് ഈ സുരക്ഷാ ഉപകരണങ്ങൾ പുറത്തിറക്കുന്നു

തീയതി:

Azure-ൽ AI മോഡലുകൾ ഉപയോഗിക്കാൻ സുരക്ഷിതമാക്കാൻ സഹായിക്കുമെന്ന് ആരോപിക്കപ്പെടുന്ന ഒരു കൂട്ടം ടൂളുകൾ Microsoft അവതരിപ്പിച്ചു.

ക്ലൗഡ്-ആൻഡ്-കോഡ് ബിസ്, ഓപ്പൺ എഐയിലേക്ക് ഫണ്ട് നിക്ഷേപിക്കുകയും അതിൻ്റെ സോഫ്റ്റ്‌വെയർ സാമ്രാജ്യത്തെ ചാറ്റ്ബോട്ട് കഴിവുകൾ ഉപയോഗിച്ച് സന്നിവേശിപ്പിക്കുകയും ചെയ്തു - ഉൽപ്പാദനക്ഷമതയെക്കുറിച്ചുള്ള മഹത്തായ വാഗ്ദാനങ്ങൾക്കിടയിൽ എതിരാളികൾ തുല്യ ആവേശത്തോടെ അവതരിപ്പിച്ച നാടകം - ജനറേറ്റീവ് AI അപകടസാധ്യതകളോടെയാണെന്ന് മൈക്രോസോഫ്റ്റിന് സമ്മതിക്കേണ്ടി വന്നു.

ദി അപകടങ്ങളെ പരക്കെ അറിയപ്പെടുന്നവയും ചിലപ്പോൾ ഉന്മത്തമായി തള്ളിക്കളയുകയും ചെയ്യുന്നു. ഒരു ദശാബ്ദം മുമ്പ്, എലോൺ മസ്‌ക് മുന്നറിയിപ്പ് നൽകിയത് AI ശരിയാകുമെന്ന് മനുഷ്യത്വത്തെ നശിപ്പിക്കുക. എന്നിട്ടും ആ ആശങ്ക AI ലഭ്യമാക്കുന്നതിൽ നിന്ന് അവനെ തടഞ്ഞില്ല കാറുകൾ, അവന്റെ സോഷ്യൽ മീഡിയ മെഗാഫോൺ, ഒരുപക്ഷേ ഉടൻ തന്നെ റോബോട്ടുകൾ.

തെറ്റായ അല്ലെങ്കിൽ ഹാനികരമായ പ്രതികരണങ്ങൾ പ്രദാനം ചെയ്യുന്ന വലിയ ഭാഷാ മോഡലുകളുടെ ആവിർഭാവം ഡ്രോയിംഗ് ബോർഡിലേക്ക് മടങ്ങുന്നതിലേക്ക് നയിച്ചു, പക്ഷേ കൂടുതൽ ഫണ്ടിംഗിനായി ബോർഡ് റൂമിലേക്ക്. സുരക്ഷിതവും ധാർമ്മികവുമായ ഒരു ഉൽപ്പന്നം നിർമ്മിക്കുന്നതിനുപകരം, ടെക്ക് വ്യവസായം ഫെറൽ മോഡലുകളെ മെരുക്കാൻ ശ്രമിക്കുന്നു, അല്ലെങ്കിൽ ആരെയും വേദനിപ്പിക്കാതെ ഭ്രാന്തമായി ഓടാൻ കഴിയുന്ന ഉപഭോക്താക്കളിൽ നിന്ന് അവരെ അകറ്റി നിർത്തുന്നു.

അത് പ്രവർത്തിക്കുന്നില്ലെങ്കിൽ, എല്ലായ്പ്പോഴും ഉണ്ട് നഷ്ടപരിഹാരം നിയമപരമായ ക്ലെയിമുകളിൽ നിന്ന്, ചില നിബന്ധനകൾക്ക് വിധേയമായി, വിതരണക്കാരിൽ നിന്ന്.

AI സുരക്ഷയോടുള്ള വ്യവസായ പ്രതിബദ്ധതകൾ ബന്ധപ്പെട്ട സർക്കാർ ആവശ്യങ്ങളുമായി പൊരുത്തപ്പെടുന്നു. വ്യാഴാഴ്ച യുഎസിൽ വൈറ്റ് ഹൗസ് ഓഫീസ് ഓഫ് മാനേജ്‌മെൻ്റ് ആൻഡ് ബജറ്റ് (OMB) ഇഷ്യൂചെയ്തു AI അപകടസാധ്യതകൾ പരിഹരിക്കുന്നതിനുള്ള ആദ്യത്തെ സർക്കാർ നയം.

നയത്തിന് ഫെഡറൽ ഏജൻസികൾ "അമേരിക്കക്കാരുടെ അവകാശങ്ങളെയോ സുരക്ഷിതത്വത്തെയോ സ്വാധീനിക്കുന്ന വിധത്തിൽ AI ഉപയോഗിക്കുമ്പോൾ കൃത്യമായ സുരക്ഷാസംവിധാനങ്ങൾ നടപ്പിലാക്കണമെന്ന്" ആവശ്യപ്പെടുന്നു. അതായത് അപകടസാധ്യത വിലയിരുത്തൽ, പരിശോധന, നിരീക്ഷണം, വിവേചനവും പക്ഷപാതവും പരിമിതപ്പെടുത്താനുള്ള ശ്രമങ്ങൾ, പ്രോത്സാഹിപ്പിക്കുക. ആരോഗ്യം, വിദ്യാഭ്യാസം, പാർപ്പിടം, തൊഴിൽ എന്നിവയെ സ്പർശിക്കുന്ന AI ആപ്ലിക്കേഷനുകളുടെ സുതാര്യത.

ഉത്തരവാദിത്ത AI യുടെ ചീഫ് പ്രൊഡക്റ്റ് ഓഫീസർ സാറാ ബേർഡിലൂടെ Microsoft അതിൻ്റെ ഏറ്റവും പുതിയ AI സുരക്ഷാ നടപടികളുടെ വാക്ക് കൊണ്ടുവരുന്നു, അത് നിരുത്തരവാദപരമായ AI-യുടെ അസ്തിത്വത്തെ സൂചിപ്പിക്കുന്നു - നിങ്ങൾക്ക് അത് സങ്കൽപ്പിക്കാൻ കഴിയുമെങ്കിൽ.

ബിസിനസ്സ് നേതാക്കൾ പുതുമയും റിസ്‌ക് മാനേജ്‌മെൻ്റും സന്തുലിതമാക്കാൻ ശ്രമിക്കുകയാണെന്ന് ബേർഡ് പറയുന്നു.

“വേഗത്തിലുള്ള കുത്തിവയ്പ്പ് ആക്രമണങ്ങൾ ഒരു പ്രധാന വെല്ലുവിളിയായി ഉയർന്നുവന്നിട്ടുണ്ട്, അവിടെ ക്ഷുദ്രകരമായ അഭിനേതാക്കൾ ഒരു AI സിസ്റ്റത്തെ അതിൻ്റെ ഉദ്ദേശ്യത്തിന് പുറത്തുള്ള എന്തെങ്കിലും ചെയ്യാൻ ശ്രമിക്കുന്നു, ഹാനികരമായ ഉള്ളടക്കം ഉൽപ്പാദിപ്പിക്കുന്നതോ രഹസ്യസ്വഭാവമുള്ള ഡാറ്റ ചോർത്തുന്നതോ പോലെ,” ബേർഡ് വിശദീകരിക്കുന്നു. ബ്ലോഗ് പോസ്റ്റ്.

“ഈ സുരക്ഷാ അപകടസാധ്യതകൾ ലഘൂകരിക്കുന്നതിനു പുറമേ, ഗുണനിലവാരത്തെയും വിശ്വാസ്യതയെയും കുറിച്ച് സംഘടനകൾ ആശങ്കാകുലരാണ്. അവരുടെ AI സിസ്റ്റങ്ങൾ പിശകുകൾ സൃഷ്ടിക്കുന്നില്ലെന്നും അല്ലെങ്കിൽ ആപ്ലിക്കേഷൻ്റെ ഡാറ്റ സ്രോതസ്സുകളിൽ സ്ഥിരീകരിക്കാത്ത വിവരങ്ങൾ ചേർക്കുന്നില്ലെന്നും ഉറപ്പാക്കാൻ അവർ ആഗ്രഹിക്കുന്നു, അത് ഉപയോക്തൃ വിശ്വാസത്തെ ഇല്ലാതാക്കും.

സുരക്ഷയും കൃത്യതയും AI സബ്‌സ്‌ക്രിപ്‌ഷൻ ഫീസിൽ ഉൾപ്പെടുത്തിയിട്ടില്ലാത്തതിനാൽ, Microsoft ഒരു അവസരം കാണുന്നു അവരെ വിൽക്കാൻ ഒരു ആഡ്-ഓൺ ആയി.

ജനറേറ്റീവ് AI ആപ്പുകൾ സൃഷ്ടിക്കാൻ അവരെ സഹായിക്കാൻ Azure AI സ്റ്റുഡിയോ ഉപയോഗിക്കുന്ന ഉപഭോക്താക്കൾക്ക് നാല് പുതിയ ടൂളുകൾക്കായി കാത്തിരിക്കാം.

ആദ്യം, ഉണ്ട് പ്രോംപ്റ്റ് ഷീൽഡുകൾ, പെട്ടെന്നുള്ള കുത്തിവയ്പ്പ് ആക്രമണങ്ങളിൽ നിന്ന് പ്രതിരോധിക്കാൻ സഹായിക്കുമെന്ന് വാഗ്ദാനം ചെയ്യുന്നു. മുമ്പ് Jailbreak Risk Detection എന്നറിയപ്പെട്ടിരുന്നു, ഇപ്പോൾ പൊതു പ്രിവ്യൂവിൽ, ഫൗണ്ടേഷൻ മോഡലുകളിൽ നേരിട്ടും അല്ലാതെയും ഉടനടി ഇടപെടുന്നതിൻ്റെ അപകടസാധ്യത ലഘൂകരിക്കാനുള്ള ഒരു മാർഗമാണിത്.

നേരിട്ടുള്ള ആക്രമണങ്ങളിൽ മോഡൽ അതിൻ്റെ സുരക്ഷാ പരിശീലനം അവഗണിക്കാൻ രൂപകൽപ്പന ചെയ്ത നിർദ്ദേശങ്ങൾ (ഇൻപുട്ടുകൾ) ഉൾപ്പെടുന്നു. പരോക്ഷ ആക്രമണങ്ങൾ ഒരു മോഡലിലേക്ക് ഇൻപുട്ട് കടത്തിവിടാനുള്ള ശ്രമങ്ങളെ സൂചിപ്പിക്കുന്നു. ഔട്ട്‌ലുക്കിലെ കോപൈലറ്റിലൂടെ സ്വീകർത്താവിന് വേണ്ടി പ്രവർത്തിക്കുന്ന ഒരു AI മോഡൽ സന്ദേശം പാഴ്‌സ് ചെയ്യുകയും മറഞ്ഞിരിക്കുന്ന ടെക്‌സ്‌റ്റിനെ ഒരു കമാൻഡായി വ്യാഖ്യാനിക്കുകയും ചെയ്യും എന്ന അറിവോടെ ഒരു ഇമെയിലിൽ മറഞ്ഞിരിക്കുന്ന വാചകം ഉൾപ്പെടുത്തുക എന്നതാണ് ഇതിനുള്ള ഒരു മാർഗം. നിർദ്ദേശങ്ങൾ അനുസരിച്ച് പ്രവർത്തിക്കുക, സെൻസിറ്റീവ് ഡാറ്റ ഉപയോഗിച്ച് നിശബ്ദമായി മറുപടി നൽകുക.

രണ്ടാമത്തേത് അടിസ്ഥാനം കണ്ടെത്തൽ, AI മോഡലുകൾ ഹാലുസിനേറ്റ് ചെയ്യുമ്പോൾ അല്ലെങ്കിൽ കാര്യങ്ങൾ ഉണ്ടാക്കുമ്പോൾ പിടിക്കാനുള്ള ഒരു സിസ്റ്റം. ഒരു തെറ്റായ ക്ലെയിം കണ്ടെത്തുമ്പോൾ, ഡിസ്പ്ലേ ചെയ്യുന്നതിന് മുമ്പ് പരിഷ്ക്കരിക്കുന്നതിന് പ്രതികരണം തിരികെ അയയ്ക്കുന്നത് ഉൾപ്പെടെ നിരവധി ഓപ്ഷനുകൾ ഇത് ഉപഭോക്താക്കൾക്ക് നൽകുന്നു. സോഴ്‌സ് ഡോക്യുമെൻ്റുകളെ അടിസ്ഥാനമാക്കി അടിസ്ഥാനരഹിതമായ ക്ലെയിമുകൾ വിലയിരുത്തുന്ന ഒരു ഇഷ്‌ടാനുസൃത ഭാഷാ മോഡൽ നിർമ്മിച്ചുകൊണ്ടാണ് ഇത് നേടിയതെന്ന് മൈക്രോസോഫ്റ്റ് പറയുന്നു. അതിനാൽ AI മോഡൽ സുരക്ഷയ്ക്കുള്ള ഉത്തരം, നിങ്ങൾ ഊഹിച്ചിരിക്കുന്നത് മറ്റൊരു മോഡലാണ്.

വിശ്വസനീയമായ AI-യിലേക്കുള്ള ഒരു അത്ഭുതകരമായ ചുവടുവയ്പ്പാണെങ്കിലും, പ്രശ്നം ഇപ്പോഴും പരിഹരിക്കപ്പെട്ടിട്ടില്ല

മൂന്നാമതായി, നമുക്കുണ്ട് AI- സഹായത്തോടെയുള്ള സുരക്ഷാ വിലയിരുത്തലുകൾ AI സ്റ്റുഡിയോയിൽ, ഉപഭോക്താവിൻ്റെ ആപ്ലിക്കേഷനുമായുള്ള വിവിധ പ്രതികൂല ഇടപെടലുകൾ പരിശോധിക്കുന്ന മോഡലിന് പ്രോംപ്റ്റ് ടെംപ്ലേറ്റുകളും പാരാമീറ്ററുകളും അവതരിപ്പിക്കുന്നതിനുള്ള ഒരു ടെസ്റ്റിംഗ് ചട്ടക്കൂട് നൽകുന്നു. വീണ്ടും, AI പരീക്ഷിക്കുന്നത് AI ആണ്.

ഒടുവിൽ, ഉണ്ട് "അപകടങ്ങളും സുരക്ഷാ നിരീക്ഷണവും", ഹാനികരമായ ഉള്ളടക്ക അളവുകൾ നൽകുന്ന അസൂർ ഓപ്പൺഎഐ സേവനത്തിനുള്ള ഒരു സവിശേഷത.

വിനു ശങ്കർ സദാശിവൻ, മേരിലാൻഡ് സർവ്വകലാശാലയിലെ ഡോക്ടറൽ വിദ്യാർത്ഥിയാണ് ബീസ്റ്റ് ആക്രമണം എൽഎൽഎമ്മുകളിൽ, പറഞ്ഞു രജിസ്റ്റർ AI കൂടുതൽ സുരക്ഷിതമാക്കുന്നതിനുള്ള Azure ബിൽഡിംഗ് ടൂളുകൾ കാണുന്നത് ആവേശകരമാണെങ്കിലും, മിശ്രിതത്തിലേക്ക് കൂടുതൽ മോഡലുകൾ ചേർക്കുന്നത് ആക്രമണ സാധ്യതയുള്ള ഉപരിതലത്തെ വികസിപ്പിക്കുന്നു.

AI മോഡലുകളുടെ വിശ്വാസ്യത അന്വേഷിക്കുന്നതിന് Azure-ൻ്റെ സുരക്ഷാ വിലയിരുത്തലുകളും അപകടസാധ്യതയും സുരക്ഷാ നിരീക്ഷണ ഉപകരണങ്ങളും പ്രധാനമാണ്," അദ്ദേഹം പറഞ്ഞു. "വിശ്വസനീയമായ AI-യിലേക്കുള്ള ഒരു അത്ഭുതകരമായ ചുവടുവയ്പ്പാണ് ഇത് എങ്കിലും, പ്രശ്നം ഇപ്പോഴും പരിഹരിക്കപ്പെട്ടിട്ടില്ല. ഉദാഹരണത്തിന്, അവർ അവതരിപ്പിക്കുന്ന പ്രോംപ്റ്റ് ഷീൽഡുകൾ പരോക്ഷമായ പ്രോംപ്റ്റ് ആക്രമണങ്ങൾ കണ്ടെത്തുന്നതിനും തടയുന്നതിനും മറ്റൊരു AI മോഡൽ ഉപയോഗിക്കുന്നു. ഈ AI മോഡൽ പ്രതികൂല ആക്രമണങ്ങൾ പോലുള്ള ഭീഷണികൾക്ക് ഇരയാകാം.

“പ്രോംപ്റ്റ് ഷീൽഡുകൾ മറികടക്കാൻ എതിരാളികൾക്ക് ഈ കേടുപാടുകൾ പ്രയോജനപ്പെടുത്താം. സുരക്ഷാ സിസ്റ്റം സന്ദേശങ്ങൾ ചില സന്ദർഭങ്ങളിൽ ഫലപ്രദമാണെന്ന് കാണിച്ചിട്ടുണ്ടെങ്കിലും, BEAST പോലുള്ള നിലവിലുള്ള ആക്രമണങ്ങൾ AI മോഡലുകളെ പ്രതികൂലമായി ആക്രമിക്കാൻ കഴിയും, അവയെ ജയിൽ ബ്രേക്ക് ചെയ്യാൻ കഴിയും. AI സിസ്റ്റങ്ങൾക്കായി പ്രതിരോധം നടപ്പിലാക്കുന്നത് പ്രയോജനകരമാണെങ്കിലും, അവയുടെ സാധ്യതയുള്ള പോരായ്മകളെക്കുറിച്ച് അറിഞ്ഞിരിക്കേണ്ടത് അത്യാവശ്യമാണ്. ®

സ്പോട്ട്_ഐഎംജി

ഏറ്റവും പുതിയ ഇന്റലിജൻസ്

സ്പോട്ട്_ഐഎംജി