जेफिरनेट लोगो

जानें कि एआई सिस्टम के जोखिम का आकलन कैसे करें | अमेज़न वेब सेवाएँ

दिनांक:

कृत्रिम बुद्धिमत्ता (एआई) एक तेजी से विकसित होने वाला क्षेत्र है जिसमें समाज के कई पहलुओं को सुधारने और बदलने की क्षमता है। 2023 में, शक्तिशाली फाउंडेशन मॉडल (एफएम) के विकास और जेनरेटिव एआई क्षमताओं में परिणामी प्रगति के साथ एआई प्रौद्योगिकियों को अपनाने की गति और तेज हो गई है।

अमेज़ॅन में, हमने कई जेनरेटिव एआई सेवाएं लॉन्च की हैं, जैसे अमेज़ॅन बेडरॉक और अमेज़ॅन कोडव्हिस्पीर, और इसके माध्यम से अत्यधिक सक्षम जेनेरिक मॉडल की एक श्रृंखला उपलब्ध कराई है अमेज़न SageMaker जम्पस्टार्ट. इन सेवाओं को हमारे ग्राहकों को उन्नत रचनात्मकता, वैयक्तिकृत और गतिशील सामग्री निर्माण और अभिनव डिजाइन सहित जेनरेटर एआई की उभरती क्षमताओं को अनलॉक करने में सहायता करने के लिए डिज़ाइन किया गया है। वे एआई अभ्यासकर्ताओं को दुनिया के बारे में पहले से कहीं अधिक समझ बनाने में सक्षम कर सकते हैं - भाषा बाधाओं, जलवायु परिवर्तन, वैज्ञानिक खोजों में तेजी लाने और बहुत कुछ को संबोधित करना।

हालाँकि, जेनरेटिव एआई की पूरी क्षमता का एहसास करने के लिए, किसी भी संभावित जोखिम पर सावधानीपूर्वक विचार करना महत्वपूर्ण है। सबसे पहले और सबसे महत्वपूर्ण, यह जिम्मेदार और सुरक्षित विकास और तैनाती को बढ़ावा देकर और संभावित प्रभाव को संबोधित करने के लिए सक्रिय उपायों को अपनाने को प्रोत्साहित करके एआई प्रणाली के हितधारकों को लाभ पहुंचाता है। नतीजतन, जोखिम का आकलन और प्रबंधन करने के लिए तंत्र स्थापित करना एआई चिकित्सकों के लिए विचार करने के लिए एक महत्वपूर्ण प्रक्रिया है और यह कई उभरते एआई उद्योग मानकों का मुख्य घटक बन गया है (उदाहरण के लिए, आईएसओ 42001, आईएसओ 23894, तथा एनआईएसटी आरएमएफ) और विधान (जैसे यूरोपीय संघ एआई अधिनियम).

इस पोस्ट में, हम चर्चा करते हैं कि आपके एआई सिस्टम के संभावित जोखिम का आकलन कैसे करें।

जोखिम के विभिन्न स्तर क्या हैं?

हालांकि एक व्यक्तिगत मशीन लर्निंग (एमएल) मॉडल और संबंधित जोखिमों को अलग से देखना शुरू करना आसान हो सकता है, ऐसे मॉडल के विशिष्ट अनुप्रयोग और संपूर्ण एआई सिस्टम के हिस्से के रूप में संबंधित उपयोग के मामले के विवरण पर विचार करना महत्वपूर्ण है। . वास्तव में, एक विशिष्ट एआई सिस्टम एक साथ काम करने वाले कई अलग-अलग एमएल मॉडल पर आधारित होने की संभावना है, और एक संगठन कई अलग-अलग एआई सिस्टम बनाने पर विचार कर सकता है। नतीजतन, प्रत्येक उपयोग के मामले के लिए और विभिन्न स्तरों पर जोखिमों का मूल्यांकन किया जा सकता है, अर्थात् मॉडल जोखिम, एआई सिस्टम जोखिम और उद्यम जोखिम।

उद्यम जोखिम में उन जोखिमों का व्यापक स्पेक्ट्रम शामिल होता है जिनका सामना एक संगठन को करना पड़ सकता है, जिसमें वित्तीय, परिचालन और रणनीतिक जोखिम शामिल हैं। एआई सिस्टम जोखिम एआई सिस्टम के कार्यान्वयन और संचालन से जुड़े प्रभाव पर केंद्रित है, जबकि एमएल मॉडल जोखिम विशेष रूप से एमएल मॉडल में निहित कमजोरियों और अनिश्चितताओं से संबंधित है।

इस पोस्ट में, हम मुख्य रूप से एआई सिस्टम जोखिम पर ध्यान केंद्रित करते हैं। हालाँकि, यह ध्यान रखना महत्वपूर्ण है कि किसी संगठन के भीतर जोखिम प्रबंधन के सभी विभिन्न स्तरों पर विचार किया जाना चाहिए और उन्हें संरेखित किया जाना चाहिए।

एआई सिस्टम जोखिम को कैसे परिभाषित किया जाता है?

एआई प्रणाली के संदर्भ में जोखिम प्रबंधन अनिश्चितता या संभावित नकारात्मक प्रभावों के प्रभाव को कम करने का एक मार्ग हो सकता है, साथ ही सकारात्मक प्रभावों को अधिकतम करने के अवसर भी प्रदान कर सकता है। जोखिम स्वयं कोई संभावित नुकसान नहीं है बल्कि उद्देश्यों पर अनिश्चितता का प्रभाव है। के अनुसार एनआईएसटी जोखिम प्रबंधन ढांचा (एनआईएसटी आरएमएफ), जोखिम का अनुमान संबंधित घटना के परिणामों के परिमाण के आधार पर किसी घटना के घटित होने की संभावना के गुणक माप के रूप में लगाया जा सकता है।

जोखिम के दो पहलू हैं: अंतर्निहित जोखिम और अवशिष्ट जोखिम। अंतर्निहित जोखिम, शमन या नियंत्रण के अभाव में एआई प्रणाली द्वारा प्रदर्शित जोखिम की मात्रा को दर्शाता है। अवशिष्ट जोखिम शमन रणनीतियों में शामिल होने के बाद शेष जोखिमों को पकड़ लेता है।

हमेशा ध्यान रखें कि जोखिम मूल्यांकन एक मानव-केंद्रित गतिविधि है जिसके लिए संगठन-व्यापी प्रयासों की आवश्यकता होती है; इन प्रयासों में यह सुनिश्चित करना शामिल है कि सभी प्रासंगिक हितधारकों को मूल्यांकन प्रक्रिया (जैसे उत्पाद, इंजीनियरिंग, विज्ञान, बिक्री और सुरक्षा टीमों) में शामिल किया जाए, यह आकलन करने तक कि सामाजिक दृष्टिकोण और मानदंड कुछ घटनाओं की कथित संभावना और परिणामों को कैसे प्रभावित करते हैं।

आपके संगठन को जोखिम मूल्यांकन की परवाह क्यों करनी चाहिए?

एआई सिस्टम के लिए जोखिम प्रबंधन ढांचे की स्थापना से एआई सिस्टम के सुरक्षित और जिम्मेदार डिजाइन, विकास और संचालन को बढ़ावा देकर बड़े पैमाने पर समाज को लाभ हो सकता है। जोखिम प्रबंधन ढाँचे निम्नलिखित के माध्यम से भी संगठनों को लाभान्वित कर सकते हैं:

  • बेहतर निर्णय लेने - एआई सिस्टम से जुड़े जोखिमों को समझकर, संगठन उन जोखिमों को कम करने और सुरक्षित और जिम्मेदार तरीके से एआई सिस्टम का उपयोग करने के बारे में बेहतर निर्णय ले सकते हैं।
  • बढ़ी हुई अनुपालन योजना - एक जोखिम मूल्यांकन ढांचा संगठनों को प्रासंगिक कानूनों और विनियमों में जोखिम मूल्यांकन आवश्यकताओं के लिए तैयार करने में मदद कर सकता है
  • भरोसा बनाना - यह प्रदर्शित करके कि वे एआई सिस्टम के जोखिमों को कम करने के लिए कदम उठा रहे हैं, संगठन अपने ग्राहकों और हितधारकों को दिखा सकते हैं कि वे एआई को सुरक्षित और जिम्मेदार तरीके से उपयोग करने के लिए प्रतिबद्ध हैं।

जोखिम का आकलन कैसे करें?

पहले कदम के रूप में, एक संगठन को एआई उपयोग के मामले का वर्णन करने पर विचार करना चाहिए जिसका मूल्यांकन करने और सभी प्रासंगिक हितधारकों की पहचान करने की आवश्यकता है। उपयोग का मामला एक विशिष्ट परिदृश्य या स्थिति है जो बताता है कि उपयोगकर्ता किसी विशेष लक्ष्य को प्राप्त करने के लिए एआई सिस्टम के साथ कैसे बातचीत करते हैं। उपयोग के मामले का विवरण बनाते समय, हल की जा रही व्यावसायिक समस्या को निर्दिष्ट करना, शामिल हितधारकों की सूची बनाना, वर्कफ़्लो को चिह्नित करना और सिस्टम के प्रमुख इनपुट और आउटपुट के बारे में विवरण प्रदान करना सहायक हो सकता है।

जब हितधारकों की बात आती है, तो कुछ को नज़रअंदाज़ करना आसान होता है। एआई हितधारक भूमिकाओं को निर्धारित करने के लिए निम्नलिखित आंकड़ा एक अच्छा प्रारंभिक बिंदु है।

स्रोत: "सूचना प्रौद्योगिकी - कृत्रिम बुद्धिमत्ता - कृत्रिम बुद्धिमत्ता अवधारणाएँ और शब्दावली"।

एआई सिस्टम जोखिम मूल्यांकन का एक महत्वपूर्ण अगला कदम उपयोग के मामले से जुड़ी संभावित हानिकारक घटनाओं की पहचान करना है। इन घटनाओं पर विचार करते समय, उदाहरण के लिए, जिम्मेदार एआई के विभिन्न आयामों, जैसे निष्पक्षता और मजबूती, पर विचार करना सहायक हो सकता है। अलग-अलग हितधारक अलग-अलग आयामों में अलग-अलग स्तर तक प्रभावित हो सकते हैं। उदाहरण के लिए, किसी अंतिम-उपयोगकर्ता के लिए कम मजबूती का जोखिम एक एआई प्रणाली द्वारा मामूली व्यवधान प्रदर्शित करने का परिणाम हो सकता है, जबकि कम निष्पक्षता जोखिम एक एआई प्रणाली द्वारा विभिन्न जनसांख्यिकीय समूहों के लिए नगण्य रूप से भिन्न आउटपुट उत्पन्न करने के कारण हो सकता है।

किसी घटना के जोखिम का अनुमान लगाने के लिए, आप घटना की संभावना के साथ-साथ परिणामों की डिग्री को मापने के लिए गंभीरता पैमाने के साथ संयोजन में संभावना पैमाने का उपयोग कर सकते हैं। इन पैमानों को विकसित करते समय एक सहायक प्रारंभिक बिंदु एनआईएसटी आरएमएफ हो सकता है, जो बहुत कम से लेकर बहुत उच्च जोखिम या अर्ध-मात्रात्मक मूल्यांकन सिद्धांतों जैसे गुणात्मक गैर-संख्यात्मक श्रेणियों, जैसे स्केल (जैसे 1-10), डिब्बे, या अन्यथा का उपयोग करने का सुझाव देता है। प्रतिनिधि संख्याएँ. सभी प्रासंगिक आयामों के लिए संभावना और गंभीरता के पैमाने को परिभाषित करने के बाद, आप प्रत्येक प्रासंगिक आयाम के साथ प्रति हितधारकों के समग्र जोखिम को मापने के लिए जोखिम मैट्रिक्स योजना का उपयोग कर सकते हैं। निम्नलिखित आंकड़ा एक उदाहरण जोखिम मैट्रिक्स दिखाता है।

इस जोखिम मैट्रिक्स का उपयोग करके, हम कम गंभीरता और घटित होने की दुर्लभ संभावना वाली किसी घटना को बहुत कम जोखिम के रूप में मान सकते हैं। ध्यान रखें कि प्रारंभिक मूल्यांकन अंतर्निहित जोखिम का अनुमान होगा, और जोखिम शमन रणनीतियाँ जोखिम के स्तर को और कम करने में मदद कर सकती हैं। फिर प्रति घटना किसी भी शेष बचे जोखिम के लिए रेटिंग उत्पन्न करने के लिए प्रक्रिया को दोहराया जा सकता है। यदि एक ही आयाम में कई घटनाओं की पहचान की गई है, तो अंतिम मूल्यांकन सारांश बनाने के लिए सभी के बीच उच्चतम जोखिम स्तर चुनना सहायक हो सकता है।

अंतिम मूल्यांकन सारांश का उपयोग करते हुए, संगठनों को यह परिभाषित करना होगा कि उनके एआई सिस्टम के लिए कौन से जोखिम स्तर स्वीकार्य हैं और साथ ही प्रासंगिक नियमों और नीतियों पर भी विचार करना होगा।

एडब्ल्यूएस प्रतिबद्धता

के साथ संलग्नताओं के माध्यम से व्हाइट हाउस और UNदूसरों के बीच, हम एआई के जिम्मेदार और सुरक्षित उपयोग को आगे बढ़ाने के लिए अपने ज्ञान और विशेषज्ञता को साझा करने के लिए प्रतिबद्ध हैं। इन पंक्तियों के साथ, अमेज़न के एडम सेलिप्स्की ने हाल ही में AWS का प्रतिनिधित्व किया एआई सुरक्षा शिखर सम्मेलन राष्ट्राध्यक्षों और उद्योग जगत के नेताओं की उपस्थिति के साथ, यह कृत्रिम बुद्धिमत्ता की जिम्मेदार उन्नति पर सहयोग करने के लिए हमारे समर्पण को प्रदर्शित करता है।

निष्कर्ष

जैसे-जैसे एआई आगे बढ़ रहा है, एआई को जिम्मेदारी से बनाने और तैनात करने की चाहत रखने वाले संगठनों के लिए जोखिम मूल्यांकन तेजी से महत्वपूर्ण और उपयोगी होता जा रहा है। जोखिम मूल्यांकन ढांचा और जोखिम शमन योजना स्थापित करके, संगठन संभावित एआई-संबंधित घटनाओं के जोखिम को कम कर सकते हैं और अपने ग्राहकों के साथ विश्वास अर्जित कर सकते हैं, साथ ही बेहतर विश्वसनीयता, विभिन्न जनसांख्यिकी के लिए बेहतर निष्पक्षता और बहुत कुछ जैसे लाभ प्राप्त कर सकते हैं।

आगे बढ़ें और अपने संगठन में जोखिम मूल्यांकन ढांचा विकसित करने की अपनी यात्रा शुरू करें और टिप्पणियों में अपने विचार साझा करें।

अमेज़ॅन साइंस पर प्रकाशित जेनरेटिव एआई जोखिमों का अवलोकन भी देखें: जनरेटिव युग में जिम्मेदार AI, और AWS सेवाओं की श्रेणी का पता लगाएं जो आपके जोखिम मूल्यांकन और शमन यात्रा में आपकी सहायता कर सकती हैं: अमेज़न SageMaker स्पष्ट करें, अमेज़ॅन सैजमेकर मॉडल मॉनिटर, AWS क्लाउडट्रिल, साथ ही मॉडल शासन ढांचा.


लेखक के बारे में

मिया सी. मेयर एडब्ल्यूएस मशीन लर्निंग यूनिवर्सिटी में एप्लाइड साइंटिस्ट और एमएल शिक्षक हैं; जहां वह मशीन लर्निंग और एआई सिस्टम की सुरक्षा, व्याख्या और निष्पक्षता पर शोध और शिक्षा देती है। अपने पूरे करियर के दौरान, मिया ने कई विश्वविद्यालय आउटरीच कार्यक्रम स्थापित किए, अतिथि व्याख्याता और मुख्य वक्ता के रूप में काम किया और कई बड़े शिक्षण सम्मेलनों में प्रस्तुति दी। वह आंतरिक टीमों और AWS ग्राहकों को उनकी जिम्मेदार AI यात्रा शुरू करने में भी मदद करती है।

डेनिस वी. बटालोव 17 साल के अमेज़ॅन के दिग्गज और मशीन लर्निंग में पीएचडी हैं, डेनिस ने सर्च इनसाइड द बुक, अमेज़ॅन मोबाइल ऐप और किंडल डायरेक्ट पब्लिशिंग जैसी रोमांचक परियोजनाओं पर काम किया। 2013 से उन्होंने AWS ग्राहकों को समाधान वास्तुकार के रूप में AI/ML तकनीक अपनाने में मदद की है। वर्तमान में, डेनिस वैश्विक स्तर पर एडब्ल्यूएस एमएल स्पेशलिस्ट सॉल्यूशंस आर्किटेक्ट्स के कामकाज के लिए जिम्मेदार एआई/एमएल के लिए एक विश्वव्यापी टेक लीडर है। डेनिस लगातार सार्वजनिक वक्ता हैं, आप ट्विटर @dbatalov पर उनका अनुसरण कर सकते हैं।

डॉ. सारा लियू AWS रिस्पॉन्सिबल AI टीम के साथ एक वरिष्ठ तकनीकी कार्यक्रम प्रबंधक हैं। वह AWS AI सेवाओं में जिम्मेदार AI बार बढ़ाने के लिए वैज्ञानिकों, डेटासेट लीड, ML इंजीनियरों, शोधकर्ताओं के साथ-साथ अन्य क्रॉस-फ़ंक्शनल टीमों की एक टीम के साथ काम करती है। उनकी वर्तमान परियोजनाओं में एआई सेवा कार्ड विकसित करना, जिम्मेदार एआई के लिए जोखिम मूल्यांकन करना, उच्च गुणवत्ता वाले मूल्यांकन डेटासेट बनाना और गुणवत्ता कार्यक्रम लागू करना शामिल है। वह आंतरिक टीमों और ग्राहकों को उभरते एआई उद्योग मानकों को पूरा करने में भी मदद करती है।

स्पॉट_आईएमजी

नवीनतम खुफिया

स्पॉट_आईएमजी