जेफिरनेट लोगो

एआई गवर्नेंस सर्वोत्तम अभ्यास - डेटा विविधता

दिनांक:

संसोएन सेंगसाकाओरात / शटरस्टॉक.कॉम

एआई प्रशासन का उद्देश्य मानव जाति की भलाई के लिए कृत्रिम बुद्धिमत्ता के जिम्मेदार उपयोग को बढ़ावा देना है। विभिन्न प्रकार के कार्यों को शीघ्रता और कुशलता से पूरा करने में कृत्रिम बुद्धिमत्ता काफी उपयोगी साबित हुई है। दुर्भाग्य से, इसका उपयोग आपराधिक व्यवहार का समर्थन करने या गलत सूचना बनाने और वितरित करने के लिए भी किया जा सकता है। एआई गवर्नेंस आपराधिक और अनैतिक व्यवहार के लिए कृत्रिम बुद्धिमत्ता के उपयोग को कम करने का एक प्रयास है।

कृत्रिम बुद्धिमत्ता में हाल की प्रगति - चैटजीपीटी, जेनरेटिव एआई, बड़े भाषा मॉडल - ने एआई का उपयोग करते समय नैतिक दिशानिर्देशों और विनियमों की आवश्यकता को पहचानने के लिए उद्योग और सरकारी नेताओं दोनों को प्रेरित किया है।     

एआई शासन कार्यक्रमों, विनियमों और दिशानिर्देशों का विकास एआई प्रौद्योगिकी के विकास और अनुप्रयोगों को नियंत्रित करने का एक प्रयास है। उदाहरण के लिए, लेखकों ने कृत्रिम बुद्धि द्वारा प्रतिस्थापित किए जाने पर महत्वपूर्ण चिंता व्यक्त की है, और अमेरिका के राइटर्स गिल्ड ने वेतन में वृद्धि और इसके उपयोग पर गंभीर सीमाओं की मांग करते हुए हड़ताल कर दी है। लेखन प्रयोजनों के लिए ए.आई

सजीव छवियाँ बनाने की क्षमता (जिसे "" कहा जाता है)गहरे फेक”) एआई को नियंत्रित करने वाले व्यक्ति द्वारा वांछित कुछ भी कहने वाले व्यक्तियों का कुछ राजनेताओं और राजनीतिक समूहों के लिए चिंता का विषय बन गया है। किसी व्यवसाय का कंप्यूटर सिस्टम एआई-जनित मैलवेयर से संक्रमित होने के बाद, या फोन पर बेटी की आवाज को फिर से बनाने, रोते हुए और माता-पिता को बताने के बाद फिरौती की मांग की गई है। उसका अपहरण कर लिया गया है.

एआई प्रशासन विभिन्न प्रकार के महत्वपूर्ण मुद्दों से निपटता है, जैसे गोपनीयता, अंतर्निहित पूर्वाग्रह, प्रतिरूपण, चोरी, और धोखाधड़ी। यह दुर्भाग्यपूर्ण है कि लोगों को कमजोर या नैतिकताहीन व्यक्तियों से बचाने के लिए कानून और नियम आवश्यक हैं। व्यवसायों को उभरते कानूनों और विनियमों पर अद्यतन रहने का ध्यान रखना चाहिए और यह सुनिश्चित करना चाहिए कि उनके एआई सिस्टम का निर्माण और तैनाती अनुपालन में हो।

संगठन नेविगेट कर सकते हैं नैतिक चिंताओं एआई शासन की सर्वोत्तम प्रथाओं की एक प्रणाली का पालन करके कृत्रिम बुद्धिमत्ता के उपयोग द्वारा मानव जाति की भलाई के लिए इसके जिम्मेदार उपयोग को बढ़ावा देना।

आर्टिफिशियल इंटेलिजेंस को विनियमित करने के सरकारी प्रयास

संयुक्त राज्य अमेरिका में, बोलने की स्वतंत्रता को झूठ बोलने की स्वतंत्रता के साथ भ्रमित किया जा सकता है। स्थिति हैरान करने वाली है और इससे गलत सूचना को प्रतिबंधित करने वाला कोई भी कानून बनाना मुश्किल हो गया है। धोखाधड़ी को बढ़ाने में कृत्रिम बुद्धिमत्ता उल्लेखनीय रूप से उपयोगी उपकरण हो सकती है। 

एक ऐसी प्रणाली विकसित करने के लिए जो व्यक्तियों और नवोन्वेषी होने की स्वतंत्रता दोनों की रक्षा करती है, सरकारों को कुछ कदम उठाने होंगे। पहले चरण में कृत्रिम बुद्धिमत्ता के अनैतिक उपयोग से उत्पन्न समस्याओं की समझ विकसित करना शामिल है। संयुक्त राज्य अमेरिका में, सीनेट शुरू यह तब हुआ जब उन्होंने कई तकनीकी सीईओ को एआई के बारे में सीईओ की चिंताओं पर चर्चा करने के लिए नौ सत्रों में भाग लेने के लिए कहा, जिसमें पहला सत्र 13 सितंबर, 2023 को हुआ था।

30 अक्टूबर, 2023 को राष्ट्रपति बिडेन ने एक जारी किया कार्यकारी आदेश एआई चिंताओं के संबंध में। उस आदेश के अपवाद के साथ जिसके लिए "सबसे शक्तिशाली एआई सिस्टम के डेवलपर्स को अपने सुरक्षा परीक्षण परिणाम और अन्य महत्वपूर्ण जानकारी अमेरिकी सरकार के साथ साझा करने की आवश्यकता होती है," कार्यकारी आदेश "विकासशील" मानकों और मार्गदर्शन से संबंधित है। इस समय, संयुक्त राज्य अमेरिका ने कृत्रिम बुद्धिमत्ता के व्यवहार को नियंत्रित या सीमित करने वाला कोई कानून विकसित नहीं किया है।  

यूरोपीय संघ (ईयू) यह निर्णय लेने वाले पहले सरकारी संगठनों में से एक था कि उन्हें एआई-केंद्रित नियमों की आवश्यकता है। उनके प्रस्तावित विधान का अंतिम पाठ, ईयू एआई अधिनियम, 8 दिसंबर, 2023 को एक समझौते के बाद अभी भी विकसित किया जा रहा है। उन्होंने जोखिम स्तरों की एक श्रृंखला विकसित करने का विकल्प चुना, जिसमें अस्वीकार्य जोखिम एआई सिस्टम को लोगों के लिए खतरा बताया गया है (इन जोखिमों पर प्रतिबंध लगाया जाएगा)। अस्वीकार्य जोखिमों में शामिल हैं:

  • मनुष्यों या विशिष्ट कमजोर समूहों का संज्ञानात्मक, जानबूझकर, व्यवहारिक हेरफेर। इसका एक उदाहरण आवाज-सक्रिय खिलौने होंगे जो बच्चों को खतरनाक व्यवहार करने के लिए प्रोत्साहित करते हैं।
  • सामाजिक स्कोरिंग, लोगों को उनकी सामाजिक-आर्थिक स्थिति, व्यवहार या व्यक्तिगत विशेषताओं का उपयोग करके वर्गीकृत करने की प्रक्रिया।
  • वास्तविक समय और दूरस्थ बायोमेट्रिक पहचान प्रणालियों का उपयोग।

चीन में लोकतांत्रिक सरकारों द्वारा समर्थित अभिव्यक्ति की स्वतंत्रता जैसी समान स्वतंत्रता नहीं है। परिणामस्वरूप, उनकी AI प्राथमिकताएँ भिन्न हैं। जनरेटिव आर्टिफिशियल इंटेलिजेंस सेवाओं के लिए अंतरिम प्रशासनिक उपाय कार्यान्वित किया गया 15 अगस्त, 2023 को। इन एआई-नियंत्रण नियमों के लिए सुरक्षा मूल्यांकन और एल्गोरिदम दाखिल करने के लिए जेनेरिक एआई सेवाएं प्रदान करने वाले व्यवसायों की आवश्यकता होती है। उन्हें प्रदाताओं से उत्पन्न सामग्री की सटीकता, निष्पक्षता, प्रामाणिकता और विश्वसनीयता में सुधार करने के प्रयास करने और इसकी निगरानी की मांग करने की भी आवश्यकता होती है।

सामान्यतया, जो देश एआई शासन से चिंतित हैं वे अभी भी उचित कानून और नियम विकसित करने की प्रक्रिया में हैं।

किसी व्यवसाय के भीतर एआई गवर्नेंस की सर्वोत्तम प्रथाओं का विकास करना

व्यवसाय प्रबंधकों को अपने ग्राहकों और कर्मचारियों पर एआई के प्रभाव पर विचार करना चाहिए और जोखिमों को कम करने और नुकसान से बचने के लिए नीतियां लागू करनी चाहिए। एआई शासन की सर्वोत्तम प्रथाओं की एक प्रणाली विकसित करके, व्यवसाय मानव जाति की उन्नति के लिए कृत्रिम बुद्धिमत्ता के जिम्मेदार उपयोग का समर्थन कर सकते हैं। 

सर्वोत्तम प्रथाओं में शामिल हैं:

AI-जनित सामग्रियों की पहचान करें: कई सरकारें एआई-जनित कला को अलग करने के तरीके के रूप में वॉटरमार्क के आवश्यक उपयोग पर चर्चा कर रही हैं। उन संगठनों के लिए जो ईमानदार और जिम्मेदार हैं, वॉटरमार्क संचार का एक आसान तरीका प्रदान करता है कला एआई द्वारा बनाई गई थी, न कि किसी मानव द्वारा। वॉटरमार्क के साथ समस्या यह है कि उन्हें काफी आसानी से हटाया जा सकता है; भ्रम और गलत सूचना की संभावना को बढ़ाने के लिए, मनुष्यों द्वारा बनाई गई कला में वॉटरमार्क जोड़े जा सकते हैं। 

ईमानदार और जिम्मेदार संगठनों को किसी भी एआई-जनित कला पर वॉटरमार्क शामिल करना चाहिए। एआई द्वारा लिखे गए लेखों में "एआई जेनरेटेड" को उस स्थान पर रखा जाना चाहिए जहां लेखक का नाम आम तौर पर स्थित होता है, भले ही लेख शुरू करने वाला व्यक्ति लेखकत्व का दावा करना चाहता हो या नहीं। (अन्यथा करना केवल भ्रामक और कपटपूर्ण है।) 

एल्गोरिथम संबंधी पूर्वाग्रहों से निपटें: एआई के एल्गोरिदम में निर्मित अनजाने (या गुप्त रूप से लगाए गए) पूर्वाग्रह और पूर्वाग्रह नस्ल या लिंग जैसी जनसांख्यिकी का उपयोग करके किसी संगठन की भर्ती प्रथाओं और ग्राहक सेवा पर प्रभाव डाल सकते हैं।

यह निर्धारित करने के लिए कि क्या कोई एआई पक्षपाती है, उसका परीक्षण करें। पक्षपात के लिए इसका कई बार परीक्षण करें। एक्सेल विकसित हुआ है क्या-क्या विश्लेषण उपकरण (लक्ष्य खोज और परिदृश्य प्रबंधक) जो ये परीक्षण करेगा। ये उपकरण AI सिस्टम में समानता और निष्पक्षता को बढ़ावा देने के लिए डिज़ाइन किए गए हैं। वे सुनिश्चित करते हैं कि एआई बिना किसी भेदभाव के काम करे।

ग्राहक सुरक्षा: ग्राहक जानकारी के दो बुनियादी प्रकार हैं जो व्यवसाय एकत्र करते हैं। पहले की आपूर्ति सीधे ग्राहक द्वारा की जाती है, और इसमें उनके घर का पता और फ़ोन नंबर, संभवतः जन्मतिथि जैसी चीज़ें शामिल होती हैं। हर कोई इस बात से सहमत है कि यह जानकारी सुरक्षित और संरक्षित होनी चाहिए।

डेटा गोपनीयता और सुरक्षा कानूनों का समर्थन करने के लिए कृत्रिम बुद्धिमत्ता को डेटा गवर्नेंस के साथ जोड़ा जा सकता है। एआई समर्थित डेटा गवर्नेंस प्रोग्राम और सुरक्षा नियम विकसित करके, कोई व्यवसाय चोरी और शोषण किए गए डेटा के जोखिम को काफी कम कर सकता है। 

ग्राहक सूचना का दूसरा रूप है अन्य संगठनों से खरीदा गया और इसमें ऑनलाइन शॉपिंग पैटर्न से लेकर सोशल मीडिया गतिविधि तक का डेटा शामिल है। इस प्रकार की जानकारी ("तृतीय-पक्ष डेटा" के रूप में संदर्भित) किसी व्यक्ति को खरीदारी करने के लिए प्रेरित करने के इरादे से एकत्र की जाती है। 

अधिकांश लोगों को यह विचार पसंद नहीं आता कि उनकी व्यक्तिगत प्राथमिकताओं और जरूरतों पर ध्यान दिया जाए और उनका शोषण किया जाए। ईमानदार और जिम्मेदार व्यवसायों को मनुष्यों के साथ छेड़छाड़ करने में कृत्रिम बुद्धिमत्ता के उपयोग का समर्थन नहीं करना चाहिए, न ही सामान्य तौर पर तीसरे पक्ष के डेटा का।

एआई का उपयोग करते समय "कोई नुकसान न करें" का दर्शन विकसित करें: ऐसे व्यवसाय हैं जिनका एकमात्र लक्ष्य अल्पकालिक लाभ होता है, जिसमें धोखा तब तक ठीक है, जब तक वह लाभ लाता है। लेकिन क्या आप उनके साथ एक से अधिक बार व्यापार करेंगे? मुनाफ़े की निरंतर खोज में, बड़ी तस्वीर को नज़रअंदाज करना आसान हो सकता है।

जब नैतिकता को बिजनेस मॉडल में शामिल किया जाता है, तो कोई नुकसान न करने का दर्शन विकसित होता है। ईमानदार, सटीक जानकारी शायद ही कभी किसी व्यवसाय के ग्राहक आधार को नुकसान पहुंचाती है, लेकिन धोखे या चोरी के परिणामस्वरूप आम तौर पर उस ग्राहक के साथ भविष्य के किसी भी व्यवसाय का नुकसान होता है। इसके अतिरिक्त, सटीक जानकारी बड़े समाज की दक्षता और प्रवाह को सुव्यवस्थित करती है, जिससे मानव जाति की उन्नति को बढ़ावा मिलता है। गलत सूचना के आने से अराजकता और भ्रम पैदा हो सकता है। 

कृत्रिम बुद्धिमत्ता का उपयोग अराजकता और भ्रम को बढ़ावा देने के लिए किया जा सकता है, या इसका उपयोग अच्छे संचार के उद्देश्यों के लिए किया जा सकता है। 

संगठन और एआई दोनों के लिए एक आचार संहिता विकसित करें: एआई शासन आचार संहिता को नैतिक व्यवहार के प्रति संगठन की इच्छा और प्रतिबद्धता को रेखांकित करना चाहिए। इस आचार संहिता में "सटीक जानकारी प्रदान करने के लिए कृत्रिम बुद्धिमत्ता का उपयोग करने" की प्रतिबद्धता शामिल हो सकती है और "कृत्रिम बुद्धिमत्ता का उपयोग गलत सूचना बनाने या वितरित करने के लिए नहीं किया जाएगा।"

एआई शासन आचार संहिता बनाने से किसी संगठन को व्यवहार के स्पष्ट मानक स्थापित करने में मदद मिलती है। यदि जनता के लिए उपलब्ध कराया जाए, तो किसी व्यवसाय की आचार संहिता ग्राहकों और हितधारकों के विश्वास को विकसित करने, कानूनी जोखिमों को कम करने और सामाजिक जिम्मेदारी का प्रदर्शन करने में मदद कर सकती है।

डेटा स्टीवर्ड और एआई एथिक्स रिपोर्ट: एआई शासन कार्यक्रम में नैतिक चिंताओं का समर्थन करने वाली नीतियों और प्रक्रियाओं की एक श्रृंखला शामिल होनी चाहिए। इन नीतियों में से एक के लिए नियमित रूप से निर्धारित नैतिकता रिपोर्ट की आवश्यकता होनी चाहिए, और डेटा स्टीवर्ड ऐसा प्रतीत होता है कि यह जिम्मेदारी सौंपने के लिए वह उपयुक्त व्यक्ति हैं। संगठन की कृत्रिम बुद्धिमत्ता के नैतिक उपयोग पर एक रिपोर्टिंग तंत्र बनाकर, वरिष्ठ नेतृत्व जवाबदेही सुनिश्चित कर सकता है। नियमित ऑडिट संभावित कानूनी मुद्दों की पहचान करने और अनुपालन को बढ़ावा देने में भी मदद कर सकता है। 

ये उपाय सामूहिक रूप से एआई शासन कार्यक्रम के कार्यान्वयन को मजबूत करते हैं और पूरे संगठन में जिम्मेदार एआई प्रथाओं को बढ़ावा देते हैं।

प्रबंधन और कर्मचारियों को शिक्षित करें: एक व्यापक एआई गवर्नेंस प्रोग्राम बनाने के लिए आवश्यक है कि सभी कर्मचारियों और प्रबंधन को संगठन की आचार संहिता और दीर्घकालिक लक्ष्यों की समझ हो। शिक्षा प्रक्रिया यह सुनिश्चित करती है कि सभी कर्मचारी समान लक्ष्यों को प्राप्त करने के लिए काम कर रहे हैं, और कर्मचारियों में से कोई भी उन लक्ष्यों के विरुद्ध गुमराह होकर काम नहीं कर रहा है।

एआई गवर्नेंस में एल्गोरिदम का उपयोग

यदि हम, मनुष्य के रूप में, गलत सूचना से सटीक जानकारी को अलग करने और पहचानने का कोई तरीका ढूंढते हैं, तो हम ऐसे एल्गोरिदम विकसित करने में सक्षम हो सकते हैं जो कृत्रिम बुद्धिमत्ता को आपराधिक कृत्य करने और गलत सूचना वितरित करने से रोकते हैं।

स्पॉट_आईएमजी

नवीनतम खुफिया

स्पॉट_आईएमजी