जेफिरनेट लोगो

एआई विकास में सत्यापन में सुधार

दिनांक:

हमने बहु-हितधारक रिपोर्ट द्वारा योगदान दिया है ५-सह लेखक सहित 30 संगठनों में खुफिया के भविष्य के लिए केंद्र, मिला, Schwartz Reisman प्रौद्योगिकी और समाज संस्थान, व्यवहार विज्ञान में उन्नत अध्ययन केंद्र, तथा सेंटर फॉर सिक्योरिटी एंड इमर्जिंग टेक्नोलॉजीज। यह रिपोर्ट एआई सिस्टम के बारे में किए गए दावों की सत्यता में सुधार के लिए 10 तंत्रों का वर्णन करती है। डेवलपर्स इन उपकरणों का उपयोग सबूत प्रदान करने के लिए कर सकते हैं कि एआई सिस्टम सुरक्षित, सुरक्षित, निष्पक्ष या गोपनीयता-संरक्षण कर रहे हैं। उपयोगकर्ता, नीति नियंता और नागरिक समाज एआई विकास प्रक्रियाओं का मूल्यांकन करने के लिए इन उपकरणों का उपयोग कर सकते हैं।

रिपोर्ट पढ़ें

हालांकि संगठनों की बढ़ती संख्या ने अपनी AI विकास प्रक्रिया का मार्गदर्शन करने के लिए नैतिक सिद्धांतों को स्पष्ट किया है, संगठन के बाहर के लोगों के लिए यह सत्यापित करना मुश्किल हो सकता है कि संगठन के AI सिस्टम उन सिद्धांतों को व्यवहार में दर्शाते हैं या नहीं। यह अस्पष्टता एआई सिस्टम की संपत्तियों के बारे में एआई डेवलपर्स के दावों की जांच करने के लिए उपयोगकर्ताओं, नीति निर्माताओं और नागरिक समाज जैसे हितधारकों के लिए कठिन बना देती है और प्रतिस्पर्धात्मक कोने-कटिंग को बढ़ा सकती है, जिससे सामाजिक जोखिम और हानि बढ़ सकती है। रिपोर्ट में मौजूदा और संभावित तंत्रों का वर्णन किया गया है, जो हितधारकों को सवालों के जवाब देने में मदद कर सकते हैं:

  • क्या मैं (एक उपयोगकर्ता के रूप में) एक नए AI सिस्टम द्वारा गारंटी गोपनीयता सुरक्षा के स्तर के बारे में किए गए दावों को सत्यापित कर सकता हूं जो मैं संवेदनशील दस्तावेजों के मशीन अनुवाद के लिए उपयोग करना चाहता हूं?
  • क्या मैं (एक नियामक के रूप में) उन कदमों का पता लगा सकता हूं जिनके कारण एक स्वायत्त वाहन के कारण कोई दुर्घटना हुई हो? एक स्वायत्त वाहन कंपनी के सुरक्षा दावों की तुलना किन मानकों से की जानी चाहिए?
  • क्या मैं (एक अकादमिक के रूप में) बड़े पैमाने पर AI सिस्टम से जुड़े जोखिमों पर निष्पक्ष अनुसंधान कर सकता हूं, जब मेरे पास उद्योग के कंप्यूटिंग संसाधनों की कमी है?
  • क्या मैं (एआई डेवलपर के रूप में) यह सत्यापित कर सकता हूं कि एआई विकास के किसी दिए गए क्षेत्र में मेरे प्रतियोगी लाभ हासिल करने के लिए कटे हुए कोनों के बजाय सर्वोत्तम प्रथाओं का पालन करेंगे?

रिपोर्ट में हाइलाइट किए गए 10 तंत्रों को नीचे सूचीबद्ध किया गया है, साथ ही प्रत्येक को आगे बढ़ाने के उद्देश्य से सिफारिशें की गई हैं। (देखें) रिपोर्ट इन तंत्रों के सत्यापन के दावों के साथ-साथ हमारे निष्कर्षों के बारे में प्रासंगिक विवरणों का समर्थन करने की चर्चा के लिए।)

संस्थागत तंत्र और सिफारिशें

  1. थर्ड पार्टी ऑडिटिंग। हितधारकों के एक गठबंधन को एआई सिस्टम के तीसरे पक्ष के ऑडिट के संचालन और वित्त पोषण के लिए अनुसंधान विकल्पों के लिए एक कार्य बल बनाना चाहिए।
  2. रेड टीमिंग अभ्यास। एआई विकसित करने वाले संगठनों को उनके द्वारा विकसित प्रणालियों से जुड़े जोखिमों का पता लगाने के लिए लाल टीमिंग अभ्यास चलाना चाहिए, और सर्वोत्तम प्रथाओं और उपकरणों को साझा करना चाहिए।
  3. पूर्वाग्रह और सुरक्षा इनाम। एआई डेवलपर्स को एआई सिस्टम के लिए व्यापक पूर्वाग्रह आधारित जांच के लिए प्रोत्साहन और प्रक्रियाओं को मजबूत करने के लिए एआई सिस्टम के लिए पायलट पूर्वाग्रह और सुरक्षा इनाम चाहिए।
  4. एअर इंडिया की घटनाओं को साझा करना। एआई डेवलपर्स को एआई घटनाओं के बारे में अधिक जानकारी साझा करनी चाहिए, जिसमें सहयोगी चैनलों के माध्यम से भी शामिल है।

सॉफ्टवेयर यांत्रिकी और सिफारिशें

  1. ऑडिट ट्रैल्स। मानक सेटिंग निकायों को एआई सिस्टम के सुरक्षा-महत्वपूर्ण अनुप्रयोगों के लिए ऑडिट ट्रेल आवश्यकताओं को विकसित करने के लिए शिक्षा और उद्योग के साथ काम करना चाहिए।
  2. विवेचनीयता। एआई और फंडिंग निकायों को विकसित करने वाले संगठनों को जोखिम मूल्यांकन और ऑडिटिंग का समर्थन करने पर ध्यान केंद्रित करने के साथ एआई सिस्टम की व्याख्या में अनुसंधान का समर्थन करना चाहिए।
  3. गोपनीयता-संरक्षण मशीन सीखना। एआई डेवलपर्स को गोपनीयता-संरक्षण मशीन सीखने के लिए उपकरणों का सूट विकसित करना, साझा करना और उनका उपयोग करना चाहिए, जिसमें सामान्य मानकों के खिलाफ प्रदर्शन के उपाय शामिल हैं।

हार्डवेयर यांत्रिकी और सिफारिशें

  1. मशीन लर्निंग के लिए सुरक्षित हार्डवेयर। उद्योग और अकादमी को एआई त्वरक के लिए हार्डवेयर सुरक्षा सुविधाओं को विकसित करने के लिए एक साथ काम करना चाहिए या अन्यथा मशीन लर्निंग संदर्भों में सुरक्षित हार्डवेयर (कमोडिटी हार्डवेयर पर सुरक्षित एन्क्लेव सहित) के उपयोग के लिए सर्वोत्तम प्रथाओं को स्थापित करना चाहिए।
  2. उच्च परिशुद्धता गणना माप। एक या एक से अधिक एआई प्रयोगशालाओं को एक एकल परियोजना में शामिल कंप्यूटिंग शक्ति का बहुत विस्तार से अनुमान लगाना चाहिए और इस तरह के तरीकों को व्यापक रूप से अपनाने की क्षमता के बारे में सीखा सबक पर रिपोर्ट करना चाहिए।
  3. अकादमी के लिए समर्थन की गणना। सरकार के वित्त पोषण निकायों को उद्योग में शोधकर्ताओं के लिए शक्ति संसाधनों की गणना के लिए धन में पर्याप्त वृद्धि करनी चाहिए, ताकि उद्योग द्वारा किए गए दावों को सत्यापित करने के लिए उन शोधकर्ताओं की क्षमता में सुधार हो सके।

हम और हमारे सह-लेखक इन तंत्रों पर और शोध कर रहे हैं और OpenAI भविष्य में इनमें से कई तंत्रों को अपनाना चाह रहा है। हमें उम्मीद है कि यह रिपोर्ट सार्थक संवाद को प्रेरित करती है, और हम अतिरिक्त संस्थागत, सॉफ्टवेयर और हार्डवेयर तंत्रों पर चर्चा करने के लिए उत्सुक हैं जो भरोसेमंद एआई विकास को सक्षम करने में उपयोगी हो सकते हैं। हम इन मुद्दों पर सहयोग करने के इच्छुक लोगों को संबंधित लेखकों के साथ जुड़ने और यात्रा करने के लिए प्रोत्साहित करते हैं रिपोर्ट वेबसाइट.

रिपोर्ट पढ़ें

रिपोर्ट लेखकों

(समान योगदान)

  • गिलियन हैडफ़ील्ड OpenAI, टोरंटो विश्वविद्यालय, श्वार्ट्ज रीसमैन इंस्टीट्यूट फॉर टेक्नोलॉजी एंड सोसाइटी
  • हेदी ख़्लाफ़ एडलार्ड
  • यांग जिंगिंग ऐ पर साझेदारी
  • हेलेन टोनर सेंटर फॉर सिक्योरिटी एंड इमर्जिंग टेक्नोलॉजी
  • रूथ फोंग यूनिवर्सिटी ऑफ ओक्सफोर्ड
  • तेजन महाराज मिला, मॉन्ट्रियल पॉलिटेक्निक
  • पंग वी कोह स्टैनफोर्ड विश्वविद्यालय
  • सारा हूकर गूगल ब्रेन
  • जेड लेउंग मानवता संस्थान का भविष्य
  • एंड्रयू ट्रास्क यूनिवर्सिटी ऑफ ओक्सफोर्ड
  • एम्मा ब्लूकेम यूनिवर्सिटी ऑफ ओक्सफोर्ड
  • जोनाथन लेबेंसोल्ड मिला, मैकगिल विश्वविद्यालय
  • कुलेन ओ'कीफ OpenAI
  • मार्क कोरेन एएन सेफ्टी के लिए स्टैनफोर्ड सेंटर
  • थो रयोफेल Éकोल नॉर्मले सुप्रीयर (पेरिस)
  • जेबी रुबिनोवित्ज़ उपाय
  • तमे बेसीरोग्लू यूनिवर्सिटी ऑफ कैंब्रिज
  • फेडेरिका कारुगति व्यवहार विज्ञान में उन्नत अध्ययन केंद्र
  • जैक क्लार्क OpenAI
  • पीटर एकर्सली ऐ पर साझेदारी
  • सारा दे हास Google अनुसंधान
  • मैरिट्जा जॉनसन Google अनुसंधान
  • बेन लॉरी Google अनुसंधान
  • एलेक्स इंगर्मन Google अनुसंधान
  • इगोर क्रैविकुक इकोले पॉलीटेक्निक फेडेरेल डी लॉज़ेन
  • अमांडा आस्केल OpenAI
  • रोसारियो कैममरोटा इंटेल
  • एंड्रयू लोहान रैंड कॉर्पोरेशन
  • डेविड क्रुएगर मिला, मॉन्ट्रियल पॉलिटेक्निक
  • शार्लेट स्टिक्स आइंडहोवन प्रौद्योगिकी विश्वविद्यालय
  • पीटर हेंडरसन स्टैनफोर्ड विश्वविद्यालय
  • लोगन ग्राहम यूनिवर्सिटी ऑफ ओक्सफोर्ड
  • कैरिना प्रंकल मानवता संस्थान का भविष्य
  • बियांका मार्टिन OpenAI
  • एलिजाबेथ सेगर यूनिवर्सिटी ऑफ कैंब्रिज
  • नोआ ज़िल्बरमैन यूनिवर्सिटी ऑफ ओक्सफोर्ड
  • सेण Ó hánigeartaigh लीवरहल्मे सेंटर फॉर द फ्यूचर ऑफ इंटेलीजेंस, सेंटर फॉर द स्टडी ऑफ एक्जिस्टेंशियल रिस्क
  • फ्रेंस क्रॉगर कोवेन्ट्रीय विश्वविद्यालय
  • गिरीश शास्त्री OpenAI
  • रेबेका कागन सेंटर फॉर सिक्योरिटी एंड इमर्जिंग टेक्नोलॉजी
  • एड्रियन वेलर कैम्ब्रिज विश्वविद्यालय, एलन ट्यूरिंग इंस्टीट्यूट
  • ब्रायन त्से मानवता संस्थान का भविष्य, एआई पर साझेदारी
  • एलिजाबेथ बार्न्स OpenAI
  • एलन दाफ़ो मानवता संस्थान का भविष्य
  • पॉल शेहर एक नई अमेरिकी सुरक्षा के लिए केंद्र
  • एरियल हर्बर्ट-वॉस OpenAI
  • मार्टिज़न रासेर एक नई अमेरिकी सुरक्षा के लिए केंद्र
  • शगुन सोढानी मिला, मॉन्ट्रियल विश्वविद्यालय
  • कैरिक फ्लिन सेंटर फॉर सिक्योरिटी एंड इमर्जिंग टेक्नोलॉजी
  • थॉमस गिल्बर्ट यूनिवर्सिटी ऑफ कैलिफोर्निया, बर्केले
  • लिसा डायर ऐ पर साझेदारी
  • सैफ खान सेंटर फॉर सिक्योरिटी एंड इमर्जिंग टेक्नोलॉजी
  • योशुआ बेंगियो मिला, मॉन्ट्रियल विश्वविद्यालय
  • मार्कस एंडर्लजंग मानवता संस्थान का भविष्य

(अवरोही योगदान)

स्रोत: https://openai.com/blog/improving-verifiable/

स्पॉट_आईएमजी

नवीनतम खुफिया

स्पॉट_आईएमजी