जेफिरनेट लोगो

पेंटागन एआई बॉस तकनीक को युद्ध में उतारने के लिए 'उचित आत्मविश्वास' चाहता है

दिनांक:

पेंटागन के मुख्य डिजिटल और कृत्रिम बुद्धिमत्ता अधिकारी, क्रेग मार्टेल ने कहा कि वह चैटजीपीटी जैसी जनरेटिव कृत्रिम बुद्धिमत्ता प्रणालियों की धोखा देने और गलत सूचना बोने की क्षमता से चिंतित हैं। अगस्त में डेफकॉन हैकर सम्मेलन में प्रौद्योगिकी पर उनका भाषण बहुत हिट रहा। लेकिन वह विश्वसनीय एआई को लेकर कुछ भी नहीं है।

एक सैनिक नहीं बल्कि एक डेटा वैज्ञानिक, मार्टेल ने पिछले साल नौकरी लेने से पहले लिंक्डइन, ड्रॉपबॉक्स और लिफ़्ट सहित कंपनियों में मशीन-लर्निंग का नेतृत्व किया था।

अमेरिकी सेना के डेटा को मार्शल करना और यह निर्धारित करना कि कौन सी एआई लड़ाई में लेने के लिए पर्याप्त भरोसेमंद है, एक तेजी से अस्थिर दुनिया में एक बड़ी चुनौती है जहां कई देश घातक स्वायत्त हथियार विकसित करने के लिए दौड़ रहे हैं।

साक्षात्कार को लंबाई और स्पष्टता के लिए संपादित किया गया है।

-

प्रश्न: आपका मुख्य मिशन क्या है?

उत्तर: हमारा काम बोर्डरूम से युद्ध के मैदान तक निर्णय लाभ को बढ़ाना है। मैं इसे कुछ विशेष मिशनों से निपटने के लिए हमारे काम के रूप में नहीं देखता, बल्कि उन उपकरणों, प्रक्रियाओं, बुनियादी ढांचे और नीतियों को विकसित करने के रूप में देखता हूं जो विभाग को समग्र रूप से स्केल करने की अनुमति देते हैं।

प्रश्न: तो लक्ष्य वैश्विक सूचना प्रभुत्व है? सफल होने के लिए आपको क्या चाहिए?

उत्तर: हम आखिरकार नेटवर्क-केंद्रित युद्ध की ओर बढ़ रहे हैं - सही डेटा को सही समय पर सही जगह पर कैसे पहुंचाया जाए। जरूरतों का एक पदानुक्रम है: सबसे नीचे गुणवत्ता डेटा, बीच में एनालिटिक्स और मेट्रिक्स, शीर्ष पर एआई। इसे काम करने के लिए, सबसे महत्वपूर्ण है उच्च गुणवत्ता वाला डेटा।

प्रश्न: हमें सैन्य अनुप्रयोगों में एआई के उपयोग के बारे में कैसे सोचना चाहिए?

उ: वास्तव में, सभी एआई भविष्य की भविष्यवाणी करने के लिए अतीत की गिनती कर रहे हैं। मैं वास्तव में नहीं सोचता कि एआई की आधुनिक लहर कोई अलग है।

चीन, यूक्रेन

प्रश्न: क्या चीन एआई हथियारों की दौड़ जीत रहा है?

उत्तर: मुझे वह रूपक कुछ हद तक त्रुटिपूर्ण लगता है। जब हमारे पास परमाणु हथियारों की होड़ थी तो यह एक अखंड तकनीक के साथ थी। एआई वह नहीं है. न ही यह कोई भानुमती का पिटारा है। यह प्रौद्योगिकियों का एक सेट है जिसे हम केस-दर-आधार आधार पर लागू करते हैं, अनुभवजन्य रूप से सत्यापित करते हैं कि यह प्रभावी है या नहीं।

प्रश्न: अमेरिकी सेना यूक्रेन की सहायता के लिए एआई तकनीक का उपयोग कर रही है। आप कैसे मदद कर रहे हैं?

उत्तर: सहयोगी दल कैसे सहायता प्रदान करते हैं, इसके लिए एक डेटाबेस बनाने में मदद करने के अलावा हमारी टीम यूक्रेन के साथ शामिल नहीं है। इसे स्काईब्लू कहा जाता है। हम बस यह सुनिश्चित करने में मदद कर रहे हैं कि यह व्यवस्थित रहे।

प्रश्न: स्वायत्त घातक हथियार जैसे हमलावर ड्रोन के बारे में बहुत चर्चा है। आम सहमति यह है कि मनुष्य अंततः एक पर्यवेक्षी भूमिका में सिमट कर रह जाएंगे - मिशनों को रद्द करने में सक्षम होंगे लेकिन अधिकतर हस्तक्षेप नहीं करेंगे। सही लग रहा है?

उत्तर: सेना में हम तब तक एक तकनीक के साथ प्रशिक्षण लेते हैं जब तक हममें उचित आत्मविश्वास विकसित नहीं हो जाता। हम किसी सिस्टम की सीमाओं को समझते हैं, जानते हैं कि यह कब काम करता है और कब नहीं। यह स्वायत्त प्रणालियों को कैसे मैप करता है? मेरी कार ले लो. मुझे इस पर अनुकूली क्रूज़ नियंत्रण पर भरोसा है। दूसरी ओर, जिस तकनीक से इसे लेन बदलने से रोका जाता है, वह भयानक है। इसलिए मुझे उस प्रणाली पर उचित भरोसा नहीं है और मैं उसका उपयोग नहीं करता। इसे सेना तक फैलाएं।

'वफादार विंगमैन'

प्रश्न: वायु सेना के "वफादार विंगमैन" कार्यक्रम के विकास में ड्रोन मनुष्यों द्वारा उड़ाए जाने वाले लड़ाकू विमानों के साथ मिलकर उड़ान भरेंगे। क्या कंप्यूटर विज़न इतना अच्छा है कि दोस्त को दुश्मन से अलग कर सके?

उत्तर: कंप्यूटर विज़न ने पिछले 10 वर्षों में आश्चर्यजनक प्रगति की है। क्या यह किसी विशेष स्थिति में उपयोगी है यह एक अनुभवजन्य प्रश्न है। हमें उस परिशुद्धता को निर्धारित करने की आवश्यकता है जिसे हम उपयोग के मामले में स्वीकार करने और उस मानदंड के विरुद्ध निर्माण करने के इच्छुक हैं - और परीक्षण करें। इसलिए हम सामान्यीकरण नहीं कर सकते। मैं वास्तव में चाहूंगा कि हम प्रौद्योगिकी के बारे में बात करना बंद कर दें और इसके बजाय उन क्षमताओं के बारे में बात करें जो हम चाहते हैं।

प्रश्न: आप वर्तमान में जेनरेटिव एआई और बड़े-भाषा मॉडल का अध्ययन कर रहे हैं। इसका उपयोग रक्षा विभाग में कब किया जा सकता है?

उत्तर: वाणिज्यिक बड़े-भाषा मॉडल निश्चित रूप से सच बताने के लिए बाध्य नहीं हैं, इसलिए मुझे संदेह है। उन्होंने कहा, टास्क फोर्स लीमा (अगस्त में लॉन्च) के माध्यम से हम 160 से अधिक उपयोग के मामलों का अध्ययन कर रहे हैं। हम यह तय करना चाहते हैं कि क्या कम जोखिम वाला और क्या सुरक्षित है।' मैं यहां आधिकारिक नीति निर्धारित नहीं कर रहा हूं, लेकिन आइए परिकल्पना करें।

कम जोखिम कुछ ऐसा हो सकता है जैसे लेखन या कंप्यूटर कोड में पहला ड्राफ्ट तैयार करना। ऐसे मामलों में, मनुष्य संपादित करने जा रहे हैं, या सॉफ़्टवेयर के मामले में, संकलन करेंगे। यह संभावित रूप से सूचना पुनर्प्राप्ति के लिए भी काम कर सकता है - जहां तथ्यों को यह सुनिश्चित करने के लिए मान्य किया जा सकता है कि वे सही हैं।

प्रश्न: एआई के साथ एक बड़ी चुनौती सिस्टम और लेबल डेटा का परीक्षण और मूल्यांकन करने के लिए आवश्यक प्रतिभा को काम पर रखना और बनाए रखना है। एआई डेटा वैज्ञानिक पेंटागन द्वारा पारंपरिक रूप से दिए जाने वाले भुगतान से कहीं अधिक कमाते हैं। यह कितनी बड़ी समस्या है?

उ: यह कीड़ों का एक बड़ा डिब्बा है। हमने अभी-अभी एक डिजिटल प्रतिभा प्रबंधन कार्यालय बनाया है और इस बारे में गहनता से सोच रहे हैं कि नौकरी की भूमिकाओं का एक नया सेट कैसे भरें। उदाहरण के लिए, क्या हमें वास्तव में ऐसे लोगों को नियुक्त करने की ज़रूरत है जो 20-30 वर्षों तक रक्षा विभाग में रहना चाहते हैं? शायद नहीं।

लेकिन क्या होगा यदि हम उन्हें तीन या चार में प्राप्त कर सकें? क्या होगा अगर हमने उनके कॉलेज के लिए भुगतान किया और वे हमें तीन या चार साल के बाद वापस भुगतान कर दें और फिर उस अनुभव के साथ चले जाएं और सिलिकॉन वैली में नौकरी पर रख लें? हम इस तरह रचनात्मक रूप से सोच रहे हैं। उदाहरण के लिए, क्या हम विविधता पाइपलाइन का हिस्सा बन सकते हैं? एचबीसीयू (ऐतिहासिक रूप से काले कॉलेज और विश्वविद्यालय) में भर्ती?

स्पॉट_आईएमजी

नवीनतम खुफिया

स्पॉट_आईएमजी