जेफिरनेट लोगो

बेहतर एआई मॉडल बनाने के लिए "ब्लैक बॉक्स" को खोलना

दिनांक:

जब गहन शिक्षण मॉडल वास्तविक दुनिया में तैनात किए जाते हैं, शायद क्रेडिट कार्ड गतिविधि से वित्तीय धोखाधड़ी का पता लगाने या चिकित्सा छवियों में कैंसर की पहचान करने के लिए, तो वे अक्सर मनुष्यों से बेहतर प्रदर्शन करने में सक्षम होते हैं।

लेकिन वास्तव में ये गहन शिक्षण मॉडल क्या सीख रहे हैं? उदाहरण के लिए, क्या नैदानिक ​​छवियों में त्वचा कैंसर का पता लगाने के लिए प्रशिक्षित मॉडल वास्तव में कैंसरग्रस्त ऊतकों के रंग और बनावट सीखता है, या क्या यह कुछ अन्य विशेषताओं या पैटर्न को चिह्नित कर रहा है?

ये शक्तिशाली मशीन-लर्निंग मॉडल आम तौर पर आधारित होते हैं कृत्रिम तंत्रिका प्रसार इसमें लाखों नोड हो सकते हैं जो पूर्वानुमान लगाने के लिए डेटा को संसाधित करते हैं। उनकी जटिलता के कारण, शोधकर्ता अक्सर इन मॉडलों को "ब्लैक बॉक्स" कहते हैं क्योंकि इन्हें बनाने वाले वैज्ञानिक भी हुड के नीचे चल रही हर चीज़ को नहीं समझते हैं।

स्टेफनी जेगेल्का उस "ब्लैक बॉक्स" स्पष्टीकरण से संतुष्ट नहीं हैं। एमआईटी के इलेक्ट्रिकल इंजीनियरिंग और कंप्यूटर साइंस विभाग में हाल ही में नियुक्त एसोसिएट प्रोफेसर, जेगेलका यह समझने के लिए गहन अध्ययन कर रहे हैं कि ये मॉडल क्या सीख सकते हैं और कैसे व्यवहार करते हैं, और इन मॉडलों में कुछ पूर्व जानकारी कैसे बनाई जा सकती है।

“दिन के अंत में, एक गहन-शिक्षण मॉडल क्या सीखेगा यह कई कारकों पर निर्भर करता है। लेकिन व्यवहार में प्रासंगिक समझ विकसित करने से हमें बेहतर मॉडल डिजाइन करने में मदद मिलेगी, और हमें यह समझने में भी मदद मिलेगी कि उनके अंदर क्या चल रहा है ताकि हम जान सकें कि हम कब एक मॉडल तैनात कर सकते हैं और कब नहीं। यह अत्यंत महत्वपूर्ण है,'' जेगेलका कहते हैं, जो कंप्यूटर साइंस एंड आर्टिफिशियल इंटेलिजेंस लेबोरेटरी (CSAIL) और इंस्टीट्यूट फॉर डेटा, सिस्टम्स एंड सोसाइटी (IDSS) के सदस्य भी हैं।

जब इनपुट डेटा ग्राफ़ के रूप में होता है तो जेगेल्का को मशीन-लर्निंग मॉडल को अनुकूलित करने में विशेष रुचि होती है। ग्राफ़ डेटा विशिष्ट चुनौतियाँ प्रस्तुत करता है: उदाहरण के लिए, डेटा में जानकारी में व्यक्तिगत नोड्स और किनारों के साथ-साथ संरचना - क्या किससे जुड़ा है, दोनों के बारे में जानकारी शामिल होती है। इसके अलावा, ग्राफ़ में गणितीय समरूपताएं होती हैं जिनका मशीन-लर्निंग मॉडल द्वारा सम्मान किया जाना चाहिए ताकि, उदाहरण के लिए, एक ही ग्राफ़ हमेशा एक ही भविष्यवाणी की ओर ले जाए। मशीन-लर्निंग मॉडल में ऐसी समरूपता बनाना आमतौर पर आसान नहीं होता है।

उदाहरण के लिए, अणुओं को लें। अणुओं को ग्राफ़ के रूप में दर्शाया जा सकता है, शीर्ष परमाणुओं के अनुरूप होते हैं और किनारे उनके बीच रासायनिक बंधनों के अनुरूप होते हैं। दवा कंपनियाँ कई अणुओं के गुणों का तेजी से अनुमान लगाने के लिए गहन शिक्षण का उपयोग करना चाह सकती हैं, जिससे प्रयोगशाला में भौतिक रूप से परीक्षण की जाने वाली संख्या को कम किया जा सके।

जेगेलका गणितीय मशीन-लर्निंग मॉडल बनाने के तरीकों का अध्ययन करता है जो ग्राफ़ डेटा को इनपुट के रूप में प्रभावी ढंग से ले सकता है और कुछ और आउटपुट कर सकता है, इस मामले में एक अणु के रासायनिक गुणों की भविष्यवाणी। यह विशेष रूप से चुनौतीपूर्ण है क्योंकि किसी अणु के गुण न केवल उसके भीतर के परमाणुओं से निर्धारित होते हैं, बल्कि उनके बीच के संबंधों से भी निर्धारित होते हैं।  

ग्राफ़ पर मशीन लर्निंग के अन्य उदाहरणों में ट्रैफ़िक रूटिंग, चिप डिज़ाइन और अनुशंसा प्रणाली शामिल हैं।

इन मॉडलों को डिज़ाइन करना इस तथ्य से और भी कठिन हो गया है कि उन्हें प्रशिक्षित करने के लिए उपयोग किया जाने वाला डेटा अक्सर मॉडल द्वारा व्यवहार में देखे जाने वाले डेटा से भिन्न होता है। शायद मॉडल को छोटे आणविक ग्राफ़ या ट्रैफ़िक नेटवर्क का उपयोग करके प्रशिक्षित किया गया था, लेकिन एक बार तैनात होने पर जो ग्राफ़ दिखाई देता है वह बड़े या अधिक जटिल होते हैं।

इस मामले में, शोधकर्ता इस मॉडल से क्या सीखने की उम्मीद कर सकते हैं, और क्या वास्तविक दुनिया का डेटा अलग होने पर भी यह व्यवहार में काम करेगा?

जेगेलका कहते हैं, "कंप्यूटर विज्ञान में कुछ कठोरता समस्याओं के कारण आपका मॉडल सब कुछ सीखने में सक्षम नहीं होगा, लेकिन आप क्या सीख सकते हैं और क्या नहीं सीख सकते हैं, यह इस बात पर निर्भर करता है कि आप मॉडल को कैसे सेट करते हैं।"

वह मशीन लर्निंग के प्रति अपने उत्साह के साथ एल्गोरिदम और अलग गणित के प्रति अपने जुनून को जोड़कर इस प्रश्न पर पहुंचती है।

तितलियों से लेकर जैव सूचना विज्ञान तक

जेगेल्का जर्मनी के एक छोटे से शहर में पली-बढ़ीं और जब वह हाई स्कूल की छात्रा थीं, तब उन्हें विज्ञान में रुचि हो गई; एक सहायक शिक्षक ने उसे एक अंतर्राष्ट्रीय विज्ञान प्रतियोगिता में भाग लेने के लिए प्रोत्साहित किया। उन्होंने और अमेरिका और सिंगापुर के उनके साथियों ने तितलियों के बारे में तीन भाषाओं में बनाई गई वेबसाइट के लिए पुरस्कार जीता।

“हमारे प्रोजेक्ट के लिए, हमने एप्लाइड साइंसेज के एक स्थानीय विश्वविद्यालय में स्कैनिंग इलेक्ट्रॉन माइक्रोस्कोप के साथ पंखों की छवियां लीं। मुझे मर्सिडीज बेंज में एक हाई-स्पीड कैमरे का उपयोग करने का अवसर भी मिला - यह कैमरा आमतौर पर दहन इंजनों को फिल्माता था - जिसका उपयोग मैं तितली के पंखों की गति का धीमी गति वाला वीडियो कैप्चर करने के लिए करता था। वह पहली बार था जब मैं वास्तव में विज्ञान और अन्वेषण के संपर्क में आई,” वह याद करती हैं।

जीवविज्ञान और गणित दोनों में रुचि रखते हुए, जेगेलका ने ऑस्टिन में ट्यूबिंगन विश्वविद्यालय और टेक्सास विश्वविद्यालय में जैव सूचना विज्ञान का अध्ययन करने का निर्णय लिया। उनके पास स्नातक के रूप में अनुसंधान करने के कुछ अवसर थे, जिसमें जॉर्जटाउन विश्वविद्यालय में कम्प्यूटेशनल न्यूरोसाइंस में इंटर्नशिप भी शामिल थी, लेकिन वह निश्चित नहीं थीं कि कौन सा करियर अपनाया जाए।

जब वह कॉलेज के अपने अंतिम वर्ष के लिए लौटी, तो जेगेल्का दो रूममेट्स के साथ रहने लगी, जो टुबिंगन में मैक्स प्लैंक इंस्टीट्यूट में शोध सहायक के रूप में काम कर रहे थे।

“वे मशीन लर्निंग पर काम कर रहे थे, और यह मुझे वास्तव में अच्छा लग रहा था। मुझे अपनी स्नातक की थीसिस लिखनी थी, इसलिए मैंने संस्थान में पूछा कि क्या उनके पास मेरे लिए कोई प्रोजेक्ट है। मैंने मैक्स प्लैंक इंस्टीट्यूट में मशीन लर्निंग पर काम करना शुरू किया और मुझे यह पसंद आया। मैंने वहां बहुत कुछ सीखा, और यह शोध के लिए एक बेहतरीन जगह थी,'' वह कहती हैं।

मास्टर की थीसिस पूरी करने के लिए वह मैक्स प्लैंक इंस्टीट्यूट में रहीं और फिर मैक्स प्लैंक इंस्टीट्यूट और स्विस फेडरल इंस्टीट्यूट ऑफ टेक्नोलॉजी से मशीन लर्निंग में पीएचडी की उपाधि प्राप्त की।.

अपनी पीएचडी के दौरान, उन्होंने पता लगाया कि कैसे अलग-अलग गणित की अवधारणाएं मशीन-लर्निंग तकनीकों को बेहतर बनाने में मदद कर सकती हैं।

सीखने के लिए मॉडल सिखाना

जेगेलका ने मशीन लर्निंग के बारे में जितना अधिक सीखा, मॉडल कैसे व्यवहार करते हैं, और इस व्यवहार को कैसे नियंत्रित किया जाए, यह समझने की चुनौतियों से वह उतनी ही अधिक उत्सुक होती गईं।

“आप मशीन लर्निंग के साथ बहुत कुछ कर सकते हैं, लेकिन केवल तभी जब आपके पास सही मॉडल और डेटा हो। यह सिर्फ एक ब्लैक-बॉक्स चीज़ नहीं है जहां आप इसे डेटा पर फेंकते हैं और यह काम करता है। आपको वास्तव में इसके बारे में, इसके गुणों के बारे में सोचना होगा और आप मॉडल से क्या सीखना और कराना चाहते हैं,'' वह कहती हैं।

बर्कले में कैलिफोर्निया विश्वविद्यालय में पोस्टडॉक पूरा करने के बाद, जेगेलका को अनुसंधान की ओर आकर्षित किया गया और उन्होंने शिक्षा जगत में अपना करियर बनाने का फैसला किया। वह 2015 में सहायक प्रोफेसर के रूप में एमआईटी में संकाय में शामिल हुईं।

“शुरू से ही मुझे एमआईटी के बारे में जो बात पसंद थी, वह यह थी कि लोग वास्तव में अनुसंधान और रचनात्मकता की बहुत परवाह करते हैं। एमआईटी के बारे में मैं इसी बात की सबसे अधिक सराहना करता हूं। यहां के लोग वास्तव में शोध में मौलिकता और गहराई को महत्व देते हैं,'' वह कहती हैं।

रचनात्मकता पर ध्यान केंद्रित करने से जेगेल्का को विषयों की एक विस्तृत श्रृंखला का पता लगाने में मदद मिली है।

एमआईटी में अन्य संकाय के सहयोग से, वह जीव विज्ञान, इमेजिंग, कंप्यूटर दृष्टि और सामग्री विज्ञान में मशीन-लर्निंग अनुप्रयोगों का अध्ययन करती है।

लेकिन जेगेलका को वास्तव में मशीन लर्निंग के बुनियादी सिद्धांतों और हाल ही में मजबूती के मुद्दे की जांच करने के लिए प्रेरित किया गया है। अक्सर, एक मॉडल प्रशिक्षण डेटा पर अच्छा प्रदर्शन करता है, लेकिन जब इसे थोड़े अलग डेटा पर तैनात किया जाता है तो इसका प्रदर्शन खराब हो जाता है। वह कहती हैं कि किसी मॉडल में पूर्व ज्ञान का निर्माण उसे और अधिक विश्वसनीय बना सकता है, लेकिन यह समझना कि मॉडल को सफल होने के लिए किस जानकारी की आवश्यकता है और इसे कैसे बनाया जाए, इतना आसान नहीं है।

वह छवि वर्गीकरण के लिए मशीन-लर्निंग मॉडल के प्रदर्शन को बेहतर बनाने के तरीकों की भी खोज कर रही है।

छवि वर्गीकरण मॉडल हर जगह मौजूद हैं, मोबाइल फोन पर चेहरे की पहचान प्रणाली से लेकर सोशल मीडिया पर नकली खातों की पहचान करने वाले उपकरण तक। इन मॉडलों को प्रशिक्षण के लिए भारी मात्रा में डेटा की आवश्यकता होती है, लेकिन चूंकि मनुष्यों के लिए लाखों छवियों को हाथ से लेबल करना महंगा है, इसलिए शोधकर्ता अक्सर मॉडलों को पूर्व-प्रशिक्षित करने के लिए बिना लेबल वाले डेटासेट का उपयोग करते हैं।

ये मॉडल तब सीखे गए अभ्यावेदन का पुन: उपयोग करते हैं जब उन्हें बाद में किसी विशिष्ट कार्य के लिए ठीक किया जाता है।

आदर्श रूप से, शोधकर्ता चाहते हैं कि मॉडल प्रीट्रेनिंग के दौरान जितना संभव हो उतना सीखे, ताकि वह उस ज्ञान को अपने डाउनस्ट्रीम कार्य में लागू कर सके। लेकिन व्यवहार में, ये मॉडल अक्सर केवल कुछ सरल सहसंबंध सीखते हैं - जैसे कि एक छवि में धूप है और एक में छाया है - और छवियों को वर्गीकृत करने के लिए इन "शॉर्टकट" का उपयोग करते हैं।

“हमने दिखाया कि यह 'विपरीत शिक्षण' में एक समस्या है, जो सैद्धांतिक और अनुभवजन्य रूप से, पूर्व-प्रशिक्षण के लिए एक मानक तकनीक है। लेकिन हम यह भी दिखाते हैं कि आप मॉडल को दिखाए जाने वाले डेटा के प्रकारों को संशोधित करके उस प्रकार की जानकारी को प्रभावित कर सकते हैं जिसे मॉडल प्रस्तुत करना सीखेगा। यह समझने की दिशा में एक कदम है कि मॉडल वास्तव में व्यवहार में क्या करने जा रहे हैं," वह कहती हैं।

शोधकर्ता अभी भी गहन-शिक्षण मॉडल के अंदर होने वाली हर चीज़ को नहीं समझते हैं, या इस बारे में विवरण नहीं देते हैं कि वे एक मॉडल जो सीखता है और वह कैसे व्यवहार करता है उसे कैसे प्रभावित कर सकते हैं, लेकिन जेगेलका इन विषयों की खोज जारी रखने के लिए तत्पर हैं।

“अक्सर मशीन लर्निंग में, हम व्यवहार में कुछ घटित होते देखते हैं और हम इसे सैद्धांतिक रूप से समझने की कोशिश करते हैं। यह एक बहुत बड़ी चुनौती है. आप एक ऐसी समझ बनाना चाहते हैं जो अभ्यास में आप जो देखते हैं उससे मेल खाती हो, ताकि आप बेहतर कर सकें। हम अभी भी इसे समझने की शुरुआत में हैं,” वह कहती हैं।

लैब के बाहर, जेगेल्का संगीत, कला, यात्रा और साइकिल चलाने की प्रशंसक हैं। लेकिन इन दिनों, वह अपना अधिकांश खाली समय अपनी पूर्वस्कूली उम्र की बेटी के साथ बिताना पसंद करती है।

<!–
->

स्पॉट_आईएमजी

नवीनतम खुफिया

स्पॉट_आईएमजी