जेफिरनेट लोगो

क्रिटिकल बग्स ने हगिंग फेस एआई प्लेटफॉर्म को 'अचार' में डाल दिया

दिनांक:

हगिंग फेस एआई प्लेटफॉर्म में दो महत्वपूर्ण सुरक्षा कमजोरियों ने ग्राहक डेटा और मॉडलों तक पहुंचने और उन्हें बदलने की चाहत रखने वाले हमलावरों के लिए दरवाजा खोल दिया।

सुरक्षा कमजोरियों में से एक ने हमलावरों को हगिंग फेस प्लेटफॉर्म पर अन्य ग्राहकों से संबंधित मशीन लर्निंग (एमएल) मॉडल तक पहुंचने का एक तरीका दिया, और दूसरे ने उन्हें एक साझा कंटेनर रजिस्ट्री में सभी छवियों को ओवरराइट करने की अनुमति दी। विज़ के शोधकर्ताओं द्वारा खोजी गई दोनों खामियां हमलावरों की हगिंग फेस के अनुमान बुनियादी ढांचे के कुछ हिस्सों पर कब्ज़ा करने की क्षमता से संबंधित थीं।

विज़ के शोधकर्ताओं ने तीन विशिष्ट घटकों में कमज़ोरियाँ पाईं: हगिंग फेस का इंफ़रेंस एपीआई, जो उपयोगकर्ताओं को प्लेटफ़ॉर्म पर उपलब्ध मॉडलों को ब्राउज़ करने और उनके साथ बातचीत करने की अनुमति देता है; हगिंग फेस इंफ़रेंस एंडपॉइंट्स - या उत्पादन में एआई मॉडल को तैनात करने के लिए समर्पित बुनियादी ढांचा; और हगिंग फेस स्पेसेस, एआई/एमएल अनुप्रयोगों को प्रदर्शित करने या मॉडल विकास पर सहयोगात्मक रूप से काम करने के लिए एक होस्टिंग सेवा।

अचार की समस्या

हगिंग फेस के बुनियादी ढांचे और उनके द्वारा खोजे गए बगों को हथियार बनाने के तरीकों की जांच में, विज़ शोधकर्ताओं ने पाया कि कोई भी आसानी से एआई/एमएल मॉडल को प्लेटफॉर्म पर अपलोड कर सकता है, जिसमें पिकल प्रारूप पर आधारित मॉडल भी शामिल हैं। अचार फ़ाइल में पायथन ऑब्जेक्ट्स को संग्रहीत करने के लिए व्यापक रूप से उपयोग किया जाने वाला मॉड्यूल है। हालाँकि स्वयं पायथन सॉफ़्टवेयर फ़ाउंडेशन ने भी पिकल को असुरक्षित माना है, लेकिन यह अपने उपयोग में आसानी और लोगों की इससे परिचितता के कारण लोकप्रिय बना हुआ है।

विज़ के अनुसार, "पाइटोरच (अचार) मॉडल तैयार करना अपेक्षाकृत सरल है जो लोड होने पर मनमाना कोड निष्पादित करेगा।"

विज़ शोधकर्ताओं ने हगिंग फेस पर एक निजी अचार-आधारित मॉडल अपलोड करने की क्षमता का लाभ उठाया जो लोड होने पर एक रिवर्स शेल चलाएगा। फिर उन्होंने शेल-जैसी कार्यक्षमता प्राप्त करने के लिए इंफ़रेंस एपीआई का उपयोग करके इसके साथ बातचीत की, जिसका उपयोग शोधकर्ताओं ने हगिंग फेस के बुनियादी ढांचे पर अपने पर्यावरण का पता लगाने के लिए किया।

उस अभ्यास ने शोधकर्ताओं को तुरंत दिखाया कि उनका मॉडल अमेज़ॅन इलास्टिक कुबेरनेट्स सर्विस (ईकेएस) पर एक क्लस्टर में पॉड में चल रहा था। वहां से शोधकर्ता जानकारी निकालने के लिए सामान्य गलत कॉन्फ़िगरेशन का लाभ उठाने में सक्षम थे, जिससे उन्हें उन रहस्यों को देखने के लिए आवश्यक विशेषाधिकार प्राप्त करने की अनुमति मिली जो उन्हें साझा बुनियादी ढांचे पर अन्य किरायेदारों तक पहुंचने की अनुमति दे सकते थे।

हगिंग फेस स्पेस के साथ, विज़ ने पाया कि एक हमलावर एप्लिकेशन निर्माण समय के दौरान मनमाना कोड निष्पादित कर सकता है जो उन्हें अपनी मशीन से नेटवर्क कनेक्शन की जांच करने देगा। उनकी समीक्षा में एक साझा कंटेनर रजिस्ट्री से एक कनेक्शन दिखाया गया जिसमें अन्य ग्राहकों से संबंधित छवियां थीं जिनके साथ वे छेड़छाड़ कर सकते थे।

“गलत हाथों में, आंतरिक कंटेनर रजिस्ट्री को लिखने की क्षमता प्लेटफ़ॉर्म की अखंडता के लिए महत्वपूर्ण प्रभाव डाल सकती है और ग्राहकों के स्थानों पर आपूर्ति श्रृंखला हमलों का कारण बन सकती है,” विज़ ने कहा।

चेहरे को गले लगाते हुए कहा इसने विज़ द्वारा खोजे गए जोखिमों को पूरी तरह से कम कर दिया था। इस बीच कंपनी ने इन मुद्दों की पहचान कम से कम आंशिक रूप से हगिंग फेस प्लेटफ़ॉर्म पर पिकल फ़ाइलों के उपयोग की अनुमति जारी रखने के अपने निर्णय से की, ऐसी फ़ाइलों से जुड़े उपर्युक्त अच्छी तरह से प्रलेखित सुरक्षा जोखिमों के बावजूद।  

कंपनी ने कहा, "हगिंग फेस के बारे में विज़ और सुरक्षा शोधकर्ताओं द्वारा किए गए अधिकांश शोधों और अन्य हालिया प्रकाशनों के मूल में पिकल फ़ाइलें रही हैं।" हगिंग फेस पर अचार के उपयोग की अनुमति देना "हमारी इंजीनियरिंग और सुरक्षा टीमों पर एक बोझ है और हमने एआई समुदाय को उनके द्वारा चुने गए टूल का उपयोग करने की अनुमति देते हुए जोखिमों को कम करने के लिए महत्वपूर्ण प्रयास किए हैं।"

एआई-ए-ए-सर्विस के साथ उभरते जोखिम

विज़ ने इसकी खोज का वर्णन किया नए एआई मॉडल और अनुप्रयोगों को होस्ट करने, चलाने और विकसित करने के लिए साझा बुनियादी ढांचे का उपयोग करते समय संगठनों को उन जोखिमों के बारे में जागरूक होने की आवश्यकता होती है, जिसे "एआई-ए-ए-सर्विस" के रूप में जाना जाता है। कंपनी ने उन जोखिमों और उनसे जुड़े शमनों की तुलना उन जोखिमों और उनसे जुड़े शमन उपायों से की जिनका सामना संगठन सार्वजनिक क्लाउड परिवेश में करते हैं और सिफारिश की है कि वे एआई परिवेश में भी वही शमन उपाय लागू करें।

विज़ ने इस सप्ताह एक ब्लॉग में कहा, "संगठनों को यह सुनिश्चित करना चाहिए कि उनके पास उपयोग किए जा रहे संपूर्ण एआई स्टैक की दृश्यता और शासन हो और सभी जोखिमों का सावधानीपूर्वक विश्लेषण करें।" इसमें "के उपयोग" का विश्लेषण शामिल है दुर्भावनापूर्ण मॉडल, प्रशिक्षण डेटा का प्रदर्शन, प्रशिक्षण में संवेदनशील डेटा, कमजोरियों एआई एसडीके में, एआई सेवाओं का एक्सपोजर, और अन्य विषाक्त जोखिम संयोजन जिनका हमलावरों द्वारा फायदा उठाया जा सकता है, ”सुरक्षा विक्रेता ने कहा।

साल्ट सिक्योरिटी में साइबर सुरक्षा रणनीति के निदेशक एरिक श्वाके का कहना है कि एआई-ए-ए-सर्विस के उपयोग से संबंधित दो प्रमुख मुद्दे हैं जिनके बारे में संगठनों को जागरूक होने की आवश्यकता है। "सबसे पहले, खतरे वाले अभिनेता हानिकारक एआई मॉडल अपलोड कर सकते हैं या डेटा चोरी करने या परिणामों में हेरफेर करने के लिए अनुमान स्टैक में कमजोरियों का फायदा उठा सकते हैं," वे कहते हैं। "दूसरा, दुर्भावनापूर्ण अभिनेता प्रशिक्षण डेटा से समझौता करने का प्रयास कर सकते हैं, जिससे पक्षपाती या गलत एआई आउटपुट हो सकते हैं, जिसे आमतौर पर डेटा पॉइज़निंग के रूप में जाना जाता है।"

उनका कहना है कि इन मुद्दों की पहचान करना चुनौतीपूर्ण हो सकता है, खासकर जब एआई मॉडल कितने जटिल होते जा रहे हैं। इस जोखिम को प्रबंधित करने में मदद के लिए संगठनों के लिए यह समझना महत्वपूर्ण है कि उनके एआई ऐप्स और मॉडल एपीआई के साथ कैसे इंटरैक्ट करते हैं और इसे सुरक्षित करने के तरीके ढूंढते हैं। “संगठन भी अन्वेषण करना चाह सकते हैं व्याख्या करने योग्य एआई (एक्सएआई) एआई मॉडल को अधिक समझने योग्य बनाने में मदद करने के लिए," श्वाके कहते हैं, "और यह एआई मॉडल के भीतर पूर्वाग्रह या जोखिम को पहचानने और कम करने में मदद कर सकता है।"

स्पॉट_आईएमजी

नवीनतम खुफिया

स्पॉट_आईएमजी