Zephyrnet Logosu

Sarılma Yüzünde 100'den Fazla Kötü Amaçlı Kod Yürütme Modeli

Tarih:

Araştırmacılar, Hugging Face AI platformunda, saldırganların kullanıcı makinelerine kötü amaçlı kod yerleştirmesine olanak tanıyan 100'den fazla kötü amaçlı makine öğrenimi (ML) modelini ortaya çıkardı.

Her ne kadar Hugging Face güvenlik önlemleri alsa da bulgular, saldırganlar için bir arka kapı oluşturabileceği için halka açık modellerin "silah haline getirilmesi" riskinin arttığını ortaya koyuyor.

JFrog Güvenlik Araştırması'nın bulguları, bilgisayar korsanlarının kullanıcılara saldırmak için makine öğrenimini nasıl kullanabileceğini analiz etmeye yönelik devam eden bir çalışmanın parçasını oluşturuyor.

Zararlı içerik

Tarafından bir makaleye göre Bilgisayarile araştırmacılar, Hugging Face AI platformunda barındırılan PyTorch ve Tensorflow Keras gibi modelleri incelemek için gelişmiş bir tarama sistemi geliştirdiler.

Hugging Face, yapay zeka modellerini, veri kümelerini ve uygulamalarını paylaşmak için geliştirilmiş bir platformdur. Modelleri analiz ettikten sonra araştırmacılar, "zararsız görünen modellerin içindeki" zararlı yükleri keşfettiler.

Bu, Hugging Face'in kötü amaçlı yazılım ve turşu taraması gibi güvenlik önlemleri almasına rağmen. Ancak platform, potansiyel olarak zararlı olabilecek modellerin indirilmesini kısıtlamamakta ve aynı zamanda kamuya açık hale getirilmesine olanak tanımaktadır. AI modelleri kullanıcılar tarafından istismar edilecek ve silah haline getirilecek.

JFrog'un güvenlik araştırmacıları, platformu ve mevcut modelleri incelerken kötü amaçlı işlevlere sahip yaklaşık 100 yapay zeka modeli keşfetti. rapor.

Rapor, bu modellerden bazılarının kullanıcıların makinelerinde kod çalıştırabildiğini ve "böylece saldırganlar için kalıcı bir arka kapı oluşturduğunu" belirtiyor.

Araştırmacılar ayrıca bu tür bulguların yanlış pozitifleri hariç tuttuğunu da belirtti. Bunların, platformdaki kötü amaçlı modellerin yaygınlığının doğru bir temsili olduğunu söylediler.

Ayrıca okuyun: Apple, Otomobil Ekibini Yapay Zeka EV Sonrası Pazar Yavaşlamasına Yönlendiriyor

Örnekler

JFrog'un raporuna göre "endişe verici" vakalardan biri, PyTorch modeli. Modelin "baller423" olarak tanımlanan bir kullanıcı tarafından yüklendiği ve daha sonra Hugging Face platformundan silindiği bildirildi.

Modeli daha ayrıntılı olarak incelediklerinde araştırmacılar, modelin belirli bir ana bilgisayar (210.117.212.93) üzerinde ters kabuk oluşturmasına olanak tanıyan kötü amaçlı bir veri içerdiğini fark ettiler.

JFrog kıdemli güvenlik araştırmacısı David Cohen şunları söyledi: "(Bu) özellikle daha müdahaleci ve potansiyel olarak kötü niyetliharici bir sunucuya doğrudan bağlantı kurduğundan, yalnızca bir güvenlik açığının gösterilmesinden ziyade potansiyel bir güvenlik tehdidine işaret ediyor" diye yazdı.

Bu, "Python'un pickle modülünün '_reduce_' yönteminden yararlanarak, geleneksel tespit yöntemlerini etkili bir şekilde atlayarak, model dosyasını yükledikten sonra isteğe bağlı kod yürütmek için."

Araştırmacılar ayrıca aynı veri yükünün farklı IP adreslerine bağlantılar oluşturduğunu da fark etti; bu da "operatörlerin kötü niyetli bilgisayar korsanlarından çok araştırmacılar olabileceğini düşündürüyor."

Uyandırma servisi

JFrog ekibi, bulguların Hugging Face için bir uyandırma çağrısı olduğunu ve platformun manipülasyona ve potansiyel tehditlere yatkın olduğunu gösterdiğini belirtti.

"Bu olaylar, Hugging Face veri havuzlarının ve Kaggle gibi diğer popüler veri depolarının karşı karşıya olduğu, AI/ML mühendisleri için zorluklar yaratmanın yanı sıra bu kaynakları kullanan kuruluşların gizliliğini ve güvenliğini potansiyel olarak tehlikeye atabilecek devam eden tehditlerin dokunaklı bir hatırlatıcısı olarak hizmet ediyor" dedi. araştırmacılar.

Bu geliyor siber güvenlik tehditleri Yapay zeka araçlarının yaygınlaşmasıyla birlikte, kötü aktörlerin bunları kötü niyetlerle suistimal etmesiyle dünya çapında artış yaşanıyor. Bilgisayar korsanları, kimlik avı saldırılarını ilerletmek ve insanları kandırmak için de yapay zekayı kullanıyor.

Ancak JFrog ekibi başka keşifler de yaptı.

Araştırmacılar için oyun alanı

Araştırmacılar şunu da kaydetti: Sarılma Yüz "güvenlik önlemlerini aşmak için kullanılan çeşitli taktiklerin de gösterdiği gibi, ortaya çıkan tehditlerle mücadele etmek isteyen" araştırmacılar için bir oyun alanına dönüştü.

Örneğin, “baller423” tarafından yüklenen veri, Kreonet'e (Kore Araştırma Ortamı Açık Ağı) ait bir IP adres aralığına ters kabuk bağlantısı başlattı.

Göre Karanlık Okuma, Kreonet, Güney Kore'de ileri düzey araştırma ve eğitim faaliyetlerini destekleyen yüksek hızlı bir ağdır; "Bu nedenle modelin arkasında yapay zeka araştırmacılarının veya uygulayıcılarının olması mümkün."

Cohen, "'Kötü amaçlı' yüklerin çoğunun aslında araştırmacıların ve/veya hata ödüllerinin görünürde meşru amaçlarla kod çalıştırma girişimleri olduğunu görebiliyoruz" dedi.

Meşru amaçlara rağmen JFrog ekibi, araştırmacılar tarafından kullanılan stratejilerin, Hugging Face gibi platformların tedarik zinciri saldırılarına açık olduğunu açıkça gösterdiği konusunda uyardı. Ekibe göre bunlar, yapay zeka veya makine öğrenimi mühendisleri gibi belirli demografik özelliklere odaklanacak şekilde özelleştirilebilir.

spot_img

En Son İstihbarat

spot_img