Zephyrnet Logosu

Güvenliği AI/ML Sistemlerini Korumak İçin Uyarlama

Tarih:

Yapay zeka (AI) yalnızca iş dünyasının en yeni moda sözcüğü değil; endüstrileri hızla yeniden şekillendiriyor ve iş süreçlerini yeniden tanımlıyor. Ancak şirketler yapay zeka ve makine öğrenimini (ML) operasyonlarının her yönüne entegre etmek için yarışırken, aynı zamanda yeni güvenlik ve risk zorlukları. Rekabet avantajı elde etmek için çevik geliştirme uygulamalarına odaklanıldığında güvenlik ikinci planda kalıyor. World Wide Web'in ve mobil uygulamaların ilk günlerinde durum böyleydi ve yapay zekaya geçiş sürecinde de bunu tekrar görüyoruz.

Yapay zeka ve makine öğrenimi sistemlerinin oluşturulma, eğitilme ve işletilme şekli, geleneksel BT sistemlerinin, web sitelerinin veya uygulamaların geliştirme sürecinden önemli ölçüde farklıdır. Geleneksel BT güvenliğinde geçerli olan bazı riskler AI/ML'de de geçerli olmaya devam ederken, birkaç önemli ve zorlayıcı farklılık. Veritabanına dayanan bir Web uygulamasının aksine, AI uygulamaları makine öğrenimi modelleri tarafından desteklenir. Bir model oluşturma süreci, verilerin toplanmasını, arındırılmasını ve hassaslaştırılmasını içerir; veriler üzerinde ML modellerinin eğitimi; daha sonra çıkarımlar yapmak ve öğrendiklerini temel alarak yinelemek için bu modelleri geniş ölçekte çalıştırıyoruz.

Geleneksel yazılım ve AI/ML geliştirmenin birbirinden ayrıldığı dört ana alan vardır. Bunlar sırasıyla değişen durumlara karşı dinamik durumlar, kurallar ve terimlere karşı kullanım ve girdi, proxy ortamları ve canlı sistemler ve sürüm kontrolüne karşı kaynak değişiklikleridir.

Açık kaynaklı AI/ML araçları gibi ML akışı ve ışın, model oluşturmak için uygun çerçeveler sağlar. Ancak bu açık kaynaklı yazılım (OSS) araçlarının ve çerçevelerinin birçoğu, ciddi istismara ve zarara yol açabilecek kullanıma hazır güvenlik açıklarından muzdariptir. Bireysel olarak AI/ML kitaplıkları, yalnızca kaydedildikleri AI/ML aracı kadar güvenli olan çok büyük miktarlarda veri ve modeller içerdiklerinden çok daha büyük bir saldırı yüzeyi oluşturur. Bu araçların güvenliği ihlal edilirse, saldırganlar birden çok şeye erişebilir. veritabanlarındaki gizli bilgileri yok edin, modelleri değiştirin ve kötü amaçlı yazılım yerleştirin.

AI/ML için Tasarımdan Gelen Güvenlik

Geleneksel BT güvenliği, AI/ML sistemlerini korumaya yönelik çeşitli temel yeteneklerden yoksundur. Bunlardan ilki, veri bilimcileri tarafından AI/ML sistemlerinin yapı taşlarını geliştirmek için kullanılan araçları tarama yeteneğidir. Jupyter Dizüstü Bilgisayarlar ve diğer Aletler AI/ML tedarik zincirinde güvenlik açıkları için.

Veri koruması, BT güvenliğinin merkezi bir bileşeni olsa da, bir modeli eğitmek için sürekli olarak canlı veriler kullanıldığından AI/ML'de daha fazla önem kazanır. Bu, bir saldırganın AI/ML verilerini manipüle etmesine kapıları açık bırakır ve modellerin bozulmasına ve amaçlanan işlevleri yerine getirmemesine neden olabilir.

AI/ML ortamlarında veri koruması, verileri modele bağlayan değişmez bir kaydın oluşturulmasını gerektirir. Bu nedenle, veriler herhangi bir şekilde değiştirilirse veya değiştirilirse, modeli yeniden eğitmek isteyen kullanıcı, karma değerlerinin (iletim sırasında verinin bütünlüğünü sağlamak için kullanılan) eşleşmediğini görecektir. Bu denetim izi, bir ihlal olup olmadığını belirlemek için veri dosyasının ne zaman düzenlendiğini ve bu verilerin nerede saklandığını izlemek için bir kayıt oluşturur.

Ek olarak, komut ekleme gibi güvenlik tehditlerini tespit etmek için AI/ML modellerinin taranması gerekir. Bunun nedeni, modelin bellekte yaşayan bir varlık olmasıdır, ancak diske kaydedildiğinde (iş arkadaşlarına dağıtılmak üzere), formatın içine kod enjekte edilebilir. Yani model tam olarak daha önce olduğu gibi çalışmaya devam ederken rastgele kod çalıştıracaktır.

Bu benzersiz zorluklar göz önüne alındığında, dikkate alınması gereken birkaç yararlı en iyi uygulamayı burada bulabilirsiniz:

  • Güvenlik açıklarına yönelik bağımlılıkları bulun: Bağlamsallaştırılmış görünürlük ve güçlü sorgu araçları, tüm makine öğrenimi sistemlerinin gerçek zamanlı olarak geniş kapsamlı bir görünümünü oluşturabilir. Tüm bağımlılıkların ve tehditlerin bir görünümünü sağlamak için AI/ML geliştirmede yer alan tüm satıcıları, bulut sağlayıcıları ve tedarik zinciri kaynaklarını kapsamalıdır. Dinamik bir ML malzeme listesi (ML BOM), tüm bileşenleri ve bağımlılıkları listeleyebilir ve kuruluşa ağdaki tüm AI/ML sistemlerinin tam kaynağını verebilir.

  • Güvenli bulut izinleri: Modelin öğrenme için bu verilere bağlı olduğu göz önüne alındığında, veri sızdıran bulut kapları yapay zeka güvenliğinde ölümcül bir kusur olabilir. Veri kaybını önlemek için buluttaki tarama izinleri bir önceliktir.

  • Veri depolama güvenliğine öncelik verin: Model güvenliğini uygulamak amacıyla politika ihlallerini otomatik olarak raporlamak ve uyarıda bulunmak için entegre güvenlik kontrolleri, politikalar ve geçitler uygulayın.

  • Tarama geliştirme araçları: Geliştirme operasyonlarının geliştirme güvenliği operasyonlarına dönüşmesi gibi, AI/ML geliştirmenin de geliştirme sürecine güvenliği dahil etmesi, tüm AI/ML modelleri ve veri girişleriyle birlikte ML Flow gibi geliştirme ortamlarını ve araçlarını ve bunların bağımlılıklarını herhangi bir güvenlik açığına karşı taraması gerekir.

  • Düzenli olarak denetleyin: Otomatik araçlar, AI/ML ortamının zaman damgalı versiyonları olarak hizmet veren gerekli değişmez defterleri sağlayabilir. Bu, bir ihlal durumunda, politikayı kimin, nerede ve ne zaman ihlal ettiğini gösteren adli tıp analizini destekleyecektir. Ayrıca denetimler, tehdit ortamıyla başa çıkmak için korumaların güncellenmesine yardımcı olabilir.

Yapay zekanın potansiyelinden yararlanmak ve aynı zamanda doğal güvenlik risklerini ele almak için kuruluşlar yukarıda listelenen en iyi uygulamaları uygulamayı düşünmeli ve uygulamaya başlamalıdır. MLSecOps.

spot_img

En Son İstihbarat

spot_img