Zephyrnet Logosu

Microsoft, Azure AI için bu güvenlik araçlarını kullanıma sunuyor

Tarih:

Microsoft, AI modellerinin Azure'da kullanımını daha güvenli hale getirmeye yardımcı olduğu iddia edilen bir dizi araç tanıttı.

Bulut ve kod sektörü, OpenAI'ye fon akıtmaya ve yazılım imparatorluğuna chatbot yetenekleri aşılamaya başladığından beri (üretkenliğe ilişkin görkemli vaatler arasında rakipler tarafından da aynı hararetle canlandırılan bir drama), Microsoft, üretken yapay zekanın risklerle birlikte geldiğini kabul etmek zorunda kaldı.

The tehlikeleri yaygın olarak biliniyor ve bazen kaygısızca bir kenara itiliyor. On yıl önce Elon Musk, yapay zekanın sadece insanlığı yok etmek. Ancak bu endişe onu yapay zekayı kullanıma sunmaktan alıkoymadı arabalar, onun üstünde sosyal medya megafonuve belki yakında robotlar.

Halüsinasyon yaratan ve yanlış ya da zararlı yanıtlar sunan büyük dil modellerinin ortaya çıkışı, çizim tahtasına geri dönüşe, ancak daha fazla finansman için toplantı odasına dönüşe yol açtı. Teknoloji endüstrisi, güvenli, etik bir ürün üretmek yerine, vahşi modelleri evcilleştirmeye veya en azından onları, kimseye zarar vermeden ortalığı karıştırabilecek müşterilerden yeterince uzak tutmaya çalışıyor.

Ve eğer bu işe yaramazsa, her zaman var tazminat Tedarikçilerden belirli şartlara bağlı olarak yasal taleplerden.

Sektörün yapay zeka güvenliğine yönelik taahhütleri, ilgili hükümet talepleriyle örtüşüyor. ABD'de Perşembe günü Beyaz Saray Yönetim ve Bütçe Ofisi (OMB) ihraç AI risklerini ele alan ilk hükümet çapındaki politikası.

Politika, federal kurumların 1 Aralık'a kadar "Yapay zekayı Amerikalıların haklarını veya güvenliğini etkileyebilecek şekilde kullanırken somut önlemler almasını" gerektiriyor. Bu, risk değerlendirmeleri, testler ve izleme, ayrımcılığı ve önyargıyı sınırlama çabaları ve teşvik etme anlamına geliyor. sağlık, eğitim, barınma ve istihdamı ilgilendiren yapay zeka uygulamaları için şeffaflık.

Bu nedenle Microsoft, en son yapay zeka güvenlik önlemlerini, sorumlu yapay zekanın baş ürün sorumlusu Sarah Bird aracılığıyla duyuruyor; bu, sorumsuz yapay zekanın varlığını ima eden bir unvan - eğer hayal edebiliyorsanız.

Bird, iş dünyası liderlerinin, üretken yapay zekaya kapılmadan kullanmalarına olanak sağlamak için inovasyon ve risk yönetimini dengelemeye çalıştıklarını söylüyor.

Bird, şöyle açıklıyor: "Kötü niyetli aktörlerin yapay zeka sistemini, zararlı içerik üretmek veya gizli verileri sızdırmak gibi amaçlanan amacı dışında bir şey yapması için manipüle etmeye çalıştığı hızlı enjeksiyon saldırıları, önemli bir zorluk olarak ortaya çıktı." blog yazısı.

"Kuruluşlar, bu güvenlik risklerini azaltmanın yanı sıra kalite ve güvenilirlik konusunda da endişe duyuyor. Yapay zeka sistemlerinin hata üretmediğinden veya uygulamanın veri kaynaklarında doğrulanmayan, kullanıcının güvenini zedeleyebilecek bilgiler eklemediğinden emin olmak istiyorlar."

Güvenlik ve doğruluk AI abonelik ücretine dahil olmadığından Microsoft bir fırsat görüyor onları satmak eklenti olarak.

Üretken AI uygulamaları oluşturmalarına yardımcı olmak için Azure AI Studio'yu kullanan müşteriler, dört yeni aracı sabırsızlıkla bekleyebilirler.

İlk olarak, var Uyarı Kalkanları, hızlı enjeksiyon saldırılarına karşı savunmaya yardımcı olmayı vaat ediyor. Daha önce Jailbreak Risk Tespiti olarak bilinen ve şimdi genel önizlemede olan bu, temel modellere hem doğrudan hem de dolaylı olarak anında müdahale edilmesi riskini azaltmanın bir yoludur.

Doğrudan saldırılar, modelin güvenlik eğitimini göz ardı etmesini sağlamak için tasarlanmış istemleri (girdileri) içerir. Dolaylı saldırılar, girdiyi bir modele gizlice sokma çabalarını ifade eder. Bunu yapmanın bir yolu, örneğin Outlook'taki Copilot aracılığıyla alıcı adına hareket eden bir yapay zeka modelinin mesajı ayrıştıracağı, gizli metni bir komut olarak yorumlayacağı ve umut verici bir şekilde, bir e-postaya gizli metin eklemek olabilir. hassas verilere sessizce yanıt vermek gibi bir şey yaparak talimatlara göre hareket edin.

İkincisi Topraklama TespitiYapay zeka modelleri halüsinasyon gördüğünde veya bir şeyler uydurduğunda bunu yakalamak için bir sistem. Yanlış bir iddia tespit edildiğinde müşterilere, yanıtın görüntülenmeden önce revize edilmek üzere geri gönderilmesi de dahil olmak üzere çeşitli seçenekler sunar. Microsoft bunu, kaynak belgelere dayalı olarak asılsız iddiaları değerlendiren özel bir dil modeli oluşturarak başardığını söylüyor. Yani yapay zeka modeli güvenliğinin yanıtı, tahmin edebileceğiniz gibi başka bir modeldir.

Bu, güvenilir yapay zekaya doğru harika bir adım olsa da sorun hâlâ çözülmedi

Üçüncü olarak, biz var Yapay zeka destekli güvenlik değerlendirmeleri AI Studio'da, müşterinin uygulamasıyla çeşitli düşmanca etkileşimleri test eden modele bilgi istemi şablonları ve parametreler sunmaya yönelik bir test çerçevesi sağlar. Tekrar ediyorum, yapay zekayı test etmek yapay zekadır.

Ve nihayet orada “riskler ve güvenlik izleme”, zararlı içerik ölçümleri sağlayan bir Azure OpenAI Hizmeti özelliğidir.

Maryland Üniversitesi'nde doktora öğrencisi olan Vinu Sankar Sadasivan, CANAVAR saldırısı Yüksek Lisans'ta söylendi Kayıt Azure'un yapay zekayı daha güvenli hale getirecek araçlar oluşturmasını görmek heyecan verici olsa da karışıma daha fazla model eklemek potansiyel saldırı yüzeyini genişletiyor.

"Azure'un güvenlik değerlendirmeleri ile risk ve güvenlik izleme araçları, yapay zeka modellerinin güvenilirliğinin araştırılması açısından önemlidir" dedi. "Bu, güvenilir yapay zekaya doğru harika bir adım olsa da sorun hâlâ çözülmedi. Örneğin, tanıttıkları İstem Kalkanları, dolaylı anlık saldırıları tespit etmek ve engellemek için muhtemelen başka bir yapay zeka modeli kullanıyor. Bu yapay zeka modeli, düşmanca saldırılar gibi tehditlere karşı savunmasız olabilir.

"Düşmanlar, Prompt Shields'ı atlatmak için bu güvenlik açıklarından yararlanabilir. Güvenlik sistemi mesajlarının bazı durumlarda etkili olduğu gösterilmiş olsa da, BEAST gibi mevcut saldırılar, AI modellerine rakip olarak saldırarak onları anında jailbreak yapabilir. Yapay zeka sistemleri için savunma uygulamak faydalı olsa da potansiyel dezavantajlarının farkında olmak çok önemli." ®

spot_img

En Son İstihbarat

spot_img