Zephyrnet Logosu

NIST, yapay zeka üreticilerinin 'yılan yağı' güvenlik iddialarına karşı uyardı

Tarih:

ABD Ulusal Standartlar ve Teknoloji Enstitüsü'nde (NIST) bilgisayar bilimcisi olan Apostol Vassilev'e göre, tahmine dayalı ve üretken yapay zeka sistemleri çeşitli saldırılara karşı savunmasız kalıyor ve aksini söyleyen hiç kimse tamamen dürüst değil.

"Yapay zeka ve makine öğreniminin kaydettiği önemli ilerlemeye rağmen, bu teknolojiler, korkunç sonuçlar doğurabilecek olağanüstü arızalara neden olabilecek saldırılara karşı savunmasızdır." şuraya.

"Yapay zeka algoritmalarının güvenliğiyle ilgili henüz çözülmemiş teorik sorunlar var. Aksini söyleyen olursa yılan yağı satıyorlar” dedi.

Vassilev, konuyla ilgili Alina Oprea (Northeastern Üniversitesi) ve Robust Intelligence güvenlik mağazasından Alie Fordyce ve Hyrum Anderson ile birlikte yapay zeka sistemlerinin oluşturduğu güvenlik risklerini kategorize etmeye çalışan bir makalenin ortak yazarlığını yaptı. Genel olarak sonuçlar pek iyi görünmüyor.

The kâğıt "Çekişmeli Makine Öğrenimi: Saldırıların ve Etki Azaltmaların Taksonomisi ve Terminolojisi" başlıklı [PDF], NIST Güvenilir Yapay Zeka girişiminden alınmıştır. ABD hükümetinin daha geniş hedefleri AI güvenliğini sağlamak için. Geçtiğimiz birkaç on yılda yapılan endüstri araştırmalarına dayanan çeşitli rakip makine öğrenimi tekniklerini araştırıyor.

Araştırmacılar dört özel güvenlik endişesine odaklandılar: tahmine dayalı (örn. nesne tanıma) veya üretken (örn. ChatGPT) modellere uygulanabilen kaçırma, zehirleme, mahremiyet ve kötüye kullanım saldırıları.

Makale, tekniğin izini sürerek şöyle açıklıyor: "Bir kaçma saldırısında, düşmanın amacı, sınıflandırması konuşlandırma zamanında saldırganın tercih ettiği rastgele bir sınıfa yalnızca minimum düzeyde tedirginlik ile değiştirilebilen test örnekleri olarak tanımlanan düşmanca örnekler oluşturmaktır." 1988'deki araştırmaya geri dönelim.

Örnek olarak NIST, otonom araçlardaki bilgisayarlı görüş sistemlerinin kendilerini yanlış tanımlamasına neden olacak şekilde dur işaretlerinin işaretlenebileceği tekniklere işaret ediyor.

Daha sonra, bir makine öğrenimi modelinin eğitimine istenmeyen verilerin eklendiği ve genellikle belirli bir girdi aldıktan sonra modelin istenmeyen bir şekilde yanıt vermesine neden olan zehirlenme saldırıları vardır. Makale bir şeye işaret ediyor 2020 Microsoft araştırma makalesi Bu, zehirleme saldırılarının, rakip makine öğrenimi konusunda ankete katılan kuruluşları en çok ilgilendiren konu olduğunu söylüyor.

Oprea, "Örneğin zehirleme saldırıları, birkaç düzine eğitim örneğinin kontrol edilmesiyle gerçekleştirilebilir; bu, tüm eğitim setinin çok küçük bir yüzdesini oluşturur" dedi.

Aksi halde erişilemez olması gereken eğitim verilerinin yeniden oluşturulmasını, ezberlenen verilerin çıkarılmasını, korunan veriler hakkında çıkarımlar yapılmasını ve ilgili izinsiz girişleri içeren gizlilik saldırılarının gerçekleştirilmesi de nispeten basittir.

Son olarak, üretken yapay zeka sistemlerinin saldırganın amaçlarına hizmet edecek şekilde yeniden tasarlanmasını içeren kötüye kullanım saldırıları vardır. Makalede şöyle açıklanıyor: "Saldırganlar, nefret söylemini veya ayrımcılığı teşvik etmek, belirli gruplara karşı şiddeti teşvik eden medya oluşturmak veya siber saldırıya olanak tanıyan görüntüler, metin veya kötü amaçlı kodlar oluşturarak saldırgan siber güvenlik operasyonlarını ölçeklendirmek için GenAI modellerinin yeteneklerini kullanabilir."

Yazarların bu çeşitli saldırı kategorilerini ve varyasyonlarını listelemedeki amacı, hafifletme yöntemleri önermek, yapay zeka uygulayıcılarının modeller eğitilirken ve dağıtılırken ele alınması gereken endişeleri anlamalarına yardımcı olmak ve daha iyi savunmaların geliştirilmesini teşvik etmektir.

Makale, güvenilir yapay zekanın şu anda bir yanda güvenlik, diğer yanda adalet ve doğruluk arasında bir denge gerektirdiğini gözlemleyerek sonuçlanıyor.

Raporda şu sonuca varılıyor: "Sadece doğruluk için optimize edilmiş yapay zeka sistemleri, rakiplere karşı sağlamlık ve adalet açısından düşük performans gösterme eğilimindedir." "Tersine, rakiplere karşı dayanıklılık için optimize edilmiş bir yapay zeka sistemi, daha düşük doğruluk ve bozulmuş adalet sonuçları sergileyebilir." ®

spot_img

En Son İstihbarat

spot_img