Zephyrnet Logosu

Yapay Zekanızın Kökenini Neden Bilmeniz Gerekiyor?

Tarih:

YORUM

Yapay zeka (AI), nasıl çalıştığımızdan bilgiyi nasıl aldığımıza ve liderlerimizi nasıl belirlediğimize kadar günlük hayatımızın neredeyse her yönünü hızla değiştiriyor. Her teknolojide olduğu gibi yapay zeka da ahlaka aykırıdır ancak toplumu ilerletmek veya geliştirmek için kullanılabilir. zarar vermek.

Veriler yapay zeka uygulamalarına güç veren genlerdir. Hepsi bir arada sarılmış DNA ve RNA'dır. Yazılım sistemleri oluştururken sıklıkla söylendiği gibi: "çöp girişi/çöp çıkışı." Yapay zeka teknolojisi yalnızca güvendiği veri kaynakları kadar doğru, güvenli ve işlevseldir. Yapay zekanın vaadini yerine getirmesini ve kabuslarından kaçınmasını sağlamanın anahtarı, çöpleri dışarıda tutma ve milyonlarca yapay zeka uygulamasında çoğalmasını ve kopyalanmasını önleme becerisinde yatmaktadır.

Buna veri kaynağı denir ve yapay zeka geleceğimizin devasa bir çöp yığınına dönüşmesini önleyecek kontrolleri uygulamak için bir gün daha bekleyemeyiz.

Kötü veriler, siber güvenlik açıklarını, yanlış bilgileri ve diğer saldırıları saniyeler içinde dünya çapında yayabilen yapay zeka modellerine yol açar. Bugünün üretken yapay zeka (GenAI) modelleri inanılmaz derecede karmaşıktır, ancak özünde GenAI modelleri, mevcut önceki veriler göz önüne alındığında, çıktıya alınacak bir sonraki en iyi veri yığınını tahmin eder.

Doğruluk Ölçümü

ChatGPT tipi bir model, çıktıya alınacak bir sonraki en iyi kelimeyi hesaplamak için, sorulan orijinal soruyu oluşturan kelime kümesini ve model yanıtındaki şu ana kadarki tüm kelimeleri değerlendirir. Yeterli yanıt verdiğine karar verene kadar bunu tekrar tekrar yapar. Modelin, konuyla ilgili ve genel olarak konuşmayla alakalı, iyi biçimlendirilmiş, dil bilgisi açısından doğru cümleleri oluşturan kelimeleri bir araya getirme yeteneğini değerlendirdiğinizi varsayalım. Bu durumda günümüzün modelleri inanılmaz derecede iyidir; bu da bir doğruluk ölçüsüdür.

Daha derinlere dalın Yapay zeka tarafından üretilen metnin her zaman "doğru" bilgiyi aktarıp aktarmadığı ve aktarılan bilginin güven düzeyini uygun şekilde gösterir. Bu, ortalamada çok iyi tahmin yapan ancak uç durumlarda pek iyi olmayan modellerden kaynaklanan ve bir sağlamlık sorununu temsil eden sorunları ortaya çıkarır. Yapay zeka modellerinden elde edilen zayıf veri çıktısı çevrimiçi olarak depolandığında ve bu ve diğer modeller için gelecekteki eğitim verileri olarak kullanıldığında bu durum daha da karmaşık hale gelebilir.

Zayıf çıktılar daha önce görmediğimiz bir ölçekte çoğalabilir ve yapay zekanın aşağıya doğru bir felaket döngüsüne neden olabilir.

Kötü bir aktör bu sürece yardımcı olmak isterse, kasıtlı olarak ekstra kötü verilerin üretilmesini, saklanmasını ve yayılmasını teşvik edebilir; bu da sohbet robotlarından daha fazla yanlış bilginin çıkmasına veya otomobil otopilot modelleri kadar hain ve korkutucu bir şeyin ihtiyaç duyduklarına karar vermesine yol açabilir. Önlerinde özel olarak hazırlanmış bir görüntüyü "görmeleri" durumunda (tabii ki varsayımsal olarak), yollarına çıkan nesnelere rağmen arabayı hızla sağa çevirebilirler.

Onlarca yıl sonra, Siber Güvenlik Altyapı Güvenliği Ajansı liderliğindeki yazılım geliştirme sektörü nihayet yeni bir uygulamaya geçiyor. secure-by-tasarım çerçeve. Tasarım gereği güvenli Siber güvenliğin yazılım geliştirme sürecinin temelinde yer aldığını zorunlu kılar ve temel ilkelerinden biri de her yazılım geliştirme bileşeninin kataloglanmasını gerektirir. yazılım malzeme listesi (SBOM) — güvenliği ve dayanıklılığı artırmak için. Son olarak, pazara açılmanın en kritik faktörü olarak hızın yerini güvenlik alıyor.

Yapay Zeka Tasarımlarının Güvenliğini Sağlama

Yapay zekanın benzer bir şeye ihtiyacı var. Yapay zeka geri bildirim döngüsü, kötü amaçlı yazılım imzalarını takip etmek, ağ kaynakları çevresinde çevre oluşturmak veya insanlar tarafından yazılan kodları güvenlik açıklarına karşı taramak gibi geçmişte yaygın olarak kullanılan siber güvenlik savunma tekniklerini önler. Yapay zekanın Pandora'nın kutusu açılmadan çok önce güvenli hale getirilebilmesi için teknolojinin başlangıç ​​aşamasında güvenli yapay zeka tasarımlarını bir gereksinim haline getirmeliyiz.

Peki bu sorunu nasıl çözeceğiz? Akademi dünyasından bir sayfa açmalıyız. Öğrencileri, bir öğretmen endüstrisi aracılığıyla yorumlanan ve onlara aktarılan, son derece özenle seçilmiş eğitim verileriyle eğitiyoruz. Yetişkinlere eğitim vermek için bu yaklaşımı sürdürüyoruz ancak yetişkinlerin kendilerinin daha fazla veri iyileştirmesi yapması bekleniyor.

Yapay zeka modeli eğitiminin iki aşamalı seçilmiş bir veri yaklaşımını benimsemesi gerekir. Başlangıç ​​olarak, temel yapay zeka modelleri, büyük miktarlarda daha az seçilmiş veri kümeleri kullanılarak mevcut metodolojiler kullanılarak eğitilecektir. Bu temel büyük dil modelleri (LLM'ler) kabaca yeni doğmuş bir bebeğe benzeyecektir. Temel düzeydeki modeller daha sonra çocuklara yetişkin olmak için nasıl eğitim verildiğine ve yetiştirildiğine benzer, yüksek oranda seçilmiş veri kümeleriyle eğitilecek.

Her tür hedef için büyük, özel olarak seçilmiş eğitim veri kümeleri oluşturma çabası az olmayacaktır. Bu, ebeveynlerin, okulların ve toplumun, çocuklar (umarız) işlevsel, topluma katma değerli katkıda bulunanlar haline gelirken onlara kaliteli bir ortam ve kaliteli bilgi sağlamak için harcadıkları çabaya benzemektedir. Bu, kaliteli, iyi işleyen, minimum düzeyde bozuk yapay zeka modellerini eğitmek için kaliteli veri kümeleri oluşturmak için gereken çaba düzeyidir ve tüm yapay zeka ve insanlardan oluşan bir endüstrinin, yapay zeka modellerine hedef işlerinde iyi olmayı öğretmek için birlikte çalışmasına yol açabilir. .

Bugünkü yapay zeka eğitim sürecinin durumu, bu iki aşamalı sürecin bazı işaretlerini gösteriyor. Ancak GenAI teknolojisinin ve sektörün henüz emekleme aşamasında olması nedeniyle, çok fazla eğitim daha az seçilmiş, birinci aşama yaklaşımı gerektiriyor.

Yapay zeka güvenliği söz konusu olduğunda bırakın on yılı, bir saat bile beklemeyi göze alamayız. Yapay zekanın "algoritma soyağacının" tam olarak gözden geçirilmesini sağlayan bir 23andMe uygulamasına ihtiyacı var; böylece geliştiriciler, kronik sorunların çoğalmasını, her gün güvendiğimiz kritik sistemlere bulaşmasını ve ekonomik ve toplumsal zarar yaratmasını önlemek için yapay zekanın "aile" geçmişini tam olarak kavrayabilirler. bu geri döndürülemez olabilir.

Ulusal güvenliğimiz buna bağlıdır.

spot_img

En Son İstihbarat

spot_img