Zephyrnet Logosu

Yapay Zekanın Siber Güvenlik Üzerindeki Etkisi – VERİ VERİMLİLİĞİ

Tarih:

Yapay zeka, insanların işlerini elinden almaktan, dezenformasyon yaymaya ve telif haklarını ihlal etmeye kadar her konuda medyanın ilgisini çekti; ancak yapay zekanın siber güvenlik üzerindeki etkisi, onun en acil sorunu olabilir.

Yapay zekanın güvenlik ekipleri üzerindeki etkisi tahmin edilebileceği gibi iki yönlüdür. Doğru şekilde uygulandığında, büyük miktarlarda veriyi bilgisayar hızında işlemek, uzak veri noktaları arasındaki bağlantıları bulmak, kalıpları keşfetmek, saldırıları tespit etmek ve saldırı ilerlemelerini tahmin etmek gibi yollarla siber güvenlik uygulayıcıları için güçlü bir güç çarpanı olabilir. Ancak güvenlik uygulayıcılarının da çok iyi bildiği gibi yapay zeka her zaman gerektiği gibi uygulanmıyor. Kimlik ihlali ve kimlik avından fidye yazılımı ve tedarik zinciri saldırılarına kadar halihazırda etkileyici olan siber güvenlik tehditleri dizisini yoğunlaştırıyor.

CISO'ların ve güvenlik ekiplerinin, becerilerin önemli ölçüde yeniden dengelenmesini gerektiren yapay zekanın hem avantajlarını hem de risklerini anlaması gerekiyor. Örneğin güvenlik mühendisleri makine öğreniminin temellerini, model kalitesini ve önyargılarını, güven düzeylerini ve performans ölçümlerini kavramalıdır. Veri bilimcileri Hibrit ekiplere etkili bir şekilde katkıda bulunmak için siber güvenliğin temellerini, saldırı modellerini ve risk modellemeyi öğrenmeleri gerekiyor.

Yapay Zeka Modellerinin Siber Güvenliğe Yardımcı Olmak İçin Uygun Eğitime İhtiyacı Var

Yapay zeka destekli tehditlerin yayılmasıyla başa çıkma görevi, CISO'lar ve halihazırda aşırı çalışan güvenlik ekipleri için zorlukları daha da artırıyor; bu ekipler, yalnızca bir güvenlik ekibi tarafından hazırlanmış yeni karmaşık kimlik avı kampanyalarıyla uğraşmak zorunda değil. büyük dil modeli (LLM) ChatGPT'yi sever, ancak yine de DMZ'de daha büyük bir tehdit oluşturabilecek yamalanmamış bir sunucu konusunda endişelenmeniz gerekir.

Öte yandan yapay zeka, risk değerlendirmesi ve tehditleri tespit etme konusunda ekiplerin zamandan ve emekten büyük oranda tasarruf etmesini sağlayabilir. Ayrıca tepki verilmesine de yardımcı olabilir; ancak bunun dikkatli bir şekilde yapılması gerekir. Bir yapay zeka modeli, analistlerin olayları nasıl önceliklendirdiklerini öğrenmeleri için omuz omuza verebilir ve ardından bu görevleri kendi başına gerçekleştirebilir veya vakaları insan incelemesi için önceliklendirebilir. Ancak ekiplerin yapay zeka talimatlarını doğru kişilerin verdiğinden emin olması gerekiyor.

Örneğin yıllar önce, farklı beceri seviyelerine sahip 10 analistin 100 şüpheli veri sızdırma vakasını incelemesini sağladığım bir deney yürüttüm. İki kıdemli analist tüm olumlu ve olumsuzları doğru bir şekilde belirledi, daha az deneyimli üç analist vakaların neredeyse tamamını yanlış anladı ve geri kalan beşi rastgele sonuçlar aldı. Bir yapay zeka modeli ne kadar iyi olursa olsun, böyle bir ekip tarafından eğitilirse hiçbir işe yaramaz.

Yapay zeka güçlü bir araba gibidir: Deneyimli bir sürücünün elinde harikalar yaratabilir veya deneyimsiz bir sürücünün elinde çok fazla hasara neden olabilir. Bu, beceri eksikliğinin yapay zekanın siber güvenlik etkisini etkileyebileceği alanlardan biridir.

CTO'lar Bir Yapay Zeka Çözümünü Nasıl Seçebilir?

Yapay zeka hakkındaki abartılı reklam göz önüne alındığında, kuruluşlar teknolojiyi benimsemek için acele etme eğiliminde olabilir. Ancak yapay zekayı doğru şekilde eğitmenin yanı sıra, uygunluk sorunlarından başlayarak CTO'ların yanıtlaması gereken sorular da var:

  • Yapay zeka kuruluşun ekosistemine uyuyor mu? Buna platform, veritabanı ve arama motoru gibi harici bileşenler, ücretsiz ve açık kaynaklı yazılım ve lisanslamanın yanı sıra kuruluşun güvenliği ve sertifikaları, yedeklemesi ve yük devretmesi de dahildir. 
  • Yapay zeka işletmenin büyüklüğüne göre ölçekleniyor mu?
  • Güvenlik ekibinin yapay zekayı sürdürmesi ve çalıştırması için hangi beceriler gereklidir?

CTO'ların ayrıca özellikle bir yapay zeka çözümüne yönelik soruları ele alması gerekir: 

  • Belirli bir yapay zeka ürününün iddia edilen işlevlerinden hangileri iş hedeflerinizle uyumlu?
  • Aynı işlevsellik mevcut araçlar kullanılarak elde edilebilir mi?
  • Çözüm gerçekten tehditleri tespit ediyor mu?

Bu son soruyu yanıtlamak zor olabilir çünkü kötü niyetli siber güvenlik olayları, meşru faaliyetlerle karşılaştırıldığında çok küçük bir ölçekte meydana gelir. Canlı verileri kullanan sınırlı bir kavram kanıtlama çalışmasında, bir yapay zeka aracı, hiçbir şey yoksa hiçbir şeyi tespit etmeyebilir. Satıcılar genellikle bir yapay zekanın yeteneğini göstermek için sentetik verileri veya Kırmızı Takım saldırılarını kullanır, ancak bunun gerçek tespit yeteneğini mi gösterdiği yoksa sadece göstergelerin oluşturulduğu varsayımı mı doğruladığı sorusu hala devam etmektedir.

Bir yapay zekanın neden bir şeyin saldırı olduğunu düşündüğünü belirlemek zordur çünkü yapay zeka algoritmaları aslında kara kutulardır ve DARPA'nın da gösterdiği gibi, hala belirli bir sonuca nasıl ulaştıklarını açıklayamıyorlar. Açıklanabilir AI (XAI) programı.

Yapay Zeka Risklerinin Azaltılması

Bir yapay zeka çözümü yalnızca birlikte çalıştığı veriler kadar iyidir. Etik davranışı sağlamak için yapay zeka modelleri, World Wide Web'deki çöplerin toptan toplanmasıyla değil, etik verilerle eğitilmelidir. Ve herhangi bir veri bilimci, bir modeli eğitmek için dengeli, tarafsız, temiz bir veri kümesi üretmenin zor, sıkıcı ve hoş olmayan bir görev olduğunu bilir. 

Bu nedenle, Yüksek Lisanslar da dahil olmak üzere yapay zeka modelleri, sonunda siber güvenliğe en iyi şekilde hizmet edebilecekleri şekilde, belirli alanlara hizmet eden ve bu konularda eğitim alan özel modeller ("her şeyi bilen" genel amaçlı modellerin aksine) olarak yönetilebilir. Veriler alanında uzman kişiler tarafından derlenmiştir. 

Medyanın o andaki tepkisine yanıt olarak yapay zekayı sansürlemeye çalışmak sorunu çözmeyecek. Bunu yalnızca güvenilir veri kümeleri oluşturma konusunda özenli bir çalışma başarabilir. Yapay zeka şirketleri ve onları destekleyen risk sermayedarları, bu yaklaşımı saygın içerik sunmanın tek yolu olarak kabul edene kadar, bu çöp girişi/çöp çıkışıdır. 

Yapay Zeka Gelişimi Daha Düzenli Olmalı mı?

Yapay zekanın gelişimi pek çok şey yarattı meşru endişeler Deepfake ve ses klonlamadan gelişmiş kimlik avı/vishing/smishing'e, katil robotlara ve hatta bir saldırı olasılığına kadar her şey hakkında Yapay zeka kıyameti. Yapay Genel Zeka (AGI) alanının en saygın isimlerinden biri olan Eliezer Yudkowsky, geçtiğimiz günlerde “hepsini kapatÖnerilen altı aylık moratoryumun yeterli olmadığını söyledi.

Ancak yeni teknolojilerin gelişimini durduramazsınız; bu, eski çağlardaki simyacıların günlerinden beri açıkça görülen bir gerçektir. Peki pratik açıdan bakıldığında, yapay zekanın kontrolden çıkmasını önlemek ve yapay zeka kaynaklı yok olma olayı riskini azaltmak için ne yapılabilir? Cevap, diğer alanlarda kullanılan ve silahlanma potansiyeli taşıyan kontrollerin birçoğunda yatıyor: 

  • Şeffaf araştırma. Açık kaynaklı yapay zeka gelişimi yalnızca yeniliği teşvik etmek ve erişimi demokratikleştirmekle kalmıyor, aynı zamanda güvenlik kusurlarını ve tehlikeli gelişim hatlarını tespit etmekten potansiyel kötüye kullanıma karşı savunma oluşturmaya kadar birçok güvenlik avantajına da sahip. Big Tech şu ana kadar açık kaynak çalışmalarını destekliyor ancak rekabet yoğunlaşırsa bu durum değişebilir. Açık kaynak erişimini korumak için yasal önlemlere ihtiyaç duyulabilir.
  • Deney içerir. Yeterince gelişmiş yapay zekaya sahip tüm deneylerin korumalı alana alınması, emniyet ve güvenlik prosedürlerinin sıkı bir şekilde uygulanması gerekir. Bunlar kusursuz önlemler değildir ancak yerel bir rahatsızlık ile küresel bir felaket arasında fark yaratabilir.
  • Anahtarları öldürün. Panzehirler ve aşılar gibi, kontrolden çıkan veya yıkıcı yapay zeka türlerine karşı alınacak önlemlerin de geliştirme sürecinin ayrılmaz bir parçası olması gerekiyor. Fidye yazılımı yaratıcıları bile bir durdurma anahtarı geliştiriyor. 
  • Nasıl kullanılacağını düzenleyin. Yapay zeka, insanlığın iyiliği için uygulanabilecek veya feci sonuçlar doğuracak şekilde istismar edilebilecek bir teknolojidir. Uygulamalarının düzenlenmesi dünya hükümetlerinin görevidir ve aciliyet, ChatGPT'nin bir sonraki sürümünün sansürlenmesi ihtiyacından çok daha yüksektir.  AB Yapay Zeka Yasası yeniliği engellemeden kötüye kullanımı önlemeyi amaçlayan iyi kurulmuş, özlü bir temeldir. Birleşik Devletler AI Haklar Bildirgesi ve yapay zekaya ilişkin son Yönetici Emri daha az spesifiktir ve uygun model geliştirme, eğitim ve kontrol altına alma konularından çok politik doğruculuğa odaklanıyor gibi görünmektedir. Ancak bu önlemler sadece bir başlangıç. 

Sonuç

CISO'lar istese de istemese de yapay zeka siber güvenliğe geliyor ve siber güvenlik alanına hem önemli faydalar hem de riskler getirecek. kuantum sonrası kriptografi. CISO'lar en azından yapay zeka destekli araçların faydalarını ve yapay zeka odaklı saldırıların tehditlerini anlamak için zaman ayırmalı. Yapay zekaya para yatırımı yapıp yapmamaları büyük ölçüde yapay zeka güvenlik ürünlerinin somut faydalarına, yapay zeka saldırılarının kamuoyuna duyurulan sonuçlarına ve bir dereceye kadar ChatGPT ile olan kişisel deneyimlerine bağlıdır. 

CISO'ların karşılaştığı zorluk, yapay zekanın etkili ve sorumlu bir şekilde nasıl uygulanacağıdır.

spot_img

En Son İstihbarat

spot_img