Zephyrnet Logosu

Yapay Zeka gizlilik sorunlarını azaltmak ve Yapay Zeka güvenini artırmak için kendi verilerinizi kullanma | IoT Now Haberleri ve Raporları

Tarih:

Bir insanın manuel olarak yapması zor veya imkansız olan kalıpları tespit edebilen ve tahminler yapabilen yapay zeka modelleri sayesinde, aşağıdakiler gibi araçlar için potansiyel uygulamalar ortaya çıkıyor: ChatGPT Sağlık, finans ve müşteri hizmetleri sektörlerinde çok büyük bir fark var.

Kuruluşların yapay zeka konusundaki öncelikleri, üretken yapay zeka araçlarının rekabet avantajı açısından işletmelerine sunduğu fırsatları değerlendirmek olsa da veri gizliliği konusu öncelikli bir endişe kaynağı haline geldi. Önyargılı sonuçlar üretme potansiyeline sahip yapay zekanın sorumlu kullanımını yönetmek, dikkatli bir değerlendirme gerektirir. 

Bu modellerin potansiyel faydaları çok büyük olsa da kuruluşlar, yapay zekayı güvenli ve emniyetli bir şekilde koruyarak sorumlu bir şekilde kullanmaya yönelik etik ve pratik hususları dikkatle incelemelidir. Kuruluşlar, genel kullanıcı deneyimlerini ChatGPT ile optimize ederek, Yapay zeka güvenilirliği

Yapay zeka gizlilik endişeleri 

Diğer birçok ileri teknoloji gibi, yapay zeka da onu teknoloji yığınlarında kullanmak isteyenler için şüphesiz bazı sorular ve zorluklar yaratacaktır. Aslında bir anket Ilerleme İşletmelerin ve BT yöneticilerinin %65'inin şu anda kendi kuruluşlarında veri yanlılığı olduğuna inandığını ve %78'inin yapay zekanın benimsenmesi arttıkça bunun daha da kötüleşeceğini söylediğini ortaya çıkardı. 

Muhtemelen en büyük gizlilik endişesi, özel şirket verilerinin halka açık ve dahili AI platformlarıyla birlikte kullanılmasıyla ilgilidir. Örneğin bu, gizli hasta verilerini saklayan bir sağlık kuruluşu veya büyük bir şirketin çalışan maaş bordrosu verileri olabilir. 

Yapay zekanın en etkili olması için, yüksek kaliteli kamu ve/veya özel verilerden oluşan geniş bir örneklem büyüklüğüne ihtiyacınız vardır ve tıbbi kayıtları olan sağlık şirketleri gibi gizli verilere erişimi olan kuruluşların, yapay zeka tabanlı çözümler oluştururken rekabet avantajına sahip olması gerekir. Her şeyden önce, bu tür hassas verilere sahip bu kuruluşların, çevreyle ilgili etik ve düzenleyici gereklilikleri dikkate alması gerekir. veri gizliliği, adalet, açıklanabilirlik, şeffaflık, sağlamlık ve erişim.  

Büyük dil modelleri (LLM), dil çevirisi, soru yanıtlama, özetleme ve duygu analizi dahil olmak üzere çeşitli doğal dil işleme görevlerini gerçekleştirmek için metin verileri üzerinde eğitilmiş güçlü yapay zeka modelleridir. Bu modeller, dili insan zekasını taklit edecek şekilde analiz etmek ve bunların insan konuşmasını işlemesine, anlamasına ve üretmesine olanak sağlamak üzere tasarlanmıştır. 

Yapay zeka kullanırken özel verilere yönelik riskler 

Ancak bu karmaşık modellerle birlikte veri doğruluğu, telif hakkı ihlali ve olası iftira vakaları açısından risk oluşturabilecek etik ve teknik zorluklar da ortaya çıkıyor. Chatbot yapay zekalarını etkili bir şekilde kullanmanın zorluklarından bazıları şunlardır: 

  • halüsinasyonlar – Yapay zekada halüsinasyon, kullanıcıya hatalarla dolu yanıtlar vermesidir ve bunların hepsi çok yaygındır. LLM'lerin bir sonraki kelimeyi tahmin etme şekli, cevapların makul görünmesini sağlarken, bilgiler eksik veya yanlış olabilir. Örneğin, bir kullanıcı bir chatbottan rakibinin ortalama gelirini isterse bu rakamlar çok farklı olabilir.  
  • Veri yanlılığı – LLM'ler de sergilenebilir önyargılarıBu, nesnel gerçeklikten ziyade eğitim verilerindeki önyargıları yansıtan sonuçlar üretebilecekleri anlamına gelir. Örneğin, ağırlıklı olarak erkeklerin yer aldığı bir veri kümesi üzerinde eğitilen bir dil modeli, cinsiyete dayalı konulara ilişkin taraflı çıktılar üretebilir. 
  • Muhakeme/Anlama – Yüksek Lisans'ların daha derin akıl yürütme veya karmaşık kavramların anlaşılmasını gerektiren görevlerde de yardıma ihtiyacı olabilir. Bir Yüksek Lisans, kültür veya tarih konusunda incelikli bir anlayış gerektiren soruları yanıtlayacak şekilde eğitilebilir. Modellerin etkili bir şekilde eğitilmemesi ve izlenmemesi durumunda stereotipleri sürdürmesi veya yanlış bilgi sağlaması mümkündür. 

Bunlara ek olarak diğer riskler arasında, bir modelin belleğinin güncelliğini yitirme eğiliminde olduğu Veri Kesintileri yer alabilir. Bir başka olası zorluk, yapay zeka bir yanıt oluşturmak için kullanılan muhakemeyi gösterecek şekilde etkili bir şekilde eğitilmediğinden LLM'nin yanıtını nasıl oluşturduğunu anlamaktır. 

Güvenilir veriler sunmak için anlamsal bilgiyi kullanma 

Teknik ekipler, ChatGPT için özel verilerin kullanılması konusunda yardım arıyor. Doğruluk ve verimlilikteki artışa rağmen, LLM'ler, kullanıcılarından bahsetmeye bile gerek yok, yanıtlar konusunda hâlâ yardıma ihtiyaç duyabiliyor. Özellikle veriler bağlam ve anlamdan yoksun olabileceği için. Yanıt, güçlü, güvenli, şeffaf ve yönetilen bir yapay zeka bilgi yönetimi çözümüdür. Anlamsal bir veri platformuyla kullanıcılar, yönetişimi tanıtırken doğruluğu ve verimliliği artırabilir.  

ChatGPT'nin semantik veri platformundan gelen semantik bilgiyle doğrulanan cevabının bir kombinasyonu olan bir cevaba ulaşarak, birleştirilmiş sonuçlar, LLM'lerin ve kullanıcıların kolayca erişmesine ve sonuçlara kaynak içerik ve yakalanan KOBİ bilgisine göre doğruluk kontrolü yapmasına olanak tanıyacak. 

Bu, AI aracının yapılandırılmış ve yapılandırılmamış verileri depolamasına ve sorgulamasına, ayrıca sezgisel GUI aracılığıyla konunun uzmanı (KOBİ) içeriğini yakalamasına olanak tanır. Verilerde bulunan gerçekleri çıkararak ve özel verileri anlamsal bilgiyle etiketleyerek, kullanıcı soruları veya girdileri ve belirli ChatGPT yanıtları da bu bilgiyle etiketlenebilir.  

Hassas verileri korumak, yapay zekanın gerçek potansiyelini ortaya çıkarabilir 

Tüm teknolojilerde olduğu gibi, beklenmedik girdilere veya durumlara karşı korunmak Yüksek Lisans'ta daha da önemlidir. Bu zorlukları başarılı bir şekilde ele aldığımızda, çözümlerimizin güvenilirliği kullanıcı memnuniyetiyle birlikte artacak ve sonuç olarak çözümün başarısına yol açacaktır. 

BT ve güvenlik profesyonellerinin, kuruluşları için yapay zeka kullanımını keşfetmenin ilk adımı olarak, kuruluşları ve müşterileri için sonuçları optimize etmek üzere bu verilerden yararlanırken hassas verileri korumanın yollarını aramaları gerekiyor. 

Matthieu Jonglez, Progress'te teknoloji - uygulama ve veri platformu başkan yardımcısı.Matthieu Jonglez, Progress'te teknoloji - uygulama ve veri platformu başkan yardımcısı.

Matthieu Jonglez'in makalesi, teknoloji - uygulama ve veri platformu başkan yardımcısı ilerlemekss.

Bu makaleye aşağıdaki veya X yoluyla yorum yapın: @IoTNow_

spot_img

En Son İstihbarat

spot_img