Zephyrnet Logosu

RAND Corp., Yapay Zeka Duruşunda Savunma Bakanlığı'nın "Önemli Derecede Zorlandığını" Buldu 

Tarih:

RAND Corp.'un yeni bir raporu, ABD Savunma Bakanlığı'nın yapay zeka duruşunun, performans ve güvenlik sağlayan veri ve testlerle ilgili zorluklarla karşı karşıya olduğunu tespit ediyor. (Kredi: Getty Images)  

AI Trends Staff adlı geliştiriciden  

ABD Savunma Bakanlığı'nın (DoD) yapay zeka konusundaki tutumunun yakın zamanda yayınlanan güncellenmiş bir değerlendirmesinde, araştırmacılar RAND ŞirketiDeğerlendirmenin “bazı olumlu işaretlere rağmen, Savunma Bakanlığı'nın duruşunun tüm boyutlarda önemli ölçüde zorlandığını” buldu. 

2019 Ulusal Savunma Yetkilendirme Yasası (NDAA) kapsamında Kongre ve Savunma Bakanlığı'nın Ortak Yapay Zeka Merkezi (JAIC) direktörü RAND araştırmacılarından şu soruyu yanıtlamalarına yardımcı olmaları istendi: Savunma Bakanlığı, AI teknolojilerinden yararlanmaya ve bunlarla ilişkili potansiyelden yararlanmaya hazır mı, yoksa bu teknolojileri etkin ve güvenli bir şekilde kullanmak ve kullanımlarını büyütmek için kendisini konumlandırmak için büyük adımlar atması mı gerekiyor? 

Süreli yapay zeka İlk olarak 1956'da Dartmouth Koleji'nde insan düşünme becerilerini taklit etmek için tasarlanmış bir program sergileyen bir konferansta ortaya çıktı. Hemen ardından, ordunun araştırma kolu olan Savunma İleri Araştırma Projeleri Ajansı (DARPA) (daha sonra Gelişmiş Araştırma Projeleri Ajansı [ARPA] olarak bilinir), AI ilkelerini savunma zorluklarına uygulamayı amaçlayan birkaç araştırma hattı başlattı.   

Danielle Tarraf, Kıdemli Bilgi Bilimcisi, RAND Corp.

RAND'da kıdemli bir bilgi bilimcisi ve aynı zamanda bir profesör olan Danielle C. Tarraf'ın baş yazarı olan rapora göre, 1950'lerden bu yana yapay zeka ve onun makine öğrenimi (ML) alt disiplini farklı insanlar için birçok farklı anlam ifade etmeye başladı. RAND Enstitüsü. (RAND Corp., 1948'de ABD Silahlı Kuvvetlerine araştırma ve analiz sunmak için kurulmuş, ABD'de kâr amacı gütmeyen bir düşünce kuruluşudur.)    

Örneğin, 2019 NDAA, AI'nın beş tanımına atıfta bulundu. RAND raporunda, "RAND ekibinin Kongre'ye sunduğu rapor için yaptığı düzinelerce görüşmeden ortak bir tanım üzerinde bir fikir birliği çıkmadı" denildi.  

RAND araştırmacıları esnek kalmaya ve kesin tanımlara bağlı kalmamaya karar verdiler. Bunun yerine, Savunma Bakanlığı'nın geniş çapta AI şemsiyesi altına giren bir dizi teknolojiyi inşa etmek veya elde etmek, test etmek, geçiş yapmak ve geniş ölçekte sürdürmek için konumlanıp konumlanmadığı sorusunu yanıtlamaya çalıştılar. Ve değilse, Savunma Bakanlığı'nın oraya ulaşmak için ne yapması gerekir? Savunma Bakanlığı stratejik karar vericileri için AI'nın etkilerini göz önünde bulunduran araştırmacılar, üç unsura ve bunların nasıl etkileşime girdiğine odaklandı:  

  • teknoloji ve yetenekler alanı 
  • DoD AI uygulamalarının spektrumu 
  • yatırım alanı ve zaman ufku.

Algoritmalar çoğu yapay zeka çözümünün temelini oluştururken, ilgi ve heyecan, derin öğrenme gibi yapay zekadaki ilerlemelerle destekleniyor. Bu, büyük veri kümeleri gerektirir ve çoğu ticari olan, tasarlandıkları uygulamalara son derece özgü olma eğilimindedir. Savunma Bakanlığı'ndaki yazılımın işlevi için kritik olan AI doğrulama, doğrulama, test ve değerlendirme (VVT&E) prosedürlerine atıfta bulunan araştırmacılar, "VVT&E, güvenlik açısından kritik askeri uygulamalar da dahil olmak üzere tüm AI uygulamaları için çok zorlu olmaya devam ediyor" dedi.  

Araştırmacılar, Savunma Bakanlığı için AI uygulamalarını üç gruba ayırdı:  

  • kurumsal yapay zekaaskeri hastanelerde sağlık kayıtlarının iyi kontrol edilen ortamlarda yönetimi gibi uygulamalar da dahil olmak üzere;  
  • Görev-Destek AI, savaş alanında insansız hava araçları tarafından toplanan video verilerinden büyük hacimli görüntüleri analiz etmede insanlara yardımcı olmak için makine öğrenimini kullanmayı amaçlayan Algoritmik Savaş Çapraz İşlevsel Ekibi (Project Maven olarak da bilinir) gibi uygulamalar dahil;  
  • operasyonel yapay zekaDinamik, düşmanca ortamlarla mücadele etmesi gereken ve zayiatlar için başarısızlık durumunda önemli etkileri olan silah sistemlerine entegre AI uygulamaları dahil. 

Yapay zekanın nelerin mümkün olduğuna dair gösterimlerden sahada tam ölçekli uygulamalara kadar ne kadar süreyle ilerlemesi gerektiğine dair gerçekçi hedefler belirlenmelidir. RAND ekibinin analizi, aşağıdaki alanlarda ölçekli dağıtımlar önerir:   

  • yakın dönem (beş yıla kadar) kurumsal yapay zeka için 
  • orta vadeli (beş ila on yıl) çoğu görev desteği AI için ve  
  • uzak dönem (on yıldan uzun) çoğu operasyonel AI uygulaması için. 

RAND ekibi, Savunma Bakanlığı'nda AI için aşağıdaki zorlukları görüyor:  

  • organizasyonel olarak, Mevcut Savunma Bakanlığı AI stratejisi, ilerlemeyi değerlendirmek için hem temel hem de ölçümlerden yoksundur. Ve JAIC'e, AI'yı ve onun Savunma Bakanlığı çapındaki etkisini ölçeklendirmek için gereken yetki, kaynak ve görünürlük verilmedi. 
  • Veri genellikle eksiktir ve var olduklarında genellikle izlenebilirlik, anlaşılabilirlik, erişilebilirlik ve birlikte çalışabilirlikten yoksundurlar. 
  • Şu anki durumu VVT&E AI teknolojileri, özellikle güvenlik açısından kritik olanlar olmak üzere AI sistemlerinin performansını ve güvenliğini sağlayamaz. 
  • Savunma Bakanlığı, büyümek, takip etmek ve yetiştirmek için net mekanizmalardan yoksundur. yapay zeka yeteneği, akademi, ticaret dünyası ve gerekli becerilere ve eğitime sahip bireyler için diğer türdeki çalışma alanları ile giderek artan rekabetle büyüyecek bir zorluk. 
  • Yakın İletişimSavunma Bakanlığı içindeki yapay zekanın yapıcıları ve kullanıcıları arasındaki kanallar seyrek. 

Araştırmacılar bu sorunları çözmek için bir takım önerilerde bulundular. 

Ele Alınan İki Zorluk Alanı  

Bu sorun alanlarından ikisi, askeri, hükümet, endüstri ve akademideki insanları birbirine bağlayan profesyonel bir dernek olan AFCEA'nın ev sahipliğinde düzenlenen bir toplantıda yakın zamanda ele alındı. FCW. Örgüt, "etik bilgi alışverişi" yürütüyor ve web sitesine göre, kökleri ABD İç Savaşı'na dayanıyor.   

Jacqueline Tame, JAIC'de, İstihbarat üzerine Temsilciler Meclisi Daimi Seçilmiş Komitesi'ndeki pozisyonları içeren JAIC'de Müdür Vekilliği yapıyor, Savunma Bakanlığı için bir AI analitik platformuyla çalışıyor ve ardından JAIC'deki pozisyonlarda çalışıyor. Deniz Harp Okulu ve LBJ Halkla İlişkiler Okulu'ndan yüksek lisans derecelerine sahiptir.  

Savunma Bakanlığı'ndaki AI'nın yetenekleriyle çelişen kültür ve politika normlarına nasıl girdiğini ele aldı. Örneğin, "Yalnızca Savunma Bakanlığı'nda hala birkaç binden fazla güvenlik sınıflandırma kılavuz belgemiz var." Sonuç, “veri sahiplerinin” çoğalmasıdır. “Bu, verilerin departman için stratejik bir varlık olduğu fikrine aykırı” yorumunu yaptı. 

Etkili olması için çeşitli kaynaklardan gelen verilerin analizini gerektiren kestirimci bakım örneğini şu anda Savunma Bakanlığı için bir altyapı sorunu olarak kullandı. Tame, "Bu bir savaş meselesidir," dedi. "AI'yı savaş uygulamaları için etkili kılmak için, bu sınırlı soba borulu yollarla düşünmeyi bırakmalıyız." 

Jane Pinelis, JAIC test ve değerlendirme şefi

Veri standartlarının belirlenmesi ve birleştirilmesi gerekiyor, önerilen konuşmacı JAIC için test ve değerlendirme şefi Jane Pinelis. Geçmişi, “algoritmik savaş” ile uğraştığı Johns Hopkins Üniversitesi Uygulamalı Fizik Laboratuvarı'ndaki zamanı içerir. Aynı zamanda Deniz Piyadeleri'nde kıdemli bir askerdir ve görevleri arasında Savaş Dövüş Laboratuvarı'nda bir pozisyon yer almaktadır. Michigan Üniversitesi'nden İstatistik alanında doktora derecesine sahiptir. 

Pinelis, "Standartlar yükseltilmiş en iyi uygulamalardır ve henüz en iyi uygulamalara sahip değiliz" dedi. JAIC, en iyi uygulamaları toplayarak ve belgeleyerek ve istihbarat topluluğunda veri toplama ve etiketleme konusunda bir çalışma grubuna liderlik ederek bunun üzerinde çalışıyor. 

Zayıf veri hazırlığı, Savunma Bakanlığı için AI için bir engel olduğunu belirtti. Buna karşılık, JAIC, yakında beklenen test ve değerlendirme ve veri hazırlığı için birden fazla ödül sözleşmesi hazırlıyor.  

Kaynak makaleleri ve bilgileri şuradan okuyun: RAND Şirketi. ve FCW. 

Kaynak: https://www.aitrends.com/ai-in-government/rand-corp-finds-dod-significantly-challenged-in-ai-posture/

spot_img

En Son İstihbarat

spot_img

Bizimle sohbet

Merhaba! Size nasıl yardım edebilirim?