Zephyrnet-logo

RAND Corp. vindt DoD "aanzienlijk uitgedaagd" in AI-houding 

Datum:

Een nieuw rapport van RAND Corp. constateert dat de AI-houding van de Amerikaanse DoD voor uitdagingen staat op het gebied van gegevens en testen die prestaties en veiligheid garanderen. (Credit: Getty Images)  

Door AI Trends Staff  

In een onlangs uitgebrachte bijgewerkte evaluatie van de houding van het Amerikaanse ministerie van Defensie (DoD) over kunstmatige intelligentie, onderzoekers bij RAND Corpoontdekte dat "ondanks enkele positieve signalen, de houding van de DoD in alle dimensies aanzienlijk wordt uitgedaagd" van de beoordeling. 

De RAND-onderzoekers werden door het Congres binnen de National Defense Authorization Act (NDAA) van 2019 en de directeur van DoD's Joint Artificial Intelligence Center (JAIC) gevraagd om te helpen bij het beantwoorden van de vraag: Klaar om AI-technologieën te gebruiken en te profiteren van het potentieel dat ermee verbonden is, of moet het grote stappen ondernemen om zichzelf te positioneren om die technologieën effectief en veilig te gebruiken en het gebruik ervan op te schalen? " 

De term kunstmatige intelligentie werd voor het eerst bedacht in 1956 tijdens een conferentie op Dartmouth College waar een programma werd gepresenteerd dat was ontworpen om menselijke denkvaardigheden na te bootsen. Vrijwel onmiddellijk daarna startte het Defense Advanced Research Projects Agency (DARPA) (toen bekend als het Advanced Research Projects Agency [ARPA]), de onderzoekstak van het leger, verschillende onderzoekslijnen die gericht waren op het toepassen van AI-principes op defensie-uitdagingen.   

Danielle Tarraf, Senior Informatiewetenschapper, RAND Corp.

Sinds de jaren vijftig heeft AI - en de subdiscipline machine learning (ML) - veel verschillende dingen voor verschillende mensen betekenen, aldus het rapport, waarvan de hoofdauteur Danielle C. Tarraf is, een senior informatiewetenschapper bij RAND en een professor bij de RAND Graduate School. (RAND Corp. is een Amerikaanse denktank zonder winstoogmerk die in 1950 is opgericht om onderzoek en analyse te bieden aan de Amerikaanse strijdkrachten.)    

Zo noemde de NDAA van 2019 maar liefst vijf definities van AI. "Er kwam geen consensus over een gemeenschappelijke definitie uit de tientallen interviews die door het RAND-team werden afgenomen voor zijn rapport aan het Congres", aldus het RAND-rapport.  

De RAND-onderzoekers besloten flexibel te blijven en niet gebonden te zijn aan precieze definities. In plaats daarvan probeerden ze de vraag te beantwoorden of de DoD is gepositioneerd om - op schaal - een reeks technologieën te bouwen of te verwerven, te testen, over te zetten en te onderhouden die grotendeels onder de AI-paraplu vallen? En zo niet, wat zou DoD dan moeten doen om daar te komen? Gezien de implicaties van AI voor strategische besluitvormers van DoD, concentreerden de onderzoekers zich op drie elementen en hun interactie:  

  • de ruimte voor technologie en mogelijkheden 
  • het spectrum van DoD AI-toepassingen 
  • de investeringsruimte en tijdshorizon.

Hoewel algoritmen de meeste AI-oplossingen ondersteunen, worden interesse en hype gevoed door vooruitgang in AI, zoals deep learning. Hiervoor zijn grote datasets nodig, die doorgaans zeer specifiek zijn voor de applicaties waarvoor ze zijn ontworpen, waarvan de meeste commercieel zijn. Verwijzend naar AI-verificatie-, validatie-, test- en evaluatieprocedures (VVT & E) die cruciaal zijn voor de functie van software in de DoD, verklaarden de onderzoekers: "VVT & E blijft over de hele linie een grote uitdaging voor alle AI-toepassingen, inclusief veiligheidskritische militaire toepassingen."  

De onderzoekers verdeelden AI-toepassingen voor DoD in drie groepen:  

  • AI voor ondernemingen, inclusief toepassingen zoals het beheer van medische dossiers in militaire ziekenhuizen in goed gecontroleerde omgevingen;  
  • Missieondersteunende AI, inclusief toepassingen zoals het Algorithmic Warfare Cross-Functional Team (ook bekend als Project Maven), dat als doel heeft machine learning te gebruiken om mensen te helpen bij het analyseren van grote hoeveelheden beelden uit videogegevens die door drones in het strijdtoneel zijn verzameld, en;  
  • Operationele AI, inclusief toepassingen van AI die zijn geïntegreerd in wapensystemen die te kampen hebben met dynamische, vijandige omgevingen en die aanzienlijke implicaties hebben in het geval van uitval voor slachtoffers. 

Er moeten realistische doelen worden gesteld voor hoelang AI nodig is om te evolueren van demonstraties van wat mogelijk is tot volledige implementaties in het veld. De analyse van het RAND-team suggereert implementaties op schaal in de:   

  • korte termijn (tot vijf jaar) voor zakelijke AI 
  • middellange termijn (vijf tot tien jaar) voor de meeste missieondersteunende AI, en  
  • lange termijn (langer dan tien jaar) voor de meeste operationele AI-toepassingen. 

Het RAND-team ziet de volgende uitdagingen voor AI bij het DoD:  

  • Organisatorisch, de huidige DoD AI-strategie mist zowel basislijnen als meetgegevens om de voortgang te beoordelen. En de JAIC heeft niet de autoriteit, middelen en zichtbaarheid gekregen die nodig zijn om AI en de impact ervan op DoD-breed te schalen. 
  • Data ontbreken vaak, en als ze bestaan, missen ze vaak traceerbaarheid, begrijpelijkheid, toegankelijkheid en interoperabiliteit. 
  • De huidige staat van VVT & E want AI-technologieën kunnen de prestaties en veiligheid van AI-systemen niet garanderen, met name die welke veiligheidskritisch zijn. 
  • DoD mist duidelijke mechanismen voor het kweken, volgen en cultiveren AI-talent, een uitdaging die alleen maar groter zal worden met de steeds scherpere concurrentie met de academische wereld, de commerciële wereld en andere soorten werkplekken voor individuen met de benodigde vaardigheden en training. 
  • CommunicatieDe kanalen tussen de bouwers en gebruikers van AI binnen DoD zijn schaars. 

De onderzoekers deden een aantal aanbevelingen om deze problemen aan te pakken. 

Twee uitdaginggebieden aangepakt  

Twee van deze uitdagingsgebieden zijn onlangs aan de orde gekomen tijdens een bijeenkomst die werd georganiseerd door de AFCEA, de beroepsvereniging die mensen in het leger, de overheid, de industrie en de academische wereld met elkaar verbindt, gerapporteerd in een account in FCW​ De organisatie houdt zich bezig met de "ethische uitwisseling van informatie" en heeft volgens haar website wortels in de Amerikaanse burgeroorlog.   

Jacqueline Tame is waarnemend adjunct-directeur bij de JAIC, wiens jarenlange ervaring onder meer functies omvat bij de House Permanent Select Committee on Intelligence, werken met een AI-analyseplatform voor het kantoor van de minister van Defensie en vervolgens functies bij de JAIC. Ze is afgestudeerd aan het Naval War College en de LBJ School of Public Affairs.  

Ze besprak hoe AI bij DoD tegen cultuur en beleidsnormen aanloopt die in strijd zijn met de mogelijkheden ervan. Bijvoorbeeld: "We hebben nog steeds meer dan ... enkele duizenden begeleidingsdocumenten voor beveiligingsclassificatie alleen al bij het ministerie van Defensie." Het resultaat is een wildgroei van 'gegevenseigenaren'. Ze merkte op: "Dat is in tegenspraak met het idee dat gegevens een strategische troef zijn voor de afdeling." 

Ze gebruikte het voorbeeld van voorspellend onderhoud, dat analyse van gegevens uit verschillende bronnen vereist om effectief te zijn, als een infrastructuuruitdaging voor het DoD op dit moment. "Dit is een kwestie van oorlogsgevechten," verklaarde Tame. "Om AI effectief te maken voor oorlogsgevechtstoepassingen, moeten we er niet meer over nadenken op deze beperkte manieren met kachelpotenten." 

Jane Pinelis, hoofd testen en evaluatie, JAIC

Datastandaarden moeten worden vastgesteld en verenigd, stelt spreker voor Jane Pinelis, het hoofd van testen en evalueren voor de JAIC. Haar achtergrond omvatte tijd aan het Johns Hopkins University Applied Physics Laboratory, waar ze betrokken was bij "algoritmische oorlogsvoering". Ze is ook een veteraan van het Korps Mariniers, waar ze onder meer een functie in het Warfighting Lab had. Ze heeft een PhD in statistiek aan de Universiteit van Michigan. 

"Normen zijn verheven best practices en we hebben nog niet per se best practices", aldus Pinelis. JAIC werkt eraan door het verzamelen en documenteren van best practices en het leiden van een werkgroep in de inlichtingengemeenschap over gegevensverzameling en tagging. 

Zwakke gegevensbereidheid was een belemmering voor AI voor de DoD, zei ze. Als reactie hierop bereidt de JAIC meerdere gunningscontracten voor voor test en evaluatie en voor de gereedheid van gegevens, die binnenkort worden verwacht.  

Lees de bronartikelen en informatie van RAND Corpo. en FCW. 

Bron: https://www.aitrends.com/ai-in-government/rand-corp-finds-dod-significately-challenged-in-ai-posture/

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?