Zephyrnet-logo

Pentagon AI-sjef søker "begrunnet tillit" for å ta teknologien inn i kamp

Dato:

Pentagons sjef for digital og kunstig intelligens, Craig Martell, sa at han er skremt over potensialet for generative kunstig intelligens-systemer som ChatGPT for å lure og så desinformasjon. Foredraget hans om teknologien på DefCon hacker-konvensjonen i august var en stor hit. Men han er alt annet enn sur på pålitelig AI.

Ikke en soldat, men en dataforsker, ledet Martell maskinlæring hos selskaper inkludert LinkedIn, Dropbox og Lyft før han tok jobben i fjor.

Å samle det amerikanske militærets data og finne ut hvilken AI som er pålitelig nok til å ta med seg inn i kamp er en stor utfordring i en stadig mer ustabil verden der flere land kjemper for å utvikle dødelige autonome våpen.

Intervjuet er redigert for lengde og klarhet.

-

Q: Hva er hovedoppdraget ditt?

A: Vår jobb er å skalere beslutningsfordeler fra styrerommet til slagmarken. Jeg ser det ikke som vår jobb å takle noen få spesielle oppdrag, men snarere å utvikle verktøyene, prosessene, infrastrukturen og policyene som lar avdelingen som helhet skalere.

Spørsmål: Så målet er global informasjonsdominans? Hva trenger du for å lykkes?

A: Vi kommer endelig til nettverksentrisk krigføring – hvordan få riktig data til rett sted til rett tid. Det er et hierarki av behov: kvalitetsdata nederst, analyser og beregninger i midten, AI på toppen. For at dette skal fungere, er data av høy kvalitet viktigst.

Spørsmål: Hvordan bør vi tenke på AI-bruk i militære applikasjoner?

A: Alt AI er, egentlig, er å telle fortiden for å forutsi fremtiden. Jeg tror faktisk ikke den moderne bølgen av AI er annerledes.

Kina, Ukraina

Spørsmål: Vinner Kina våpenkappløpet for kunstig intelligens?

A: Jeg synes den metaforen er noe feil. Da vi hadde et atomvåpenkappløp var det med en monolittisk teknologi. AI er ikke det. Det er heller ikke en Pandoras eske. Det er et sett med teknologier vi bruker fra sak til base, og verifiserer empirisk om den er effektiv eller ikke.

Spørsmål: Det amerikanske militæret bruker AI-teknologi for å hjelpe Ukraina. Hvordan hjelper du?

A: Teamet vårt er ikke involvert i Ukraina annet enn å hjelpe til med å bygge en database for hvordan allierte yter assistanse. Den heter himmelblå. Vi hjelper bare med å sørge for at det holder seg organisert.

Spørsmål: Det er mye diskusjon om autonome dødelige våpen – som angrepsdroner. Konsensus er at mennesker til slutt vil bli redusert til en tilsynsrolle - å kunne avbryte oppdrag, men stort sett ikke blande seg inn. Høres rett ut?

A: I militæret trener vi med en teknologi til vi utvikler en berettiget selvtillit. Vi forstår grensene til et system, vet når det fungerer og når det kanskje ikke fungerer. Hvordan kartlegges dette til autonome systemer? Ta bilen min. Jeg stoler på den adaptive cruisekontrollen på den. Teknologien som skal hindre den fra å skifte kjørefelt er derimot forferdelig. Så jeg har ikke berettiget tillit til det systemet og bruker det ikke. Ekstrapoler det til militæret.

"Loyal wingman"

Spørsmål: Luftforsvarets «loyal wingman»-program under utvikling ville få droner til å fly sammen med jagerfly fløyet av mennesker. Er datasynet godt nok til å skille venn fra fiende?

A: Datasyn har gjort fantastiske fremskritt de siste 10 årene. Hvorvidt det er nyttig i en bestemt situasjon er et empirisk spørsmål. Vi må bestemme presisjonen vi er villige til å akseptere for brukssaken og bygge mot disse kriteriene – og teste. Så vi kan ikke generalisere. Jeg skulle virkelig ønske at vi sluttet å snakke om teknologien som en monolitt og heller snakket om egenskapene vi ønsker.

Spørsmål: Du studerer for tiden generativ AI og store språkmodeller. Når kan det brukes i forsvarsdepartementet?

A: De kommersielle storspråklige modellene er definitivt ikke begrenset til å fortelle sannheten, så jeg er skeptisk. Når det er sagt, gjennom Task Force Lima (lansert i august) studerer vi mer enn 160 brukstilfeller. Vi ønsker å bestemme hva som er lavrisiko og trygt. Jeg fastsetter ikke offisiell politikk her, men la oss anta en hypotese.

Lavrisiko kan være noe som å generere første utkast skriftlig eller datakode. I slike tilfeller kommer mennesker til å redigere, eller i tilfelle av programvare, kompilere. Det kan også potensielt fungere for informasjonsinnhenting - der fakta kan valideres for å sikre at de er korrekte.

Spørsmål: En stor utfordring med AI er å ansette og beholde talentet som trengs for å teste og evaluere systemer og merke data. AI-dataforskere tjener mye mer enn det Pentagon tradisjonelt har betalt. Hvor stort problem er dette?

A: Det er en stor boks med ormer. Vi har nettopp opprettet et digitalt talentforvaltningskontor og tenker hardt på hvordan vi skal fylle et helt nytt sett med jobbroller. For eksempel, trenger vi virkelig å ansette folk som ønsker å bli i forsvarsdepartementet i 20-30 år? Sannsynligvis ikke.

Men hva om vi kan få dem for tre eller fire? Hva om vi betalte for høyskolen deres og de betaler oss tilbake med tre eller fire år og deretter går av med den erfaringen og blir ansatt av Silicon Valley? Vi tenker kreativt som dette. Kan vi for eksempel være en del av en mangfoldspipeline? Rekruttere ved HBCUs (historisk svarte høyskoler og universiteter)?

spot_img

Siste etterretning

spot_img