Zephyrnet-logo

De AI-baas van het Pentagon zoekt naar 'gerechtvaardigd vertrouwen' om technologie in de strijd te brengen

Datum:

Craig Martell, hoofd digitale en kunstmatige intelligentie van het Pentagon, zei dat hij gealarmeerd is door het potentieel van generatieve kunstmatige intelligentiesystemen zoals ChatGPT om te misleiden en desinformatie te zaaien. Zijn lezing over de technologie op de DefCon-hackerconventie in augustus was een groot succes. Maar hij is allesbehalve zuur als het om betrouwbare AI gaat.

Martell was geen soldaat maar datawetenschapper en leidde machine learning bij bedrijven als LinkedIn, Dropbox en Lyft voordat hij vorig jaar de baan aannam.

Het verzamelen van de gegevens van het Amerikaanse leger en het bepalen welke AI betrouwbaar genoeg is om de strijd aan te gaan, is een grote uitdaging in een steeds onstabieler wordende wereld waarin meerdere landen racen om dodelijke autonome wapens te ontwikkelen.

Het interview is aangepast voor lengte en duidelijkheid.

-

Vraag: Wat is uw belangrijkste missie?

A: Het is onze taak om het beslissingsvoordeel van de directiekamer naar het slagveld te vergroten. Ik zie het niet als onze taak om een ​​paar specifieke missies aan te pakken, maar eerder om de tools, processen, infrastructuur en beleid te ontwikkelen waarmee de afdeling als geheel kan opschalen.

Vraag: Dus het doel is mondiale informatiedominantie? Wat heb je nodig om te slagen?

A: We komen eindelijk bij netwerkgerichte oorlogsvoering: hoe we de juiste gegevens op het juiste moment op de juiste plaats kunnen krijgen. Er is een hiërarchie van behoeften: kwaliteitsgegevens onderaan, analyses en statistieken in het midden, AI bovenaan. Om dit te laten werken, zijn gegevens van hoge kwaliteit het belangrijkst.

Vraag: Hoe moeten we nadenken over het gebruik van AI in militaire toepassingen?

A: Alle AI is eigenlijk het tellen van het verleden om de toekomst te voorspellen. Ik denk eigenlijk niet dat de moderne golf van AI anders is.

China, Oekraïne

Vraag: Wint China de AI-wapenwedloop?

A: Ik vind die metafoor enigszins gebrekkig. Toen we een nucleaire wapenwedloop hadden, was dat met een monolithische technologie. AI is dat niet. Het is ook geen doos van Pandora. Het is een reeks technologieën die we van geval tot geval toepassen, waarbij we empirisch verifiëren of deze effectief zijn of niet.

Vraag: Het Amerikaanse leger gebruikt AI-technologie om Oekraïne te helpen. Hoe help jij?

A: Ons team is niet betrokken bij Oekraïne, behalve om te helpen een database op te bouwen over de manier waarop bondgenoten hulp verlenen. Het heet Hemelsblauw. Wij zorgen er alleen voor dat dit georganiseerd blijft.

Vraag: Er is veel discussie over autonome dodelijke wapens – zoals aanvalsdrones. De consensus is dat mensen uiteindelijk zullen worden gereduceerd tot een toezichthoudende rol – in staat zijn missies af te breken maar zich er meestal niet mee te bemoeien. Klinkt goed?

A: In het leger trainen we met een technologie totdat we een gerechtvaardigd vertrouwen ontwikkelen. Wij begrijpen de grenzen van een systeem, weten wanneer het werkt en wanneer niet. Hoe wordt dit in verband gebracht met autonome systemen? Neem mijn auto. Ik vertrouw erop dat de adaptieve cruisecontrol erop zit. De technologie die moet voorkomen dat hij van rijstrook verandert, is daarentegen verschrikkelijk. Ik heb dus geen gerechtvaardigd vertrouwen in dat systeem en gebruik het niet. Extrapoleer dat naar het leger.

'Trouwe vleugelman'

Vraag: Het 'loyal wingman'-programma van de luchtmacht dat in ontwikkeling is, zou ervoor zorgen dat drones samen vliegen met straaljagers die door mensen worden gevlogen. Is de computervisie goed genoeg om vriend van vijand te onderscheiden?

A: Computer vision heeft de afgelopen tien jaar geweldige vooruitgang geboekt. Of het in een bepaalde situatie nuttig is, is een empirische vraag. We moeten bepalen welke nauwkeurigheid we bereid zijn te accepteren voor de use case en op basis van die criteria voortbouwen – en testen. We kunnen dus niet generaliseren. Ik zou heel graag willen dat we stoppen met praten over de technologie als een monoliet, en in plaats daarvan praten over de mogelijkheden die we willen.

Vraag: U bestudeert momenteel generatieve AI en modellen voor grote talen. Wanneer kan het worden gebruikt bij het Ministerie van Defensie?

A: De commerciële groottaalmodellen zijn absoluut niet beperkt om de waarheid te vertellen, dus ik ben sceptisch. Dat gezegd hebbende, bestuderen we via Task Force Lima (gelanceerd in augustus) meer dan 160 gebruiksscenario's. Wij willen beslissen wat laag risico en veilig is. Ik bepaal hier geen officieel beleid, maar laten we een hypothese opstellen.

Een laag risico kan zoiets zijn als het genereren van eerste concepten op schrift of in computercode. In dergelijke gevallen gaan mensen bewerken, of in het geval van software, compileren. Het zou mogelijk ook kunnen werken voor het ophalen van informatie – waarbij feiten kunnen worden gevalideerd om ervoor te zorgen dat ze correct zijn.

Vraag: Een grote uitdaging bij AI is het aannemen en behouden van het talent dat nodig is om systemen te testen en evalueren en gegevens te labelen. AI-datawetenschappers verdienen veel meer dan wat het Pentagon traditioneel heeft betaald. Hoe groot is dit probleem?

A: Dat is een enorm blik wormen. We hebben zojuist een kantoor voor digitaal talentmanagement opgericht en denken hard na over de manier waarop we een geheel nieuwe reeks functies kunnen vervullen. Moeten we bijvoorbeeld echt mensen aannemen die twintig tot dertig jaar bij het Ministerie van Defensie willen blijven? Waarschijnlijk niet.

Maar wat als we ze voor drie of vier kunnen krijgen? Wat als we voor hun studie betaalden en zij betalen ons terug met drie of vier jaar en dan met die ervaring weggaan en aangenomen worden door Silicon Valley? Wij denken zo creatief. Kunnen we bijvoorbeeld deel uitmaken van een diversiteitspijplijn? Rekruteren bij HBCU's (historisch gezien zwarte hogescholen en universiteiten)?

spot_img

Laatste intelligentie

spot_img