Zephyrnet-logo

US DoD verver Scale AI for å hjelpe militæret med å bli smartere

Dato:

Det amerikanske forsvarsdepartementet jobber angivelig med oppstart Scale AI for å teste generative AI-modeller for militær bruk.

Scale AI vil bygge et rammeverk av verktøy og datasett som Pentagon kan distribuere for å evaluere store språkmodeller. Rammeverket vil innebære "måling av modellytelse, gi tilbakemeldinger i sanntid for krigskrigere og lage spesialiserte offentlig sektor-evalueringssett for å teste AI-modeller for militære støtteapplikasjoner, for eksempel organisering av funnene fra etteraksjonsrapporter," den San Francisco-baserte biz. fortalte DefenseScoop.

Store språkmodellers evne til å analysere og generere tekst kan øke Pentagons evne til å samle etterretning, planlegge for operasjoner og dermed veilede beslutningstaking i kampfeltet.

"Se for deg en verden der stridende befal kan se alt de trenger å se for å ta strategiske beslutninger," sa Craig Martell, DoDs sjef for digital og kunstig intelligens.

"Se for deg en verden der de stridende kommandantene ikke får den informasjonen via PowerPoint eller via e-post fra hele [organisasjonen] - behandlingstiden for situasjonsforståelse krymper fra en dag eller to til ti minutter," han erklærte under Advantage DoD 2024: Defense Data and AI Symposium.

AI kan raskt behandle store mengder informasjon. Militære data er imidlertid ofte svært sensitive – og tjenestemenn bekymrer seg for at hvis de når store språkmodeller, kan umiddelbare injeksjonsangrep eller API-misbruk få dem til å lekke.

Den største barrieren for militær implementering av LLM er deres tendens til å generere unøyaktig eller falsk informasjon – kalt hallusinasjon. Ved å ta inn Scale AI, tror Pentagon at de kan teste ytelsen til forskjellige modeller for å identifisere potensielle risikoer før de vurderer å bruke dem til å støtte krigføring eller etterretning.

Oppstarten vil angivelig kompilere "holdout-datasett" som inneholder eksempler på effektive svar på innspill som vil være nyttige for militæret. Tjenestemenn ved DoD kan deretter sammenligne forskjellige modellers svar på de samme spørsmålene og vurdere deres nytte.

I fjor ble DoD lansert Task Force Lima – en enhet ledet av Martell, tidligere leder for maskinlæring ved ride-share biz Lyft, for å undersøke militære applikasjoner for generativ AI.

"DoD har et imperativ for å på ansvarlig måte forfølge innføringen av generative AI-modeller samtidig som de identifiserer riktige beskyttelsestiltak og reduserer nasjonale sikkerhetsrisikoer som kan oppstå fra problemer som dårlig administrerte treningsdata," forklarte Martell den gang. "Vi må også vurdere i hvilken grad våre motstandere vil bruke denne teknologien og forsøke å forstyrre vår egen bruk av AI-baserte løsninger."

Verktøy som ChatGPT har vært midlertidig forbudt internt derimot. Den amerikanske romstyrken ba personalet ikke bruke programvaren, av frykt for at militære hemmeligheter kunne avsløres eller utvinnes.

Scale AI nektet å kommentere saken. ®

spot_img

Siste etterretning

spot_img