Zephyrnet-logo

Het Amerikaanse Ministerie van Defensie schakelt Scale AI in om het leger slimmer te maken

Datum:

Het Amerikaanse ministerie van Defensie werkt naar verluidt samen met startup Scale AI om generatieve AI-modellen voor militair gebruik te testen.

Scale AI zal een raamwerk bouwen van tools en datasets die het Pentagon kan inzetten om grote taalmodellen te evalueren. Het raamwerk omvat “het meten van de prestaties van modellen, het bieden van realtime feedback aan oorlogsstrijders en het creëren van gespecialiseerde evaluatiesets voor de publieke sector om AI-modellen voor militaire ondersteuningstoepassingen te testen, zoals het organiseren van de bevindingen uit rapporten na actie”, aldus het in San Francisco gevestigde bedrijf. vertelde DefensieScoop.

Het vermogen van grote taalmodellen om tekst te analyseren en te genereren zou het vermogen van het Pentagon kunnen vergroten om inlichtingen te verzamelen, operaties te plannen en zo de besluitvorming op gevechtsgebied te sturen.

“Stel je een wereld voor waarin strijdende commandanten alles kunnen zien wat ze nodig hebben om strategische beslissingen te nemen”, zegt Craig Martell, Chief Digital and Artificial Intelligence Officer van het DoD.

“Stel je een wereld voor waarin die strijdende commandanten die informatie niet krijgen via PowerPoint of via e-mails van de hele [organisatie] – de doorlooptijd voor situationeel bewustzijn krimpt van een dag of twee naar tien minuten,” hij gedeclareerd tijdens het Advantage DoD 2024: Defense Data and AI Symposium.

AI kan grote hoeveelheden informatie snel verwerken. Militaire gegevens zijn echter vaak zeer gevoelig – en functionarissen maken zich zorgen dat als ze grote taalmodellen bereiken, snelle injectie-aanvallen of API-misbruik ervoor kunnen zorgen dat ze gaan lekken.

De grootste belemmering voor de militaire implementatie van LLM’s is hun neiging om onnauwkeurige of valse informatie te genereren – ook wel hallucinatie genoemd. Door Scale AI in te voeren, gelooft het Pentagon dat het de prestaties van verschillende modellen kan testen om potentiële risico's te identificeren voordat het overweegt deze te gebruiken ter ondersteuning van oorlogsgevechten of inlichtingen.

De startup zal naar verluidt ‘holdout-datasets’ samenstellen die voorbeelden bevatten van effectieve reacties op invoerprompts die nuttig zouden kunnen zijn voor het leger. Ambtenaren bij het Ministerie van Defensie kunnen vervolgens de reacties van verschillende modellen op dezelfde aanwijzingen vergelijken en hun nut beoordelen.

Vorig jaar werd het DoD gelanceerd Taskforce Lima – een eenheid onder leiding van Martell, voormalig hoofd machine learning bij ride-share biz Lyft, om militaire toepassingen voor generatieve AI te onderzoeken.

“Het DoD heeft de plicht om op verantwoorde wijze de adoptie van generatieve AI-modellen na te streven en tegelijkertijd de juiste beschermende maatregelen te identificeren en de nationale veiligheidsrisico’s te beperken die kunnen voortvloeien uit problemen zoals slecht beheerde trainingsgegevens”, legde Martell destijds uit. “We moeten ook rekening houden met de mate waarin onze tegenstanders deze technologie zullen gebruiken en proberen ons eigen gebruik van op AI gebaseerde oplossingen te verstoren.”

Tools zoals ChatGPT zijn dat geweest tijdelijk verboden intern echter. De Amerikaanse ruimtemacht vertelde het personeel de software niet te gebruiken, uit angst dat militaire geheimen zouden kunnen worden onthuld of bovengehaald.

Scale AI weigerde commentaar te geven op de kwestie. ®

spot_img

Laatste intelligentie

spot_img