Zephyrnet-logotyp

Operationalisering av ansvarsfulla AI-principer för försvar – IBM Blog

Datum:


Operationalisering av ansvarsfulla AI-principer för försvar – IBM Blog



Bakifrån av ung kvinna, frilansande dataforskare som arbetar på distans hemma med kodning av programmering på Big data mining, AI-datateknik, IT-tekniker arbetar med artificiell intelligens-projekt.

Artificiell intelligens (AI) förändrar samhället, inklusive själva karaktären av nationell säkerhet. Försvarsdepartementet (DoD) insåg detta och lanserade 2019 Joint Artificial Intelligence Center (JAIC), föregångaren till Chief Digital and Artificial Intelligence Office (CDAO), för att utveckla AI-lösningar som bygger konkurrenskraftiga militära fördelar, villkor för mänskliga- centrerad AI-antagande och smidigheten i DoD-operationer. Men vägspärrarna för att skala, adoptera och förverkliga den fulla potentialen av AI i DoD liknar dem i den privata sektorn.

En nyligen IBM-undersökning fann att de främsta hindren för framgångsrik AI-distribution inkluderar begränsade AI-kunskaper och expertis, datakomplexitet och etiska problem. Vidare, enligt IBM Institute of Business Value, 79 % av cheferna säger att AI-etik är viktigt för deras företagsomfattande AI-strategi, men mindre än 25 % har operationaliserat gemensamma principer för AI-etik. Att få förtroende för resultatet av AI-modeller är en socioteknisk utmaning som kräver en socioteknisk lösning.

Försvarsledare som fokuserar på att operationalisera den ansvarsfulla kureringen av AI måste först komma överens om ett delat ordförråd – en gemensam kultur som vägleder säker och ansvarsfull användning av AI – innan de implementerar tekniska lösningar och skyddsräcken som minskar riskerna. DoD kan lägga en stabil grund för att uppnå detta genom att förbättra AI-kunskapen och samarbeta med betrodda organisationer för att utveckla styrning anpassad till dess strategiska mål och värderingar.

AI-kunskap är ett måste för säkerheten

Det är viktigt att personalen vet hur man distribuerar AI för att förbättra organisationens effektivitet. Men det är lika viktigt att de har en djup förståelse för riskerna och begränsningarna med AI och hur man implementerar lämpliga säkerhetsåtgärder och etiska skyddsräcken. Dessa är bordsinsatser för DoD eller någon statlig myndighet.

En skräddarsydd AI-inlärningsväg kan hjälpa till att identifiera luckor och nödvändig utbildning så att personalen får den kunskap de behöver för sina specifika roller. Institutionsomfattande AI-kunskap är avgörande för all personal för att de snabbt ska kunna bedöma, beskriva och reagera på snabbrörliga, virala och farliga hot som desinformation och deepfakes. 

IBM tillämpar AI-läskunnighet på ett skräddarsytt sätt inom vår organisation, eftersom definitionen av väsentlig läskunnighet varierar beroende på en persons position.

Stödja strategiska mål och anpassa sig till värderingar

Som ledare inom pålitlig artificiell intelligens har IBM erfarenhet av att utveckla styrningsramverk som styr ansvarsfull användning av AI i linje med kundorganisationers värderingar. IBM har också sina egna ramverk för användning av AI inom IBM själv, vilket informerar politiska positioner såsom användning av ansiktsigenkänningsteknik.

AI-verktyg används nu i nationell säkerhet och för att skydda mot dataöverträdelser och cyberattack. Men AI stöder också andra strategiska mål för DoD. Det kan utöka arbetsstyrkan, hjälpa till att göra dem mer effektiva och hjälpa dem omkompetens. Det kan bidra till att skapa motståndskraft leveranskedjor att stödja soldater, sjömän, flygare och marinsoldater i roller som krigsstrid, humanitärt bistånd, fredsbevarande och katastrofhjälp.

CDAO inkluderar fem etiska principer om ansvarsfull, rättvis, spårbar, pålitlig och styrbar som en del av sin ansvarig AI-verktygslåda. Baserat på den amerikanska militärens befintliga etiska ramverk är dessa principer grundade i militärens värderingar och hjälper till att upprätthålla dess engagemang för ansvarsfull AI.

Det måste finnas en samlad ansträngning för att göra dessa principer till verklighet genom att beakta de funktionella och icke-funktionella kraven i modellerna och styrsystemen kring dessa modeller. Nedan ger vi breda rekommendationer för operationalisering av CDAO:s etiska principer.

1. Ansvarig

"DoD-personal kommer att utöva lämpliga nivåer av omdöme och omsorg, samtidigt som de förblir ansvarig för utvecklingen, driftsättningen och användningen av AI-kapacitet."

Alla är överens om att AI-modeller bör utvecklas av personal som är försiktig och omtänksam, men hur kan organisationer fostra människor att göra detta arbete? Vi rekommenderar:

  • Att främja en organisationskultur som erkänner den sociotekniska karaktären hos AI-utmaningar. Detta måste kommuniceras från början, och det måste finnas ett erkännande av de metoder, färdigheter och omtänksamhet som måste läggas in i modeller och deras hantering för att övervaka prestanda.
  • Detaljerad etikpraxis under hela AI-livscykeln, motsvarande affärsmål (eller uppdrag), dataförberedelse och modellering, utvärdering och implementering. De CRISP-DM modell är användbar här. IBM:s Skalad datavetenskap metod, en förlängning av CRISP-DM, erbjuder styrning över hela AI-modellens livscykel informerad av samverkande input från datavetare, industriella och organisatoriska psykologer, designers, kommunikationsspecialister och andra. Metoden kombinerar bästa praxis inom datavetenskap, projektledning, designramverk och AI-styrning. Team kan enkelt se och förstå kraven i varje skede av livscykeln, inklusive dokumentation, vem de behöver prata med eller samarbeta med och nästa steg.
  • Tillhandahålla tolkbar AI-modellmetadata (till exempel som faktablad) specificering av ansvariga personer, prestationsriktmärken (jämfört med mänskliga), data och metoder som används, revisionsprotokoll (datum och av vem), samt revisionsändamål och resultat.

Obs: Dessa ansvarsmått måste kunna tolkas av AI-experter (utan "matteförklaring").

2. Rättvisa

"Avdelningen kommer att vidta medvetna åtgärder för att minimera oavsiktlig fördom i AI-kapacitet."

Alla är överens om att användningen av AI-modeller ska vara rättvis och inte diskriminera, men hur går det till i praktiken? Vi rekommenderar:

  • Etablera en kompetenscentrum att ge olika, tvärvetenskapliga team en gemenskap för tillämpad utbildning för att identifiera potentiella olika effekter.
  • Använda revisionsverktyg för att återspegla den fördom som uppvisas i modeller. Om reflektionen överensstämmer med organisationens värderingar är transparens kring de valda data och metoder nyckeln. Om reflektionen inte stämmer överens med organisatoriska värderingar är detta en signal om att något måste förändras. Att upptäcka och mildra potentiella olika effekter orsakade av partiskhet innebär mycket mer än att undersöka de data som modellen tränades på. Organisationer måste också granska personer och processer som är involverade. Har till exempel lämpliga och olämpliga användningar av modellen tydligt kommunicerats?
  • Mäta rättvisa och göra rättvisa standarder angripbara genom att tillhandahålla funktionella och icke-funktionella krav för olika servicenivåer.
  • Använda designtänkande ramverk för att bedöma oavsiktliga effekter av AI-modeller, fastställa slutanvändarnas rättigheter och operationalisera principer. Det är viktigt att övningar för designtänkande inkluderar människor med vitt skilda upplevelser—ju mer varierande desto bättre.

3. Spårbar

"Avdelningens AI-kapacitet kommer att utvecklas och distribueras så att relevant personal har en lämplig förståelse för tekniken, utvecklingsprocesser och operativa metoder som är tillämpliga på AI-kapacitet, inklusive med transparenta och revisionsbara metoder, datakällor och designprocedurer och dokumentation."

Operationalisera spårbarhet genom att tillhandahålla tydliga riktlinjer till all personal som använder AI:

  • Gör alltid klart för användarna när de använder ett AI-system.
  • Tillhandahåll jordning av innehåll för AI-modeller. Ge domänexperter möjlighet att kurera och underhålla pålitliga datakällor som används för att träna modeller. Modellutdata baseras på data som den tränades på.

IBM och dess partners kan tillhandahålla AI-lösningar med omfattande, granskningsbart innehåll som är absolut nödvändigt för användningsfall med hög risk.

  • capture nyckelmetadata för att göra AI-modeller transparenta och hålla reda på modellinventeringen. Se till att denna metadata är tolkningsbar och att rätt information exponeras för lämplig personal. Datatolkning kräver övning och är ett tvärvetenskapligt arbete. På IBM, vår Design för AI gruppen syftar till att utbilda anställda om den kritiska rollen för data i AI (bland andra grunder) och donerar ramverk till öppen källkod.
  • Gör denna metadata lätt att hitta för människor (i slutändan vid utgångskällan).
  • Inkludera human-in-the-loop eftersom AI ska förstärka och hjälpa människor. Detta gör att människor kan ge feedback när AI-system fungerar.
  • Skapa processer och ramverk för att bedöma olika påverkan och säkerhetsrisker i god tid innan modellen implementeras eller upphandlas. Utse ansvariga personer för att minska dessa risker.

4. Pålitlig

"Avdelningens AI-förmågor kommer att ha explicita, väldefinierade användningsområden, och säkerheten, säkerheten och effektiviteten hos sådana förmågor kommer att bli föremål för testning och försäkran inom dessa definierade användningsområden över hela deras livscykler."

Organisationer måste dokumentera väldefinierade användningsfall och sedan testa efterlevnad. Att operationalisera och skala denna process kräver stark kulturell anpassning så att utövare följer de högsta standarderna även utan konstant direkt tillsyn. Bästa metoder inkluderar:

  • Etablera gemenskaper som ständigt bekräftar varför rättvisa, pålitliga resultat är avgörande. Många utövare tror uppriktigt att helt enkelt genom att ha de bästa avsikterna kan det inte bli någon olik inverkan. Detta är missriktat. Tillämpad utbildning av mycket engagerade samhällsledare som får människor att känna sig hörda och inkluderade är avgörande.
  • Bygga reliabilitetstestningsrationaler kring riktlinjerna och standarderna för data som används i modellträning. Det bästa sättet att göra detta verkligt är att ge exempel på vad som kan hända när denna granskning saknas.
  • Begränsa användarnas tillgång till modellutveckling, men samla olika perspektiv i början av ett projekt för att mildra införandet av partiskhet.
  • Utför integritets- och säkerhetskontroller under hela AI-livscykeln.
  • Inkludera mått på noggrannhet i regelbundna schemalagda revisioner. Var otvetydigt rättfram om hur modellprestanda kan jämföras med en människa. Om modellen inte ger ett korrekt resultat, specificera vem som är ansvarig för den modellen och vilken möjlighet användarna har. (Allt detta bör bakas in i den tolkbara, hittabara metadatan).

5. Styrbar

"Avdelningen kommer att designa och konstruera AI-kapacitet för att uppfylla sina avsedda funktioner samtidigt som den har förmågan att upptäcka och undvika oavsiktliga konsekvenser, och förmågan att koppla ur eller inaktivera utplacerade system som visar oavsiktligt beteende."

Operationalisering av denna princip kräver:

  • AI-modellinvesteringar slutar inte vid implementering. Dedikera resurser för att säkerställa att modeller fortsätter att bete sig som önskat och förväntat. Bedöm och minska riskerna under hela AI-livscykeln, inte bara efter implementeringen.
  • Utse en ansvarig part som har ett finansierat mandat att utföra förvaltningsarbetet. De måste ha makt.
  • Satsa på kommunikation, samhällsbyggande och utbildning. Utnyttja verktyg som t.ex watsonx.governance till övervaka AI-system.
  • Fånga och hantera AI-modellinventering enligt beskrivningen ovan.
  • Implementera cybersäkerhetsåtgärder över alla modeller.

IBM ligger i framkant när det gäller att utveckla pålitlig AI

IBM har legat i framkant när det gäller att främja pålitliga AI-principer och en tankeledare inom styrningen av AI-system sedan deras uppkomst. Vi följer långvariga principer om förtroende och transparens som tydliggör att AIs roll är att förstärka, inte ersätta, mänsklig expertis och omdöme.

2013 inledde IBM resan mot förklaringsbarhet och transparens inom AI och maskininlärning. IBM är ledande inom AI-etik, utser en global ledare för AI-etik 2015 och skapar en AI-etikstyrelse 2018. Dessa experter arbetar för att säkerställa att våra principer och åtaganden upprätthålls i våra globala affärsengagemang. År 2020 donerade IBM sina verktyg för ansvarsfull AI till Linux Foundation för att hjälpa till att bygga framtiden för rättvis, säker och pålitlig AI.

IBM leder globala ansträngningar för att forma framtiden för ansvarsfull AI och etiska AI-mått, standarder och bästa praxis:

  • Engagerad med president Bidens administration om utvecklingen av dess AI Executive Order
  • Avslöjat/inlämnat 70+ patent för ansvarig AI
  • IBM:s vd Arvind Krishna är medordförande för Global AI Action Alliances styrkommitté som lanserats av World Economic Forum (WEF),
  • Alliance fokuserar på att påskynda införandet av inkluderande, transparent och pålitlig artificiell intelligens globalt
  • Medförfattare till två artiklar publicerade av WEF om Generativ AI om att låsa upp värde och utveckla säkra system och teknologier.
  • Medordförande för Trusted AI-kommittén Linux Foundation AI
  • Bidragit till NIST AI Risk Management Framework; samarbeta med NIST inom området AI-mätningar, standarder och tester

Att kurera ansvarsfull AI är en mångfacetterad utmaning eftersom det kräver att mänskliga värderingar återspeglas på ett tillförlitligt och konsekvent sätt i vår teknik. Men det är väl värt ansträngningen. Vi tror att riktlinjerna ovan kan hjälpa DoD att operationalisera betrodd AI och hjälpa den att uppfylla sitt uppdrag.

Mer information om hur IBM kan hjälpa dig finns på AI Governance Consulting | IBM

Skapa en holistisk AI-styrningsmetod

Fler resurser:

var den här artikeln hjälpsam?

JaNej


Mer från artificiell intelligens




Lås upp ekonomiska fördelar genom att tjäna pengar på data

6 min läs - Intäktsgenerering för data ger organisationer möjlighet att använda sina datatillgångar och artificiell intelligens (AI) för att skapa påtagligt ekonomiskt värde. Detta värdeutbytessystem använder dataprodukter för att förbättra affärsresultat, få en konkurrensfördel och ta itu med branschens utmaningar som svar på marknadens efterfrågan. Ekonomiska fördelar inkluderar ökade intäkter genom skapandet av närliggande affärsmodeller inom industrin, tillgång till nya marknader för att etablera fler intäktsströmmar och växande befintliga intäkter. Kostnadsoptimering kan uppnås genom en kombination av produktivitetsförbättringar, infrastruktur...




Minska defekter och stillestånd med AI-aktiverade automatiska inspektioner

3 min läs - En stor, multinationell biltillverkare som ansvarar för att producera miljontals fordon årligen, samarbetade med IBM för att effektivisera deras tillverkningsprocesser med sömlösa, automatiserade inspektioner som drivs av realtidsdata och artificiell intelligens (AI). Som biltillverkare har vår kund en inneboende skyldighet att tillhandahålla högkvalitativa produkter. Helst måste de upptäcka och åtgärda eventuella defekter i god tid innan bilen når konsumenten. Dessa defekter är ofta dyra, svåra att identifiera och utgör en myriad av betydande risker för kundnöjdheten.…




Avslöjar den transformativa AI-tekniken bakom watsonx Orders

4 min läs - Du är på väg till din favorit drive-thru för att ta pommes frites och en cheeseburgare. Det är en enkel beställning och när du drar in märker du att det inte finns mycket av en rad. Vad kan gå fel? Massor. Restaurangen ligger nära en trafikerad motorväg med brusande trafikljud och flygplan flyger lågt över huvudet när de närmar sig den närliggande flygplatsen. Det är blåsigt. Stereon spränger i bilen bakom dig och kunden i nästa körfält försöker beställa på...

IBMs nyhetsbrev

Få våra nyhetsbrev och ämnesuppdateringar som ger det senaste tankeledarskapet och insikter om nya trender.

Prenumerera nu

Fler nyhetsbrev

plats_img

Senaste intelligens

plats_img