Zephyrnet-logotyp

Implementerade AI som sätter företag i betydande risk, säger FICO-rapporten 

Datum:

De flesta företag använder AI med betydande risk, finner en ny rapport från Fair Isaac Corp på grund av omogna processer för AI-styrning. (Kredit: Getty Images) 

Av John P. Desmond, AI Trends Editor  

En ny rapport om ansvarsfull AI från Fair Isaac Corp. (FICO), företaget som ger dig kreditbetyg, visar att de flesta företag använder AI med betydande risk. 

Rapporten, Tillståndet för ansvarsfull AI: 2021, bedömer hur bra företag klarar sig av att anta ansvarsfull AI, se till att de använder AI etiskt, öppet, säkert och i deras kunders bästa.  

Scott Zoldi, Chief Analytics Officer, FICO

"Det korta svaret: inte bra", säger Scott Zoldi, Chief Analytics Officer på FICO, i ett nyligen redogjort för Fair Isaacs blogg. I samarbete med marknadsunderrättelsesföretaget Corinium för den andra upplagan av rapporten undersökte analytikerna 100 AI-fokuserade ledare från finansiella tjänster, försäkringar, detaljhandel, sjukvård och läkemedels-, tillverknings-, offentliga och allmännyttiga sektorer i februari och mars 2021.  

Bland höjdpunkterna: 

  • 65% av respondenternas företag kan inte förklara hur specifika AI-modellbeslut eller förutsägelser görs; 
  • 73% har kämpat för att få ledningsstöd för att prioritera AI-etik och ansvarsfull AI-praxis; och  
  • Endast 20% övervakar aktivt sina modeller i produktionen för rättvisa och etik. 

Med världsomspännande intäkter för AI-marknaden inklusive mjukvara, hårdvara och tjänster, som IDC-marknadsforskare förutser växa 16.4% 2021 till 327.5 miljarder dollar, ökar beroende av AI-teknik. Tillsammans med detta citerar rapportens författare ”ett brådskande behov” för att höja vikten av AI-styrning och ansvarsfull AI till styrelserummet.  

Definiera ansvarsfull AI 

Zoldi, som har mer än 100 författade patent inom områden inklusive bedrägeri-analys, cybersäkerhet, insamling och kreditrisk, studerar oförutsägbart beteende. Han definierar Ansvarig AI här och har hållit många tal om ämnet runt om i världen.  

"Oorganisationer utnyttjar alltmer AI för att automatisera viktiga processer som i vissa fall tar livsförändrande beslut för sina kunder, säger han. "Att inte förstå hur dessa beslut fattas, och om de är etiska och säkra, skapar enorma juridiska sårbarheter och affärsrisker." 

FICO-studien fann att chefer inte har någon enighet om vad ett företags ansvar ska vara när det gäller AI. Nästan hälften (45%) sa att de inte hade något ansvar utöver regelefterlevnad för att etiskt hantera AI-system som fattar beslut som direkt kan påverka människors försörjning. "Enligt min mening talar detta om behovet av mer reglering", sade han.  

Det behövs ramverk för styrning av AI-modeller för att övervaka AI-modeller för att säkerställa att de fattar ansvar, rättvisa, transparenta och ansvarsfulla. Endast 20% av respondenterna övervakar aktivt AI i produktion idag, fann rapporten. ”Ledningsgrupper och styrelser kan inte lyckas med ett” gör inget ont ”-mantra utan en modellhandbok för handhavande av styrning och företagsprocesser för att övervaka AI i produktionen, säger Zoldi. "AI-ledare måste upprätta standarder för sina företag där inga finns idag och främja aktiv övervakning." 

Verksamheten erkänner att saker måste förändras. Cirka 63% tror att AI-etik och ansvarsfull AI kommer att bli kärnan i deras organisations strategi inom två år.  

Cortnie Abercrombie, grundare och VD, AI Truth

"Jag tror att det nu finns mycket mer medvetenhet om att saker går fel", säger Cortnie Abercrombie, grundare och VD för den ansvariga AI-företagsgruppen AI Truth, och en bidragsgivare till FICO-rapporten. "Men jag vet inte att det nödvändigtvis finns mer kunskap om hur det händer." 

Vissa företag upplever spänningar mellan ledningsledare som kanske vill få modeller i produktion snabbt och dataforskare som vill ta sig tid att få saker rätt. "Jag har sett en hel del av vad jag kallar missbrukade datavetare," Abercrombie uttalade. 

Lite samförstånd kring vad som är etiskt ansvar kring AI  

Ganna Pogrebna, ledare för beteendevetenskap, Alan Turing Institute

Beträffande bristen på enighet om det etiska ansvaret kring AI måste företag arbeta med det, föreslog rapporten. ”För närvarande bestämmer företagen själva vad de tycker är etiskt och oetiskt, vilket är extremt farligt. Självreglering fungerar inte, säger Ganna Pogrebna, Lead for Behavioral Data Science vid Alan Turing Institute, också en bidragsgivare till FICO-rapporten. "Jag rekommenderar att varje företag bedömer graden av skada som potentiellt kan komma med att distribuera ett AI-system, jämfört med den goda nivå som potentiellt kan komma," sade hon.   

För att bekämpa AI-modellbias fann FICO-rapporten att fler företag tar med processen internt, med endast 10% av de tillfrågade cheferna som förlitar sig på ett tredjepartsföretag för att utvärdera modeller för dem.   

Forskningen visar att företag använder en rad olika metoder för att utrota orsakerna till AI-bias under modellutveckling, och att få organisationer har en omfattande uppsättning kontroller och balanser på plats.  

Endast 22% av de tillfrågade sa att deras organisation har en AI-styrelse för att överväga frågor om AI-etik och rättvisa. En av tre rapporterar att ett modellvalideringslag för att bedöma nyutvecklade modeller och 38% rapporterar att de har inbyggda steg för att minska dataförskjutning i modellutvecklingen.  

Årets forskning visar en överraskande förändring av affärsprioriteringar från förklarbarhet och mot modellnoggrannhet. "Företagen måste kunna förklara för människor varför vilken resurs som nekades dem av en AI nekades", säger Abercrombie om AI Truth.  

Kontroversiella AI-attacker rapporteras vara på väg upp  

Kontroversiella AI-attacker, där ingångar till maskininlärningsmodeller hackas i ett försök att motverka den korrekta funktionen av modellen, ökar, visar rapporten, med 30% av organisationerna som rapporterar en ökning, jämfört med 12% förra året undersökning. Zoldi uppgav att resultatet överraskade honom och föreslog att undersökningen behöver en uppsättning definitioner kring kontroversiell AI.  

Dataförgiftning och annan kontroversiell AI-teknik gränsar till cybersäkerhet. "Detta kan vara ett område där cybersäkerhet inte är där det behöver vara", säger Zoldi.  

Organisationspolitik citerades som det främsta hindret för att upprätta ansvarsfulla AI-metoder. "Det vi saknar idag är ärligt och rakt tal om vilka algoritmer som är mer ansvarsfulla och säkra", säger Zoldi. 

Respondenter från företag som måste följa regler har lite förtroende för att de gör ett bra jobb, med 31% som rapporterar de processer de använder för att säkerställa att projekt följer regler är effektiva. Cirka 68% rapporterar att deras modellöverensstämmelseprocesser är ineffektiva.  

När det gäller modellutvecklingsrevisionsspår erkänner fyra procent att de inte har underhållet standardiserade revisionsspår, vilket innebär att vissa AI-modeller som används i affärer idag förstår bara av datavetenskaparna som ursprungligen kodade dem.  

Detta faller under vad som kan beskrivas som Ansvarig AI, enligt Melissa Koide, VD för AI-forskningsorganisationen FinRegLab, och en bidragsgivare till FICO-rapporten. "Jag hanterar främst efterlevnadsrisk och bankernas och fintechs rättvisa utlåningssidor", sade hon. "Jag tror att de alla är ganska anpassade till, och ganska oroliga för, hur de gör styrning kring att använda mer ogenomskinliga modeller framgångsrikt."  

Fler organisationer samlas kring övergången till Ansvarig AI, inklusive Partnerskap för AI, bildades 2016 och inklusive Amazon, Facebook, Google, Microsoft och IBM, The Europeiska kommissionen publicerade 2019 en uppsättning icke-bindande etiska riktlinjer för att utveckla pålitlig AI, med input från 52 oberoende experter, enligt en färsk rapport i VentureBeat. Dessutom har Organisationen för ekonomiskt samarbete och utveckling (OECD) har skapat en global ram för AI kring gemensamma värderingar.  

Också, den World Economic Forum utvecklar en verktygslåda för företagsansvariga för att operativisera AI på ett ansvarsfullt sätt. Ledare från hela världen deltar.   

"Vi lanserade plattformen för att skapa en ram för att påskynda fördelarna och mildra riskerna med AI och ML", säger Kay Firth-Butterfield, chef för AI och maskininlärning och medlem av verkställande kommittén vid World Economic Forum. ”Det första stället för varje företag att börja när man distribuerar ansvarsfull AI är med ett etikuttalande. Detta gör att din AI-färdplan blir framgångsrik och ansvarsfull. ” 

Wison Pang, CTO för Appen, ett maskininlärningsutvecklingsföretag, som skapade VentureBeat-artikeln, citerade tre fokusområden för en övergång till Ansvarig AI: riskhantering, styrning och etik.  

"Företag som integrerar rörledningar och bäddar in kontroller i hela byggandet, driftsättningen och bortom är mer benägna att uppleva framgång," sade han.  

Läs källartiklarna och information om Fair Isaacs bloggi Fair Isaac-rapporten, Tillståndet för ansvarsfull AI: 2021, om definitionen i Ansvarig AI och i VentureBeat. 

Coinsmart. Bästa Bitcoin-Börse i Europa
Källa: https://www.aitrends.com/ethics-and-social-issues/deployed-ai-putting-companies-at-significant-risk-says-fico-report/

plats_img

Senaste intelligens

plats_img