Zephyrnet-logo

Om inclusiviteit te garanderen, moet de administratie van Biden de AI-ontwikkelingsinitiatieven verdubbelen

Datum:

De National Security Commission on Artificial Intelligence (NSCAI) heeft een verslag vorige maand met een ongemakkelijke openbare boodschap: Amerika is niet bereid om te verdedigen of te concurreren in het AI-tijdperk. Het leidt tot twee belangrijke vragen die onze onmiddellijke reactie vereisen: zullen de VS een wereldwijde supermacht blijven als ze achterop raken bij de ontwikkeling en implementatie van AI? En wat kunnen we doen om dit traject te veranderen?

Ongecontroleerde, schijnbaar neutrale hulpmiddelen voor kunstmatige intelligentie (AI) kunnen en zullen ongelijkheden in stand houden en in feite discriminatie automatiseren. Door technologie veroorzaakte schade is al aan de oppervlakte gekomen bij kredietbeslissingen, Gezondheidszorg en reclame.

Om deze herhaling en groei op schaal te voorkomen, moet de administratie van Biden de huidige wetten met betrekking tot AI en machine learning-modellen verduidelijken - zowel in termen van hoe we het gebruik door particuliere actoren zullen evalueren als hoe we het gebruik van AI binnen onze overheidssystemen zullen beheersen.

Ongecontroleerde, schijnbaar neutrale hulpmiddelen voor kunstmatige intelligentie (AI) kunnen en zullen ongelijkheden in stand houden en in feite discriminatie automatiseren.

De administratie heeft een sterke stap voorwaarts gezet, van belangrijke benoemingen in de technische ruimte tot het uitgeven van een uitvoerende orde op de eerste dag dat er een Equitable Data Working Group werd opgericht. Dit heeft sceptici gerustgesteld die bezorgd zijn over zowel de Amerikaanse toewijding aan AI-ontwikkeling als het waarborgen van gelijkheid in de digitale ruimte.

Maar dat zal vluchtig zijn, tenzij de regering een sterke vastberadenheid toont om AI-financiering te realiseren en leiders en structuren op te richten die nodig zijn om de ontwikkeling en het gebruik ervan te waarborgen.

Behoefte aan duidelijkheid over prioriteiten

Er heeft een seismische verschuiving plaatsgevonden op federaal niveau in AI-beleid en in verklaarde toezeggingen voor gelijkheid in technologie. Een aantal spraakmakende benoemingen door de administratie van Biden - van Dr.Alondra Nelson als plaatsvervanger van OSTP, tot Tim Wu bij de NEC, tot (onze voormalige senior adviseur) Kurt Campbell bij de NSC - geven aan dat er veel aandacht zal worden besteed aan inclusieve AI-ontwikkeling door experts van binnenuit.

De NSCAI eindrapport bevat aanbevelingen die van cruciaal belang kunnen zijn om een ​​betere basis voor inclusieve AI-ontwikkeling mogelijk te maken, zoals het creëren van nieuwe talentpijplijnen via een Amerikaanse Digital Service Academy om huidige en toekomstige medewerkers op te leiden.

Het rapport beveelt ook aan om een ​​nieuw Raad Technologie Concurrentievermogen onder leiding van de vice-president. Dit zou essentieel kunnen zijn om ervoor te zorgen dat de toewijding van het land aan AI-leiderschap een prioriteit blijft op het hoogste niveau. Het is logisch dat de leiding van de regering op het gebied van AI wordt geleid door vicepresident Harris in het licht van haar strategische partnerschap met de president, haar gewiekst met technisch beleid en haar focus op burgerrechten.

De VS moeten het goede voorbeeld geven

We weten dat AI krachtig is in zijn vermogen om efficiëntie te creëren, zoals door duizenden cv's te ploegen om mogelijk geschikte kandidaten te identificeren. Maar het kan ook discriminatie schalen, zoals de Amazon-wervingstool die prioriteit gaven aan mannelijke kandidaten of "digitale redlining”Krediet op basis van ras.

De regering-Biden zou een uitvoerend bevel moeten uitvaardigen aan agentschappen om ideeën uit te nodigen over manieren waarop AI de overheidsactiviteiten kan verbeteren. Het bevel zou ook controles op AI die door de USG wordt gebruikt, moeten verplichten om ervoor te zorgen dat het niet onbedoeld discriminerende resultaten verspreidt.

Er moet bijvoorbeeld een routineschema zijn waar AI-systemen worden geëvalueerd om ervoor te zorgen dat ingebedde, schadelijke vooroordelen niet resulteren in aanbevelingen die discriminerend zijn of inconsistent zijn met onze democratische, inclusieve waarden - en routinematig opnieuw worden geëvalueerd, aangezien AI voortdurend herhaalt en leert nieuwe patronen.

Het invoeren van een verantwoordelijk AI-governancesysteem is met name van cruciaal belang voor de Amerikaanse regering, die moet worden aangeboden twee bescherming bij het weigeren van bepaalde voordelen. Bijvoorbeeld wanneer AI wordt gebruikt om de toewijzing van Medicaid voordelen, en dergelijke voordelen worden gewijzigd of geweigerd op basis van een algoritme, moet de overheid die uitkomst kunnen verklaren, toepasselijk technologisch gepast proces genoemd.

Als beslissingen worden gedelegeerd aan geautomatiseerde systemen zonder uitlegbaarheid, richtlijnen en menselijk toezicht, bevinden we ons in de onhoudbare situatie waarin dit fundamentele grondwettelijke recht wordt ontzegd.

Evenzo heeft de administratie een enorme macht om ervoor te zorgen dat AI-waarborgen door belangrijke zakelijke spelers aanwezig zijn via haar inkoopmacht. Federale contractuitgaven werden verwacht meer dan $ 600 miljard in het boekjaar 2020, zelfs voordat pandemische economische stimuleringsfondsen werden opgenomen. De USG zou een enorme impact kunnen hebben door een checklist uit te geven voor federale aanschaf van AI-systemen - dit zou ervoor zorgen dat het overheidsproces zowel rigoureus als universeel wordt toegepast, inclusief relevante burgerrechtenoverwegingen.

Bescherming tegen discriminatie als gevolg van AI-systemen

De regering heeft nog een andere krachtige hefboom om ons te beschermen tegen AI-schade: haar onderzoeks- en vervolgingsautoriteit. Een uitvoerend bevel dat agentschappen instrueert om de toepasbaarheid van de huidige wet- en regelgeving te verduidelijken (bijv. ADA, Fair Housing, Fair Lending, Civil Rights Act, enz.) Wanneer vaststellingen afhankelijk zijn van AI-aangedreven systemen, zou kunnen resulteren in een wereldwijde afrekening. Bedrijven die in de VS actief zijn, zouden ongetwijfeld gemotiveerd zijn om hun AI-systemen te controleren op schade door beschermde klassen.

Mensen met een laag inkomen zijn onevenredig kwetsbaar voor veel van de negatieve effecten van AI. Dit is vooral duidelijk met betrekking tot Credits en het creëren van leningen, omdat ze minder snel toegang hebben tot traditionele financiële producten of het vermogen hebben om hoge scores te behalen op basis van traditionele kaders. Dit worden dan de gegevens die worden gebruikt om AI-systemen te creëren die dergelijke beslissingen automatiseren.

Het Consumer Finance Protection Bureau (CFPB) kan een cruciale rol spelen bij het verantwoordelijk houden van financiële instellingen voor discriminerende kredietprocessen die voortvloeien uit het vertrouwen op discriminerende AI-systemen. Het mandaat van een EO zou een dwingende functie zijn voor uitspraken over hoe AI-geactiveerde systemen zullen worden geëvalueerd, bedrijven op de hoogte stellen en het publiek beter beschermen met duidelijke verwachtingen over het gebruik van AI.

Er is een duidelijk pad naar aansprakelijkheid wanneer een persoon op een discriminerende manier handelt en een eerlijk proces schending wanneer een algemeen voordeel willekeurig wordt geweigerd, zonder uitleg. Theoretisch zouden deze aansprakelijkheden en rechten gemakkelijk worden overgedragen wanneer er een AI-systeem bij betrokken is, maar een evaluatie van de actie van het agentschap en een juridisch precedent (of liever, het ontbreken daarvan) geeft iets anders aan.

De administratie is goed begonnen, zoals het terugdraaien van een voorgestelde HUD-regel dat zou juridische uitdagingen tegen discriminerende AI in wezen onbereikbaar hebben gemaakt. Vervolgens zouden federale agentschappen met onderzoeks- of vervolgingsbevoegdheid moeten verduidelijken welke AI-praktijken onder hun beoordeling zouden vallen en de huidige wetten zouden van toepassing zijn - bijvoorbeeld HUD voor illegale huisvestingsdiscriminatie; CFPB over AI die wordt gebruikt bij kredietverlening; en het Department of Labor on AI die wordt gebruikt bij vaststellingen bij aanwervingen, evaluaties en beëindigingen.

Een dergelijke actie zou het extra voordeel hebben dat een nuttig precedent voor eiser acties in klachten.

De regering-Biden heeft bemoedigende eerste stappen gezet om haar intentie kenbaar te maken om inclusieve, minder discriminerende AI te waarborgen. Het moet echter zijn eigen huis op orde brengen door te bepalen dat federale agentschappen vereisen dat de ontwikkeling, verwerving en het gebruik van AI - intern en door degenen waarmee het zaken doet - gebeurt op een manier die de privacy, burgerrechten, burgerlijke vrijheden en Amerikaanse waarden.

Coinsmart. Beste Bitcoin-beurs in Europa
Bron: https://techcrunch.com/2021/04/22/to-ensure-inclusivity-the-biden-administration-must-double-down-on-ai-development-initiatives/

spot_img

Laatste intelligentie

spot_img