Zephyrnet-logo

Algen voor gezichtsherkenning lopen enorm uiteen, vertelde het Amerikaanse Congres, terwijl politici proberen nieuwe wetten voor geavanceerde technologie te bedenken

Datum:


De meest nauwkeurige algoritmen lieten 'weinig tot geen vooringenomenheid' zien, dus niets te vrezen, toch?

Op Een recent rapport van de Amerikaanse overheid dat de nauwkeurigheid van gezichtsherkenningssystemen in verschillende demografische groepen onderzoekt, heeft nieuwe vragen opgeroepen over hoe de technologie moet worden gereguleerd.

De Tweede Kamercommissie voor toezicht en hervorming heeft woensdag een hoorzitting gehouden om het dossier en de omliggende kwesties te bespreken. "Ondanks het gebruik van de technologie door de particuliere sector, is het gewoon niet klaar voor prime time", zei Rep Carolyn Maloney (D-NY), voorzitter van de vergadering.

De verslag [PDF], uitgegeven door America's National Institute of Standards (NIST) onthult in december hoe nauwkeurig, of liever onnauwkeurig, enkele van de nieuwste state-of-the-art commerciële algoritmen voor gezichtsherkenning zijn.

NIST testte 189 algoritmen die werden ingediend door 99 ontwikkelaars in een vier datasets bestaande uit 18.27 miljoen afbeeldingen gemaakt van 8.49 miljoen mensen.

"Hedendaagse gezichtsherkenning algoritmen vertonen demografische verschillen van verschillende grootte," zei het rapport. “Ons belangrijkste resultaat is dat vals-positieve verschillen veel groter zijn dan die gerelateerd aan valse negatieven en in grote lijnen bestaan, over vele, maar niet alle, geteste algoritmen. Over de hele demografie variëren vals-positieve tarieven vaak met factoren van tien tot meer dan 100 keer. Valse negatieven zijn meestal meer algoritme-specifiek. "

Met andere woorden: "verschillende algoritmen werken anders," verklaarde Charles Romine, directeur van het informatietechnologielaboratorium bij NIST en een getuige tijdens de hoorzitting. Het aantal verkeerde identificaties in valse positieven en valse negatieven is afhankelijk van de toepassing.

De meest risicovolle toepassingen waren toen valse positieven optraden in wat Romine omschreef als "één op veel zoekopdrachten", waarbij een afbeelding wordt uitgevoerd tegen een database met veel afbeeldingen om een ​​match te zoeken. "Valse positieven van één op veel zoeken zijn bijzonder belangrijk omdat de applicaties valse beschuldigingen kunnen bevatten," zei hij.

Een één-op-veel zoekopdracht met een hoog risico zou bijvoorbeeld overeenkomen met de gezichten van mensen in een database van mugshots om verdachte criminelen te zoeken. "Deze kwestie was niet eens op mijn radar tot de ACLU-studie me verkeerd identificeerde", zei congreslid Jimmy Gomez (D-CA), die een van de 28 politici was die ten onrechte was geïdentificeerd in een database met mugshots in een experiment dat werd uitgevoerd door de American Civil Liberties Union.

“Ik twijfel er niet aan dat het me verkeerd heeft geïdentificeerd vanwege mijn kleur. De technologie is fundamenteel gebrekkig, "voegde hij eraan toe.

Het NIST-rapport benadrukte het reeds gevestigde feit dat de meeste gezichtsherkenningssystemen worstelen met het identificeren van vrouwen, mensen van kleur en ouderen, vergeleken met blanke blanke mannen. Valse positieven waren tussen twee en vijf keer hoger bij vrouwen dan mannen en waren het hoogst voor West- en Oost-Afrikaanse en Oost-Aziatische mensen, volgens het onderzoek.

Er moet echter worden opgemerkt dat de foutenpercentages voor het identificeren van Oost-Aziatische mensen minder problematisch waren voor gezichtsherkenningssystemen die werden ontwikkeld in Oost-Aziatische landen zoals China, wat suggereert dat de verdeling van demografie in trainingsgegevens een grote rol speelt bij het bepalen van de nauwkeurigheid.

Maar voor de meest nauwkeurige algoritmen waren de identificatieproblemen in verschillende demografieën verminderd.

AI-algoritmen verbeteren snel in de loop van de tijd

"In het afgelopen jaar heb ik krantenkoppen gezien die suggereerden dat gezichtsherkenningstechnologie onnauwkeurig, onrechtvaardig en invasief is", zei Daniel Castro, een getuige tijdens de hoorzitting en de veep en directeur van Center for Data Innovation bij de non-profit Informatie Stichting Technologie en Innovatie. "Als dat waar was, zou ik me ook zorgen maken, maar dat is het niet."

“Er zijn veel gezichtsherkenningssystemen op de markt; sommige presteren beter dan andere op het gebied van geslacht, geslacht, ras en leeftijd, ”zei hij. “Met name de meest nauwkeurige algoritmen die NIST heeft geëvalueerd, vertoonden weinig tot geen vertekening. Deze systemen worden elk jaar meetbaar beter en kunnen beter presteren dan de gemiddelde mens. "

Castro drong er bij het Congres op aan computervisie-onderzoek te blijven ondersteunen en federaal gebruik van gezichtsherkenningssystemen te financieren om de beveiliging in federale gebouwen te verbeteren. Hij was het er echter mee eens dat de toepassing van de technologie bijzonder belangrijk was en suggereerde dat het Congres overweegt om wetgeving te handhaven die wetshandhaving vereist om een ​​bevel te verkrijgen om de bewegingen van mensen te volgen als geolocatiegegevens worden verzameld uit gezichtsherkenningssystemen.

gezichtsherkenning

De FBI is bezig met het bouwen van een wereldwijd gezichtsherkenningssysteem - en we gaan naar de rechtbank om dat te bewijzen, zegt ACLU

LEES VERDER

Brenda Leong, de directeur van AI en ethiek op het Future of Privacy Forum, was het ook eens dat de context van hoe gezichtsherkenning van het grootste belang was. "Het niveau van zekerheid dat acceptabel is voor het verifiëren van de identiteit van een persoon bij het ontgrendelen van een mobiel apparaat, is lager dan de norm die vereist zou moeten zijn om te verifiëren dat een persoon op een watchlist voor terroristen staat", zei ze.

Als de meest nauwkeurige algoritmen steeds beter presteren in uitdagende demografische categorieën zoals geslacht, ras en leeftijd, is het dan acceptabel om ooit gezichtsherkenningssystemen te gebruiken in potentieel riskantere toepassingen, wilden de politici weten.

Meredith Whittaker, mede-oprichter van AI Now, een onderzoeksinstituut dat de sociale impact van algoritmen bestudeert, zei dat het Congres "het gebruik van gezichtsherkenning in gevoelige domeinen voor particuliere bedrijven moet stopzetten."

Nauwkeurigheid lijkt eenvoudigweg niet van belang te zijn, met name wat betreft gebruikssituaties, meende ze. Whittaker wees er bijvoorbeeld op dat algoritmen die worden gebruikt om de gezichtsuitdrukkingen van kandidaten in sollicitaties te analyseren om bepaalde kenmerken te zoeken, niet worden ondersteund door wetenschappelijk bewijs.

In plaats daarvan zouden ze een “bias feedback loop” kunnen creëren, legde ze uit, waar de mensen die al zijn toegekend en gepromoot een model worden voor het type mensen dat je wilt inhuren. Als zijn blanke mannen bijvoorbeeld in deze hogere posities zitten, kan een AI een voorkeur voor bevestiging creëren om andere blanke mannen te verkiezen.

Het Congres heeft bewijzen verzameld in de hoop op het opstellen van federaal beleid om de technologie al maanden te reguleren. Vorig jaar werden in mei en juli nog twee andere hoorzittingen met gezichtsherkenning gehouden.

"We hebben de verantwoordelijkheid om niet alleen innovatie aan te moedigen, maar ook om de privacy en veiligheid van Amerikaanse consumenten te beschermen," zei Maloney. "Onze commissie is vastbesloten om in de zeer nabije toekomst wetgeving inzake gezond verstand voor gezichtsherkenning in te voeren en te markeren en we hopen dat we dat op een echt tweedelige manier kunnen doen."

Hieronder vindt u een herhaling van de video van de hoorzitting. ®

Youtube Video

Gesponsorde: Cyberaanvallen detecteren als een kleine tot middelgrote onderneming

Bron: https://go.theregister.co.uk/feed/www.theregister.co.uk/2020/01/16/facial_recognition_congress/

spot_img

Laatste intelligentie

spot_img