Zephyrnet-logotyp

Hur AI kan stärka samhällen och stärka demokratin

Datum:

Varje fjärde juli under de senaste fem åren Jag har skrivit om AI med potential att påverka demokratiska samhällen positivt. Jag återgår till denna fråga med hopp om att lysa fram en teknik som kan stärka samhällen, skydda integritet och friheter eller på annat sätt stödja allmänhetens bästa.

Denna serie är baserad på principen att konstgjord intelligens kan inte bara kunna utvinna värden utan individuell och samhällelig empowerment. Medan AI-lösningar ofta sprider förspänning, kan de också användas för att upptäcka förspänningen. Som Dr. Safiya Noble har påpekat är konstgjord intelligens en av de kritiska frågorna om mänskliga rättigheter under våra liv. AI-läskunnighet är också, som Microsoft CTO Kevin Scott hävdade, a en kritisk del av att vara en informerad medborgare på 21-talet.

I år ställde jag frågan på Twitter för att samla ett större utbud av insikter. Tack till alla som har bidragit.

VB Transform 2020 online - 15-17 juli. Gå med i ledande AI-chefer: Registrera dig för den gratis liveströmmen.

Detta urval är inte tänkt att vara omfattande, och vissa idéer som ingår här kan vara i de tidiga stadierna, men de representerar sätt AI kan möjliggöra utveckling av mer fria och rättvisa samhällen.

Maskininlärning för öppen källkod intelligens 

Open source intelligence, eller OSINT, är insamling och analys av fritt tillgängligt offentligt material. Detta kan driva lösningar för kryptologi och säkerhet, men det kan också användas för att hålla regeringar ansvariga.

Crowdsourcade ansträngningar från grupper som Bellingcat betraktades en gång som intressanta sidoprojekt. Men fynd baserat på öppen källkod från stridszoner - som en MH-17 som skjutits ned över Ukraina och en saringasattack 2013 i Syrien - har visat sig vara värdefull för utredningsmyndigheterna.

Grupper som International Consortium of Investigative Journalists (ICIJ) är det använda maskininlärning i sitt samarbete. Förra året detaljerade ICIJ: s Marina Walker Guevara lektioner från Maskininlärning för undersökningar rapporteringsprocess, genomförd i samarbete med Stanford AI Lab.

I maj publicerade forskare från Universidade Nove de Julho i Sao Paulo, Brasilien a systematisk granskning av AI för open source-intelligens som hittade nästan 250 exempel på OSINT som använder AI i verk publicerade mellan 1990 och 2019. Ämnen sträcker sig från AI för att genomsöka webbtext och dokument till applikationer för sociala medier, företag och - allt mer - cybersäkerhet.

Tillsammans med liknande linjer är ett öppet källinitiativ från Swansea University för närvarande använder maskininlärning för att undersöka påstådda krigsförbrytelser som händer i Yemen.

AI för emansipation 

Förra månaden, strax efter starten av några av största protester i USA: s historia uppslukade amerikanska städer och spridit världen över, jag skrev om en analys av AI-partiskhet i språkmodeller. Även om jag inte tog upp poängen i det stycket, stod studien fram som första gången jag har stött på ordet "frigörelse" i AI-forskning. Termen kom upp i förhållande till forskares rekommendationer om bästa praxis för NLP-biasanalytiker inom sociolingvistik.

Jag bad huvudförfattaren Su Lin Blodgett tala mer om denna idé, som skulle behandla marginaliserade människor som jämställda forskare eller producenter av kunskap. Blodgett sa att hon inte är medveten om något AI-system idag som kan definieras som frigörande i dess utformning, men hon är upphetsad av arbetet i grupper som Indigenous Protocol och Artific Intelligence Working Group.

Blodgett sade AI som berör emansipation inkluderar NLP-projekt för att återuppliva eller återkrava språk och projekt för att skapa naturlig språkbearbetning för språk med låg resurs. Hon citerade också AI som syftar till att hjälpa människor att motstå censur och hålla statliga tjänstemän ansvariga.

Chelsea Barabas utforskade liknande teman i en ACM FAccT-konferenspresentation tidigare i år. Barabas drog på antropolog Laura Nader, som finner att antropologer tenderar att studera missgynnade grupper på sätt som upprätthåller stereotyper. Istället uppmanade Nader antropologer att utvidga sina undersökningsfält till att inkludera "studie av kolonisatorerna snarare än de koloniserade, maktkulturen snarare än de maktlösa kulturen, välståndskulturen snarare än fattigdomen."

I sin presentation uppmanade Barabas likaledes datavetare att omdirigera sitt kritiska blick i rättvisans intresse. Som exempel godkände både Barbara och Blodgett forskning som granskar ”vit krage” brott med den uppmärksamhetsnivå som vanligtvis är reserverad för andra brott.

In Race After Technology, Princeton University professor Ruha Benjamin förkämpar också uppfattningen om avskaffande verktyg inom teknik. Catherine D'Ignazio och Lauren F. Klein's Datafeminism och Sasha Costanza-Chock's Design rättvisa ge ytterligare exempel på datauppsättningar som kan användas för att utmana makten.

Upptäckt av rasisk förspänning för poliser

Genom att utnyttja NLP: s förmåga att bearbeta data i skala undersökte forskarna vid Stanford University inspelningar av samtal mellan poliser och personer som stannade för trafiköverträdelser. Med hjälp av beräkningslingvistik kunde forskarna visa att officerare hade mindre respekt för svarta medborgare under trafikstopp. Del av arbetets fokus publicerad i Proceedings of the National Academy of Science 2017 var att lyfta fram hur polisens filmkamera kan användas som ett sätt att bygga förtroende mellan samhällen och brottsbekämpande myndigheter. Analysen använde en samling inspelningar som samlats in under åren och dragit slutsatser från ett parti data istället för att analysera instanser en efter en.

En algoritmisk rättighetsförklaring

Idén om en algoritmisk rättighetsförklaring nyligen kom upp i en samtal med Black Roboticist om att bygga bättre AI. Begreppet introducerades i boken 2019 En mänsklig guide till maskinell intelligens och vidare utarbetats av Vox-personliga författare Sigal Samuel.

En kärnkraft i idén är transparens, vilket innebär att varje person har rätt att veta när en algoritm fattar ett beslut och vilka faktorer som beaktas i den processen. En algoritmisk rättighetsförklaring skulle också omfatta frihet från partiskhet, dataportabilitet, frihet att bevilja eller vägra samtycke och en rätt att bestrida algoritmiska resultat med mänsklig granskning.

Som Samuel påpekar i sin rapportering har några av dessa uppfattningar, som frihet från partiskhet, dykt upp i lagar som föreslagits i kongressen, till exempel lagen om algoritmisk ansvarighet från 2019.

Faktakontroll och bekämpa felinformation

Bortom bots som tillhandahåller medborgares tjänster eller främja offentlig ansvarsskyldighet, kan AI användas för att bekämpa deepfakes och felinformation. Exempel inkluderar Full Facts arbete med Africa Check, Chequeado och Open Data Institute för att automatisera faktakontroll som en del av Google AI Impact Challenge.

Deepfakes är en viktig oro för USA: s valsäsong i höst. I en höst 2019-rapport om kommande val varnade New York University Stern Center for Business and Human Rights om inhemska former av desinformation, samt potentiell yttre inblandning från Kina, Iran eller Ryssland. [Hänvisade den här rapporten till det kommande valet?] Deepfake Detection Challenge syftar till att motverka sådana bedrägliga videor, och Facebook har introducerat en datauppsättning videor för utbildning och benchmarking av upptäcktsystem för djupfake.

Pol.is

Rekommendationsalgoritmer från företag som Facebook och YouTube - med dokumenterade historier om stoking division för att öka användarnas engagemang - har identifierats som ett annat hot mot det demokratiska samhället.

Pol.is använder maskininlärning för att uppnå motsatta mål, spela samförstånd och gruppera medborgare på en vektorkarta. För att nå enighet måste deltagarna revidera sina svar tills de når enighet. Pol.is har använts för att hjälpa till att utarbeta lagstiftning i Taiwan och Spanien.

Algoritmisk förspänning och bostäder

I Los Angeles County är individer som är hemlösa och White lämnar hemlöshet i en takt som är 1.4 gånger större än människor av färg, ett faktum som kan vara relaterat till bostadspolitik eller diskriminering. Citerar strukturell rasism, en hemlös befolkning räknas för Los Angeles släpptes förra månaden fann att svarta människor bara utgör 8% av landets befolkning men nästan 34% av dess hemlösa befolkning.

För att åtgärda denna orättvisa kommer University of South California Center for AI in Society att undersöka hur konstgjord intelligens kan hjälpa till att säkerställa att bostäder är rättvist fördelade. Förra månaden meddelade USC $ 1.5 miljoner i finansiering att främja ansträngningen tillsammans med Los Angeles Homeless Services Authority.

University of South California: s skola för socialt arbete och Center of AI in Society har undersökt sätt att minska förspänningen i fördelningen av bostadsresurser sedan 2017. Hemlöshet är ett stort problem i Kalifornien och kan förvärras under de kommande månaderna när fler människor möter utkast på grund av pandemirelaterade jobbförluster. 

Att tillämpa AI-etikprinciper i praktiken

Att tillämpa etiska AI-principer i praktiken är inte bara en angelägen fråga för teknikföretag, som praktiskt taget alla har släppt vaga uttalanden om sina etiska avsikter de senaste åren. Som en studie från UC Berkeley Center for Long Term Cybersecurity hittades tidigare i år är det också allt viktigare att regeringar fastställer etiska riktlinjer för deras egen användning av tekniken.

Genom Organisationen för ekonomiskt samarbete och utveckling (OECD) och G20, många av världens demokratiska regeringar har åtagit sig att AI-etiska principer. Men att bestämma vad som utgör etisk användning av AI är meningslöst utan genomförande. Följaktligen inrättade OECD i februari det offentliga observationsorganet för att hjälpa nationerna att implementera dessa principer.

Samtidigt formulerar regeringar världen över sina egna etiska parametrar. Trump-administrationens tjänstemän införde etiska riktlinjer för federala myndigheter i januari att bland annat uppmuntra allmänhetens deltagande i att upprätta AI-reglering. Riktlinjerna avvisar emellertid också reglering som Vita huset anser vara alltför betungande, till exempel förbud mot ansiktsigenkänningsteknik.

En analys fann nyligen behovet av mer AI-expertis inom regeringen. EN gemensam Stanford-NYU-studie släppt i februari undersöker idén om "algoritmisk styrning" eller AI som spelar en växande roll i regeringen. Analys av AI som används av den amerikanska federala regeringen i dag fann att mer än 40% av organen har experimenterat med AI men endast 15% av dessa lösningar kan betraktas som mycket sofistikerade. Forskarna uppmanar den federala regeringen att anställa fler interna AI-talanger för att kontrollera AI-system och varnar för att algoritmisk styrning skulle kunna öka det offentlig-privata teknikgapet och, om det är dåligt implementerat, uthärda allmänhetens förtroende eller ge större företag en fördel över små företag .

En annan avgörande del av ekvationen är hur regeringar väljer att tilldela kontrakt till AI-startups och teknikjättar. I det som tros vara en första, förra hösten World Economic Forum, Storbritanniens regering och företag som Salesforce arbetade tillsammans för att producera en uppsättning regler och riktlinjer för statliga anställda som ansvarar för upphandling av tjänster eller tilldelning av kontrakt.

Sådana statliga kontrakt är ett viktigt utrymme att se på företag med band till högra högra eller vita supremacistgrupper - som Clearview AI och Banjo - sälja övervakningsprogramvara till regeringar och brottsbekämpande myndigheter. Peter Thiels Palantir har också samlat in ett antal lukrativa regeringskontrakt de senaste månaderna. Tidigare i veckan, Palmer Luckey's Anduril, också med stöd av Thiel, samlade 200 miljoner dollar och tilldelades ett kontrakt för att bygga en digital gränsvägg med övervakningshårdvara och AI.

Etikdokument som de som nämns ovan stöder alltid vikten av "pålitlig AI." Om du rullar dina ögon på frasen, skyller jag dig verkligen inte. Det är en favorit hos regeringar och företag som prövar principer för att driva igenom sina dagordningar. Vita huset använder det, Europeiska kommissionen använder det och tekniska jättar och grupper ge råd till den amerikanska militären om etik använda det, men ansträngningar att implementera etiska principer kan en dag ge termen en viss mening och vikt.

Skydd mot ransomware-attacker

Innan de lokala myndigheterna började krypa för att svara på coronavirus och strukturell rasism hade ransomware-attacker etablerat sig som ytterligare ett växande hot mot stabilitet och stadsfinans.

2019, ransomware-attacker mot institutioner som vetter mot allmänheten som sjukhus, skolor och regeringar ökade i aldrig tidigare skådade priser, överlämnade offentliga medel för att betala lösen, återställa filer eller ersätta hårdvara.

Säkerhetsföretag som arbetar med städer berättade för VentureBeat tidigare i år att maskininlärning används för att bekämpa dessa attacker genom metoder som avvikelse av avvikelser och snabbt isolering av infekterade enheter.

Robotfisk i stadsrör

Utöver att avverka attacker från ransomware kan AI hjälpa kommunala regeringar att undvika katastrofala ekonomiska bördor genom att övervaka infrastruktur, fånga läckor eller utsatta stadsrör innan de spricker.

Ingenjörer vid University of South California byggde en robot för rörinspektioner för att ta itu med dessa kostsamma problem. Som heter kantnål, kan den simma in i stadsrörssystem genom brandposter och samla bilder och annan data.

Ansiktsigenkänningsskydd med AI

När det gäller att skydda människor från ansiktsigenkänningssystem, sträcker sig ansträngningarna från skjortor till ansiktsmålning till ansiktsprojektioner på heltäckande sätt.

EqualAIs utvecklades på MITs Media Lab 2018 för att göra det svårt för ansiktsigenkänning att identifiera ämnen på fotografier, berättade projektledaren Daniel Pedraza till VentureBeat. Verktyget använder motsatt maskininlärning för att ändra bilder för att undvika upptäckt av ansiktsigenkänning och bevara integritet. EqualAIs utvecklades som en prototyp för att visa den tekniska genomförbarheten att attackera ansiktsigenkänningsalgoritmer och skapa ett lager av skydd kring bilder som laddats upp i offentliga forum som Facebook eller Twitter. Öppen källkod och andra resurser från projektet finns tillgängliga online.

Övriga appar och AI kan känna igen och ta bort människor från foton eller suddiga ansikten för att skydda individers identitet. University of North Carolina vid Charlotte assistent professor Liyue Fan publicerade arbete som tillämpar differentiell integritet på bilder för extra skydd när du använder pixelisering för att dölja ett ansikte. Skulle teknik som EqualAI användas i stor utsträckning kan det ge ett glimt av hopp till integritetsförespråkare som kallar Clearview AI slutet på integriteten.

Lagstiftare i kongressen överväger för närvarande en proposition som skulle förbjuda ansiktsigenkänning användning av federala tjänstemän och hålla tillbaka en del finansiering till statliga eller lokala myndigheter som väljer att använda tekniken.

Oavsett om du föredrar idén om ett permanent förbud, ett tillfälligt moratorium eller minimal reglering är lagstiftning om ansiktsigenkänning en avgörande fråga för demokratiska samhällen. Rasskydd och falsk identifiering av misstänkta brott är huvudsakliga skäl till att människor i det politiska landskapet börjar komma överens om att ansiktsigenkänning är olämplig för allmänhetens användning idag.

ACM, en av de största grupperna för datavetare i världen, denna vecka uppmanade regeringar och företag att sluta använda tekniken. Kongressmedlemmar har också uttryckt oro över användning av tekniken vid protester eller politiska sammankomster. Experter som vittnar före kongressen har varnat för att om ansiktsigenkännande blir vanligt i dessa miljöer kan det dämpa människors konstitutionella rätt till yttrandefrihet.

Demonstranter och andra kan ha använt ansiktsmasker för att undvika upptäckt tidigare, men under COVID-19-eran ansiktsigenkänningssystem blir bättre på att känna igen personer som bär masker.

Avslutande tankar

Denna berättelse är skriven med den tydliga förståelsen att teknolösning inte är något universalmedel och AI kan användas för både positiva och negativa ändamål. Och serien publiceras på årsbasis eftersom vi alla förtjänar att fortsätta drömma om sätt AI kan stärka människor och hjälpa till att bygga starkare samhällen och ett mer rättvist samhälle.

Vi hoppas att du har haft årets urval. Om du har fler idéer kan du gärna kommentera tweeten eller e-posta khari@venturebeat.com för att dela förslag till historier om detta eller relaterade ämnen.

Källa: http://feedproxy.google.com/~r/venturebeat/SZYF/~3/-NXtQAwz4u4/

plats_img

Senaste intelligens

plats_img