Zephyrnet-logotyp

Ideellt bygger webbplats för att spåra växande AI-missöden

Datum:

Intervju Falsk bilder av Donald Trump som stöds av påhittade svarta väljare, mellanskoleelever som skapar pornografiska deepfakes av sina kvinnliga klasskamrater och Googles chatbot Gemini inte att skapa bilder av vita människor korrekt.

Detta är några av de senaste katastroferna som listas på AI Incident Database – en webbplats som håller koll på alla olika sätt som tekniken går fel på.

Ursprungligen lanserades som ett projekt under överinseende av Partnership On AI, en grupp som försöker se till att AI gynnar samhället, AI Incident Database är nu en ideell organisation finansierad av Underwriters Laboratories – den största och äldsta (uppskattade 1894) oberoende testlaboratorium i USA. Den testar alla sorters produkter – från möbler till datormusar – och dess webbplats har hittills katalogiserat över 600 unika automations- och AI-relaterade incidenter.

"Det finns en enorm informationsasymmetri mellan tillverkarna av AI-system och offentliga konsumenter – och det är inte rättvist", hävdade Patrick Hall, en biträdande professor vid George Washington University School of Business, som för närvarande sitter i AI Incident Databases styrelse. . Han berättade Registret: "Vi behöver mer transparens, och vi känner att det är vår uppgift att bara dela den informationen."

AI Incident Database bygger på CVE-programmet som inrättats av den ideella organisationen MITRA, Eller National Highway Transport Safety Administration webbplats som rapporterar offentligt avslöjade cybersäkerhetssårbarheter och fordonskrascher. "Varje gång det inträffar en flygolycka, tågkrasch eller en stor cybersäkerhetsincident, har det blivit vanlig praxis under decennier att registrera vad som hände så att vi kan försöka förstå vad som gick fel och sedan inte upprepa det."

Webbplatsen hanteras för närvarande av ett tiotal personer, plus en handfull volontärer och entreprenörer som granskar och lägger upp AI-relaterade incidenter online. Heather Frase, en senior kollega på Georgetown's Centrum för säkerhet och ny teknik fokuserad på AI Assessment och en AI Incident Database-direktör, hävdade att webbplatsen är unik genom att den fokuserar på verkliga effekter från riskerna och skadorna med AI – inte bara sårbarheter och buggar i programvara.

Organisationen samlar för närvarande incidenter från mediabevakning och granskar frågor som rapporterats av personer på Twitter. AI Incident Database loggade 250 unika incidenter innan ChatGPT släpptes i november 2022, och listar nu över 600 unika incidenter.

Övervakning av problem med AI över tid avslöjar intressanta trender och kan göra det möjligt för människor att förstå teknikens verkliga, nuvarande skador.

George Washington University's Hall avslöjade att ungefär hälften av rapporterna i databasen är relaterade till generativ AI. Vissa av dem är "roliga, fåniga saker". tvivelaktiga produkter säljs på Amazon med titeln: "Jag kan inte uppfylla den begäran" - ett tydligt tecken på att säljaren använde en stor språkmodell för att skriva beskrivningar - eller andra instanser av AI-genererad spam. Men vissa är "riktigt deprimerande och allvarliga" - som en Cruise-robotaxi som kör över och drar en kvinna under hjulen i en olycka i San Francisco.

"AI är mest ett vilda västern just nu, och inställningen är att gå snabbt och bryta saker," beklagade han. Det är inte klart hur tekniken formar samhället, och teamet hoppas att AI Incident Database kan ge insikter i hur den missbrukas och belysa oavsiktliga konsekvenser – i hopp om att utvecklare och beslutsfattare är bättre informerade så att de kan förbättra sina modeller eller reglera de mest angelägna riskerna.

"Det är mycket hype runt omkring. Man pratar om existentiell risk. Jag är säker på att AI kan utgöra mycket allvarliga risker för den mänskliga civilisationen, men det är uppenbart för mig att några av dessa mer verkliga risker – som massor av skador i samband med självkörande bilar eller, du vet, bias genom algoritmer som används inom konsumentfinansiering eller sysselsättning. Det är vad vi ser."

"Jag vet att vi saknar mycket, eller hur? Allt blir inte rapporterat eller fångat av media. Många gånger kanske människor inte ens inser att skadan de upplever kommer från en AI, konstaterade Frase. "Jag förväntar mig att fysisk skada kommer att öka mycket. Vi ser [för det mesta] psykiska skador och andra immateriella skador som händer från stora språkmodeller – men när vi väl har generativ robotik tror jag att fysisk skada kommer att öka mycket.”

Frase är mest oroad över hur AI kan urholka mänskliga rättigheter och medborgerliga friheter. Hon tror att insamling av AI-incidenter kommer att visa om policyer har gjort tekniken säkrare över tiden.

"Du måste mäta saker för att fixa saker," tillade Hall.

Organisationen letar alltid efter volontärer och fokuserar just nu på att fånga upp fler incidenter och öka medvetenheten. Frase betonade att gruppens medlemmar inte är AI-ludditer: "Vi kommer förmodligen fram som ganska anti-AI, men det är vi inte. Vi vill faktiskt använda det. Vi vill bara ha det bra."

Hall höll med. "För att liksom hålla tekniken framåt måste någon bara göra jobbet för att göra det säkrare," sa han. ®

plats_img

Senaste intelligens

plats_img