Zephyrnet-logo

Is computervisie de remedie voor schietpartijen op scholen? waarschijnlijk niet

Datum:

Opmerking Dit jaar hebben tot nu toe meer dan 250 massale schietpartijen plaatsgevonden in de VS, en voorstanders van AI denken dat ze de oplossing hebben. Geen wapenbeheersing, maar betere technologie, niet verwonderlijk.

Machine-learning biz Kogniz kondigde dinsdag aan dat het een kant-en-klaar-om-te-implementeren model voor wapendetectie: naar zijn computervisieplatform. Het systeem, zo is ons verteld, kan wapens detecteren die worden gezien door beveiligingscamera's en meldingen sturen naar degenen die risico lopen, de politie op de hoogte stellen, gebouwen afsluiten en andere beveiligingstaken uitvoeren. 

Naast het spotten van vuurwapens, gebruikt Kogniz zijn andere computervisiemodules om ongewoon gedrag op te merken, zoals kinderen die door gangen sprinten of iemand die door een raam naar binnen klimt, wat kan wijzen op een actieve schutter.

Als je je afvraagt ​​​​over de fout-positieve of foutpercentages van de code, zegt Kogniz dat het een "multi-pass AI" en "een getraind team van menselijke verificateurs" heeft die de resultaten van zijn detectiesoftware controleren. Ofwel juich je dat extra niveau van bevestiging toe, ofwel zie je het als technologie die mogelijk terugvalt op mensen op het moment dat de computers het hardst nodig zijn.

"[Onze oplossing] maakt het voor bedrijven, overheidsinstanties, scholen en ziekenhuizen aanzienlijk gemakkelijker om zich voor te bereiden op en vervolgens te helpen de schade te verminderen die wordt veroorzaakt door een actief schietevenement", zegt Kogniz CEO Daniel Putterman.

Kogniz is niet het eerste computervisiebedrijf dat zich bezighoudt met wapenherkenning - er is een aanzienlijke lijst van bedrijven die vergelijkbare technologie gebruiken en sommige, zoals ZeroEyes, zijn gespecialiseerd in niets anders dan vuurwapendetectie. 

"Door hun aandacht te spreiden over meerdere aanbiedingen, zijn ontwikkelaars minder in staat om de allerbeste service te bieden op het gebied van wapendetectie", zei ZeroEyes in een blogpost. De technologie van ZeroEyes is ingezet op scholen in 14 staten, waaronder: Oxford middelbare school in metro Detroit, waar een 15-jarige schutter vorig jaar vier doodde en zeven verwondde.

Andere leveranciers - zoals Defendry, dat een beveiligingssuite heeft met een paniekknop-app, audio-pistoolschotsensoren, first-responder-drones en wapendetectie-AI; en Omnilert – bevinden zich in deze deprimerende groeimarkt. Andere bedrijven op het gebied van AI-geweerdetectie zijn Arcarith, Athena Securities en Scylla.

Is er eigenlijk genoeg tijd?

In 2019 was de reactie van de politie op een massale schietpartij in Dayton, Ohio, slechts 32 seconden, gedurende welke tijd negen mensen stierven. Een schietpartij in 2021 in een FedEx-faciliteit in Indianapolis waarbij negen mensen omkwamen, was ook voorbij voordat de politie kon arriveren, ook al deden ze dat in slechts enkele minuten. 

In beide gevallen rijst de vraag of AI-pistooldetectie de reactietijden voldoende kan verkorten om levens te redden. Zeker als agenten te bang zijn of ervoor kiezen om niet daadwerkelijk te reageren, zoals bij de massamoord in Uvalde.

Er zijn verschillende andere op AI gebaseerde preventiemethoden voor massaschieten voorgesteld, zoals: slimme wapens die niet zullen vuren als ze een menselijk doelwit detecteren. Anderen hebben voorgesteld om AI's te trainen op gegevens van eerdere schietpartijen, lokale wapenaankopen en sociaaleconomische gegevens om trends te vinden die wijzen op een geplande schietpartij, en om sociale media te scannen op vergelijkbare indicatoren. 

Er is ook AI vooringenomenheid, een goed gedocumenteerd probleem dat zelfs diverse datasets en uitgebalanceerde training lijkt niet op te lossen. Neem een ​​2020-implementatie van gezichts- en wapenherkenningstechnologie in een schooldistrict in New York: uit e-mails tussen het schooldistrict en het bedrijf dat het systeem heeft geïmplementeerd, blijkt dat er vaak bezorgdheid over is verkeerd identificeren dingen, zoals bezemstelen voor geweren. 

Sprekend tot Utah publicatie Deseret News, ACLU senior beleidsanalist Jay Stanley zei hij was bezorgd dat computervisiesystemen zouden kunnen leiden tot een wereld "waar mensen iets eenvoudigs als het overslaan van een stoep vermijden uit angst om anomaliedetectoren af ​​te zetten en door de politie ondervraagd te worden." 

Een mogelijk gebruik van AI belooft echter meer: ​​een 2018 studies van het Cincinnati Children's Hospital Medical Center ontdekte dat AI-analyse van therapiesessies 91 procent van de tijd overeenkwam met de gevarenbeoordelingen van psychiaters en counselors. De toevoeging van demografische en sociaaleconomische gegevens verbeterde alleen de resultaten bij het identificeren van jongeren die het risico liepen een gewelddadige daad te plegen. 

Is machine learning, met zoveel mogelijke complicaties, echt klaar om massamoord te voorkomen?

Geweld met wapens is de nummer één moordenaar van kinderen en tieners in Amerika, waarbij elke dag gemiddeld 12 jonge levens worden geëist en 32 meer gewond raken. AI kan helpen, maar zonder de tekortkomingen ervan aan te pakken, zijn er misschien ook minder technologische benaderingen nodig. Sterkere, ruimer beschikbare geestelijke gezondheidszorg zou een goed begin kunnen zijn.

Eerder deze maand zei president Biden Dit betekent dat we onszelf en onze geliefden praktisch vergiftigen. voor, onder andere, een verbod op aanvalswapens, uitgebreide achtergrondcontroles en beperkingen op de magazijncapaciteit, die hij "rationele, gezond verstandsmaatregelen" noemde. ®

spot_img

Laatste intelligentie

spot_img