Zephyrnet-logo

Vi trenger regulering for å redde menneskeheten fra AI ... og for å redde AI-aksjer - CryptoInfoNet

Dato:

Som kunstig intelligens (AI) Utviklingen setter teknologiens midtpunkt, og investorer lukter naturlig nok muligheter i luften. De lukter også de nytrykte skjemaene og byråkrati fra regulatoren som bare venter på å ta snittet og hindre den brølende maskinen til AI-innovasjon. Men til de som er bekymret for at onkel Sam kan knuse industrien gjennom nye reguleringer og restriksjoner, vil jeg hevde at det stikk motsatte er sant her: Reguleringer kan redde industrien fra seg selv. Og i forlengelsen av det beskytter mer reguleringer for industrien, ikke skade, investorer. 

I de fleste nye bransjer er ordet "regulering" tabu. Nå er AI-industrien ikke akkurat ny. Det moderne konseptet går tilbake til 1950-tallet, og både private og offentlige investeringer på feltet har vokst og avtatt de siste 70 årene eller så. På 1980- og begynnelsen av 1990-tallet så en bom-og-bust-syklus i kunstig intelligens-investeringer. Investeringer fra den japanske regjeringen på 80-tallet startet den første store kommersielle AI-boomen. I 1993 lukket imidlertid "over 300 selskaper dørene" da boblen dukket opp. Imidlertid har moderne fremskritt innen datakraft og store språkmodeller (LLM) gitt industrien nytt liv, og potensialet er ikke bare å tiltrekke seg investorer, men også regulatorer.

AI-forskrifter: Et rot av interesser og risikoer

Spørsmålet om hva "AI-regulering" bør eller til og med kan være, er et for politikere, beslutningstakere og etikere. Det investorer ønsker å vite er hva det vil bety for deres porteføljer, naturligvis. Hva er de største risikoene? Og det er her lover og forskrifter kan gi en viss beskyttelse og hjelpe til med å håndtere disse risikoene.

Den største risikoen for investorer koker ned til tre overlappende kjerneproblemer: svindel, beskyttelse av intellektuell eiendom og personvern. Selvfølgelig er det allerede lover på bøkene som tar opp alle disse tre spørsmålene individuelt. Problemet er imidlertid at AI representerer en unik komplisert blanding av alle tre risikoene som, uten klare rammer, lover og forskrifter, truer hele bransjens fremgang.

Den mest presserende bekymringen på listen for investorer er svindel. Nesten alle kan være enige om at svindelforebygging er en viktig og viktig rolle for regulering.

Fraudulent Wire Riding Apes: To casestudier

To casestudier viser den potensielle fremtiden til AI-reguleringer, risikoen for svindel og de regulatoriske tidsrammene investorer bør forvente. Begge viser også hvordan svindel vil forme reguleringshandlingene som kommer.

Den første er verden av kryptovalutaer og ikke-fungible tokens (NFT). En betydelig nyere bransje enn AI, krypto har sett sin rettferdige andel av høykonjunkturer og, viktigst av alt, svindel. Securities and Exchange Commission (SEC) og Federal Trade Commission (FTC) har brukt et godt tiår på å finne ut hvordan krypto passer inn i deres reguleringsordninger. Kongressen har ennå ikke vedtatt noen eksplisitt kryptorelatert lovgivning til tross noen forsøk.

I løpet av den tiden har mange børser steget og kollapset. NFT-er gikk fra å være på topp i 2021 og 2022 til miste 95 % av verdien, og tar med seg milliarder av investorers dollar ned. Beryktet, sammenbruddet av FTX og nylig prøvetid av Sam Bankman-Fried involverte milliarder av dollar med uredelig brukte midler.

Den andre casestudien her er cybersikkerhet. I motsetning til med krypto, er det ganske mange etablerte kjernelover på bok for industrien. De to første "ekte" cybersikkerhetslovene var Computer Fraud and Abuse Act av 1986 og Comprehensive Crime Control Act av 1984. Begge stolte på kreative og relativt nye forståelser av "ledninger" (som i telegrafledninger) og ledningssvindel.

I tiårene siden har kongressen vedtatt stykkevise lover om cyber-emner med blandede resultater. Dette har resultert i at statene har tatt seg opp. Nettsikkerhetsverdenen gir også et eksempel på en bransje med dype kryssende interesser, hvorav mange ikke er ulik risikoen og regulatoriske blindsoner som kunstig intelligens-industrien står overfor. En av de mest bemerkelsesverdige er personvern. Bekymringer over individets personvern, ofte assosiert med sosiale medier og tingenes internett (IoT), oppstår også med AI-treningsmodeller.

Begge eksemplene her gir lærdom for den raskt voksende AI-industrien. Kryptoverdenens høyrisiko-, høybelønnings- og lavregulatoriske miljø er full av svindel og ustabilitet. Cybersikkerhet er en mye eldre og etablert bransje, men det regulatoriske miljøet er fortsatt ustabilt, spesielt når det gjelder personvern.

Den nåværende tilstanden til AI-regelverket

Så for å få en ide om hvilke av disse regulatoriske veiene investorer bør forvente, la oss se på det nåværende regulatoriske miljøet for kunstig intelligens.

Starter med den innenlandske scenen, vel ... det er ikke mye, i det minste lovmessig. President Joe Biden, på den annen side, har vært opptatt av å smi en regulatorisk vei via et frivillig løfte og, sist og viktigst, en landemerke og omfattende Executive Order.

Tidligere i år kunngjorde Det hvite hus et ikke-bindende frivillig løfte til "håndter risikoen som AI utgjør." Blant underskriverne av dette løftet er noen store navn som Amazon (NASDAQ:AMZN), Metaplattformer (NASDAQ:META), Alfabetet (NASDAQ:GOOG, NASDAQ:GOOGL) og OpenAI. Office of Science and Technology Policy (OSTP), en avdeling i Det hvite hus, har også publisert en "Blueprint for en AI Bill of Rights." Et annet spesielt frivillig rammeverk for sikker og etisk bruk av kunstig intelligens.

I følge Det hvite hus krever "sikker og etisk bruk av AI" streng "testing før utrulling" og er opprettet med "konsultasjon fra forskjellige samfunn, interessenter og domeneeksperter for å identifisere bekymringer, risikoer og potensielle virkninger av systemet." AI-systemer bør også ha «[u]uavhengig evaluering og rapportering» for å sikre at de holder seg trygge i det lange løp.

Bidens AI Executive Order

I de tidlige morgentimene 30. oktober kunngjorde Det hvite hus det mest omfattende regulatoriske fremstøtet angående AI. Å drive denne innsatsen var en feiende kjennelse (og en elegant ny nettsted) som dekker alt fra sikkerhet og sikkerhet til personvern, sivile rettigheter og mer. Denne Executive Order bygger på det nevnte frivillige løftet og AI Bill of Rights, og den fokuserer hovedsakelig på det de fleste Executive Orders gjør: mobilisering av Executive Branchs mange avdelinger og byråer til handling.

Det er mange detaljer som skal strykes ut angående hvordan denne Executive Order vil påvirke bransjen, men de viktigste takeawayene for investorer er:

1. Det vil ta lang tid for regulatorer å utvikle disse nye retningslinjene og retningslinjene.

2. Uansett hvilke spesifikke reguleringer som kommer ut av denne EO, vil være bygget på vaklende juridiske grunnlag inntil Kongressen vedtar AI-relaterte lover. Det er fortsatt avhengig av frivillig etterlevelse, med ett stort unntak: Forsvarsproduksjonsloven (DPA).

Bidens påkallelse av DPA er like bemerkelsesverdig som det er forvirrende. DPA var den eneste faktiske eksplisitte loven EO refererer til med noen potensielt kraftige implikasjoner. DPA ble sist brukt i sammenheng med Covid-19-pandemien, men er vanligvis assosiert med krigsproduksjon. Biden bruker det her i en ren nasjonal sikkerhetskontekst:

«... Ordenen vil kreve at selskaper som utvikler enhver grunnmodell som utgjør en alvorlig risiko for nasjonal sikkerhet, nasjonal økonomisk sikkerhet eller nasjonal folkehelse og sikkerhet, må varsle den føderale regjeringen når de trener modellen, og må dele resultatene av alle røde- teamsikkerhetstester."

Det er uklart hvem som er dekket av denne DPA-støttede "gjennomgangsprosessen" da andre byråer har mer spesifikke regulatoriske ansvar. For eksempel skal National Institute of Standards and Technology (NIST) utvikle AI-sikkerhetsstandarder og Department of Homeland Security (DHS) er å implementere dem for kritisk infrastruktur. Kanskje enda viktigere er det nødvendig med avklaring om hvilket byrå som til og med vil implementere denne politikken.

Det er en bemerkelsesverdig kandidat som DPA nesten definitivt vil dekke på grunn av sine eksisterende forsvarskontrakter: Palantir (NYSE:PLTR). Big Data og stadig mer AI-fokusert forsvarsentreprenør er ikke underskriver av Det hvite hus frivillig løfte. Dette kan ha mer å gjøre med Palantir-formann Peter Thiels konservativ-libertariske politiske tilbøyeligheter og støtte til tidligere president Donald Trump enn en direkte avvisning av ytterligere regulering. Denne utelatelsen er imidlertid bemerkelsesverdig som Palantir har store planer for "tar hele AI-markedet."

Samlet sett er det regulatoriske rammeverket fastsatt av Bidens Executive Order banebrytende og starter Kongressen for å bygge resten av reguleringshuset, for å si det sånn.

Dessverre kan vi vente en stund på at lovgivere skal begynne å "helle betongen."

Hva med kongressen?

Det hvite hus' AI Executive Order refererer bare to til Kongressen, men begge er oppfordringer til Kongressen om å vedta topartiske lover om AI (den ene handlet eksplisitt om å vedta en personvernlov).

Ifølge Brennan Center For Justice har kongressen omtrent 60 AI-relaterte regninger sitter i ulike utvalg.

Men når dette skrives, har Representantenes hus akkurat blitt enige om en ny talsmann for huset og har "større fisk å steke" med nok en forestående frist for regjeringens nedleggelse og medfølgende budsjettkamp. For ikke å snakke om omstridte bistandsregninger til Israel og Ukraina og en rekke andre mer presserende bekymringer.

Det etterlater to andre kilder for AI-reguleringer: individuelle amerikanske stater og internasjonale aktører. Den førstnevnte gruppen, bestående av bare en håndfull av landets 50 stater, har bestått et lappeteppe av relevante lover, med kunstig intelligens og forbrukerpersonvern som hovedfokus. Internasjonalt er Kina ledende i å bygge en komplekst og avansert sett av AI-regelverket. Den europeiske unions omfattende reguleringsramme, enkelt kalt "AI Act," forventes å være ferdigstilt og vedtatt innen utgangen av året.

AI-forskrifter og hva fremtiden bringer

Så hvor etterlater dette denne raskt voksende, potensielt svært disruptive industrien? Vil det ta kryptoveien til regulering, som har vært full av svindel og ustabilitet? Eller den langsommere, mer stabile, men fortsatt usammenhengende cybersikkerhetsbanen. Vel, for nå, i det minste i USA, vil det sannsynligvis være en blanding av de to.

AI har det forstyrrende og pengeinnbringende potensialet som kryptoindustrien bare kan drømme om. Likevel har den også det vanlige potensialet og nytten som cybersikkerhetsindustrien gir. For investorer, og ikke for å høres for oppsiktsvekkende ut her, for menneskeheten, er det en risikabel kombinasjon.

Det er utallige potensielle virkelige anvendelser av AI, fra landbruk til forsvar til finans og helsetjenester. Et kryptoteppetrekk kan lure investorer for pengene deres, eller en hacker kan stjele penger fra en bank, men risikoen fra AI-ulykker eller ondsinnet oppførsel kan være katastrofalt.

Hypotetiske for hva som kan gå galt er uendelige ettersom AI er videre innlemmet i hverdagen. Men vi ser allerede urovekkende ondsinnede brukstilfeller for AI. Den nylige starten av Israel-Hamas-krigen har sett en flom av feilinformasjon på sosiale medieplattformer som X, tidligere Twitter. Noen av de falske bildene som deles på nettet er AI-generert, ofte laget med lett tilgjengelige verktøy som Bings Image Generator. Med stadig bedre teknologi vil det bli vanskeligere å identifisere falske bilder og videoer.

Vi kjemper også mot risikoer som en gang bare ble funnet i science fiction, som «rogue AIs». Mens en AI måltidsplanlegger ved et uhell foreslått en oppskrift på klorgass er verdt noen latter i dag, ville det vært langt mindre humoristisk hvis det var en AI som hadde ansvaret for for eksempel en storskala automatisert gård som ved et uhell (eller verre, med vilje) forurenser en avling av grønnsaker.

Som ordtaket sier: "Sikkerhetsforskrifter er skrevet med blod." Og vi burde egentlig ikke vente til blodet har blitt utgytt før vi tar grep.

Juridisk er det allerede en "slegge" av en sak mot Google som, ifølge selskapet, ville gjort det ødelegge konseptet med generativ AI. Det industrien trenger for å unngå denne skjebnen er klare, håndhevbare forskrifter som kan beskytte både publikum og AI-firmaer fra hverandres juridiske vrede.

Av hensyn til investorer og for alle, må det være mer regulatorisk tilsyn over kunstig intelligens-industrien før noe går fryktelig galt. Det hvite hus' nye Executive Order gir et svært omfattende rammeverk for en rekke AI-relaterte spørsmål og er en god start. Men uten lover vedtatt av Kongressen som gir et solid grunnlag for regulatorer å bygge videre på, vil vi ende opp med et rot i kryptostil av forvirrede regulatorer. Dette vil bare føre til forvirrede markedsdeltakere og forvirrede investorer. Og med potensialet til at AI er så stort og farlig, er det ikke noe noen bør ønske seg.

Så nei, AI-forskrifter er det ikke "fienden," som en venturekapitalists manifest sa det, men de kan fungere som sikkerhetsskinner som kan bidra til å beskytte industrien og investorer mot enorm risiko.

Hva investorer bør gjøre nå

Uten tydelige rekkverk er det en risikabel virksomhet å investere i kunstig intelligens. Investorer som ikke er så veldig bekymret for virkningen av disse sammenslåtte forskriftene, kan satse mer risikable på en rekke startups som prøver å gjøre den rik. Eller på etablerte, men reguleringsavvisende skuespill som Palantir.

Ellers ville investorer vært bedre å se hvilke selskaper som "spiller ball" med Det hvite hus sitt frivillige løfte. Eller de som tilpasser seg de internasjonale reguleringsendringene som kommer ut av EU og Kina. Disse selskapene ser sannsynligvis enten på disse nye forskriftene som noe de kan leve med eller noe de kan bruke til sin fordel.

Uansett vil reguleringshammeren falle på et eller annet tidspunkt. Det ville være best for alle, ikke bare investorer, at den faller før siste halvdel av uttrykket "beveg deg raskt og knekk ting" bryter AI-industrien.

På publiseringsdatoen hadde Andrew Bush en LONG-posisjon i GOOGL- og AMZN-aksjer. Meningene som uttrykkes i denne artikkelen er forfatterens, underlagt InvestorPlace.com Publishing Guidelines.

Andrew Bush er finansnyhetsredaktør for InvestorPlace og har to grader i internasjonale anliggender. Han har jobbet innen utdanning, teknologisektoren og som forskningsanalytiker for et DC-basert nasjonalt sikkerhetsfokusert konsulentfirma.

Kilde lenke

#Forskrift #Save #Humanity #AI.. #Save #Stocks

spot_img

Siste etterretning

spot_img