Zephyrnet-logo

Desentralisert AI gir nytt håp for brukerdatasikkerhet

Dato:

En av de største risikoene med økt bruk av AI-chatbots som ChatGPT er fremveksten av nye trusler mot brukerdata. Men noen selskaper begynner å bygge desentraliserte AI-systemer som de håper vil gjøre persondatalekkasjer vanskeligere. 

AI-oppstart Elna er en slik enhet. Det India-baserte selskapet lar folk lage tilpassede AI chatbots på blokkjeden og samtidig forbli "desentralisert, transparent» og gratis å bruke.

Les også: Vil desentralisert digital ID dempe AI-trusler i Web3 og Metaverse? 

Sikkerhet på blokkjeden

"Elna prioriterer beskyttelse av brukerdata gjennom bruk av Internet Computer Protocol (ICP)-beholdere [eller smarte kontrakter], som er desentraliserte beholdere kontrollert direkte av brukerens lommebok," fortalte Elnas medgründer og administrerende direktør Arun PM MetaNews.

"Dette rammeverket sikrer fullstendig eierskap, åpenhet og kontroll over data fra brukeren," sa han.

ICP er et blokkjedenettverk - den samme typen teknologi som ligger til grunn Bitcoin – som har som mål å forbedre effektiviteten og hastigheten til desentralisert datalagring.

En stor bekymring med sentraliserte og lukkede AI-plattformer som OpenAI (som tilsynelatende begynte livet som en ideell organisasjon med sikte på å bygge åpen kildekode-modeller) eller Google, er sårbarheten til personopplysninger. I et slikt oppsett holdes data typisk på bedriftens servere, ofte med begrenset kontroll fra den enkelte.

Arum PM sier at bruken av smarte kontrakter innen kunstig intelligens løser dette problemet ved å bidra til å ivareta personvern og brukerdata, som handelsinformasjon og chat-historikk, via desentralisert lagring. På denne måten har folk kontroll over sin egen informasjon, legger han til.

Arun sier at Elna ikke «lagrer eller bruker» brukerdata. Han uttaler at modellen "iboende er på linje" med EUs tøffe General Data Protection Regulation (GDPR) og andre globale lover om personvern. I stedet lagrer brukere sine egne data ved hjelp av smarte kontraktbaserte lommebøker.

"Ved å utnytte blockchain-teknologi sikrer Elna at integriteten og personvernet til brukerdata opprettholdes," forteller Arun oss, og legger til at plattformen kun samler inn dataene den trenger for å fungere optimalt.

"Vi tar i bruk beste praksis for dataminimering og tilbyr brukerne verktøyene for å administrere dataene sine effektivt," sa han.

Desentralisert AI gir nytt håp for brukerdatasikkerhet
Kilde: Elna AI

Hva er Elna AI?

Lansert i august 2023, Elna beskriver seg selv som en "samfunnsdrevet desentralisert plattform for opprettelse av AI-agenter." I motsetning til andre AI-chatboter, der operatører velger treningsdataene, kan brukere av Elna laste opp sine egne data til nettverket og trene AI-modeller som fokuserer på emner og applikasjoner som interesserer dem.

Når det er gjort, distribuerer Elna din kunstig intelligens-assistent eller AI-agent på ICP-blokkjeden, hvor brukere kontinuerlig kan utvide kunnskapen sin ved å legge til nye data.

Elna er drevet av det firmaet kaller "kanister smarte kontrakter" som er ansvarlige for opplæring av AI-modeller og utplassering. Den bruker også noe kjent som en "vektordatabase" for å lagre informasjon i kjeden.

Folk bruker lommeboken for å logge på systemet, og for styring bruker de ELNA-tokenet mens Elixir er et verktøy-token, begge bygget på Internett-dataprotokollen.

Desentralisert AI gir nytt håp for brukerdatasikkerhet
En avatar opprettet på Elna. Kilde: Elna AI

ChatGPT-datalekkasjer

Big Tech har ikke klart å sikre brukerdata tidligere. Sentraliserte enheter, som Facebook, har bevist at de spiller raskt og løst med brukerdata. Det sosiale medienettverket lekket personlige e-poster, telefonnumre, meldinger, bilder og videoer.

Data i seg selv har blitt et produkt som kan selges, og med mer enn 24 milliarder besøk på de 50 beste AI-verktøyene i fjor, iht.  Forfattervenn, risikoen har aldri vært høyere. Å tilby unike datasett, som samlet inn av kunstig intelligens-selskaper, gir en svært lukrativ satsing når disse dataene faller i gale hender.

Faktisk, i mars 2023, en feil som utsatt tusenvis av chat-titler, den første meldingen om nye samtaler og betalingsinformasjon fra ChatGPT Plus-brukere kom frem. OpenAI Apologized for lekkasjen, men den har blitt undersøkt for hvordan den beskytter brukerdata.

Som MetaNews tidligere rapporterte, var ChatGPT midlertidig forbudt i Italia nettopp av denne grunn. Regulatorer var bekymret for personvernbrudd som definert under GDPR.

Forskere fra University of North Carolina fant også at sentraliserte store språkmodeller som ChatGPT eller Googles Gemini kontinuerlig lekke sensitive data, inkludert økonomiske poster, selv etter at det har blitt slettet chatbot-skaperne.

Desentralisert AI: Reimagining the wheel

Mens data som er lagret på blokkjeden er umulig å tukle med, er desentraliserte AI-plattformer som Elna ikke uten sine egne utfordringer, selv med løftet om en fremtid der brukere kontrollerer dataene sine.

"Den primære utfordringen i desentralisert AI er mangelen på en grunnleggende infrastruktur og rammeverk som finnes i web2, noe som nødvendiggjør en reimagining av hjulet for AI i web3," sa Elna-sjef Arun PM.

Han mener også at eksisterende globale regulatoriske rammeverk "ikke er fullt utstyrt for å møte de unike utfordringene og personvernbekymringene som utgjøres av sentraliserte AI-systemer." Arun sa at regulatorer ofte henger etter viktige fremskritt innen teknologi, noe som gjør det vanskeligere for dem å gjennomføre rettidig data- og personvernlovgivning.

Men hva skjer i tilfelle Elnas desentraliserte AI-modell får et sikkerhetsbrudd som fører til tap av brukerdata? Er det i det hele tatt mulig? Arun PM sa at et slikt brudd kun kan skje på brukerskapt chabot-nivå, ikke på Elnas infrastruktur.

"Den desentraliserte naturen til plattformen tillater presis sporing og tildeling av ansvar," sa han detaljert. "Denne modellen sikrer at ansvarlighet opprettholdes, med evnen til å identifisere og adressere brudd på en affektiv måte."

spot_img

Siste etterretning

spot_img