Zephyrnet-logo

Een echte vriend die al je geheimen verraadt: Koreaanse AI сhatbot maakte een fout in gegevensbescherming

Datum:

Zfort Groep

De meeste Amerikanen weten niet zeker hoe bewust bedrijven zich gedragen bij het gebruiken en beschermen van persoonlijke informatie. Bijna 81% van hen geeft aan onzeker te zijn over mogelijke risico's van gegevensverzameling, en 66% beweert hetzelfde te voelen over gegevensverzameling door de overheid.

Het is echt moeilijk om het niveau van potentiële risico's af te wegen en de verwachte schade te begrijpen die onverantwoordelijk gedrag met persoonlijke gegevens kan veroorzaken. Welke invloed kan dit hebben op ons verdere handelen, welke beperkingen en veranderingen brengt het met zich mee?

Laten we de belangrijkste punten analyseren van wat er gebeurt bij het vrijgeven van persoonlijke gegevens en hoe u uzelf goed kunt beschermen aan de hand van het voorbeeld van de recente situatie in Zuid-Korea.

Het Koreaanse bedrijf ScatterLab lanceerde een 'wetenschappelijke en datagestuurde' app, die de mate van gehechtheid in relaties moest voorspellen.

Het vertrouwt op KakaoTalk, de populairste messenger-app in Zuid-Korea die door ongeveer 90 procent van de bevolking wordt gebruikt.

Dus de analyse van je romantische gevoelens (of hun afwezigheid) kost slechts ongeveer $ 4.50 per gespreksverwerking.
"Science of Love" werkte als volgt: het bestudeerde het gesprek en concludeerde op basis van bepaalde factoren (zoals de gemiddelde responstijd, hoe vaak de partner je eerst schrijft, het feit van enkele triggerzinnen en het gebruik van emoties) of er is een romantische band tussen de gesprekspartners van de dialoog.

Je kunt zeggen: "Kom op! Weet iemand dat beter dan je innerlijke gewaarwording? Hoe kan een app op de hoogte zijn van wat er in iemands hoofd of hart omgaat terwijl ze je sms'en?" Nou, er is hier wat gezond verstand.
Maar het feit is dat Science of Love in juni 2020 ongeveer 2.5 miljoen downloads had ontvangen in Zuid-Korea en 5 miljoen in Japan, en voorbereidingen trof om zijn activiteiten uit te breiden naar de Verenigde Staten.

Dus, laten we onthullen waarom het zo populair wordt onder Koreaanse jongens en meisjes?
“Omdat ik het gevoel had dat de app me begreep, voelde ik me veilig en sympathiek. Het voelde goed omdat het voelde alsof ik een liefdesdokter aan mijn zijde had”, vertelt een van de gebruikers in de recensie.

In december 2020 introduceerde het bedrijf een AI Chatbot Lee-Luda.

Als goed opgeleide AI-consultant werd de bot gepositioneerd, aangeleerd op meer dan 10 miljard conversatielogboeken van de app. "20-jarige vrouw" Lee-Luda is klaar om met iedereen een echte vriendschap op te bouwen.
Zoals de CEO van het bedrijf al zei, CEO, het doel van Lee-Luda was om "een AI te worden Chatbot die mensen liever als gesprekspartner hebben dan als persoon.”

Net na een paar weken na de lancering van de bot konden gebruikers niet anders dan aandacht schenken aan de harde behandeling en uitspraken van de bot tegenover bepaalde sociale groepen en minderheden (LGBTQ+, mensen met een handicap, feministen, enz.).

Het ontwikkelbedrijf, ScatterLab, verklaarde dit fenomeen door het feit dat de bot informatie uit de basisdataset haalde voor training, niet uit persoonlijke gebruikersdiscussies.
Het is dus duidelijk dat het bedrijf de reeks zinnen en godslastering niet goed heeft uitgefilterd voordat de bottraining begon.

De ontwikkelaars "hebben er gewoon niet in geslaagd om bepaalde persoonlijke informatie te verwijderen, afhankelijk van de context" (Nou, het is wat het is).

Lee-Luda had niet kunnen leren hoe dergelijke persoonlijke informatie in zijn antwoorden moest worden opgenomen, tenzij deze in de trainingsdataset bestonden.
Maar er is ook "goed nieuws": het is mogelijk om de trainingsdataset van de AI te herstellen Chatbot. Dus als er persoonlijke informatie in de trainingsdataset aanwezig was, kan deze worden geëxtraheerd door de chatbot te ondervragen.

Het gaat nog steeds niet zo slecht, hè?
Om het nog erger te maken, had ScatterLab een trainingsset van 1,700 zinnen geüpload, die deel uitmaakte van de grotere dataset die wordt verzameld, op Github.
Het onthulde namen van meer dan 20 mensen, samen met de locaties waar ze zijn geweest, hun relatiestatus en sommige van hun medische informatie.

ScatterLab gaf verklaringen af ​​ter verduidelijking van het incident, bedoeld om de zorgen van het publiek te sussen, maar uiteindelijk maakten ze de mensen nog meer woedend. De verklaringen van het bedrijf gaven aan dat “Lee-Luda een kinderlijke AI is die net met mensen is gaan praten”, dat hij “nog veel te leren heeft” en “met vallen en opstaan ​​zal leren wat een beter en passender antwoord is. ” Is het echter ethisch om de privacy en veiligheid van individuen te schenden voor het 'vallen en opstaan'-leerproces van een chatbot? Nee.

Ondanks het feit dat deze situatie een spraakmakende gebeurtenis is geworden in Korea, heeft het op wereldschaal geen aandacht gekregen (en dat vinden we nogal onterecht).
Het gaat niet om de nalatigheid en oneerlijkheid van de makers, dit incident weerspiegelt de algemene trend in de ontwikkeling van de AI-industrie. Gebruikers van op technologie gebaseerde software hebben weinig controle over het verzamelen en gebruiken van persoonsgegevens.
Dergelijke situaties zouden u aan het denken moeten zetten over zorgvuldiger en nauwgezetter gegevensbeheer.

Het tempo van de technologische ontwikkeling loopt aanzienlijk voor op de goedkeuring van wettelijke normen voor het gebruik ervan. Het is moeilijk te voorspellen waar de technologie ons over een paar jaar zal brengen.

De wereldwijde vraag is dus: “Zijn AI- en techbedrijven in staat om zelfstandig de ethische component van de gebruikte en ontwikkelde innovaties te controleren?”.
Is het de moeite waard om terug te gaan naar het concept van “maatschappelijk verantwoord ondernemen”? En waar is deze gulden middenweg (Innovation VS Humanity)?

Ook verkrijgbaar in audioformaat hier.

Coinsmart. Beste Bitcoin-beurs in Europa
Source: https://chatbotslife.com/a-true-friend-who-betrays-all-your-secrets-korean-ai-%D1%81hatbot-turned-a-data-protection-failure-997f3f9dd366?source=rss—-a49517e4c30b—4

spot_img

Laatste intelligentie

spot_img