Zephyrnet-logo

Brits spionagebureau: voed LLM's niet met gevoelige bedrijfsgegevens

Datum:

Het spionagebureau van de Britse regering waarschuwt bedrijven voor de risico's van het invoeren van gevoelige gegevens in openbare grote taalmodellen, waaronder ChatGPT, en zegt dat ze zichzelf openstellen voor een wereld van potentiële pijn, tenzij correct beheerd.

Kopen Google Reviews, Microsoft en anderen stoppen momenteel LLM's - de nieuwste rage in technologie - in hun zakelijke producten, en Meta's LLaMa is onlangs gelekt. Ze zijn indrukwekkend, maar reacties kunnen gebrekkig zijn, en nu wil het Government Communications Headquarters (GCHQ) de veiligheidsinvalshoek benadrukken.

Auteurs David C, een technisch directeur voor Platform Research, en Paul J, een technisch directeur voor Data Science Research, vragen: "Laat losse prompts schepen zinken?" Ja, concluderen ze, in sommige gevallen.

De algemene zorg is dat een LLM kan "leren" van een prompt van gebruikers en die informatie kan verstrekken aan anderen die ernaar vragen voor soortgelijke zaken.

“Er is hier enige reden tot bezorgdheid, maar niet om de reden die velen beschouwen. Momenteel worden LLM's getraind en vervolgens wordt het resulterende model opgevraagd. Een LLM voegt (op het moment van schrijven) niet automatisch informatie uit query's toe aan zijn model zodat anderen deze kunnen opvragen. Dat wil zeggen, het opnemen van informatie in een zoekopdracht zal er niet toe leiden dat die gegevens worden opgenomen in de LLM.

De query zal zichtbaar zijn voor de LLM-provider (OpenAI voor ChatGPT) en zal worden opgeslagen en “vrijwel zeker ooit worden gebruikt voor het ontwikkelen van de LLM-service of het LLM-model. Dit kan betekenen dat de LLM-aanbieder (of zijn partners/contractanten) vragen kunnen lezen en deze op een of andere manier in toekomstige versies kunnen opnemen. Als zodanig moeten de gebruiksvoorwaarden en het privacybeleid grondig worden begrepen voordat gevoelige vragen worden gesteld”, schrijft het GCHQ-duo.

Voorbeelden van gevoelige gegevens – vrij toepasselijk in het huidige klimaat – zijn onder meer een CEO die wordt betrapt op de vraag "hoe hij een werknemer het beste kan ontslaan" of een persoon die specifieke gezondheids- of relatievragen stelt, zegt het bureau. wij bij De Reg zou zich – op veel niveaus – zorgen maken als een exec een LLM zou vragen naar ontslagen.

Het paar voegt eraan toe: “Een ander risico, dat groter wordt naarmate meer organisaties LLM's produceren, is dat online opgeslagen zoekopdrachten kunnen worden gehackt, gelekt of, waarschijnlijker, per ongeluk openbaar toegankelijk worden gemaakt. Dit kan potentieel door de gebruiker identificeerbare informatie bevatten. Een ander risico is dat de exploitant van de LLM later wordt overgenomen door een organisatie met een andere benadering van privacy dan het geval was toen gegevens door gebruikers werden ingevoerd.

GCHQ is verre van de eerste die het potentieel voor een beveiligingsfout benadrukt. Interne Slack-berichten van een senior general counsel bij Amazon, gezien door Insider, waarschuwde het personeel om geen bedrijfsinformatie te delen met LLM's, en zei dat er gevallen waren van ChatGPT-reacties die leken op de eigen interne gegevens van Amazon.

"Dit is belangrijk omdat uw invoer kan worden gebruikt als trainingsgegevens voor een verdere iteratie van ChatGPT, en we zouden niet willen dat de uitvoer onze vertrouwelijke informatie bevat of lijkt op onze vertrouwelijke informatie", zei ze, eraan toevoegend dat ze dat al had.

Onderzoek door Cyberhaven Labs deze maand geeft aan dat gevoelige gegevens goed zijn voor 11 procent van de informatie die werknemers invoeren in ChatGPT. Het analyseerde het gebruik van ChatGPT voor 1.6 miljoen werknemers bij bedrijven die de gegevensbeveiligingsservice gebruiken, en ontdekte dat 5.6 procent het minstens één keer op het werk had geprobeerd en 11 procent gevoelige gegevens had ingevoerd.

JP Morgan, Microsoft en WalMart zijn onder andere bedrijven die hun werknemers moeten waarschuwen voor de mogelijke gevaren.

Terug bij GCHQ adviseren de heren David C en Paul J bedrijven om geen gegevens in te voeren waarvan ze niet willen dat ze openbaar worden gemaakt, door de cloud geleverde LLM's te gebruiken en zich goed bewust te zijn van het privacybeleid, of een zelfgehoste LLM te gebruiken.

We hebben Microsoft, Google en OpenAI om commentaar gevraagd. ®

spot_img

Laatste intelligentie

spot_img