Zephyrnet-logo

Drie mythen over generatieve AI op de werkplek – en hoe u deze kunt doorbreken – DATAVERSITY

Datum:

Het afgelopen jaar heeft generatieve AI meer media-aandacht gekregen dan welk ander type technologie dan ook. Tot nu toe heeft datawetenschap centraal gestaan ​​in deze innovatieverhalen, en terecht: geen van de technologische hulpmiddelen van de volgende generatie kan werken zonder een sterke data science programma. 

Zodra generatieve AI-tools zoals ChatGPT en DALL-E mainstream raakten, liepen de meningen van experts en het publiek uiteen van AI-sceptici tot degenen die geloven dat AI in de toekomst de overgrote meerderheid van het werk zal automatiseren. 

Als technologen weten we: de waarheid ligt ergens in het midden van deze uitersten.

Maar er zijn waarschijnlijk anderen in uw team, in uw bedrijf, in uw bestuur die misschien niet precies weten wat een hype is en wat de realiteit is. Bovendien zou het bestaan ​​van deze mythen een barrière kunnen vormen voor het opbouwen van belangenbehartiging voor goed ontworpen, doordachte generatieve AI-oplossingen binnen uw bedrijf. 

Ik ben van mening dat digitale experts nieuwe technologieën op de werkvloer tastbaar moeten maken voor leiders en collega’s. Hier zijn drie generatieve AI-mythen die u het komende jaar kunt tegenkomen, en hoe u deze mythen kunt doorbreken:

Mythe 1: Generatieve AI kan alles automatiseren – en kan onze banen vervangen.

Toen generatieve AI doordrong tot het mainstream bewustzijn, was de vraag op ieders lippen: “Komt AI voor mijn werk?” 

Ik ben helemaal voor een beetje drama, maar deze overdreven kijk op AI is een mythe. AI komt niet For jouw baan, die komt eraan naar jouw baan. Als datawetenschappers en technologie-experts gebruiken we al jaren tools als voorspellende modellen, beslissingsmotoren en fraudedetectie met fantastische resultaten. Generatieve AI is het laatste stukje van de puzzel dat zal samenwerken met deze andere intelligente tools en bedrijven zal helpen echte resultaten te bereiken digitale transformatie

Maar onder de oppervlakte schuilt er nog een andere mythe over de praktische toepassing van AI op de werkplek.

Gezien de krachtige mogelijkheden van AI wil iedereen AI-tools inzetten om supercomplexe problemen op te lossen. Maar waarom beginnen met de moeilijke problemen als AI beter in staat is de makkelijke problemen aan te pakken?

Generatieve AI heeft bewezen in staat te zijn de administratieve lasten van mensen op de werkvloer op zich te nemen, maar kan geen oordeel vellen over de bedrijfsvoering – en dat zal waarschijnlijk ook nooit gebeuren. Generatieve AI zal niet alles automatiseren, omdat mensen erbij moeten zijn om weloverwogen, solide beslissingen te nemen. 

Een echte overwinning voor generatieve AI op de werkplek is dat de modellen de taak krijgen om al het laaghangende fruit op de takenlijsten van werknemers af te handelen, zodat werknemers zich kunnen concentreren op de taken die beoordelingsgesprekken, besluitvorming en een gevoelige, menselijke aanraking.

Op deze manier kan het bedrijfsproces veranderen en kunnen bedrijven nieuwe niveaus van efficiëntie en groei bereiken. 

Mythe 2: Uw gegevens zijn niet veilig binnen een groot taalmodel.

Een zorg die ik het afgelopen jaar vaak heb gehoord van collega's en klanten, gaat over de veiligheid van gegevens en documenten bij gebruik in een groot taalmodel (LLM). 

Nu gegevensprivacy voor velen hoog in het vaandel staat en cyberveiligheidsbedreigingen ongekend hoog zijn, is het begrijpelijk om te vrezen dat uw gegevens en documenten onderdeel zullen worden van het publieke domein wanneer ze in een LLM worden gebruikt. 

Hypothetisch gezien kan dat waar zijn: bij IP-lekken of datalekken kunnen bedrijfsgegevens onderdeel worden van het publieke domein. 

Maar met een goede cyberbeveiligingsinfrastructuur en een sterk beleid en praktijkbeheer kunnen bedrijven het openbaar delen van gegevens en documenten binnen een LLM beveiligen en tegenhouden. Gegevens moeten geïsoleerd en gecodeerd blijven binnen uw eigen netwerk, en bedrijven moeten zorgen voor een veilige overdracht van gegevens tussen opslag en LLM's wanneer deze tools worden gebruikt. Veel beschikbare LLM’s van vandaag – bijvoorbeeld OpenAI’s ChatGPT – kunnen binnen het ecosysteem van een bedrijf worden geïnstalleerd om ervoor te zorgen dat tools kunnen worden gebruikt, maar de gegevens en lessen uit generatieve AI worden geen onderdeel van toekomstige training of machinaal leren binnen die LLM. Het gezegde luidt: “Data kunnen inchecken, maar kunnen nooit weggaan.” Deze waarborgen kunnen worden geïmplementeerd met de juiste beveiligingscontroles en beweringen van uw LLM-leverancier.   

Gelukkig zijn de regelgevingsrichtlijnen een inhaalslag aan het maken voor de AI-sector. We zullen binnenkort meer wetgeving zien, zoals die nu in de EU aan de gang is, met betrekking tot het gebruik van generatieve AI-instrumenten (en mogelijk AI-instrumenten in het algemeen), met als doel de gebruikers van deze instrumenten te beschermen. Bedrijven die zich niet aan de regels houden of waarvan de cyberbeveiligingsinfrastructuur ontoereikend is, zullen waarschijnlijk met aanzienlijke gevolgen te maken krijgen. 

Mythe 3: Generatieve AI kan op elk soort probleem worden toegepast.

In augustus, The Wall Street Journal publiceerde een artikel getiteld ‘AI Botched Their Headshots’. Het verhaal vertelde het effect dat gekleurde vrouwen ervoeren toen generatieve AI het concept van ‘professioneel’ toepaste. Toen de geïnterviewde vrouwen vroegen dat generatieve AI hun eigen foto's zou bewerken om een ​​professionele portretfoto te maken, ontdekten ze dat de resultaten verkeerd waren. De generatieve AI-tool toonde het concept van technologiegedreven vooringenomenheid bij LLM's toen de technologie de huidskleur en gelaatstrekken veranderde in de interpretatie van wat als een professioneler imago zou moeten worden beschouwd.

Wat ging er uiteindelijk mis in dit voorbeeld? Generatieve AI werd gevraagd een interpretatie te maken op basis van wat het leerde van menselijke inhoud in de digitale ruimte. We weten dat er helaas op allerlei terreinen vooroordelen bestaan ​​tegen professionele vrouwen, dus het is geen verrassing dat het AI-model, dat is getraind op basis van wat het heeft geleerd van inhoud die door mensen is gemaakt, dat vooroordeel ook heeft geïnterpreteerd.

Het is duidelijk dat, of vragen nu zo eenvoudig zijn als het genereren van een afbeelding of complex zijn als het oplossen van een zakelijke uitdaging binnen een wereldwijd bedrijf, generatieve AI niet de taak kan krijgen om elk probleem op te lossen. 

Vraag generatieve AI niet om een ​​interpretatie te maken. In plaats daarvan moet je je bij het onderzoek naar de soorten problemen die in aanmerking komen voor generatieve AI beperken tot de feiten.

Wanneer leiders generatieve AI-tools inzetten op een plek waar de AI geen mogelijkheid heeft om vooroordelen te interpreteren en toe te passen, zullen de tools veel effectiever functioneren voor werkplek- en administratieve toepassingen. 

De toekomst ziet er rooskleurig uit voor generatieve AI-tools op de werkplek. Via iteratieve snelle engineering komen technologieteams samen met hun zakenpartners om oplossingen te ontwerpen die werken en worden geaccepteerd door operationele teams. Naarmate leiders de voorgestelde AI-oplossingen ‘inkopen’ en het vertrouwen en de acceptatie van generatieve AI groeit, zullen deze tools zich snel verspreiden. 

Technologieteams en datawetenschappers delen de verantwoordelijkheid om technologie tastbaar te maken voor leiders en om contactpunten te benadrukken voor hoe digitalisering in hun workflow past. Het begint allemaal met het doorbreken van dit soort mythes en het stap voor stap wandelen van leiders op weg naar een efficiëntere toekomst.

spot_img

Laatste intelligentie

spot_img