Zephyrnet-logo

U kunt maar beter bereid zijn om de beloften van uw AI-chatbot waar te maken

Datum:

Advies Ik hoor steeds over bedrijven die hun callcentermedewerkers en eerstelijnsmedewerkers zo snel mogelijk willen ontslaan en vervangen door AI. Ze zijn er openhartig over.

Meta-CEO Mark Zuckerberg zei onlangs het bedrijf erachter Facebook ontsloeg werknemers “zodat we kunnen investeren in deze ambitieuze langetermijnvisies rond AI.” Dat is misschien wel een heel domme zet. Vraag het maar aan Air Canada.

Air Canada kwam daar onlangs op de harde manier achter wanneer uw AI-chatbot een belofte doet aan een klant moet het bedrijf daar iets aan doen. Oeps!

In het geval van Air Canada vertelde een virtuele assistent aan Jake Moffatt dat hij vanwege de dood van zijn grootmoeder een rouwkorting kon krijgen op zijn reeds gekochte vlucht van Vancouver naar Toronto. De totale kosten van de reis zonder korting: CA$ 1,630.36. Kosten met korting: $ 760. Het verschil tussen niet helemaal een duizend dollar kan kleine bedragen zijn voor een internationale luchtvaartmaatschappij, maar voor gewone mensen is het echt geld. 

De virtuele assistent vertelde hem dat als hij een kaartje voor de normale prijs zou kopen, hij tot 90 dagen de tijd zou hebben om een ​​rouwkorting terug te vorderen. Een echte vertegenwoordiger van Air Canada bevestigde dat hij de rouwkorting kon krijgen.

Toen Moffatt later zijn terugbetalingsaanvraag met de nodige documentatie indiende, weigerde Air Canada uit te betalen. Dat pakte niet goed uit voor het bedrijf.

Moffatt daagde het bedrijf voor de rechtbank voor kleine vorderingen en beweerde dat Air Canada nalatig was en zijn beleid verkeerd had voorgesteld. Air Canada antwoordde in feite dat “De chatbot is een aparte juridische entiteit die verantwoordelijk is voor zijn eigen daden."

Ik denk het niet!

De rechtbank was het daarmee eens. “Dit is een opmerkelijke inzending. Hoewel een chatbot een interactief onderdeel heeft, is deze nog steeds slechts een onderdeel van de website van Air Canada. Het moet voor Air Canada duidelijk zijn dat zij verantwoordelijk is voor alle informatie op haar website. Het maakt niet uit of de informatie afkomstig is van een statische pagina of van een chatbot.”

Het geldcitaat voor andere bedrijven om aandacht te besteden aan de voortgang van hun AI-plannen is: “Ik vind dat Air Canada geen redelijke zorg heeft besteed om ervoor te zorgen dat zijn chatbot accuraat was.”

Dit is één geval en de schade was miniem. Air Canada kreeg de opdracht om Moffatt de terugbetaling terug te betalen die hij verschuldigd was. Toch moeten bedrijven weten dat zij net zo verantwoordelijk zijn voor de nauwkeurigheid van hun AI-chatbots als voor hun werknemers van vlees en bloed. Het is zo simpel.

En raad eens? AI LLM's hebben vaak geen gelijk. Ze zijn niet eens in de buurt. Volgens een onderzoek van non-profitorganisaties AI Forensics en AlgorithmWatch: een derde van de antwoorden van Microsoft Copilot bevatte feitelijke fouten. Dat zijn veel potentiële rechtszaken!

Zoals Avivah Litan, een vooraanstaande vice-president-analist van Gartner die zich richt op AI, zei: als je je AI-chatbots je frontlinie van klantenservice laat zijn, uw bedrijf “zal uiteindelijk meer uitgeven aan juridische kosten en boetes dan ze verdienen aan productiviteitswinsten.”

Advocaat Steven A. Schwartz weet daar alles van. Hij vertrouwde op ChatGPT om eerdere zaken te vinden om zijn zaak te ondersteunen. En Chat GPT vond eerdere gevallen goed genoeg. Er was alleen een klein probleem. Zes van de door hem genoemde gevallen bestonden niet. De Amerikaanse districtsrechter P. Kevin Castel was niet geamuseerd. De rechter legde hem een ​​boete van $ 5,000 op, maar het had veel erger kunnen zijn. Het is onwaarschijnlijk dat iemand die in de toekomst een soortgelijke fout maakt, met een dergelijke clementie te maken krijgt.

Nauwkeurigheid alleen is niet het enige probleem. Vooroordelen die in uw Large Language Models (LLM’s) zijn ingebakken, kunnen u ook bijten. De iTutorGroep kan je daar alles over vertellen. Dit bedrijf verloor een rechtszaak van $ 365,000 van de Amerikaanse Equal Employment Opportunity Commission (EEOC) omdat door AI aangedreven wervingssoftware automatisch vrouwelijke sollicitanten van 55 jaar en ouder en mannelijke sollicitanten van 60 jaar en ouder afwijst.

Tot op heden is de grootste fout veroorzaakt door het vertrouwen op AI was de vastgoedprijsblunder van het Amerikaanse woningvastgoedbedrijf Zillow.

In november 2021 beëindigde Zillow zijn Zillow Offers-programma. Dit AI-programma adviseerde het bedrijf bij het doen van contante aanbiedingen voor huizen die vervolgens zouden worden gerenoveerd en omgedraaid. Met een gemiddeld foutenpercentage van 1.9 procent en een foutenpercentage van maar liefst 6.9 procent verloor het bedrijf echter flink geld. Hoe veel? Probeer eens een voorraadafschrijving van $304 miljoen in één kwartaal alleen. Oh, en Zillow ontsloeg 25 procent van zijn personeelsbestand. 

Ik ben geen Luddiet, maar de simpele waarheid is dat AI nog niet betrouwbaar genoeg is voor het bedrijfsleven. Het is een handig hulpmiddel, maar het is geen vervanging voor werknemers, of het nu professionals zijn of helpdeskmedewerkers. Over een paar jaar zal het een ander verhaal zijn. Tegenwoordig vraagt ​​u alleen maar om problemen als u op AI vertrouwt om uw bedrijfsresultaten te verbeteren. ®

spot_img

Laatste intelligentie

spot_img