Logo Zéphyrnet

Mieux vaut être prêt à tenir les promesses de votre chatbot IA

Date :

Opinion J’entends sans cesse parler d’entreprises qui souhaitent licencier les employés de leurs centres d’appels et leur personnel de première ligne le plus rapidement possible et les remplacer par l’IA. Ils sont francs à ce sujet.

Le PDG de Meta, Mark Zuckerberg, a récemment déclaré que l'entreprise était derrière Facebook licenciait des employés « afin que nous puissions investir dans ces visions ambitieuses à long terme autour de l’IA. » C’est peut-être une décision vraiment stupide. Demandez simplement à Air Canada.

Air Canada a récemment découvert à ses dépens que quand votre chatbot IA fait une promesse à un client, l'entreprise doit y parvenir. Oups !

Dans le cas d'Air Canada, un assistant virtuel a dit à Jake Moffatt qu'il pouvait bénéficier d'une réduction de deuil sur son vol Vancouver-Toronto déjà acheté en raison du décès de sa grand-mère. Le coût total du voyage sans le rabais : 1,630.36 760 $ CA. Coût avec le rabais : XNUMX $. La différence entre une petite somme d'argent peut être de la petite caisse pour une compagnie aérienne internationale, mais c'est de l'argent réel pour les gens ordinaires. 

L'assistant virtuel lui a dit que s'il achetait un billet au prix normal, il aurait jusqu'à 90 jours pour réclamer une réduction en cas de deuil. Un véritable représentant d'Air Canada a confirmé qu'il pouvait bénéficier du rabais en cas de deuil.

Lorsque Moffatt a ensuite soumis sa demande de remboursement accompagnée des documents nécessaires, Air Canada a refusé de payer. Cela n’a pas bien fonctionné pour l’entreprise.

Moffatt a porté l'entreprise devant le tribunal des petites créances, affirmant qu'Air Canada avait fait preuve de négligence et avait déformé sa politique. Air Canada a en effet répondu que «Le chatbot est une entité juridique distincte qui est responsable de ses propres actions."

Je ne pense pas!

Le tribunal a accepté. « Il s’agit d’une soumission remarquable. Même si un chatbot comporte une composante interactive, il ne constitue qu'une partie du site Web d'Air Canada. Il devrait être évident pour Air Canada qu'elle est responsable de toutes les informations contenues dans son site Web. Peu importe que les informations proviennent d’une page statique ou d’un chatbot.

La citation financière qui incite les autres entreprises à prêter attention à la mise en œuvre de leurs projets d’IA est la suivante : « Je trouve qu’Air Canada n’a pas pris raisonnablement soin de garantir l’exactitude de son chatbot. »

Il s’agit d’un cas, et les dégâts ont été infimes. Air Canada a été condamnée à rembourser à Moffatt le remboursement qui lui était dû. Pourtant, les entreprises doivent savoir qu’elles sont tout aussi responsables de la précision de leurs chatbots IA que de leurs employés en chair et en os. C'est si simple.

Et devine quoi? Les LLM en IA ne conviennent souvent pas. Ils ne sont même pas proches. Selon une étude réalisée par AI Forensics et AlgorithmWatch, des organisations à but non lucratif, un tiers des réponses de Microsoft Copilot contenaient des erreurs factuelles. Cela fait beaucoup de poursuites potentielles !

Comme l'a déclaré Avivah Litan, vice-président analyste de Gartner spécialisé dans l'IA, si vous laissez vos chatbots IA être votre première ligne de service client, votre entreprise « finira par dépenser plus en frais juridiques et d’amendes que ce qu’ils gagnent grâce aux gains de productivité.

L'avocat Steven A. Schwartz sait tout cela. Il s'est appuyé sur ChatGPT pour trouver des cas antérieurs pour étayer son cas. Et Chat GPT a trouvé des cas antérieurs assez justes. Il n'y avait qu'un petit problème. Six des cas qu'il a cités n'existaient pas. Le juge de district américain P. Kevin Castel n'a pas été amusé. Le juge lui a infligé une amende de 5,000 XNUMX $, mais cela aurait pu être bien pire. Il est peu probable que quiconque commette une erreur similaire à l’avenir fasse l’objet d’une telle indulgence.

La précision seule n'est pas le seul problème. Les préjugés inhérents à vos grands modèles linguistiques (LLM) peuvent également vous mordre. Le iTutorGroup je peux tout vous dire à ce sujet. Ce l'entreprise a perdu un procès de 365,000 XNUMX $ contre la Commission américaine pour l'égalité des chances en matière d'emploi (EEOC) parce qu'un logiciel de recrutement basé sur l'IA a automatiquement rejeté les candidatures féminines âgées de 55 ans et plus et les candidats masculins âgés de 60 ans et plus.

À ce jour, la plus grosse erreur L'erreur de tarification de l'immobilier de la société immobilière résidentielle américaine Zillow a été causée par le recours à l'IA.

En novembre 2021, Zillow a mis fin à son programme Zillow Offers. Ce programme d'IA a conseillé à l'entreprise de faire des offres en espèces pour des maisons qui seraient ensuite rénovées et retournées. Cependant, avec un taux d’erreur médian de 1.9 pour cent et des taux d’erreur pouvant atteindre 6.9 ​​pour cent, l’entreprise a perdu beaucoup d’argent. Combien? Essayez une dépréciation des stocks de 304 millions de dollars en un seul trimestre. Oh, et Zillow a licencié 25 pour cent de ses effectifs. 

Je ne suis pas un Luddite, mais la simple vérité est que l’IA n’est pas encore suffisamment fiable pour les entreprises. C'est un outil utile, mais il ne remplace pas les travailleurs, qu'ils soient professionnels ou membres du personnel du service d'assistance. Dans quelques années, ce sera une autre histoire. Aujourd’hui, vous vous posez simplement des problèmes si vous comptez sur l’IA pour améliorer vos résultats. ®

spot_img

Dernières informations

spot_img