Zephyrnet-Logo

Stellen Sie Self-Service-Fragebeantwortung mit der QnABot-on-AWS-Lösung bereit, die auf Amazon Lex mit Amazon Kendra und großen Sprachmodellen basiert | Amazon Web Services

Datum:

Powered by Amazon Lex, der QnABot auf AWS Die Lösung ist ein Open-Source-Chatbot mit mehreren Kanälen und mehreren Sprachen. Mit QnABot können Sie Self-Service-Konversations-KI schnell in Ihrem Contact Center, auf Ihren Websites und in Ihren Social-Media-Kanälen bereitstellen, um Kosten zu senken, Wartezeiten zu verkürzen und das Kundenerlebnis und die Markenstimmung zu verbessern. Kunden möchten nun die Leistungsfähigkeit großer Sprachmodelle (LLMs) nutzen, um das Kundenerlebnis mit generativen KI-Funktionen weiter zu verbessern. Dazu gehört die automatische Generierung präziser Antworten aus vorhandenen Unternehmensdokumenten und Wissensdatenbanken sowie die Verbesserung der Konversationsfähigkeit ihrer Self-Service-Chatbots.

Unsere neuesten QnABot-Versionen, v5.4.0+, können jetzt ein LLM verwenden, um Kundenfragen eindeutig zu klären, indem sie den Konversationskontext berücksichtigen und dynamisch Antworten aus relevanten FAQs generieren Amazon Kendra Suchergebnisse und Dokumentpassagen. Es sorgt außerdem für Zuordnung und Transparenz, indem es Links zu den Referenzdokumenten und Kontextpassagen anzeigt, die vom LLM zur Erstellung der Antworten verwendet wurden.

Wenn Sie QnABot bereitstellen, können Sie wählen, ob automatisch ein hochmodernes Open-Source-LLM-Modell bereitgestellt werden soll (Falcon-40B-Anweisung) auf ein Amazon Sage Maker Endpunkt. Die LLM-Landschaft entwickelt sich ständig weiter – häufig werden neue Modelle veröffentlicht und unsere Kunden möchten mit verschiedenen Modellen und Anbietern experimentieren, um herauszufinden, was für ihre Anwendungsfälle am besten funktioniert. Aus diesem Grund lässt sich QnABot auch mit jedem anderen LLM integrieren, das ein verwendet AWS Lambda Funktion, die Sie bereitstellen. Um Ihnen den Einstieg zu erleichtern, haben wir außerdem eine Reihe von Beispiel-Ein-Klick-bereitstellbaren Lambda-Funktionen veröffentlicht (Plugins), um QnABot mit führenden LLM-Anbietern Ihrer Wahl zu integrieren, einschließlich unseres eigenen Amazonas Grundgestein Service und APIs von Drittanbietern, Anthropic und AI21.

In diesem Beitrag stellen wir die neuen generativen KI-Funktionen für QnABot vor und führen ein Tutorial durch, um QnABot für die Nutzung dieser Funktionen zu erstellen, bereitzustellen und anzupassen. Wir diskutieren auch einige relevante Anwendungsfälle.

Neue generative KI-Funktionen

Mithilfe des LLM verfügt QnABot nun über zwei neue wichtige Funktionen, die wir in diesem Abschnitt besprechen.

Generieren Sie Antworten auf Fragen aus Amazon Kendra-Suchergebnissen oder Textpassagen

QnABot kann jetzt prägnante Antworten auf Fragen aus Dokumentenauszügen generieren, die über eine Amazon-Kendra-Suche bereitgestellt werden, oder aus Textpassagen, die direkt erstellt oder importiert wurden. Dies bietet folgende Vorteile:

  • Die Anzahl der FAQs, die Sie pflegen und in QnABot importieren müssen, wird reduziert, da Sie jetzt im Handumdrehen präzise Antworten aus Ihren vorhandenen Dokumenten zusammenstellen können.
  • Generierte Antworten können geändert werden, um das beste Erlebnis für den beabsichtigten Kanal zu schaffen. Sie können beispielsweise festlegen, dass die Antworten kurz und prägnant sind und für Contact-Center-Bots im Sprachkanal geeignet sind. Website- oder Text-Bots könnten möglicherweise detailliertere Informationen liefern.
  • Generierte Antworten sind vollständig kompatibel mit der Mehrsprachenunterstützung von QnABot – Benutzer können in den von ihnen gewählten Sprachen interagieren und generierte Antworten in derselben Sprache erhalten.
  • Generierte Antworten können Links zu den verwendeten Referenzdokumenten und Kontextpassagen enthalten, um eine Zuordnung und Transparenz darüber zu gewährleisten, wie das LLM die Antworten erstellt hat.

Auf die Frage „Was ist Amazon Lex?“ kann QnABot beispielsweise relevante Passagen aus einem Amazon Kendra-Index (der AWS-Dokumentation enthält) abrufen. QnABot fordert dann den LLM auf, die Frage basierend auf dem Kontext der Passagen zu beantworten (der optional auch im Web-Client angezeigt werden kann). Der folgende Screenshot zeigt ein Beispiel.

Klären Sie Folgefragen, die auf dem vorangegangenen Gesprächskontext basieren, eindeutig

Das Verstehen der Richtung und des Kontexts einer sich ständig weiterentwickelnden Konversation ist der Schlüssel zum Aufbau natürlicher, menschenähnlicher Konversationsschnittstellen. Benutzeranfragen erfordern oft, dass ein Bot Anfragen basierend auf dem Konversationsgedächtnis und dem Kontext interpretiert. Jetzt fordert QnABot das LLM auf, eine eindeutige Frage basierend auf dem Konversationsverlauf zu generieren. Dies kann dann als Suchabfrage verwendet werden, um die FAQs, Passagen oder Amazon Kendra-Ergebnisse abzurufen und die Frage des Benutzers zu beantworten. Das Folgende ist ein Beispiel für einen Chatverlauf:

Human: What is Amazon Lex?
AI: "Amazon Lex is an AWS service for building conversational interfaces for applications using voice and text..."
Human: Can it integrate with my CRM?

QnABot nutzt das LLM, um die Folgefrage neu zu formulieren, um „es“ eindeutig zu machen, zum Beispiel „Kann Amazon Lex in mein CRM-System integriert werden?“ Dadurch können Benutzer wie in einem menschlichen Gespräch interagieren, und QnABot generiert klare Suchanfragen, um die relevanten FAQs oder Dokumentpassagen zu finden, die die Informationen zur Beantwortung der Frage des Benutzers enthalten.

Diese neuen Funktionen machen QnABot gesprächiger und bieten die Möglichkeit, Antworten basierend auf einer Wissensdatenbank dynamisch zu generieren. Dies ist immer noch eine experimentelle Funktion mit enormem Potenzial. Wir empfehlen Benutzern dringend, zu experimentieren, um das beste LLM und die entsprechenden Eingabeaufforderungen und Modellparameter zu finden. QnABot macht das Experimentieren einfach!

Dein Thema

Zeit, es auszuprobieren! Lassen Sie uns den neuesten QnABot (v5.4.0 oder höher) bereitstellen und die neuen generativen KI-Funktionen aktivieren. Die allgemeinen Schritte lauten wie folgt:

  1. Erstellen und füllen Sie einen Amazon Kendra-Index.
  2. Wählen Sie ein LLM-Plugin aus und stellen Sie es bereit (optional).
  3. Stellen Sie QnABot bereit.
  4. Konfigurieren Sie QnABot für Ihr Lambda-Plugin (falls Sie ein Plugin verwenden).
  5. Greifen Sie auf den QnABot-Webclient zu und beginnen Sie mit dem Experimentieren.
  6. Passen Sie das Verhalten mithilfe der QnABot-Einstellungen an.
  7. Fügen Sie der Wissensdatenbank kuratierte Fragen und Antworten sowie Textpassagen hinzu.

Erstellen und füllen Sie einen Amazon Kendra-Index

Laden Sie Folgendes herunter und verwenden Sie es AWS CloudFormation-Vorlage um einen neuen Amazon Kendra-Index zu erstellen.

Diese Vorlage enthält Beispieldaten mit AWS-Onlinedokumentation für Amazon Kendra, Amazon Lex und SageMaker. Die Bereitstellung des Stacks dauert etwa 30 Minuten, gefolgt von etwa 15 Minuten für die Synchronisierung und die Aufnahme der Daten in den Index.

Wenn der Amazon Kendra-Indexstapel erfolgreich bereitgestellt wurde, navigieren Sie zu den Stapeln Ausgänge Tab und notieren Sie die Index Id, die Sie später bei der Bereitstellung von QnABot verwenden werden.

Wenn Sie bereits über einen Amazon Kendra-Index mit eigenen Inhalten verfügen, können Sie diesen alternativ mit Ihren eigenen Beispielfragen für das Tutorial verwenden.

Wählen Sie ein LLM-Plugin aus und stellen Sie es bereit (optional)

QnABot kann ein integriertes LLM (Falcon-40B-instruct auf SageMaker) bereitstellen oder Lambda-Funktionen verwenden, um beliebige andere LLMs Ihrer Wahl aufzurufen. In diesem Abschnitt zeigen wir Ihnen, wie Sie die Lambda-Option mit einer vorgefertigten Beispiel-Lambda-Funktion verwenden. Fahren Sie mit dem nächsten Schritt fort, wenn Sie stattdessen das integrierte LLM verwenden möchten.

Wählen Sie zunächst das Plugin LLM aus, das Sie verwenden möchten. Überprüfen Sie Ihre Optionen im qnabot-on-aws-plugin-samples Quelle README. Zum jetzigen Zeitpunkt sind Plugins für Amazon Bedrock (in der Vorschau) sowie für AI21- und Anthropic-APIs von Drittanbietern verfügbar. Wir gehen davon aus, dass wir im Laufe der Zeit weitere Beispiel-Plugins hinzufügen werden.

Stellen Sie Ihr ausgewähltes Plugin bereit, indem Sie auswählen Stack starten der Stellen Sie einen neuen Plugin-Stack bereit Abschnitt, der im bereitgestellt wird us-east-1 Standardmäßig Region (zur Bereitstellung in anderen Regionen siehe Erstellen und veröffentlichen Sie CloudFormation-Artefakte für QnABot-Plugins).

Wenn der Plugin-Stack erfolgreich bereitgestellt wurde, navigieren Sie zu den Stacks Ausgänge Klicken Sie auf die Registerkarte (siehe folgenden Screenshot) und überprüfen Sie deren Inhalt, den Sie in den folgenden Schritten zum Bereitstellen und Konfigurieren von QnABot verwenden werden. Lassen Sie diesen Tab in Ihrem Browser geöffnet.

Stellen Sie QnABot bereit

Auswählen Lösung starten vom QnABot Implementierungsanleitung um die neueste QnABot-Vorlage über AWS CloudFormation bereitzustellen. Geben Sie die folgenden Parameter an:

  • Aussichten für DefaultKendraIndexIdverwenden Sie die Amazon Kendra-Index-ID (eine GUID), die Sie zuvor erfasst haben
  • Aussichten für EmbeddingsApi (sehen Semantische Suche mit Texteinbettungen), Wähle eines der Folgenden:
    • SAGEMAKER (das standardmäßig integrierte Einbettungsmodell)
    • LAMBDA (um die Amazon Bedrock Embeddings API mit dem zu verwenden BEDROCK-EMBEDDINGS-AND-LLM Plugin)
      • Aussichten für EmbeddingsLambdaArn, Verwenden Sie die EmbeddingsLambdaArn Ausgabewert von Ihrem BEDROCK-EMBEDDINGS-AND-LLM Plugin-Stack.
  • Aussichten für LLMApi (sehen Abfrage-Begriffsklärung für Conversational Retrieval und generative Fragebeantwortung), Wähle eines der Folgenden:
    • SAGEMAKER (das standardmäßig integrierte LLM-Modell)
    • LAMBDA (um das zuvor bereitgestellte LLM-Plugin zu verwenden)
      • Aussichten für LLMLambdaArn, Verwenden Sie die LLMLambdaArn Ausgabewert aus Ihrem Plugin-Stack

Akzeptieren Sie für alle anderen Parameter die Standardwerte (siehe Implementierungsanleitung für Parameterdefinitionen) und fahren Sie mit dem Starten des QnABot-Stacks fort.

Konfigurieren Sie QnABot für Ihr Lambda-Plugin (falls Sie ein Plugin verwenden)

Wenn Sie QnABot mit einem Beispiel-LLM-Lambda-Plugin bereitgestellt haben, um auf ein anderes LLM zuzugreifen, aktualisieren Sie die QnABot-Modellparameter und Eingabeaufforderungsvorlageneinstellungen wie für das von Ihnen ausgewählte Plugin empfohlen. Weitere Informationen finden Sie unter QnABot-Einstellungen aktualisieren. Wenn Sie die LLM-Option von SageMaker (integriert) verwendet haben, fahren Sie mit dem nächsten Schritt fort, da die Einstellungen bereits für Sie konfiguriert sind.

Greifen Sie auf den QnABot-Webclient zu und beginnen Sie mit dem Experimentieren

Wählen Sie in der AWS CloudFormation-Konsole die Option aus Ausgänge Registerkarte des QnABot CloudFormation-Stacks und wählen Sie die aus ClientURL Verknüpfung. Alternativ können Sie den Client starten, indem Sie auswählen QnABot auf AWS-Client aus dem Tools-Menü des Content Designers.

Versuchen Sie nun, Fragen zu AWS-Diensten zu stellen, zum Beispiel:

  • Was ist Amazon Lex?
  • Wie skaliert SageMaker die Inferenz-Workloads?
  • Ist Kendra ein Suchdienst?

Anschließend können Sie weitere Fragen stellen, ohne die zuvor genannten Dienste oder den Kontext anzugeben, zum Beispiel:

  • Ist es sicher?
  • Lässt es sich skalieren?

Passen Sie das Verhalten mithilfe der QnABot-Einstellungen an

Sie können viele Einstellungen am QnABot anpassen Content-Designer-Einstellungen Seite – siehe README – LLM-Einstellungen Eine vollständige Liste der relevanten Einstellungen finden Sie hier. Versuchen Sie beispielsweise Folgendes:

  • Sept ENABLE_DEBUG_RESPONSES zu TRUE, speichern Sie die Einstellungen und versuchen Sie es noch einmal mit den vorherigen Fragen. Jetzt sehen Sie oben in jeder Antwort eine zusätzliche Debug-Ausgabe, die Ihnen zeigt, wie das LLM die Amazon Kendra-Suchabfrage basierend auf dem Chat-Verlauf generiert, wie lange die Ausführung der LLM-Inferenzen gedauert hat und vieles mehr. Zum Beispiel:
    [User Input: "Is it fast?", LLM generated query (1207 ms): "Does Amazon Kendra provide search results quickly?", Search string: "Is it fast? / Does Amazon Kendra provide search results quickly?"["LLM: LAMBDA"], Source: KENDRA RETRIEVE API

  • Sept ENABLE_DEBUG_RESPONSES zurück zur FALSE, einstellen LLM_QA_SHOW_CONTEXT_TEXT und LLM_QA_SHOW_SOURCE_LINKS zu FALSE, und versuchen Sie es noch einmal mit den Beispielen. Jetzt werden die Kontext- und Quellenlinks nicht angezeigt und die Ausgabe enthält nur die von LLM generierte Antwort.
  • Wenn Sie abenteuerlustig sind, experimentieren Sie auch mit den Einstellungen der LLM-Eingabeaufforderungsvorlage:LLM_GENERATE_QUERY_PROMPT_TEMPLATE und LLM_QA_PROMPT_TEMPLATE. Beziehen auf README – LLM-Einstellungen Erfahren Sie, wie Sie Platzhalter für Laufzeitwerte wie Chatverlauf, Kontext, Benutzereingaben, Abfragen und mehr verwenden können. Beachten Sie, dass die Standardaufforderungen höchstwahrscheinlich verbessert und an Ihre Anwendungsfälle angepasst werden können. Scheuen Sie sich also nicht vor Experimenten! Wenn Ihnen etwas kaputt geht, können Sie mit jederzeit zu den Standardeinstellungen zurückkehren AUF STANDARDEINSTELLUNG ZURÜCKSETZEN Option auf der Einstellungsseite.

Fügen Sie der Wissensdatenbank kuratierte Fragen und Antworten sowie Textpassagen hinzu

QnABot kann natürlich weiterhin Fragen auf Basis kuratierter Fragen und Antworten beantworten. Zusätzlich zur Verwendung des Amazon Kendra-Index kann das LLM auch zum Generieren von Antworten aus Textpassagen verwendet werden, die direkt in QnABot erstellt oder importiert wurden.

QnABot versucht in der folgenden Reihenfolge eine gute Antwort auf die eindeutige Benutzerfrage zu finden:

  1. QnA-Elemente
  2. Textpassagenelemente
  3. Amazon Kendra Index

Probieren wir einige Beispiele aus.

Wählen Sie im QnABot Content Designer-Werkzeugmenü die Option Import, dann laden Sie die beiden Beispielpakete:

  • TextPassages-NurseryRhymeExamples
  • blog-samples-final

QnABot kann verwenden Texteinbettungen Bereitstellung einer semantischen Suchfunktion (unter Verwendung des integrierten OpenSearch-Index von QnABot als Vektorspeicher), die die Genauigkeit verbessert und die Fragenoptimierung im Vergleich zum standardmäßigen schlüsselwortbasierten OpenSearch-Matching reduziert. Um dies zu veranschaulichen, versuchen Sie es mit Fragen wie den folgenden:

  • „Erzählen Sie mir etwas über das Alexa-Gerät mit dem Bildschirm“
  • „Erzählen Sie mir etwas über das Video-Streaming-Gerät von Amazon?“

Diese sollten idealerweise mit der Beispiel-QNA übereinstimmen, die Sie importiert haben, auch wenn die zum Stellen der Frage verwendeten Wörter schlechte Schlüsselwortübereinstimmungen (aber gute semantische Übereinstimmungen) mit den konfigurierten QnA-Elementen aufweisen: Alexa.001 (Was ist eine Amazon Echo Show) und FireTV.001 (Was ist ein Amazon Fire TV?)

Auch wenn Sie Amazon Kendra (noch) nicht verwenden (und das sollten Sie!), kann QnABot auch Fragen beantworten, die auf erstellten oder in Content Designer importierten Passagen basieren. Die folgenden Fragen (und Folgefragen) werden alle anhand einer importierten Textpassage beantwortet, die den Kinderreim enthält 0.HumptyDumpty:

  • „Wo saß Humpty Dumpty, bevor er fiel?“
  • „Was geschah, nachdem er gestürzt war? War er in Ordnung?“

Bei Verwendung von Einbettungen ist eine gute Antwort eine Antwort, die einen Ähnlichkeitswert zurückgibt, der über dem durch die entsprechende Schwellenwerteinstellung definierten Schwellenwert liegt. Sehen Semantischer Fragenabgleich unter Verwendung von Texteinbettungen in großen Sprachmodellen Weitere Informationen zum Testen und Optimieren der Schwellenwerteinstellungen finden Sie hier.

Wenn es keine guten Antworten gibt oder wenn die Antwort des LLM mit dem in definierten regulären Ausdruck übereinstimmt LLM_QA_NO_HITS_REGEX, dann ruft QnABot das Konfigurierbare auf Benutzerdefiniert Weiß nicht (no_hits)-Verhalten, das standardmäßig die Meldung „Du hast mich verblüfft“ zurückgibt.

Probieren Sie einige Experimente aus, indem Sie Fragen und Antworten oder Textpassagen in QnABot erstellen und einen Amazon Kendra-Index für generative Fallback-Antworten verwenden. Experimentieren Sie (mit der TESTEN (Registerkarte im Designer), um die besten Werte für die Einstellungen des Einbettungsschwellenwerts zu finden, um das gewünschte Verhalten zu erzielen. Es ist schwer, die perfekte Balance zu finden, aber versuchen Sie, eine Balance zu finden, die gut genug ist, um in den meisten Fällen nützliche Antworten zu liefern.

Aufräumen

Sie können QnABot natürlich laufen lassen, um damit zu experimentieren und es Ihren Kollegen zu zeigen! Aber es verursacht einige Kosten – sehen Sie Planen Sie Ihre Bereitstellung – Kosten für mehr Details. Um die Ressourcen zu entfernen und Kosten zu vermeiden, löschen Sie die folgenden CloudFormation-Stacks:

  • QnABot-Stack
  • LLM-Plugin-Stack (falls zutreffend)
  • Amazon Kendra-Indexstapel

Anwendungsfallbeispiele

Diese neuen Funktionen machen QnABot für viele Kundenanwendungsfälle relevant, beispielsweise für Self-Service-Kundenservice- und Support-Bots sowie automatisierte webbasierte Frage-und-Antwort-Bots. In diesem Abschnitt besprechen wir zwei solcher Anwendungsfälle.

Integrieren Sie sich in ein Contact Center

Die automatisierten Fragebeantwortungsfunktionen von QnABot bieten einen effektiven Self-Service für eingehende Sprachanrufe in Contact Centern mit überzeugenden Ergebnissen. Sehen Sie sich zum Beispiel an, wie Kentucky Transportation Cabinet reduzierte die Wartezeit für Anrufe und verbesserte das Kundenerlebnis mit virtuellen Self-Service-Agenten mithilfe von Amazon Connect und Amazon Lex. Durch die Integration der neuen generativen KI-Funktionen wird dieses Wertversprechen weiter gestärkt, indem dynamisch zuverlässige Antworten aus vorhandenen Inhalten wie Dokumenten, Wissensdatenbanken und Websites generiert werden. Dadurch entfällt für Bot-Designer die Notwendigkeit, Antworten auf jede mögliche Frage, die ein Benutzer stellen könnte, vorherzusehen und manuell zu kuratieren. Zur Integration von QnABot mit Amazon Connect, Siehe Verbinden von QnABot auf AWS mit einem Amazon Connect-Callcenter. Zur Integration mit anderen Contact Centern erfahren Sie, wie Mit dem Amazon Chime SDK können Amazon Lex-Voice-Bots verbunden werden mit 3rd Parteikontaktzentren über SIPREC und Erstellen Sie mit QnABot und Amazon Lex einen KI-gestützten virtuellen Agenten für Genesys Cloud.

Der LLM-gestützte QnABot kann auch als automatisierter Agentenassistent in Echtzeit eine zentrale Rolle spielen. Bei dieser Lösung hört QnABot dem Gespräch passiv zu und nutzt das LLM, um auf der Grundlage bestimmter Hinweise Echtzeitvorschläge für die menschlichen Agenten zu generieren. Es ist ganz einfach einzurichten und auszuprobieren – probieren Sie es aus! Diese Lösung kann sowohl mit Amazon Connect als auch mit anderen lokalen und cloudbasierten Contact Centern verwendet werden. Weitere Informationen finden Sie unter Live-Anrufanalyse und Agentenunterstützung für Ihr Contact Center mit Amazon-Sprach-KI-Diensten.

Mit einer Website integrieren

Durch die Einbettung von QnABot in Ihre Websites und Anwendungen können Benutzer automatisierte Unterstützung mit natürlichem Dialog erhalten. Weitere Informationen finden Sie unter Stellen Sie eine Web-Benutzeroberfläche für Ihren Chatbot bereit. Verwenden Sie für kuratierte Q&A-Inhalte Markdown-Syntax und UI-Schaltflächen und integrieren Sie Links, Bilder, Videos und andere dynamische Elemente, die Ihre Benutzer informieren und begeistern. Integrieren Sie die Web-Benutzeroberfläche von QnABot Amazon Lex mit dem Live-Chat von Amazon Connect, um eine schnelle Eskalation an menschliche Agenten zu ermöglichen, wenn der automatisierte Assistent die Anfrage eines Benutzers nicht vollständig selbst beantworten kann.

Das QnABot im AWS-Plugin-Beispiel-Repository

Wie in diesem Beitrag gezeigt, bietet QnABot v5.4.0+ nicht nur integrierte Unterstützung für Einbettungen und auf SageMaker gehostete LLM-Modelle, sondern bietet auch die Möglichkeit zur einfachen Integration mit jedem anderen LLM mithilfe von Lambda-Funktionen. Sie können Ihre eigenen benutzerdefinierten Lambda-Funktionen erstellen oder mit einem der Beispiele, die wir in unserem neuen bereitgestellt haben, schneller loslegen qnabot-on-aws-plugin-samples Repository.

Dieses Repository enthält ein sofort einsatzbereites Plugin für Amazon Bedrock, das sowohl Einbettungen als auch Anfragen zur Textgenerierung unterstützt. Zum Zeitpunkt des Verfassens dieses Artikels ist Amazon Bedrock über eine private Vorschau verfügbar – Sie können dies tun Vorschauzugriff anfordern. Wenn Amazon Bedrock allgemein verfügbar ist, werden wir es voraussichtlich direkt in QnABot integrieren, aber warum warten? Beantragen Sie den Vorschauzugang und nutzen Sie unser Beispiel-Plugin, um mit dem Experimentieren zu beginnen!

Der heutige LLM-Innovationszyklus treibt ein rasantes Tempo bei der Veröffentlichung neuer Modelle voran, von denen jedes darauf abzielt, das vorherige zu übertreffen. Dieses Repository wird im Laufe der Zeit um zusätzliche QnABot-Plugin-Beispiele erweitert. Zum jetzigen Zeitpunkt unterstützen wir zwei Drittanbieter von Modellen: Anthropic und AI21. Wir planen, Integrationen für weitere LLMs, Einbettungen und potenziell häufige Anwendungsbeispiele mit Lambda-Hooks und Wissensdatenbanken hinzuzufügen. Diese Plugins werden zu Ihrer Bequemlichkeit so wie sie sind und ohne Gewährleistung angeboten – Benutzer sind für die Unterstützung und Wartung nach der Bereitstellung verantwortlich.

Wir hoffen, dass das QnABot-Plugin-Repository zu einem florierenden Open-Source-Community-Projekt heranreift. Beobachten Sie die qnabot-on-aws-plugin-samples GitHub-Repo Um Updates zu neuen Plugins und Funktionen zu erhalten, verwenden Sie die Fragen Forum, um Probleme zu melden oder Feedback zu geben und Verbesserungen beizutragen Anfragen ziehen. Beiträge sind willkommen!

Zusammenfassung

In diesem Beitrag haben wir die neuen generativen KI-Funktionen für QnABot vorgestellt und eine Lösung zum Erstellen, Bereitstellen und Anpassen von QnABot für die Nutzung dieser Funktionen vorgestellt. Wir haben auch einige relevante Anwendungsfälle besprochen. Durch die Automatisierung wiederkehrender Anfragen werden menschliche Arbeitskräfte entlastet und die Produktivität gesteigert. Umfangreiche Antworten schaffen ansprechende Erlebnisse. Durch den Einsatz des LLM-basierten QnABot können Sie das Self-Service-Erlebnis für Kunden und Mitarbeiter verbessern.

Lassen Sie sich diese Gelegenheit nicht entgehen – legen Sie noch heute los und revolutionieren Sie das Benutzererlebnis Ihrer QnABot-Bereitstellung!


Über die Autoren

Clevester Teo ist Senior Partner Solutions Architect bei AWS und konzentriert sich auf das Partner-Ökosystem des öffentlichen Sektors. Er genießt es, Prototypen zu bauen, in der Natur aktiv zu bleiben und neue Küchen kennenzulernen. Clevester ist begeistert davon, mit neuen Technologien zu experimentieren und AWS-Partnern dabei zu helfen, Innovationen zu entwickeln und Kunden des öffentlichen Sektors besser zu bedienen.

Windrich ist ein Lösungsarchitekt bei AWS, der mit Kunden in Branchen wie Finanzen und Transport zusammenarbeitet, um ihnen dabei zu helfen, ihre Cloud-Einführung zu beschleunigen. Sein besonderes Interesse gilt serverlosen Technologien und wie Kunden sie nutzen können, um Mehrwert für ihr Unternehmen zu schaffen. Außerhalb der Arbeit spielt und schaut Windrich gerne Sport und erkundet außerdem verschiedene Küchen auf der ganzen Welt.

Bob Strahan Bob Strahan ist Principal Solutions Architect im AWS Language AI Services-Team.

spot_img

Neueste Intelligenz

spot_img