Zephyrnet-Logo

Jenseits von Abfragen: Wie ChatGPT im Banking Innovationen freisetzt – Fintech Singapore

Datum:

Jenseits von Abfragen: Wie ChatGPT im Bankwesen Innovationen freisetzt



by Ursin Brunner, Leiter Maschinelles Lernen, ti&m

7. Dezember 2023

Finanzdienstleistungsunternehmen nutzen zunehmend ChatGPT und ähnliche Lösungen. Diese Technologien ermöglichen die einfache Integration von Unternehmensdaten in KI-Assistenten und erhöhen so den Nutzen großer Sprachmodelle (LLMs) für verschiedene Anwendungen.

Während Verbraucher KI-gestützte LLMs schnell einführen, gehen Banken mit Vorsicht vor und achten auf die Datensicherheit.

Dennoch ist der Finanzsoftwareanbieter ti&m hat Kunden unterstützt, die Pionierarbeit bei der Integration von ChatGPT in das Bankwesen und ihren täglichen Betrieb leisten. Darüber hinaus hat ti&m kürzlich eine veröffentlicht WHITE PAPER Darin wird detailliert beschrieben, wie Banken durch KI einen Wettbewerbsvorteil erlangen können.

In diesem Artikel gibt ti&m einen Überblick darüber, wie Banken KI erfolgreich im Tagesgeschäft einsetzen können.

Google mit Vorteilen? Warum ChatGPT mehr als eine intelligente Suchmaschine ist

Viele betrachten KI-basierte Chatbots nur als den intelligenteren Zwilling von Google, der sie als Metasuchmaschine und zur Beantwortung von Fragen nutzt. Doch diese Tools können weit mehr als nur korrekte und sprachlich ansprechende Antworten auf komplexe Fragestellungen liefern.

So können sie beispielsweise aus der Antwort auf eine komplexe Frage sofort eine auf eine bestimmte Zielgruppe zugeschnittene PowerPoint-Präsentation erstellen.

ChatGPT ist auch in der Lage, eine handschriftliche Skizze einer Webseite in einen HTML-Vorschlag zu übersetzen – es kann eine Textausgabe in Form von Programmiercode generieren.

Diese Beispiele zeigen, warum LLM-basierte KI-Chatbots ein Game Changer sind: Bisher mussten technologische Lösungen für bestimmte Anwendungsfälle programmiert werden.

Doch nun können diese neuen intelligenten Modelle eine Reihe unterschiedlicher Aufgaben übernehmen und somit in unterschiedlichen Anwendungsfällen eingesetzt werden. ChatGPT und seine LLM-Kollegen sind universelle Tools, die Aufgaben ausführen können, für die sie nicht speziell entwickelt wurden.

Anwendung von ChatGPT im Bankwesen: Bestehende KIs für bankspezifische Anwendungsfälle

Die Entwicklung von LLMs wie GPT-4 ist nicht nur für Nutzer interessant. In der Vergangenheit waren maschinelles Lernen und KI-Projekte oft eine Herausforderung und erforderten viel Aufwand.

Doch nun eröffnen LLMs einen völlig neuen Ansatz. KI-Experten wie ti&m können bestehende LLMs nutzen, um KI-Lösungen speziell für Finanzinstitute zu erstellen.

Dies rationalisiert den Prozess und macht ihn vergleichsweise kostengünstig. Anstatt Daten zu sammeln und Modelle im eigenen Haus zu trainieren, reicht heute für den Anfang oft die Integration von Unternehmensdaten aus. Hier kann Retrieval-Augmented Generation (RAG) zum Einsatz kommen.

Dann geht es darum, mithilfe von Prompt Engineering die richtigen Fragen zu stellen, im sogenannten Zero-Shot-Learning.

Daten und Kontext: Welche Informationen nutzen LLMs wie GPT-4?

KI-Sprachmodelle wurden anhand eines großen Datensatzes trainiert. Dabei handelt es sich um eine große Menge an Online-Quellen, die in der Regel öffentlich zugänglich sind, wie Informationswebsites, Bücher, Nachrichtenartikel, wissenschaftliche Veröffentlichungen oder Blogbeiträge.

Auch der neueste GPT-4 Turbo, der auf Daten bis April 2023 trainiert wurde, nutzt proprietäre Datenquellen mit hoher Datenqualität. Über Plug-Ins können auch die LLMs von OpenAI und Google auf aktuelle Suchergebnisse zugreifen.

Zusätzlich zum Trainingsdatensatz können LLMs auch unternehmensspezifische Daten bereitgestellt werden, auf denen das Modell nicht trainiert wurde. Dies wird als Bereitstellung von Kontext bezeichnet. Die organisationsspezifischen Daten können von der Website des Unternehmens, SharePoint oder anderen Datenquellen stammen und im Text-, Bild- oder Videoformat vorliegen.

Dies wird der Eingabeaufforderung hinzugefügt, zusammen mit einer Anleitung, was damit zu tun ist. Eine mögliche Aufforderung könnte sein: „Fassen Sie diesen Artikel für einen Kundenbericht in zehn Sätzen zusammen und verwenden Sie dabei die relevantesten Schlüsselwörter.“ Der Artikel muss als Kontext für die Eingabeaufforderung eingefügt werden.

Durch die Kombination unternehmensspezifischer Daten mit LLMs können Banken auf ihre Bedürfnisse zugeschnittene KI-Assistenten für viele verschiedene Anwendungsfälle nutzen, wie zum Beispiel:

  • Daten aus der Kundenkommunikation, ihrem Intranet und ihren Servern effizienter nutzen
  • Automatisierung und Optimierung von Prozessen innerhalb der Bank selbst
  • Entwicklung neuer Produkte und Dienstleistungen für spezifische Kundensegmente

Erfahren Sie mehr über die Verwendung von Eingabeaufforderungen, was Einbettungen sind und wie Sie ChatGPT im Banking implementieren, indem Sie das Whitepaper von ti&m herunterladen „ChatGPT für Unternehmen.“

Über den Autor

Weitere Infos zum Autor

spot_img

Neueste Intelligenz

spot_img