Zephyrnet-Logo

Bedeutende neue Funktionen machen es einfacher, mit Amazon Bedrock generative KI-Anwendungen zu erstellen und zu skalieren – und beeindruckende Ergebnisse zu erzielen | Amazon Web Services

Datum:

Vor etwas mehr als einem Jahr haben wir Amazon Bedrock der Welt vorgestellt und damit eine völlig neue Möglichkeit zur Entwicklung von Anwendungen für generative künstliche Intelligenz (KI) bereitgestellt. Mit der größten Auswahl an First- und Third-Party-Foundation-Modellen (FMs) sowie benutzerfreundlichen Funktionen ist Amazon Bedrock der schnellste und einfachste Weg, sichere generative KI-Anwendungen zu erstellen und zu skalieren. Mittlerweile nutzen Zehntausende Kunden Amazon Bedrock, um beeindruckende Anwendungen zu erstellen und zu skalieren. Sie entwickeln schnell, einfach und sicher Innovationen, um ihre KI-Strategien voranzutreiben. Und wir unterstützen ihre Bemühungen, indem wir Amazon Bedrock mit aufregenden neuen Funktionen erweitern, darunter noch mehr Modellauswahl und Funktionen, die es einfacher machen, das richtige Modell auszuwählen, das Modell für einen bestimmten Anwendungsfall anzupassen und generative KI-Anwendungen zu schützen und zu skalieren.

Kunden aus verschiedenen Branchen, vom Finanzwesen über Reisen und Gastgewerbe bis hin zum Gesundheitswesen und der Verbrauchertechnologie, machen bemerkenswerte Fortschritte. Sie erkennen einen echten Geschäftswert, indem sie generative KI-Anwendungen schnell in die Produktion überführen, um das Kundenerlebnis zu verbessern und die betriebliche Effizienz zu steigern. Denken Sie an die New York Stock Exchange (NYSE), den größten Kapitalmarkt der Welt, der täglich Milliarden von Transaktionen abwickelt. NYSE nutzt die FM-Auswahl von Amazon Bedrock und die hochmodernen generativen KI-Funktionen für mehrere Anwendungsfälle, einschließlich der Verarbeitung Tausender Seiten mit Vorschriften, um Antworten in leicht verständlicher Sprache bereitzustellen

Die globale Fluggesellschaft United Airlines hat ihr Passagierservicesystem modernisiert, um alte Passagierreservierungscodes in einfaches Englisch zu übersetzen, damit Agenten einen schnellen und effizienten Kundensupport bieten können. LexisNexis Legal & Professional, ein weltweit führender Anbieter von Informationen und Analysen, hat auf Lexis+ AI einen personalisierten generativen KI-Assistenten für den Rechtsbereich entwickelt. Kunden von LexisNexis erhalten zuverlässige Ergebnisse doppelt so schnell wie das nächstgelegene Konkurrenzprodukt und können bis zu fünf Stunden pro Woche für juristische Recherchen und Zusammenfassungen einsparen. Und HappyFox, eine Online-Helpdesk-Software, entschied sich aufgrund seiner Sicherheit und Leistung für Amazon Bedrock und steigerte die Effizienz seines KI-gestützten automatisierten Ticketsystems in seiner Kundensupportlösung um 40 % und die Agentenproduktivität um 30 %.

Und bei Amazon arbeiten wir weiterhin an Innovationen mit generativer KI, um unseren Kunden immersivere und ansprechendere Erlebnisse zu bieten. Erst letzte Woche hat Amazon Music Maestro angekündigt. Maestro ist ein KI-Playlist-Generator von Amazon Bedrock, der Amazon Music-Abonnenten eine einfachere und unterhaltsamere Möglichkeit bietet, Playlists basierend auf Eingabeaufforderungen zu erstellen. Maestro wird jetzt als Betaversion für eine kleine Anzahl von US-Kunden auf allen Stufen von Amazon Music eingeführt.

Mit Amazon Bedrock konzentrieren wir uns auf die Schlüsselbereiche, die Kunden benötigen, um produktionsreife, generative KI-Anwendungen der Enterprise-Klasse zu den richtigen Kosten und in der richtigen Geschwindigkeit zu erstellen. Heute freue ich mich, Ihnen neue Funktionen vorzustellen, die wir in den Bereichen Modellauswahl, Tools zum Erstellen generativer KI-Anwendungen sowie Datenschutz und Sicherheit ankündigen.

1. Amazon Bedrock erweitert die Modellauswahl um Llama 3-Modelle und hilft Ihnen, das beste Modell für Ihre Bedürfnisse zu finden

In diesen frühen Tagen lernen und experimentieren Kunden noch mit verschiedenen Modellen, um herauszufinden, welche sie für verschiedene Zwecke verwenden sollen. Sie möchten die neuesten Modelle problemlos ausprobieren und testen können, welche Fähigkeiten und Funktionen ihnen für ihre Anwendungsfälle die besten Ergebnisse und Kostenmerkmale liefern. Die Mehrheit der Kunden von Amazon Bedrock nutzen mehr als ein Modell, und Amazon Bedrock bietet die größte Auswahl an großen Sprachmodellen (LLMs) und anderen FMs von Erst- und Drittanbietern. Dazu gehören Modelle von AI21-Labore, Anthropisch, Zusammenhängen, Meta, Mistral-KI und Stabilität KI, sowie unsere eigenen Amazon Titan-Modelle. Tatsächlich Joel Hron, Leiter AI und Thomson Reuters Labs bei Thomson Reuters sagte kürzlich Dies über die Einführung von Amazon Bedrock: „Die Möglichkeit, bei der Veröffentlichung eine Vielzahl unterschiedlicher Modelle verwenden zu können, war für uns ein wichtiger Antrieb, insbesondere angesichts der schnellen Entwicklung dieses Bereichs.“ Die hochmodernen Modelle der Mistral AI-Modellfamilie inklusive Mistral 7B, Mixtral 8x7B und Mistral Groß haben Kunden von ihrer hohen Leistung bei der Textgenerierung, Zusammenfassung, Frage-und-Antwort-Runde und Codegenerierung begeistert. Seit der Einführung der Anthropic Claude 3-Modellfamilie haben Tausende von Kunden erlebt, wie Claude 3 Haiku, Sonnet und Opus mit unübertroffener Intelligenz, Geschwindigkeit und Kosteneffizienz neue Maßstäbe bei kognitiven Aufgaben gesetzt haben. Nach der ersten Evaluierung mit Claude 3 Haiku und Opus in Amazon Bedrock konnte BlueOcean.ai, eine Brand-Intelligence-Plattform, eine Kostensenkung von über 50 % verzeichnen, da vier separate API-Aufrufe in einem einzigen, effizienteren Aufruf konsolidiert werden konnten.

Masahiro Oba, General Manager, Group Federated Governance of DX Platform bei der Sony Group Corporation, teilte mit:

„Während die Anwendung generativer KI im Unternehmen viele Herausforderungen mit sich bringt, helfen uns die vielfältigen Fähigkeiten von Amazon Bedrock dabei, generative KI-Anwendungen an das Geschäft von Sony anzupassen. Wir können nicht nur die leistungsstarken LLM-Funktionen von Claude 3 nutzen, sondern auch Funktionen, die uns helfen, Anwendungen auf Unternehmensebene zu schützen. Ich bin wirklich stolz darauf, mit dem Bedrock-Team zusammenzuarbeiten, um generative KI innerhalb der Sony-Gruppe weiter zu demokratisieren.“

Ich habe mich kürzlich mit Aaron Linsky, CTO von Artificial Investment Associate Labs bei Bridgewater Associates, einem führenden Vermögensverwaltungsunternehmen, getroffen, wo sie generative KI nutzen, um ihren „Artificial Investment Associate“ zu verbessern, ein großer Fortschritt für ihre Kunden. Es baut auf ihrer Erfahrung in der Bereitstellung regelbasierter Expertenberatung für Anlageentscheidungen auf. Mit Amazon Bedrock können sie die besten verfügbaren FMs wie Claude 3 für verschiedene Aufgaben nutzen und dabei grundlegendes Marktverständnis mit den flexiblen Argumentationsfähigkeiten der KI kombinieren. Amazon Bedrock ermöglicht nahtlose Modellexperimente und ermöglicht Bridgewater den Aufbau eines leistungsstarken, sich selbst verbessernden Anlagesystems, das systematische Beratung mit modernsten Funktionen verbindet und so einen sich entwickelnden, KI-orientierten Prozess schafft.

Um den Kunden noch mehr Modellauswahl zu bieten, machen wir heute Meta Llama 3-Modelle sind bei Amazon Bedrock erhältlich. Die Modelle Llama 3 3B und Llama 8 3B von Llama 70 sind zum Erstellen, Experimentieren und verantwortungsvollen Skalieren generativer KI-Anwendungen konzipiert. Diese Modelle wurden gegenüber der vorherigen Modellarchitektur erheblich verbessert, einschließlich der Skalierung vor dem Training sowie der Feinabstimmung von Anweisungen. Llama 3 8B zeichnet sich durch Textzusammenfassung, Klassifizierung, Stimmungsanalyse und Übersetzung aus und ist ideal für begrenzte Ressourcen und Edge-Geräte. Llama 3 70B glänzt in den Bereichen Inhaltserstellung, Konversations-KI, Sprachverständnis, Forschung und Entwicklung, Unternehmen, genaue Zusammenfassung, differenzierte Klassifizierung/Stimmungsanalyse, Sprachmodellierung, Dialogsysteme, Codegenerierung und Befehlsfolge. Lesen Sie mehr über Meta Llama 3 jetzt bei Amazon Bedrock erhältlich.

Wir kündigen außerdem die baldige Unterstützung der Unternehmens-FMs Command R und Command R+ von Cohere an. Diese Modelle sind hoch skalierbar und für Langzeitaufgaben wie Retrieval-Augmented Generation (RAG) mit Zitaten zur Linderung von Halluzinationen, mehrstufiger Tool-Nutzung zur Automatisierung komplexer Geschäftsaufgaben und Unterstützung für 10 Sprachen für globale Abläufe optimiert. Command R+ ist das leistungsstärkste Modell von Cohere, das für Aufgaben mit langem Kontext optimiert ist, während Command R für umfangreiche Produktions-Workloads optimiert ist. Mit den Cohere-Modellen, die demnächst in Amazon Bedrock erhältlich sein werden, können Unternehmen generative KI-Anwendungen der Enterprise-Klasse erstellen, die hohe Genauigkeit und Effizienz für alltägliche KI-Operationen über den Proof-of-Concept hinaus vereinen.

Amazon Titan Image Generator ist jetzt allgemein verfügbar und Amazon Titan Text Embeddings V2 ist in Kürze verfügbar

Zusätzlich zu den leistungsfähigsten 3P-Modellen ist Amazon Titan Image Generator heute allgemein verfügbar. Mit Amazon Titan Image Generator können Kunden in Branchen wie Werbung, E-Commerce, Medien und Unterhaltung mithilfe natürlicher Sprachanweisungen effizient realistische Bilder in Studioqualität in großen Mengen und zu geringen Kosten generieren. Sie können generierte oder vorhandene Bilder mithilfe von Texteingabeaufforderungen bearbeiten, Bildabmessungen konfigurieren oder die Anzahl der Bildvariationen angeben, um das Modell zu steuern. Standardmäßig enthält jedes von Amazon Titan Image Generator erstellte Bild ein unsichtbares Wasserzeichen, was mit dem Engagement von AWS zur Förderung verantwortungsvoller und ethischer KI durch Reduzierung der Verbreitung von Fehlinformationen im Einklang steht. Die Wasserzeichenerkennungsfunktion identifiziert vom Image Generator erstellte Bilder und ist manipulationssicher konzipiert, um die Transparenz von KI-generierten Inhalten zu erhöhen. Die Erkennung von Wasserzeichen trägt dazu bei, Risiken für geistiges Eigentum zu mindern und ermöglicht es Inhaltserstellern, Nachrichtenorganisationen, Risikoanalysten, Betrugserkennungsteams und anderen, irreführende, von KI generierte Inhalte besser zu erkennen und deren Verbreitung einzudämmen. Lesen Sie mehr über Wasserzeichenerkennung für Titan Image Generator.

In Kürze verfügbar: Amazon Titan Text Embeddings V2 liefert effizient relevantere Antworten für kritische Unternehmensanwendungsfälle wie die Suche. Effiziente Einbettungsmodelle sind entscheidend für die Leistung, wenn RAG genutzt wird, um Antworten mit zusätzlichen Informationen anzureichern. Embeddings V2 ist für RAG-Workflows optimiert und bietet eine nahtlose Integration mit Wissensdatenbanken für Amazon Bedrock um effizienter informativere und relevantere Antworten zu liefern. Embeddings V2 ermöglicht ein tieferes Verständnis von Datenbeziehungen für komplexe Aufgaben wie Abruf, Klassifizierung, semantische Ähnlichkeitssuche und Verbesserung der Suchrelevanz. Mit flexiblen Einbettungsgrößen von 256, 512 und 1024 Dimensionen legt Embeddings V2 Wert auf Kostenreduzierung und behält gleichzeitig 97 % der Genauigkeit für RAG-Anwendungsfälle bei und übertrifft damit andere führende Modelle. Darüber hinaus erfüllen die flexiblen Einbettungsgrößen unterschiedliche Anwendungsanforderungen, von mobilen Bereitstellungen mit geringer Latenz bis hin zu hochpräzisen asynchronen Arbeitsabläufen.

Die neue Modellbewertung vereinfacht den Zugriff, den Vergleich und die Auswahl von LLMs und FMs

Die Auswahl des geeigneten Modells ist ein entscheidender erster Schritt beim Aufbau einer generativen KI-Anwendung. Die Leistung von LLMs kann je nach Aufgabe, Domäne, Datenmodalitäten und anderen Faktoren drastisch variieren. Beispielsweise ist es wahrscheinlich, dass ein biomedizinisches Modell allgemeine Gesundheitsmodelle in bestimmten medizinischen Kontexten übertrifft, wohingegen ein Codierungsmodell bei der Verarbeitung natürlicher Sprache vor Herausforderungen stehen kann. Die Verwendung eines übermäßig leistungsfähigen Modells könnte zu einer ineffizienten Ressourcennutzung führen, während ein leistungsschwaches Modell möglicherweise nicht die Mindestleistungsstandards erfüllt und möglicherweise falsche Ergebnisse liefert. Und die Auswahl eines ungeeigneten FM zu Beginn eines Projekts könnte das Vertrauen der Stakeholder untergraben.

Bei der großen Auswahl an Modellen möchten wir es unseren Kunden einfacher machen, das richtige Modell für ihren Anwendungsfall auszuwählen.

Das Modellbewertungstool von Amazon Bedrock ist jetzt allgemein verfügbarvereinfacht den Auswahlprozess, indem es Benchmarking und Vergleich mit bestimmten Datensätzen und Bewertungsmetriken ermöglicht und so sicherstellt, dass Entwickler das Modell auswählen, das am besten zu ihren Projektzielen passt. Diese geführte Erfahrung ermöglicht es Entwicklern, Modelle anhand von Kriterien zu bewerten, die auf jeden Anwendungsfall zugeschnitten sind. Durch die Modellbewertung wählen Entwickler Kandidatenmodelle zur Bewertung aus – öffentliche Optionen, importierte benutzerdefinierte Modelle oder fein abgestimmte Versionen. Sie definieren relevante Testaufgaben, Datensätze und Bewertungsmetriken wie Genauigkeit, Latenz, Kostenprognosen und qualitative Faktoren. Lesen Sie mehr über Modellbewertung in Amazon Bedrock.

Die Möglichkeit, aus den leistungsstärksten FMs in Amazon Bedrock auszuwählen, war für Elastic Security äußerst vorteilhaft. James Spiteri, Director of Product Management bei Elastic, teilte mit:

„Mit nur wenigen Klicks können wir eine einzelne Eingabeaufforderung für mehrere Modelle gleichzeitig bewerten. Diese Modellbewertungsfunktion ermöglicht es uns, die Ergebnisse, Metriken und damit verbundenen Kosten verschiedener Modelle zu vergleichen und so eine fundierte Entscheidung darüber zu treffen, welches Modell für das, was wir erreichen möchten, am besten geeignet ist. Dies hat unseren Prozess erheblich rationalisiert und uns eine beträchtliche Zeitersparnis bei der Bereitstellung unserer Anwendungen in der Produktion gebracht.“

2. Amazon Bedrock bietet Funktionen, um generative KI an Ihre Geschäftsanforderungen anzupassen

Obwohl Modelle unglaublich wichtig sind, braucht es mehr als ein Modell, um eine Anwendung zu erstellen, die für ein Unternehmen nützlich ist. Aus diesem Grund verfügt Amazon Bedrock über Funktionen, mit denen Sie generative KI-Lösungen einfach an bestimmte Anwendungsfälle anpassen können. Kunden können ihre eigenen Daten verwenden, um Anwendungen durch Feinabstimmung privat anzupassen oder Wissensdatenbanken für ein vollständig verwaltetes RAG-Erlebnis zu nutzen, um relevantere, genauere und individuellere Antworten zu liefern. Mit Agents for Amazon Bedrock können Entwickler spezifische Aufgaben, Arbeitsabläufe oder Entscheidungsprozesse definieren und so die Kontrolle und Automatisierung verbessern und gleichzeitig eine konsistente Ausrichtung auf einen beabsichtigten Anwendungsfall gewährleisten. Heute starten, Sie können Agenten jetzt mit Anthropic Claude 3 Haiku- und Sonnet-Modellen verwenden. Wir führen außerdem eine aktualisierte AWS-Konsolenerfahrung ein, die ein vereinfachtes Schema und die Rückgabe der Kontrolle unterstützt, um Entwicklern den Einstieg zu erleichtern. Lesen Sie mehr über Agenten für Amazon Bedrock, jetzt schneller und einfacher zu verwenden.

Mit dem neuen benutzerdefinierten Modellimport können Kunden die gesamten Funktionen von Amazon Bedrock mit ihren eigenen Modellen nutzen

Alle diese Funktionen sind für die Entwicklung generativer KI-Anwendungen unerlässlich. Deshalb wollten wir sie noch mehr Kunden verfügbar machen, darunter auch solchen, die bereits erhebliche Ressourcen in die Feinabstimmung von LLMs mit ihren eigenen Daten zu verschiedenen Diensten oder in das Training benutzerdefinierter Modelle investiert haben kratzen. Vielen Kunden stehen maßgeschneiderte Modelle auf Amazon SageMaker zur Verfügung, das die größte Auswahl von über 250 vorab trainierten FMs bietet. Zu diesen FMs gehören hochmoderne Modelle wie Mistral, Llama2, CodeLlama, Jurassic-2, Jamba, pplx-7B, 70B und der beeindruckende Falcon 180B. Amazon SageMaker hilft bei der Organisation und Feinabstimmung von Daten, dem Aufbau einer skalierbaren und effizienten Trainingsinfrastruktur und der anschließenden kosteneffizienten Bereitstellung von Modellen im großen Maßstab mit geringer Latenz. Es hat für Entwickler eine entscheidende Wende bei der Vorbereitung ihrer Daten für KI, der Verwaltung von Experimenten, dem schnelleren Trainieren von Modellen (z. B. Perplexity AI trainiert Modelle in Amazon SageMaker um 40 % schneller) und der Verringerung der Inferenzlatenz (z. B. hat Workday mit Amazon die Inferenzlatenz um 80 % reduziert). SageMaker) und Verbesserung der Entwicklerproduktivität (z. B. konnte NatWest mit Amazon SageMaker die Amortisationszeit für KI von 12–18 Monaten auf unter sieben Monate reduzieren). Die sichere Operationalisierung dieser maßgeschneiderten Modelle und ihre Integration in Anwendungen für spezifische Geschäftsanwendungsfälle birgt jedoch immer noch Herausforderungen.

Deshalb stellen wir heute vor Import benutzerdefinierter Amazon Bedrock-Modelle, was es Unternehmen ermöglicht, ihre bestehenden KI-Investitionen zusammen mit den Funktionen von Amazon Bedrock zu nutzen. Mit Custom Model Import können Kunden jetzt ihre eigenen benutzerdefinierten Modelle importieren und darauf zugreifen, die auf beliebten offenen Modellarchitekturen wie Flan-T5, Llama und Mistral basieren, als vollständig verwaltete Anwendungsprogrammierschnittstelle (API) in Amazon Bedrock. Kunden können Modelle, die sie in Amazon SageMaker oder anderen Tools angepasst haben, einfach zu Amazon Bedrock hinzufügen. Nach einer automatisierten Validierung können sie wie auf jedes andere Modell in Amazon Bedrock nahtlos auf ihr benutzerdefiniertes Modell zugreifen. Sie profitieren von denselben Vorteilen, einschließlich nahtloser Skalierbarkeit und leistungsstarken Funktionen zum Schutz ihrer Anwendungen, Einhaltung verantwortungsvoller KI-Prinzipien – sowie der Möglichkeit, die Wissensbasis eines Modells mit RAG zu erweitern, einfach Agenten für die Ausführung mehrstufiger Aufgaben zu erstellen und zu übertragen Nehmen Sie Feinabstimmungen vor, um die Modelle weiter zu lehren und zu verfeinern. Und das alles, ohne dass die zugrunde liegende Infrastruktur verwaltet werden muss.

Mit dieser neuen Funktion machen wir es Unternehmen einfacher, eine Kombination aus Amazon Bedrock-Modellen und ihren eigenen benutzerdefinierten Modellen zu wählen und gleichzeitig die gleiche optimierte Entwicklungserfahrung beizubehalten. Heute ist Amazon Bedrock Custom Model Import in der Vorschau verfügbar und unterstützt drei der beliebtesten offenen Modellarchitekturen, weitere sind für die Zukunft geplant. Lesen Sie mehr über Benutzerdefinierter Modellimport für Amazon Bedrock.

ASAPP ist ein generatives KI-Unternehmen mit einer 10-jährigen Geschichte in der Entwicklung von ML-Modellen.

„Unser generativer KI-Sprach- und Chat-Agent nutzt diese Modelle, um das Kundenserviceerlebnis neu zu definieren. Um unseren Kunden eine durchgängige Automatisierung zu bieten, benötigen wir LLM-Agenten, eine Wissensdatenbank und Flexibilität bei der Modellauswahl. Mit dem Import benutzerdefinierter Modelle können wir unsere vorhandenen benutzerdefinierten Modelle in Amazon Bedrock verwenden. Bedrock wird es uns ermöglichen, unsere Kunden schneller einzubinden, unser Innovationstempo zu erhöhen und die Markteinführungszeit für neue Produktfunktionen zu verkürzen.“

– Priya Vijayarajendran, Präsidentin, Technologie.

3. Amazon Bedrock bietet eine sichere und verantwortungsvolle Grundlage für die einfache Implementierung von Schutzmaßnahmen

Mit dem Fortschritt und der Erweiterung der generativen KI-Fähigkeiten werden der Aufbau von Vertrauen und die Auseinandersetzung mit ethischen Bedenken noch wichtiger. Amazon Bedrock begegnet diesen Bedenken, indem es die sichere und vertrauenswürdige Infrastruktur von AWS mit branchenführenden Sicherheitsmaßnahmen, robuster Datenverschlüsselung und strengen Zugriffskontrollen nutzt.

Guardrails für Amazon Bedrock ist jetzt allgemein verfügbar und hilft Kunden dabei, schädliche Inhalte zu verhindern und vertrauliche Informationen innerhalb einer Anwendung zu verwalten.

Wir bieten auch Leitplanken für Amazon Bedrock, die jetzt allgemein verfügbar sind. Guardrails bietet branchenführenden Sicherheitsschutz und gibt Kunden die Möglichkeit, Inhaltsrichtlinien zu definieren, Anwendungsverhaltensgrenzen festzulegen und Schutzmaßnahmen gegen potenzielle Risiken zu implementieren. Guardrails für Amazon Bedrock ist die einzige von einem großen Cloud-Anbieter angebotene Lösung, die es Kunden ermöglicht, Sicherheits- und Datenschutzmaßnahmen für ihre generativen KI-Anwendungen in einer einzigen Lösung zu erstellen und anzupassen. Es hilft Kunden, bis zu 85 % mehr schädliche Inhalte zu blockieren als der native Schutz, den FMs auf Amazon Bedrock bieten. Guardrails bietet umfassende Unterstützung für die Filterung schädlicher Inhalte und robuste Funktionen zur Erkennung personenbezogener Daten (PII). Guardrails funktioniert mit allen LLMs in Amazon Bedrock sowie mit fein abgestimmten Modellen und sorgt so für eine einheitliche Reaktion der Modelle auf unerwünschte und schädliche Inhalte. Sie können Schwellenwerte konfigurieren, um Inhalte in sechs Kategorien zu filtern: Hass, Beleidigungen, Sexualität, Gewalt, Fehlverhalten (einschließlich krimineller Aktivitäten) und prompter Angriff (Jailbreak und prompte Injektion). Sie können auch eine Reihe von Themen oder Wörtern definieren, die in Ihrer generativen KI-Anwendung blockiert werden müssen, einschließlich schädlicher Wörter, Schimpfwörter, Namen von Mitbewerbern und Produkten. Beispielsweise kann eine Bankanwendung eine Leitplanke konfigurieren, um Themen im Zusammenhang mit der Anlageberatung zu erkennen und zu blockieren. Eine Contact-Center-Anwendung, die Call-Center-Transkripte zusammenfasst, kann die PII-Schwärzung nutzen, um PIIs in Anrufzusammenfassungen zu entfernen, oder ein Konversations-Chatbot kann Inhaltsfilter verwenden, um schädliche Inhalte zu blockieren. Lesen Sie mehr über Leitplanken für Amazon Bedrock.

Unternehmen wie Aha!, ein Softwareunternehmen, das mehr als 1 Million Menschen dabei hilft, ihre Produktstrategie in die Tat umzusetzen, nutzen Amazon Bedrock, um viele ihrer generativen KI-Funktionen voranzutreiben.

„Durch die Datenschutz- und Datenschutzrichtlinien von Amazon Bedrock haben wir die volle Kontrolle über unsere Informationen und können schädliche Inhalte durch Guardrails für Amazon Bedrock blockieren. Wir haben darauf aufgebaut, um Produktmanagern dabei zu helfen, Erkenntnisse zu gewinnen, indem sie das Feedback ihrer Kunden analysieren. Das ist erst der Anfang. Wir werden weiterhin auf fortschrittlicher AWS-Technologie aufbauen, um Produktentwicklungsteams überall dabei zu helfen, mit Zuversicht Prioritäten zu setzen, was als Nächstes entwickelt werden soll.“

Mit einer noch größeren Auswahl an führenden FMs und Funktionen, die Ihnen bei der Bewertung von Modellen und dem Schutz von Anwendungen helfen sowie Ihre früheren Investitionen in KI zusammen mit den Funktionen von Amazon Bedrock nutzen, machen es die heutigen Markteinführungen für Kunden noch einfacher und schneller, generative KI aufzubauen und zu skalieren Anwendungen. Dieser Blogbeitrag beleuchtet nur einen Teil der neuen Funktionen. In den Ressourcen dieses Beitrags können Sie mehr über alles erfahren, was wir eingeführt haben, einschließlich des Stellens von Fragen und der Zusammenfassung von Daten aus einem einzelnen Dokument, ohne eine Vektordatenbank in Wissensdatenbanken einzurichten Allgemeine Verfügbarkeit der Unterstützung für mehrere Datenquellen mit Wissensdatenbanken.

Frühanwender, die die Funktionen von Amazon Bedrock nutzen, verschaffen sich einen entscheidenden Vorsprung – sie steigern die Produktivität, fördern bahnbrechende Entdeckungen in allen Bereichen und bieten verbesserte Kundenerlebnisse, die Loyalität und Engagement fördern. Ich bin gespannt, was unsere Kunden als nächstes mit diesen neuen Funktionen machen werden.

Wie mein Mentor Werner Vogels immer sagt: „Jetzt los bauen“ und ich füge hinzu: „…mit Amazon Bedrock!“

Downloads

Sehen Sie sich die folgenden Ressourcen an, um mehr über diese Ankündigung zu erfahren:


Über den Autor

Swami Sivasubramanian ist Vizepräsident für Daten und maschinelles Lernen bei AWS. In dieser Rolle beaufsichtigt Swami alle AWS-Datenbank-, Analyse- und KI- und maschinellen Lerndienste. Die Mission seines Teams besteht darin, Organisationen dabei zu helfen, ihre Daten mit einer vollständigen End-to-End-Datenlösung zum Speichern, Zugreifen, Analysieren, Visualisieren und Vorhersagen zu nutzen.

spot_img

VC-Café

VC-Café

Neueste Intelligenz

spot_img