Da generative KI weiterhin Innovationen in allen Branchen und in unserem täglichen Leben vorantreibt, ist der Bedarf an verantwortungsvoller KI immer wichtiger geworden. Bei AWS glauben wir, dass der langfristige Erfolg von KI von der Fähigkeit abhängt, Vertrauen bei Benutzern, Kunden und der Gesellschaft zu schaffen. Dieser Glaube ist der Kern unseres langjährigen Engagements für den verantwortungsvollen Aufbau und Einsatz von KI. Verantwortungsvolle KI geht über die Minderung von Risiken und die Einhaltung relevanter Standards und Vorschriften hinaus. Es geht darum, proaktiv Vertrauen aufzubauen und das Potenzial von KI freizusetzen, um den Geschäftswert zu steigern. Ein umfassender Ansatz für verantwortungsvolle KI befähigt Unternehmen, mutig zu innovieren und transformative Geschäftsergebnisse zu erzielen. Neue gemeinsame von Accenture und AWS durchgeführte Studie unterstreicht dies und hebt verantwortungsvolle KI als Schlüsselfaktor für den Geschäftswert hervor – sie steigert Produktqualität, Betriebseffizienz, Kundentreue, Markenwahrnehmung und mehr. Fast die Hälfte der befragten Unternehmen erkennt verantwortungsvolle KI als entscheidend für das KI-bezogene Umsatzwachstum an. Warum? Verantwortungsvolle KI schafft Vertrauen und Vertrauen beschleunigt Akzeptanz und Innovation.
Da Vertrauen ein Eckpfeiler der KI-Einführung ist, freuen wir uns, bei AWS re:Invent 2024 neue verantwortungsvolle KI-Tools, -Funktionen und -Ressourcen ankündigen zu können, die die Sicherheit und Transparenz unserer KI-Dienste und -Modelle verbessern und den verantwortungsvollen Umgang der Kunden mit KI unterstützen.
Proaktive Maßnahmen zur Bewältigung von KI-Risiken und zur Förderung von Vertrauen und Interoperabilität
AWS ist der erste große Cloud-Dienstleister, der geben ISO/IEC 42001 akkreditierte Zertifizierung bekannt für KI-Dienste, einschließlich Amazonas Grundgestein, Amazon Q Business, Amazontext und Amazon Transcribe. ISO / IEC 42001 ist ein internationaler Managementsystemstandard, der die Anforderungen an Organisationen festlegt, um KI-Systeme während ihres gesamten Lebenszyklus verantwortungsvoll zu verwalten. Technische Standards wie ISO/IEC 42001 sind von Bedeutung, da sie einen gemeinsamen Rahmen für die verantwortungsvolle Entwicklung und Bereitstellung von KI bieten und so Vertrauen und Interoperabilität in einer zunehmend globalen und KI-gesteuerten Technologielandschaft fördern. Die Erlangung der ISO/IEC 42001-Zertifizierung bedeutet, dass eine unabhängige Drittpartei bestätigt hat, dass AWS proaktive Schritte unternimmt, um Risiken und Chancen im Zusammenhang mit der Entwicklung, Bereitstellung und dem Betrieb von KI zu verwalten. Mit dieser Zertifizierung bekräftigen wir unser Engagement für die Bereitstellung von KI-Diensten, die Ihnen helfen, verantwortungsvoll mit KI zu innovieren.
Erweiterung der Schutzmaßnahmen in Amazon Bedrock Guardrails zur Verbesserung von Transparenz und Sicherheit
Im April 2024 haben wir die allgemeine Verfügbarkeit von Amazon Bedrock Leitplanken, wodurch es einfacher wird, Sicherheits- und verantwortungsvolle KI-Prüfungen für Ihre Gen-KI-Anwendungen anzuwenden. Amazon Bedrock Guardrails bietet branchenführenden Sicherheitsschutz, indem es zusätzlich zu den nativen Schutzmechanismen der Foundation Models (FMs) bis zu 85 % mehr schädliche Inhalte blockiert und über 75 % der halluzinierten Antworten aus Modellen filtert, indem es kontextbezogene Grounding-Prüfungen für Retrieval Augmented Generation (RAG) und Zusammenfassungsanwendungsfälle verwendet. Die Fähigkeit, diese Schutzmaßnahmen zu implementieren, war ein großer Schritt nach vorn beim Aufbau von Vertrauen in KI-Systeme. Trotz der Fortschritte bei FMs können Modelle immer noch Halluzinationen erzeugen – eine Herausforderung, vor der viele unserer Kunden stehen. Für Anwendungsfälle, bei denen Genauigkeit entscheidend ist, müssen Kunden mathematisch fundierte Techniken und erklärbare Argumentation einsetzen, um genaue FM-Antworten zu generieren.
Um diesem Bedarf gerecht zu werden, fügen wir den Amazon Bedrock Guardrails neue Sicherheitsvorkehrungen hinzu, um sachliche Fehler aufgrund von FM-Halluzinationen zu verhindern und überprüfbare Beweise zu liefern. Mit der Einführung der Automatisierte Reasoning-Prüfungen in Amazon Bedrock Guardrails (Vorschau) AWS ist der erste und einzige große Cloud-Anbieter, der automatisiertes Denken in unsere generativen KI-Angebote integriert. Automatisierte Denkprüfungen helfen dabei, sachliche Fehler durch Halluzinationen zu vermeiden, indem sie solide mathematische, logikbasierte algorithmische Verifizierungs- und Denkprozesse verwenden, um die von einem Modell generierten Informationen zu überprüfen, sodass die Ergebnisse mit den bereitgestellten Fakten übereinstimmen und nicht auf halluzinierten oder inkonsistenten Daten basieren. Automatisierte Denkprüfungen werden zusammen mit anderen Techniken wie Prompt Engineering, RAG und Contextual Grounding Checks verwendet und bieten einen strengeren und überprüfbareren Ansatz zur Verbesserung der Genauigkeit der von LLM generierten Ergebnisse. Durch die Kodierung Ihres Domänenwissens in strukturierte Richtlinien können Ihre Konversations-KI-Anwendungen Ihren Benutzern zuverlässige und vertrauenswürdige Informationen bereitstellen.
Klicken Sie auf das Bild unten, um eine Demo der Automated Reasoning-Prüfungen in Amazon Bedrock Guardrails anzuzeigen.
Da Unternehmen zunehmend Anwendungen mit multimodalen Daten verwenden, um den Geschäftswert zu steigern, die Entscheidungsfindung zu verbessern und das Kundenerlebnis zu verbessern, geht der Bedarf an Inhaltsfiltern über Text hinaus. Amazon Bedrock Guardrails unterstützt jetzt Multimodale Toxizitätserkennung (in der Vorschau) mit Unterstützung für Bildinhalte, die Organisationen dabei hilft, unerwünschte und potenziell schädliche Bildinhalte zu erkennen und zu filtern und gleichzeitig sichere und relevante visuelle Elemente beizubehalten. Die multimodale Toxizitätserkennung entlastet Sie von der mühsamen Arbeit, die Sie zum Aufbau eigener Schutzmaßnahmen für Bilddaten benötigen, oder von der zeitaufwändigen manuellen Auswertung, die fehleranfällig und mühsam sein kann. Amazon Bedrock Guardrails hilft Ihnen dabei, verantwortungsbewusst KI-Anwendungen zu erstellen und so Vertrauen bei Ihren Benutzern aufzubauen.
Verbessern Sie die Reaktionen und Qualität generativer KI-Anwendungen mit den neuen Evaluierungsfunktionen von Amazon Bedrock
Da immer mehr FMs für allgemeine Zwecke zur Auswahl stehen, haben Unternehmen jetzt eine große Auswahl an Optionen, um ihre generativen KI-Anwendungen zu betreiben. Um jedoch das optimale Modell für einen bestimmten Anwendungsfall auszuwählen, müssen die Modelle effizient verglichen werden, und zwar auf der Grundlage der von einem Unternehmen bevorzugten Qualitäts- und verantwortungsvollen KI-Kennzahlen. Obwohl die Bewertung ein wichtiger Teil des Aufbaus von Vertrauen und Transparenz ist, erfordert sie für jeden neuen Anwendungsfall viel Zeit, Fachwissen und Ressourcen. Dies macht es schwierig, das Modell auszuwählen, das das genaueste und sicherste Kundenerlebnis bietet. Amazon Bedrock-Bewertungen behebt dieses Problem, indem es Ihnen hilft, die besten FMs für Ihren Anwendungsfall zu bewerten, zu vergleichen und auszuwählen. Sie können jetzt ein LLM-as-a-Judge (in der Vorschau) für Modellbewertungen verwenden, um Tests durchzuführen und andere Modelle mit menschenähnlicher Qualität auf Ihrem Datensatz zu bewerten. Sie können aus LLMs wählen, die auf Amazon Bedrock gehostet werden, um der Richter zu sein, mit einer Vielzahl von Qualitäts- und verantwortungsvollen KI-Metriken wie Korrektheit, Vollständigkeit und Schädlichkeit. Sie können auch Ihren eigenen Prompt-Datensatz mitbringen, um die Bewertung mit Ihren Daten anzupassen, und Ergebnisse über Bewertungsaufträge hinweg vergleichen, um Entscheidungen schneller zu treffen. Bisher hatten Sie die Wahl zwischen einer menschenbasierten Modellbewertung und einer automatischen Bewertung mit exakter Zeichenfolgenübereinstimmung und anderen traditionellen Metriken der natürlichen Sprachverarbeitung (NLP). Diese Methoden waren zwar schnell, boten aber keine starke Korrelation mit menschlichen Bewertern. Jetzt können Sie mit LLM-as-a-Judge eine menschenähnliche Bewertungsqualität zu viel geringeren Kosten als bei vollständig menschenbasierten Bewertungen erhalten und dabei bis zu Wochen Zeit sparen. Viele Organisationen möchten immer noch, dass die endgültige Bewertung von erfahrenen menschlichen Kommentatoren durchgeführt wird. Zu diesem Zweck bietet Amazon Bedrock weiterhin vollständige, von Menschen durchgeführte Bewertungen an, mit der Option, eigene Mitarbeiter mitzubringen oder die benutzerdefinierte Bewertung von AWS verwalten zu lassen.
Um FMs mit aktuellen und geschützten Informationen auszustatten, verwenden Organisationen RAG, eine Technik, die Daten aus Unternehmensdatenquellen abruft und die Eingabeaufforderung anreichert, um relevantere und genauere Antworten zu liefern. Die Bewertung und Optimierung von RAG-Anwendungen kann jedoch aufgrund der Komplexität der Optimierung von Abruf- und Generierungskomponenten eine Herausforderung darstellen. Um dieses Problem zu lösen, haben wir die RAG-Bewertungsunterstützung in Amazon Bedrock Wissensdatenbanken (in der Vorschau). Mit dieser neuen Evaluierungsfunktion können Sie RAG-Anwendungen jetzt bequem und schnell bewerten und optimieren, genau dort, wo Ihre Daten und LLMs bereits vorhanden sind. Basierend auf der LLM-as-a-Judge-Technologie bieten RAG-Evaluierungen eine Auswahl mehrerer Beurteilungsmodelle und -metriken, wie z. B. Kontextrelevanz, Kontextabdeckung, Korrektheit und Treue (Halluzinationserkennung). Diese nahtlose Integration fördert regelmäßige Bewertungen und fördert eine Kultur der kontinuierlichen Verbesserung und Transparenz bei der Entwicklung von KI-Anwendungen. Indem diese Tools im Vergleich zu menschlichen Bewertungen sowohl Kosten als auch Zeit sparen, ermöglichen sie es Unternehmen, ihre KI-Anwendungen zu verbessern und durch kontinuierliche Verbesserung Vertrauen aufzubauen.
Die Modell- und RAG-Auswertungsfunktionen bieten Erklärungen in natürlicher Sprache für jeden Score in der Ausgabedatei und auf der AWS-Managementkonsole. Die Bewertungen werden zur leichteren Interpretation von 0 bis 1 normalisiert. Die Bewertungskriterien werden vollständig mit den Bewertungshinweisen in der Dokumentation veröffentlicht, damit auch Nichtwissenschaftler verstehen können, wie die Bewertungen zustande kommen. Weitere Informationen zu den Bewertungsfunktionen des Modells und des RAG finden Sie unter Nachrichtenblog.
Wir stellen vor: Amazon Nova, entwickelt mit verantwortungsvoller KI im Kern
Amazon Nova ist eine neue Generation hochmoderner FMs, die bahnbrechende Intelligenz und ein branchenführendes Preis-Leistungs-Verhältnis bieten. Amazon Nova FMs verfügen über integrierte Sicherheitsvorkehrungen, um schädliche Inhalte aus Daten zu erkennen und zu entfernen, unangemessene Benutzereingaben abzulehnen und Modellausgaben zu filtern. Wir haben unsere Dimensionen verantwortungsvoller KI in eine Reihe von Designzielen operationalisiert, die unsere Entscheidungsfindung während des gesamten Lebenszyklus der Modellentwicklung leiten – von der anfänglichen Datenerfassung und Vorschulung über die Modellausrichtung bis hin zur Implementierung von Laufzeitminderungen nach der Bereitstellung. Amazon Nova Canvas und Amazon Nova Reel verfügen über Steuerelemente zur Unterstützung von Sicherheits- und IP-Anforderungen mit verantwortungsvoller KI. Dazu gehören Wasserzeichen, Inhaltsmoderation und C2PA-Unterstützung (verfügbar in Amazon Nova Canvas), um generierten Bildern standardmäßig Metadaten hinzuzufügen. Die Sicherheitsmaßnahmen von Amazon zur Bekämpfung der Verbreitung von Fehlinformationen, Material über sexuellen Kindesmissbrauch (CSAM) und chemischen, biologischen, radiologischen oder nuklearen (CBRN) Risiken erstrecken sich auch auf Amazon Nova-Modelle. Weitere Informationen dazu, wie Amazon Nova verantwortungsvoll entwickelt wurde, finden Sie im Amazon Science-Blog.
Mehr Transparenz durch neue Ressourcen zur Förderung einer verantwortungsvollen generativen KI
Auf der re:Invent 2024 haben wir die Verfügbarkeit neuer AWS AI Service Cards für Amazon Nova Reel, Amazon Canvas, Amazon Nova Micro, Lite und Pro, Amazon Titan-Bildgenerator und Amazon Titan-Texteinbettungen um die Transparenz der Amazon FMs zu erhöhen. Diese Karten bieten umfassende Informationen zu den vorgesehenen Anwendungsfällen, Einschränkungen, verantwortungsvollen KI-Designentscheidungen und Best Practices für Bereitstellung und Leistungsoptimierung. Als Schlüsselkomponente der verantwortungsvollen KI-Dokumentation von Amazon bieten AI Service Cards Kunden und der breiteren KI-Community eine zentrale Ressource, um den Entwicklungsprozess zu verstehen, den wir durchführen, um unsere Dienste auf verantwortungsvolle Weise aufzubauen, die Fairness, Erklärbarkeit, Datenschutz und Sicherheit, Sicherheit, Kontrollierbarkeit, Wahrhaftigkeit und Robustheit, Governance und Transparenz berücksichtigt. Da generative KI weiter wächst und sich weiterentwickelt, wird Transparenz darüber, wie Technologie entwickelt, getestet und verwendet wird, eine entscheidende Komponente sein, um das Vertrauen von Organisationen und ihren Kunden gleichermaßen zu gewinnen. Sie können alle 16 AI Service Cards erkunden auf Verantwortungsvolle KI-Tools und -Ressourcen.
Wir haben auch die AWS-Leitfaden zur verantwortungsvollen Nutzung von KI. Dieses Dokument enthält Überlegungen zum verantwortungsvollen Entwerfen, Entwickeln, Bereitstellen und Betreiben von KI-Systemen, basierend auf unseren umfassenden Erkenntnissen und Erfahrungen im Bereich KI. Es wurde unter Berücksichtigung einer Reihe unterschiedlicher KI-Interessengruppen und -Perspektiven verfasst – darunter, aber nicht beschränkt auf, Entwickler, Entscheidungsträger und Endbenutzer. Bei AWS sind wir bestrebt, der breiteren Community weiterhin Transparenzressourcen wie diese zur Verfügung zu stellen – und Feedback zu den besten Vorgehensweisen zu sammeln und zu wiederholen.
Bahnbrechende Innovationen mit Vertrauen im Vordergrund
Bei AWS setzen wir uns dafür ein, das Vertrauen in KI zu stärken und Organisationen jeder Größe dabei zu unterstützen, KI effektiv und verantwortungsbewusst zu entwickeln und zu nutzen. Wir freuen uns über die verantwortungsbewussten KI-Innovationen, die diese Woche bei re:Invent angekündigt wurden. Von neuen Sicherheitsvorkehrungen und Bewertungstechniken in Amazon Bedrock über hochmoderne Amazon Nova FMs bis hin zur Förderung von Vertrauen und Transparenz mit der ISO/IEC 42001-Zertifizierung und neuen AWS AI Service Cards verfügen Sie über mehr Tools, Ressourcen und integrierte Schutzfunktionen, die Ihnen dabei helfen, verantwortungsbewusst zu innovieren und mit generativer KI Werte zu erschließen.
Wir empfehlen Ihnen, diese neuen Tools und Ressourcen zu erkunden:
Über den Autor
Dr. Baskar Sridharan ist Vizepräsident für KI/ML und Datendienste und -infrastruktur, wo er die strategische Ausrichtung und Entwicklung wichtiger Dienste überwacht, darunter Bedrock, SageMaker und wichtige Datenplattformen wie EMR, Athena und Glue.
- SEO-gestützte Content- und PR-Distribution. Holen Sie sich noch heute Verstärkung.
- PlatoData.Network Vertikale generative KI. Motiviere dich selbst. Hier zugreifen.
- PlatoAiStream. Web3-Intelligenz. Wissen verstärkt. Hier zugreifen.
- PlatoESG. Kohlenstoff, CleanTech, Energie, Umwelt, Solar, Abfallwirtschaft. Hier zugreifen.
- PlatoHealth. Informationen zu Biotechnologie und klinischen Studien. Hier zugreifen.
- Quelle: https://aws.amazon.com/blogs/machine-learning/advancing-ai-trust-with-new-responsible-ai-tools-capabilities-and-resources/