Zephyrnet-Logo

Erreichen Sie DevOps-Reife mit BMC AMI zAdviser Enterprise und Amazon Bedrock | Amazon Web Services

Datum:

In der Softwareentwicklung besteht ein direkter Zusammenhang zwischen der Teamleistung und der Entwicklung robuster, stabiler Anwendungen. Ziel der Datengemeinschaft ist es, die strengen technischen Prinzipien, die üblicherweise in der Softwareentwicklung verwendet werden, in ihre eigenen Praktiken zu übernehmen, einschließlich systematischer Ansätze für Design, Entwicklung, Tests und Wartung. Dies erfordert eine sorgfältige Kombination von Anwendungen und Metriken, um vollständiges Bewusstsein, Genauigkeit und Kontrolle zu gewährleisten. Dabei geht es darum, alle Aspekte der Leistung eines Teams zu bewerten, wobei der Schwerpunkt auf kontinuierlicher Verbesserung liegt, und das gilt für Mainframes genauso wie für verteilte und Cloud-Umgebungen – vielleicht sogar noch mehr.

Dies wird durch Praktiken wie Infrastructure as Code (IaC) für Bereitstellungen, automatisierte Tests, Anwendungsbeobachtbarkeit und vollständige Eigentümerschaft des Anwendungslebenszyklus erreicht. Durch jahrelange Forschung wurde die DevOps-Forschung und -Bewertung (DORA) Das Team hat vier Schlüsselkennzahlen identifiziert, die die Leistung eines Softwareentwicklungsteams anzeigen:

  • Bereitstellungshäufigkeit – Wie oft führt eine Organisation erfolgreich Freigaben für die Produktion durch?
  • Vorlaufzeit für Änderungen – Die Zeit, die ein Commit benötigt, um in die Produktion zu gelangen
  • Ausfallrate ändern – Der Prozentsatz der Bereitstellungen, die einen Fehler in der Produktion verursachen
  • Zeit, den Dienst wiederherzustellen – Wie lange dauert es, bis sich eine Organisation von einem Produktionsausfall erholt?

Diese Metriken bieten eine quantitative Möglichkeit, die Effektivität und Effizienz von DevOps-Praktiken zu messen. Obwohl der Fokus bei der Analyse von DevOps größtenteils auf verteilten und Cloud-Technologien liegt, behält der Mainframe immer noch eine einzigartige und leistungsstarke Position und kann die DORA 4-Metriken nutzen, um seinen Ruf als Motor des Handels zu stärken.

In diesem Blogbeitrag wird erläutert, wie BMC Software hinzugefügt hat AWS Generative KI Fähigkeiten seines Produkts BMC AMI zAdviser Enterprise. Der zAdviser verwendet Amazonas Grundgestein Bereitstellung von Zusammenfassungen, Analysen und Verbesserungsempfehlungen auf der Grundlage der DORA-Metrikdaten.

Herausforderungen bei der Verfolgung von DORA 4-Metriken

Um die DORA 4-Metriken zu verfolgen, müssen die Zahlen zusammengestellt und auf einem Dashboard angezeigt werden. Bei der Messung der Produktivität geht es jedoch im Wesentlichen darum, die Leistung einzelner Personen zu messen, was dazu führen kann, dass diese das Gefühl haben, unter die Lupe genommen zu werden. Diese Situation könnte einen Wandel in der Unternehmenskultur erforderlich machen, um sich auf kollektive Erfolge zu konzentrieren und zu betonen, dass Automatisierungstools die Entwicklererfahrung verbessern.

Es ist außerdem wichtig zu vermeiden, sich auf irrelevante Kennzahlen zu konzentrieren oder Daten übermäßig zu verfolgen. Der Kern der DORA-Metriken besteht darin, Informationen zur Auswertung in einen Kernsatz von Key Performance Indicators (KPIs) zusammenzufassen. Die mittlere Wiederherstellungszeit (MTTR) ist oft der am einfachsten zu verfolgende KPI – die meisten Unternehmen verwenden Tools wie BMC Helix ITSM oder andere, die Ereignisse aufzeichnen und Probleme verfolgen.

Die Erfassung der Vorlaufzeit für Änderungen und der Änderungsfehlerrate kann eine größere Herausforderung darstellen, insbesondere auf Mainframes. Vorlaufzeit für Änderungen und KPIs zur Änderungsfehlerrate aggregieren Daten aus Code-Commits, Protokolldateien und automatisierten Testergebnissen. Durch den Einsatz eines Git-basierten SCM werden diese Erkenntnisse nahtlos zusammengeführt. Mainframe-Teams, die die Git-basierte DevOps-Plattform von BMC, AMI DevX, verwenden, können diese Daten genauso einfach sammeln wie verteilte Teams.

Lösungsüberblick

Amazon Bedrock ist ein vollständig verwalteter Dienst, der über eine einzige API eine Auswahl leistungsstarker Foundation-Modelle (FMs) von führenden KI-Unternehmen wie AI21 Labs, Anthropic, Cohere, Meta, Stability AI und Amazon sowie eine breite Palette von bietet Funktionen, die Sie zum Erstellen generativer KI-Anwendungen mit Sicherheit, Datenschutz und verantwortungsvoller KI benötigen.

BMC AMI zAdviser Enterprise bietet eine breite Palette von DevOps-KPIs, um die Mainframe-Entwicklung zu optimieren und Teams in die Lage zu versetzen, Probleme proaktiv zu identifizieren und zu lösen. Mithilfe von maschinellem Lernen überwacht AMI zAdviser die Erstellung, den Test und die Bereitstellung von Mainframe-Funktionen in allen DevOps-Toolketten und bietet dann KI-gestützte Empfehlungen für eine kontinuierliche Verbesserung. Neben der Erfassung und Berichterstattung über Entwicklungs-KPIs erfasst zAdviser auch Daten darüber, wie die BMC DevX-Produkte übernommen und genutzt werden. Dazu gehören die Anzahl der debuggten Programme, das Ergebnis der Testbemühungen mit den DevX-Testtools und viele andere Datenpunkte. Diese zusätzlichen Datenpunkte können tiefere Einblicke in die Entwicklungs-KPIs, einschließlich der DORA-Metriken, liefern und können in zukünftigen generativen KI-Bemühungen mit Amazon Bedrock verwendet werden.

Das folgende Architekturdiagramm zeigt die endgültige Implementierung von zAdviser Enterprise unter Verwendung generativer KI, um Zusammenfassungen, Analysen und Verbesserungsempfehlungen basierend auf den KPI-Daten der DORA-Metriken bereitzustellen.

Architekturdiagramm

Der Lösungsworkflow umfasst die folgenden Schritte:

  1. Erstellen Sie die Aggregationsabfrage, um die Metriken von Elasticsearch abzurufen.
  2. Extrahieren Sie die gespeicherten Mainframe-Metrikdaten aus zAdviser, das in gehostet wird Amazon Elastic Compute-Cloud (Amazon EC2) und in AWS bereitgestellt.
  3. Aggregieren Sie die von Elasticsearch abgerufenen Daten und bilden Sie die Eingabeaufforderung für den generativen AI Amazon Bedrock API-Aufruf.
  4. Übergeben Sie die generative KI-Eingabeaufforderung an Amazon Bedrock (unter Verwendung des Claude2-Modells von Anthropic auf Amazon Bedrock).
  5. Speichern Sie die Antwort von Amazon Bedrock (ein HTML-formatiertes Dokument) in Amazon Simple Storage-Service (Amazon S3).
  6. Lösen Sie den KPI-E-Mail-Prozess aus über AWS Lambda:
    1. Die HTML-formatierte E-Mail wird aus Amazon S3 extrahiert und dem E-Mail-Text hinzugefügt.
    2. Das PDF für Kunden-KPIs wird aus zAdviser extrahiert und an die E-Mail angehängt.
    3. Die E-Mail wird an Abonnenten gesendet.

Der folgende Screenshot zeigt die LLM-Zusammenfassung der DORA-Metriken, die mit Amazon Bedrock generiert und als E-Mail an den Kunden gesendet wurden, mit einem PDF-Anhang, der den DORA-Metrik-KPI-Dashboard-Bericht von zAdviser enthält.

Ergebniszusammenfassung

Die zentralen Thesen

Bei dieser Lösung müssen Sie sich keine Sorgen machen, dass Ihre Daten im Internet offengelegt werden, wenn sie an einen KI-Client gesendet werden. Der API-Aufruf an Amazon Bedrock enthält keine personenbezogenen Daten (PII) oder Daten, die einen Kunden identifizieren könnten. Die einzigen übermittelten Daten bestehen aus numerischen Werten in Form der DORA-Metrik-KPIs und Anweisungen für die Operationen der generativen KI. Wichtig ist, dass der generative KI-Client diese Daten nicht speichert, daraus lernt oder zwischenspeichert.

Dem zAdviser-Engineering-Team gelang es, diese Funktion innerhalb kurzer Zeit schnell zu implementieren. Der schnelle Fortschritt wurde durch die erhebliche Investition von zAdviser in AWS-Dienste und vor allem durch die einfache Nutzung von Amazon Bedrock über API-Aufrufe erleichtert. Dies unterstreicht die transformative Kraft der generativen KI-Technologie, die in der Amazon Bedrock API verkörpert ist. Diese API, ausgestattet mit dem branchenspezifischen Wissensspeicher zAdviser Enterprise und angepasst mit kontinuierlich erfassten organisationsspezifischen DevOps-Metriken, zeigt das Potenzial von KI in diesem Bereich.

Generative KI hat das Potenzial, die Eintrittsbarriere für den Aufbau KI-gesteuerter Organisationen zu senken. Insbesondere große Sprachmodelle (LLMs) können für Unternehmen, die unstrukturierte Daten untersuchen und nutzen möchten, einen enormen Mehrwert bieten. Über Chatbots hinaus können LLMs für eine Vielzahl von Aufgaben eingesetzt werden, beispielsweise zur Klassifizierung, Bearbeitung und Zusammenfassung.

Zusammenfassung

In diesem Beitrag wurden die transformativen Auswirkungen der generativen KI-Technologie in Form von Amazon Bedrock APIs erörtert, die mit dem branchenspezifischen Wissen von BMC zAdviser ausgestattet sind und auf fortlaufend erfasste organisationsspezifische DevOps-Metriken zugeschnitten sind.

Probieren Sie auch die BMC-Website um mehr zu erfahren und eine Demo einzurichten.


Über die Autoren

Sunil BemarkarSunil Bemarkar ist Senior Partner Solutions Architect bei Amazon Web Services. Er arbeitet mit verschiedenen unabhängigen Softwareanbietern (ISVs) und strategischen Kunden aus verschiedenen Branchen zusammen, um deren digitale Transformation und Cloud-Einführung zu beschleunigen.

Vij BalakrishnaVij Balakrishna ist Senior Partner Development Manager bei Amazon Web Services. Sie unterstützt unabhängige Softwareanbieter (ISVs) aus allen Branchen dabei, ihre Reise zur digitalen Transformation zu beschleunigen.

Spencer Hallmann ist der leitende Produktmanager für BMC AMI zAdviser Enterprise. Zuvor war er Produktmanager für BMC AMI Strobe und BMC AMI Ops Automation für Batch Thruput. Vor seiner Tätigkeit im Produktmanagement war Spencer Fachexperte für Mainframe-Leistung. Zu seinen vielfältigen Erfahrungen im Laufe der Jahre gehörten auch die Programmierung auf mehreren Plattformen und Sprachen sowie die Arbeit im Bereich Operations Research. Er hat einen Master of Business Administration mit Schwerpunkt Operations Research von der Temple University und einen Bachelor of Science in Informatik von der University of Vermont. Er lebt in Devon, Pennsylvania, und wenn er nicht an virtuellen Meetings teilnimmt, geht er gerne mit seinen Hunden spazieren, fährt Fahrrad und verbringt Zeit mit seiner Familie.

spot_img

Neueste Intelligenz

spot_img