Zephyrnet-logo

Oppnå DevOps-modenhet med BMC AMI zAdviser Enterprise og Amazon Bedrock | Amazon Web Services

Dato:

I programvareutvikling er det en direkte sammenheng mellom teamytelse og å bygge robuste, stabile applikasjoner. Datafellesskapet tar sikte på å ta i bruk de strenge ingeniørprinsippene som vanligvis brukes i programvareutvikling i sin egen praksis, som inkluderer systematiske tilnærminger til design, utvikling, testing og vedlikehold. Dette krever nøye kombinasjon av applikasjoner og beregninger for å gi fullstendig bevissthet, nøyaktighet og kontroll. Det betyr å evaluere alle aspekter av et teams ytelse, med fokus på kontinuerlig forbedring, og det gjelder like mye for stormaskin som for distribuerte miljøer og skymiljøer – kanskje mer.

Dette oppnås gjennom praksis som infrastruktur som kode (IaC) for distribusjoner, automatisert testing, observerbarhet av applikasjoner og fullstendig eierskap av applikasjonens livssyklus. Gjennom år med forskning har DevOps Research and Assessment (DORA) teamet har identifisert fire nøkkeltall som indikerer ytelsen til et programvareutviklingsteam:

  • Distribusjonsfrekvens – Hvor ofte en organisasjon lykkes med å slippe til produksjon
  • Ledetid for endringer – Hvor lang tid det tar å forplikte seg til å komme i produksjon
  • Endre feilfrekvens – Prosentandelen av distribusjoner som forårsaker produksjonssvikt
  • På tide å gjenopprette tjenesten – Hvor lang tid det tar en organisasjon å komme seg etter en produksjonssvikt

Disse beregningene gir en kvantitativ måte å måle effektiviteten og effektiviteten til DevOps-praksis. Selv om mye av fokuset rundt analyse av DevOps er på distribuert teknologi og skyteknologi, opprettholder stormaskinen fortsatt en unik og kraftig posisjon, og den kan bruke DORA 4-beregningene til å fremme sitt rykte som handelsmotoren.

Dette blogginnlegget diskuterer hvordan BMC Software ble lagt til AWS Generativ AI evner til produktet BMC AMI zAdviser Enterprise. zAdviser bruker Amazonas grunnfjell å gi oppsummering, analyse og anbefalinger for forbedring basert på DORA-dataene.

Utfordringer med å spore DORA 4-målinger

Å spore DORA 4-beregninger betyr å sette tallene sammen og plassere dem på et dashbord. Å måle produktivitet er imidlertid i hovedsak å måle ytelsen til enkeltpersoner, noe som kan få dem til å føle seg gransket. Denne situasjonen kan nødvendiggjøre et skifte i organisasjonskulturen for å fokusere på kollektive prestasjoner og understreke at automatiseringsverktøy forbedrer utvikleropplevelsen.

Det er også viktig å unngå å fokusere på irrelevante beregninger eller overdreven sporing av data. Essensen av DORA-målinger er å destillere informasjon til et kjernesett med nøkkelytelsesindikatorer (KPIer) for evaluering. Mean Time to Restore (MTTR) er ofte den enkleste KPIen å spore – de fleste organisasjoner bruker verktøy som BMC Helix ITSM eller andre som registrerer hendelser og problemsporing.

Å fange ledetid for endringer og endringsfeilfrekvens kan være mer utfordrende, spesielt på stormaskiner. Ledetid for endringer og endring av feilfrekvens-KPIer samler data fra kodeforpliktelser, loggfiler og automatiserte testresultater. Ved å bruke en Git-basert SCM samles denne innsikten sømløst. Mainframe-team som bruker BMCs Git-baserte DevOps-plattform, AMI DevX, kan samle inn disse dataene like enkelt som distribuerte team kan.

Løsningsoversikt

Amazon Bedrock er en fullt administrert tjeneste som tilbyr et utvalg av høyytende fundamentmodeller (FM-er) fra ledende AI-selskaper som AI21 Labs, Anthropic, Cohere, Meta, Stability AI og Amazon via et enkelt API, sammen med et bredt sett av funksjoner du trenger for å bygge generative AI-applikasjoner med sikkerhet, personvern og ansvarlig AI.

BMC AMI zAdviser Enterprise tilbyr et bredt spekter av DevOps KPIer for å optimalisere stormaskinutvikling og gjøre det mulig for team å proaktivt identifisere og løse problemer. Ved hjelp av maskinlæring overvåker AMI zAdviser stormaskinbygging, tester og distribuerer funksjoner på tvers av DevOps-verktøykjeder og tilbyr deretter AI-ledede anbefalinger for kontinuerlig forbedring. I tillegg til å fange opp og rapportere om utviklings-KPIer, fanger zAdviser data om hvordan BMC DevX-produktene tas i bruk og brukes. Dette inkluderer antall programmer som ble feilsøkt, resultatet av testarbeid ved å bruke DevX-testverktøyene og mange andre datapunkter. Disse ekstra datapunktene kan gi dypere innsikt i utviklings-KPIene, inkludert DORA-beregningene, og kan brukes i fremtidige generative AI-innsats med Amazon Bedrock.

Følgende arkitekturdiagram viser den endelige implementeringen av zAdviser Enterprise som bruker generativ AI for å gi oppsummering, analyse og anbefalinger for forbedring basert på DORA-metrikk-KPI-dataene.

Arkitektur diagram

Løsningsarbeidsflyten inkluderer følgende trinn:

  1. Opprett aggregeringsspørringen for å hente beregningene fra Elasticsearch.
  2. Trekk ut de lagrede stormaskinberegningsdataene fra zAdviser, som er vert i Amazon Elastic Compute Cloud (Amazon EC2) og distribuert i AWS.
  3. Aggreger dataene som er hentet fra Elasticsearch, og form ledeteksten for det generative AI Amazon Bedrock API-kallet.
  4. Send den generative AI-forespørselen til Amazon Bedrock (ved å bruke Anthropics Claude2-modell på Amazon Bedrock).
  5. Lagre svaret fra Amazon Bedrock (et HTML-formatert dokument) i Amazon enkel lagringstjeneste (Amazon S3).
  6. Utløs KPI-e-postprosessen via AWS Lambda:
    1. Den HTML-formaterte e-posten trekkes ut fra Amazon S3 og legges til brødteksten i e-posten.
    2. PDF-en for kunde-KPI-er er hentet fra zAdviser og vedlagt e-posten.
    3. E-posten sendes til abonnenter.

Følgende skjermbilde viser LLM-oppsummeringen av DORA-målinger generert ved hjelp av Amazon Bedrock og sendt som en e-post til kunden, med et PDF-vedlegg som inneholder DORA-metrikk KPI-dashboardrapporten fra zAdviser.

Resultatoppsummering

Nøkkelferier

I denne løsningen trenger du ikke å bekymre deg for at dataene dine blir eksponert på internett når de sendes til en AI-klient. API-kallet til Amazon Bedrock inneholder ingen personlig identifiserbar informasjon (PII) eller data som kan identifisere en kunde. De eneste dataene som overføres består av numeriske verdier i form av DORA-metriske KPIer og instruksjoner for den generative AIs operasjoner. Viktigere er at den generative AI-klienten ikke beholder, lærer av eller hurtigbufrer disse dataene.

zAdvisers ingeniørteam lyktes med å raskt implementere denne funksjonen i løpet av kort tid. Den raske fremgangen ble tilrettelagt av zAdvisers betydelige investering i AWS-tjenester og, viktigere, den enkle bruken av Amazon Bedrock via API-kall. Dette understreker den transformative kraften til generativ AI-teknologi nedfelt i Amazon Bedrock API. Denne API-en, utstyrt med det bransjespesifikke kunnskapsarkivet zAdviser Enterprise og tilpasset med kontinuerlig innsamlede organisasjonsspesifikke DevOps-målinger, demonstrerer potensialet til AI på dette feltet.

Generativ AI har potensialet til å senke adgangsbarrieren for å bygge AI-drevne organisasjoner. Spesielt store språkmodeller (LLM) kan gi enorm verdi for bedrifter som ønsker å utforske og bruke ustrukturerte data. Utover chatbots kan LLM-er brukes i en rekke oppgaver, for eksempel klassifisering, redigering og oppsummering.

konklusjonen

Dette innlegget diskuterte transformasjonseffekten av generativ AI-teknologi i form av Amazon Bedrock APIer utstyrt med den bransjespesifikke kunnskapen som BMC zAdviser besitter, skreddersydd med organisasjonsspesifikke DevOps-beregninger samlet inn fortløpende.

Sjekk ut BMCs nettsted for å lære mer og sette opp en demo.


Om forfatterne

Sunil BemarkarSunil Bemarkar er senior partner Solutions Architect hos Amazon Web Services. Han jobber med ulike uavhengige programvareleverandører (ISV-er) og strategiske kunder på tvers av bransjer for å akselerere deres digitale transformasjonsreise og skyadopsjon.

Vij BalakrishnaVij Balakrishna er Senior Partner Development Manager hos Amazon Web Services. Hun hjelper uavhengige programvareleverandører (ISV) på tvers av bransjer med å akselerere deres digitale transformasjonsreise.

Spencer Hallman er hovedproduktsjef for BMC AMI zAdviser Enterprise. Tidligere var han produktsjef for BMC AMI Strobe og BMC AMI Ops Automation for Batch Thruput. Før produktledelsen var Spencer fagekspert for stormaskinytelse. Hans mangfoldige erfaring gjennom årene har også inkludert programmering på flere plattformer og språk, samt arbeid i operasjonsforskningsfeltet. Han har en Master of Business Administration med konsentrasjon i operasjonsforskning fra Temple University og en Bachelor of Science in Computer Science fra University of Vermont. Han bor i Devon, PA, og når han ikke deltar på virtuelle møter, liker han å gå tur med hundene sine, sykle og tilbringe tid med familien.

spot_img

Siste etterretning

spot_img