Zephyrnet-logotyp

Hur spelföretag kan använda Amazon Redshift Serverless för att bygga skalbara analytiska applikationer snabbare och enklare

Datum:

Det här inlägget ger vägledning om hur man bygger skalbara analytiska lösningar för användningsfall för spelindustrin Amazon Redshift Serverlös. Den täcker hur man använder en konceptuell, logisk arkitektur för några av de mest populära användningsfallen i spelbranschen som händelseanalys, rekommendationer för köp i spel, mätning av spelarnöjdhet, telemetridataanalys och mer. Det här inlägget diskuterar också konsten av det möjliga med nyare innovationer inom AWS-tjänster kring streaming, maskininlärning (ML), datadelning och serverlösa funktioner.

Våra spelkunder berättar att deras viktigaste affärsmål inkluderar följande:

  • Ökade intäkter från köp i appen
  • Hög genomsnittlig intäkt per användare och livstidsvärde
  • Förbättrad klibbighet med bättre spelupplevelse
  • Förbättrad evenemangsproduktivitet och hög ROI

Våra spelkunder berättar också att när de bygger analyslösningar vill de ha följande:

  • Modell med låg kod eller ingen kod – Out-of-the-box lösningar är att föredra framför att bygga skräddarsydda lösningar.
  • Frikopplad och skalbar – Serverlösa, automatiskt skalade och helt hanterade tjänster föredras framför manuellt hanterade tjänster. Varje tjänst bör vara lätt utbytbar, förbättrad med lite eller inget beroende. Lösningarna bör vara flexibla för att skala upp och ner.
  • Portabilitet till flera kanaler – Lösningar bör vara kompatibla med de flesta slutpunktskanaler som PC, mobil och spelplattformar.
  • Flexibel och enkel att använda – Lösningarna bör ge mindre restriktiva, lättillgängliga och färdiga data. De bör också ge optimal prestanda med låg eller ingen inställning.

Analytics referensarkitektur för spelorganisationer

I det här avsnittet diskuterar vi hur spelorganisationer kan använda en datahub-arkitektur för att tillgodose ett företags analytiska behov, som kräver samma data på flera nivåer av granularitet och olika format, och som är standardiserad för snabbare konsumtion. A datahubb är ett centrum för datautbyte som utgör ett nav av datalager och stöds av datateknik, datastyrning, säkerhet och övervakningstjänster.

En datahubb innehåller data på flera nivåer av granularitet och är ofta inte integrerad. Det skiljer sig från en datasjö genom att erbjuda data som är förvaliderad och standardiserad, vilket möjliggör enklare konsumtion av användarna. Datahubbar och datasjöar kan samexistera i en organisation och kompletterar varandra. Datahubbar är mer fokuserade på att göra det möjligt för företag att konsumera standardiserad data snabbt och enkelt. Datasjöar är mer fokuserade på att lagra och underhålla all data i en organisation på ett ställe. Och till skillnad från datalager, som i första hand är analytiska butiker, är en datahub en kombination av alla typer av förråd – analytiska, transaktions-, operationella, referens- och data-I/O-tjänster, tillsammans med styrningsprocesser. Ett datalager är en av komponenterna i en datahubb.

Följande diagram är en referensarkitektur för begreppsanalysdatanav. Den här arkitekturen liknar en nav-och-ek-strategi. Dataförråd representerar navet. Externa processer är ekrarna som matar data till och från navet. Denna referensarkitektur kombinerar delvis ett datanav och datasjö för att möjliggöra omfattande analystjänster.

Låt oss titta på komponenterna i arkitekturen mer i detalj.

Källor

Data kan laddas från flera källor, såsom registersystem, data genererad från applikationer, driftdatalager, företagsomfattande referensdata och metadata, data från leverantörer och partners, maskingenererad data, sociala källor och webbkällor. Källdata är vanligtvis i antingen strukturerade eller semi-strukturerade format, som är högt respektive löst formaterade.

Data inkommande

Det här avsnittet består av komponenter för att bearbeta och ladda data från flera källor till datalager. Det kan vara i batch-läge, kontinuerligt, pub/sub eller något annat
anpassad integration. ETL-tekniker (extrahera, transformera och ladda), streamingtjänster, API:er och datautbytesgränssnitt är kärnkomponenterna i denna pelare. Till skillnad från intagsprocesser kan data omvandlas enligt affärsregler innan de laddas. Du kan tillämpa tekniska eller affärsdatakvalitetsregler och även ladda rådata. I grund och botten ger det flexibiliteten att få in data till förråd i sin mest användbara form.

Datalager

Den här sektionen består av en grupp av datalager, som inkluderar datalager, transaktions- eller operationella datalager, referensdatalager, domändatalager med specialbyggda affärsvyer och företagsdatauppsättningar (fillagring). Fillagringskomponenten är vanligtvis en vanlig komponent mellan en datahubb och en datasjö för att undvika dataduplicering och ge heltäckande. Data kan också delas mellan alla dessa arkiv utan att fysiskt flyttas med funktioner, såsom datadelning och federerade frågor. Datakopiering och duplicering tillåts dock med tanke på olika förbrukningsbehov när det gäller format och latens.

Data utgående

Data konsumeras ofta med hjälp av strukturerade frågor för analytiska behov. Datauppsättningar är också tillgängliga för ML, dataexport och publiceringsbehov. Det här avsnittet består av komponenter för att fråga data, export, utbyte och API:er. När det gäller implementering kan samma teknik användas för både inkommande och utgående, men funktionerna är olika. Det är dock inte obligatoriskt att använda samma teknik. Dessa processer är inte omvandlingstunga eftersom data redan är standardiserade och nästan redo att konsumeras. Fokus ligger på enkel konsumtion och integration med konsumerande tjänster.

Konsumtion

Denna pelare består av olika konsumtionskanaler för företagsanalysbehov. Det inkluderar Business Intelligence (BI)-användare, färdiga och interaktiva rapporter, instrumentpaneler, datavetenskapliga arbetsbelastningar, Internet of Things (IoT), webbappar och datakonsumenter från tredje part. Populära konsumtionsenheter i många organisationer är frågor, rapporter och datavetenskapliga arbetsbelastningar. Eftersom det finns flera datalager som upprätthåller data i olika granularitet och format för att tillgodose konsumenternas behov, är dessa konsumtionskomponenter beroende av datakataloger för att hitta rätt källa.

Datastyrning

Datastyrning är nyckeln till framgången för en datahubreferensarkitektur. Det utgör komponenter som metadatahantering, datakvalitet, härstamning, maskering och förvaltning, som krävs för organiserat underhåll av datahubben. Metadatahantering hjälper till att organisera den tekniska och affärsmässiga metadatakatalogen, och konsumenter kan referera till den här katalogen för att veta vilken data som finns tillgänglig i vilket arkiv och med vilken granularitet, format, ägare, uppdateringsfrekvens och så vidare. Tillsammans med metadatahantering är datakvaliteten viktig för att öka förtroendet för konsumenterna. Detta inkluderar datarensning, validering, överensstämmelse och datakontroller.

Säkerhet och övervakning

Användare och applikationsåtkomst bör kontrolleras på flera nivåer. Det börjar med autentisering, sedan auktorisera vem och vad som ska nås, policyhantering, kryptering och tillämpning av regler för dataefterlevnad. Det inkluderar också övervakningskomponenter för att logga aktiviteten för revision och analys.

Analysdatahub-lösningsarkitektur på AWS

Följande referensarkitektur tillhandahåller en AWS-stack för lösningskomponenterna.

Låt oss titta på varje komponent igen och de relevanta AWS-tjänsterna.

Datainkommande tjänster

AWS-lim och Amazon EMR tjänster är idealiska för batchbearbetning. De skalas automatiskt och kan bearbeta de flesta av industristandarddataformaten. Amazon Kinesis dataströmmar, Amazon Kinesis Data Firehoseoch Amazon Managed Streaming för Apache Kafka (Amazon MSK) gör att du kan bygga applikationer för streamingprocesser. Dessa streamingtjänster integreras väl med Amazon Redshift streaming funktion. Detta hjälper dig att bearbeta realtidskällor, IoT-data och data från onlinekanaler. Du kan också mata in data med tredjepartsverktyg som Informatica, dbt och Matallion.

Du kan bygga RESTful API:er och WebSocket API:er med hjälp av Amazon API Gateway och AWS Lambda, vilket kommer att möjliggöra tvåvägskommunikation i realtid med webbkällor, sociala källor och IoT-källor. AWS datautbyte hjälper till med att prenumerera på tredjepartsdata i AWS Marketplace. Dataprenumeration och åtkomst hanteras helt med denna tjänst. Se respektive servicedokumentation för ytterligare information.

Datalagringstjänster

Amazon RedShift är den rekommenderade datalagringstjänsten för OLAP-arbetsbelastningar (Online Analytical Processing) som molndatalager, datamarts och andra analytiska datalager. Denna tjänst är kärnan i denna referensarkitektur på AWS och kan tillgodose de flesta analytiska behov direkt. Du kan använda enkel SQL för att analysera strukturerad och semistrukturerad data över datalager, datamarts, operativa databaser och datasjöar för att leverera bästa prisprestanda oavsett skala. De Amazon Redshift datadelning funktionen ger omedelbar, granulär och högpresterande åtkomst utan datakopior och dataförflyttning över flera Amazon Redshift-datalager i samma eller olika AWS-konton och över regioner.

För enkel användning erbjuder Amazon Redshift ett serverlöst alternativ. Amazon Redshift Serverlös tillhandahåller och skalar automatiskt datalagerkapaciteten för att leverera snabb prestanda även för de mest krävande och oförutsägbara arbetsbelastningarna, och du betalar bara för det du använder. Ladda bara din data och börja fråga direkt i Amazon Redshift Query Editor eller i ditt favorit BI-verktyg och fortsätt att njuta av bästa prisprestanda och välbekanta SQL-funktioner i en lättanvänd miljö utan administration.

Amazon Relational Databas Service (Amazon RDS) är en helt hanterad tjänst för att bygga transaktions- och operationella datalager. Du kan välja mellan många populära motorer som MySQL, PostgreSQL, MariaDB, Oracle och SQL Server. Med Amazon Redshift federerad fråga funktionen kan du fråga transaktions- och driftsdata på plats utan att flytta data. Den federerade frågefunktionen stöds för närvarande Amazon RDS för PostgreSQL, Amazon Aurora PostgreSQL-kompatibel utgåva, Amazon RDS för MySQLoch Amazon Aurora MySQL-kompatibel utgåva.

Amazon enkel lagringstjänst (Amazon S3) är den rekommenderade tjänsten för lagringslager i flera format i arkitekturen. Den erbjuder branschledande skalbarhet, datatillgänglighet, säkerhet och prestanda. Organisationer lagrar vanligtvis data i Amazon S3 med öppna filformat. Öppna filformat möjliggör analys av samma Amazon S3-data med hjälp av flera bearbetnings- och konsumtionslagerkomponenter. Data i Amazon S3 kan enkelt frågas på plats med hjälp av SQL med Amazon Redshift Spectrum. Det hjälper dig att fråga och hämta strukturerad och semi-strukturerad data från filer i Amazon S3 utan att behöva ladda data. Flera Amazon Redshift-datalager kan samtidigt fråga samma datauppsättningar i Amazon S3 utan att behöva göra kopior av data för varje datalager.

Data utgående tjänster

Amazon Redshift kommer med den webbaserade analysarbetsbänken Frågeredigerare V2.0, som hjälper dig att köra frågor, utforska data, skapa SQL-anteckningsböcker och samarbeta om data med dina team i SQL genom ett gemensamt gränssnitt. AWS Transfer Family hjälper till att säkert överföra filer med SFTP-, FTPS-, FTP- och AS2-protokoll. Den stöder tusentals samtidiga användare och är en helt hanterad, lågkodstjänst. I likhet med inkommande processer kan du använda Amazon API Gateway och AWS Lambda för data pull med hjälp av Amazon Redshift Data API. Och AWS datautbyte hjälper till att publicera din data till tredje part för konsumtion via AWS Marketplace.

Konsumtionstjänster

Amazon QuickSight är den rekommenderade tjänsten för att skapa rapporter och instrumentpaneler. Det låter dig skapa interaktiva instrumentpaneler, visualiseringar och avancerad analys med ML-insikter. Amazon SageMaker är ML-plattformen för alla dina datavetenskapliga arbetsbelastningsbehov. Det hjälper dig att bygga, träna och distribuera modeller som förbrukar data från arkiv i datahubben. Du kan använda Amazon front-end webb och mobil tjänster och AWS IoT tjänster för att bygga webb-, mobil- och IoT-slutpunktsapplikationer för att konsumera data från datahubben.

Datastyrningstjänster

Smakämnen AWS limdatakatalog och AWS Lake Formation är de centrala datastyrningstjänsterna som AWS för närvarande erbjuder. Dessa tjänster hjälper till att hantera metadata centralt för alla datalager och hantera åtkomstkontroller. De hjälper också till med dataklassificering och kan automatiskt hantera schemaändringar. Du kan använda Amazon DataZone att upptäcka och dela data i stor skala över organisationsgränser med inbyggd styrning och åtkomstkontroll. AWS investerar i detta utrymme för att ge en mer enhetlig upplevelse för AWS-tjänster. Det finns många partnerprodukter som Collibra, Alation, Amorphic, Informatica och fler, som du också kan använda för datastyrningsfunktioner med AWS-tjänster.

Säkerhets- och övervakningstjänster

AWS identitets- och åtkomsthantering (AWS IAM) hanterar identiteter för AWS-tjänster och resurser. Du kan definiera användare, grupper, roller och policyer för finkornig åtkomsthantering av din arbetsstyrka och arbetsbelastning. AWS nyckelhanteringstjänst (AWS KMS) hanterar AWS-nycklar eller kundhanterade nycklar för dina applikationer. amazoncloudwatch och AWS CloudTrail hjälpa till att tillhandahålla övervaknings- och revisionsmöjligheter. Du kan samla in mätvärden och händelser och analysera dem för operativ effektivitet.

I det här inlägget har vi diskuterat de vanligaste AWS-tjänsterna för respektive lösningskomponenter. Du är dock inte begränsad till endast dessa tjänster. Det finns många andra AWS-tjänster för specifika användningsfall som kan vara mer lämpliga för dina behov än vad vi diskuterade här. Du kan kontakta AWS Analytics Solutions Architects för lämplig vägledning.

Exempelarkitekturer för användningsfall för spel

I det här avsnittet diskuterar vi exempelarkitekturer för två spelanvändningsfall.

Analys av spelhändelser

Events i spelet (även kallade tidsinställda eller livehändelser) uppmuntrar spelarens engagemang genom spänning och förväntan. Händelser lockar spelare att interagera med spelet, vilket ökar spelarnas tillfredsställelse och intäkterna med köp i spelet. Händelser har blivit viktigare och viktigare, särskilt när spel övergår från att vara statiska underhållningsbitar som ska spelas till att erbjuda dynamiskt och föränderligt innehåll genom användning av tjänster som använder information för att fatta beslut om spelet medan spelet spelas. Detta gör det möjligt för spel att förändras när spelarna spelar och påverkar vad som fungerar och vad som inte gör det, och ger alla spel en potentiellt oändlig livslängd.

Denna förmåga hos evenemang i spelet att erbjuda nytt innehåll och aktiviteter inom ett välbekant ramverk är hur du håller spelare engagerade och spelar i månader till år. Spelare kan njuta av nya upplevelser och utmaningar inom den välbekanta ram eller värld som de har vuxit till att älska.

Följande exempel visar hur en sådan arkitektur kan se ut, inklusive ändringar för att stödja olika delar av processen, som att dela upp data i separata behållare för att tillgodose skalbarhet, återbetalning och ägande.

För att fullt ut förstå hur händelser ses av spelarna och för att fatta beslut om framtida händelser krävs information om hur den senaste händelsen faktiskt genomfördes. Detta innebär att man samlar in mycket data medan spelarna spelar för att bygga nyckelprestationsindikatorer (KPI:er) som mäter effektiviteten och spelarnas tillfredsställelse med varje evenemang. Detta kräver analyser som specifikt mäter varje händelse och fångar, analyserar, rapporterar om och mäter spelarupplevelsen för varje händelse. Dessa nyckeltal inkluderar följande:

  • Initiala användarflödesinteraktioner – Vilka åtgärder användare vidtar efter att de först fått eller laddat ner en händelseuppdatering i ett spel. Finns det några tydliga avlämningspunkter eller flaskhalsar som stänger av folk från evenemanget?
  • intäktsgenerering – När, vad och var användare spenderar pengar på i evenemanget, oavsett om det handlar om att köpa valutor i spelet, svara på annonser, specialerbjudanden och så vidare.
  • Spelekonomi – Hur kan användare tjäna och spendera virtuella valutor eller varor under ett evenemang, med hjälp av pengar i spelet, byten eller byteshandel.
  • Aktivitet i spelet – Spelarens vinster, förluster, nivåer, tävlingsvinster eller spelarprestationer inom evenemanget.
  • Användare till användare interaktioner – Inbjudningar, presenter, chattar (privat och grupp), utmaningar och så vidare under ett event.

Det här är bara några av de nyckeltal och mätvärden som är nyckeln för prediktiv modellering av händelser när spelet skaffar nya spelare samtidigt som befintliga användare är involverade, engagerade och spelar.

Aktivitetsanalys i spelet

Aktivitetsanalys i spelet tittar i huvudsak på alla meningsfulla, målmedvetna aktiviteter som spelaren kan visa, med målet att försöka förstå vilka åtgärder som vidtas, deras timing och resultat. Detta inkluderar situationsinformation om spelarna, inklusive var de spelar (både geografiskt och kulturellt), hur ofta, hur länge, vad de gör vid varje inloggning och andra aktiviteter.

Följande exempel visar hur en sådan arkitektur kan se ut, inklusive ändringar för att stödja olika delar av processen som att dela upp data i separata lager. Flerklusterlagermetoden hjälper till att skala arbetsbelastningen oberoende, ger flexibilitet till den implementerade återbetalningsmodellen och stöder decentraliserat dataägande.

Lösningen loggar huvudsakligen information för att hjälpa dig att förstå dina spelares beteende, vilket kan leda till insikter som ökar kvarhållandet av befintliga spelare och förvärv av nya. Detta kan ge möjligheten att göra följande:

  • Ge rekommendationer om köp i spelet
  • Mät spelartrender på kort sikt och över tid
  • Planera evenemang som spelarna ska delta i
  • Förstå vilka delar av ditt spel som är mest framgångsrika och vilka som är mindre

Du kan använda denna förståelse för att fatta beslut om framtida speluppdateringar, göra rekommendationer för köp i spelet, bestämma när och hur din spelekonomi kan behöva balanseras och till och med låta spelare ändra sin karaktär eller spela allt eftersom spelet fortskrider genom att injicera detta information och medföljande beslut tillbaka in i spelet.

Slutsats

Denna referensarkitektur visar, även om den bara visar exempel på ett fåtal analystyper, en snabbare teknikväg för att möjliggöra spelanalysapplikationer. Det frikopplade, nav/ekade tillvägagångssättet ger smidighet och flexibilitet för att implementera olika metoder för analys och förståelse av spelapplikationers prestanda. De specialbyggda AWS-tjänsterna som beskrivs i den här arkitekturen ger omfattande möjligheter att enkelt samla in, lagra, mäta, analysera och rapportera spel- och händelsestatistik. Detta hjälper dig att effektivt utföra analyser i spelet, händelseanalyser, mäta spelares tillfredsställelse och ge skräddarsydda rekommendationer till spelare, organisera evenemang effektivt och öka retentionsgraden.

Tack för att du läser inlägget. Om du har feedback eller frågor, vänligen lämna dem i kommentarerna.


Om författarna

Satesh Sonti är en Sr. Analytics Specialist Solutions Architect baserad i Atlanta, specialiserad på att bygga företagsdataplattformar, datalagring och analyslösningar. Han har över 16 års erfarenhet av att bygga datatillgångar och leda komplexa dataplattformsprogram för bank- och försäkringskunder över hela världen.

Tanya Rhodes är en Senior Solutions Architect baserad i San Francisco, fokuserad på spelkunder med tonvikt på analys, skalning och prestandaförbättring av spel och stödsystem. Hon har över 25 års erfarenhet av företags- och lösningsarkitektur som specialiserat sig på mycket stora företagsorganisationer inom flera branscher, inklusive spel, bank, hälsovård, högre utbildning och statliga myndigheter.

plats_img

Senaste intelligens

plats_img