Zephyrnet-logo

Hoe gamingbedrijven Amazon Redshift Serverless kunnen gebruiken om sneller en gemakkelijker schaalbare analytische applicaties te bouwen

Datum:

Dit bericht biedt richtlijnen voor het bouwen van schaalbare analytische oplossingen voor use-cases in de game-industrie Amazon Redshift Serverloos. Het behandelt het gebruik van een conceptuele, logische architectuur voor enkele van de meest populaire use-cases in de game-industrie, zoals gebeurtenisanalyse, in-game aankoopaanbevelingen, het meten van spelerstevredenheid, telemetrische data-analyse en meer. Dit bericht bespreekt ook de kunst van het mogelijke met nieuwere innovaties in AWS-services rond streaming, machine learning (ML), het delen van gegevens en serverloze mogelijkheden.

Onze gamingklanten vertellen ons dat hun belangrijkste zakelijke doelstellingen de volgende zijn:

  • Verhoogde inkomsten uit in-app-aankopen
  • Hoge gemiddelde opbrengst per gebruiker en lifetime value
  • Verbeterde plakkerigheid met betere game-ervaring
  • Verbeterde evenementproductiviteit en hoge ROI

Onze gamingklanten vertellen ons ook dat ze bij het bouwen van analytische oplossingen het volgende willen:

  • Low-code of no-code model – Out-of-the-box oplossingen hebben de voorkeur boven het bouwen van maatwerkoplossingen.
  • Ontkoppeld en schaalbaar – Serverloze, automatisch geschaalde en volledig beheerde services hebben de voorkeur boven handmatig beheerde services. Elke service moet eenvoudig te vervangen zijn, verbeterd met weinig of geen afhankelijkheid. Oplossingen moeten flexibel zijn om op en neer te schalen.
  • Overdraagbaarheid naar meerdere kanalen – Oplossingen moeten compatibel zijn met de meeste eindpuntkanalen, zoals pc-, mobiele en gamingplatforms.
  • Flexibel en gebruiksvriendelijk – De oplossingen moeten minder beperkende, gemakkelijk toegankelijke en gebruiksklare gegevens bieden. Ze moeten ook optimale prestaties leveren met weinig of geen afstemming.

Analytics-referentiearchitectuur voor gaming-organisaties

In dit gedeelte bespreken we hoe gamingorganisaties een datahub-architectuur kunnen gebruiken om tegemoet te komen aan de analytische behoeften van een onderneming, die dezelfde gegevens op meerdere niveaus van granulariteit en verschillende formaten nodig heeft, en is gestandaardiseerd voor sneller verbruik. A datahub is een centrum voor gegevensuitwisseling dat een knooppunt vormt van gegevensopslagplaatsen en wordt ondersteund door gegevensengineering, gegevensbeheer, beveiliging en bewakingsdiensten.

Een datahub bevat gegevens op meerdere granulariteitsniveaus en is vaak niet geïntegreerd. Het verschilt van een datameer door gegevens aan te bieden die vooraf zijn gevalideerd en gestandaardiseerd, waardoor gebruikers eenvoudiger kunnen consumeren. Datahubs en datalakes kunnen naast elkaar bestaan ​​in een organisatie en elkaar aanvullen. Datahubs zijn er meer op gericht om bedrijven in staat te stellen snel en gemakkelijk gestandaardiseerde gegevens te gebruiken. Datameren zijn meer gericht op het opslaan en onderhouden van alle gegevens in een organisatie op één plek. En in tegenstelling tot datawarehouses, die voornamelijk analytische opslagplaatsen zijn, is een datahub een combinatie van alle soorten opslagplaatsen: analytische, transactie-, operationele, referentie- en gegevens-I/O-services, samen met beheerprocessen. Een datawarehouse is een van de componenten in een datahub.

Het volgende diagram is een referentiearchitectuur voor een conceptuele analysegegevenshub. Deze architectuur lijkt op een hub-and-spoke-benadering. Gegevensopslagplaatsen vertegenwoordigen de hub. Externe processen zijn de spaken die gegevens van en naar de hub voeren. Deze referentiearchitectuur combineert deels een datahub en datalake om uitgebreide analyseservices mogelijk te maken.

Laten we de componenten van de architectuur in meer detail bekijken.

bronnen

Gegevens kunnen worden geladen uit meerdere bronnen, zoals registratiesystemen, gegevens die zijn gegenereerd door applicaties, operationele gegevensopslag, ondernemingsbrede referentiegegevens en metagegevens, gegevens van leveranciers en partners, door machines gegenereerde gegevens, sociale bronnen en webbronnen. De brongegevens zijn meestal in gestructureerde of semi-gestructureerde formaten, die respectievelijk sterk en losjes zijn opgemaakt.

Gegevens binnenkomen

Deze sectie bestaat uit componenten om de gegevens uit meerdere bronnen te verwerken en in gegevensopslagplaatsen te laden. Het kan in batchmodus, continu, pub/sub of een andere zijn
integratie op maat. ETL-technologieën (extraheren, transformeren en laden), streamingdiensten, API's en interfaces voor gegevensuitwisseling zijn de kerncomponenten van deze pijler. In tegenstelling tot opnameprocessen kunnen gegevens vóór het laden worden getransformeerd volgens bedrijfsregels. U kunt technische of zakelijke gegevenskwaliteitsregels toepassen en ook onbewerkte gegevens laden. In wezen biedt het de flexibiliteit om de gegevens in de meest bruikbare vorm in repositories te krijgen.

Gegevensopslagplaatsen

Deze sectie bestaat uit een groep gegevensarchieven, waaronder datawarehouses, transactionele of operationele gegevensarchieven, referentiegegevensarchieven, domeingegevensarchieven met speciaal gebouwde zakelijke weergaven en bedrijfsgegevenssets (bestandsopslag). De bestandsopslagcomponent is meestal een gemeenschappelijk onderdeel tussen een datahub en een datameer om gegevensduplicatie te voorkomen en volledigheid te bieden. Gegevens kunnen ook worden gedeeld tussen al deze repositories zonder fysiek te verhuizen met functies, zoals het delen van gegevens en gefedereerde query's. Het kopiëren en dupliceren van gegevens is echter toegestaan, rekening houdend met verschillende verbruiksbehoeften in termen van formaten en latentie.

Gegevens uitgaand

Gegevens worden vaak verbruikt met behulp van gestructureerde query's voor analytische behoeften. Er is ook toegang tot datasets voor ML, gegevensexport en publicatiebehoeften. Deze sectie bestaat uit componenten om de gegevens op te vragen, te exporteren, uit te wisselen en API's. Qua implementatie kunnen dezelfde technologieën worden gebruikt voor zowel inkomend als uitgaand, maar de functies zijn anders. Het is echter niet verplicht om dezelfde technologieën te gebruiken. Deze processen zijn niet transformatiezwaar omdat de gegevens al gestandaardiseerd zijn en bijna klaar voor gebruik. De focus ligt op het gemak van verbruik en integratie met verbruikende diensten.

Consumptie

Deze pijler bestaat uit verschillende verbruikskanalen voor analytische behoeften van ondernemingen. Het omvat gebruikers van business intelligence (BI), standaard en interactieve rapporten, dashboards, data science-workloads, Internet of Things (IoT), webapps en gegevensconsumenten van derden. Populaire verbruiksentiteiten in veel organisaties zijn query's, rapporten en data science-workloads. Omdat er meerdere gegevensarchieven zijn die gegevens met verschillende granulariteit en formaten onderhouden om aan de behoeften van de consument te voldoen, zijn deze verbruikscomponenten afhankelijk van gegevenscatalogi om de juiste bron te vinden.

Gegevensbeheer

Data governance is de sleutel tot het succes van een referentiearchitectuur voor datahubs. Het bestaat uit componenten zoals metadatabeheer, datakwaliteit, afstamming, maskering en rentmeesterschap, die nodig zijn voor georganiseerd onderhoud van de datahub. Metadatabeheer helpt bij het organiseren van de technische en zakelijke metadatacatalogus, en consumenten kunnen deze catalogus raadplegen om te weten welke data beschikbaar is in welke repository en met welke granulariteit, formaat, eigenaren, vernieuwingsfrequentie, enzovoort. Naast metadatabeheer is datakwaliteit belangrijk om het vertrouwen van consumenten te vergroten. Dit omvat gegevensopschoning, validatie, conformiteit en gegevenscontroles.

Beveiliging en bewaking

Toegang tot gebruikers en applicaties moet op meerdere niveaus worden beheerd. Het begint met authenticatie, vervolgens autoriseren wie en wat mag worden benaderd, beleidsbeheer, codering en het toepassen van regels voor gegevenscompliance. Het bevat ook monitoringcomponenten om de activiteit te loggen voor auditing en analyse.

Analytics data hub-oplossingsarchitectuur op AWS

De volgende referentiearchitectuur biedt een AWS-stack voor de oplossingscomponenten.

Laten we elk onderdeel opnieuw bekijken en de relevante AWS-services.

Gegevens inkomende diensten

AWS lijm en Amazon EMR diensten zijn ideaal voor batchverwerking. Ze schalen automatisch en kunnen de meeste industriestandaard dataformaten verwerken. Amazon Kinesis-gegevensstromen, Amazon Kinesis-gegevens Firehose en Amazon Managed Streaming voor Apache Kafka (Amazon MSK) stelt u in staat streaming procesapplicaties te bouwen. Deze streamingdiensten kunnen goed worden geïntegreerd met de Amazon Redshift-streaming functie. Dit helpt u bij het verwerken van realtime bronnen, IoT-gegevens en gegevens van online kanalen. U kunt ook gegevens opnemen met tools van derden, zoals Informatica, dbt en Matallion.

U kunt RESTful API's en WebSocket API's bouwen met behulp van Amazon API-gateway en AWS Lambda, die realtime tweerichtingscommunicatie met webbronnen, sociale en IoT-bronnen mogelijk maakt. AWS-gegevensuitwisseling helpt bij het abonneren op gegevens van derden in AWS Marketplace. Data-abonnement en -toegang wordt volledig beheerd met deze service. Raadpleeg de respectieve servicedocumentatie voor meer details.

Gegevensopslagdiensten

Amazon roodverschuiving is de aanbevolen dataopslagservice voor OLAP-workloads (Online Analytical Processing), zoals datawarehouses in de cloud, datamarts en andere analytische datastores. Deze service vormt de kern van deze referentiearchitectuur op AWS en kan direct aan de meeste analytische behoeften voldoen. U kunt eenvoudige SQL gebruiken om gestructureerde en semi-gestructureerde gegevens in datawarehouses, datamarts, operationele databases en datalakes te analyseren om op elke schaal de beste prijs-prestatieverhouding te leveren. De Amazon Redshift-gegevens delen functie biedt directe, granulaire en krachtige toegang zonder gegevenskopieën en gegevensverplaatsing tussen meerdere Amazon Redshift-datawarehouses in dezelfde of verschillende AWS-accounts en in verschillende regio's.

Voor gebruiksgemak biedt Amazon Redshift een serverloze optie. Amazon Redshift Serverloos voorziet automatisch in datawarehouse-capaciteit en schaalt deze op intelligente wijze om snelle prestaties te leveren voor zelfs de meest veeleisende en onvoorspelbare workloads, en u betaalt alleen voor wat u gebruikt. Laad gewoon uw gegevens en begin meteen met query's in Amazon Redshift Query Editor of in uw favoriete BI-tool en blijf genieten van de beste prijs-kwaliteitverhouding en bekende SQL-functies in een gebruiksvriendelijke omgeving zonder administratie.

Amazon relationele databaseservice (Amazon RDS) is een volledig beheerde service voor het bouwen van transactionele en operationele datastores. U kunt kiezen uit vele populaire engines zoals MySQL, PostgreSQL, MariaDB, Oracle en SQL Server. Met de Amazon Redshift gefedereerde vraag functie kunt u bestaande transactie- en operationele gegevens opvragen zonder de gegevens te verplaatsen. De federatieve queryfunctie ondersteunt momenteel Amazon RDS voor PostgreSQL, Amazon Aurora PostgreSQL-compatibele editie, Amazon RDS voor MySQL en Amazon Aurora MySQL-compatibele editie.

Amazon eenvoudige opslagservice (Amazon S3) is de aanbevolen service voor opslaglagen met meerdere formaten in de architectuur. Het biedt toonaangevende schaalbaarheid, beschikbaarheid van gegevens, beveiliging en prestaties. Organisaties slaan doorgaans gegevens op in Amazon S3 met behulp van open bestandsindelingen. Open bestandsindelingen maken analyse van dezelfde Amazon S3-gegevens mogelijk met behulp van meerdere verwerkings- en verbruikslaagcomponenten. Gegevens in Amazon S3 kunnen eenvoudig op hun plaats worden opgevraagd met behulp van SQL met Amazon Roodverschuivingsspectrum. Het helpt u gestructureerde en semi-gestructureerde gegevens op te vragen en op te halen uit bestanden in Amazon S3 zonder de gegevens te hoeven laden. Meerdere Amazon Redshift-datawarehouses kunnen gelijktijdig dezelfde datasets in Amazon S3 opvragen zonder dat het nodig is om kopieën van de gegevens voor elk datawarehouse te maken.

Gegevens uitgaande diensten

Amazon Redshift wordt geleverd met de webgebaseerde analysewerkbank Query-editor V2.0, waarmee u query's kunt uitvoeren, gegevens kunt verkennen, SQL-notebooks kunt maken en met uw teams in SQL kunt samenwerken aan gegevens via een gemeenschappelijke interface. AWS Transfer-familie helpt bij het veilig overbrengen van bestanden met behulp van SFTP-, FTPS-, FTP- en AS2-protocollen. Het ondersteunt duizenden gelijktijdige gebruikers en is een volledig beheerde service met weinig code. Net als bij inkomende processen kunt u gebruik maken van Amazon API-gateway en AWS Lambda voor data pull met behulp van de Amazon Redshift-gegevens-API. En AWS-gegevensuitwisseling helpt bij het publiceren van uw gegevens naar derden voor gebruik via AWS Marketplace.

Verbruiksdiensten

Amazon QuickSight is de aanbevolen service voor het maken van rapporten en dashboards. Hiermee kunt u interactieve dashboards, visualisaties en geavanceerde analyses maken met ML-inzichten. Amazon Sage Maker is het ML-platform voor al uw behoeften op het gebied van datawetenschap. Het helpt u bij het bouwen, trainen en implementeren van modellen die de gegevens uit opslagplaatsen in de gegevenshub gebruiken. Je kunt gebruiken Amazon front-end web en mobiel diensten en AWS IoT services om web-, mobiele en IoT-eindpunttoepassingen te bouwen om gegevens uit de datahub te verbruiken.

Diensten op het gebied van gegevensbeheer

De AWS-lijmgegevenscatalogus en AWS Lake-formatie zijn de belangrijkste data governance-services die AWS momenteel aanbiedt. Deze services helpen bij het centraal beheren van metadata voor alle datarepository's en het beheren van toegangscontroles. Ze helpen ook bij gegevensclassificatie en kunnen schemawijzigingen automatisch verwerken. Je kunt gebruiken Amazon DataZone om gegevens op schaal te ontdekken en te delen over organisatiegrenzen heen met ingebouwde governance en toegangscontrole. AWS investeert in deze ruimte om een ​​meer uniforme ervaring voor AWS-services te bieden. Er zijn veel partnerproducten zoals Collibra, Alation, Amorphic, Informatica en meer, die u ook kunt gebruiken voor gegevensbeheerfuncties met AWS-services.

Beveiligings- en bewakingsdiensten

AWS Identiteits- en toegangsbeheer (AWS IAM) beheert identiteiten voor AWS-services en -bronnen. U kunt gebruikers, groepen, rollen en beleid definiëren voor fijnmazig toegangsbeheer van uw personeel en werklasten. AWS Sleutelbeheerservice (AWS KMS) beheert AWS-sleutels of door de klant beheerde sleutels voor uw applicaties. Amazon Cloud Watch en AWS CloudTrail helpen bij het bieden van monitoring- en auditmogelijkheden. U kunt statistieken en gebeurtenissen verzamelen en deze analyseren voor operationele efficiëntie.

In dit bericht hebben we de meest voorkomende AWS-services voor de respectieve oplossingscomponenten besproken. U bent echter niet beperkt tot alleen deze services. Er zijn veel andere AWS-services voor specifieke gebruikssituaties die mogelijk beter aansluiten bij uw behoeften dan wat we hier hebben besproken. U kunt contact opnemen met AWS Analytics Solutions Architects voor passende begeleiding.

Voorbeeldarchitecturen voor gaming use cases

In deze sectie bespreken we voorbeeldarchitecturen voor twee gaming use cases.

Analyse van spelgebeurtenissen

In-game-evenementen (ook wel getimede of live-evenementen genoemd) stimuleren de betrokkenheid van spelers door opwinding en anticipatie. Evenementen verleiden spelers tot interactie met het spel, waardoor de tevredenheid van spelers en de inkomsten met in-game aankopen toenemen. Evenementen zijn steeds belangrijker geworden, vooral nu games verschuiven van statische stukken entertainment die moeten worden gespeeld, naar het aanbieden van dynamische en veranderende inhoud door het gebruik van services die informatie gebruiken om beslissingen te nemen over het spelen van games terwijl de game wordt gespeeld. Hierdoor kunnen games veranderen terwijl de spelers spelen en beïnvloeden wat werkt en wat niet, en geeft elk spel een potentieel oneindige levensduur.

Dit vermogen van in-game-evenementen om nieuwe inhoud en activiteiten aan te bieden binnen een vertrouwd kader, zorgt ervoor dat spelers maanden tot jaren betrokken blijven en blijven spelen. Spelers kunnen genieten van nieuwe ervaringen en uitdagingen binnen het vertrouwde kader of de wereld waar ze van zijn gaan houden.

Het volgende voorbeeld laat zien hoe zo'n architectuur eruit zou kunnen zien, inclusief wijzigingen om verschillende onderdelen van het proces te ondersteunen, zoals het opsplitsen van de gegevens in afzonderlijke containers om schaalbaarheid, terugvordering en eigendom mogelijk te maken.

Om volledig te begrijpen hoe evenementen door de spelers worden bekeken en om beslissingen te nemen over toekomstige evenementen, is informatie nodig over hoe het laatste evenement daadwerkelijk is uitgevoerd. Dit betekent het verzamelen van veel gegevens terwijl de spelers spelen om key performance indicators (KPI's) op te bouwen die de effectiviteit en spelerstevredenheid met elk evenement meten. Dit vereist analyses die specifiek elk evenement meten en de spelerservaring voor elk evenement vastleggen, analyseren, rapporteren en meten. Deze KPI's omvatten het volgende:

  • Initiële gebruikersstroominteracties – Welke acties gebruikers ondernemen nadat ze voor het eerst een gebeurtenisupdate in een game hebben ontvangen of gedownload. Zijn er duidelijke afstappunten of knelpunten die mensen afschrikken van het evenement?
  • monetization – Wanneer, wat en waar gebruikers tijdens het evenement geld aan uitgeven, of het nu gaat om het kopen van in-game valuta's, het beantwoorden van advertenties, specials, enzovoort.
  • Spel economie – Hoe kunnen gebruikers virtuele valuta of goederen verdienen en uitgeven tijdens een evenement, met in-game geld, transacties of ruilhandel.
  • Activiteit in het spel - Spelerswinsten, verliezen, nivellering, wedstrijdoverwinningen of spelerprestaties binnen het evenement.
  • Interacties van gebruiker tot gebruiker – Uitnodigingen, cadeaus, chats (privé en groep), uitdagingen, enzovoort tijdens een evenement.

Dit zijn slechts enkele van de KPI's en statistieken die essentieel zijn voor voorspellende modellering van gebeurtenissen naarmate de game nieuwe spelers aantrekt, terwijl bestaande gebruikers betrokken, betrokken en spelend blijven.

Analyse van in-game activiteiten

In-game-activiteitsanalyse kijkt in wezen naar elke zinvolle, doelgerichte activiteit die de speler kan vertonen, met als doel te proberen te begrijpen welke acties worden ondernomen, hun timing en resultaten. Dit omvat situationele informatie over de spelers, inclusief waar ze spelen (zowel geografisch als cultureel), hoe vaak, hoe lang, wat ze ondernemen bij elke login en andere activiteiten.

Het volgende voorbeeld laat zien hoe zo'n architectuur eruit zou kunnen zien, inclusief wijzigingen om verschillende onderdelen van het proces te ondersteunen, zoals het opsplitsen van de gegevens in afzonderlijke magazijnen. De multi-cluster warehouse-benadering helpt de werklast onafhankelijk te schalen, biedt flexibiliteit voor het geïmplementeerde chargeback-model en ondersteunt gedecentraliseerd data-eigendom.

De oplossing registreert in wezen informatie om het gedrag van uw spelers te helpen begrijpen, wat kan leiden tot inzichten die het behoud van bestaande spelers en de werving van nieuwe spelers vergroten. Dit kan de mogelijkheid bieden om het volgende te doen:

  • Geef in-game aankoopaanbevelingen
  • Meet spelerstrends op korte termijn en in de loop van de tijd
  • Plan evenementen waar de spelers aan deelnemen
  • Begrijp welke delen van je game het meest succesvol zijn en welke minder

U kunt dit inzicht gebruiken om beslissingen te nemen over toekomstige game-updates, aanbevelingen te doen voor in-game aankopen, te bepalen wanneer en hoe uw game-economie in evenwicht moet worden gebracht en zelfs spelers toe te staan ​​hun karakter of spel te veranderen naarmate het spel vordert door dit te injecteren. informatie en bijbehorende beslissingen terug in het spel.

Conclusie

Deze referentiearchitectuur biedt weliswaar voorbeelden van slechts enkele analysetypen, maar biedt een sneller technologisch pad voor het mogelijk maken van game-analysetoepassingen. De ontkoppelde, hub/spoke-benadering biedt de behendigheid en flexibiliteit om verschillende benaderingen van analyse te implementeren en inzicht te krijgen in de prestaties van game-applicaties. De speciaal gebouwde AWS-services die in deze architectuur worden beschreven, bieden uitgebreide mogelijkheden voor het eenvoudig verzamelen, opslaan, meten, analyseren en rapporteren van spel- en evenementstatistieken. Dit helpt je om op een efficiënte manier in-game analyses en evenementanalyses uit te voeren, de tevredenheid van spelers te meten en op maat gemaakte aanbevelingen te doen aan gamespelers, evenementen efficiënt te organiseren en retentiepercentages te verhogen.

Bedankt voor het lezen van het bericht. Als je feedback of vragen hebt, laat ze dan achter in de comments.


Over de auteurs

Satesh Sonti is een Sr. Analytics Specialist Solutions Architect gevestigd in Atlanta, gespecialiseerd in het bouwen van enterprise dataplatforms, datawarehousing en analyseoplossingen. Hij heeft meer dan 16 jaar ervaring in het bouwen van data-assets en het leiden van complexe dataplatformprogramma's voor bank- en verzekeringsklanten over de hele wereld.

Tanja Rhodos is een Senior Solutions Architect gevestigd in San Francisco, gericht op gameklanten met de nadruk op analyse, schaalvergroting en prestatieverbetering van games en ondersteunende systemen. Ze heeft meer dan 25 jaar ervaring in bedrijfs- en oplossingsarchitectuur en is gespecialiseerd in zeer grote bedrijfsorganisaties in meerdere bedrijfstakken, waaronder games, banken, gezondheidszorg, hoger onderwijs en deelstaatregeringen.

spot_img

Laatste intelligentie

spot_img