Zephyrnet-logo

Waar u op moet letten bij het migreren van datawarehouses naar Amazon Redshift

Datum:

Klanten migreren datawarehouses naar: Amazon roodverschuiving omdat het snel, schaalbaar en kosteneffectief is. Datawarehouse-migratieprojecten kunnen echter complex en uitdagend zijn. In dit bericht help ik je inzicht te krijgen in de algemene drijfveren van datawarehouse-migratie, migratiestrategieën en welke tools en services beschikbaar zijn om je te helpen bij je migratieproject.

Laten we eerst het big data-landschap bespreken, de betekenis van een moderne data-architectuur en waar u rekening mee moet houden voor uw datawarehouse-migratieproject bij het bouwen van een moderne data-architectuur.

Zakelijke kansen

Gegevens veranderen de manier waarop we werken, leven en spelen. Al deze gedragsverandering en de beweging naar de cloud hebben de afgelopen 20 jaar geleid tot een data-explosie. De verspreiding van Internet of Things en smartphones hebben de hoeveelheid gegevens die elke dag wordt gegenereerd, versneld. Bedrijfsmodellen zijn veranderd, en dat geldt ook voor de behoeften van de mensen die deze bedrijven runnen. We zijn een paar jaar geleden overgegaan van praten over terabytes aan gegevens naar nu petabytes en exabytes aan gegevens. Door gegevens efficiënt aan het werk te zetten en diepgaande zakelijke inzichten op te bouwen op basis van de verzamelde gegevens, kunnen bedrijven in verschillende sectoren en van verschillende grootten een breed scala aan bedrijfsresultaten behalen. Deze kunnen grofweg worden onderverdeeld in de volgende kernactiviteiten:

  • Verbetering van de operationele efficiëntie – Door inzicht te krijgen in de gegevens die zijn verzameld uit verschillende operationele processen, kunnen bedrijven de klantervaring verbeteren, de productie-efficiëntie verhogen en de verkoop- en marketingflexibiliteit vergroten
  • Beter geïnformeerde beslissingen nemen – Door meer betekenisvolle inzichten te ontwikkelen door een volledig beeld van gegevens in een organisatie samen te brengen, kunnen bedrijven beter geïnformeerde beslissingen nemen
  • Innovatie versnellen – Het combineren van interne en externe gegevensbronnen maakt een verscheidenheid aan AI en machine learning (ML) use-cases mogelijk die bedrijven helpen processen te automatiseren en zakelijke kansen te ontsluiten die voorheen onmogelijk of te moeilijk waren om te doen

Zakelijke uitdagingen

Exponentiële datagroei heeft ook zakelijke uitdagingen met zich meegebracht.

Allereerst moeten bedrijven toegang hebben tot alle gegevens in de hele organisatie, en gegevens kunnen in silo's worden gedistribueerd. Het komt uit verschillende bronnen, in een breed scala aan gegevenstypen en in groot volume en snelheid. Sommige gegevens kunnen worden opgeslagen als gestructureerde gegevens in relationele databases. Andere gegevens kunnen worden opgeslagen als semi-gestructureerde gegevens in objectstores, zoals mediabestanden en de clickstream-gegevens die constant vanaf mobiele apparaten worden gestreamd.

Ten tweede moeten bedrijven, om inzichten uit data op te bouwen, diep in de data duiken door analyses uit te voeren. Bij deze analyseactiviteiten zijn over het algemeen tientallen en honderden data-analisten betrokken die tegelijkertijd toegang tot het systeem moeten hebben. Het is vaak een uitdaging om een ​​performant systeem te hebben dat schaalbaar is om aan de vraag naar zoekopdrachten te voldoen. Het wordt ingewikkelder wanneer bedrijven de geanalyseerde gegevens met hun klanten moeten delen.

Last but not least hebben bedrijven een kosteneffectieve oplossing nodig om gegevenssilo's, prestaties, schaalbaarheid, beveiliging en compliance-uitdagingen aan te pakken. Het kunnen visualiseren en voorspellen van kosten is noodzakelijk voor een bedrijf om de kosteneffectiviteit van zijn oplossing te meten.

Om deze uitdagingen op te lossen, hebben bedrijven een toekomstbestendige moderne data-architectuur en een robuust, efficiënt analysesysteem nodig.

Moderne data-architectuur

Een moderne data-architectuur stelt organisaties in staat om elke hoeveelheid data in open formaten op te slaan, losgekoppelde datasilo's af te breken, gebruikers in staat te stellen analyses of ML uit te voeren met behulp van hun favoriete tool of techniek, en te beheren wie toegang heeft tot specifieke stukjes data met de juiste beveiliging en gegevensbeheercontroles.

De AWS-data lake-architectuur is een moderne data-architectuur waarmee u gegevens in een data lake kunt opslaan en een ring van speciaal gebouwde dataservices rond het meer kunt gebruiken, zoals weergegeven in de volgende afbeelding. Hierdoor kunt u snel en wendbaar, op schaal en kosteneffectief beslissingen nemen. Voor meer details, zie: Moderne data-architectuur op AWS.

Modern datawarehouse

Amazon roodverschuiving is een volledig beheerd, schaalbaar, modern datawarehouse dat de tijd tot inzichten versnelt met snelle, gemakkelijke en veilige analyses op schaal. Met Amazon Redshift kun je al je gegevens analyseren en prestaties krijgen op elke schaal met lage en voorspelbare kosten.

Amazon Redshift biedt de volgende voordelen:

  • Analyseer al uw gegevens – Met Amazon Redshift kunt u eenvoudig al uw gegevens in uw datawarehouse en datameer analyseren met consistent beveiligings- en governancebeleid. We noemen dit de moderne data-architectuur. Met Amazon Roodverschuivingsspectrum, kunt u gegevens in uw data lake opvragen zonder te hoeven laden of andere gegevensvoorbereiding. En met data lake-export, kunt u de resultaten van een Amazon Redshift-query terug in het meer opslaan. Dit betekent dat u kunt profiteren van realtime analyses en ML/AI-gebruiksscenario's zonder herarchitectuur, omdat Amazon Redshift volledig is geïntegreerd met uw datameer. Met nieuwe mogelijkheden zoals het delen van gegevens, kunt u eenvoudig gegevens delen tussen Amazon Redshift-clusters, zowel intern als extern, zodat iedereen een live en consistent beeld van de gegevens heeft. Amazon RedshiftML maakt het gemakkelijk om meer met uw gegevens te doen: u kunt ML-modellen maken, trainen en implementeren met bekende SQL-opdrachten rechtstreeks in Amazon Redshift-datawarehouses.
  • Snelle prestaties op elke schaal – Amazon Redshift is een zelfafstemmend en zelflerend systeem waarmee u de beste prestaties voor uw workloads kunt krijgen zonder het ongedifferentieerde zware werk van het afstemmen van uw datawarehouse met taken zoals het definiëren van sorteersleutels en distributiesleutels, en nieuwe mogelijkheden zoals gematerialiseerde opvattingen, auto-refresh en auto-query herschrijven. Amazon Redshift schaalt om consistent snelle resultaten te leveren, van gigabytes tot petabytes aan gegevens en van enkele gebruikers tot duizenden. Naarmate uw gebruikersbestand wordt opgeschaald naar duizenden gelijktijdige gebruikers, gelijktijdigheid schaling Capability implementeert automatisch de benodigde computerbronnen om de extra belasting te beheren. Amazon Redshift RA3-instanties met beheerde opslag gescheiden rekenkracht en opslag, zodat u elk afzonderlijk kunt schalen en alleen betaalt voor de opslag die u nodig heeft. AQUA (Advanced Query Accelerator) voor Amazon Redshift is een nieuwe gedistribueerde en hardware-versnelde cache die automatisch bepaalde soorten zoekopdrachten stimuleert.
  • Eenvoudige analyse voor iedereen – Amazon Redshift is een volledig beheerd datawarehouse dat de last van gedetailleerd infrastructuurbeheer of prestatie-optimalisatie wegneemt. U kunt zich concentreren op het verkrijgen van inzichten, in plaats van het uitvoeren van onderhoudstaken zoals het inrichten van infrastructuur, het maken van back-ups, het instellen van de lay-out van gegevens en andere taken. U kunt gegevens in open formaten gebruiken, bekende SQL-commando's gebruiken en profiteren van queryvisualisaties die beschikbaar zijn via de nieuwe Query-editor v2. U hebt ook toegang tot gegevens vanuit elke toepassing via een beveiligde gegevens-API zonder softwarestuurprogramma's te configureren en databaseverbindingen te beheren. Amazon Redshift is compatibel met business intelligence (BI)-tools, waardoor de kracht en integratie van Amazon Redshift wordt geopend voor zakelijke gebruikers die vanuit de BI-tool werken.

Een moderne data-architectuur met een data lake-architectuur en een modern datawarehouse met Amazon Redshift helpt bedrijven van alle soorten en maten big data-uitdagingen aan te pakken, een grote hoeveelheid data te begrijpen en bedrijfsresultaten te stimuleren. U kunt beginnen met het bouwen van een moderne data-architectuur door uw datawarehouse te migreren naar Amazon Redshift.

Overwegingen bij migratie

Datawarehouse-migratie vormt een uitdaging in termen van projectcomplexiteit en vormt een risico in termen van middelen, tijd en kosten. Om de complexiteit van datawarehouse-migratie te verminderen, is het essentieel om een ​​juiste migratiestrategie te kiezen op basis van uw bestaande datawarehouse-landschap en de hoeveelheid transformatie die nodig is om naar Amazon Redshift te migreren. Dit zijn de belangrijkste factoren die van invloed kunnen zijn op uw beslissing over de migratiestrategie:

  • Maat – De totale omvang van het te migreren brondatawarehouse wordt bepaald door de objecten, tabellen en databases die bij de migratie worden betrokken. Een goed begrip van de databronnen en datadomeinen die nodig zijn om naar Amazon Redshift te verhuizen, leidt tot een optimale omvang van het migratieproject.
  • De overdracht van gegevens – Datawarehouse-migratie omvat gegevensoverdracht tussen de brondatawarehouse-servers en AWS. U kunt gegevens overdragen via een netwerkinterconnectie tussen de bronlocatie en AWS, zoals: AWS Direct Connect of gegevens offline overdragen via de tools of services zoals de AWS Sneeuw Familie.
  • Wijzigingssnelheid gegevens – Hoe vaak vinden er gegevensupdates of wijzigingen plaats in uw datawarehouse? De wijzigingssnelheid van uw bestaande datawarehouse-gegevens bepaalt de update-intervallen die nodig zijn om het brondatawarehouse en de doel-Amazon Redshift synchroon te houden. Een brondatawarehouse met een hoge datawijzigingssnelheid vereist dat de service die overschakelt van de bron naar Amazon Redshift binnen een update-interval wordt voltooid, wat leidt tot een kortere overgangsperiode voor migratie.
  • Datatransformatie – Het verplaatsen van uw bestaande datawarehouse naar Amazon Redshift is een heterogene migratie met gegevenstransformatie zoals datamapping en schemawijziging. De complexiteit van datatransformatie bepaalt de verwerkingstijd die nodig is voor een iteratie van migratie.
  • Migratie- en ETL-tools – De selectie van tools voor migratie en extraheren, transformeren en laden (ETL) kan van invloed zijn op het migratieproject. De inspanningen die nodig zijn voor de implementatie en configuratie van deze tools kunnen bijvoorbeeld variëren. Binnenkort bekijken we de AWS-tools en -services.

Nadat u met al deze overwegingen rekening heeft gehouden, kunt u een migratiestrategie kiezen voor uw Amazon Redshift-migratieproject.

Migratiestrategieën

U kunt kiezen uit drie migratiestrategieën: migratie in één stap, migratie in twee stappen of migratie op basis van golven.

Migratie in één stap is een goede optie voor databases die geen continue bewerking vereisen, zoals continue replicatie, om doorlopende gegevenswijzigingen synchroon te houden tussen de bron en het doel. U kunt bestaande databases extraheren als door komma's gescheiden waarde (CSV)-bestanden, of kolomindeling zoals Parquet, en vervolgens AWS Snow Family-services gebruiken, zoals AWS Sneeuwbal om datasets te leveren aan Amazon eenvoudige opslagservice (Amazon S3) om in Amazon Redshift te laden. Vervolgens test u de bestemmingsdatabase van Amazon Redshift op gegevensconsistentie met de bron. Nadat alle validaties zijn geslaagd, wordt de database overgeschakeld naar AWS.

Migratie in twee stappen wordt vaak gebruikt voor databases van elke grootte die continu moeten worden uitgevoerd, zoals continue replicatie. Tijdens de migratie hebben de brondatabases voortdurende gegevenswijzigingen en continue replicatie houdt gegevenswijzigingen gesynchroniseerd tussen de bron en Amazon Redshift. De verdeling van de migratiestrategie in twee stappen is als volgt:

  • Initiële gegevensmigratie – De gegevens worden geëxtraheerd uit de brondatabase, bij voorkeur tijdens daluren om de impact te minimaliseren. De gegevens worden vervolgens gemigreerd naar Amazon Redshift door de eerder beschreven migratie-aanpak in één stap te volgen.
  • Gewijzigde gegevensmigratie – Gegevens die na de eerste gegevensmigratie in de brondatabase zijn gewijzigd, worden vóór de omschakeling naar de bestemming doorgegeven. Deze stap synchroniseert de bron- en doeldatabases. Nadat alle gewijzigde gegevens zijn gemigreerd, kunt u de gegevens in de doeldatabase valideren en de nodige tests uitvoeren. Zijn alle testen geslaagd, dan stap je over naar het Amazon Redshift datawarehouse.

Op golven gebaseerde migratie is geschikt voor grootschalige datawarehouse-migratieprojecten. Het principe van op golven gebaseerde migratie is het nemen van voorzorgsmaatregelen om een ​​complex migratieproject op te delen in meerdere logische en systematische golven. Deze strategie kan de complexiteit en het risico aanzienlijk verminderen. U begint met een werklast die een groot aantal gegevensbronnen en vakgebieden met een gemiddelde complexiteit bestrijkt, en voegt bij elke volgende golf meer gegevensbronnen en vakgebieden toe. Met deze strategie laat u zowel het brondatawarehouse als de Amazon Redshift-productieomgevingen gedurende een bepaalde tijd parallel draaien voordat u het brondatawarehouse volledig buiten gebruik kunt stellen. Zie je wel Ontwikkel een methode voor applicatiemigratie om uw datawarehouse te moderniseren met Amazon Redshift voor details over het identificeren en groeperen van gegevensbronnen en analysetoepassingen om te migreren van het brondatawarehouse naar Amazon Redshift met behulp van de op golven gebaseerde migratiebenadering.

Raadpleeg de volgende tabel om de overwegingsfactoren met een voorkeursmigratiestrategie in kaart te brengen als leidraad voor uw migratiestrategiebeslissing.

. Migratie in één stap Migratie in twee stappen Op golven gebaseerde migratie
Het aantal vakgebieden in het migratiebereik Kleine Medium tot groot Medium tot groot
Volume gegevensoverdracht Klein tot groot Klein tot groot Klein tot groot
Wijzigingssnelheid gegevens tijdens migratie Geen Minimaal tot frequent Minimaal tot frequent
Complexiteit van gegevenstransformatie Elke Elke Elke
Migratiewijzigingsvenster voor het overschakelen van bron naar doel uren seconden seconden
Duur migratieproject weken Weken tot maanden Maanden

Migratieproces

In deze sectie bekijken we de drie stappen op hoog niveau van het migratieproces. De migratiestrategie in twee stappen en de op golven gebaseerde migratiestrategie omvatten alle drie de migratiestappen. De op golven gebaseerde migratiestrategie omvat echter een aantal iteraties. Omdat alleen databases die geen continue bewerkingen vereisen geschikt zijn voor migratie in één stap, zijn alleen stap 1 en 2 in het migratieproces vereist.

Stap 1: Schema en onderwerpgebied converteren

In deze stap maakt u het brondatawarehouse-schema compatibel met het Amazon Redshift-schema door het brondatawarehouse-schema te converteren met behulp van schemaconversietools zoals AWS Schema Conversie Tool (AWS SCT) en de andere tools van AWS-partners. In sommige situaties moet u mogelijk ook aangepaste code gebruiken om complexe schemaconversies uit te voeren. In een later gedeelte gaan we dieper in op AWS SCT en best practices voor migratie.

Stap 2: Initiële gegevensextractie en laden

In deze stap voltooit u de eerste gegevensextractie en laadt u de brongegevens voor de eerste keer in Amazon Redshift. Je kunt gebruiken AWS SCT-gegevensextractors om gegevens uit het brondatawarehouse te extraheren en gegevens naar Amazon S3 te laden als uw gegevensomvang en gegevensoverdrachtsvereisten u toelaten om gegevens over het onderling verbonden netwerk over te dragen. Als alternatief, als er beperkingen zijn, zoals de limiet van de netwerkcapaciteit, kunt u gegevens naar Snowball laden en van daaruit worden gegevens naar Amazon S3 geladen. Wanneer de gegevens in het brondatawarehouse beschikbaar zijn op Amazon S3, worden deze geladen in Amazon Redshift. In situaties waarin de native tools van het brondatawarehouse een betere taak voor het ontladen en laden van gegevens uitvoeren dan AWS SCT-gegevensextractors, kunt u ervoor kiezen om de native tools te gebruiken om deze stap te voltooien.

Stap 3: Delta en incrementele belasting

In deze stap gebruikt u AWS SCT en soms native datawarehouse-tools voor het vastleggen en laden van delta- of incrementele wijzigingen van bronnen naar Amazon Redshift. Dit wordt vaak change data capture (CDC) genoemd. CDC is een proces dat wijzigingen in een database vastlegt en ervoor zorgt dat die wijzigingen worden gerepliceerd naar een bestemming zoals een datawarehouse.

U zou nu voldoende informatie moeten hebben om een ​​migratieplan voor uw datawarehouse te ontwikkelen. In het volgende gedeelte ga ik dieper in op de AWS-services die u kunnen helpen bij het migreren van uw datawarehouse naar Amazon Redshift, en de best practices voor het gebruik van deze services om een ​​succesvolle levering van uw datawarehouse-migratieproject te versnellen.

Datawarehouse-migratieservices

Datawarehouse-migratie omvat een reeks services en tools om het migratieproces te ondersteunen. U begint met het maken van een beoordelingsrapport voor databasemigratie en converteert vervolgens het brongegevensschema om compatibel te zijn met Amazon Redshift met behulp van AWS SCT. Om gegevens te verplaatsen, kunt u de AWS SCT-tool voor gegevensextractie gebruiken, die is geïntegreerd met: AWS-gegevensmigratieservice (AWS DMS) om AWS DMS-taken te maken en te beheren en gegevensmigratie te orkestreren.

Om brongegevens over te dragen via het onderling verbonden netwerk tussen de bron en AWS, kunt u gebruik maken van: AWS-opslaggateway, Amazon Kinesis-gegevens Firehose, Directe verbinding, AWS Transfer Family-services, Amazon S3 Transfer Acceleratie en AWS-gegevenssynchronisatie. Voor datawarehouse-migratie met een grote hoeveelheid gegevens, of als er beperkingen zijn met de onderling verbonden netwerkcapaciteit, kunt u gegevens overdragen met behulp van de AWS Snow-servicefamilie. Met deze aanpak kunt u de gegevens naar het apparaat kopiëren, terugsturen naar AWS en de gegevens laten kopiëren naar Amazon Redshift via Amazon S3.

AWS SCT is een essentiële service om uw datawarehouse-migratie naar Amazon Redshift te versnellen. Laten we er dieper in duiken.

Migreren met AWS SCT

AWS SCT automatiseert een groot deel van het proces van het converteren van uw datawarehouse-schema naar een Amazon Redshift-databaseschema. Omdat de bron- en doeldatabase-engines veel verschillende functies en mogelijkheden kunnen hebben, probeert AWS SCT waar mogelijk een equivalent schema in uw doeldatabase te creëren. Als directe conversie niet mogelijk is, maakt AWS SCT een beoordelingsrapport voor databasemigratie om u te helpen uw schema te converteren. Het beoordelingsrapport voor databasemigratie biedt belangrijke informatie over de conversie van het schema van uw brondatabase naar uw doeldatabase. Het rapport vat alle schemaconversietaken samen en geeft details over de actie-items voor schemaobjecten die niet kunnen worden geconverteerd naar de DB-engine van uw doeldatabase. Het rapport bevat ook schattingen van de hoeveelheid inspanning die het kost om de equivalente code in uw doeldatabase te schrijven die niet automatisch kan worden geconverteerd.

Opslagoptimalisatie is het hart van een datawarehouse-conversie. Bij gebruik van uw Amazon Redshift-database als bron en een test-Amazon Redshift-database als doel, raadt AWS SCT sorteersleutels en distributiesleutels aan om uw database te optimaliseren.

Met AWS SCT kunt u de volgende datawarehouse-schema's converteren naar Amazon Redshift:

  • Amazon roodverschuiving
  • Azure Synapse Analytics (versie 10)
  • Greenplum Database (versie 4.3 en hoger)
  • Microsoft SQL Server (versie 2008 en later)
  • Netezza (versie 7.0.3 en hoger)
  • Oracle (versie 10.2 en hoger)
  • Sneeuwvlok (versie 3)
  • Teradata (versie 13 en hoger)
  • Vertica (versie 7.2 en hoger)

At
AWS, we blijven nieuwe functies en verbeteringen uitbrengen om ons product te verbeteren. Ga voor de nieuwste ondersteunde conversies naar de AWS SCT-gebruikershandleiding.

Gegevens migreren met AWS SCT-tool voor gegevensextractie

U kunt een AWS SCT-tool voor gegevensextractie gebruiken om gegevens uit uw on-premises datawarehouse te extraheren en te migreren naar Amazon Redshift. De agent extraheert uw gegevens en uploadt de gegevens naar Amazon S3 of, voor grootschalige migraties, naar een AWS Snowball Family-service. U kunt vervolgens AWS SCT gebruiken om de gegevens naar Amazon Redshift te kopiëren. Amazon S3 is een opslag- en ophaalservice. Om een ​​object op te slaan in Amazon S3, upload je het bestand dat je wilt opslaan naar een S3-bucket. Wanneer u een bestand uploadt, kunt u machtigingen instellen voor het object en ook voor eventuele metagegevens.

Bij grootschalige migraties waarbij gegevens worden geüpload naar een AWS Snowball Family-service, kunt u op wizards gebaseerde workflows in AWS SCT gebruiken om het proces te automatiseren waarin de tool voor gegevensextractie AWS DMS orkestreert om de daadwerkelijke migratie uit te voeren.

Overwegingen voor Amazon Redshift-migratietools

Overweeg de volgende tips en best practices om de migratie van datawarehouses naar Amazon Redshift te verbeteren en te versnellen. Deze lijst is niet uitputtend. Zorg dat je je datawarehouse-profiel goed begrijpt en bepaal welke best practices je kunt gebruiken voor je migratieproject.

  • Gebruik AWS SCT om een ​​migratiebeoordelingsrapport te maken en de migratie-inspanning te bereiken.
  • Automatiseer waar mogelijk migratie met AWS SCT. De ervaring van onze klanten leert dat AWS SCT de meeste DDL- en SQL-scripts automatisch kan maken.
  • Als geautomatiseerde schemaconversie niet mogelijk is, gebruik dan aangepaste scripting voor de codeconversie.
  • Installeer AWS SCT-gegevensextractoragents zo dicht mogelijk bij de gegevensbron om de prestaties en betrouwbaarheid van de gegevensmigratie te verbeteren.
  • Om de prestaties van gegevensmigratie te verbeteren, moet u uw Amazon Elastic Compute-cloud (Amazon EC2) instantie en de equivalente virtuele machines waarop de gegevensextractoragents zijn geïnstalleerd.
  • Configureer meerdere gegevensextractoragents om meerdere taken parallel uit te voeren om de gegevensmigratieprestaties te verbeteren door het gebruik van de toegewezen netwerkbandbreedte te maximaliseren.
  • Pas de AWS SCT-geheugenconfiguratie aan om de conversieprestaties van het schema te verbeteren.
  • Gebruik Amazon S3 om de grote objecten zoals afbeeldingen, pdf's en andere binaire gegevens uit uw bestaande datawarehouse op te slaan.
  • Als u grote tabellen wilt migreren, gebruikt u virtuele partitionering en maakt u subtaken om de prestaties van gegevensmigratie te verbeteren.
  • Begrijp de use cases van AWS-services zoals Direct Connect, de AWS Transfer Family en de AWS Snow Family. Selecteer de juiste service of tool om aan uw gegevensmigratievereisten te voldoen.
  • Begrijp AWS-servicequota en neem weloverwogen beslissingen over migratieontwerp.

Samengevat

Gegevens groeien sneller dan ooit in volume en complexiteit. Slechts een fractie van dit waardevolle bezit is echter beschikbaar voor analyse. Traditionele on-premises datawarehouses hebben rigide architecturen die niet kunnen worden geschaald voor moderne toepassingen van big data-analyse. Deze traditionele datawarehouses zijn duur om op te zetten en te exploiteren en vereisen grote initiële investeringen in zowel software als hardware.

In dit bericht bespraken we Amazon Redshift als een volledig beheerd, schaalbaar, modern datawarehouse dat je kan helpen al je data te analyseren en prestaties te bereiken op elke schaal met lage en voorspelbare kosten. Om uw datawarehouse naar Amazon Redshift te migreren, moet u rekening houden met een aantal factoren, zoals de totale omvang van het datawarehouse, de snelheid waarmee gegevens worden gewijzigd en de complexiteit van de gegevenstransformatie, voordat u een geschikte migratiestrategie en -proces kiest om de complexiteit en kosten van uw datawarehouse-migratieproject. Met AWS-services zoals AWS SCT en AWS DMS, en door de tips en best practices van deze services over te nemen, kunt u migratietaken automatiseren, migratie opschalen, de levering van uw datawarehouse-migratieproject versnellen en uw klanten verrassen.


Over de auteur

Lewis Tang is Senior Solutions Architect bij Amazon Web Services in Sydney, Australië. Lewis biedt partners begeleiding bij een breed scala aan AWS-services en helpt partners om de groei van de AWS-praktijk te versnellen.

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?