AWS Lake Formation und der AWS Glue Data Catalog bilden einen integralen Bestandteil einer Data-Governance-Lösung für Data Lakes, die auf Amazon basiert ...
Mit Amazon EMR 6.15 haben wir auf AWS Lake Formation basierende feinkörnige Zugriffskontrollen (FGAC) auf Open Table Formats (OTFs) eingeführt, darunter Apache Hudi, Apache Iceberg, ...
Dies ist ein Gastbeitrag, der gemeinsam mit Mukul Sharma, Software-Entwicklungsingenieur, und Ozcan IIkhan, Director of Engineering von GoDaddy, verfasst wurde. GoDaddy unterstützt alltägliche Unternehmer ...
Amazon EMR Serverless bietet eine serverlose Laufzeitumgebung, die den Betrieb von Analyseanwendungen vereinfacht, die die neuesten Open-Source-Frameworks wie Apache Spark verwenden.
Im Jahr 2022 haben wir Ihnen von den neuen Verbesserungen erzählt, die wir in Amazon EMR Managed Scaling vorgenommen haben und die dazu beigetragen haben, die Cluster-Auslastung zu verbessern und...
Dieser Beitrag wurde in Zusammenarbeit mit Elijah Ball von Ontraport verfasst. Kunden implementieren Daten- und Analyse-Workloads in der AWS Cloud, um...
Apache Hive ist ein SQL-basiertes Data Warehouse-System zur Verarbeitung stark verteilter Datensätze auf der Apache Hadoop-Plattform. Es gibt zwei Schlüsselkomponenten, um...
Im heutigen digitalen Zeitalter ist die Protokollierung ein entscheidender Aspekt der Anwendungsentwicklung und -verwaltung, aber die effiziente Verwaltung von Protokollen unter Einhaltung der Datenschutzbestimmungen ...
Wir haben kürzlich die Unterstützung für feinkörnige Zugriffskontrollrichtlinien von AWS Lake Formation in Amazon Athena-Abfragen für Daten angekündigt, die in einem beliebigen unterstützten Dateiformat gespeichert sind...
Amazon SageMaker Data Wrangler reduziert die Zeit, die zum Aggregieren und Vorbereiten von Daten für maschinelles Lernen (ML) benötigt wird, von Wochen auf Minuten in Amazon...
Einführung Apache Flume ist ein Tool/Dienst/Datenerfassungsmechanismus zum Sammeln, Aggregieren und Bereitstellen riesiger Mengen von Streaming-Daten aus verschiedenen Quellen, wie z. B. Protokolldateien, ...
Einführung Big Data ist ein großer und komplexer Datensatz, der aus verschiedenen Quellen generiert wird und exponentiell wächst. Sie ist so umfangreich und vielfältig, dass traditionelle Daten...