Zephyrnet Logosu

Apache Flink için Amazon Yönetilen Hizmeti artık Apache Flink sürüm 1.18'i destekliyor | Amazon Web Hizmetleri

Tarih:

Apache Flink'i durum bilgisi olan işleme ve olay zamanı semantiği için birinci sınıf desteğin yanı sıra hem akış hem de toplu işleme için güçlü programlama arayüzleri sunan açık kaynaklı bir dağıtılmış işleme motorudur. Apache Flink birden fazla programlama dilini, Java, Python, Scala, SQL'i ve aynı uygulamada birbirinin yerine kullanılabilen farklı soyutlama düzeylerine sahip birden fazla API'yi destekler.

Apache Flink için Amazon Yönetilen HizmetiApache Flink uygulamalarını çalıştırmada tümüyle yönetilen, sunucusuz bir deneyim sunan , artık Apache Flink 1.18.1, bu yazının yazıldığı sırada Apache Flink'in en son sürümü.

Bu yazıda, Apache Flink'in en yeni ana sürümleri olan 1.16, 1.17 ve 1.18 ile sunulan ve artık Apache Flink için Yönetilen Hizmet'te desteklenen bazı ilginç yeni özelliklerini ve yeteneklerini tartışıyoruz.

Yeni konektörler

Apache Flink'in 1.18.1 sürümüyle sunulan yeni işlevlerine dalmadan önce, birçok yeni açık kaynak bağlayıcının kullanıma sunulmasından kaynaklanan yeni yetenekleri inceleyelim.

Aramayı Aç

Özel Aramayı Aç bağlayıcı artık projelerinize dahil edilmeye hazır ve Apache Flink uygulamasının Elasticsearch uyumluluk moduna bağlı kalmadan doğrudan OpenSearch'e veri yazmasını sağlıyor. Bu konektör aşağıdakilerle uyumludur: Amazon Açık Arama Hizmeti sağlanmış ve OpenSearch Hizmeti Sunucusuz.

Bu yeni konektör şunları destekler: SQL ve Tablo API'lerihem Java hem de Python ile çalışan ve Veri Akışı API'si, yalnızca Java için. Kutudan çıktığı haliyle, yazma işlemlerini Flink kontrol noktasıyla senkronize ederek en az bir kez garanti sağlar. Deterministik kimlikleri ve upsert yöntemini kullanarak tam olarak bir kez anlambilim elde edebilirsiniz.

Bağlayıcı varsayılan olarak OpenSearch sürüm 1.x istemci kitaplıklarını kullanır. 2.x sürümüne şu şekilde geçebilirsiniz: doğru bağımlılıkları ekleme.

Amazon DinamoDB

Apache Flink geliştiricileri artık verileri yazmak için özel bir bağlayıcı kullanabilir Amazon DinamoDB. Bu bağlayıcı dayanmaktadır Apache Flink AsyncSinkAWS tarafından geliştirilen ve artık Apache Flink projesinin ayrılmaz bir parçası olan, engellemeyen yazma istekleri ve uyarlanabilir toplu işlem kullanarak verimli havuz bağlayıcılarının uygulanmasını basitleştirmek için.

Bu konektör aynı zamanda her ikisini de destekler SQL ve Tablo API'ler, Java ve Python ve Veri akışı API, yalnızca Java için. Varsayılan olarak havuz, verimi optimize etmek için toplu olarak yazar. SQL sürümünün dikkate değer bir özelliği PARTITIONED BY cümleciğinin desteklenmesidir. Bir veya daha fazla anahtar belirterek, her toplu yazmada yalnızca anahtar başına en son kaydı göndererek istemci tarafında tekilleştirme elde edebilirsiniz. Her grupta üzerine yazılacak bölüm anahtarlarının bir listesini belirleyerek DataStream API ile eşdeğer bir sonuç elde edilebilir.

Bu konektör yalnızca lavabo olarak çalışır. DynamoDB'den okumak için kullanamazsınız. DynamoDB'de veri aramak için yine de Flink Async G/Ç API'si veya SQL için özel bir kullanıcı tanımlı işlevin (UDF) uygulanması.

MongoDB

Bir başka ilginç konektör ise MongoDB. Bu durumda, hem kaynak hem de lavabo mevcuttur; SQL ve Tablo API'ler ve Veri akışı API'dir. Yeni bağlayıcı artık resmi olarak Apache Flink projesinin bir parçası ve topluluk tarafından destekleniyor. Bu yeni bağlayıcı, doğrudan MongoDB tarafından sağlanan ve yalnızca eski Flink Sink ve Source API'lerini destekleyen eski bağlayıcının yerini alır.

Diğer veri deposu bağlayıcılarında olduğu gibi kaynak, toplu modda sınırlı bir kaynak olarak veya aramalar için kullanılabilir. Havuz, hem toplu modda hem de akışta çalışır ve hem yukarı hem de ekleme modunu destekler.

Bu bağlayıcının birçok dikkate değer özelliği arasında, kaynağı aramalar için kullanırken önbelleğe almayı etkinleştirme yeteneğinden bahsetmeye değer. Kutunun dışında, lavabo en az bir kez garantiyi destekler. Bir birincil anahtar tanımlandığında, havuz, eş düzeyli artışlar aracılığıyla tam olarak bir kez anlambilimi destekleyebilir. Havuz bağlayıcı ayrıca, birincil anahtar tanımlandığında, idempotent artışlarla tam olarak bir kez semantiğini destekler.

Yeni bağlayıcı sürümü oluşturma

Yeni bir özellik olmasa da eski bir Apache Flink uygulamasını güncellerken dikkate alınması gereken önemli bir faktör, yeni bağlayıcı sürümüdür. Apache Flink sürüm 1.17'den itibaren çoğu bağlayıcı ana Apache Flink dağıtımından dışsallaştırılmıştır ve bağımsız sürümlendirmeyi takip etmektedir.

Doğru bağımlılığı eklemek için yapı sürümünü formla belirtmeniz gerekir: <connector-version>-<flink-version>

Örneğin, en yeni Kafka bağlayıcısı da şu şekilde çalışıyor: Apache Kafka için Amazon Tarafından Yönetilen Akış (Amazon MSK), bu yazının yazıldığı sırada 3.1.0 sürümüdür. Apache Flink 1.18 kullanıyorsanız kullanılacak bağımlılık şu şekilde olacaktır:

<dependency> 
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-connector-kafka</artifactId> 
    <version>3.1.0-1.18</version>
</dependency>

İçin Amazon Kinesisyeni bağlayıcı sürümü 4.2.0'dır. Apache Flink 1.18'in bağımlılığı şu şekilde olacaktır:

<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-connector-kinesis</artifactId> 
    <version>4.2.0-1.18</version>
</dependency>

Aşağıdaki bölümlerde artık Apache Flink 1.18'de mevcut olan ve Amazon Managed Service for Apache Flink'te desteklenen güçlü yeni özelliklerin daha fazlasını tartışacağız.

SQL

Apache Flink SQL'de kullanıcılar şunları sağlayabilir: ipuçları Optimize edicinin sorgu planında bir etkiye sahip olmasını önermek için kullanılabilecek sorguları birleştirmek için. Özellikle akış uygulamalarında, arama katılıyor akış verilerini temsil eden bir tabloyu, harici bir sistemden, genellikle bir veritabanından sorgulanan verilerle zenginleştirmek için kullanılır. Sürüm 1.16'dan bu yana, arama birleştirmeleri için, birleştirme davranışını ayarlamanıza ve performansı artırmanıza olanak tanıyan çeşitli iyileştirmeler getirildi:

  • Arama önbelleği en sık kullanılan kayıtları bellekte önbelleğe almanıza olanak tanıyan ve veritabanı üzerindeki baskıyı azaltan güçlü bir özelliktir. Daha önce arama önbelleği bazı bağlayıcılara özeldi. Apache Flink 1.16'dan bu yana, bu seçenek dahili olarak aramayı destekleyen tüm bağlayıcılar tarafından kullanılabilir hale geldi (FLIP-221). Bu yazı itibariyle, JDBC, kovan, ve HBaz bağlayıcılar arama önbelleğini destekler. Arama önbelleğinde üç kullanılabilir mod bulunur: FULLTamamen hafızada tutulabilecek küçük bir veri seti için, PARTIAL, büyük bir veri kümesi için yalnızca en son kayıtları önbelleğe almak veya NONEÖnbelleği tamamen devre dışı bırakmak için. İçin PARTIAL önbellekte, ara belleğe alınacak satır sayısını ve yaşam süresini de yapılandırabilirsiniz.
  • Eşzamansız arama performansı büyük ölçüde artırabilecek başka bir özelliktir. Eşzamansız arama, Apache Flink SQL'de aşağıdakine benzer bir işlevsellik sağlar: Eşzamansız G/Ç DataStream API'sinde mevcuttur. Apache Flink'in, önceki aramalara yanıtlar alınana kadar işleme akışını engellemeden veritabanına yeni istekler göndermesine olanak tanır. Eşzamansız G/Ç'ye benzer şekilde, sıralamayı zorunlu kılmak veya sırasız sonuçlara izin vermek veya arabellek kapasitesini ve zaman aşımını ayarlamak için eşzamansız aramayı yapılandırabilirsiniz.
  • Ayrıca bir yapılandırabilirsiniz aramayı yeniden deneme stratejisi ile bütünlüğünde PARTIAL or NONE arama önbelleği, harici veritabanında başarısız bir arama durumunda davranışı yapılandırmak için.

Tüm bu davranışlar bir kontrol kullanılarak kontrol edilebilir. LOOKUP Eşzamansız aramayı kullanarak bir arama birleşimini gösterdiğimiz aşağıdaki örnekte olduğu gibi ipucu:

SELECT 
    /*+ LOOKUP('table'='Customers', 'async'='true', 'output-mode'='allow_unordered') */ 
    O.order_id, O.total, C.address
FROM Orders AS O 
JOIN Customers FOR SYSTEM_TIME AS OF O.proc_time AS C 
  ON O.customer_id = O.customer_id

PyFlink

Bu bölümde PyFlink'teki yeni iyileştirmeleri ve desteği tartışıyoruz.

Python3.10 desteği

Apache Flink'in en yeni sürümleri, PyFlink kullanıcıları için çeşitli iyileştirmeler getirdi. Her şeyden önce Python 3.10 artık destekleniyor ve Python 3.6 desteği tamamen kaldırıldı (FLINK-29421). Apache Flink için Yönetilen Hizmet şu anda PyFlink uygulamalarını çalıştırmak için Python 3.10 çalışma zamanını kullanıyor.

Özellik eşitliğine yaklaşma

Programlama API'si açısından bakıldığında PyFlink, her sürümde Java'ya yaklaşıyor. DataStream API artık yan çıkışlar ve yayın durumu gibi özellikleri destekliyor ve pencereleme API'sindeki boşluklar kapatıldı. PyFlink ayrıca artık aşağıdaki gibi yeni bağlayıcıları da destekliyor: Amazon Kinesis Veri Akışları doğrudan DataStream API'sinden.

Konu modu iyileştirmeleri

PyFlink çok verimlidir. Flink API operatörlerini PyFlink'te çalıştırmanın ek yükü Java veya Scala ile karşılaştırıldığında minimum düzeydedir çünkü çalışma zamanı, uygulamanızın dilinden bağımsız olarak operatör uygulamasını doğrudan JVM'de çalıştırır. Ancak kullanıcı tanımlı bir işleviniz olduğunda işler biraz farklıdır. Bu kadar basit bir Python kodu satırı lambda x: x + 1veya Pandas işlevi kadar karmaşık bir Python çalışma zamanında çalışmalıdır.

Varsayılan olarak Apache Flink, JVM'nin dışında her Görev Yöneticisinde bir Python çalışma zamanı çalıştırır. Her kayıt serileştirilir, işlemler arası iletişim yoluyla Python çalışma zamanına iletilir, seri durumdan çıkarılır ve Python çalışma zamanında işlenir. Sonuç daha sonra serileştirilir ve seri durumdan çıkarılacağı JVM'ye geri gönderilir. Bu PyFlink'tir PROSES modu. Oldukça kararlıdır ancak ek yük getirir ve bazı durumlarda performans darboğazı haline gelebilir.

Sürüm 1.15'ten bu yana Apache Flink ayrıca şunları da desteklemektedir: İPLİK modu PyFlink için. Bu modda, Python kullanıcı tanımlı işlevler JVM'nin kendisinde çalıştırılarak serileştirme/seri durumdan çıkarma ve işlemler arası iletişim yükünü ortadan kaldırır. THREAD modu var bazı sınırlamalar; örneğin, THREAD modu Pandalar veya UDAF'ler (birçok giriş kaydı ve bir çıkış kaydından oluşan kullanıcı tanımlı toplama işlevleri) için kullanılamaz, ancak bir PyFlink uygulamasının performansını önemli ölçüde artırabilir.

Sürüm 1.16 ile THREAD modunun desteği, Python DataStream API'yi de kapsayacak şekilde önemli ölçüde genişletildi.

THREAD modu, Apache Flink için Yönetilen Hizmet tarafından desteklenir ve doğrudan PyFlink uygulamanızdan etkinleştirildi.

Apple Silikon desteği

PyFlink 1.15 için geliştirme yapan PyFlink uygulamalarını geliştirmek için Apple Silicon tabanlı makineler kullanıyorsanız, muhtemelen Apple Silicon'da bilinen Python bağımlılık sorunlarından bazılarıyla karşılaşmışsınızdır. Bu sorunlar nihayet çözüldü (FLINK-25188). Bu sınırlamalar, Apache Flink için Yönetilen Hizmet üzerinde çalışan PyFlink uygulamalarını etkilememiştir. 1.16 sürümünden önce, M1, M2 veya M3 yonga setini kullanan bir makinede PyFlink uygulaması geliştirmek istiyorsanız bazı uygulamaları kullanmanız gerekiyordu. geçici çözümler, çünkü PyFlink 1.15 veya önceki sürümünü doğrudan makineye yüklemek imkansızdı.

Hizalanmamış kontrol noktası iyileştirmeleri

Apache Flink 1.15, Artımlı Kontrol Noktalarını ve Arabellek Boşaltma'yı zaten destekliyordu. Bu özellikler, kontrol noktası performansını iyileştirmek ve özellikle karşı basınç varlığında kontrol noktası süresini daha öngörülebilir hale getirmek için özellikle kombinasyon halinde kullanılabilir. Bu özellikler hakkında daha fazla bilgi için bkz. Arabellek boşaltma ve hizalanmamış kontrol noktalarıyla Apache Flink uygulamaları için Amazon Yönetilen Hizmetinizde kontrol noktası oluşturmayı optimize edin.

1.16 ve 1.17 sürümlerinde kararlılığı ve performansı artırmak için çeşitli değişiklikler yapıldı.

Veri çarpıklığını yönetme

Apache Flink'in kullanım alanları olay zamanı semantiğini desteklemek için filigranlar. Filigranlar, normalde kaynak işlecinden gelen akışa enjekte edilen ve olay zamanı pencereleme toplamaları gibi işleçler için olay zamanının ilerleyişini işaretleyen özel kayıtlardır. Yaygın bir teknik, olayların en azından bir dereceye kadar sıra dışı olmasına izin vermek için filigranları en son gözlemlenen olay zamanından geciktirmektir.

Ancak filigranların kullanımı bazı zorlukları da beraberinde getiriyor. Uygulama birden fazla kaynağa sahip olduğunda, örneğin bir Kafka konusunun birden çok bölümünden olaylar aldığında, filigranlar her bölüm için bağımsız olarak oluşturulur. Dahili olarak her operatör, tüm giriş bölümlerinde her zaman aynı filigranı bekler ve onu pratik olarak en yavaş bölüme hizalar. Bunun dezavantajı, bölümlerden birinin veri almaması durumunda filigranların ilerlememesi ve uçtan uca gecikmenin artmasıdır. Bu nedenle bir isteğe bağlı boşta kalma zaman aşımı birçok akış kaynağında tanıtıldı. Yapılandırılmış zaman aşımından sonra filigran oluşturma işlemi, herhangi bir kayıt almayan bölümleri yok sayar ve filigranlar ilerleyebilir.

Bir kaynağın olayları diğerlerinden çok daha hızlı alması durumunda da benzer ancak tam tersi bir zorlukla karşılaşabilirsiniz. Filigranlar en yavaş bölüme hizalanır; bu, herhangi bir pencereleme toplamasının filigranı bekleyeceği anlamına gelir. Hızlı kaynaktan gelen kayıtların ara belleğe alınmasını beklemesi gerekir. Bu, aşırı miktarda verinin ara belleğe alınmasına ve operatör durumunun kontrol edilemeyen büyümesine neden olabilir.

Daha hızlı kaynaklar sorununu çözmek için Apache Flink 1.17'den başlayarak kaynak bölmelerinin filigran hizalamasını etkinleştirebilirsiniz (FLINK-28853). Varsayılan olarak devre dışı bırakılan bu mekanizma, diğer bölümlere kıyasla hiçbir bölümün filigranlarını çok hızlı ilerletmemesini sağlar. Birden çok giriş konusu gibi birden çok kaynağı birbirine bağlayabilir, aynı hizalama grubu kimliğini atayabilir ve geçerli filigrandan maksimum sapmanın süresini yapılandırabilirsiniz. Belirli bir bölüm olayları çok hızlı alıyorsa kaynak operatörü, sapma yapılandırılan eşiğin altına düşene kadar bu bölümün tüketimini duraklatır.

Her kaynak için ayrı ayrı etkinleştirebilirsiniz. İhtiyacınız olan tek şey, aynı kimliğe sahip tüm kaynakları ve mevcut minimum filigrandan maksimum sapmanın süresini birbirine bağlayacak bir hizalama grubu kimliğini belirtmektir. Bu, sürüklenme belirtilen eşikten düşük olana kadar çok hızlı ilerleyen kaynak alt görevinin tüketimini duraklatacaktır.

Aşağıdaki kod parçacığı, sınırlı sıra dışı filigranlar yayan bir Kafka kaynağında kaynak bölmelerinin filigran hizalamasını nasıl ayarlayabileceğinizi gösterir:

KafkaSource<Event> kafkaSource = ...
DataStream<Event> stream = env.fromSource(
    kafkaSource,
    WatermarkStrategy.<Event>forBoundedOutOfOrderness( Duration.ofSeconds(20))
        .withWatermarkAlignment("alignment-group-1", Duration.ofSeconds(20), Duration.ofSeconds(1)),
    "Kafka source"));

Bu özellik yalnızca FLIP-217 Kaynak bölmelerinin filigran hizalamasını destekleyen uyumlu kaynaklar. Yazım itibarıyla, başlıca akış kaynağı bağlayıcıları arasında yalnızca Kafka kaynağı bu özelliği desteklemektedir.

Protobuf formatı için doğrudan destek

SQL ve Tablo API'leri artık doğrudan destekliyor Protobuf formatı. Bu formatı kullanmak için Protobuf Java sınıflarını oluşturmanız gerekir. .proto şema tanım dosyalarını oluşturun ve bunları uygulamanıza bağımlılıklar olarak ekleyin.

Protobuf biçimi yalnızca SQL ve Tablo API'leriyle çalışır ve yalnızca Protobuf ile serileştirilmiş verileri bir kaynaktan veya havuza okumak veya yazmak için çalışır. Şu anda Flink, durumu doğrudan seri hale getirmek için Protobuf'u doğrudan desteklememektedir ve şema gelişimini desteklememektedir. Avro, Örneğin. Hala kayıt olmanız gerekiyor özel serileştirici uygulamanız için biraz ek yük ile.

Apache Flink'i açık kaynak tutmak

Apache Flink, alt görevler arasında veri göndermek için dahili olarak Akka'ya güveniyor. 2022 yılında Akka'nın arkasındaki şirket Lightbend, lisans değişikliğini duyurdu Apache 2.0'dan daha kısıtlayıcı bir lisansa kadar gelecekteki Akka sürümleri için ve Apache Flink tarafından kullanılan Akka 2.6 sürümünün başka bir güvenlik güncellemesi veya düzeltmesi almayacağını söyledi.

Akka tarihsel olarak çok kararlı olmasına ve sık güncelleme gerektirmemesine rağmen, bu lisans değişikliği Apache Flink projesi için bir risk teşkil ediyordu. Apache Flink topluluğunun kararı, Akka'yı 2.6 sürümünün bir çatalıyla değiştirmekti. Apaçi Pekko (FLINK-32468). Bu çatal Apache 2.0 lisansını koruyacak ve topluluk tarafından gerekli güncellemeleri alacaktır. Bu arada Apache Flink topluluğu Akka'ya mı yoksa Pekko'ya olan bağımlılığın tamamen kaldırılıp kaldırılmayacağını değerlendirecek.

Durum sıkıştırması

Apache Flink, tüm kontrol noktaları ve kayıt noktaları için isteğe bağlı sıkıştırma (varsayılan: kapalı) sunar. Apache Flink bir hata tespit etti Flink 1.18.1'de, anlık görüntü sıkıştırması etkinleştirildiğinde operatör durumunun düzgün şekilde geri yüklenememesi. Bu, veri kaybına veya denetim noktasından geri yükleme yapılamamasına neden olabilir. Bunu çözmek için Apache Flink için Yönetilen Hizmet, düzeltmek bu Apache Flink'in gelecek sürümlerine dahil edilecektir.

Apache Flink için Yönetilen Hizmet ile yerinde sürüm yükseltmeleri

Şu anda Apache Flink için Yönetilen Hizmet üzerinde Apache Flink 1.15 veya daha eski bir sürüm kullanan bir uygulama çalıştırıyorsanız, artık durumu kaybetmeden şu uygulamayı kullanarak uygulamayı yerinde 1.18'e yükseltebilirsiniz: AWS Komut Satırı Arayüzü (AWS CLI), AWS CloudFormation or AWS Bulut Geliştirme Kiti (AWS CDK) veya AWS API'sini kullanan herhangi bir araç.

The Uygulamayı Güncelle API eylemi artık mevcut bir Apache Flink için Yönetilen Hizmet uygulamasının Apache Flink çalışma zamanı sürümünün güncellenmesini destekliyor. UpdateApplication'ı doğrudan çalışan bir uygulamada kullanabilirsiniz.

Yerinde güncellemeye devam etmeden önce, uygulamanızda bulunan bağımlılıkları doğrulamanız ve güncellemeniz, bunların yeni Apache Flink sürümüyle uyumlu olduğundan emin olmanız gerekir. Özellikle herhangi bir Apache Flink kütüphanesini, bağlayıcıyı ve muhtemelen Scala sürümünü güncellemeniz gerekir.

Ayrıca güncellemeye devam etmeden önce güncellenen uygulamayı test etmenizi öneririz. Hiçbir gerilemenin uygulanmadığından emin olmak için hedef Apache Flink çalışma zamanı sürümünü kullanarak yerel olarak ve üretim dışı bir ortamda test yapmanızı öneririz.

Son olarak, eğer başvurunuz durum bilgisi içeriyorsa, bir enstantane Çalışan uygulama durumu. Bu, önceki uygulama sürümüne geri dönmenizi sağlayacaktır.

Hazır olduğunuzda artık kullanabilirsiniz. Uygulamayı Güncelle API eylemi veya güncelleme uygulaması Uygulamanın çalışma zamanı sürümünü güncellemek ve onu güncellenmiş bağımlılıklarla birlikte yeni uygulama yapısına, JAR'a veya zip dosyasına yönlendirmek için AWS CLI komutu.

Süreç ve API hakkında daha ayrıntılı bilgi için bkz. Apache Flink için yerinde sürüm yükseltmesi. Belgeler, adım adım talimatlar ve yükseltme işlemi boyunca size yol gösterecek bir video içerir.

Sonuç

Bu yazıda, Amazon Managed Service for Apache Flink'te desteklenen Apache Flink'in bazı yeni özelliklerini inceledik. Bu liste kapsamlı değildir. Apache Flink ayrıca SQL ve Tablo API'si için operatör düzeyinde TTL gibi çok umut verici bazı özellikleri de tanıttı.FLIP-292] ve Zaman Yolculuğu [FLIP-308], ancak bunlar henüz API tarafından desteklenmiyor ve henüz kullanıcıların erişimine açık değil. Bu nedenle bu yazımızda bunlara yer vermemeye karar verdik.

Apache Flink 1.18 desteğiyle Apache Flink için Yönetilen Hizmet artık en son yayınlanan Apache Flink sürümünü destekliyor. Apache Flink 1.18'de sunulan ilginç yeni özelliklerden ve yeni bağlayıcılardan bazılarını ve Apache Flink için Yönetilen Hizmetin mevcut bir uygulamayı yükseltmenize nasıl yardımcı olduğunu gördük.

Apache Flink blogunda ve sürüm notlarında son sürümler hakkında daha fazla ayrıntı bulabilirsiniz:

Apache Flink'te yeniyseniz aşağıdaki önerilerimizi öneririz: Doğru API ve dili seçme kılavuzu ve başlangıç ​​kılavuzu Apache Flink için Yönetilen Hizmeti kullanmaya başlamak için.


Yazarlar Hakkında

Lorenzo NicoraLorenzo Nicora AWS'de Kıdemli Yayın Çözümü Mimarı olarak çalışıyor ve EMEA genelindeki müşterilere yardımcı oluyor. 25 yılı aşkın süredir bulut tabanlı, veri yoğunluklu sistemler kuruyor, finans sektöründe hem danışmanlıklar aracılığıyla hem de FinTech ürün şirketleri için çalışıyor. Açık kaynak teknolojilerinden kapsamlı bir şekilde yararlandı ve Apache Flink de dahil olmak üzere birçok projeye katkıda bulundu.

Francisco MorilloFrancisco Morillo AWS'de Yayın Çözümleri Mimarıdır. Francisco, AWS müşterileriyle birlikte çalışarak onların AWS hizmetlerini kullanarak gerçek zamanlı analiz mimarileri tasarlamalarına yardımcı oluyor, Amazon MSK'yı ve Apache Flink için Amazon Managed Service'i destekliyor.

spot_img

En Son İstihbarat

spot_img