Yazeka
Arama sonuçlarına göre oluşturuldu
Spark Streaming, sürekli veri akışlarını işleyerek gerçek zamanlı analitikler sunan bir Apache Spark modülüdür 12. Çalışma prensibi şu adımlarla gerçekleşir:
- Veri Alımı: Spark Streaming, Kafka, Flume, Kinesis veya TCP soketleri gibi kaynaklardan gerçek zamanlı verileri alır 24.
- Mikro-Parti Oluşturma: Gelen veriler, belirli bir zaman aralığına göre (örneğin, her 2 saniyede bir) küçük partilere (mikro-partiler) ayrılır 12.
- İşleme: Her mikro-parti, Spark'ın dağıtılmış işleme modeli kullanılarak bir RDD (Resilient Distributed Dataset) olarak ele alınır ve dönüşümler (örneğin, filtreleme, gruplama) ve eylemler (örneğin, sonuca yazma) uygulanır 12.
- Çıktı: İşlenen veriler, dosyalar, veritabanları veya konsol gibi çıktı hedeflerine yazılır 12.
- Hata Toleransı: Checkpointing kullanılarak, uygulamanın durumu kaydedilir ve başarısızlık durumunda veri kaybı olmadan kurtarma sağlanır 14.
5 kaynaktan alınan bilgiyle göre: