• Buradasın

    Spark akış işleme nedir?

    Yazeka

    Arama sonuçlarına göre oluşturuldu

    Spark akış işleme, Apache Spark'ın bir bileşeni olan Spark Streaming ile gerçek zamanlı veri akışlarının yüksek verimli ve hataya dayanıklı bir şekilde işlenmesi işlemidir 235.
    Spark Streaming'in bazı özellikleri:
    • Veri kaynakları: Kafka, Kinesis veya TCP soketleri gibi çeşitli kaynaklardan veri alabilir 35.
    • İşleme: Verileri mikro batch'lere ayırarak Spark Engine'de işler 3.
    • Aktarma: Sonuçları dosya sistemlerine, veri tabanlarına ve dashboard'lara gerçek zamanlı olarak aktarabilir 3.
    • Soyutlama: Sürekli veri akışını temsil eden DStream adı verilen üst düzey bir soyutlama sağlar 3.
    • Kullanım alanları: Makine öğrenimi, grafik verileri ve akış verileri gibi farklı konularda büyük veri uygulamalarında kullanılabilir 35.
    5 kaynaktan alınan bilgiyle göre:

    Konuyla ilgili materyaller

    Akış ne anlama gelir?

    Akış (flow) kavramı, pozitif psikoloji alanında, bir kişinin bir aktiviteye tamamen odaklandığı, kendini o aktiviteye verdiği ve keyif aldığı zihinsel durumu ifade eder. Akış kavramının bazı özellikleri: Yoğun konsantrasyon: Kişi, aktiviteye tamamen odaklanır ve başka hiçbir şeyin farkındalığını kaybetmez. Öz farkındalık kaybı: Kişi, kendini ve duygularını unutabilir. Kontrol hissi: Kişi, etkinlik üzerinde bir kontrole sahip olduğunu hisseder. Zamansal deneyimin bozulması: Kişi, zamanın nasıl geçtiğini anlamaz. İçsel ödüllendirme: Aktivite, kişi için içsel olarak ödüllendirici hale gelir. Akış kavramı, Mihaly Csikszentmihalyi tarafından ortaya atılmıştır.

    Spark Streaming nasıl çalışır?

    Spark Streaming, canlı veri akışlarını işlemek için şu şekilde çalışır: 1. Veri Alımı: Veriler, Kafka, Kinesis veya TCP soketleri gibi kaynaklardan gerçek zamanlı olarak okunur. 2. Mikro Partisyon Oluşturma: Gelen veriler, belirli bir zaman aralığına göre mikro partisyonlara ayrılır (örneğin, her 2 saniyede bir). 3. İşleme: Her mikro partisyon, dönüşümler (örneğin, filtreleme, gruplama) ve eylemler (örneğin, bir lavaboya yazma) için işlenir. 4. Çıktı: Sonuçlar, dosya, veritabanı veya konsol gibi bir lavaboya yazılır. 5. Hata Toleransı: Checkpointing özelliği ile durum kaydedilir, böylece başarısızlık durumunda veri kaybı önlenir. Spark Streaming, temel Spark API'sinin bir uzantısı olup, toplu iş ve akış iş yüklerini yerel olarak destekler.

    Spark streaming akış şeması nedir?

    Spark Streaming akış şeması, canlı veri akışlarının ölçeklenebilir, yüksek verimli ve hataya dayanıklı bir şekilde işlenmesini sağlar. Temel süreç: 1. Veri Alımı: Spark Streaming, Kafka, Kinesis veya TCP soketleri gibi çeşitli kaynaklardan canlı veri akışları alır. 2. Mikro Toplu İşleme: Verileri "mikro toplu işler" olarak adlandırılan parçalara ayırır. 3. Spark Motoru: Mikro toplu işler, Spark motoru tarafından işlenir. 4. Sonuç Çıkışı: İşlenen veriler dosya sistemlerine, veritabanlarına veya panolara iletilir. DStream (Discretized Stream), Spark Streaming'in sürekli veri akışını temsil eden soyutlama katmanıdır.