Spisu treści:
Strumieniowe przetwarzanie danych to nowy obszar. Oznacza to przetwarzanie danych niemal natychmiast (z bardzo małym opóźnieniem) po ich wygenerowaniu. Do tej pory większość przetwarzania danych opierała się na systemach wsadowych, w których przetwarzanie, analiza i podejmowanie decyzji były procesem opóźnionym. Teraz, gdy nowe technologie i platformy ewoluują, organizacje stopniowo przechodzą na podejście oparte na strumieniu zamiast starych systemów opartych na partii. Apache Flink to projekt typu open source do przetwarzania strumieniowego danych. Pomaga organizacjom w przeprowadzaniu analiz w czasie rzeczywistym i podejmowaniu decyzji w odpowiednim czasie.
Seminarium internetowe: Stojąc na krawędzi: Streaming Analytics w akcji Rejestracja tutaj |
Co to jest Apache Flink?
Apache Flink można zdefiniować jako platformę typu open source zdolną do przetwarzania rozproszonego strumienia i przetwarzania wsadowego. Rdzeniem Apache Flink jest silnik strumieniowego przesyłania danych, który obsługuje komunikację, dystrybucję i odporność na uszkodzenia w przetwarzaniu strumieni danych rozproszonych. Apache Flink to jedyna platforma hybrydowa do obsługi przetwarzania wsadowego i strumieniowego. Obsługuje różne przypadki użycia oparte na przetwarzaniu w czasie rzeczywistym, projektach uczenia maszynowego, przetwarzaniu wsadowym, analizie grafów i innych.
Flink składa się z następujących komponentów do tworzenia rzeczywistych aplikacji, a także wspierania uczenia maszynowego i możliwości przetwarzania wykresów: