Spisu treści:
- Definicja - Co oznacza Open-Source Big Data Analytics?
- Techopedia wyjaśnia Open-Source Big Data Analytics
Definicja - Co oznacza Open-Source Big Data Analytics?
Analityka dużych zbiorów danych typu open source odnosi się do korzystania z oprogramowania i narzędzi typu open source do analizowania ogromnych ilości danych w celu gromadzenia istotnych i przydatnych informacji, które organizacja może wykorzystać do realizacji swoich celów biznesowych. Największym graczem w analizie dużych zbiorów danych typu open source jest Hadoop firmy Apache - jest to najczęściej używana biblioteka oprogramowania do przetwarzania ogromnych zbiorów danych w klastrze komputerów przy użyciu rozproszonego procesu równoległości.
Techopedia wyjaśnia Open-Source Big Data Analytics
Analityka dużych zbiorów danych open source korzysta z oprogramowania i narzędzi open source w celu wykonania analizy danych big data przy użyciu całej platformy oprogramowania lub różnych narzędzi open source do różnych zadań w procesie analizy danych. Apache Hadoop jest najbardziej znanym systemem do analizy dużych zbiorów danych, ale inne komponenty są wymagane przed złożeniem prawdziwego systemu analitycznego.
Hadoop to implementacja algorytmu MapReduce o otwartym kodzie źródłowym, zapoczątkowana przez Google i Yahoo, dlatego stanowi podstawę większości dzisiejszych systemów analitycznych. Wiele narzędzi do analizy dużych zbiorów danych wykorzystuje otwarte źródła, w tym solidne systemy baz danych, takie jak open source MongoDB, wyrafinowana i skalowalna baza danych NoSQL, bardzo odpowiednia dla aplikacji dużych zbiorów danych, a także innych.
Usługi analityki dużych zbiorów danych typu open source obejmują:
- System gromadzenia danych
- Centrum sterowania do administrowania i monitorowania klastrów
- Biblioteka uczenia maszynowego i eksploracji danych
- Usługa koordynacji aplikacji
- Silnik obliczeniowy
- Ramy wykonania