Spisu treści:
Definicja - Co oznacza Hadoop Common?
Hadoop Common odnosi się do zbioru wspólnych narzędzi i bibliotek, które obsługują inne moduły Hadoop. Jest to niezbędna część lub moduł Apache Hadoop Framework, wraz z Hadoop Distributed File System (HDFS), Hadoop YARN i Hadoop MapReduce. Podobnie jak wszystkie inne moduły, Hadoop Common zakłada, że awarie sprzętu są powszechne i że powinny być one automatycznie rozwiązywane w oprogramowaniu przez Hadoop Framework.
Hadoop Common jest również znany jako Hadoop Core.
Techopedia wyjaśnia Hadoop Common
Pakiet Hadoop Common jest uważany za podstawę / rdzeń frameworka, ponieważ zapewnia podstawowe usługi i podstawowe procesy, takie jak abstrakcja podstawowego systemu operacyjnego i jego systemu plików. Hadoop Common zawiera także niezbędne pliki JAR (Archive Java Archive) i skrypty wymagane do uruchomienia Hadoop. Pakiet Hadoop Common zawiera również kod źródłowy i dokumentację, a także sekcję dotyczącą wkładów, która obejmuje różne projekty ze społeczności Hadoop.




