Hvad er Apache Hadoop?

Apache Hadoop er navnet på et sæt store dataalgoritmer, distribueret lagring og distribueret behandlingssoftware oprettet af Apache Software Foundation. Det er designet til at understøtte applikationer med høj volumen datatjeneste; Automatisk håndtering af hardwarefejl uden tab af service.

Hadoop bruger et distribueret filsystem kendt som HDFS, og software til behandling af store datasæt kendt som MapReduce. Ekstremt store filer opdeles i stykker, normalt 64 eller 128 MB hver. Softwaren er for det meste skrevet i Java, med nogle lavere niveau kode skrevet i C.

Apache server, Big data, Service, Software vilkår