Hadoop bruger et distribueret filsystem kendt som HDFS, og software til behandling af store datasæt kendt som MapReduce. Ekstremt store filer opdeles i stykker, normalt 64 eller 128 MB hver. Softwaren er for det meste skrevet i Java, med nogle lavere niveau kode skrevet i C.
Apache server, Big data, Service, Software vilkår