Hadoop använder ett distribuerat filsystem som kallas HDFS, och programvara för bearbetning av stora dataset som kallas MapReduce. Extremt stora filer är uppdelade i bitar, vanligtvis 64 eller 128 MB vardera. Programvaran är oftast skriven i Java, med lite lägre kod skrivet i C.
Apache-server, Stora data, Service, Programmeringsvillkor