Vad är Apache Hadoop?

Apache Hadoop är namnet på en uppsättning stora datalgoritmer, distribuerad lagring och distribuerad bearbetningsprogramvara skapad av Apache Software Foundation. Det är utformat för att stödja applikationer med hög volymdataservice. Automatiskt hantera maskinvarufel utan förlust av service.

Hadoop använder ett distribuerat filsystem som kallas HDFS, och programvara för bearbetning av stora dataset som kallas MapReduce. Extremt stora filer är uppdelade i bitar, vanligtvis 64 eller 128 MB vardera. Programvaran är oftast skriven i Java, med lite lägre kod skrivet i C.

Apache-server, Stora data, Service, Programmeringsvillkor