Hadoop uporablja porazdeljeni datotečni sistem, znan kot HDFS, in programsko opremo za obdelavo velikih podatkovnih nizov, znanih kot MapReduce. Izjemno velike datoteke so razdeljene na kose, običajno 64 ali 128 MB. Programska oprema je večinoma napisana v Javi, z nekaj nižjimi kodami, napisanimi v jeziku C.
Apache strežnik, veliki podatki, storitve, pogoji programske opreme