Nach sechs Jahren Entwicklungszeit erreicht die Cluster-Software Hadoop Version 1.0.0.
Die Hadoop-Entwickler haben Version 1.0.0 ihres Cluster-Computing-Frameworks freigegeben. Ähnlich wie das von Google intern verwendete Map/Reduce bietet Hadoop ein einfaches Programmiermodell zur Verarbeitung großer Datenmengen in einem Cluster vieler Rechner. Dem Ausfall einzelner Rechnerknoten begegnet Hadoop fehlertolerant. Teil das Apache-Projekts ist unter anderem ein verteiltes Dateisystem namens HDFS (Hadoop Distributed File System). Auf dem Dateisystem setzen wiederum andere Anwendungen auf, etwa die nichtrelationale Datenbank HBase.
In das Hadoop-Release 1.0.0 sind beispielsweise viele Verbesserungen im Bereich Sicherheit eingeflossen. Die Unterstützung von HBase wurde ebenso verbessert wie die des WebHDFS-Protokolls, das HDFS über HTTP anbietet. Eine vollständige Liste der Neuerungen bieten die Release Notes .