Suchen

9.570.000.000.000.000.000.000 Bytes Wissenschaftler errechnen weltweites Datenaufkommen in Servern

| Redakteur: Nico Litzel

Drei Forscher der University of California San Diego haben errechnet, dass weltweit rund 27 Millionen Server im Jahr 2008 etwa 9,57 Zettabytes nur an Geschäftsdaten verarbeitet haben. Würde man diese Datenmenge in Bücher packen und diese aufeinanderstapeln, so wäre der Stapel neun Milliarden Kilometer hoch.

Der Neptun. Würde man alle Geschäftsdaten, die 2008 von Servern verarbeitet wurden, in Bücher packen und diese übereinanderstapeln, so wäre der Stapel rund neun Milliarden Kilometer hoch. Das entspricht 20-mal der Strecke Erde-Neptun-Erde.
Der Neptun. Würde man alle Geschäftsdaten, die 2008 von Servern verarbeitet wurden, in Bücher packen und diese übereinanderstapeln, so wäre der Stapel rund neun Milliarden Kilometer hoch. Das entspricht 20-mal der Strecke Erde-Neptun-Erde.
( Archiv: Vogel Business Media )

Auf der Branchenmesse Storage Networking World (SNW) haben Professor Roger Bohn, James E. Short und Chaitanya K. Baru ihr Whitepaper „„How much Information – 2010 Report on Enterprise Server Information“ “ [PDF: 36 Seiten, 4,2 MB] vorgestellt, in dem die vielzitierte Datenflut eindrucksvoll veranschaulicht wird: Anhand von Berichten der Serverhersteller, Interviews mit IT-Experten, Verkaufszahlen von Marktanalysten und Informationen aus weiteren Quellen haben die drei Wissenschaftler errechnet, dass die weltweit rund 27 Millionen Server im Jahr 2008 etwa 9,57 Zettabytes verarbeitet haben – das sind 9.570.000.000.000.000.000.000 Bytes. Betrachtet wurden dabei ausschließlich Geschäftsdaten, Daten wie sie Google, Youtube, Facebook & Co. verursachen, wurden bewusst nicht mit einkalkuliert.

Würde man diese 9,57 Zettabytes in Bücher packen, wobei ein Buch 2,5 Gigabytes an Informationen enthält und 4,8 Zentimeter dick ist, so wäre der Bücherstapel rund neun Milliarden Kilometer hoch. Das entspricht in etwa 20-mal der Strecke Erde-Neptun-Erde.

Alpha Centauri ist nicht mehr fern

Die drei Forscher schätzen, dass sich die Server-Workloads alle zwei Jahre verdoppeln. Sollte das eintreffen, so werden die Server im Jahr 2024 in einem Jahr Daten verarbeiten, die einem Buchstapel mit der Länge von über 4,37 Lichtjahren entsprechen – das ist die Distanz zu Alpha Centauri, dem erdnächsten Sonnensystem.

„Die meisten dieser Informationen sind unglaublich kurzlebig: Sie werden erzeugt, verarbeitet, und innerhalb weniger Sekunden wieder verworfen, ohne dass sie jemand zu Gesicht bekommt“, erklärt Roger Bohn, Co-Autor und Professor für Technologiemanagement an der UC San Diego’s School of International Relations and Pacific Studies. „Wir sehen nur die Spitze des Eisberges, der weitaus größere Teil bleibt verborgen.“

Einsteigersysteme tragen die Hauptlast

Im Jahr 2008 haben Einsteiger-Server, die in einem Preisbereich bis 25.000 US-Dollar liegen, rund 65 Prozent aller Informationen verarbeitet, so die Forscher. Etwa 30 Prozent wurden von Midrange-Systemen verarbeitet und nur fünf Prozent von Highend-Servern, die 500.000 US-Dollar und mehr kosten.

Artikelfiles und Artikellinks

(ID:2050888)