Sie haben bestimmt schon davon gehört, von der Angst, Daten zu verbrauchen, weil Daten ja CO2 produzieren, oder etwa nicht? Muss man sich also zurückhalten mit E-Mails & Co., wenn man kein schlechtes Umweltgewissen haben will? Und wenn in der modernen Welt immer mehr Daten anfallen, dann muss das doch auch immer mehr Energie verbrauchen, nicht wahr? 
Das ist laut einer Analyse der Northwestern University, des Lawrence Berkeley National Laboratory und von Koomey Analytics tatsächlich nicht wahr.
 
Die Forscher haben ein sehr detailliertes Modell des Energieverbrauchs der weltweiten Rechenzentren entwickelt.
Was stimmt: In der letzten Zeit sind von Jahr zu Jahr wirklich immer sehr viel mehr Daten angefallen.
Trotzdem: Der Energieverbrauch der Rechenzentren ist wegen massiver Effizienzsteigerungen der Rechenzentren im letzten Jahrzehnt in etwa konstant geblieben.
 
Die naheliegende Schlussfolgerung ist, dass technischer Fortschritt der zentrale Faktor ist, um schädliche Auswirkungen des modernen Lebens wenn nicht zu bekämpfen, dann doch zumindest in Schach zu halten. Letzteres ist angesichts des enormen Wachstums der Datenflut schon fast ein kleines Wunder.
 
Die Studie wurde gerade in der Fachzeitschrift Science veröffentlicht. Eine brauchbare Zusammenfassung findet sich hier. Da die Welt sich immer mehr auf datenintensive Technologien setzt, ist der Energieverbrauch von Rechenzentren ein Problem, das zu Recht große Aufmerksamkeit gebietet.
Bislang wurde eher ein rascher Anstieg des Energieverbrauchs von Rechenzentren prognostiziert. Allerdings geschah dies häufig auf der Basis existierender Technik bei gleichzeitig ansteigendem Daten“verbrauch“. Der technische Fortschritt, der permanent zu leistungsfähigerer Hardware führt, wurde bei diesen Prognosen regelmäßig nicht berücksichtig. Das vollständige Bild stellt das Problem realistischer und deutlich weniger „schlimm“ dar. Weitere Forschung an noch besserer Hardware hat also nach wie vor hohe Priorität.