Tidningen NYT presenterar ett långt reportage kring siffrorna som bygger på besök på datacentraler, på hundratals intervjuer med anställda och konsulter, på förbrukningsdata från energileverantörer samt på offentliga uppgifter om tillstånd för datacentralerna att producera energi.
– Det här en skamlig hemlighet i branschen. Ingen vill vara den förste att erkänna problemet, säger en anonym vd till NYT.
De som bygger serverhallarna är mycket mer intresserade av upptider än av verkningsgrad. Det är den bild man får av grundorsaken till problemet när man läser intervjuerna i NYT.
– Det delas inte ut några bonusar för att man sparar på elräkningen. Bonus får man när man klarar att ha datacentralen online 99,999 procent av tiden, säger en expert NYT talat med.
Jordens fler än tre miljoner datacentraler förbrukar cirka 30 gigawatt, varav USA står för mellan en fjärdedel och en tredjedel. Amerikanska datacentraler förbrukade totalt 76 terawattimmar elektricitet under 2010, vilket är två procent av landets totala elförbrukning.
Variationen är stor mellan datacentralerna. Vissa företag, som Google och Facebook, säger sig använda smartare lösningar för mjukvara och kylning. Men många företag drar sig enligt NYT för att introducera stora förändringar i sina existerande system.
Den dåliga effektiviteten är ofta ett arv från tidigare system som byggdes i början av 90-talet. Systemen är såpass instabila att man dels inte vågar stänga av dem och dels bara vågar köra en tillämpning per server.
Genomsnittet på 6 till 12 procent är ungefär detsamma som det var när motsvarande studie gjordes år 2008. Om man dessutom räknar in kylning, verkningsgrad för strömförsörjningen, med mera, är det ännu mindre av energin som används effektivt – ner till en trettiondel enligt NYT.