30% aller Server "liegen im Koma"

Jimini

PCGH-Community-Veteran(in)
Einer von der Stanford University in Kooperation mit der Anthesis Group veröffentlichten Studie zufolge machen 30% aller Server nichts anderes als zu idlen. Ausgehend von einer Stichprobe von fast 4000 untersuchten Serversystemen kommen Jonathan Koomey und Jon Taylor zu dem Schluss, dass 30% aller Server in den letzten sechs Monaten weder Informationen bereitgestellt noch von Clients zu nutzende Dienste ausgeführt haben.

Die Autoren beziehen sich hierbei (vermutlich) auf Systeme in Unternehmens-Rechenzentren, wo sie nicht nur selbst Strom verbrauchen, sondern auch aufwändige Kühlungs- und Infrastrukturgerätschaften erforderlich machen, welche zusätzliche Energie benötigen. So identifizierte schon vor drei Jahren eine Studie des Uptime Instituts ganze 20.000 Server, die sich in einem solchen "Komazustand" befinden - diese abzuschalten, würde nicht nur direkt 5 Megawatt Energie einsparen, sondern auch weitere 4 MW für Kühlungs- und Infrastrukturmaßnahmen.
Viele Rechenzentren sind somit absolut überdimensioniert. Dies wird auch durch eine 2008 von McKinsey veröffentlichte Studie untermauert, derzufolge die Auslastung in solchen Rechenzentren selten 6% übersteigt.

Ausgehend von einer Schätzung, welche von rund 36 Millionen Servern weltweit ausgeht, drehen Koomey und Taylor zufolge rund 10 Millionen Server Däumchen.

Link zum Artikel auf heise.de

Eigener Kommentar:
Ich habe "enterprise data center" so interpretiert, dass es hier nicht um Rechenzentren von Hostern geht, sondern um die von Unternehmen, welche die Serverfarmen für ihre eigenen betrieblichen Prozesse benötigen. Ganz klar wird dies in der Studie leider nicht herausgestellt. Für diese Interpretation spricht auch, dass die Server in Unternehmen einmal angeschafft werden und dann "nur noch" Strom verbrauchen. Ein bei einem Hoster gemietetes System hingegen kostet den Kunden deutlich mehr als nur den Strom, weswegen die Anzahl brachliegender Systeme hier deutlich niedriger sein dürfte.
Auch muss man bei der Verwendung von sieben Jahre alten Zahlen vorsichtig sein - ich vermute, dass der Anteil der virtualisierten Systeme seitdem zugenommen hat, was eine effizientere Energienutzung nach sich ziehen dürfte.
Dennoch zeigen die Hochrechnungen, dass Unternehmen hier hohe Summen verpulvern, welche keinen nennenswerten Mehrwert bringen.

MfG Jimini
 
30% hört sich gar nicht so viel an, hätte mit mehr als 50% gerechnet.
Dienen diese Überkapazitäten nicht großteils dafür Stoßzeiten abzufangen?
 
Stoßzeiten abfangen schön und gut. Aber wenn die Systeme meistens nicht über 6% Auslastung gehen hat das nichts mit Stoßzeiten abfangen zu tun.

Vermutlich saß jemand aus dem PCGH Forum bei der Planung solcher Rechenzentren, und wollte einfach mal mit Über-Hardware arbeiten [emoji38]
 
Ich glaube weniger, dass diese Überdimensionierung anhand rationaler Überlegungen geplant wurde. Vielleicht läuft es so ab:
- Rechenzentrum braucht mehr Kapazität
- die RZ-Verantwortlichen skizzieren die Anforderungen absichtlich zu hoch, um ein stärkeres Argument in der Hand zu haben
- Rechenzentrum bekommt Geld
- Rechenzentrum schafft das dickstmögliche System an
Wobei man hier natürlich quantitativ an die Sache rangehen muss, in dem Fall holt sich das RZ dann halt zehn Systeme, von denen aber nur drei wirklich benötigt werden.

Ich habe schon Admins erlebt, bei denen mich das keinesfalls wundern würde, wenn möglichst dicke Systeme beschafft werden, nur um irgendein Ego zu streicheln.

MfG Jimini
 
Aus eigener Erfahrung kann ich sagen, dass die Verantwortlichen in einigen Unternehmen oftmals gar nicht wissen, wie die erforderliche Hardware sinnvoll dimensioniert werden sollte. Da wird das Budget im Zweifel lieber vollständig ausgereizt und die dickste Hardware bestellt, um so "auf Nummer sicher" zu gehen.

Ich habe bei Kunden schon völlig überdimensionierte dedizierte Server gesehen, die lediglich dafür bestimmt sind, einmal im Monat ein Backup im einstelligen GB-Bereich entgegenzunehmen und auf der Platte zu speichern. Für den Rest der Zeit verbrennen die Dinger einfach nur Geld. Das ist zwar ein Extrem- aber sicher kein Einzelfall.
 
Aus eigener Erfahrung kann ich sagen, dass die Verantwortlichen in einigen Unternehmen oftmals gar nicht wissen, wie die erforderliche Hardware sinnvoll dimensioniert werden sollte. Da wird das Budget im Zweifel lieber vollständig ausgereizt und die dickste Hardware bestellt, um so "auf Nummer sicher" zu gehen.
Eben. In Unternehmen wird erschreckend selten langfristig gedacht und geplant. Lieber heute viel Geld ausgeben und dafür dann 10 Jahre Ruhe haben.
Ich habe bei Kunden schon völlig überdimensionierte dedizierte Server gesehen, die lediglich dafür bestimmt sind, einmal im Monat ein Backup im einstelligen GB-Bereich entgegenzunehmen und auf der Platte zu speichern. Für den Rest der Zeit verbrennen die Dinger einfach nur Geld.
Ja, bei vielen überwiegt leider noch die Vorstellung "Server = extrem leistungsfähige Hardware" :schief:
Dass heutzutage jeder Router einen Server darstellt (und für sehr viele Anwendungen im Privatbereich absolut ausreicht!), verstehen viele leider noch nicht.

MfG Jimini
 
Es sind mMn auch oft die Softwwarehersteller, die entweder auf Nummer sicher gehen wollen, oder nicht einschätzen könenn wie ihre Software beim Kunden skaliert.

Hab schon sehr ofter erlebt, dass der Fachbereich mit den Anforderungen ankam und wenn man den Server hinterher betrachtet hat nichtmal 10% der Leistung benötigt wurden.

Aber 30% halte ich auch für zu gering. Wenn man bedenkt, dass die meisten Systeme auch nur von 8-17 Uhr benötigt werden und das an 5 Tagen die Woche. Noch etwas Backup am WE und/oder Abends.. Aber ich denke da sind mehr als 30% drin.
 
Aber 30% halte ich auch für zu gering. Wenn man bedenkt, dass die meisten Systeme auch nur von 8-17 Uhr benötigt werden und das an 5 Tagen die Woche. Noch etwas Backup am WE und/oder Abends.. Aber ich denke da sind mehr als 30% drin.
Wie gesagt - die 30% beziehen sich auf Systeme, die in den letzten sechs Monaten keinen Client bedient haben. Natürlich gibt es da noch deutlich mehr Einsparpotential, wenn man sich etwa anschauen würde, an welchen Wochentagen und zu welchen Zeiten die Kisten mal gebraucht werden.

MfG Jimini
 
Dann sollte man diese 30% am besten abschalten und so können die Rechenzentren Geld sparen. :) Aber ich bezweifle das dies geschehen wird weil man auf der sicheren Seite sein will wenn sie doch mal gebraucht werden.
 
Wie gesagt - die 30% beziehen sich auf Systeme, die in den letzten sechs Monaten keinen Client bedient haben. Natürlich gibt es da noch deutlich mehr Einsparpotential, wenn man sich etwa anschauen würde, an welchen Wochentagen und zu welchen Zeiten die Kisten mal gebraucht werden.

MfG Jimini

Ja stimmt, das hatte ich beim lesen der übrigen Beiträge schonwieder verdrängt.

Wie Du bereits erwähnt hast, die Virtualisierung wirkt dem stark entgegen, ich kenne aber Bereich in denen keine Virtualisierung erwünscht ist. Der Sektor ist aber eher die Ausnahme.

Bei den Kisten hört es sich schon eher nach Systemem an die mal vor ewigen Zeiten für z.b Buchhaltung benötigt worden und sich niemand traut die Dinger mal komplett aususchalten. Entweder aus Angst sie starten nicht mehr, oder weil man einfach kein OK vom Verantworklichen bekommt..

So oder so - ich denke jedes Rechenzentrum wird anders verwaltet und überall steckt Potential. Das auszureizen würde auch Geld & Zeit kosten..
 
Habt ihr schon mal darüber nachgedacht, dass es auch Redundanzsysteme, die auf den Ausfall eines anderen Systems warten, gibt? Natürlich machen die Kisten dann fast gar nichts außer heiße Luft. Sowas kann man dann auch noch auf Rechenzentrumsebene treiben. Das nennt sich dann Georedundanz und im Extremfall idled da das komplette RZ.
 
Klar, nur wird das nur einen kleinen Teil ausmachen, denn solche redundanten Systeme, die durchaus ihre Daseinsberechtigung haben, sind eher die Ausnahme als die Regel.
 
Habt ihr schon mal darüber nachgedacht, dass es auch Redundanzsysteme, die auf den Ausfall eines anderen Systems warten, gibt?
Aber bei so einem Setup hat man dann doch zumindest Heartbeat-Instanzen, welche Daten mit den Primärsystemen austauschen, oder? Dies würde ja dann der "Koma"-Definition in der Studie widersprechen.

MfG Jimini
 
Kommt wohl auf die Branche an. Bei uns ist das die Regel. Und wir betreiben mehrere RZ.
Wir betreiben auch Server an mehreren Standorten, teils auch redundant, aber "Ihr" und "wir" sind nicht die Regel. :D Ich kenne keine Zahlen aber aus dem Bauch heraus würde ich sagen, dass der Anteil der weltweit redundant ausgelegten Server nur einen Bruchteil ausmacht.

Dieses Szenario ist damit aber vermutlich auch nicht gemeint. Hier geht es eher um die Server, die tatsächlich gar nichts machen und nicht mal als Fallback dienen (dann hätten sie ja zumindest eine sinnvolle Aufgabe).
 
Kommt wohl auf die Branche an. Bei uns ist das die Regel. Und wir betreiben mehrere RZ.

Redundanz spielt auch bei uns eine sehr große Rolle. Aber ausreichend dimensioniert erhalten die "backup" Systeme innerhlab von 6 Monaten schonmal einen Client request via Loadbalancer.

Daher Redundanz = ja
mehr als 6 Monate idle = nein

Aber bei so einem Setup hat man dann doch zumindest Heartbeat-Instanzen, welche Daten mit den Primärsystemen austauschen, oder? Dies würde ja dann der "Koma"-Definition in der Studie widersprechen.

MfG Jimini

also einen Hearbeat zw Server A und Server B würde ich auch nicht wirklich als Client Request einstufen, oder was meintest Du?
 
Kann ich auch echt nicht nachvollziehen.
Es gibt da doch immer mittel und Wege solche Backupsysteme zu automatisieren.

Selbst ich daheim achte bei meinem Homeserver auf den Energieverbrauch.
Daher ist bei mir Lightsout installiert.

Damit kann ich dann bestimmen wann der Server angehen soll.
- Wenn sich ein bestimmter PC einschaltet
- Wenn ich Ihn per Tool auf einem PC gestartet habe
- vom Handy aus starten

Das gleiche gilt dann fürs runterfahren
- Per Handy
- Automatisch wenn kein einziger PC im Netz aktiv ist (variabel einstellbar nach wie vielen Minuten der Server in den Standby gehen soll)

Das ist ganz praktisch.
Am Arbeitslappi und aufm Spiele PC starte ich Ihn per Mausklick und nicht automatisch.
Am HTPC startet der Server dann automatisch, da habe ich ja dann eh die Absicht Musik abzuspielen vom Server.


Solche Lösungen kann man zu 100% auch in Unternehmen einsetzen und damit ordentlich Strom sparen.



Oder von Anfang an halt kleiner planen.
Wenn ich das schon höre "wir planen für die nächsten 10 Jahre".
Wer weiß was in den kommenden 10 Jahren in der hardwarewelt passiert.
Eventuell leistet dann ein Server so viel wie 10?!
 
Redundanz spielt auch bei uns eine sehr große Rolle. Aber ausreichend dimensioniert erhalten die "backup" Systeme innerhlab von 6 Monaten schonmal einen Client request via Loadbalancer.

Daher Redundanz = ja
mehr als 6 Monate idle = nein



also einen Hearbeat zw Server A und Server B würde ich auch nicht wirklich als Client Request einstufen, oder was meintest Du?


Redundanz ungleich Lastenverteilung. Soll heißen, da muss es keinen LB geben und der Redundanzserver hört tatsächlich nie was vom Client.

Die Heartbeatsache sehe ich auch so ;-)



Mittlerweile dürfte Redundanz die Regel sein. Hat nichts mit Ihr und wir zu tun. In der Ausprägung wird es sicher noch Unterschiede geben.

@shadie. Vergiss mal bitte deine Homeserver. Ein Redundanzsystem muss in Sekunden zur Verfügung stehen. Ein Boot eines Servers kann mehrere Minuten beanspruchen (RAIDs ...). Außerdem möchte man nicht im Notfall feststellen, dass aus irgendeinem Grund ein paar Kisten verreckt sind und man die gerade nicht benutzen kann. Stromkosten sind da echt zu vernachlässigen.
 
Zuletzt bearbeitet:
@shadie

Domaincontroller, Exchange, RDP-Server, etc...
Alle mit Raid 1 oder 5.

Das einzige was in dem Bereich Energie spart ist die Virtualisierung.
 
Redundanz ungleich Hochverfügbarkeit. Soll heißen, da muss es keinen LB geben und der Redundanzserver hört tatsächlich nie was vom Client.#

Ich kann nachvollziehen was Du meinst. Das versuchen wir aber allein dahingehend zu vermeiden, dass im Fehlerfall die Redundanzsysteme auch zuverlässig arbeiten bzw. im Normalbetrieb eingebunden sind.

Am beispiel mx.

mx001.meinserver01-> prio 10
mx002.meinserver02-> prio 10

kann redundant, hochverfügbar und produktiv zugleich sein, oder?

Das geht natürlich auch nicht überall..
 
Zurück