[...]
Du scheinst durch deine eigene Berufserfahrung nicht über den Tellerrand zu schauen und vergleichst Anwendungsserver mit Gameservern.
Erstmal sind das keine kritischen Anwendungen die redundant laufen müssen. Die Mehrkosten stehen da in keinem Verhältnis. Außerdem ist der höhere Takt bei Consumer-Chips vorteilhaft im Vergleich zu Server-Chips.
Man nimmt in dem Geschäftsfall grundsätzlich Abstürze in Kauf, es braucht keine 100% Uptime, kein Failover Clustering, etc.. Aber hier scheint es zu einer unverhältnismäßig hohen Ausfallsrate zu kommen.
Zumal du so auch potentiell erheblich mehr Komplexität und Latenz einführst.
Wenn die SQL-Query, der Web-Request, etc. mal 50ms länger braucht, weil das im Cluster läuft, ist das egal.
Wenn ich das immer mal wieder in Gamelobbies mit 30 Leuten hab, hab ich schnell eine schlechte Nachrede. Das sind ja konstante I/O Geschichten und nicht primär in eine Richtung wie du es bei so ziemlich jeder Anwendung hast.
Und du glaubst allen Ernstes, die Spieleentwickler kaufen/hosten ihre eigenen Server? Das ist Minimum Colocation oder eben gleich ganz gemietet. Ich würde mich mit den Beleidigungen etwas im Zaum halten.
Und das mit dem Runtertakten wurde soweit ich das mitbekommen habe ja auch gemacht, dann kamen die Probleme aber ein paar Monate darauf wieder.
Ja, natürlich schaue ich da aus einem anderen Winkel drauf. Und ich bin natürlich durch meine Arbeit und mein Qualitätsanspruch geprägt. Gut ein Drittel unserer Serverkapazitäten wenden wir für VDI auf, wenn da die VM "lagged", klingelt im service desk sofort das Telefon. Und ja, wir betreiben auch unsere VDI im Cluster. Fällt da ein Host aus, steht eine Nutzer-VM vielleicht 5 Sekunden, bevor es weiter geht. Wenn ein Match also bei allen Spielern für 5 Sekunden steht sehe ich das immer noch als besser an, als das die Spieler komplett rausgeworfen werden.
Aber wie gesagt, ich setzte da andere Qualitätsstandards an. Die Mehrkosten sind mir durchaus bewusst, aber daran sieht man halt auch, wie viel die Spieler den Anbietern halt wert sind.
Das Problem wäre vermeidbar gewesen, wenn sie ein bisschen mehr Investiert hätten.
Ganz nach dem Motto: you get what you pay for!
Das unverschämte finde ich aber halt, dass die Spiele-/Server- Anbieter sich dann hinstellen und mit dem Finger auf wen anders zeigen.
Spannend. Intel wird intern schon sehr genau wissen was los ist. Nur veröffentlichen wird mans nicht, das könnte die Investoren verschrecken. Kann mir niemand erzählen dass das weder intern in der Qualifizierung auffällt noch dass man die RMA Dies nicht bis aufs Silizium runterschleift um nachzumessen. Spätestens wenn die ersten Rechenzentren kiloweise CPUs zurückschicken eskaliert sowas doch intern. Nur ist der Bug vermutlich erst nach dem finalen Stepping von 14xyz erst aufgefallen. Es dauert ja etwas bis die Teile abbrennen (auch im RZ ohne 10kW Powerlimit).
Möglich ist vieles. Wichtig wird sein, dass die Öffentlichkeit Druck macht und unabhängig von Intel die Ursache findet. Anders wirds nicht gehen. Sobald die Ursache öffentlich wird kommt derart Druck auf den Kessel dass Intel mit der Sprache raus muss. Eines ist auch klar: Bei Intel gibt es scheinbar viele Stimmen mit der Meinung, dass reine Software-Fixes wenn überhaupt nur bedingt helfen. Es ist die Hardware, vermutlich nicht lokal in einem abschaltbaren redundanten Subsystem -> $$$$$$$$$$$
Viele Fehlermeldungen gehen Richtung IO. Speicherfehler, out of VRAM, NVME-Fehler. Hat die Qualität des fdiv-Bugs.
Für alle, die sich bis dahin die Zeit vertreiben wollen:
https://www.sgoc.de/pentium.html
Ich würde mir denken, dass die Ungewissheit viel mehr die Investoren verschrecken wird.
Wenn sie den Fehler gefunden haben und das offen kommunizieren, würde das bedeuten, dass sie die Lösung dazu in die kommenden Produkte einfließen lassen.
Bei dem rumgedrukse kann ich mir als Investor ja nicht sicher sein, ob der "unbekannte" Fehler nicht auch noch in zukünftige Produkte übergeht und am Ende noch mehr Kosten verursacht...
Es scheint nur die Desktop-CPUs zu treffen. Unter welchem Label sie auch immer verkauft werden.
Von den "echten" Server-CPUs habe ich bisher noch von keinen Problem gehört, oder war davon betroffen.
Und wir setzten einige davon ein.
Da hätte Intel aber auch im Voraus entgegenwirken können: niedriger takten und evtl. erst mal keine K-CPU's bringen.
Intel hat seine CPU's bis zum geht-nicht-mehr mit exorbitanter Leistungsaufnahme geprügelt und hat jetzt die Konsequenzen zu tragen. Aber sie versuchen eben, sich aus der Affäre zu ziehen - schuld sind ja immer die anderen.
Die Architektur in dem Fertigungsverfahren ist aber nun mal an ihrer Grenze. Wie eben früher die Bulldozer, wobei diese von Anfang an nicht sehr stark waren und sehr viel Strom zogen.
Zu der Zeit hätte ich keine große AMD-CPU gekauft, dafür würde ich jetzt keine große Intel-CPU kaufen. Die kleineren CPU's sind ja ok und diese würde ich auch nach wie vor empfehlen.
Bei den Enthusiasten-CPU's habe ich aber momentan das Gefühl, dass AMD immer mehr davon zieht. Ob jetzt Workstation, HEDT oder High End Gaming. Im Privatbereich mag das noch egal sein, nicht aber im Server-/Workstationbereich. Die Epyc's sind das bessere, aber günstigere Produkt und mit den K's leistet sich Intel momentan einen gewaltigen Fauxpas. Ihr Verhalten in der Situation macht es nur noch schlimmer.
Die Architektur kann ein schleichendes sterben eigentlich nicht verursachen. Entweder sie funktioniert oder sie funktioniert nicht. Architekturfehler würde alle CPUs betreffen und man könnte die Probleme relativ zuverlässig nachstellen.
Da die Server-CPUs aus den gleichen Fabs kommen und im gleichen Fertigungsverfahren hergestellt werden, aber diese Probleme scheinbar nicht haben, wäre ein Fehler hier wohl auch unwahrscheinlich.
Hat sich eigentlich bereits einer der großen Hersteller für Business-Geräte wie HP, Dell oder Lenovo geäußert?
Die betreiben die Geräte, zumindest im Business-Bereich, immer absolut nach Vorgabe von Intel.
Das wäre ja schon mal ein ziemlich guter Indikator, wo das Problem verursacht wird...