News Ständige Crashes: Spielentwickler wirft Raptor-Lake-Prozessoren raus

Was denkt ihr denn alle was so ein Gameserver pro Instanz überhaupt packen muss?

Schon 2008 hat man bei Server Anbietern für counterstrike oder COD 64/128 slot Server mit 60er tickrate bekommen und als Premium noch für einen "exklusiven" core extra bezahlt... Wo die Server Instanz alleine auf dem core gepinnt war für stabileren Ping ect..
Damals als es noch möglich war eigene Server zu haben und nicht mehr alles durch Konsolen matchmarking versaut wurde..

Heutzutage sind standartmäßig was weiß ich wie viele Instanzen auf einen einzelnen CPU Kern am laufen..
Ob da jetzt 20 Instanzen bei 5ghz oder 10 Instanzen bei 2,5ghz laufen ist relativ wumpe am Ende des Tages.

Man hat die Desktop CPUs halt genommen weil sie "günstig" sind.
 
Zuletzt bearbeitet:
Bisher galt eine Intel CPU immer als zuverlässig und im geschäftlichen Bereich als Dauerläufer.
Ne genau anders rum wegen den ständigen Sicherheitsmängeln, dessen Mitigations jedes Jahr 20-40% Performance aufgefressen haben. Da muss man dann eh alle 2 Jahre die alten Intel austauschen weil zu langsam geworden.
 
Ich lehne mich mal aus dem Fenster und sage frech:
Da trennt sich Spreu von Weizen, wer sein Rig am Limit durchschaut
und unter Kontrolle hält, oder eben nicht.
 
Ich verlink mal das Video von Level1Techs.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
um was zu tun? Fass es doch zusammen?
Will ich videos schaujen, geh' ich auf YouTube. Will ich mich worüber einlesen, starte ich ... naja auf geschriebenem
Das nimmt schön langsam ziemlich desaströse Formen an:
Nicht nur, dass es das an die absolute Grenze getaktete Modell betrifft, nein, offenbar auch wenn man es zahmer betreibt.
Intel muss nicht nur rausfinden woran es liegt, sondern den Fehler auch in künftigen CPUs vermeiden. Da man davon noch nicht wusste und wenn es sich um einen Fehler in der CPU (oder einem konzeptionellen Problem bei den Plattformen) und nicht in der Betriebsspannung handelt, muss man auch bei Arrow Lake aufpassen...
Sofern kein fundamentales Problem bei der Architektur vorliegt, sorgt eher die Mischung aus zu viel Spannung (V) und Strom (A) für ein frühzeitiges Ableben. Nicht ohne Grund hat Intel mit den neuen Specs ein ICCMax festgelegt.
naja kann man für Intel nur hoffen, dass es nicht an der Architektur oder Fertigung liegt, sonst haben die ein riesiges Problem.
Ich werfe noch hohe Taktraten/Elektromigration als möglicher Verstärker des Problems mit ein.
 
Die CPUs um 100 Mhz zu untertakten dauert 5 Minuten und kostet dich nichts.
Neue Server kaufen und einrichten kostet dich viel Geld, Zeit und Personal.
Deswegen bist du kein Unternehmer, denn du hast 0 Plan.


Niemand, aber darum ging es den meisten Gegenstimmen nicht (siehe takan).
hmm, les nochmal die artikel dazu der letzten tage, dazu das video von wendell und der livestream, es hilft nicht den multi runterzustellen bei dem problem(!!!!!!!!!!!!!)
um was zu tun? Fass es doch zusammen?
Will ich videos schaujen, geh' ich auf YouTube. Will ich mich worüber einlesen, starte ich ... naja auf geschriebenem
Das nimmt schön langsam ziemlich desaströse Formen an:
Nicht nur, dass es das an die absolute Grenze getaktete Modell betrifft, nein, offenbar auch wenn man es zahmer betreibt.
Intel muss nicht nur rausfinden woran es liegt, sondern den Fehler auch in künftigen CPUs vermeiden. Da man davon noch nicht wusste und wenn es sich um einen Fehler in der CPU (oder einem konzeptionellen Problem bei den Plattformen) und nicht in der Betriebsspannung handelt, muss man auch bei Arrow Lake aufpassen...

naja kann man für Intel nur hoffen, dass es nicht an der Architektur oder Fertigung liegt, sonst haben die ein riesiges Problem.
Ich werfe noch hohe Taktraten/Elektromigration als möglicher Verstärker des Problems mit ein.
der artikel vor ein paar tagen von pcgh und meiner usernews paar stunden zuvor.
 
Habe ein paar Intel 1300K und 1400K verbaut die bis Dato ohne Probleme laufen .

Da das Problem offensichtlich nur ganz bestimmte Anwendungs Szenarien betrifft würde ich da auch mal nachforschen .

Auch Amd Syteme laufen nicht immer Fehlerfrei wie das Forum beweist :schief:
 
Spannend. Intel wird intern schon sehr genau wissen was los ist. Nur veröffentlichen wird mans nicht, das könnte die Investoren verschrecken. Kann mir niemand erzählen dass das weder intern in der Qualifizierung auffällt noch dass man die RMA Dies nicht bis aufs Silizium runterschleift um nachzumessen. Spätestens wenn die ersten Rechenzentren kiloweise CPUs zurückschicken eskaliert sowas doch intern. Nur ist der Bug vermutlich erst nach dem finalen Stepping von 14xyz erst aufgefallen. Es dauert ja etwas bis die Teile abbrennen (auch im RZ ohne 10kW Powerlimit).

Möglich ist vieles. Wichtig wird sein, dass die Öffentlichkeit Druck macht und unabhängig von Intel die Ursache findet. Anders wirds nicht gehen. Sobald die Ursache öffentlich wird kommt derart Druck auf den Kessel dass Intel mit der Sprache raus muss. Eines ist auch klar: Bei Intel gibt es scheinbar viele Stimmen mit der Meinung, dass reine Software-Fixes wenn überhaupt nur bedingt helfen. Es ist die Hardware, vermutlich nicht lokal in einem abschaltbaren redundanten Subsystem -> $$$$$$$$$$$

Viele Fehlermeldungen gehen Richtung IO. Speicherfehler, out of VRAM, NVME-Fehler. Hat die Qualität des fdiv-Bugs.
Für alle, die sich bis dahin die Zeit vertreiben wollen: https://www.sgoc.de/pentium.html
 
Wobei mich doch wundert das man "consumer" CPUs wie die Intel core 13/14er für Die entsprechenden Spiele Server nimmt...
Ich hätte eigentlich Xeons ect erwartet damit jede Server Instanz zumindest seinen eigenen CPU core oder so bekommt.
Oder sind die entsprechenden Xeons auch Betroffen?

Es klingt zwar drastisch.. ist aber leider die endkonsequenz die sehr viele serveranbieter daraus ziehen werden
Auch xeons sind betroffen die die gleiche Architektur verwenden
Und wer jetzt auf Intel draufhaut, der hat wohl vergessen, dass AMD dies früher bei seinen Bulldozer CPU´s ähnlich gemacht hat.
Echt hast du auch eine Quelle das die Bulldozer schnell gealtert sind und dauernd ausgefallen sind?
 
Zuletzt bearbeitet:
Für Intel Enthusiasten gehts hier lang:


:cool: :daumen:
 
Ich frage mich, was diese Firmen mit Ihren CPUs machen. Mein 13900k läuft seit release mit den normalen Bios Einstellungen vom Asus Maximus z790 Hero board (und davor dem Formula. Hier erfolgte der Tausch aber wegen des verbauten Spannungswandler Wasserkühlers, der corrodierte innerlich), sprich mit "nicht optimalen standart Intel settings" + boost auf 6ghz.
Tatsächlich hatte auch ich schon das Problem mit angeblich zu wenig VRAM trotz einer RTX 4090. Aber das komischerweise nur und ausschließlich bei Spielen die die Unreal Engine 5 nutzen, bei sonst keinem anderen Spiel. Ja hier hat tatsächlich das "limitieren" der CPU diesen Fehler gelöst.
Und Path of Titans ist oh wunder, ebenfalls ein solches Spiel, das auf UE5 setzt.

Aber das sagt mir doch, dass hier etwas mit der Art und Weise nicht stimmt, wie die UE5 auf den Prozessor versucht zuzugreifen.
Und bisher, bei allen titeln die ich bisher so mitbekommen habe, wo es probleme mit den Intel CPUs gab/gibt, sind immer UE5 Titel.

Ist mir noch gar nicht aufgefallen. Außer Beschwerden über die Temperaturen, welche allerdings normal sind, lese ich nichts zu derartigen Problemen mit Ryzen CPUs. Fantasierst Du dir das wieder zusammen für deinen tägliches AMD Bashing?
Tatsächlich kann ich aus AMD Ryzen 9 5950x erfahrung sprechen, dass mein Prozessor und der Austauschprozessor probleme mit WHEA fehlern hatte, die nicht gelöst werden konnten. Bei beiden kam es zu unregelmäßigen BSODs und immer war der Fehler "Prozessor Kern xy" laut WHEA meldung. Woraufhin ich dann wieder zu Intel gewechselt bin.

Ich warte derzeit noch auf die neuen AMD 9950x(3D) vs. neue Intel Core vergleiche und werde dann vermutlich anfang nächsten Jahres entweder auf AMD wechseln oder intel bleiben (oder nix kaufen von beiden :D)
 
Mein 13900k läuft seit release mit den normalen Bios Einstellungen vom Asus Maximus z790 Hero board (und davor dem Formula. Hier erfolgte der Tausch aber wegen des verbauten Spannungswandler Wasserkühlers, der corrodierte innerlich), sprich mit "nicht optimalen standart Intel settings" + boost auf 6ghz.
Same 6Ghz settings, hab auch keine Probleme.
Tatsächlich hatte auch ich schon das Problem mit angeblich zu wenig VRAM trotz einer RTX 4090.
Wie ? Die 4090 läuft noch und ist nicht instant am Stromanschluss angekokelt ? Gibt's ja gar nicht.
Ich warte derzeit noch auf die neuen AMD 9950x(3D) vs. neue Intel Core vergleiche und werde dann vermutlich anfang nächsten Jahres entweder auf AMD wechseln oder intel bleiben.
Dito.

Mal schauen, ob sich AMD bis dahin mal was zum Scheduling und dem Core Parking Bug überlegt hat und sich dazu durchringen kann, dies auch zu kommunizieren. Beide Hersteller kochen nur mit Wasser.
 
Ich denke fast, die CPUs sind durch die Eingangs von den Mainboardherstellern zu hohen Leistungsprofilen schon irreparabel geschädigt, sodass die mittlerweile vorhandenen Updates mehr oder weniger fast wirkungslos verpuffen.
Wenn man CPUs weit über das Limit puscht, dann geht das eine gewisse Zeit auch gut. Aber das ist in höchsten Maße ungesund für das Silizium. Die CPUs altern dann quasi im Zeitraffer. Irgendwann kommt dann der Punkt, wo sie ihre Leistung nicht mehr halten können und instabil werden. Dann hilft meist noch Takt und Kernspannung runterzuschrauben, mit der Folge von Leistungsverlust.

Für Intel ist das schon fast ein Super Gau, wenn die CPUs so hart an das Limit gebracht worden sind, das sie als Folge massiv schnell altern. Die Mainboardhersteller mit ihren viel zu hohen Profilen sind da auch nicht unschuldig. Aber Intel scheint die Brechstange wohl überreizt zu haben, um ja den Längsten zu haben.

Mir ist bislang nur 1 einzige CPU gestorben. Das war ein Pentium 3 500. Die war nicht mal übertaktet. In Windows Absturz mit Bluescreen und dann war es das. Älteste CPU, die hier vorhanden ist, ist ein Pentium 75. Und die funktioniert einwandfrei. Auch nach nun mittlerweile fast 30 Jahren

Da hätte Intel aber auch im Voraus entgegenwirken können: niedriger takten und evtl. erst mal keine K-CPU's bringen.

Intel hat seine CPU's bis zum geht-nicht-mehr mit exorbitanter Leistungsaufnahme geprügelt und hat jetzt die Konsequenzen zu tragen. Aber sie versuchen eben, sich aus der Affäre zu ziehen - schuld sind ja immer die anderen.

Die Architektur in dem Fertigungsverfahren ist aber nun mal an ihrer Grenze. Wie eben früher die Bulldozer, wobei diese von Anfang an nicht sehr stark waren und sehr viel Strom zogen.

Zu der Zeit hätte ich keine große AMD-CPU gekauft, dafür würde ich jetzt keine große Intel-CPU kaufen. Die kleineren CPU's sind ja ok und diese würde ich auch nach wie vor empfehlen.

Bei den Enthusiasten-CPU's habe ich aber momentan das Gefühl, dass AMD immer mehr davon zieht. Ob jetzt Workstation, HEDT oder High End Gaming. Im Privatbereich mag das noch egal sein, nicht aber im Server-/Workstationbereich. Die Epyc's sind das bessere, aber günstigere Produkt und mit den K's leistet sich Intel momentan einen gewaltigen Fauxpas. Ihr Verhalten in der Situation macht es nur noch schlimmer.
 
[...]
Du scheinst durch deine eigene Berufserfahrung nicht über den Tellerrand zu schauen und vergleichst Anwendungsserver mit Gameservern.

Erstmal sind das keine kritischen Anwendungen die redundant laufen müssen. Die Mehrkosten stehen da in keinem Verhältnis. Außerdem ist der höhere Takt bei Consumer-Chips vorteilhaft im Vergleich zu Server-Chips.
Man nimmt in dem Geschäftsfall grundsätzlich Abstürze in Kauf, es braucht keine 100% Uptime, kein Failover Clustering, etc.. Aber hier scheint es zu einer unverhältnismäßig hohen Ausfallsrate zu kommen.

Zumal du so auch potentiell erheblich mehr Komplexität und Latenz einführst.
Wenn die SQL-Query, der Web-Request, etc. mal 50ms länger braucht, weil das im Cluster läuft, ist das egal.
Wenn ich das immer mal wieder in Gamelobbies mit 30 Leuten hab, hab ich schnell eine schlechte Nachrede. Das sind ja konstante I/O Geschichten und nicht primär in eine Richtung wie du es bei so ziemlich jeder Anwendung hast.

Und du glaubst allen Ernstes, die Spieleentwickler kaufen/hosten ihre eigenen Server? Das ist Minimum Colocation oder eben gleich ganz gemietet. Ich würde mich mit den Beleidigungen etwas im Zaum halten.
Und das mit dem Runtertakten wurde soweit ich das mitbekommen habe ja auch gemacht, dann kamen die Probleme aber ein paar Monate darauf wieder.
Ja, natürlich schaue ich da aus einem anderen Winkel drauf. Und ich bin natürlich durch meine Arbeit und mein Qualitätsanspruch geprägt. Gut ein Drittel unserer Serverkapazitäten wenden wir für VDI auf, wenn da die VM "lagged", klingelt im service desk sofort das Telefon. Und ja, wir betreiben auch unsere VDI im Cluster. Fällt da ein Host aus, steht eine Nutzer-VM vielleicht 5 Sekunden, bevor es weiter geht. Wenn ein Match also bei allen Spielern für 5 Sekunden steht sehe ich das immer noch als besser an, als das die Spieler komplett rausgeworfen werden.

Aber wie gesagt, ich setzte da andere Qualitätsstandards an. Die Mehrkosten sind mir durchaus bewusst, aber daran sieht man halt auch, wie viel die Spieler den Anbietern halt wert sind.

Das Problem wäre vermeidbar gewesen, wenn sie ein bisschen mehr Investiert hätten.
Ganz nach dem Motto: you get what you pay for!

Das unverschämte finde ich aber halt, dass die Spiele-/Server- Anbieter sich dann hinstellen und mit dem Finger auf wen anders zeigen.

Spannend. Intel wird intern schon sehr genau wissen was los ist. Nur veröffentlichen wird mans nicht, das könnte die Investoren verschrecken. Kann mir niemand erzählen dass das weder intern in der Qualifizierung auffällt noch dass man die RMA Dies nicht bis aufs Silizium runterschleift um nachzumessen. Spätestens wenn die ersten Rechenzentren kiloweise CPUs zurückschicken eskaliert sowas doch intern. Nur ist der Bug vermutlich erst nach dem finalen Stepping von 14xyz erst aufgefallen. Es dauert ja etwas bis die Teile abbrennen (auch im RZ ohne 10kW Powerlimit).

Möglich ist vieles. Wichtig wird sein, dass die Öffentlichkeit Druck macht und unabhängig von Intel die Ursache findet. Anders wirds nicht gehen. Sobald die Ursache öffentlich wird kommt derart Druck auf den Kessel dass Intel mit der Sprache raus muss. Eines ist auch klar: Bei Intel gibt es scheinbar viele Stimmen mit der Meinung, dass reine Software-Fixes wenn überhaupt nur bedingt helfen. Es ist die Hardware, vermutlich nicht lokal in einem abschaltbaren redundanten Subsystem -> $$$$$$$$$$$

Viele Fehlermeldungen gehen Richtung IO. Speicherfehler, out of VRAM, NVME-Fehler. Hat die Qualität des fdiv-Bugs.
Für alle, die sich bis dahin die Zeit vertreiben wollen: https://www.sgoc.de/pentium.html

Ich würde mir denken, dass die Ungewissheit viel mehr die Investoren verschrecken wird.
Wenn sie den Fehler gefunden haben und das offen kommunizieren, würde das bedeuten, dass sie die Lösung dazu in die kommenden Produkte einfließen lassen.
Bei dem rumgedrukse kann ich mir als Investor ja nicht sicher sein, ob der "unbekannte" Fehler nicht auch noch in zukünftige Produkte übergeht und am Ende noch mehr Kosten verursacht...

Es scheint nur die Desktop-CPUs zu treffen. Unter welchem Label sie auch immer verkauft werden.
Von den "echten" Server-CPUs habe ich bisher noch von keinen Problem gehört, oder war davon betroffen.
Und wir setzten einige davon ein.

Da hätte Intel aber auch im Voraus entgegenwirken können: niedriger takten und evtl. erst mal keine K-CPU's bringen.

Intel hat seine CPU's bis zum geht-nicht-mehr mit exorbitanter Leistungsaufnahme geprügelt und hat jetzt die Konsequenzen zu tragen. Aber sie versuchen eben, sich aus der Affäre zu ziehen - schuld sind ja immer die anderen.

Die Architektur in dem Fertigungsverfahren ist aber nun mal an ihrer Grenze. Wie eben früher die Bulldozer, wobei diese von Anfang an nicht sehr stark waren und sehr viel Strom zogen.

Zu der Zeit hätte ich keine große AMD-CPU gekauft, dafür würde ich jetzt keine große Intel-CPU kaufen. Die kleineren CPU's sind ja ok und diese würde ich auch nach wie vor empfehlen.

Bei den Enthusiasten-CPU's habe ich aber momentan das Gefühl, dass AMD immer mehr davon zieht. Ob jetzt Workstation, HEDT oder High End Gaming. Im Privatbereich mag das noch egal sein, nicht aber im Server-/Workstationbereich. Die Epyc's sind das bessere, aber günstigere Produkt und mit den K's leistet sich Intel momentan einen gewaltigen Fauxpas. Ihr Verhalten in der Situation macht es nur noch schlimmer.

Die Architektur kann ein schleichendes sterben eigentlich nicht verursachen. Entweder sie funktioniert oder sie funktioniert nicht. Architekturfehler würde alle CPUs betreffen und man könnte die Probleme relativ zuverlässig nachstellen.

Da die Server-CPUs aus den gleichen Fabs kommen und im gleichen Fertigungsverfahren hergestellt werden, aber diese Probleme scheinbar nicht haben, wäre ein Fehler hier wohl auch unwahrscheinlich.

Hat sich eigentlich bereits einer der großen Hersteller für Business-Geräte wie HP, Dell oder Lenovo geäußert?
Die betreiben die Geräte, zumindest im Business-Bereich, immer absolut nach Vorgabe von Intel.
Das wäre ja schon mal ein ziemlich guter Indikator, wo das Problem verursacht wird...
 
Zurück