Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Nein, dass habe ich nicht. Ich habe jedoch auch nicht geschrieben das diese CPU´s ausgefallen sind. Nur ist AMD einen ähnlichen Weg gegangen. Strom ohne Ende. Das war aber noch harmlos im Gegensatz zu den Intel CPU´s.
Es geht hier darum das Intel unstabile COUS verkauft, deine Aussage wortwörtlich:
Man braucht nicht auf sinzel zeigen da AMD das mit Bulldozer auch so gemacht hat.
Ich frage mich, was diese Firmen mit Ihren CPUs machen. Mein 13900k läuft seit release mit den normalen Bios Einstellungen vom Asus Maximus z790 Hero board (und davor dem Formula. Hier erfolgte der Tausch aber wegen des verbauten Spannungswandler Wasserkühlers, der corrodierte innerlich), sprich mit "nicht optimalen standart Intel settings" + boost auf 6ghz.
Tatsächlich hatte auch ich schon das Problem mit angeblich zu wenig VRAM trotz einer RTX 4090. Aber das komischerweise nur und ausschließlich bei Spielen die die Unreal Engine 5 nutzen, bei sonst keinem anderen Spiel. Ja hier hat tatsächlich das "limitieren" der CPU diesen Fehler gelöst.
Und Path of Titans ist oh wunder, ebenfalls ein solches Spiel, das auf UE5 setzt.
Aber das sagt mir doch, dass hier etwas mit der Art und Weise nicht stimmt, wie die UE5 auf den Prozessor versucht zuzugreifen.
Und bisher, bei allen titeln die ich bisher so mitbekommen habe, wo es probleme mit den Intel CPUs gab/gibt, sind immer UE5 Titel.
Nein.. Nein und nein
Google mal.. Gibt auch bei bestimmten Anwendungen den Fehler, es sagt aus das bestimmte Lasten die CPU unstabil werden lassen
Glaubbdu Bistümer erste der behaupten UE5 ist schuld..
Laut einem Bericht des Youtube-Kanals Level1Techs haben die Stabilitätsprobleme von Intels Raptor-Lake-Prozessoren inzwischen wirtschaftliche Folgen.
www.pcgameshardware.de
ich fasse den fetten, dicken, ernsthaften teil nochmal zusammen. wendell hat durch seine kontakte halt sich die daten angeguckt, die crashberichte. er kam dann durch zufall an die gameserver, weil es dann auch ins gespräch kam. er hatte zugriff auf über 200 server mit den besagten cpu's. 50% der server sind mindestens 1 mal die woche gecrashed. auf w680 boards die "exakt" sich an die intel specs halten und 125w liefern, weil die ebend nicht für "gaming-benchmarks" ausgelegt sind. teilweise gab es boards die auf 43 multi gelockt worden waren. das waren die ersten "mitigations" die gemacht wurden. ram lief mit spd nicht mit xmp(!!!) und dennoch crashen die kisten. der 3 jahres-support vertrag für "remote-hands/support" ist für die intel kisten 1000$ teurer als bei amd. mittlerweile bieten die keine intel-cpu's auf w680 an. in dem unten verlinkten livestream im q&a, erwähnt wendell das hetzner noch an ihn getreten ist, die bieten auch intel cpu's an aber die non-k modelle. das wird interessant. kann mir vorstellen das die ausfallrate dort viel geringer ist. mal gucken was da noch rauskommt und ob intel "im sorry" raushaut die tage.
die spiele-entwickler nehmen halt "low-core-count" zeug, weil der "blast-radius", wenn ein server mal crashed geringer ist. die haben meist 4 instanzen auf einer kiste. die sind angepisst weil die durch intel geld verlieren halt. die neusten news zeigen es ja auf.
zu den videos. man kann ja das video laufen lassen, weil die information in audio vor liegen ich hab wendell schon sehr lange abonniert weil der guten kram macht und sehr viele infos raushaut. ich verlink mal den livestream der mit nem anderen youtuber danach noch enstanden ist, wo es paar extra infos noch gibt. ian cutress (techtechpotato) ist auch ein sehr lohnenswerter kanal.
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst:
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Für mehr Informationen besuche die Datenschutz-Seite.
Hat sich eigentlich bereits einer der großen Hersteller für Business-Geräte wie HP, Dell oder Lenovo geäußert?
Die betreiben die Geräte, zumindest im Business-Bereich, immer absolut nach Vorgabe von Intel.
Das wäre ja schon mal ein ziemlich guter Indikator, wo das Problem verursacht wird...
im hauptvideo von wendell erwähnt er das die 3 hersteller 20-30% ausfallrate haben bzw. ersetzt werden durch sich selber beim kunden. das grain of salt ist halt, das es keine offiziele stellungsnahme ist.
Genau das ist etwas, was ich nicht so ganz nachvollziehen kann. Intel konnte bis zuletzt keine genauen Aussagen dazu treffen. Für die K-Modelle hat es ewig gedauert, bis es mal eine Aussage zum Baseline-Profil gab. Und nun gehen selbst dort bis zu 188 Watt kurzzeitig drüber.
Da wirst du mit AMD aber dann noch mehr Microruckler haben, weil Intel eigentlich stabiler ist bei den 0.1% und 0.01% frames. Also ist es eher ein Problem mit den Spielen die du spielst bzw die Leistungseinstellungen.
Mein 12700K habe ich schon runtergetaktet und im Mainboard ein stabileres Profil eingerichtet. Es ist dadurch etwas besser geworden, aber ich hatte wohl kein Glück in der Siliziumlotterie bei der CPU.
Nicht verwunderlich. Server sind häufig nicht gut darauf ausgelegt um viele Kerne gleichmäßig zu nutzen. Und teilweise ist eine hoher single Core Performance sehr wichtig um die Server unter Last performant zu halten.
Aber allem Anschein nach sinkt die Taktbarkeit der CPUs ab. D.h. irgendwann stürzen sie mit den Stock-Spannungen ab. Man kann zwar die Spannung hochschrauben, aber da das Schadensbild stark nach Elektromigration aussieht, sollte das nicht lange vorhalten und die CPU in noch schlechterem Zustand zurücklassen.
Bingo.
Ich schätze mal (und habe es auch schon so woanders gehört), dass Intel im Prozess der für die CPUs genutzt wird zu hohe Schwankungen drin hat in der Breite der Bahnen. Das führt zu Engstellen an denen es eine höhere Migrationswahrscheinlichkeit gibt und zur weiteren Verrengung führt. Man wird das auch mit der Zeit bei allen anderen mit diesem Prozess hergestellten CPUs sehen.
Man sah es zuerst halt nur bei den 14900K etc, weil diese am höchsten Takten und damit auch die meisten VA durch die Kerne durchjagen und diese dementsprechend schnell altern.
Man sieht es auch schon hier und da anklingen in den Statistiken:
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst:
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Für mehr Informationen besuche die Datenschutz-Seite.
Ja, einen 14700K und einen 14900K und einen 13900K und einen 13700K. Ich kann keine richtige Doppelnennung sehen. Haste dich vielleicht selber verguckt?
Ja, einen 14700K und einen 14900K und einen 13900K und einen 13700K. Ich kann keine richtige Doppelnennung sehen. Haste dich vielleicht selber verguckt?
Wow, hab das echt nicht gesehen. Eventuell ein Fehler beim erstellen des Diagramms durch 3DCenter.
Eventuell sollten die kleineren Mengen 14600K und KF sein. Ändert aber am grundsätzlichen Problem nicht wirklich was.
Womöglich ein Tippfehler, bei der zweiten Nennung ist womöglich 14600K und 14600KF gemeint.
Bei den vielen Zahlen und Codenmane kann man schon mal durcheinander kommen, selbst Nerds hier.
Natürlich, aber das muss wie gesagt in Relation gesetzt werden. Wenn jemand wegen VDI Ausfall seinen Arbeitsfortschritt verliert, kann das je nach Aufgabe (worst case: zeitkritisch mit Vertragsstrafen) ganz schön ins Geld gehen.
Wenn ein Gameserver den Geist aufgibt ist das zwar ärgerlich, aber sofern das nicht ein eSport-Turnier mit hohen Preisgeldern ist, gilt "nothing of value was lost".
Bei einem rechnet sich die Redundanz, bei Zweiterem weniger. Gleiches gilt auch für Server- vs. Prosumer-Hardware.
Es ist halt ein Unterschied, ob man 99.99% Uptime erwartet, oder Hausnummer 97%. Letzteres ist mit günstigerer (einwandfreier) Consumerhardware nicht unrealistisch. Aber hier scheint es ja eindeutig auffälligere Probleme zu geben. Da du vom Fach bist, kannst du sicher gut einschätzen wie heftig da was im Argen liegt, wenn 3 Jahre Servicevertrag 24/5 für AMD 7950X um 139$ zu haben sind und 14900K gleich mal 1280$ kosten.
Die Architektur kann ein schleichendes sterben eigentlich nicht verursachen. Entweder sie funktioniert oder sie funktioniert nicht. Architekturfehler würde alle CPUs betreffen und man könnte die Probleme relativ zuverlässig nachstellen.
Da die Server-CPUs aus den gleichen Fabs kommen und im gleichen Fertigungsverfahren hergestellt werden, aber diese Probleme scheinbar nicht haben, wäre ein Fehler hier wohl auch unwahrscheinlich.
Hat sich eigentlich bereits einer der großen Hersteller für Business-Geräte wie HP, Dell oder Lenovo geäußert?
Die betreiben die Geräte, zumindest im Business-Bereich, immer absolut nach Vorgabe von Intel.
Das wäre ja schon mal ein ziemlich guter Indikator, wo das Problem verursacht wird...
Hier scheint es aber zumindest so, dass von einer Architektur nur die großen Modelle mit K-Suffix betroffen wären.
Ich hörte zumindest bisher nichts von diesen Problemen bei z.B. i5-CPU's. Oder anderen, kleineren Modellen. Auch Igor berichtete da bisher nichts, kleinere CPU's betreffend.
Wenn es tatsächlich bisher keine Probleme bei kleineren CPU's unterhalb des 13700k gab, dann haben wir evtl. beide Recht: es liegt an der Architektur, betrifft aber in dem Fall nur die großen CPU K-Modelle, die höher getaktet sind und mehr Strom ziehen und es durch die größere Hitzeentwicklung zu Verschleiß kommt.
Na leider net. knapp nen Jahr, aber noch in der Hochzeit des Meltinggates wie ich es nenne, ist bei meiner der anschluss auch verschmolzen, aber zum glück rechtzeitig bemerkt und von Zotac ausgetauscht bekommen.
Nein.. Nein und nein
Google mal.. Gibt auch bei bestimmten Anwendungen den Fehler, es sagt aus das bestimmte Lasten die CPU unstabil werden lassen
Glaubbdu Bistümer erste der behaupten UE5 ist schuld..
Die Autokorrektur musst du nochmal korrigieren, der letzte satz macht nicht so ganz sinn.
Aber wie gesagt, ich habe bisher meist von UE5 Spielen gelesen, also meine Subjektive Bubble.
Demnächst kommen ja eh neue Prozessoren und die 13er und 14er Produktion ist soweit ich mitbekommen habe auch schon eingestellt.
Ich bin gespannt auf die neuen AMD's.
Na leider net. knapp nen Jahr, aber noch in der Hochzeit des Meltinggates wie ich es nenne, ist bei meiner der anschluss auch verschmolzen, aber zum glück rechtzeitig bemerkt und von Zotac ausgetauscht bekommen.
Na leider net. knapp nen Jahr, aber noch in der Hochzeit des Meltinggates wie ich es nenne, ist bei meiner der anschluss auch verschmolzen, aber zum glück rechtzeitig bemerkt und von Zotac ausgetauscht bekommen.
Die Autokorrektur musst du nochmal korrigieren, der letzte satz macht nicht so ganz sinn.
Aber wie gesagt, ich habe bisher meist von UE5 Spielen gelesen, also meine Subjektive Bubble.
Demnächst kommen ja eh neue Prozessoren und die 13er und 14er Produktion ist soweit ich mitbekommen habe auch schon eingestellt.
Ich bin gespannt auf die neuen AMD's.
Da du offenbar meinen anderen Post zum "Blast Radius" nicht gelesen hast, werd ich das hier nicht nochmal durchkauen.
Zusammengefasst: Sie nehmen Desktop CPUs, weil weniger Gaming Server pro Hardware laufen und sie so weniger Einfluss auf die Spieler haben, wenn einer ausfällt.
Da scheint sich eine größere Server CPU nicht zu lohnen - im Gegensatz zu den Servern bei MMOs.
Gerade wer eine hohe Verfügbarkeit garantieren will, aber eigentlich auch jeder andere der z.B. um so Sachen wie Stromverbrauch, Load-Management, Skalierung, etc. Gedanken macht, lässt die Server virtualisiert auf einem Pool laufen. Da lohnen sich die großen Server-CPUs, trotz der pro Kern höheren Anschaffungskosten, über die Laufzeit schon alleine wegen der administrativen Möglichkeiten, denn genau für sowas wird Sockel 1700 nicht optimiert. Der ist für Szenarien gedacht, in denen man ein einziges System einsetzen möchte – was sich mit dem Konzept eines Server-Anbieters beißt. Und ja, das gilt auch für Gaming-Server; selbst die Streaming-Angebote von Nvidia & Co laufen virtualisiert auf "großen Systemen".
Hunderte kleiner Rechner hinstellen und die einzeln an Kunden zu vermieten ist eigentlich Stand der 0er-Jahre. Wenn man mit den Nachteilen leben kann, insbesondere der schlechten Auslastung, der fixen Skalierungsgrenze und den hohen Ausfallraten alleine schon durch die Vielzahl an Komponenten, kann das natürlich weiterhin machen. (Sockel 4677 mit 4 SSDs im RAID 5 und 3 redundanten Netzteilen: Bei Ausfall geht eine Mail an den Techniker. Viermal Sockel 1700 mit je 1 SSD und 1 Netzteil: Bei Ausfall geht sitzt einer von vier Kunden vor einem schwarzen Bildschirm. Und Kunde fünf bis acht machen das allgemein, weil man keine zusätzlichen Instanzen reinquetschen kann.)
Aber genau in so einem Fall, wo initial an jedem Cent gespart wurde, ganz besonders an dem nötigen Admin-Know-How, das eine aktuelle Lösung bräuchte, muss die Frage erlaubt sein, ob andere Fehler ausgeschlossen werden können?
Nichts für ungut, aber B760, also Mittelklasse-Consumer-Boards, mit W680, also Workstation, gleichzusetzen ist etwas merkwürdig. W680 kosten durch die Bank um die 500€, sind also selbst für Z790 Verhältnisse teuer.
Workstation SOLLTE wie Server auf Stabilität getrimmt sein. Da werden die meisten Hersteller hoffentlich nicht so blöd sein und für den längsten Balken potentiell zu viel Strom reinpumpen, weil man sich die Arbeit eines angepassten UEFI nicht antun will.
Edit: Hier ein expliziter Kommentar von Wendell dazu:
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst:
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Für mehr Informationen besuche die Datenschutz-Seite.
Wenn ich es richtig sehe (die folgenden 2:00 habe ich nicht durchgeguckt), dann kommen auch da nur "sollte" und "hoffentlich" und vielleicht noch "überwiegend". Zumindest im Preisbereich von 100 bis 1.000 Euro habe ich aber noch keinen Zusammenhang zwischen Preis und Qualität der Voreinstellungen gefunden. Mit der OC-Tauglichkeit oder der offiziellen Board-Zielgruppe skaliert da ebenfalls nichts. In der Regel sieht man eher Copy & Paste innerhalb des jeweiligen Mainboard-Herstellers. Und selbst wenn die Gesamtheit der W680 Mainboards in ihrem Durchschnitt konservativer starten sollte, als die Gesamtheit der Z790er, sagt das nichts über einen konkreten Einzelfall aus, in dem offensichtlich alle System von einem Anbieter auf einer technischen Basis bestellt und mit einer Konfiguration betrieben wurden, von der nicht einmal gesichert ist, ob sie "Default" sein sollte. Wer auf Core i setzt, in der Annahme, dass wäre besser für Spiele, der nutzt vielleicht auch XMP? Nur als Beispiel.
Sind nicht ihre Daten, werden sie also nicht veröffentlichen dürfen.
Ein "wir haben es geprüft und die Konfiguration entspricht Intels Empfehlungen" wäre schon viel wert, auch wenn es letztere leider in der Mehrzahl gibt.
Aber bei mir entsteht bislang der Eindruck, dass an der ganzen Story nur Leute beteiligt sind, die gar keinen Zugriff auf diese Informationen haben oder hatten, sondern stattdessen allein dem Prinzip Hoffnung folgen. Hat der Dienstleister den RAM gemäß Intel-Specs konfiguriert? Ja/Nein. Hat er MCE/APE deaktiviert, dass Asus in der Vergangenheit fast immer per Default an hatte, auch auf nicht-Tuning-Platinen? Ja/Nein. Wurden die Power-Limits geprüft? Ist die Kühlung für mehr als die TDP (=125 W) dimensioniert?
Solche Fragen müssen geklärt sein, ehe man eine Aussage als Primärquelle in die Öffentlichkeit trägt. Denn davon hängt ab, ob man ein Video über Intel macht oder ein Video über Asus oder ein Video über den Server-Dienstleiter. Jeder einzelne davon könnte es verkackt haben.
Ihr könntet ja das ganze als PCGH Special selbst überprüfen. Einfach einen 14900K in einem W680 testen und gegen Z790 und B760 vergleichen. Alles auf Default versteht sich. Unterschiede bei Strom, Leistung, etc.?
@PCGH_Dave hat bereits ausführlich versucht, die Instabilitäten mit einem i9-14900K nachzustellen. Fazit: Es gibt keine. @PCGH_Raff nutzt seit langem einen stark übertakteten i9-13900K für GPU-Tests und testet diesen damit unfreiwillig auf Degradation. Fazit: Es gibt keine.
Ich selbst habe dutzende Z790- und B760 respektive 690/660-Boards getestet. Fazit: Es gibt kein "Default".
Sondern mindestens so viele Defaults wie Boards, teilweise aber auch jedes zweite UEFI ein neues. Ich kann ans Regel gehen und dir ein Board rausziehen, dass "@Default" einen i9 vermutlich selbst bei DIce-Nutzung ins Temp-Limit treibt und ich kann dir ein anderes rausziehen, da könnte man ihn "@Default" passiv kühlen. Bei durchschnittlich-guter Kühlung wird er in letzterem sicherlich weitaus länger leben. Aber welches ist das relevantere Szenario? Und sind es 5 Jahre statt 1 Jahr, wie hier befürchtet, oder 100 Jahre statt 20 Jahre? Und interessiert dass Ergebnis 2124 noch einen PCGH-Zuschauer?
Genau wegen solcher Fragen bin ich ja so scharf darauf, endlich zu erfahren, unter welchen Bedingungen es denn Probleme gibt. Damit wir mal selbst was gezieltes zu dem Thema machen und aufklären können. Aber diese Nadel im Heuhaufen wurde bislang nicht gefunden. Der aktuelle Stand der Story ist: "Jemand im Internet hat gesagt er kennt jemand, dessen PC abgestürzt ist. Im PC war eine Intel-CPU verbaut."
Es sind nicht komplett unbekannte "Jemande" und Intel selbst ist ja auch an der Sache dran, sodass es keine reine Einbildung sein wird. Aber ich denke jeder hier hatte schon einmal vergleichbare Fälle, in denen Hilfe von ihm erwartet wurde, in denen er aber mangels Info nicht einmal einen Level-8-Fehler ausschließen konnte. So sitzen wir hier im Moment auf der Zuschauerbank.
Aber bei mir entsteht bislang der Eindruck, dass an der ganzen Story nur Leute beteiligt sind, die gar keinen Zugriff auf diese Informationen haben oder hatten, sondern stattdessen allein dem Prinzip Hoffnung folgen. Hat der Dienstleister den RAM gemäß Intel-Specs konfiguriert? Ja/Nein. Hat er MCE/APE deaktiviert, dass Asus in der Vergangenheit fast immer per Default an hatte, auch auf nicht-Tuning-Platinen? Ja/Nein. Wurden die Power-Limits geprüft? Ist die Kühlung für mehr als die TDP (=125 W) dimensioniert?
Solche Fragen müssen geklärt sein, ehe man eine Aussage als Primärquelle in die Öffentlichkeit trägt. Denn davon hängt ab, ob man ein Video über Intel macht oder ein Video über Asus oder ein Video über den Server-Dienstleiter. Jeder einzelne davon könnte es verkackt haben.
Mit diesen Fragen und dieser Sicht auf das vorliegende YT-Video bin ich eben im CB als Intel-Fanboy abgestempelt worden.
Ich sehe das so wie du. So wie das Video gemacht ist, wirkt es wie aufgesprungen auf den Anti-Intel-Zug. Ich hätte zumindest erwartet, dass er sich ein W680-Board und ein 14900K schnappt und selbst nachguckt. Probleme nachstellen, schwierig. Aber zumindest hätte man so die Aussagen verifizieren können.
Gut, dass ich mir gleich das im Video in Form eines Postscreens zu sehende Asus-Board persönlich anschaue.