"Schnellste Spiele-CPU der Welt": AMD will mit Ryzen 7 5800X3D 12900K und 5900X schlagen

Man kann hier echt keine Kommentarsektion unter irgendeinem Artikel durchlesen ohne die immerselben Personen zu sehen, die sich mit ihrem Fanboygetue lächerlich machen. Wird euch euer Geschwurbel eigentlich nie langweilig, oder wie kann man dran Spaß haben immer im selben Kreis zu hüpfen? :rollen:

@Topic

Teil hört sich interessant an. Mal schauen was unter reellen Testbedingungen bei rumkommt und ob man mit Wasserkühlung und bissl Undervolting vielleicht doch noch ein bisschen was rauskitzeln kann. Hab zwar einen 5600X, aber der war ein Verlegenheitskauf und ich wollte eigentlich nen 5800X haben, den es zu dem Zeitpunkt nur stark überteuert gab.
 
Weil sie es können! :D
Vielleicht wollte AMD hier einfach einen Vorstoß wagen und erste Erfahrungen damit sammeln.
Woher hast denn das ?!?
Gibt´s dazu auch eine/n Quelle/Link ?
Höre, respektive lese ich just zum ersten mal ... :confused:

MfG Föhn.

Für 300 € bekommst von INTEL den 12600K, dann nimmst halt jenen ... :daumen:

MfG Föhn.
Wenn du den 12600k übertaktes mit sehr schnellem Ram, wird der auch kaum fühlbar langsamer sein. Es ist immer noch ein Trauerspiel, das Spiele immer noch nicht besonders stark von vielen Kernen profitieren. Man schaue sich nur an, wie dicht ein 12600k dem 12900k folgt, wenn der CPU und Ram Takt der selbe ist.
Im Endeffekt ist das alles egal
Wenn ich an FS denke und dann 10% schneller .... Ja dann sind's halt 8 FPS mehr (wenn überhaupt)

Auf der anderen Seite, freut man sich doch über jede Entwicklung, weil es eben die Ausnahmespiele gibt. Bei denen es um jedes Frame geht. Gibt garantiert ein paar Spiele, in denen man sich freut wenn es 10% mehr Fps gibt. Mir selbst fällt nur ein Beispiel ein, aber das ist meine persönliche Blase. Jeder von uns kennt eine dieser Ausnahmen.
 
Zuletzt bearbeitet:
@derneuemann
Natürlich. Ich bin auch gespannt wie es nachher in der Praxis aussieht.
für neu Käufer und Updgrade von Ryzen 2000 vllt auch 3000 wahrscheinlich DIE spiele cpu
Nur man liest halt hier immer Intel oder amd .
beide tun sich nichts und paar fps unterschied kommt immer rüber als kackt der jeweils andere ab
 
So pauschal würde ich das nicht unterschrieben, solange es nach wie vor hart CPU limitierte Titel wie Anno oder Cities Skylines gibt. Man sollte sich der eigenen Anforderungen bewusst werden, wie offenbar z.B. in Post Nr. 66 geschehen.

Intel kann sich den Fokus auf Effizienz unter Volllast aktuell nicht leisten, weil sie dann in der Leistung AMD (noch weiter) unterliegen würden.
Hm, wenn man eine CPU sowieso schon als Gaming CPU vermarkten muss, weil man eben bei Anwendungen nicht voll punkten kann, dann hätten man sich die hohe Leistungsaufnahme, die nur bei Anwendungen zu sehen ist auch sparen können. Zumal bei den letzten Generationen die Intel spitzen CPUs auch mit hartem TDP Limit nicht mal annährend so viel Leistung verloren haben, wie die TDP zurück gegangen ist.

Wenn man sich anschaut, wie so eine CPU mit Spannung skaliert, dann fällt schnell auf das es durchaus denkbar ist, das ein 12900k mit 150W maximaler Leistungsaufnahme, knapp über 90% der Anwendungsleistung eines nicht limitierten 12900k erreicht.

Ich rede nicht von Undervolting.

Einzig CPU A (Beispiel) braucht für einen stabilen betrieb (inkl. Sicherheitsreserven) für:
4,5GHz 1,3V
4,3GHz 1,2V
4,2GHz 1,1V
4,1GHz 1,05V
@derneuemann
Natürlich. Ich bin auch gespannt wie es nachher in der Praxis aussieht.
für neu Käufer und Updgrade von Ryzen 2000 vllt auch 3000 wahrscheinlich DIE spiele cpu
Nur man liest halt hier immer Intel oder amd .
beide tun sich nichts und paar fps unterschied kommt immer rüber als kackt der jeweils andere ab
Das ist ja nur heiße Luft!

Ganz ehrlich, mit einem übertakteten 5600X, 10600k, oder alles danach, mit mindestens 6 Kernen und schnellem Speicher, wird in der realen Welt kaum einer einen Unterschied fühlen können in 95% der Spiele und dabei ist es noch fraglich ob es in den letzten 5% wirklich einer kann, das hängt einfach nur stark vom persönlichen Anforderungsprofil ab. Ob 1080p 240Hz, 1080p 60Hz, 4k, VR.
 
@derneuemann
Ja teilweise schon
Aber nicht wenn man nur den Takt erhöht und auf die max FPS schaut oder im GPU Limit unterwegs ist

Teils lassen sich so aber frametimes glätten oder min FPS anheben oder einfach die Temperatur senken
 
Hm, wenn man eine CPU sowieso schon als Gaming CPU vermarkten muss, weil man eben bei Anwendungen nicht voll punkten kann, dann hätten man sich die hohe Leistungsaufnahme, die nur bei Anwendungen zu sehen ist auch sparen können.
Wird ADL denn nur als Spiele CPU vermarktet? Und so schlecht ist die Anwendungsleistung doch nicht.

Zumal bei den letzten Generationen die Intel spitzen CPUs auch mit hartem TDP Limit nicht mal annährend so viel Leistung verloren haben, wie die TDP zurück gegangen ist.
Ich weiß nicht, ob ich das richtig verstehe. Im Gegensatz zu ADL haben die direkten Vorgänger im nicht-Boost-TDP-Limit an Spieleleistung verloren, weil der Takt gesenkt werden musste. Wie es scheint möchte Intel mit allen Mitteln die Leistungskrone behalten und der Markt wird es ihnen bestimmt bestätigen, weshalb sie nun schon wieder einen übertriebenen "KS" rausbringen werden.

Ganz ehrlich, mit einem übertakteten 5600X, 10600k, oder alles danach, mit mindestens 6 Kernen und schnellem Speicher, wird in der realen Welt kaum einer einen Unterschied fühlen können in 95% der Spiele und dabei ist es noch fraglich ob es in den letzten 5% wirklich einer kann, das hängt einfach nur stark vom persönlichen Anforderungsprofil ab. Ob 1080p 240Hz, 1080p 60Hz, 4k, VR.
Ja, ist vermutlich so.
 
Verstehe den Ansatz von Intel da nicht. Das man zeitweise eine höhere Leistung zulässt kann ich noch nachvollziehen. Aber dauerhaft bis zu 241W ist eigentlich völliger Käse. In dem Bereich wird die CPU nur ineffizient.

Dann lieber selber bei 150W begrenzen.

Habt ihr zufällig mal die Leistung in Anwendungen vergleichen mit TDP Limit bei 125W, oder 150W?


Es waren 5-10% je Gen

Schau mal in die 01/2022. Dave hat den 12900K für den Launch-Test sowohl @241 W als auch mit 125-W-PL1 getestet.


Der Wärmeübergang dürfte schlechter sein, jedoch wird die Frage sein, ob es das das ganze maßgeblich beeinflusst. Bei entsprechend hoher Oberflächengüte dürfte der Wärmeübergang weiterhin sehr gut sein.
Wenn die Epyc + V-Cache wirklich niedrigeren Spitzentakt mitmachen, wäre ich etwas erstaunt, dass auf die Temperatur zu schieben. Schließlich laufen die einzelnen Chiplets mit deutlich geringeren Leistungsaufnahmen, was auch Kühlungstechnisch wesentlich unkritischer ist.

Könnte nicht der Cache selbst Ursache sein, indem der Chip schlicht nicht mehr die Taktraten schafft sobal der Cache installiert wurde?

Wie gesagt: Beim Spitzentakt, der sowie nicht auf allen Kernen gleichzeitig garantiert wird, geht es weniger um die Gesamtleistungaufnahme und mehr um die Leistungsdichte. Wenn ein Kern maximal aufdreht, dann musst du diese kleinen Punkt im Silizium bei Laune halten können – geht das schlechter, muss der Boost-Takt runter. Was andere CCX machen, spielt dagegen erst beim Basistakt eine Rolle.

Der Cache selbst soll in seinem Aufbau dem bereits benutzten entsprechen, kann also potenziell die gleichen Taktraten erreichen. Für die Anbindungstechnik wird auch volle Signalqualität versprochen. Es bleibt natürlich der allgemeine Effekt, dass die enorme Transistordichte von Cache die Wahrscheinlichkeit erhöht, ein paar schlecht skalierende Schaltkreise im Chip zu haben. Intels erste/echte Extreme Editions waren für dieses Problem bekannt, weil deren zusätzlicher L3 beinahe doppelt so viele Transistoren wie der Ausgangsprozessor hatte.

Aber das ist dann wieder der Binning-Effekt, den ich meine: Wäre das AMDs einziges Problem, wäre Zen 3D prinzipiell genauso gut taktbar und es würden nur weniger CCDs die Qualität für das höchste Tempo haben. In diesem Fall die Ausbeute durch reduzierte Qualitätsanforderungen zu senken ergibt aber nur Sinn, wenn man keine andere Verwendungsmöglichkeit für schlechtere Exemplare hat oder wenn man keinen Bedarf für ein schnelleres Produkt am Markt sieht. Letzteres ist aber bei diesem Halo-Intel-Konter definitiv nicht der Fall und für ersteres hat AMD eigentlich das breit gefächerte Epyc-Angebot. Für den 5800X würde man erwarten, dass sowieso nur die hochwertigsten CCD überhaupt verbaut werden, um Alder Lake eins auszuwischen.
 
Wird ADL denn nur als Spiele CPU vermarktet? Und so schlecht ist die Anwendungsleistung doch nicht.

Ich weiß nicht, ob ich das richtig verstehe. Im Gegensatz zu ADL haben die direkten Vorgänger im nicht-Boost-TDP-Limit an Spieleleistung verloren, weil der Takt gesenkt werden musste. Wie es scheint möchte Intel mit allen Mitteln die Leistungskrone behalten und der Markt wird es ihnen bestimmt bestätigen, weshalb sie nun schon wieder einen übertriebenen "KS" rausbringen werden.
"nur" Spiele CPU will ich aber gar nicht gesagt haben, aber ich sehe da von der Werbung schon einen Schwerpunkt. Kann mich natürlich auch täuschen.

Die Anwendungsleistung wäre auch nicht schlecht, bei nur maximal 150W, statt 241W. Ein 12900k wird doch bei 150W keine 10% an Durchschnittsleistung verlieren.

Es war doch in der Vergangenheit so, das es gerade in Spielen kaum zu einem Leistungsverlust kam. Auch beim 12900k im Test, wurde festgestellt, das man mit 125W auskommt (zumindest gemittelt, mit kurzen wenigen ausreißern, über maximal Sekunden), für die volle Spieleleistung.

Auch ein KS Modell wird kaum über die 125W beim Spielen kommen. Vo daher sehe ich den einzigen Fehler bei Intel derzeit darin, maximal 241W Verbrauch zuzulassen. Ansonsten sind es wirklich gute CPUs geworden.
Schau mal in die 01/2022. Dave hat den 12900K für den Launch-Test sowohl @241 W als auch mit 125-W-PL1 getestet.




Wie gesagt: Beim Spitzentakt, der sowie nicht auf allen Kernen gleichzeitig garantiert wird, geht es weniger um die Gesamtleistungaufnahme und mehr um die Leistungsdichte. Wenn ein Kern maximal aufdreht, dann musst du diese kleinen Punkt im Silizium bei Laune halten können – geht das schlechter, muss der Boost-Takt runter. Was andere CCX machen, spielt dagegen erst beim Basistakt eine Rolle.

Der Cache selbst soll in seinem Aufbau dem bereits benutzten entsprechen, kann also potenziell die gleichen Taktraten erreichen. Für die Anbindungstechnik wird auch volle Signalqualität versprochen. Es bleibt natürlich der allgemeine Effekt, dass die enorme Transistordichte von Cache die Wahrscheinlichkeit erhöht, ein paar schlecht skalierende Schaltkreise im Chip zu haben. Intels erste/echte Extreme Editions waren für dieses Problem bekannt, weil deren zusätzlicher L3 beinahe doppelt so viele Transistoren wie der Ausgangsprozessor hatte.

Aber das ist dann wieder der Binning-Effekt, den ich meine: Wäre das AMDs einziges Problem, wäre Zen 3D prinzipiell genauso gut taktbar und es würden nur weniger CCDs die Qualität für das höchste Tempo haben. In diesem Fall die Ausbeute durch reduzierte Qualitätsanforderungen zu senken ergibt aber nur Sinn, wenn man keine andere Verwendungsmöglichkeit für schlechtere Exemplare hat oder wenn man keinen Bedarf für ein schnelleres Produkt am Markt sieht. Letzteres ist aber bei diesem Halo-Intel-Konter definitiv nicht der Fall und für ersteres hat AMD eigentlich das breit gefächerte Epyc-Angebot. Für den 5800X würde man erwarten, dass sowieso nur die hochwertigsten CCD überhaupt verbaut werden, um Alder Lake eins auszuwischen.
Danke für den Tipp, Online als Plus Artikel gibt es das nicht? Dann werde ich später mal in Laden ;) Das interessiert mich schon...
 
Wie gesagt: Beim Spitzentakt, der sowie nicht auf allen Kernen gleichzeitig garantiert wird, geht es weniger um die Gesamtleistungaufnahme und mehr um die Leistungsdichte. Wenn ein Kern maximal aufdreht, dann musst du diese kleinen Punkt im Silizium bei Laune halten können – geht das schlechter, muss der Boost-Takt runter. Was andere CCX machen, spielt dagegen erst beim Basistakt eine Rolle.
Auch dann bleibt es ja beim Epyc deutlich genügsamer, was dagegen spricht dass der Wärmeübergang perse schlechter sein muss. Bisher war auch das Chiplet selbst meist der limitierende Faktor nicht, die Wärmestromdichte des einzelnen Kernes. Dann dürfte man generell auch mit dem PL Probleme erhalten da hier der komplette WÜ wesentlich schlechter ausfallen müsste.
Der Cache selbst soll in seinem Aufbau dem bereits benutzten entsprechen, kann also potenziell die gleichen Taktraten erreichen. Für die Anbindungstechnik wird auch volle Signalqualität versprochen. Es bleibt natürlich der allgemeine Effekt, dass die enorme Transistordichte von Cache die Wahrscheinlichkeit erhöht, ein paar schlecht skalierende Schaltkreise im Chip zu haben. Intels erste/echte Extreme Editions waren für dieses Problem bekannt, weil deren zusätzlicher L3 beinahe doppelt so viele Transistoren wie der Ausgangsprozessor hatte.

Aber das ist dann wieder der Binning-Effekt, den ich meine: Wäre das AMDs einziges Problem, wäre Zen 3D prinzipiell genauso gut taktbar und es würden nur weniger CCDs die Qualität für das höchste Tempo haben. In diesem Fall die Ausbeute durch reduzierte Qualitätsanforderungen zu senken ergibt aber nur Sinn, wenn man keine andere Verwendungsmöglichkeit für schlechtere Exemplare hat oder wenn man keinen Bedarf für ein schnelleres Produkt am Markt sieht. Letzteres ist aber bei diesem Halo-Intel-Konter definitiv nicht der Fall und für ersteres hat AMD eigentlich das breit gefächerte Epyc-Angebot. Für den 5800X würde man erwarten, dass sowieso nur die hochwertigsten CCD überhaupt verbaut werden, um Alder Lake eins auszuwischen.
Generell stimme ich dir zu. Das Binning wird wesentlich aufwendiger. Vermutlich steht der Aufwand in keinem Verhältnis zur Stückzahl bzw. der Preis würde nicht mehr passen. Letztendlich hat man ja das Ziel auch mit den niedrigeren Taktraten erreicht.
 
Zurück