"Schnellste Spiele-CPU der Welt": AMD will mit Ryzen 7 5800X3D 12900K und 5900X schlagen

aber relativ gesehen soll der 5800X3D den 5900X um 15 Prozent im Schnitt schlagen.

Also wenn das wirklich stimmt das der 8 Kerner den 12 Kerner um 15% schlägt, Dann Frage ich mich schon wieso alle hier schreiben sind ja nur 15% Mehrleistung.
Der 5900x hat um 4! Kerne mehr und wird mit niedrigeren Takt von einem 8 Kerner zerlegt.
 
aber relativ gesehen soll der 5800X3D den 5900X um 15 Prozent im Schnitt schlagen.

Also wenn das wirklich stimmt das der 8 Kerner den 12 Kerner um 15% schlägt, Dann Frage ich mich schon wieso alle hier schreiben sind ja nur 15% Mehrleistung.
Der 5900x hat um 4! Kerne mehr und wird mit niedrigeren Takt von einem 8 Kerner zerlegt.
Die "mehr Kerne" bringen halt beim Gaming meistens nichts. Cache ist King, leider ist das 3D Stacking sehr teuer. Bin gespannt auf den Preis, wird seinen Grund haben dass sie dazu geschwiegen haben. Sonst gab es ja auch immer bei Vorstellung die Preise dazu.
 
Ich glaube auch das es nicht an der Temperatur liegt... woher hat den PCGH die Info?
Liegt eher am Stromverbrauch da die CPU nicht mehr verbrauchen darf... Aber der Cache ja auch Strom benötigt..

Das ist eine Mutmaßung von PCGH.... Ich glaube liegt am gleichen Strom Korsett... Der Speicher will ja auch Strom haben..
Oder gibt es da eine Quelle?

Cache verbraucht relativ wenig Strom, der 5800X braucht relativ viel wenn er noch ein paar MHz skalieren soll – das würde nicht wirklich zusammenpassen. Außerdem spräche bei einem Verbrauchsthema nichts dagegen, den Turbotakt in Szenarien, die keinen maximalen Energieumsatz verursachen (also insbesondere in Spielen) auf dem alten Niveau zu lassen und nur den Volllast-Basistakt anzupassen.

Temperaturprobleme durch schlechtere Wärmeabfuhr kann man dagegen auch und gerade dann haben, wenn beispielsweise nur ein einzelner Kern bis ans Limit ausgelastet ist. Den bisherigen Informationen nach senkt AMD auch bei allen Epycs mit V-Cache die Takraten um 200 MHz, obwohl die Abstände zwischen den TDP-Klassen da teilweise mehr Spielraum lassen sollten. Und rein technisch ist die These sehr valide, dass ein zusätzlicher Silizium-Silizium-Wärmeübergang zwischen Kernen und Heatspreader die Kühlung erschwert. Zumal bislang unklar ist, wie überhaupt die Verbindung zwischen den Siliziumschichten erfolgt – Intel spricht bei Foveros Direct von Verbindungen ohne Lötzinn und in der Tat wäre es schwierig, in den engen Spalten ein Verlaufen desselben zu verhindern. Wenn da einfach nur Silizium auf Silizium liegt, wird es schon etwas wärmer werden.

Die einzige andere Erklärung, die ich mir noch aus den Fingern saugen könnte: V-Cache ist so teuer in der Fertigung, dass man sich keinen Ausschuss mehr leisten kann und die Anforderungen beim binning entspannt, um jede CPU verwerten zu können. Aber eigentlich gibt es in der Epyc-Palette genug Salvage-Möglichkeiten für Niedrig-Takt-CCDs, da muss nicht alle V-Cache-Modelle runterstufen.


In Spielen liegt die Leistungsaufnahme aber dicht beisammen.
Wie ist das eigentlich, soll nicht bei Intel nach 56s die TDP auf 125W gesenkt werden? Wie ist das bei den 142W des AMD´s, werden die auch wieder zurück auf die TDP von 105W gedrosselt?

AMDs Zen-CPUs reizen ihr Turbo-Limit dauerhaft aus. Gesenkt wird der Takt erst, wenn der Prozessor überhitzt. Das gleiche Prinzip hat Intel bei Alder Lake aber auch eingeführt – wenn Prime 95 oder ähnliches läuft und wenn die Kühlung 241 Watt abführen kann, dann läuft der i9-12900K auch dauerhaft mit 241 W. (Andere Modelle haben niedrigere, zum Teil deutlich niedrigere Turbo-Power!)

Die 56-Sekunden-Spanne für den PL2-Turbo galt im Sockel 1200, davor waren 28 Sekunden üblich. Korrekt konfiguriert haben die Prozessoren ihren Energieumsatz dann auf die TDP gesenkt. Einstellen kann man das auch bei Alder Lake, aber es wird von Intel nicht mehr vorgegeben. (Und zuvor wurde es nie durchgesetzt.)
 
Wow, folgendes passiert :

AMD bringt eine CPU raus die im Gegensatz zu den Alder-Lakes 3-5% mehr reine Gaming Leistung hat, aber dafür nur 8 Kerne.

Dann dreht man die Auflösung von 1080p (in der sowieso kaum noch jemand spielen sollte heutzutage), einfach mal auf WQHD, und dann hat man beginnend mit Medium settings bis nach 8K Ultra-Schlagmichtot Settings die gleichen FPS, egal welche "über 300€" CPU man verbaut hat.

Sprich der Titel schnellste Gaming CPU, sagt genau so viel aus wie : Das Schnellste Auto (und die TOP 5 fahren allesamt zwischen 460 und 463 km/h) ... Sprich es ist völlig egal was man nimmt =)
 
Oder zu lange. Früher war es ja normal, dass sich die Leistung in einem einzigen Jahr verdoppelt hat.

1: waren es 10%
2: zufrieden war damit kaum jemand, man hatte nur eine Wahl.

Bei CPUs in einem Jahr eine Leistungs verdoppling muss aber wirklich lange her sein.
Wenn ich nur die letzten 10+ Jahre anschaue.
Von der Sandybridge (2700) zur ivy Bridge (3770) und da wieder zur Haswell (?) (4770) waren es bestenfals in spezialen Anwendungen mal 10%. Meine mich zu erinnern das es eher 3-5% waren im Durchschnitt.
Wenn man allerdings irgendwie da AMD (AMD zu Intel vergleicht) mit reinnimmt kann das allerdings wieder problemlos hinhauen.

2.)
Wann ist mal (fast) jeder zufrieden :D
 
Bis du ein freier und denkender Mensch oder ein perma genudgtes Konsumschaf, daß sich von allem und jedem einseifen läßt? Wo "musst" du? Kauf es nicht, dann verdienen sie an dir nichts und bieten dir das nächste mal was besseres an...
Das "muss" ist in Anführungszeichen, damit angedeutet wird, dass es kein eigentliches Müssen ist.
Ich spreche da nicht von mir sondern von denen, die jedes kleinste Upgrade kaufen wollen.
 
AMDs Zen-CPUs reizen ihr Turbo-Limit dauerhaft aus. Gesenkt wird der Takt erst, wenn der Prozessor überhitzt. Das gleiche Prinzip hat Intel bei Alder Lake aber auch eingeführt – wenn Prime 95 oder ähnliches läuft und wenn die Kühlung 241 Watt abführen kann, dann läuft der i9-12900K auch dauerhaft mit 241 W. (Andere Modelle haben niedrigere, zum Teil deutlich niedrigere Turbo-Power!)

Die 56-Sekunden-Spanne für den PL2-Turbo galt im Sockel 1200, davor waren 28 Sekunden üblich. Korrekt konfiguriert haben die Prozessoren ihren Energieumsatz dann auf die TDP gesenkt. Einstellen kann man das auch bei Alder Lake, aber es wird von Intel nicht mehr vorgegeben. (Und zuvor wurde es nie durchgesetzt.)

Verstehe den Ansatz von Intel da nicht. Das man zeitweise eine höhere Leistung zulässt kann ich noch nachvollziehen. Aber dauerhaft bis zu 241W ist eigentlich völliger Käse. In dem Bereich wird die CPU nur ineffizient.

Dann lieber selber bei 150W begrenzen.

Habt ihr zufällig mal die Leistung in Anwendungen vergleichen mit TDP Limit bei 125W, oder 150W?
Bei CPUs in einem Jahr eine Leistungs verdoppling muss aber wirklich lange her sein.
Wenn ich nur die letzten 10+ Jahre anschaue.
Von der Sandybridge (2700) zur ivy Bridge (3770) und da wieder zur Haswell (?) (4770) waren es bestenfals in spezialen Anwendungen mal 10%. Meine mich zu erinnern das es eher 3-5% waren im Durchschnitt.
Wenn man allerdings irgendwie da AMD (AMD zu Intel vergleicht) mit reinnimmt kann das allerdings wieder problemlos hinhauen.

2.)
Wann ist mal (fast) jeder zufrieden :D

Es waren 5-10% je Gen
 
Wieso Brechstange, es wird als Spiele CPU beworben und da liegt der Verbrauch auf Augenhöhe aktuell.
Ja einen echten Enthusiasten wird das egal sein was die CPUs verbrauchen.
Genauso wie jemand der sich einen Lamborghini kauft der Spritverbrauch egal ist.

Wenn ich mir eine nächste CPU hole, werde ich genau darauf achten, dass die Perfomance/Watt auch gut ist.
Ich muß nicht das schnellste haben.
 
Meine erste Frage wäre aus welchem Grund der Takt so massiv runtergeschraubt worden ist ?

Meine zweite Frage wäre ist der normale 5800X in Games und Anwendungen die auf Takt setzten dann genauso schnell oder sogar schneller ?

Meine dritte Frage wäre was soll der 5800X 3 D dann kosten , vorausgesetzt er läuft überhaupt mit einem ca. 1 Jahr altem AM4 Board ?

Und meine vierte Frage wäre , warum macht Amd das überhaupt wenn Ryzen 7000 schon im zweiten Halbjahr 2022 kommen soll ?

Vieleicht Reste Verwertung ?!
:schief:
 
Meine erste Frage wäre aus welchem Grund der Takt so massiv runtergeschraubt worden ist ?
Ich hatte was von thermischen Problemen im Zusammenhang mit dem stacked Cache gelesen. Ob das so stimmt weiß ich nicht.
Meine zweite Frage wäre ist der normale 5800X in Games und Anwendungen die auf Takt setzten dann genauso schnell oder sogar schneller ?
In Anwendungen wohl mindestens genauso schnell. In Spielen auf jeden Fall schneller.
Meine dritte Frage wäre was soll der 5800X 3 D dann kosten , vorausgesetzt er läuft überhaupt mit einem ca. 1 Jahr altem AM4 Board ?
Wieviel genau weiß wohl noch niemand aber auf jeden Fall teurer.
Und meine vierte Frage wäre , warum macht Amd das überhaupt wenn Ryzen 7000 schon im zweiten Halbjahr 2022 kommen soll ?

Vieleicht Reste Verwertung ?!
:schief:
Naja, die 3D Prozessoren waren schon lange angekündigt. Und man muß ja was zum kontern im Rennstall haben.
 
Ja einen echten Enthusiasten wird das egal sein was die CPUs verbrauchen.
Genauso wie jemand der sich einen Lamborghini kauft der Spritverbrauch egal ist.

Wenn ich mir eine nächste CPU hole, werde ich genau darauf achten, dass die Perfomance/Watt auch gut ist.
Ich muß nicht das schnellste haben.

Muss einem ja nicht egal sein. Egal ob 5800x, 5900x, 5950X, 12700k 12900k Für ein Spielerechner sind die auch alle Effizient.

Nur für einen 24/7 Arbeitseinsatz würde ich mir genau überlegen, welche CPU es sein darf ;)

Da gibt es einfach Szenario´s in denen die AMD´s deutlich effizienter arbeiten.
Ich hatte was von thermischen Problemen im Zusammenhang mit dem stacked Cache gelesen. Ob das so stimmt weiß ich nicht.

In Anwendungen wohl mindestens genauso schnell. In Spielen auf jeden Fall schneller.

Wieviel genau weiß wohl noch niemand aber auf jeden Fall teurer.

Naja, die 3D Prozessoren waren schon lange angekündigt. Und man muß ja was zum kontern im Rennstall haben.
Aber kontern würde man ja eh schon im zweiten Halbjahr. Ich weiß auch nicht wofür man den Schritt geht.
 
Exakt so ist es. Insbesondere bei CPUs macht das auch kaum Sinn, so lange man diese zum Gaming nutzt.
So pauschal würde ich das nicht unterschrieben, solange es nach wie vor hart CPU limitierte Titel wie Anno oder Cities Skylines gibt. Man sollte sich der eigenen Anforderungen bewusst werden, wie offenbar z.B. in Post Nr. 66 geschehen.

Verstehe den Ansatz von Intel da nicht. Das man zeitweise eine höhere Leistung zulässt kann ich noch nachvollziehen. Aber dauerhaft bis zu 241W ist eigentlich völliger Käse. In dem Bereich wird die CPU nur ineffizient.
Intel kann sich den Fokus auf Effizienz unter Volllast aktuell nicht leisten, weil sie dann in der Leistung AMD (noch weiter) unterliegen würden.
 
Intel has left the Chat.
Wow, folgendes passiert :

AMD bringt eine CPU raus die im Gegensatz zu den Alder-Lakes 3-5% mehr reine Gaming Leistung hat, aber dafür nur 8 Kerne.

Dann dreht man die Auflösung von 1080p (in der sowieso kaum noch jemand spielen sollte heutzutage), einfach mal auf WQHD, und dann hat man beginnend mit Medium settings bis nach 8K Ultra-Schlagmichtot Settings die gleichen FPS, egal welche "über 300€" CPU man verbaut hat.

Sprich der Titel schnellste Gaming CPU, sagt genau so viel aus wie : Das Schnellste Auto (und die TOP 5 fahren allesamt zwischen 460 und 463 km/h) ... Sprich es ist völlig egal was man nimmt =)
Wow das selbe Beispiel wie von Ryzen 3 auf HeizerLake, aufrüsten musst da nicht außer man hat Bastelzwang oder will einfach nur das schnellste haben.
 
Cache verbraucht relativ wenig Strom, der 5800X braucht relativ viel wenn er noch ein paar MHz skalieren soll – das würde nicht wirklich zusammenpassen. Außerdem spräche bei einem Verbrauchsthema nichts dagegen, den Turbotakt in Szenarien, die keinen maximalen Energieumsatz verursachen (also insbesondere in Spielen) auf dem alten Niveau zu lassen und nur den Volllast-Basistakt anzupassen.

Temperaturprobleme durch schlechtere Wärmeabfuhr kann man dagegen auch und gerade dann haben, wenn beispielsweise nur ein einzelner Kern bis ans Limit ausgelastet ist. Den bisherigen Informationen nach senkt AMD auch bei allen Epycs mit V-Cache die Takraten um 200 MHz, obwohl die Abstände zwischen den TDP-Klassen da teilweise mehr Spielraum lassen sollten. Und rein technisch ist die These sehr valide, dass ein zusätzlicher Silizium-Silizium-Wärmeübergang zwischen Kernen und Heatspreader die Kühlung erschwert. Zumal bislang unklar ist, wie überhaupt die Verbindung zwischen den Siliziumschichten erfolgt – Intel spricht bei Foveros Direct von Verbindungen ohne Lötzinn und in der Tat wäre es schwierig, in den engen Spalten ein Verlaufen desselben zu verhindern. Wenn da einfach nur Silizium auf Silizium liegt, wird es schon etwas wärmer werden.
Der Wärmeübergang dürfte schlechter sein, jedoch wird die Frage sein, ob es das das ganze maßgeblich beeinflusst. Bei entsprechend hoher Oberflächengüte dürfte der Wärmeübergang weiterhin sehr gut sein.
Wenn die Epyc + V-Cache wirklich niedrigeren Spitzentakt mitmachen, wäre ich etwas erstaunt, dass auf die Temperatur zu schieben. Schließlich laufen die einzelnen Chiplets mit deutlich geringeren Leistungsaufnahmen, was auch Kühlungstechnisch wesentlich unkritischer ist.
Die einzige andere Erklärung, die ich mir noch aus den Fingern saugen könnte: V-Cache ist so teuer in der Fertigung, dass man sich keinen Ausschuss mehr leisten kann und die Anforderungen beim binning entspannt, um jede CPU verwerten zu können. Aber eigentlich gibt es in der Epyc-Palette genug Salvage-Möglichkeiten für Niedrig-Takt-CCDs, da muss nicht alle V-Cache-Modelle runterstufen.
Könnte nicht der Cache selbst Ursache sein, indem der Chip schlicht nicht mehr die Taktraten schafft sobal der Cache installiert wurde?
 
Schade das die Quallität des 3D Caches so schlecht ist.. Wir werden sehen, welche Folgen das noch hat!
Woher hast denn das ?!?
Gibt´s dazu auch eine/n Quelle/Link ?
Höre, respektive lese ich just zum ersten mal ... :confused:

MfG Föhn.
naja für 300euro nehm ich den 5800x3d mehr is der nicht wert.
Für 300 € bekommst von INTEL den 12600K, dann nimmst halt jenen ... :daumen:

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Im Endeffekt ist das alles egal
Wenn ich an FS denke und dann 10% schneller .... Ja dann sind's halt 8 FPS mehr (wenn überhaupt)
 
Zurück