News AMDs Ryzen 7 7800X3D ... - Das sagen die PCGH-Redakteure dazu

Müsste die sein. Ich nutze die selbst nie, schaut aber gut aus.
hab da auch geguckt, leider steht da nichts von raptopr lake refresh, die grafik sollte auch überarbeitet werden. :-) zwischen den großen updates sind kommentare ne aktuellere newsquelle dafür >.>
 
Irgendwie zu teuer.. für knapp 100€ mehr gibt es einen 13900k der alles andere als langsam beim Gaming ist, höhere Ram Taktraten verträgt und im Multicore und zukünftig um Welten besser abschneidet.

Der 7950x3d ist nett, man ist aber immer auf einen funktionierenden Scheduler angewiesen, damit die Anwendungen da laufen wo sie sollen.

Die 499€ sind für den 7800x3d einfach zu hoch. Da verzichte ich lieber auf die Effizienz und die letzten paar % fps und investiere lieber in mehr Multicore und zukunftssicherheit.

Für jemanden der eh alle 2 Jahre die CPU wechselst und Geld hat warum nicht.

Für den chaotischen Gamer, der irgendwie alles installiert hat und Launcher und diverse andere Programme, Browser mit zig Tabs usw. offen hat, da würde ich mich nicht mehr mit 8 Kerne abgeben. Die sollten dann schon dem Gaming alleine zur Verfügung stehen.

Ich selbst habe noch einen 5600k und eine 3090 im Einsatz. Der Rechner ist aber auch absolut clean nur zum Gamen. Der Rest läuft auf einem NUC12
Der 7800X3D ist 50 Euro günstiger als der 5800X3D von einem Jahr in UVP. Und das trotz Weltsituation, Inflation etc. 499 Euro zu 549 Euro. Argument nicht nachvollziehbar. Der 13900k ist derzeit 123 Euro teurer und deutlich ineffizienter und im Gaming ist er auch nur ein 8 Kerner mit HT, weil anders als der 3DV Cache sind die E Cores fürs Gaming völlig irrelevant. Und wer nur Gaming betreibt, was interessiert einen dann die Anwendungsleistung?
Das die Kernverteilung bei den Ryzen 9 7000X3D nahezu immer funktioniert haben verschiedene Creatoren, Medien sowie auch PCGH nachgewiesen. Ist also auch kein Argument.
8 Kerne sind das Optimum für Gaming auch mit Hintergrundanwendungen und das wird auch noch 2-3 Jahre der Fall sein. Die Wenigsten PC Nutzer haben mehr als ein Anwendungsgebiet. In 2023 kauft man sich die Hardware welche einem die beste Leistung im eigenen Anwendungsbereich bietet und nicht welche Hardware Overall besser ist oder alles nur "gut" kann. und dann kann man noch differenzieren welche Hardware am besten auf die genutzten Anwendungen optimiert ist.
 
Der 7950x3d ist nett, man ist aber immer auf einen funktionierenden Scheduler angewiesen, damit die Anwendungen da laufen wo sie sollen.
Nee, stimmt der 13900k läuft auch völlig ohne Scheduler und kann P und E Cores alleine den Prozessen zuweisen

In Fachkreisen behandelt man momentan mit zunehmender Besorgnis die Frage: wer kann AMD mittel- und langfristig noch Paroli bieten, ist AMD noch zu stoppen, oder ist der technische Vorsprung bereits zu groß?
Naja, Intel konnte schon vor Jahren Cache dazu packen und ein Raptor Lake mit doppeltem Cache wäre zwar teuer aber sicher möglich, würde halt nicht gestackt sein.

Ansonsten ist AMD flexibler und effizienter (selbst wenn man den Fertigungsnachteil von Intel berücksichtigt), dafür ist Intel SingleCore schneller.
So groß ist der Vorsprung also nicht.
 
Nope, mein i7 3770 ist das das Gegenbeispiel. Für Spiele hätte es damals auch ein Zweikern i3 mehr als getan (deshalb haben die i3 die FX CPUs von AMD damals auch in Spielen vernichtet, selbst die i7 konnten sich großteils nur mit mehr Takt und Cache etwas absetzen).

Die Frage ist, ob es sich langfristig rentiert. Bei meinem i7 3770 waren die 130€ gut angelegt. Bei anderen, besonders HEDT, hat es sich gelohnt, in der Mitte aufzurüsten.

PCGH 11/2012
i7-3770K: 90,7 Prozent im Index mit 3,5/3,9 GHz auf vier Kernen + SMT
i5-3570K: 83,6 Prozent im Index mit 3,4/3,8 GHz auf vier Kernen
i3-3240: 63,2 Prozent im Index mit 3,4 GHz auf zwei Kernen + SMT

Und der Index erzählt nur die halbe Wahrheit. In Anno 2070 hatte der i7 44 Prozent Vorsprung, in Skyrim und Total War 30 Prozent – bei trotzdem unter 30 Fps in letzterem. Wie man bei diesen Ergebnissen darauf hätte kommen können, dass es jenseits eines Dual Cores allenfalls noch Taktvorteile (maximal 14 Prozent) geben könnte, ist mir ein Rätsel. Vier Jahre nach dem Core 2 Quad war vollkommen klar, wohin die Reise geht und dass man mit einem i3 zwar vielleicht in der Gegenwart noch einigermaßen Spielen kann, aber deutlich weniger Reserven für die Zukunft hat. Genauso, wie man heute mit einem Ryzen 3300 leben kann, aber langfristig selbst mit einem i3-12100F spürbar besser dasteht oder aber eben mit einem 7800X3D ordentlich Potenzial in Reserve hätte. Jenseits dessen sieht das Bild z.B. eines 7950X aber eben so aus, wie seinerseits zwischen deinem i7-3770K und dem i7-3960X: Ja, es gibt CPUs, die für sehr viel mehr Geld bei einem viel höheren Verbrauch ein paar extra Kerne bieten. Aber in Spielen sind diese zum Teil sogar langsamer, im Schnitt gerade mal gleich schnell. Ob nennenswert Titel erscheinen, die so viele Kerne sinnvoll nutzen können, bevor die pro Kern mindestens verlangte Leistung eine komplett neue CPU-Generation erfordert, ist ungewiss.

Du hast dich damals gegen ein High-End-Sockel-2011-System entschieden und wenn man bedenkt, was du dir von dem gesparten Geld als Ersatz für den 3770K heute kaufen kannst, ist das aus Spielersicht die vollkommen richtige Entscheidung gewesen. Genauso werden sich viele Leute gegen einen AM5-16-Kerner entscheiden und die Chancen, dass sie darüber später froh sein werden, stehen gut. Genau die gleiche Fragestellung gab es beispielsweise auch zwischen 6700K und 5930K oder, preislich näher beieinander, 1800X und 7600K. Und praktisch immer erwies sich die Kernkonfiguration, die ein paar Jahre zuvor High-End war (heute: Achtkerner) als besserer Deal und ausreichend langlebig, wenn sie die gleiche Pro-Kern-Leistung hatte und günstiger war oder aber als letztlich schnelleres Design, wenn es mehr Leistung pro Kern zum gleichen Preis gab. Es ist einfach schwer, viele Threads in Spielen effektiv zu nutzen und es lohnt sich für Entwickler erst, wenn die gesamte Zielgruppe so viele Kerne hat. Zu hohe Mindestanforderungen schränken die Verkäufe ein, mangelnde Skalierung von High-End auf Enthusiast-CPUs nicht. Das heißt den Engine-Overhead für eine effektive Nutzung von 24 oder gar 32 statt von 16 Threads wird man sich noch eine ganze Zeit sparen, um Hexacores oder aktuell sogar Quadcores nicht zu überfordern.


such gerade die pcgh cpu roadmap, ne spiele roadmap ist verlinkt, aber cpu:schnarch:

Plattform-Zukunftsaussichten stehen auch in der Mainboard-Kaufberatung und der (seltener aktualisierten) Plattformübersicht. :-)

[/shamless self advertising]
 
Ja, es gibt CPUs, die für sehr viel mehr Geld bei einem viel höheren Verbrauch ein paar extra Kerne bieten. Aber in Spielen sind diese zum Teil sogar langsamer, im Schnitt gerade mal gleich schnell. Ob nennenswert Titel erscheinen, die so viele Kerne sinnvoll nutzen können, bevor die pro Kern mindestens verlangte Leistung eine komplett neue CPU-Generation erfordert, ist ungewiss.
Sag das bloß nicht dem @PCGH_Raff :-D
 
In Fachkreisen behandelt man momentan mit zunehmender Besorgnis die Frage: wer kann AMD mittel- und langfristig noch Paroli bieten, ist AMD noch zu stoppen, oder ist der technische Vorsprung bereits zu groß?
Das ist mal völliger Blödsinn !
Der 7800X3D ist als reine Gaming CPU ein wahres Effizienzmonster, keine Frage. In Punkto Effizienz Intel hier derzeit haushoch überlegen.

Aber gehen wir einmal 10 Jahre zurück. Was war denn da ?
Richtig. Intel war AMD mit ihren mißratenen Bulldozern haushoch überlegen. Und das in der Leistung pro Takt und auch in der Effizienz. AMD hat man damals abgeschrieben. Sie waren für sehr viele quasi mausetot und kurz vor der Pleite. 4 Jahre später kam AMD mit Ryzen 1. Deutlich konkurrenzfähiger und mit wegweisender Technik, womit man in der Lage war, 8 Kerne für einen deutlich günstigeren Preis anzubieten. Auch wenn man noch nicht in der Lage war, Intel auf Augenhöhe zu begegnen, so hat man Intel in den folgenden Jahren doch schwer in die Bredoullie gebracht und für die Trägheit als unangefochtener Marktführer des letzten Jahrzehntes böse geärgert. Ryzen wurde immer besser, und Intel konnte nur mit massiven Brechstangen was entgegensetzen.

Und nun begegnen sich beide quasi auf Augenhöhe. Wobei AMD mit den X3D Prozessoren wohl wieder ein Meilenstein fürProzessoren für PC Gaming rausgehauen hat. Intel kann mit dem derzeitigen Topmodell zwar mithalten, braucht da aber faktisch die 3-fache Energiemenge für. Das ist schon eine schmachvolle Demütigung für Intel. Aber abseits von Gaming, was nur eine kleine Nische ist, sind beide quasi auf Augenhöhe. Und das ist auch gut so.

Man muß auch beachten, das AMD im Vergleich zum Giganten Intel recht klein ist. Selbst wenn AMD durch die Bank die besseren Produkte hätte, so wäre AMD jedoch niemals in der Lage, den ganzen Markt bedienen zu können. Ganz einfach, weil sie im Gegensatz zu Intel Fremdfertigen lassen müssen. Hätten sie ihre eigene Fertigung damals nicht veräußert, dann würde es AMD wohl heute nicht mehr geben. Denn das jetzige Global Foundries ist die ehemalige AMD Fertigung.
 
Und nun begegnen sich beide quasi auf Augenhöhe. Wobei AMD mit den X3D Prozessoren wohl wieder ein Meilenstein fürProzessoren für PC Gaming rausgehauen hat. Intel kann mit dem derzeitigen Topmodell zwar mithalten, braucht da aber faktisch die 3-fache Energiemenge für. Das ist schon eine schmachvolle Demütigung für Intel. Aber abseits von Gaming, was nur eine kleine Nische ist, sind beide quasi auf Augenhöhe. Und das ist auch gut so.
Mich würde mal interessieren was Intel zukünftig macht. Ob die auch auf 3D Cache setzen.
Das könnte dann wieder ein Vorteil für sie werden. Da die IPC pro Kern von Intel noch etwas höher ist.
 
Mich würde mal interessieren was Intel zukünftig macht. Ob die auch auf 3D Cache setzen.
Den L3-Cache hat Intel schon kräftig ausgebaut. Von Comet Lake mal abgesehen hatten die Topmodelle alle um 16 MiByte herum, was den Desktop angeht. Raptor Lake kann inzwischen mehr als das Doppelte anbieten, nämlich 36 MiByte. Ein Core i9-10900K bot seinerzeit zwar 20 MiByte, die wurden allerdings von der Architektur gebremst, denn ein i5-11400F mit nur 12 MiByte ist bereits auf Augenhöhe mit dem 10-Kerner.

Ansonsten: Wie man an Broadwell gesehen hat, weiß Intel durchaus, wie man einer CPU mehr Cache bereitstellt. Wenn sie es gewollt hätten, gäbe es da längst weitere Modelle. Stattdessen hat man sich spätestens seit dem i9-9900K dazu entschieden, per Watt-Holzhammer die Listen anzuführen. Kann man machen, zeugt nur nicht gerade von Erfindergeist :ka:
 
Zuletzt bearbeitet:
Den L3-Cache hat Intel schon kräftig ausgebaut. Von Comet Lake mal abgesehen hatten die Topmodelle alle um 16 MiByte herum, was den Desktop angeht. Raptor Lake kann inzwischen mehr als das Dreifache anbieten, nämlich 36 MiByte. Ein Core i9-10900K bot seinerzeit zwar 20 MiByte, die wurden allerdings von der Architektur gebremst, denn ein i5-11400F mit nur 12 MiByte ist bereits auf Augenhöhe mit dem 10-Kerner.

Ansonsten: Wie man an Broadwell gesehen hat, weiß Intel durchaus, wie man einer CPU mehr Cache bereitstellt. Wenn sie es gewollt hätten, gäbe es da längst weitere Modelle. Stattdessen hat man sich spätestens seit dem i9-9900K dazu entschieden, per Watt-Holzhammer die Listen anzuführen. Kann man machen, zeugt nur nicht gerade von Erfindergeist :ka:
Dann könnten sie vielleicht irgendwann L4 Cache wieder einführen?
 
Vielleicht gibt es irgendwann auch einfach Cache-CPUs. Ohne 3D, muss man ja nicht stapeln. Das in einem einzigen Chip zu vereinen, kostet aber nicht nur neue Masken und entsprechende Produktionskosten, die Chips werden auch größer und damit die Yield-Rate geringer. Deswegen ist es so clever von AMD das Zeug zu stapeln, einfach auf vorhandene CPUs zu "kleben".

Außerdem ist die Architektur noch wichtig, wie gerade angeführt. Bei AMD reagieren die Chips eben recht freundlich auf den zusätzlichen Cache, das muss bei intel nicht dasselbe sein. Vielleicht behandelt man damit nur ein Ryzen-Problem, und bei intel skaliert das nicht in gleichem Maße. Ich bin sicher bei intel weiß man genau warum und wieso und why not. Die Effizienz solcher niedriger getakteten Lots-of-Cache-Ryzens ist aber schon sehr beeindruckend. Sicher auch für intel.

Update:
Wieviel Platz auf dem Silizium alleine der L3-Cache für sich beansprucht, könnt ihr hier sehen:
Zen 2 hatte auch schon 32MB, also hier 2x 16MB. Das ist nochmal soviel Platz wie für die CPU-Kerne. Also ist stapeln, den Cache von einem extra Wafer verwenden auch die Methode der Wahl. Wie weit man da bei intel ist, ob man das auch plant, testet, können leider nur Insider verraten. Aber man sieht mit bloßem Auge, noch 2x soviel Cache zusätzlich würde die Größe des 8-Core-Chiplets auf das Doppelte aufblasen. Mit allen Konsequenzen für die Produktion.
 
Zuletzt bearbeitet:
Irgendwie freut es mich das AMD zu gut abliefert. Die Effizienz/Verbrauch sollte 2023 bei allen mehr in den Fokus rücken.
Spart Energie, Geld und Wärme.

Obwohl ich bei Intel immer zufrieden war, beneide ich den 7800X3D Verbrauch und wünsche mir von Intel mal mehr Optimierungen zum Verbrauch.

Nein Dave ich wechsle nicht (schon wieder) deswegen keine Sorge. Aber kurz mal Komponenten und Buchtpreise habe ich trotzdem gecheckt… ;-)
 
Aber kurz mal Komponenten und Buchtpreise habe ich trotzdem gecheckt… ;-)
1681049048332.png


Von einem 13700K lohnt es sich halt kaum. Den DDR5-7200-Speicher könntest du dann auch nicht mehr richtig ausfahren.
 
Ja gutes Produkt hin oder her - aber da müsste ich CPU, RAM, Board komplett tauschen und des rechnet sich ewig nicht - alles gut. Da besteht dieses Mal kein Grund zur Sorge.
 
Zuletzt bearbeitet:
Sag das bloß nicht dem @PCGH_Raff :-D

Als mir Skylake in Haus kam, hat der damalige Haswell-E-Nutzer über meinen nicht mehr zeitgemäßen Quadcore abgelästert. Ich glaube als ich dann tatsächlich ins CPU-Limit kam (bei durchaus Raffesken Fps), hatte der Grafikguru schon dreimal die Plattform gewechselt und während ich heute immer noch das Mainboard von damals nutze, müsste er mittlerweile bei seiner vierten CPU sein. Aber er hatte immer genug Kerne für die Zukunft.^^
 
Zurück