Ryzen 4000: AMD lässt sich angeblich Zeit, weil man es kann - düsterer Ausblick für Intel?

Das ist nicht limitiert vs unlimitiert. Das ist ein Vergleich mit den von den Herstellern festgelegten Parametern. Intel kann ihre Prozessoren doch gerne auf 100W oder so beschränken. Du weisst aber ganz genau wie es dann in Benchmarks aussehen würde. ;)

Die 250W liegen nur kurzzeitig an und das weißt du ganz genau. PCGH hat doch auch Anwendungsbenchmark mit festen 125W gemacht und wer hätte es gedacht, der 10900k büßt nur minimal Leistung ein...
 
Das ist nicht limitiert vs unlimitiert. Das ist ein Vergleich mit den von den Herstellern festgelegten Parametern. Intel kann ihre Prozessoren doch gerne auf 100W oder so beschränken. Du weisst aber ganz genau wie es dann in Benchmarks aussehen würde. ;)

Schau in den PCGH Test, mitTDP auf 125 limitiert, verliert der 10900k fast keine Leistung. Bitte lies den Test und das ganz, mit allen Messwerten!


Nichtmal grossartig weniger effizient? Soll das Sarkasmus sein?

Intel Core i9-10900K und i5-10600K im Test: Leistungsaufnahme, Effizienz, Temperatur und Overclocking - ComputerBase

i9-10900K Delta 1 Thread: 50W
i9-10900K Delta volle Auslastung: 329W
Ryzen 9 3900X Delta 1 Thread: 42W
Ryzen 9 3900X volle Auslastung: 142W

Sind natürlich keine direkten CPU Leistungswerte, da hier noch Verluste durch Netzteil und SpaWas hinzukommen. Gibt aber trotzdem ganz gut das Verhältnis wieder. Und da der Ryzen 9 3900X etwa 10% schneller ist in Multicore Anwendungen, ist er mehr als 2,5 mal so effizient! Das ist schlichtweg eine einzige Katastrophe was Comet Lake an Effizienz zu bieten hat. Völlig überzüchtet, um zumindest bei der Performance nicht komplett den Anschluss zu verlieren. So schlimm war es seinerzeit nicht mal um Bulldozer bestellt. Sandy Bridge war unter Vollast "nur" etwa doppelt so effizient.


Man muss aber auch nichts verharmlosen. Comet Lake ist ein totaler Reinfall. Zu spät, zu altbacken, zu ineffizient, zu teuer. Und dafür wird Intel auch zurecht von den Käufern abgestraft.


Was soll daran enttäuschend sein? Entscheidend sind Fortschritte. Und die hat AMD zweifelsohne auch in diesem Bereich mit Zen 2 gemacht. Je nachdem in welchem Segment man vergleicht sind die Unterschiede komplett vernachlässigbar. Zum Launch der Ryzen 3000 Serie war der i9 9900K aktuell. Und mit einem vergleichbaren Power Target liefert der Ryzen 9 3900X quasi die gleichen Frametimes unter FHD. Alles weitere ist wie gesagt einfach der Überzüchtung der mittlerweile in die Jahre gekommenen Skylake Infrastruktur geschuldet. Man sollte nicht vergessen, Comet Lake ist fast ein Jahr später als Zen 2 erschienen. Der einzige echte Vorteil von Intel in Spielen hat weniger was mit der Kernarchitektur oder der Fertigung zu tun, sondern den DRAM Latenzen. Ich bin mir sicher AMD wird auch hier einiges verbessern mit Zen 3.


@topic

Auf die Gerüchte würde ich erstmal nichts geben. Die Quelle ist der gleiche Typ der behauptet hat, Zen 3 kommt bereits in 5 nm. Wobei ein 2021er Zen 3 in 5nm sicherlich möglich ist. Das ist dann aber eher eine Option für einen Refresh oder einen mobilen Ableger.

Da Prime weder Spiel noch eine echte praxisnahe Anwendung ist, bleibt meine Aussage völlig unangetastet. Such dir bitte einen Test, wie den von PCGH, der die Leistungsaufnahme, in Spielen und Anwendunge aufzeigt und nicht nur theoretische worstcase Messungen.

Dann sieht man sehr gut, das im realen Einsatz die Cometlake durchaus noch konkurrenzfähig sind, einzig der Preis ist etwas zu hoch, da beim Arbeiten oft AMD vorne liegt. Dafür bei Spielen Intel.

Der 10900k sollte deutlich näher an einem 3900X liegen, was den Preis angeht. Da dieser zwar in Spielen unterliegt, aber in Anwendungen nicht. Daher würde ich eher um 450 Euro für gerechtfertigt halten.
 
Die IF braucht man trotzdem, die wird ja auch für andere Dinge genutzt.

Ich meine die Frage wirklich ernst, aber für welche Dinge?

Meines Wissens nach stellt die IF die Verbindung unter den CCX her und leitet dann an RAM und Peripherie weiter. Wenn ein CCD jetzt aber nur noch aus einem CCX bestehen würde, dann könnte man die Verbindungen auch direkt schalten ohne mit dem Nachteil der IF zu leben (Latenzen). Dann wäre man aber insoweit wieder bei einem monolithischen Aufbau und ich kann mir das nur schwer vorstellen. Denke eher, dass jedes CCD wie gehabt zwei CCX erhalten wird und je nach Nutzbarkeit wird dadurch im Desktop eine entsprechende Konfig gewählt. Könnte mir z.B. durchaus vorstellen, dass es gar nicht genug Ausschuss gibt um 4 oder 6 Kerner überhaupt noch zu bedienen und 8 Kerner dann vieleicht sogar in zwei Konfigs, einen 8+0 als "Gamingmonster" und einen 4+4 als normalen 8 Kerner.
 
AMD forscht seit Längerem an einer IF mit Meshtopologie, vermutlich sehen wir da bald Ergebnisse. Intel's Modell war glaub ich nicht LP (also Low Power), was dann zu Limitierungen führen kann.

Du kannst die Kerne auch bei voll funktionsfähigen CPUs einfach abschalten, übers Bios. So kann man auch Marktsegmente bedienen und produziert nur ein einziges Chiplet. Was natürlich die Ausbeute steigert, du musst nur einmal optimieren.
 
Hochmut kommt vor dem Fall...aber bis Intel wieder konkurrenzfähige Produkte bezogen auf Preis & Leistung in die Regale legt, gehen noch einige Jahre und Land ;)

Mit meinem 3700X und nem 4800H hab ich auch ehrlich gesagt gar kein Bedarf nach mehr CPU-Leistung. Nun kommt eh erstmal der Sommer, Sonne, Bieeerr ...und dann im Herbst würde ich gerne die 2070s dem Wertstoffhandel zuführen.

Hoffe es gibt bis dahin anständige Produkte von Team Grün oder Rot zu vertretbaren Preisen.
Du meinst verkaufen ich glaube nicht das du eine 2070S wegwirfst
 
Die if wird dann die CPU ja dann bremsen bei der Leistung. Ich habe da so meinr Zweifel das es if keine Auswirkung auf die CPU hat.
ich bezweifle darum auch das die 4000 Serie auch wirklich 15-20 % mehrleistung erreicht.
6 % durch die Anhebung des taktes.
Der Rest wird entweder ausgebremst oder verpufft in so manchen Anwendung ins Leere, weil je weniger man befehlsätze verwendet, desto weniger ist die leistungssteigerung. Und die if bremst auch noch ein wenig aus. Aus den 15 bzw 20 % könnten dann am Ende nur 12 bzw 17 % rauskommen.
Das wäre ja wirklich entäuschend,das ganze.

Du vergisst aber einen ganz entscheidenen Fakt, die IF wird eben bei 8 Kernen (je CCX) nicht mehr so oft gebraucht werden, die Kerne können je nach Verdrahtung untereinander kommunizieren (ich glaube Gaussmath hatte in einem anderen Thread eine ganz interessant klingende Cachehierarchie und Verdrahtung hingeschrieben). Das alleine wird schon einen enormen Anteil an der Leistungssteigerung haben können, gerade in Games kommt es immer wieder auf Latenzen an und hier ist aktuell das größte Verbesserungspotenzial von Ryzen. Mit einer schnelleren IF, würde man adhoc die Leistung enorm steigern können, daher skaliert Ryzen auch so gut mit schnellem RAM (sofern IF synchron).
 
Ohne IF kann man die Chiplets zb. nicht an die IOD anbinden.
Wie sollte man den RAM bitte ohne IF noch "direkter" ansteuern?

Irgendwie stehe ich auf dem Schlauch!

Aktuell sieht der Aufbau bei AMD doch wie folgt aus:

2 x CCX je CCD; 2 x CCD je Prozessor; CCD Anbindung an IF; IF verteilt dann an Memory Controller

Somit geht also ein Datensatz vom Kern, an den L3, an die IF, an den Memory Controller?
Bei Intel fehlt doch dieser Schritt, vom Kern, an den L3, an den Memory Controller!

Oder habe ich einen Denkfehler?
 
Mal ne Frage, wie wird denn aktuell produziert?

Werden ganze CCDs belichtet? Oder werden CCXs belichtet?

Ganze CPUs werden ja offensichtlich nicht belichtet, sondern aus den o. g. Bauteilen "zusammengesetzt".

Da aber beide oben genannten Parts deutlich wachsen müssen, ein CCX mit 8 Kernen und ein CCD dann mit 16 Kernen könnte AMD bei Zen3 durchaus schlechtere Yields und dadurch bedingt höhere Kosten haben. So hatte ich bisher gar nicht darüber nachgedacht, wenn aber kein Denkfehler enthalten ist, sollte es so sein.

Die CCDs sind so klein, das mindestens ein halbes eher ein volles Dutzend auf einmal belichtet werden dürfte. Alles andere würde nur unnötig Maschinenzeit kosten.


Was macht denn dann die IF?

Meines Wissens nach verbindet diese doch innerhalb eines CCD die CCX? Wenn aber nur noch ein CCX da ist, braucht es ja keine IF mehr?

Das IF verbindet jeden CCX mit dem I/O-Chip und je nach Interpretation sorgt es auch die Verbindungen innerhalb dieses. Aber es gibt keine direkte IF-Verbindung von CCX zu CCX, weswegen eine Vergößerung der CCX auch erhebliches Leistungspotenzial hat. Solange AMD CCD(s) und IOD trennt, wird es aber weiterhin eine (IF-)Verbindung zwischen diesen gegebn müssen.


Irgendwie stehe ich auf dem Schlauch!

Aktuell sieht der Aufbau bei AMD doch wie folgt aus:

2 x CCX je CCD; 2 x CCD je Prozessor; CCD Anbindung an IF; IF verteilt dann an Memory Controller

Somit geht also ein Datensatz vom Kern, an den L3, an die IF, an den Memory Controller?
Bei Intel fehlt doch dieser Schritt, vom Kern, an den L3, an den Memory Controller!

Oder habe ich einen Denkfehler?

Bei Intel fehlt neben der Unterteilung in Kern-Untergruppen auch der Bedarf für eine Verbindung von einem Chip zum nächsten. Nur weil AMD ersteres Konzept reduziert, werden sie letzteres Problem nicht los. Ich rechne für Zen3 mit einer verdoppelten IF-Breite.
 
Die Frage ist aber doch viel eher, was würde denn so ein auf 100W reglementierter 10900k wirklich leisten? Die Leistungsaufnahme steigt ja nicht parallel zur Leistungsabgabe, die Kurve ist eher quadratisch veranlagt.
Das ist schon klar, aber irrelevant. AMD kann das gleiche auch mit Zen machen. Nur ist dort das TDP Level eben deutlich niedriger.

Daher glaube ich, dass die Benchmarks gar nicht so grob anders aussehen würden, letztlich liegen bei PL2 vieleicht 0,5Ghz mehr an als bei "normaler" Aufnahme. Da sprechen wir aber auch nur von 10% Mehrleistung. Klar macht Intel da um eben in den Benches diese 10% hinzuzugewinnen, aber realistisch gesehen völlig unnütz.
Unnütz nicht, wenn man die Konkurrenz berücksichtigen muss. Letztendlich geht es um Verkaufspreise. Auch Intel muss die rechtfertigen können. Ich denke zudem, dass es einiges mehr wäre als 10%, wenn man das Power Target an Zen 2 anpassen würde. Daher macht der Vergleich der Effizienz sehr wohl Sinn. Es ist nach wie vor kein limitiert vs unlimitiert Vergleich. Denn wie gesagt, AMD könnte die TDP auch noch deutlich aggressiver gestalten. Schau dir einfach mal Renoir an. ;)
 
Zuletzt bearbeitet:
@DKK007:
Die modernen Fertigungsverfahren laufen alle auf 300 mm. Belichtet wird aber schon seit sehr langer Zeit abschnittsweise. Ich kenne keinen genauen Wert für die maximal mögliche Reticle Size, aber es hießt, dass der GV100 am oberen Limit des Machbaren war. Da die nötigen Stepper sowieso installiert ist, hat man aber kaum Nachteile, auch alle anderen Chips in derartigen Flächeneinheiten zu fertigen. Kleinere Masken wären zwar möglicherweise billiger, aber jede Neupositionierung kostet wertvolle Zeit und letztlich begrenzt diese den Wafer-Durchsatz.
 
Die 250W liegen nur kurzzeitig an und das weißt du ganz genau.
Reicht für die üblichen Benchmarks, die sowieso meist nicht viel länger dauern. Und je länger die Last, umso weiter sinkt der Takt und damit die Performance bei Intel. Insofern sind die üblichen Reviews im Netz sogar noch relativ günstig für Intel. Im Alltag kann das noch um einiges schlechter ausfallen. Und das weisst du genau.
 
Schau in den PCGH Test, mitTDP auf 125 limitiert, verliert der 10900k fast keine Leistung. Bitte lies den Test und das ganz, mit allen Messwerten!
Wo sollen denn aussagekräftige Messwerte unter Vollast zu finden sein? Ich finde da nichts verwertbares bei PCGH.

Da Prime weder Spiel noch eine echte praxisnahe Anwendung ist, bleibt meine Aussage völlig unangetastet. Such dir bitte einen Test, wie den von PCGH, der die Leistungsaufnahme, in Spielen und Anwendunge aufzeigt und nicht nur theoretische worstcase Messungen.

Dann sieht man sehr gut, das im realen Einsatz die Cometlake durchaus noch konkurrenzfähig sind, einzig der Preis ist etwas zu hoch, da beim Arbeiten oft AMD vorne liegt. Dafür bei Spielen Intel.
Da machst du dir nur was vor. Du kannst dir gerne auch reale Anwendungen anschauen, wie z.B. Handbrake (x265). Zen 2 ist hier doppelt so effizient und mehr. Und das kann man bei den meisten Anwendungen unter voller Auslastung beobachten. Intel mag vieles sein, aber ganz gewiss nicht konkurrenzfähig bezüglich Effizienz. Spiele sind dafür kein adäquater Gradmesser, weil üblicherweise die Grafikkarte mehr limitiert, und so die CPU gar nicht voll ausgelastet werden kann. Teillast kann so einiges kaschieren. Daran siehst du herzlich wenig, wo jemand technologisch wirklich steht. Mal davon abgesehen erscheint mir ein Ryzen 9 3900X oder i9 10900K eh keine clevere Wahl für Gamer zu sein.
 
Zuletzt bearbeitet:
Leute mal eine Frage, ohne extra dazu ein Thema auszumachen.

Was passiert , wenn das Fertigungsverfahren bei >=0 angekommen ist? Komplett 0 geht ja sicher nicht? Irgendwann ist ja Schluss.
 
So habe mal geschaut wo denn nun der Unterschied vom i9 9980xe,Ryzen 9 3950x und Threadripper 3970x ist.
Die letzten beiden haben weniger L1 Cache als der i9 9980xe.Dafür sind L2 und L3 Cache um ein vielfaches höher in der Bandbreite.Da wird wohl das geheimnis sein.Besonders beim L3 Cache. 263 gb vs 1120 gb und beim letzten sogar 2363 gb.
Das sind aber sehr hohe L3 Cache Bandbreiten.Da wundert mich ja die hohe Leistung nicht mehr.Da kann ja ruhig der L1 Cache schlechter sein.
DIe Cache Latenz ist besonders bei L3 um die hälfte besser beim 3950x als im i9 9980xe. Beim 3970x wird die Latenz wieder etwas schlechter,aber halt nicht viel.
Ihr behauptet das die Latenzen schlecht seien.Das sehe ich allerdings nicht so.
Klar sind die L1 Cache Latenz etwas schlechter und Memory Latenz.
Würde das der Software von mir stören,dann wären die bei den ganzen Test allerdings schlechter gewesen.Waren sie allerdings nicht.Die Software von mir ist nicht Memory Limitiert.Darum sinkt nicht die Leistung sondern steigt sogar noch.
Ich finde es interessant ob AMD bei der 4000 Serie noch so viel dran schrauben kann.Wenn ja,ob sich das in der Praxis auch wirkung zeigt.Ich hoffe nicht im Negativen,denn das kann ich überhaupt nicht gebrauchen.
 
Zurück