AMD Zen 3D in Serienfertigung: Ankündigung im Januar?

AMD meinte" up to 15%" in manchen Titeln. Im Mittel hatten sie 12% in 1080p. Wenn man vernünftig testet, kommt man im CPU Limit sicherlich auf 15%.

Nein, AMD meinte nicht up to 15%, es waren zum Teil bis zu 25% und im Mittel hatten sie 15%. Ich weiß ja nicht wo du deine Fakenews immer her hast und wieso diese ständig wiederholt werden müssen?


Die Diskussion hatte ich ja mit anderen Usern bereits. Wenn der 3D Cache für die Leistungszuwächse verantwortlich ist, wie soll Zen 4 dann 20-30% drauflegen? Mit noch mehr Cache?

Der 3D-Cache war von vorneherein für Zen3 geplant, warum soll also Zen4 nicht nochmal 20-30% zulegen? Meinst die sind da nur mit Eierschaukeln 2 Jahre beschäftigt? Aber ja ich weiß, solche Zuwachsraten werden ja nur von intel immer erwartet, bei AMD kann das natürlich nicht sein.:schief:

Deswegen meinte ich ja "im Mittel". :D Wenn man richtig in 720p testet, dann werden aus den 12% in FHD sicherlich 15% (im Mittel). Könnte sogar noch mehr sein am Ende. Ich bin gespannt.

Nein, siehe oben. Und ja richtig testen und dann mit capeframeX kommen ist schon sehr amüssant.

Klar, Zen 4 mit 3D V-Cache kann gegenüber Zen 3 mit 3D V-Cache durchaus nochmal was zulegen. Vielleicht sogar eher noch durch L2 Cache Optimierungen, aber ich denke, dass man da eher im Bereich von 5-10% liegen wird. AMD wird mit Zen 3 + 3D V-Cache bereits das meiste Pulver verschießen.

Ja so wirds sein, sie erhöhen durch den 3D Cache einfach den Level 3 Cache und machen sonst nichts und spielen den ganzen Tag Tischtennis im Hobbyraum.
 
Es ist ganz klar, dass 3D Cache die Zukunft ist bei CPUs und AMD ist oder wird hier Vorreiter sein und man muss kein Prophet, um zu wissen, dass bereits mit Zen4 3D Cache über das gesamte CPU Portfolio Thema sein kann.
Von daher halte ich es nicht für einen Nachteil, dass jetzt zum Start nur die großen Gamer CPUs damit kommen werden.
 
Nein, AMD meinte nicht up to 15%, es waren zum Teil bis zu 25% und im Mittel hatten sie 15%. Ich weiß ja nicht wo du deine Fakenews immer her hast und wieso diese ständig wiederholt werden müssen?
Die "Fake News" hatte ich von PC Gamer. Aber ja, laut AMD sind es 15% im Mittel. Es sind nur 5 Titel. Ob das bezogen auf einen größeren Parcours am Ende 15% sind, wird man sehen. Aber ich bin da recht optimistisch. Mal abgesehen davon, bin ich ja auch von mehr als 12% ausgegangen (720p Tests).

Der 3D-Cache war von vorneherein für Zen3 geplant, warum soll also Zen4 nicht nochmal 20-30% zulegen? Meinst die sind da nur mit Eierschaukeln 2 Jahre beschäftigt? Aber ja ich weiß, solche Zuwachsraten werden ja nur von intel immer erwartet, bei AMD kann das natürlich nicht sein.:schief:
Im Gaming? Das wären dann über 40% von Zen 3 auf Zen 4. Das wird nicht passieren. Intel ist auch weit von solchen Steigerungen entfernt.

Nein, siehe oben. Und ja richtig testen und dann mit capeframeX kommen ist schon sehr amüssant.
Wut? Was hat jetzt CapFrameX damit zu tun? :huh:

Ja so wirds sein, sie erhöhen durch den 3D Cache einfach den Level 3 Cache und machen sonst nichts und spielen den ganzen Tag Tischtennis im Hobbyraum.
Wie gesagt, mir ging um's Gaming und ich habe gut begründet, weshalb Zen 4 hier keine riesigen Sprünge machen wird (wenn Zen 3 mit 3D Cache bereits ordentlich drauflegt).
 
Ich bin mal gespannt was die Dinger kommen.
Auch wenn es eigentlich unnötig ist, weil mir mein 3700x für alles reicht was ich mache, werde ich der AM4 Plattform mit nem Zen3D bei mir wohl einen krönenden Abschluss erlauben. :D

Danach muss dann aber auch erstmal wieder ein paar Jahre ruhe sein. - Die paar Indie-Games die ich Spiele... Da fragt sich meine Hardware sowieso nach der Existenzberechtigung. :D
 
Wieso hat dann Milan-X ggü Milan bis zu 66% Vorsprung? Ist doch prinzipiell identisch mit Zen 3 3 D, oder?
Hängt stark vom Workload ab. Mir ging's erstmal nur um Spiele.

Allerdings ist die Realität selten so klar und wenn AMD mit +200 Prozent Cache nur 15 Prozent Leistung herausholt, dann gibt es wohl noch ein paar weitere Flaschenhälse, die man weiten kann, um in einigen Szenarien doppelten Vorteil zu genießen. Spannend wird aber in der Tat, wie AMD die Preis-Leistuns-Balance zwischen den Generationen gelingt, denn V-Cache ist und bleibt teuer und wird auch bei Zen 4 kaum zum Standard werden. Im Gegenteil – die zusätzliche Siliziummenge kostet in 5 nm noch mehr Aufpreis. Von daher könnten Anwender mit Cache-lastigen Anforderungen (und Spiele sind bei Zen-CPUs offensichtlich Cache-lastig) von Zen 4 durchaus enttäuscht werden.
Mal so als Beispiel. Ich habe in meinem Benchmarks den 12900K mit DDR4-3200 15% vor dem 10900K ebenfalls mit DDR4-3200. Des weiteren habe ich einen Cache Scaling Test gemacht. 30MB vs. 20MB liefern ca. 6% mehr Leistung. Von den 15% bleiben also ohne den Cache 9%, wenn man das mal so simpel verrechnet. Jetzt hat aber der 12900K 30-40% mehr Compute IPC oder rund 30% Basic Arithmetic IPC, siehe folgende Tabelle. Die IPC-Werte wurden mit MicroBenchX gemessen. Wenn man 40% mehr IPC braucht, um im Mittel 9% mehr Gamingleistung zu gewinnen, dann gute Nacht.

Es kann natürlich sein, dass der größere Cache die Kerne besser mit Daten versorgt, so dass stärkere Kerne auch stärker vom größeren Cache profitieren, aber so ein Kern kann auch den Durchsatz vom L2 wegschaufeln, wieso sollte dann auf der anderen Seite ein stärker Kern stärker profitieren, wenn der schwächere Kern bereits mühelos den L2-Durchsatz wegschaufelt?

1638357596361.png
 
Zuletzt bearbeitet von einem Moderator:
Gaussmaths Logik ist nicht ganz verkehrt:
Wenn ein Szenario Cache-limitiert ist, sodass man durch zusätzlichen Zwischenspeicher viel Leistung hinzugewinnen kann, dann ist dieses Szenario eben nicht Kern-limitiert und man kann durch schnellere Kerne keine Mehrleistung rausholen. Unter dieser Prämisse wäre Zen 4 überall dort, wo Zen 3V zulegen kann, möglicherweise sogar wieder langsamer.

Allerdings ist die Realität selten so klar und wenn AMD mit +200 Prozent Cache nur 15 Prozent Leistung herausholt, dann gibt es wohl noch ein paar weitere Flaschenhälse, die man weiten kann, um in einigen Szenarien doppelten Vorteil zu genießen. Spannend wird aber in der Tat, wie AMD die Preis-Leistuns-Balance zwischen den Generationen gelingt, denn V-Cache ist und bleibt teuer und wird auch bei Zen 4 kaum zum Standard werden. Im Gegenteil – die zusätzliche Siliziummenge kostet in 5 nm noch mehr Aufpreis. Von daher könnten Anwender mit Cache-lastigen Anforderungen (und Spiele sind bei Zen-CPUs offensichtlich Cache-lastig) von Zen 4 durchaus enttäuscht werden.
Es wäre schon merkwürdig wenn Zen 4 gegenüber Zen 3D nicht zu legen kann.
Also im Anwendungsbereich auf jeden Fall denke ich. Da ich von einer deutlichen IPC Steigerung ausgehe.
In Spielen muß man sehen wieviel es letztendlich wird.
 
Immer wenn ich HBM lese:
Ich bin immer noch dafür endlich CPUs zu bringen mit 32 GB HBM direkt angebunden und den "normalen" RAM optional zu machen. Dafür würde ich auch 300-400€ Aufpreis zahlen!
 
Die "Fake News" hatte ich von PC Gamer. Aber ja, laut AMD sind es 15% im Mittel. Es sind nur 5 Titel. Ob das bezogen auf einen größeren Parcours am Ende 15% sind, wird man sehen. Aber ich bin da recht optimistisch. Mal abgesehen davon, bin ich ja auch von mehr als 12% ausgegangen (720p Tests).

Nur wieso wird das nie überprüft, wenn es schon offizielle Folien gibt?
Und ich finde das gewählte Beispiel von AMD sehr gut, da sie auch ein Spiel mit dabei haben, was so gut wie gar nicht profitiert. Sprich es hängt dann stark von dem verwendeten Games ab, was wir aktuell ja auch so haben.


Im Gaming? Das wären dann über 40% von Zen 3 auf Zen 4. Das wird nicht passieren. Intel ist auch weit von solchen Steigerungen entfernt.

Und wieso nicht? Allein der 3D Cache bringt im Schnitt 15% und was sonst noch verändert wird wissen wir ja nicht. Oder hast du Infos dazu, was sie alles ändern?
Bzw. wird es halt auch wieder so sein, dass manche Games aus Änderung A ihren Vorteil ziehen und andere wiederum aus Änderung B.
Die einzige gesicherte Info die es zu den Änderungen gibt, ist ja das sich bei AVX etwas tut. Zu anderen Flaschenhälsen ist ja nichts bekannt.


Wut? Was hat jetzt CapFrameX damit zu tun? :huh:

Weil einer deiner Kollegen, ich weiß leider den Namen nicht mehr. Ständig seine fehlerhafte Verbrauchsmessung hier gepostet hat, um aufzuzeigen, dass intel deutlich effizienter ist.
Er jedoch Äpfel mit Birnen verglichen hat, zum einen 10 vs 12 Kerne und zum anderen nicht darauf eingangen ist bzw. es auch nicht verstehen wollte, dass aufgrund der Verwendung des 5900X hinsichtlich des Verbrauchs der Worst Case des Chiplet Designs genommen hat.
Seriös wäre in dem Fall ein Vergleich von 8 vs 8 Kernen gewesen, da die Verbindung zum zweiten Chiplet wegfällt und ja das kostet nunmal Energie.
Oder wenn er sich nen monolithen von AMD geschnappt hätte, da es ja darum ging die Effizienz der einzelnen Kerne aufzuzeigen.
Und so eine inkossistenz im Testaufbau fällt mir halt sofort ins Auge und das dies vehement verteidigt wurde ohne jegliche Einsicht, halte ich die Seite für grob unseriös. Sorry.
Ich hab keinerlei Problem damit, wenn intel oder nvidia was den Verbrauch betrifft effizienter sind, jedoch sollte halt der Testaufbau und die Messung stimmig sein.


Wie gesagt, mir ging um's Gaming und ich habe gut begründet, weshalb Zen 4 hier keine riesigen Sprünge machen wird (wenn Zen 3 mit 3D Cache bereits ordentlich drauflegt).

Hast du meiner Ansicht nach nicht, da du gar nicht weißt, was alles angegangen wird. Klar den heiligen Gral wird man nicht finden, aber man kennt die Schwachstellen im Design und wie diese sich letztendlich in Summe auswirken? 10% ist da doch ein wenig Mager.
 
Weil einer deiner Kollegen, ich weiß leider den Namen nicht mehr. Ständig seine fehlerhafte Verbrauchsmessung hier gepostet hat, um aufzuzeigen, dass intel deutlich effizienter ist.
Er jedoch Äpfel mit Birnen verglichen hat, zum einen 10 vs 12 Kerne und zum anderen nicht darauf eingangen ist bzw. es auch nicht verstehen wollte, dass aufgrund der Verwendung des 5900X hinsichtlich des Verbrauchs der Worst Case des Chiplet Designs genommen hat.
Seriös wäre in dem Fall ein Vergleich von 8 vs 8 Kernen gewesen, da die Verbindung zum zweiten Chiplet wegfällt und ja das kostet nunmal Energie.
Oder wenn er sich nen monolithen von AMD geschnappt hätte, da es ja darum ging die Effizienz der einzelnen Kerne aufzuzeigen.
Und so eine inkossistenz im Testaufbau fällt mir halt sofort ins Auge und das dies vehement verteidigt wurde ohne jegliche Einsicht, halte ich die Seite für grob unseriös. Sorry.
Ich hab keinerlei Problem damit, wenn intel oder nvidia was den Verbrauch betrifft effizienter sind, jedoch sollte halt der Testaufbau und die Messung stimmig sein.

Bruh, du musst echt mal kritisch in dich gehen und deine Ansichten hinterfragen. Wieso sollte man denn nicht 10 und 12 Kerne vergleichen, wenn der 10 Kerner damals das Topmodell von Intel war? Das passte ja sogar von der Preisklasse ne zeitlang. Was können @blautemple und ich dafür, wenn AMD den 12 Kerner als 2-CCD Variante bringt und diese Variante mehr Strom zieht? Wieso sollen die Messungen fehlerhaft sein? Kannst du das beweisen?

Und basierend auf all den zweifelhaften Kritikpunkten und nicht bewiesenen Behauptungen kommst du zum Schluss, dass "die Seite für dich grob unseriös ist". Echt mal Dude, was stimmt mit dir nicht?
 
Glaube ich nicht. Von Zen 2 auf Zen 3 war der Sprung in Spielen schon ziemlich gross. Trotz gleicher Plattform, gleicher Fertigung, nur gering gestiegenem Takt und gleicher Menge an Cache. Der Grund waren vor allem die Verbesserungen der Architektur.
Der Game Changer bei Zen 3 in spielen waren die 8 Kern Chiplets anstatt der 4 Kerne auf den vorherigen Chiplets ...

Ich denke auch das man bei ZEN4 mit 15 % realistisch liegt, alles andere ist Wunschdenken, 5nm hin oder her ...
 
Hängt stark vom Workload ab. Mir ging's erstmal nur um Spiele.


Mal so als Beispiel. Ich habe in meinem Benchmarks den 12900K mit DDR4-3200 15% vor dem 10900K ebenfalls mit DDR4-3200. Des weiteren habe ich einen Cache Scaling Test gemacht. 30MB vs. 20MB liefern ca. 6% mehr Leistung. Von den 15% bleiben also ohne den Cache 9%, wenn man das mal so simpel verrechnet. Jetzt hat aber der 12900K 30-40% mehr Compute IPC oder rund 30% Basic Arithmetic IPC, siehe folgende Tabelle. Die IPC-Werte wurden mit MicroBenchX gemessen. Wenn man 40% mehr IPC braucht, um im Mittel 9% mehr Gamingleistung zu gewinnen, dann gute Nacht.

Es kann natürlich sein, dass der größere Cache die Kerne besser mit Daten versorgt, so dass stärkere Kerne auch stärker vom größeren Cache profitieren, aber so ein Kern kann auch den Durchsatz vom L2 wegschaufeln, wieso sollte dann auf der anderen Seite ein stärker Kern stärker profitieren, wenn der schwächere Kern bereits mühelos den L2-Durchsatz wegschaufelt?

Anhang anzeigen 1380719
Das war doch aber mit auf 4 GHZ fixiertem Takt, die 15 %, oder nicht? Wäre es nicht möglich, dass der Takt, der ja normal 4,9 GHZ beträgt auch noch eine Rolle spielt?
 
Der 3D-Cache war von vorneherein für Zen3 geplant, warum soll also Zen4 nicht nochmal 20-30% zulegen? Meinst die sind da nur mit Eierschaukeln 2 Jahre beschäftigt? Aber ja ich weiß, solche Zuwachsraten werden ja nur von intel immer erwartet, bei AMD kann das natürlich nicht sein.:schief:
Nur weil es für Zen3 geplant war heißt es nicht das man das für den Mainstream Sockel geplant hat. AMD ist in dem Bereich sehr flexibel weshalb auch ein relativ kurzfristige Umplanung nicht wundern würde. Ich glaube auch nicht das AMD da noch gewaltig drauflegt und Zen3D sich irgendwo auf halbenweg zwischen Zen4 und Zen3 einordnet.
Ja so wirds sein, sie erhöhen durch den 3D Cache einfach den Level 3 Cache und machen sonst nichts und spielen den ganzen Tag Tischtennis im Hobbyraum.
AMDs markantesten Änderungen bei Zen waren bisher mehr Takt und Cache. Bei ersteren bräuchte man deutliche Sprünge und bei letzteren scheint man langsam an die sinnvollen Grenzen zu stoßen. Ich bin da sehr skeptisch so große Performancesprünge zu sehen. Von wo sollen die 30% herkommen?
Der Game Changer bei Zen 3 in spielen waren die 8 Kern Chiplets anstatt der 4 Kerne auf den vorherigen Chiplets ...

Ich denke auch das man bei ZEN4 mit 15 % realistisch liegt, alles andere ist Wunschdenken, 5nm hin oder her ...
8 Kerne waren immer auf einem Chiplet du meinst CCD
 
Das war doch aber mit auf 4 GHZ fixiertem Takt, die 15 %, oder nicht? Wäre es nicht möglich, dass der Takt, der ja normal 4,9 GHZ beträgt auch noch eine Rolle spielt?
Klar, das sollte mit dem Takt skalieren, aber leider nicht zu 100%. Oder was meintest du?

Ich bin da sehr skeptisch so große Performancesprünge zu sehen. Von wo sollen die 30% herkommen?
Das ist halt auch mein Punkt. Woher soll's kommen? Speicherlatenzen werden durch größere Caches abgefedert, Intercore-Latenz wird überbewertet...

Kann sein, dass Zen 4 mit 5.5GHz Boosttakt kommt oder dass der überarbeitete L2 Cache Wunder bewirkt. Realistisch betrachtet, kann Zen 4 Zen 3 mit 3D Cache in Gaming Workloads nicht großartig überbieten. Das ist meine Einschätzung. Man muss das ja nicht teilen.

Was man ja auch noch betrachten sollte, die kleineren oder eher gesagt, die normalen Zen 4 Modelle werden vermutlich nicht mal 3D Cache haben, dann muss es DDR5 richten. Ich denke, dass schneller DDR5 am Ende stärker ist als die Varianten mit 3D Cache.

Als Beispiel, ein 7800X (ich gehe mal davon aus, dass Zen 4 Desktop Ryzen 7000 sein wird ^^) mit DDR5-6600 C36 (+ getunte Timings natürlich) ist schneller als ein 7900X3D mit DDR5-4400 C40. Denke ich zumindest...
 
Zuletzt bearbeitet von einem Moderator:
Bruh, du musst echt mal kritisch in dich gehen und deine Ansichten hinterfragen. Wieso sollte man denn nicht 10 und 12 Kerne vergleichen, wenn der 10 Kerner damals das Topmodell von Intel war? Das passte ja sogar von der Preisklasse ne zeitlang. Was können @blautemple und ich dafür, wenn AMD den 12 Kerner als 2-CCD Variante bringt und diese Variante mehr Strom zieht? Wieso sollen die Messungen fehlerhaft sein? Kannst du das beweisen?

Und basierend auf all den zweifelhaften Kritikpunkten und nicht bewiesenen Behauptungen kommst du zum Schluss, dass "die Seite für dich grob unseriös ist". Echt mal Dude, was stimmt mit dir nicht?
Ich sage dazu nichts weiter :D

Aber keine Sorge, ich werde mir die Arbeit auch erstmal nicht mehr machen ^^

Ich will ja nicht die Leute mit objektiven Messungen verwirren.
 
Klar, das sollte mit dem Takt skalieren, aber leider nicht zu 100%. Oder was meintest du?


Das ist halt auch mein Punkt. Woher soll's kommen? Speicherlatenzen werden durch größere Caches abgefedert, Intercore-Latenz wird überbewertet...

Kann sein, dass Zen 4 mit 5.5GHz Boosttakt kommt oder dass der überarbeitete L2 Cache Wunder bewirkt. Realistisch betrachtet, kann Zen 4 Zen 3 mit 3D Cache in Gaming Workloads nicht großartig überbieten. Das ist meine Einschätzung. Man muss das ja nicht teilen.

Was man ja auch noch betrachten sollte, die kleineren oder eher gesagt, die normalen Zen 4 Modelle werden vermutlich nicht mal 3D Cache haben, dann muss es DDR5 richten. Ich denke, dass schneller DDR5 am Ende stärker ist als die Varianten mit 3D Cache.

Als Beispiel, ein 7800X (ich gehe mal davon aus, dass Zen 4 Desktop Ryzen 7000 sein wird ^^) mit DDR5-6600 C36 (+ getunte Timings natürlich) ist schneller als ein 7900X3D mit DDR5-4400 C40. Denke ich zumindest...
also besteht die Möglichkeit, dass da mehr als 15 % rumkommt, denn das ist ja ein Delta von 22,5 % bezogen auf den Takt? Bei 15 % Skalierung vom Takt * 15 % bei 4 GHZ würde das für ADL nicht mehr ganz so entspannt werden! Das hab ich gemeint, dass da noch verdecktes Potential vorhanden ist!
 
also besteht die Möglichkeit, dass da mehr als 15 % rumkommt, denn das ist ja ein Delta von 22,5 % bezogen auf den Takt? Bei 15 % Skalierung vom Takt * 15 % bei 4 GHZ würde das für ADL nicht mehr ganz so entspannt werden! Das hab ich gemeint, dass da noch verdecktes Potential vorhanden ist!
Achso, das meinst du. Die Relation zu Zen 3 ohne 3D Cache bleibt erhalten bei höherem Takt. Unter der Voraussetzung, dass Zen 3 mit 3D Cache so hoch taktet wie die normalen Zen 3 Modelle, wird ein 5950X3D die Gamingkrone zurückholen, aber nur mit leichtem Vorsprung. Das ist aber egal fürs Prestige, AMD wird das marketingtechnisch für sich ausnutzen, was jeder tun würde.

Man könnte deswegen aber auch ein wenig Bauchschmerzen verspüren, denn es kann sein, dass die 3D Modelle nicht mehr so hoch takten. Das Prinzip, dass der L3 Cache so hoch wie der am höchsten taktende Kern taktet wird weiterhin gelten. Ob so ein Stack dann immer noch 5GHz erreicht, ist schwer zu sagen. Aber für Spiele reichen eigentlich auch 4.7GHz. Ich sehe da keine Probleme, dass AMD die Gamingkrone bald zurückerobert.
 
Bruh, du musst echt mal kritisch in dich gehen und deine Ansichten hinterfragen.

Vielleicht solltet ihr mal in euch gehen und eure voreingenommen Art hinterfragen? Seriöse Tests gehen anders und mit der Aussage hast du bewiesen, dass man diese von dir auch nicht erwarten kann.

Wieso sollte man denn nicht 10 und 12 Kerne vergleichen, wenn der 10 Kerner damals das Topmodell von Intel war?

Ich vergleiche auch immer gerne Äpfel mit Birnen und komme zu dem Fazit, dass mir Birnen geschmacklich besser schmecken.
Wenn man testen möchte, welche CPU die maximale Leistung bringt kann man das machen, aber dann hätte man für den Vergleich auch den 5950 nehmen können.
Möchte man allerdings die Effizienz der einzelnen Architekturen vergleichen ist das eben grob unseriös was ihr gemacht habt und wenn ich auf cb von deinen intelfanboy Kollegen immer lese, wundert mich das halt auch nicht im geringsten.
Vor allem da man sich dann hier dreist hinstellt und aus diesem Test ableitet, dass intel ja generell effizienter wäre. Möchte man die Effizienz einzelner Architekturen vergleichen, so nimmt man immer die gleiche Anzahl an Kerne. Und wenn dann die Ausrede kommt, aber wir haben keine 8er da und nur die beiden, dann lasst es doch und verbreitet nicht so nen Unsinn.

Das passte ja sogar von der Preisklasse ne zeitlang.

Und was hat jetzt die Preisklasse mit der Effizienz zu tun? Richtig nichts.

]Was können @blautemple und ich dafür, wenn AMD den 12 Kerner als 2-CCD Variante bringt und diese Variante mehr Strom zieht? Wieso sollen die Messungen fehlerhaft sein? Kannst du das beweisen?

Was kann AMD dafür? Ja AMD kann für die folgenden Punkte wohl nichts dafür, dass ihr:
a) schlicht und ergreifend inkompetent seit und nicht in der Lage anständig zu testen.
b) ihr euch bewusst das Modell herausnimmt, welches den negativen Effekt des Chiplet Designs zum Vorschein bringt und daraus dann die Effizienz der kompletten Architektur ableitet.
c) einfach beides zusammen.

Und klar kann ich beweisen, dass eure Messungen nonsens sind, weil ihr Äpfel mit Birnen vergleicht und dann auch noch die Dreistigkeit besitzt, daraus eine Allgemeingültikeit abzuleiten und diese hier immer wieder zu propagieren.
Aber um einen fairen und sachlichen Vergleich ging es euch gar nie, sonst hättet ihr euch entweder jeweils einen 6 oder 8 Kerner genommen, um daraus einen Vergleich abzuleiten und das zusätzlich noch mit APUs, also Monolithen verglichen.
Ansonsten um auf deiner Messmethodik zu bleiben, wieso habt ihr kein 5950 genommen? Was kann AMD denn dafür, dass intel keine 16 Core CPUs anbietet? Aber wait der hat ja die gut gebinnten Chiplets und da wäre dann ja nicht das gewünschte Ergebnis herausgekommen.:schief:

Und basierend auf all den zweifelhaften Kritikpunkten und nicht bewiesenen Behauptungen kommst du zum Schluss, dass "die Seite für dich grob unseriös ist". Echt mal Dude, was stimmt mit dir nicht?

Man sollte sich eher mal fragen was stimmt mit dir Dude nicht? Das sind keine zweifelhaften Kritikpunkte, sondern es ist damit klar aufgedeckt wie unseriös ihr arbeitet und im Gegensatz zu dir, habe ich zwei Jahre täglich SW nach 3GPP Standards getestet und hab daher ein Auge dafür, wenn man sich eben nicht um einen seriösen Testaufbau bemüht. Aber das ist ja auch nicht eure Intension, man braucht sich ja nur die Kommentare von deinen Kumpanen auf CB anschauen, um festzustellen, dass hier keinerlei Unbefangenheit vorliegt.
Und wenn du es immernoch nicht verstehen möchtest, dass man einen Effizienzvergleich verschiedener Architekturen mit gleicher Kernanzahl und nicht mit unterschiedlicher durchführt, dann tust du mir ehrlich gesagt einfach nur leid.
 
Möchte man allerdings die Effizienz der einzelnen Architekturen vergleichen ist das eben grob unseriös was ihr gemacht habt und wenn ich auf cb von deinen intelfanboy Kollegen immer lese, wundert mich das halt auch nicht im geringsten.
Wir haben nicht explizit die Effizienz der Architekturen verglichen du Nase. Wir haben den 10900K und den 5900X verglichen, was völlig legitim ist, weil das für viele eine Anschaffungsalternative war: kaufe ich den 10900K oder den 5900X? Alleine das macht den Test völlig legitim. Nach deiner "Logik" dürfte man kein Effizienzranking erstellen, welches CPUs unterschiedlicher Kernzahl enthält. Holy Shit, was ist das für ein intellektuelles Niveau...

Das einzige Problem hier ist, dass du das nicht verstehst, Dude.
 
Immer wenn ich HBM lese:
Ich bin immer noch dafür endlich CPUs zu bringen mit 32 GB HBM direkt angebunden und den "normalen" RAM optional zu machen. Dafür würde ich auch 300-400€ Aufpreis zahlen!

Für 400 Euro Aufpreis würden sicherlich viele Leute 32 GiB HBM nehmen. Aber mal zur Orientierung, was sowas kosten kann:
Beschleunigerkarte mit 8 GiB HBM2 für 1.250 Euro
Beschleunigerkarte mit 16 GiB HBM2 für 1.850 Euro beim gleichen Händler
Weitere Unterschiede gibt es praktisch nicht und auch wenn von den 600 Euro Endkundenaufpreis für 8 GiB HBM noch 50 Prozent Luxus-Aufschlag dabei sein könnten, ergibt sich für 32 GiB eine klar vierstellige Summe allein für den Speicher. Möchtest du das gleiche noch in einer CPU integriert haben, musst du zusätzlich noch ein komplexeres Package, einen größeren/extra angepassten Sockel und vor allem einen HBM-Controller samt Anbindung innerhalb der CPU mitbezahlen.

Intel wird die Technik aber nächstes Jahr bei Sapphire Rapids anbieten, dann kannst du deine Kaufbereitschaft unter Beweis stellen. Ich wäre positiv überrascht, wenn man mit weniger als 2.000 Euro Preisaufschlag davon kommen wird.



Nur weil es für Zen3 geplant war heißt es nicht das man das für den Mainstream Sockel geplant hat. AMD ist in dem Bereich sehr flexibel weshalb auch ein relativ kurzfristige Umplanung nicht wundern würde. Ich glaube auch nicht das AMD da noch gewaltig drauflegt und Zen3D sich irgendwo auf halbenweg zwischen Zen4 und Zen3 einordnet.

AMDs markantesten Änderungen bei Zen waren bisher mehr Takt und Cache. Bei ersteren bräuchte man deutliche Sprünge und bei letzteren scheint man langsam an die sinnvollen Grenzen zu stoßen. Ich bin da sehr skeptisch so große Performancesprünge zu sehen. Von wo sollen die 30% herkommen?

8 Kerne waren immer auf einem Chiplet du meinst CCD

Nachdem AMD die Pipelines mit Zen 2 und die CCX-Organisation mit Zen 3 gefixt hat, bleibt als große Schwachstelle noch die Kommunikation zwischen den Chips. Verglichen mit On-Die-Interconnects oder Intels EMIB-Versprechen ist das IF lahm, träge und stromhungrig. Unter anderem deswegen profitiert Zen auch so stark von Cache.

Hier hätte AMD noch viel Potenzial. Allerdings rangiert das IF unter den On-Substrate-Interconnects trotzdem ganz weit vorne, es ist also nicht leicht etwas besseres anzubieten ohne komplett neue Packaging-Technologien anzuwenden. TSMC hat deren Einführung zwar angekündigt, noch ist aber nichts verfügbar. Alternativ könnte AMD in den für Spieler interessanten Leistungsklassen natürlich auch komplett auf monolithische Designs umstellen. Damit wäre das Problem vom Tisch und die Stückzahlen sollten mittlerweile für so einen Schritt reichen.
 
Zurück