Ja, im Gegensatz dazu bringt AMD noch den L3 Cache ala IFC auf dem GPU Design unter (und ist trotzdem kleiner), was sonst viel kleiner ausfallen würde. Du scheinst nur wenig davon zu verstehen, auf PCGH aber halb so wild.
Das ist kein Fanboydenken sondern die Wahrheit, wenn man sich ansieht was Nvidia mit Ampere veranstaltet, wo Limitationen bestehen. DLSS und RT spielen dabei doch kaum eine Rolle.
Bisherige GPUs bauen auf einer 3er Cache Hierachie auf, sozusagen L0 bis L2 denen bestimmte Funktionsblöcke zugeordnet sind (Compute, Shader usw.). Die weitere Erhöhung der Recheneinheiten würde also gleichfalls diese Hierachie gemessen am Design und SI weiter wachsen lassen, wobei die Caches und Controller dafür Platz im Design brauchen. Das Phy selbst, also die Anbindung von Ressourcen, kostet nicht nur Fläche sondern auch Leistung in Form von Energieaufnahme und letztlich pJ pro bit für den Zugriff auf den GDDR. Je größer ein Design ausfällt um so mehr Einheiten brauchts du, die eigentlich nur Leitungsfunktionen übernehmen, anstatt dass du sie ins Rechenmodell einbinden kannst. Desto länger diese Wege, um so mehr Energie oder steigende Latenz.
Da macht sich so ein weiterer schneller Cache als L3 in Form von SRAM ala IFC, der auch noch nahe der Shadereinheiten platziert wird und als Bindeglied dient, damit die Latenz erheblich reduziert (was natürlich auch Energie spart) doch ziemlich gut. Die Skalierbarkeit spricht für sich, weil man über die Taktrate und entsprechende Kanäle direkt an den GDDR auch die Leistung anpassen kann, ohne das man groß etwas im Design oder der Ausstattung ändern muss, wenn die Hitrate stimmt. Man kann sogar die Bandbreite einfach so mit dem Takt ändern oder anpassen. Diesen Kloß muss Nvidia erstmal runterschlucken, wenn man sich Ampere mal genauer anschaut und wenn man nicht aufpasst, geht es einem so wie Intel, erst Gelächter und nun stillt ruht der See. Innovativ ist AMD damit allemale, auch wenn es Anleihen aus der Zenentwicklung sind. Die Entkopplung und Bereinigung macht dabei eine hohe Taktrate der Recheneinheiten möglich und natürlich rechnen sie dann auch schneller bzw. steigt die Gesamtauslastung. Du brauchst weniger und bist schneller.
UVP mäßig liegt AMD unter der Preisgestaltung von Nvidia und bietet in diesen Segmenten deutlich mehr fürs Geld (vor allem eine effizientere Speicheraustattung), außer für jemanden zählt nur DLSS und RT was bisher kaum eine Rolle spielt und die Unterschiede fallen viel zu oft marginal aus (RT on oder off). Aber das Marketing wird schon richten. Das nunmehr Effizienz bei guter bis besserer Hardwareaustattung und dazugehörigen Eigenschaften keine Rolle mehr spielt, war ja klar, von wegen Fanboy.
Und nur so, Zen1 war genauso teuer und leistete weniger, ein 1800x kostete 549 EUR, und damit ein 8C/16T nicht 449 (der in Form eines 5800x auch noch deutlich mehr leistet). Wie heute schon geschrieben www Gerüchte und Gelaber, mehr nicht. Was etwas mehr kostet ist die Plattform als Unterbau (Perpherie), was sicher PCIe 4.0 bedingt ist, da gebe ich dir gerne Recht. Aber auch die leistet deutlich mehr, vor allem bei der Anbindung von schneller Storage.
Nvidia geht da kaum ähnliche Wege, indem man pro Takt jetzt zwei Aufgaben auf einer FP Einheit (int8, int4 auf Gamerhardware=also INT32, mit 64 weiteren FP und zusätzlichen Integer-Berechnungen) ausführen kann. Das weisen sie gleich mal als doppelte Shaderanzahl aus, obwohl die Anzahl faktisch gleich geblieben ist, im FP Modell nur die Rechenaufgaben deutlich mehr Energie kosten und wenn du diese Einheiten (Multi ALUs) nicht brauchst, einen Haufen Wust mitschleppst, weil man diese auch mit Energie versorgen muss. Von allem mehr, macht es theoretisch nicht gleich besser. Parallel rechnen können nicht, es geht nur FP oder INT. Das komplette Design ist also sehr stark auf FP optimiert. Nur deshalb hat sich in der Theorie die Rechenleistung gegenüber Turing verdoppelt, die eigentliche Anzahl der Cores ist völlig gleich geblieben, nur brauchen sie für bestimmte Berechnungen deutlich mehr Energie.