Radeon RX 6900: 2,2 GHz bei 238 Watt, bis zu 2,5 GHz bei Navi 22

Über die 10 Titel, die Igor vermessen hat, ist die 3080 ggü. der RX 5700 XT in WQHD im Mittel + 55 % und in 4K im Mittel um +81 % schneller. (Darüber hinaus ist die 3080 bereits in WQHD durchgehend effizienter als die ausgereizte 5700 XT, in 4K gar deutlich. In WQHD im Mittel -0,5 W/Fps, in 4K gar im Mittel -1,3 W/Fps bei diesen 10 Titeln.)
Igo testet leider gerne CPU limitiert weil er aus seiner Sicht "realistische" Settings wählt statt die GPUs richtig zu quälen. Um zu sehen zu was die neuen GPUs wirklich im Stande sind, sind seine Messungen daher leider nicht wirklich brauchbar und es bietet sich an bei Raff nachzusehen (erst Recht wenn man sowieso gerade bei PCGH.de im Forum ist).

@Topic: Klingt auf jeden Fall erstmal extrem lecker, selbst wenn die Verbrauchsangaben ausschließlich ASIC-Power sind.
 
Die Zahlen klingen durchaus realistisch.

TSMCs 7nm(+) Fertigung ist einfach der 8nm Samsung Fertigung weeit überlegen. Die AMD Grafikkarten werden weit weniger Energie ziehen, als es ihre NVIDIA Pendants gerade tun.

Die große Frage ist halt das Featureset der neuen AMD Grafikkarten und ob man da mit NVIDIA wieder aufschließen kann, oder nicht wird spannend zu sehen sein.

Bei K.I. (DLSS) und RayTracing muss AMD liefern.
 
Dann hat dieser "jemand" falsch gerechnet. Mit den 238 W TDP hat die Karte schon min. 264 W (bereits der best case) noch vor den Wandlern. Unter 300 W TBP sind nur für das Navi21a-Modell denkbar.

HBM kann man übrigens mittlerweil egesichert ausschließen mit den sich konkret verdichtenden Gerüchten zu dem InfinityCache und dem kleinen SI. Mit AMDs beschränkten Ressouncen und ihrem deutlch kleineren Absatzmarkt wäre das völlig unwirtschaftlich für die. nVidia hätte sich so etwas noch am ehesten beim GA102 leisten können, nur haben die hier offensichtlich zugunsten der Marge darauf verzichtet. AMD setzt derzeit zu wenig um. Die Radeon VII gab es nur, weil das eine zweitverwertete MI50 war, auch keinen anderen Grund und die wurde auch wieder schnell eingestellt, weil sie unrentabel wurde und man die Vega 20-Chips wohl besser bei Apple platzieren konnte.
Mag sein ... ist halt momentan ganauso Spekulation wie deine Berechnung ;) ... aber werden wir dann ja hoffentlich in ca einem Monat mehr wissen.

EDIT: Was HBM angeht: Wir werden sehen: Es gibt eine Navi10-Karte mit HBM für das MacBook Pro.
 
Sollten diese Daten stimmen... hab ich echt meine Zweifel an Samsung's "8nm" Fertigung und deren Effizienz bei den neuen RTX Karten. :huh:
Samsung 8nm scheint auch lang nicht so effizient wie TSMC 7nm zu sein wenn man die TBP von Ampere anschaut, sieht man auch schon an der Packungsdichte GA100 zu GA102. Das heißt allerdings im Umkehrschluss das nVidia bei der nächsten Generation allein durch den Wechsel zu TSMC 7nm, der dann ja bereits günstiger sein sollte, oder gar 7nm+ nochmal ne ganze Schippe drauf legen könnte. Ich denke nVidia hat sich mit Samsung 8nm selbst ausgebremst und das versetzt AMD jetzt in eine gute Position ranzurücken.
 
1.) Ist das nur GPU-TDP oder bezieht sich das auf die gesamte Karte? (letztes wäre nett)
2.) Welche Speicherbandbreite haben 21a/b? (ich hoffe mehr als 256Bit)
3.) Liegt die 21b deutlich vor der 3080 oder nur etwa auf deren Niveau? (bei letztem sehe ich keinen Upgradegrund für mich, solange meine Karte nicht kaputt gehen sollte)
4.) Preis?
5.) Verfügbarkeit?
1.) Es ist nur die GPU-TDP, denn sonst wäre es die TBP. Die gesamte Leistungsaufnahme dürfte um die 300W liegen (200-240W GPU und 60-100W Rest)
2.) 256 bit + "Infinity Cache" auf der GPU der die geringere Bandbreite als zusätzlicher Lastlevel-Cache ausgleichen soll. Wie gut das läuft werden wir sehen
3.) Das weiß aktuell niemand. Aufgrund der Rohdaten/Gerüchte würde ich persönlich auf eine Performance zwischen 3080 und 3090 tippen - AMD wird wohl auch das primäre Ziel haben, die 3080 zu schlagen und die Taktraten/TBP entsprechend wählen.
4.) Geschätzt? Wenns schneller als ne 3080 ist und 16GB vRAM hat würde ich raten 999$. Wenn AMD mit Gewalt Marktanteile aufbauen will könnte die Karte im Extremfall aber sogar günstiger als die 3080 sein - auf Kosten von AMDs Marge.
5.) Schwer einzuschätzen. AMD sagt freilich dass man breite Verfügbarkeit haben wird zum Launch. Aber das hat NV auch behauptet. :ugly:
 
Gibt es eigentlich auch einen PCR-Test für HWF?
Ich bin mit HWF infiziert... Akuter Fall von "Haben-Will-Fieber"!!
Ich schließe mich lieber mal selber ein bis zum 28.10. ... :-)
 
Der Vergleich war daneben, weil andere Architektur, habe ich Dir aber auch schon geschrieben. RDNA1 war schon signifikant verbessert, RDNA2 wird da noch was draufsetzen. Wieviel steht natürlich noch in den STernen, da gibt es nur die AMD Aussage (50 %) sowie die Leaks die von 60 % sprechen.
Ich sage natürlich nicht, dass das auf jeden Fall so kommt, ich halte es dennoch für möglich. Kommt immer drauf an, wem und welchen Leaks man glauben schenkt.
Und nochmal, du scheinst resistent gegenüber realistischen Einschätzungen zu sein. Es sollte doch schon allgemein bekannt sein, Marketingfolien von Herstellern nicht allzu zu ernst zu nehmen. Siehe Poor Volta, Siehe Ampere Faktor 1,9 usw.
Diese beziehen sich immer auf die besten Werte unter i-welchen unbekannten Bedingungen, im besten Fall.

Die Leistung wird nicht nicht nennenswert steigen, keine Frage. Das wird eine sehr wahrscheinlich gute Grafikkarten Gen kommen, aber eben nicht das was hier so viele denken/äußern, nämlich die Übergeneration die alle Karten neu mischt...

U.a. die MSI 5700 XT. Nach den ganzen Einschätzungen wird diese einfach mal 2 genommen, was bedeutet das diese 520 Watt unter lasst aufnimmt (mit 8 GB statt 16). Mit (m.m. n. unrealistisch) 45% Effizientsteigerung bist du iwo bei 286 Watt. Also die 300 Watt werden wohl hinkommen.

Zur Leistung, diese skaliert halt eben nicht linear, ist aber aktuell schwer einzuschätzen wie RDNA2 ohne GCN sich hier verhält. Der Takt wird sehr wohl so nicht mit skalieren. Nach der Folie im Artikel sind es etwa 2-2,2 GHhz, was in etwa der aktuellen Gen entspricht. D.h. man konnte diesen anscheinend/zumindest halten. Wenn wir durch die IPC Steigerung und anderen möglichen Verbesserungen der Big Navi einfach tatsächlich den Faktor 2 ohne Verluste in der Leistung bei Erhöhung der Shader unterstellen, was ja ja im Prinzip der Idealfall (Best Case) ist und sehr wahrscheinlich nie so eintreffen wird, pendeln wir zwischen 3080-3090.
Wenn man jetzt aber nur den Faktor 1,75 erreicht, was schon sensationell wäre, ist man auf 3080 Niveau.

Da es ein A und B Big Navi geben soll, glaube ich das sich die 2,2 Ghz Variante davon minimal vor die 3080 setzen kann..., mit entsprechender TBP natürlich ;) Natürlich daher der Move von Nvidia bis an die Kotzgrenze zu gehen...

Übrigens ja, die Radeon 7 hat ne andere Arch, aber eben den selben Node, die schiere Anzahl Transistoren fordern ihren Tribut und diese Anzahl Transistoren hast du auch in RDNA2, nur anders geschaltet, so dass diese mehr Leistung bei gleicher Watt Zahl bekommst... Deshalb nahm ich das Bsp. her, weil es da noch nur um den Verbrauch ging...


1601204875919.png

1601206070620.png
 
Zuletzt bearbeitet von einem Moderator:
Bravo ihr beiden ... ihr macht genau das wofür Nvidia mit Properitärem G-Sync hinaus wollte: Schön im eignen Ökosystem einsperren den Kunden.

Was hast du an meinem Beitrag nicht verstanden? :ka: Ich habe halt einen GSync Monitor. Ist schon gekauft worden, bevor NVIDIA "GSync compatible" eingeführt hat. Kann ich ja jetzt nicht mehr ändern...

Und wie gesagt: wenn AMD liefert, bin ich gerne bereit zu wechseln ;)
 
Igo testet leider gerne CPU limitiert weil er aus seiner Sicht "realistische" Settings wählt statt die GPUs richtig zu quälen. Um zu sehen zu was die neuen GPUs wirklich im Stande sind, sind seine Messungen daher leider nicht wirklich brauchbar und es bietet sich an bei Raff nachzusehen (erst Recht wenn man sowieso gerade bei PCGH.de im Forum ist).

Welche Überraschung erwartest du hier? Mit der vermeintliche CPU-Limitierung wird die Ampere-Karte dann im Vergleich nur noch besser. Beispielsweise in PCGH 3080 ggü. 5700 XT in 4K im Mittel +105 % mehr Fps. (Mit über +120 % gewinnen bspw. hinzu Control, Doom Eternal und SW Jedi Fallen Order.)
Darüber hinaus sind für eine Effizienzbetrachtung ausnahmslos Igors Messungen zu gebrauchen, da derartige Messung keine andere Publikation bietet.
 
Zuletzt bearbeitet:
Na das sieht ja mal erfreulich aus !

1.jpg


Hoffe BN schlägt oberhalb der 3080 und damit auch sehr nah(oder über?) der 3090 auf. :daumen:

edit:


denke die ca 4wochen bis man mehr weiss,
werden alle überleben, mehr oder weniger ;-)

Diese Zeit werde ich wohl so, oder so noch auf mein Kärtchen warten müssen(oder auch noch 2-4 Wochen länger). So what ? :ka:
 
Dann hat dieser "jemand" falsch gerechnet. Mit den 238 W TDP hat die Karte schon min. 264 W (bereits der best case) noch vor den Wandlern. Unter 300 W TBP sind nur für das Navi21a-Modell denkbar.
Nein, das ist auch problemlos für das bis zu 2200MHz-Modell möglich. Wird am Ende auf 280-300W hinauslaufen.

HBM kann man übrigens mittlerweil egesichert ausschließen mit den sich konkret verdichtenden Gerüchten zu dem InfinityCache und dem kleinen SI.
Es gibt keine sich konkret verdichtenden Gerüchte zu dem IF-Cache. Das kam einzig und alleine von einer Quelle bisher. Andere sagen wiederum, dass das Engineering-Board mit dem 256bit SI zwar N21 zuzuordnen ist, aber nur für Emulationszwecke lief. Und N21 daher (auch) mit HBM kommt. 512bit SI wird es nicht geben.
 
Über die 10 Titel, die Igor vermessen hat, ist die 3080 ggü. der RX 5700 XT in WQHD im Mittel + 55 % und in 4K im Mittel um +81 % schneller. (Darüber hinaus ist die 3080 bereits in WQHD durchgehend effizienter als die ausgereizte 5700 XT, in 4K gar deutlich. In WQHD im Mittel -0,5 W/Fps, in 4K gar im Mittel -1,3 W/Fps bei diesen 10 Titeln.)

Sag ich doch - wenn big Navi als tatsächlich um das 2,3fache schneller sein wird, ist sie der 3080 mehr als nur auf den fersen, auch wenn diese wie zu sehen mal arg drüber ist - mitunter aber eben auch nur so bei 170% liegt. wie immer halt. auch wenn ich @PCGH_Raff 's tests hernehme. und da ich einen UHD-Monitor habe, interessieren mich die anderen ergebnisse ja nur peripher. dass die 3080 effizienter als die 5700xt ist, ist wohl auch klar. versteh grad nicht. worauf Du hinaus willst. ^^

Screenshot (5).png
Screenshot (6).png
 
Nein, das ist auch problemlos für das bis zu 2200MHz-Modell möglich. Wird am Ende auf 280-300W hinauslaufen.

Das "2200 MHz"-Modell ist laut der Tabell Navi21b und damit die 238 W TDP GPU, du Scherzbold.
Aber du kannst ja mal gerne vorrechnen, wie du den Verbrauch wegrechnest und die Physik Lügen strafst.
Ich greife mal etwas vor, damit du dich nicht vollends blamieren musst. ;-) Bereits diese 238 W der GPU bedeuten mit guten Wandlern um die 280 W und da sind jetzt weder Verluste auf dem Board, weder der Speicher noch die Lüfter eingerechnet.
Und um dir die Mühe gleich vollends zu ersparen, der absolute (aber auch unrealistische) best case für 16 GiB mittels 8 x 16Gb-BGAs wären 16 W + 3 W Wandlerverluste. (Realistischer ist gar mehr, da dieser 2 W-Wert pro BGA für 14 Gbps / 8 Gb-BGAs gilt), d. h. alleine schon damit bist du bei 300 W angekommen und mit PCB und Lüftern kommen mindestens noch einmal 10 W oben drauf und wie gesagt, das ist alles sehr optimistisch gerechnet.
 
Zuletzt bearbeitet:
Na das sieht ja mal erfreulich aus !

Anhang anzeigen 1334983

Hoffe BN schlägt oberhalb der 3080 und damit auch sehr nah(oder über?) der 3090 auf. :daumen:
Die Tatsache das es ein A und eine B Version gibt (mit nur 7% mehr takt, mit über19% mehr Verbrauch), sehe ich nicht so positiv. Warum sollte man das tun wenn der selbe Chip schon von Grund auf eine 3080 locker hinter sich lässt? Ich schätze A unter 3080 ein, minimal und B auf Augenhöhe vielleicht ein Stück darüber.
Diesmal wird der Preis und VRam Bestückung den Käufer abholen.., da bin ich mir sicher. Von der Leistung her schenken die sich wohl nix.
 
Beispielsweise in PCGH 3080 ggü. 5700 XT in 4K im Mittel +105 % mehr Fps. (Mit über +120 % gewinnen bspw. hinzu Control, Doom Eternal und SW Jedi Fallen Order.)

Einzelbenchmarks sind egal....

Die 105% in 4k sind ausm Heft oder woher?
PCGH gibt online nur Alle 4 Auflösungen zusammen raus. :ka:

Bitte Quellenangabe! sonst bleibt es bei den gemittelten 86%
 
Zurück