Radeon RX 6900: 2,2 GHz bei 238 Watt, bis zu 2,5 GHz bei Navi 22

Mir wäre es recht wenn AMD und Nvidia wieder normaler mit der TDP umgehen. Eine GeForce 7950 GX2 hatte als Dual GPU eine TDP von 110 Watt... Inzwischen ist das schon für untere Mittelklasse zu wenig.
Warum zum Geier müssen diese Chips immer weiter ans Limit gebracht werden?
Mal im ernst mir wäre es lieber wenn die Navi 21 Karte (RX 6900XT) nur 250 Watt TBP maximal schluckt. am besten nur 200 Watt gesamt.

Nvidia hat diesen Trend gestartet mit immer größeren, immer wärmeren, hungrigeren Chips. Wenn das so weiter geht ist bald Wasserkühlung pflicht für jedes System. Nebenbei sind Chips kurzlebig im Grenzbereich, fressen ineffizient Strom und es erhöht die Abwärme unnötig.

Ich hoffe AMD bringt auch eine Version raus mit weit weniger TDP (160 Watt) mit vollen CUs.
 
Einzelbenchmarks sind egal....

Die 105% in 4k sind ausm Heft oder woher?
PCGH gibt online nur Alle 4 Auflösungen zusammen raus. :ka:

Bitte Quellenangabe! sonst bleibt es bei den gemittelten 86%

Meine Güte, immer diese Leute mit ihrem Confirmation Bias. Die +104,9 % ist der PCGH-Mittelwert in 4K, immer noch. Es wird nicht besser, wenn man tausend Mal nachfragt. Eher sollte man hinterfragen, warum man nicht einmal seinen eigenen Bias überprüft. ;-)
Und nein, bei +86 % bleibt es nur in deiner Fantasie, PCGH sagt da was anderes, da kannst du "drohen" so viel du willst. ;-)

Und bevor jetzt noch weitere Fragen kommen, weil ich die Daten eh schon vorliegen habe:
3080 FE in 4K gemäß PCGH, gemittelt:
5700 XT + 104,9 % Fps
5700 + 136,4 %
2080 Ti +35,0 %
2080 Super + 64,4 %
 
Zuletzt bearbeitet:
Sag ich doch - wenn big Navi als tatsächlich um das 2,3fache schneller sein wird, ist sie der 3080 mehr als nur auf den fersen, auch wenn diese wie zu sehen mal arg drüber ist - mitunter aber eben auch nur so bei 170% liegt. wie immer halt. auch wenn ich @PCGH_Raff 's tests hernehme. und da ich einen UHD-Monitor habe, interessieren mich die anderen ergebnisse ja nur peripher. dass die 3080 effizienter als die 5700xt ist, ist wohl auch klar. versteh grad nicht. worauf Du hinaus willst. ^^
5700 XT nur 55% langsamer, klar, Bei Igor liegt die 3080 satte 60% über der 2080 Super im best case und 40% über der Ti. Seid wann ist die 5700Xt schneller oder gleich schnell wie die 2080S?

Er vergisst ausserdem das CPU Limit.

Zitat Igor:


"Beginnen wir mit den FPS-Werten in Verbindung mit dem 1% Low FPS, also der Betrachtung der Perzentile (die ich später noch über die gesamte Bandbreite als Kurve darstellen werde) im Worst-Case, da Min-FPS selbst nichts aussagen., Das was die GeForce RTX 3080 FE hier abliefert, ist selbst auf WQHD bereits brachial und wird eigentlich nur gelegentlich durch die CPU limitiert. Ich habe die ganzen Balkendiagramme aller 10 Spiele untereinander aufgeführt, so dass man sich schon einmal einen guten Eindruck verschaffen kann.

Wenn ein Spiel gut skaliert, wie z.B. Horizon Zero Dawn, dann beträgt der Vorsprung der GeForce RTX 3080 FE gegenüber der GeForce RTX 2080 Super satte 71% und gegenüber der GeForce RTX 2080 Ti noch 40%, obwohl die CPU bereits leicht limitiert, was wir später noch bei den Leistungsaufnahmemessungen der CPU und der Effizienzbetrachtung erkennen können. Sehr viele Spiele performen ähnlich souverän oder zumindest eindeutig besser, solange nicht die CPU mit ins Spiel kommt"


 
Ich frage mich wirklich warum so viele naiv sind? Diese Karten werden leider Gottes nicht auf dem Niveau von 3090... Die letzten 10 Jahre gab es kein Wunder und diesmal wird es auch kein geben...
 
Gemessen an der Hitzeentwicklung müsste es viel mehr AIO Wasserkühler für GPUs geben, als für CPUs. Bei 4k Ultra ist es schon oft ein Witz. 300W auf der Grafikkarte und kaum 40W auf der CPU.
GPUs werden in 4K nun mal richtig gefordert während CPUs immer noch mit Samthandschuhen angefasst werden - unabhängig der Auflösung. Instructions wie SSE 4.1/4.2 oder AVX werden selbst heute nur zögerlich genutzt weil sonst der Michel im Steam Forum weint Spiel X startet auf seiner 10 Jahre alten Phenom II CPU nicht mehr. Beim Multithreading wird es langsam besser, ab 4-6 Kernen hört die Skalierung trotzdem oftmals auf.

Unter den Voraussetzungen können sich moderne CPUs beim Gaming nur langweilen.
 
Ich frage mich wirklich warum so viele naiv sind? Diese Karten werden leider Gottes nicht auf dem Niveau von 3090... Die letzten 10 Jahre gab es kein Wunder und diesmal wird es auch kein geben...

Die RTX3090 ist doch absolut egal? Fast keiner Interessiert sich für die Karte, weil zu teuer.

AMD muss sich mit der RTX 3080 messen lassen und sonst nichts.
 
5700 XT nur 55% langsamer, klar, Bei Igor liegt die 3080 satte 60% über der 2080 Super im best case und 40% über der Ti. Seid wann ist die 5700Xt schneller oder gleich schnell wie die 2080S?

Er vergisst ausserdem das CPU Limit.

Er vergisst es vielleicht - ich nicht. Ich würde mir definitiv keine neue CPU kaufen (also extra der gpu wegen, auf nen neuen ryzen upgrade ich sowieso), wenn mir BN in verbindung mit diesem ausreichende bildraten für meinen monitor liefert, wovon ich (zumindest noch) ausgehe.
Des weiteren scheine ich wohl tomaten auf den glotzen zu haben:
Anhang anzeigen Screenshot_2020-09-27 NVIDIA GeForce RTX 3080 Founders Edition Review- ein großer Schritt nach...jpg

p.s.: cpu-limit und dlss "interessieren mich nicht", ebenso wenig die "super"-varianten. und sowieso ist klar: am ende kackt die ente - und damit bin ich auch wieder raus aus der diskussion hier. ;)
 
Zuletzt bearbeitet von einem Moderator:
238 Watt und was glauben die Leute hier zieht eine 3090 nur GPU?
170 Watt ist die Antwort unter Last sagen wir mal das 220 maximal dann ist es trotzdem deutlich mehr wie Ampere.

Dann wird man hier die gleichen Leute hören ist ja nicht so schlimm, die sich vorher noch über Ampere aufgeregt haben.
Das wird Garantiert mehr Board Power als eine 3090 hat und ich würde sogar ausgehen das man da locker die 400 Watt durchbrechen
wird. Das sieht mir eher danach aus als AMD die Brechstange rausholen muss und dann noch geschlagen wird von einer 3080.

Die Prognosen werden echt immer schlechter erst Ashes, aus der Kiste und wer hätte das nur gedacht braucht AMD gewaltig viel Saft.
Das gab es ja noch nie das AMD viel verbraucht hat, wer ja ganz was neues.


Ihr schreibt sogar im Text Maximaler Takt und im Kasten steht dann Boost Takt! Das ist verwirrend für viele, das sind alle maximale Takt angaben
und keine Boost Werte. Was hat den RDNA also die 5700XT maximaler Takt? 2210 Mhz und ist das jetzt der Boost? Sagt der Wert etwas aus
über die Leistung?
Ja wenn man eine PS5 Nachteil kompensieren will dann vielleicht. Das den Sony Bullshit bis heute keiner Anspricht zeigt auch ein Bild. Keiner
will anscheinend einen Konzern sagen, das sie gerade alle verarschen.
In der Realität ist der Maximal Wert nichts anderes wie irgend etwas müssen wir da Eintragen. Der Wert ist rein Theoretisch und würde bei 0 Last erreicht werden, also in der Realität nie mit den Vorgaben. Der Wert ist auch nicht eine Schranke das es nur bis dahin geht, es ist eigentlich gar nichts. Das gleiche gibt es bei Nv aber Pascal waren das immer 2100 Mhz die ebenfalls nie erreicht werden Stock.
Wenn da steht 2,2 Ghz dann kann man von 1900 Mhz Boost Ingame ausgehen, je nach Temps, Last usw.
Bei kleinen Chips kann ein Takt dann deutlich höher sein, aber auch nicht in der nähe des Maximal Wertes.

Maximale Boost Werte braucht kein Mensch außer vielleicht Sony um 36 gegen 52 zu Kompensierens. Teraflops genauso wenig sagen nichts aus
über Gaming Leistung. Sagen auch nichts aus ob RDNA 2 überhaupt mit mehr Teraflops schneller ist, es sagt gar nichts aus.
Stellt man sich vor die Konsolen hätten eine 3060 als GPU, was hätte da wohl die Presse geschrieben? Schneller wie die 2080ti wäre in Dauerschleife gelaufen, weil mehr Teraflops.

Was man sagen kann AMD wird mindestens den gleichen Verbrauch haben wie Ampere, wahrscheinlich sogar mehr.
Was man auch noch sagen kann, nach Ashes das AMD wahrscheinlich nicht so gut da steht wie viele denken.
Sonst hätte man das Teil nicht raus gekramt und Ampere wird noch deutlich zulegen das sollte man nicht vergessen.

Sobald Spiele auf Ampere optimiert werden also auf Fließkomma ist der Vorsprung schon echt deutlich zu einer 2080ti siehe Doom.
Wenn AMD tatsächlich ohne DLSS antritt, dann würde ihnen nicht mal ein gleichstand helfen. Weil dann wird eine 6800XT von einer 3060
wegen DLSS einfach mehr FPS haben dazu noch RT.
Die Software ist diesmal ein wichtiger Faktor den viele überhaupt nicht bedenken.
 
238 Watt und was glauben die Leute hier zieht eine 3090 nur GPU?
170 Watt ist die Antwort unter Last sagen wir mal das 220 maximal dann ist es trotzdem deutlich mehr wie Ampere.

Wie Igor schon vorrrechnete: Der GA102 wird auf den beiden großen Modellen regulär auf etwa 220 - 230 W TDP spezifiziert sein. Die RTX 3090 hat die zusätzlichen +30 TBP hauptsächlich wegen dem beträchtlich größeren Speicher.
 
die frage ist wie teuer es werden wird, wenn man zukünftig spiele (noch immer) extra für nvidia optimieren soll. sollte man im angesicht der konsolen langsam aber sicher mal sein lassen.
 
Die Tatsache das es ein A und eine B Version gibt (mit nur 7% mehr takt, mit über19% mehr Verbrauch), sehe ich nicht so positiv. Warum sollte man das tun wenn der selbe Chip schon von Grund auf eine 3080 locker hinter sich lässt?

Selektierte Highend OC-Modelle(ab Werk) ?
Mehr Geld verdienen ?

Ich meinte auch einfach nur so ganz grob die Werte, in welche Richtung die Reise geht.
Sieht doch Pi mal Daumen schon ganz gut aus. :daumen:

Also durchaus richtige Konkurrenz zu Ampere.

Freut mich für alle Interessenten der AMD Karten.
 
Die Zahlen klingen durchaus realistisch.

TSMCs 7nm(+) Fertigung ist einfach der 8nm Samsung Fertigung weeit überlegen. Die AMD Grafikkarten werden weit weniger Energie ziehen, als es ihre NVIDIA Pendants gerade tun.

Die große Frage ist halt das Featureset der neuen AMD Grafikkarten und ob man da mit NVIDIA wieder aufschließen kann, oder nicht wird spannend zu sehen sein.

Bei K.I. (DLSS) und RayTracing muss AMD liefern.
Ich glaube das man sich die Sache etwas zu leicht macht wenn man sagt, das es nur an TSMCs besserer Fertigung läge
das AMD dieses Mal was die Effizienz anbelangt anscheinend besser abschneiden könnte als NVIDIA.
Denn wenn man sich mal vor Augen führt wie z.B. die +50% in P/W beim Umstieg von GCN auf RDNA1 zustandekommen, dann sieht man das davon 25 - 30% der gestiegenen IPC, ca. 12.5% dem Prozess und der Rest ca. 7.5% dem Design Frequency and Power Improvement zu verdanken sind.
Es ist noch anzumerken das dies bei der Umstellung von Global Foundries 14nm auf TSMCs 7nm erreicht wurde.

Wer nun also denkt das die 50% vorwiegend TSMCs fortschrittlicher Fertigung zu verdanken sind der irrt.
Im Gegenteil es ist nicht anzunehmen das selbst eine verbesserte, optimierte Variante von TSMC 7nm Prozess
gleichviel zu der P/W Steigerung beitragen wird, wie dies noch beim Umstieg von 14 auf 7nm der Fall war.
Daher und dies konnte man bereits in diversen Artikeln nachlesen wird das speziell dafür zuständige Team das
für Design Frequency and Power improvement zuständig ist dieses Mal nach meiner Meinung bzw. anhand der Taktraten von 2.2 bzw. 2.5GHz für NAVI 21 und 22 bereits zum Teil ersichtlich dieses Stück am Kuchen prozentual deutlich größer ausfallen als beim letzten Mal.
Wenn man die Taktrate von 2.5GHz von NAVI 22 die wohl in einem ähnlichen Verbrauch wie die 5700XT haben wird (etwa 225W?) mit den 1.9GHz der 5700XT in Relation setzt (die ebenfalls 40CU's) hat dann käme man bei +32% raus.

Selbst wenn der Anteil der auf den Prozess zurückzuführen ist bei ca. 12.5% bliebe, was ich nicht glaube.
Wären das immer noch nur 45% auch wenn da sicherlich noch weitere Power improvements vorgenommen wurden,
würde das wohl auf eine beachtliche IPC Steigerung hinauslaufen um am Ende auf die 100% zu kommen.
Daher kommt auch meine optimistische Einschätzung, das sich die bereits von AMD in Aussicht gestellte IPC Steigerung nicht nur 10% betragen wird, sonder meiner Meinung wohl eher bei ca. +20% liegen wird.
Die +50% P/W könnten sich somit in etwa wie im folgenden Beispiel zusammensetzen:
32% Takt + 12.5 Prozess (eher deutlich weniger) + 15% weitere Power improvements + 40% IPC (entspricht +20% IPC)
P per W RDNA2.png

Also wer denkt das NVIDIA lediglich seine Architektur auf TSMC 7nm Prozess portieren müsste um wieder Konkurrenzfähig zu werden was die P/W anbelangt, der könnte mit seiner Einschätzung ziemlich falsch liegen.
 
Zuletzt bearbeitet:
Die 238 W der großen RDNA2-GPU ist nur die GPU-TDP. Das Board wird bestenfalls 310 W bis hin zu gar 330 W TBP aufweisen in dieser Konfiguration (zzgl. Speicher, Gedöns und vor allem Wandlerverluste).
Der GA102 der 3080 dürfte mit 220 - 230 W TDP spezifiziert sein.
Joa, in meinem ersten Post meinte ich aber eher, dass die NVidia-Karten aktuell sehr nach "ausgequetscht bis ans Limit" aussehen. Damit einher geht, nach meiner bescheidenen Meinung, ein Betrieb der Karte oberhalb des Sweetspots für die Leistungsaufnahme. Ich gehe einfach nur davon aus, dass AMD, wenn sie schon von so einem großen Effizienzsprung schreiben wie viele hier im Forum meinen, sie die Karten dann gar nicht mehr an der Schmerzgrenze betreiben müssten, was wiederrum bedeuten könnte, dass sie bei vergleichbarer Leistung vielleicht doch nicht so viel Strom benötigen wie die aktuelle NV-Gen.
 
@sandworm

Coreteks hat diese Folie schon debunked und gesagt das AMD schlicht weg lügt, um sich mehr Honig an den Bauch zu schmieren, als an TSMCs ihren.

Coreteks geht davon aus das der größte + von 50% von der 7nm Fertigung kommt.
 
Coreteks hat diese Folie schon debunked und gesagt das AMD schlicht weg lügt, um sich mehr Honig an den Bauch zu schmieren, als an TSMCs ihren.

Coreteks geht davon aus das der größte + von 50% von der 7nm Fertigung kommt.
Coreteks war aber auch die Labertasche mit Co-Prozessor, der ja definitiv bei Ampere dabei ist. Wo der ist, wissen wir alle. Oder auch nicht, weil es ihn ja nicht gibt.
 
Radeon VII: 250W TDP (GPU+HBM), Igor hat ~290W gemessen. Da hat sich also gerade jemand in der Tat vollends blamiert. :)

Versuchst du dich immer mit einem Äpfel-und-Brinen-Vergleich rauszuwinden? Die Radeon VII ist ein HBM-Design und daher nicht unmittelbar mit GDDR6-Designs vergleichbar.
Mit sehr guten 85 %-Wandlern kommst du, wie schon vorgerechnet, mit 238 W für die GPU bei 280 W raus und mit bisher üblicheren 83 %-Wandlern gar bei 287 W. Daran gibt es nichts, was man irgendwie schönrechnen könnte.
Lese es dir mal bei Igor durch, falls du das weiterhin nicht verstehst.

 
Zurück