Radeon RX 6900: 2,2 GHz bei 238 Watt, bis zu 2,5 GHz bei Navi 22

ja natürlich. erstens konnte die VII auch scho 230 TBP mit einem normlalen UV (bei Leistungssteigerung zu Stock). zweitens handelt es sich hier um eine gänzlich andere Architektur. Bei RDNA haben scho deutlich bessere Effizienz gesehen, RDNA2 soll lt. eigenen AMD Angaben 50 % Effiziensteigerung haben, Leaks sprechen sogar von 60 % aktuell.
Das glaubt auch nur der, der an den Weihnachtsmann glaubt. Dass AMD 60% Effizienz rausholt wäre ein Quantensprung, ohne gleichen. Marketing Hype Gewäsch. Zudem skalieren Shader nicht linear, das heisst die oberen 20% Leistung brauchen überproportional viel Saft. Die werden realistisch etwas um die 20-30% rausholen was in etwa iwo bei 300Watt Total Board Power endet, die Frage ist wieviel Leistung rüber kommt bei 300 Watt.
Nicht umsonst verbauen die auch einen riesigen Kühler mit ebenso vielen Lüftern und das wegen 230 Watt Totalboard Power (der Chip müsste dann iwo bei 140 Watt liegen, wers glaubt...)

Übrigens schau mal in den Ampere Thread rein, die Amperes 3080/3090 laufen undervolted auch mit 230-260 Watt total entspannt... Also UV ist erstmal kein Argument für Spekulationen.
 
Zuletzt bearbeitet von einem Moderator:
also ich hab jetzt mal nichts berechnet, aber wenn ich mich recht erinnere (!), war die 3080 - nicht die 3090! - immer so in etwa doppelt so flink wie die 5700xt, guck mir das aber bei gelegenheit sicher nochmal an. ^^.

Über die 10 Titel, die Igor vermessen hat, ist die 3080 ggü. der RX 5700 XT in WQHD im Mittel + 55 % und in 4K im Mittel um +81 % schneller. (Darüber hinaus ist die 3080 bereits in WQHD durchgehend effizienter als die ausgereizte 5700 XT, in 4K gar deutlich. In WQHD im Mittel -0,5 W/Fps, in 4K gar im Mittel -1,3 W/Fps bei diesen 10 Titeln.)
 
Ich drücke den Jungs von AMD beide Daumen, dass das ein erfolgreicher Launch mit starken Karten und guten P/L wird ... (damit Nvidia heftig Preise drücken muss :D - dank Gsync noch gut 2 Jahre auf grün festgelegt :ka:)
Mein Monitor nagelt mich quasi auch auf NVIDIA fest, aber ich werde es definitiv durchrechnen, ob es sich lohnt auf einen neuen Monitor zu setzen ^^
Bravo ihr beiden ... ihr macht genau das wofür Nvidia mit Properitärem G-Sync hinaus wollte: Schön im eignen Ökosystem einsperren den Kunden.
 
Sofern die Daten korrekt sind, wäre das schon eine Hausnummer. Die 50% Effizienzsteigerung nur durch Architekturverbesserungen hätten sie dann tatsächlich erreicht. Schon krass, wenn man mit Navi 10 vergleicht, doppelte CUs und höherer Takt, dennoch nur 20 Watt mehr. Hoffen wir, dass ihre Treiber auch einen guten Sprung machen und die Leistung auch auf der Straße ankommt.

Interessant ist auch, dass der Speichercontroller scheinbar mit GDDR6 und HBM2 umgehen können soll. Vielleicht erwartet uns da dann ja tatsächlich eine schöne Überraschung. :)
Tja sind eben alle Bremsen von GCN die noch in RDNA1 enthalten waren entfernt worden! Das wird ein spannender Oktober!
 
denke die ca 4wochen bis man mehr weiss,
werden alle überleben, mehr oder weniger ;-)

wenn die cpu ca 250w frisst und speicher sowie restkarte ca 100, ist man beim selben wie bei der 3090, mal schauen wies dann leistungstechnisch ausschaut und was der verbauch real in spielen usw sagt, der liegt ja auch nicht auf 350w festgenagelt bei NV......
schaun mer mal, wird spannend!

wobei, ich hab ein anderes preis-limit, die 410 für meine 5700xt war schon über meinem eigentlichen budget, aber wenn einem die karte abkippt, kann man auch mal über sein gesetztes limit gehen, wenn man sofort ersatz braucht weil man sonst weder tv- schauen noch spielen oder internet machen kann,
das waren mir die 100€ mehr in dem falle wert.
 
Tja sind eben alle Bremsen von GCN die noch in RDNA1 enthalten waren entfernt worden! Das wird ein spannender Oktober!
Und da denke ich der (Denk-) Fehler bei den großen Erwartungen. RDNA ist eine zweifelsfreie bessere Arch als GCN, aber man erwartet nun dass man durch das ablösen von GCN den heiligen Gral erschaffen hat und die Rohleistung komplett auf die Straße bringt, bei viel viel viel viel weniger Strom... Genau der selbe Hype/die Erwartung den alle bei Ampere hatten...
 
Rohleistung komplett auf die Straße bringt
Wir haben zumindest bei Navi10 und Navi14 lineares Scaling zwischen den beiden gesehen. Weiterhin wissen wir - von AMD selbst so gesagt - dass bei RDNA und natürlich RDNA2 scaling eine ganz wichtige Rolle gespielt hat. Ich denke also, dass das Auslasten der Shader (sofern die Bandbreite stimmt) nicht das Problem darstellen sollte.
 
Ich hab nie gesagt, dass 230 TBP auf den Karten der Fall sein wird. Wenn man sich die Zahlen angguckt, sieht man auch 'socketpower' ergo Chip-only.
Habe nur gesagt, dass das sicherlich möglich wäre eine Karte mit 240 TBP auf n7+ zu kreieren. ICh wolllte Dir vor allem aufzeigen, dass Dein RVII Vergleich halt völlig daneben war.
Wo war der daneben? Natürlich ist 240 TBP machbar aber nicht mit 80 CU. N7+ ist kein neuer Node nur eine Optimierung...

1601203601684.png

1601203623238.png

Wir haben zumindest bei Navi10 und Navi14 lineares Scaling zwischen den beiden gesehen. Weiterhin wissen wir - von AMD selbst so gesagt - dass bei RDNA und natürlich RDNA2 scaling eine ganz wichtige Rolle gespielt hat. Ich denke also, dass das Auslasten der Shader (sofern die Bandbreite stimmt) nicht das Problem darstellen sollte.
Ach komm, ich freu mich auf den Launch, werde dir die kommenden 6 Monate das jedes mal vorhalten. Natürlich skaliert die Leistung linear, wie schon immer... :devil:
 
Ich bin sehr gespannt. So gute Chancen hatte AMD wirklich seit langem nicht mehr. Nvidias Launch war eine einzige Katastrophe, man ist diesmal in der Keynote einfach deutlich übers Ziel hinausgeschossen und hat viel zu überzogene Erwartungen erzeugt, die Verfügbarkeit der 3080 und 3090 strebt nach wie vor gegen null und viele Karten der Boardpartner sind mit irreparablen Problemen geplagt. Und selbst wenn Ampere so funktioniert, wie es sein sollte, ist der Sprung von Turing auf Ampere doch gar nicht so riesig, wie im Voraus getönt wurde. Der Ball liegt tief in AMDs Seite des Feldes. Ich hoffe, sie verpassen die Chance nicht noch einmal.
Abwarten und Tee trinken. Bald wissen wir mehr - und die Chance, bis dahin eine GA102-Karte zu bekommen, ist ja alles in allem nicht mal gesichert.
gRU?; cAPS
 
Der Vergleich war daneben, weil andere Architektur, habe ich Dir aber auch schon geschrieben. RDNA1 war schon signifikant verbessert, RDNA2 wird da noch was draufsetzen. Wieviel steht natürlich noch in den STernen, da gibt es nur die AMD Aussage (50 %) sowie die Leaks die von 60 % sprechen.
Ich sage natürlich nicht, dass das auf jeden Fall so kommt, ich halte es dennoch für möglich. Kommt immer drauf an, wem und welchen Leaks man glauben schenkt.

2020-09-27 13_17_24-AMD Big Navi and RDNA 2 GPUs_ Release Date, Specs, More _ Tom's Hardware.png
 
Zuletzt bearbeitet:
" socket_power_limit_ac[0] (W) "
klingt eher nach GPU Power
kommt also noch Einiges dazu

Die 238 W der großen RDNA2-GPU ist nur die GPU-TDP. Das Board wird bestenfalls 310 W bis hin zu gar 330 W TBP aufweisen in dieser Konfiguration (zzgl. Speicher, Gedöns und vor allem Wandlerverluste).
Der GA102 der 3080 dürfte mit 220 - 230 W TDP spezifiziert sein.
 
Ich warte ab, und die Probleme bei NV sind denke ich mal auch nichts neues ging AMD mit der 7870er Reihe anfangs auch nicht besser.

Ich hoffe nur es wird auch ein konkurrenzfähiges Produkt und die Preisschlacht beginnt dann :-)
 
Ach ich bin entspannt und schau mir erst mal das Event am 28.10 an und Tests dann sehen wir weiter. Klingt zumindest mal nach guten Voraussetzungen um zumindest mit der 3080 mithalten zu können. Wir werden sehen.
 
Gemessen an der Hitzeentwicklung müsste es viel mehr AIO Wasserkühler für GPUs geben, als für CPUs. Bei 4k Ultra ist es schon oft ein Witz. 300W auf der Grafikkarte und kaum 40W auf der CPU.
 
Die 238 W der großen RDNA2-GPU ist nur die GPU-TDP. Das Board wird bestenfalls 310 W bis hin zu gar 330 W TBP aufweisen (Speicher, Gedöns und vor allem Wandlerverluste).
Der GA102 der 3080 dürfte mit 220 - 230 W TDP spezifiziert sein.
Hat jemand ausgerechnet schon mit den238W GPU-Power sollte eine Karte mit GDDR6 bei 280-300 Watt landen. Vergiss nicht. AMD nutzt wohl kein GDDR6X welches deutlich mehr Strom verbraucht. Bauen sie auf die großen karten sogar noch HBM2e wäre der verbrauch noch niedriger.
 
Dann hat dieser "jemand" falsch gerechnet. Mit den 238 W TDP hat die Karte schon min. 264 W (bereits der best case) noch vor den Wandlern. Unter 300 W TBP sind nur für das Navi21a-Modell denkbar.

HBM kann man übrigens mittlerweile gesichert ausschließen mit den sich konkret verdichtenden Gerüchten zu dem InfinityCache und dem kleinen SI. Mit AMDs beschränkten Ressouncen und ihrem deutlch kleineren Absatzmarkt wäre das völlig unwirtschaftlich für die. nVidia hätte sich so etwas noch am ehesten beim GA102 leisten können, nur haben die hier offensichtlich zugunsten der Marge darauf verzichtet. AMD setzt derzeit zu wenig um. Die Radeon VII gab es nur, weil das eine zweitverwertete MI50 war, aus keinen anderen Grund und die wurde auch wieder schnell eingestellt, weil sie unrentabel wurde als der Preis fiel und man die Vega 20-Chips wohl besser bei Apple platzieren konnte.
 
Zuletzt bearbeitet:
Zurück