Radeon RX 7000: AMD spricht nicht mehr vom Launch am 3.11.

zu RDNA kennen wir im Wesentlichen nur zwei Gerüchte. RDA soll 50% effizienter pro Watt sein als RDNA2 und die größte Karte hat 375W.

Eine 6900XT hat 300W TDP, die 7900XT hätte die Leistung wie eine 6900XT mit 562W, wenn diese denn linear skalieren würde. Laut PCGH Leistungsindex wäre das knapp oberhalb der 4090. Dazu gesellen sich Frage wie, "wie schlecht ist Raytracing diesmal" und hat auch AMD was in der Pipeline in Sachen Frame Generation.

Was ich nicht erwarte ist, dass AMD die Karte für 1000€ auf den Markt wirft. Wenn uns Ryzen eines gelehrt hat, dann dass AMD vielleicht das beste Produkt machen will und kann, aber dann auch die Hand am größten aufhält, wenn es um Leistung pro Euro geht.

Ich verstehe die 562 Watt nicht ^^

Zu AMD, ich persönlich kann kaum was negatives zu RDNA2 (RX6800) berichten. Sehr effizient, schnell und vom Treiber ging bisher alles reibungslos.

Bei den neuen Karten hoffe ich auf "alles überall etwas besser" ggü RDNA2.

Preislich sehe ich das Flaggschiff aber auch bei 1500€ UVP oder gar etwas mehr. Bald sind wir ja schlauer und dann dürfen sich AMD und Nvidia gerne vor und kloppen ^^
 
Das hätten sie gleich klar sagen sollen, anstatt diese ungenaue Aussage im Tweet und danach einfach zu schweigen.

es wird nix mit AMD, Nvidia is alleiniger Grafikkönig. Ich wünschte ich hätte nie meine 6600 XT gekauft. Ich wette meine seltsamen Glitches wären bei Nvidia nie der Fall gewesen. Noch dazu damals im Jänner um 650€

Da du seit 2008 hier angemeldet bist, gehe ich davon aus, dass du mindestens 14 Jahre alt bist.
Selbst mit 14 sollte man nicht mehr solchen Schwachsinn sagen.
 
Ich habe in meinem Leben genau eine ( damals noch ) ATI Graka gekauft ; die HD5850 und hatte ebenfalls in diversen Games Probleme. Anisotroper Filter funktionierte manchmal gar nicht und erst beim Erscheinen der Nachfolgegeneration hat ATI die Problematik offiziell zugegeben, dass es sich dabei um ein Bug handelt.
HD 5000er Serie war eher eine bessere DX10 Karte als DX11 weil dafür viel zu lahm. Seit dem kann mich ATI / AMD mal gerne haben. Mit nvidia bin ich immer sehr zufrieden gewesen. Abgesehen von der VRAM-Geiz-Problematik.
Du hattest also vor ner gefühlten Ewigkeit ein Problem mit ner ATI GPU und kauft seitem nur noch Nvidia. Was machst du wenn das bei Nvidia auch mal passiert? Nie wieder PC Gaming? Oder Intel ARC?
Seid doch nicht immer so verbohrt......


Aber ich muss zugeben, dass ich mir bei der neuen RDNA3 schon etwas Sorgen um den Treiber von AMD mache. Dieses MCM Design dürfte es ganz schön in sich haben für das Treiberteam.
 
Ich verstehe die 562 Watt nicht ^^

Die 6900XT ist RDNA2 und hat 300W
Die 7900XT hat vermutlich 375W und ist RDNA3
RDNA3 holt aus einem Watt aber 50% mehr Leistung als RDNA2

Also müssen wir umrechnen.
Zuerst geben wir der 6900XT die 375W einer 7900XT
Wir können unserer virtuellen 6900XT kein RDNA3 geben, aber wir können ihr 50% mehr Verbrauch zugestehen.
Letzteres machen wir indem wir die 375" mit 1,5 multiplizieren = 562W

Jetzt können wir sagen, die 790XT verhält sich wie eine 6900XT die 562W verbrauchen würde. (und dabei linear skalieren würde, wichtige Annahme)

Im 4090 Test sehen wir, dass eine 4090 bei 167% einer 6900XT liegt im Leistungsindex. Unsere virtuelle 7900XT würde bei 187% liegen. Wir sollten bedenken, dass wir hier nur schätzen, ich würde daher nicht sagen, dass AMD zertifiziert besser ist, aber wir sprechen hier von ähnlicher Leistung.

Allerdings müsste AMD auch seine Raytracingleistung verdreifachen um zur RTX40 aufzuschließen. Das halte ich für unwahrscheinlich. Mit einer Verdopplung wäre AMD bei 1080p und 1440p mit vielen Karten bei 60fps in Cyberpunk und damit sollten sich Karten verkaufen lassen.
 
Ich habe in meinem Leben genau eine ( damals noch ) ATI Graka gekauft ; die HD5850 und hatte ebenfalls in diversen Games Probleme. Anisotroper Filter funktionierte manchmal gar nicht und erst beim Erscheinen der Nachfolgegeneration hat ATI die Problematik offiziell zugegeben, dass es sich dabei um ein Bug handelt.
HD 5000er Serie war eher eine bessere DX10 Karte als DX11 weil dafür viel zu lahm. Seit dem kann mich ATI / AMD mal gerne haben. Mit nvidia bin ich immer sehr zufrieden gewesen. Abgesehen von der VRAM-Geiz-Problematik.
War das vor 20 oder vor 30 Jahren?
...

"Jetzt können wir sagen, die 790XT verhält sich wie eine 6900XT die 562W verbrauchen würde. (und dabei linear skalieren würde, wichtige Annahme)"

Leider verfehlt. Mit zunehmenden Verbrauch wird nicht linear skaliert. Auch nicht theoretisch.
 
Lieber verzögert als verbuggt. Sollen die sich Zeit nehmen.
Die 4090 werden sie eh nicht schlagen von der Leistung her. 4080 - eventuell, die verkrüppelte "ex"-4080 12GB auch. Ich freue mich auf jeden Fall auf eine 4090 sobald Ich denn eine kaufen kann (wieder Paperlaunch, das macht Nvidia doch mit Absicht mittlerweile) die mir gefällt für MSRP.
 
Da kann man nur hoffen, dass Optimieren nicht bedeutet, auf Teufel komm raus hochzutakten, scheiß auf Effizienz, nur um mit Nvidia im High-End mithalten zu wollen.
Glaube ich fast nicht, ich denke und befürchte, dass man jetzt nicht mehr viel "optimieren" kann. Ebenso wie NV bei den 4080 Karten, werden die Radeons schon fertig sein und in der Produktion liegen. Alles andere würde mich 14 Tage vor dem bisher angekündigten Launch doch sehr schwer wundern.
Ich hoffe echt das AMD wenigstens ansatzweise mit der 4090 mithalten kann
Davon gehe ich aus, zumindest im reinen Rasterizing!
und mehr als "deutlich" geringer im Preis ist.
das würde ich nicht hoffen! AMD wird den Preis ziemlich covern, mit dem üblichen AMD Abschlag von 10-15%.
 
Die 4090 werden sie eh nicht schlagen von der Leistung her.
Wieso?
Die 4090 liegt 87% vor einer 6900XT! Klingt wahnsinnig viel, wenn man aber bedenkt, dass RDNA3 die Shaderzahl mit dem Faktor 2,4 versieht, würde man bei identischem Takt bei 240% der Leistung liegen!

Wenn man es extrem sieht (was ich nicht tue, ich gehe im Rasterizing von einem "Patt" aus, so wie es auch schon in der aktuellen Generation ziemlich der Fall war, also plus minus 10% für den einen oder den anderen), müsste man sagen, dass AMD mit seiner Ankündigung 50% mehr Effizienz zu liefern, bei 50% mehr Leistungsaufnahme würde in Summe auf 225% der Leistung hindeuten und das widerum passt sogar zur Anzahl der Shader! Andersherum gerechnet würde gar auch ein Schuh draus werden:

100% = 300W; davon 70W Periperhier und 230W der Chip; Peripherie bleibt gleich, Chipvolumen steigt um 140%, also 552W! Davon kann man ca. 15% abziehen da der Wechsel von 7 auf 5nm erfolgt ist, also 470W die übrig bleiben. Würde für mich bedeuten bei 470W der Chip und 540W die Karte würde man bei 240% der Leistung landen. Da man aber insgesamt wohl nur 450W nehmen darf, wird man den Takt senken müssen, 24% (90W von 470W) rein rechnerisch (ohne Berücksichtigung, dass man sich dem Sweetspot ja nähern würde und oftmals bei 70% der Leistungsaufnahme immer noch 90% Leistung bietet! 24% Taktsenkung / Leistungsaufnahme senken, kommt man ausgehend von 240% bei 183% der Rasterizingleistung raus! Überaschung, Patt mit der 4090
 
Die 6900XT ist RDNA2 und hat 300W
Die 7900XT hat vermutlich 375W und ist RDNA3
RDNA3 holt aus einem Watt aber 50% mehr Leistung als RDNA2.

Ja sagt dir wo die RX 7900XT landen wird knapp über einer RTX 4080 16GB

Weil die 7900XT nicht linear Skalieren - da wird der gleiche Marketing Trick abgezogen wie von RTX 2000 Serie zur RTX 3000 Serie

Ein paar Komponenten werden verdoppelt um eine größere Zahl drauf zu schreiben im Endeffekt hast bei gleicher Shaderzahl +40% mehr.

Darauf antworten Nvidia mit einer 4080Ti 20GB mit 12500 Shader und liegt wieder vor der RX 7900XT
 
Ja sagt dir wo die RX 7900XT landen wird knapp über einer RTX 4080 16GB
???
Die 4090 hat 187% der 6900XT (in 4K, dadrunter sind es teilweise unter 50%)

100% Ausgangsbasis 6900XT, würde bei einer 7900XT mit 300W = 150% entsprechen, jetzt multiplizieren wir noch 125% Leistungsaufnahme und landen völlig überaschend bei 187,50% und damit exakt bei der 4090 und damit weit jenseits der 4080 16GB!
Weil die 7900XT nicht linear Skalieren
Naja, selbst bei 150% der 6900XT wird man weit vor der 4080 16GB liegen! 150% der 6900XT entsprechen einem Rückstand von 25%! Die 4080 16GB wird aber eher in Richtung 40% dahinter liegen!
 
???
Die 4090 hat 187% der 6900XT (in 4K, dadrunter sind es teilweise unter 50%)

100% Ausgangsbasis 6900XT, würde bei einer 7900XT mit 300W = 150% entsprechen, jetzt multiplizieren wir noch 125% Leistungsaufnahme und landen völlig überaschend bei 187,50% und damit exakt bei der 4090 und damit weit jenseits der 4080 16GB!

Naja, selbst bei 150% der 6900XT wird man weit vor der 4080 16GB liegen! 150% der 6900XT entsprechen einem Rückstand von 25%! Die 4080 16GB wird aber eher in Richtung 40% dahinter liegen!

Das beste Beispiel:

Um wie viel ist eine RTX 3060Ti schneller als eine RTX 2080Ti ?

2080Ti / 4300 Shader 100%
3060Ti / 4800 Shader 111%

Genau so wird es sich verhalten

hypothetisch

Man würde eine RX 6900XT mit 8700 Shader bauen wäre diese genau so schnell wie eine RX7900XT mit 12300 Shadern

Klar Verbrauch die RX7900XT weniger durch bessere Architektur.

Aber die 12300 Shader der RX7900XT sind nicht vollwertig verbaut.

Ich glaube persönlich die RX 7900XT Shader sind 1 zu 1 genau so schnell wie die Ada Shader daher wird die RX7900Xt nie an die Leistung der RTX4090 heran kommen.
 
Wieso?
Die 4090 liegt 87% vor einer 6900XT! Klingt wahnsinnig viel, wenn man aber bedenkt, dass RDNA3 die Shaderzahl mit dem Faktor 2,4 versieht, würde man bei identischem Takt bei 240% der Leistung liegen!

Wenn man es extrem sieht (was ich nicht tue, ich gehe im Rasterizing von einem "Patt" aus, so wie es auch schon in der aktuellen Generation ziemlich der Fall war, also plus minus 10% für den einen oder den anderen), müsste man sagen, dass AMD mit seiner Ankündigung 50% mehr Effizienz zu liefern, bei 50% mehr Leistungsaufnahme würde in Summe auf 225% der Leistung hindeuten und das widerum passt sogar zur Anzahl der Shader! Andersherum gerechnet würde gar auch ein Schuh draus werden:

100% = 300W; davon 70W Periperhier und 230W der Chip; Peripherie bleibt gleich, Chipvolumen steigt um 140%, also 552W! Davon kann man ca. 15% abziehen da der Wechsel von 7 auf 5nm erfolgt ist, also 470W die übrig bleiben. Würde für mich bedeuten bei 470W der Chip und 540W die Karte würde man bei 240% der Leistung landen. Da man aber insgesamt wohl nur 450W nehmen darf, wird man den Takt senken müssen, 24% (90W von 470W) rein rechnerisch (ohne Berücksichtigung, dass man sich dem Sweetspot ja nähern würde und oftmals bei 70% der Leistungsaufnahme immer noch 90% Leistung bietet! 24% Taktsenkung / Leistungsaufnahme senken, kommt man ausgehend von 240% bei 183% der Rasterizingleistung raus! Überaschung, Patt mit der 4090

Spekulieren kann man viel. Nvidia hat massive Vorsprünge was Treiber angeht, diverse Encoder und Funktionen wie DLSS (die bei AMD existieren aber Lichtjahre hinterherhinken). Ich warte ab.
Auch wenn man sich wünscht das AMD die Krone bei Grafikkarten reinholt wie eben auch bei den CPUs mit Ryzen - wird nicht so einfach. Und ob AMD das will und wirklich die 90er Modelle angreift (wobei Nvidia wie immer eine Ti nachlegen kann - die 600Watt sind bestätigt und praktisch schon verbaut und passend optimiert dürfte eine 4090Ti sich materialisieren bei Bedarf).
 
Gab es echt Leute, die dachten, die neuen AMD Karten kommen direkt am 3.11? Ich erwarte die Ankündigung der 7900XT und der 7800XT. Beide über 900 USD und damit zu teuer für mich.
Bin mir relativ sicher, dass ich mir nach dem 3.11 eine 6800XT oder 6900XT bestelle und dann für viele Jahre glücklich bin, aber bis zur Präsentation kann ich jetzt noch warten.
 
Ich habe in meinem Leben genau eine ( damals noch ) ATI Graka gekauft ; die HD5850 und hatte ebenfalls in diversen Games Probleme. Anisotroper Filter funktionierte manchmal gar nicht und erst beim Erscheinen der Nachfolgegeneration hat ATI die Problematik offiziell zugegeben, dass es sich dabei um ein Bug handelt.
HD 5000er Serie war eher eine bessere DX10 Karte als DX11 weil dafür viel zu lahm. Seit dem kann mich ATI / AMD mal gerne haben. Mit nvidia bin ich immer sehr zufrieden gewesen. Abgesehen von der VRAM-Geiz-Problematik.
Die ewig gestrigen. Das sind alles Vorurteile von anno dazumal... DX 10 liegt jetzt wie lang zurück? 12 Jahre, 13 Jahre?

Seitdem hat sich Architektur und auch der Treiber komplett gewandelt. Ist doch ähnlich wie bei den CPUs - als ob du einen Phenom II mit einem 7000er Ryzen vergleichst.
 
Wenn die 7900XT ebenfalls mit 384Bit und 24GB schnellem GDDR6(X) erscheinen sollte, wird dies schon allein ne Ecke mehr Strom fressen als es bei der 69x0XT mit 256Bit der Fall war.
 
Zurück