News Radeon RX 7000: Doch kein RDNA 3 Refresh? [Gerücht]

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 7000: Doch kein RDNA 3 Refresh? [Gerücht]

Die Gerüchteküche sagt den erhofften Refresh von RDNA 3 wieder ab. Der hätte eigentlich Probleme mit der Radeon RX 7000 beheben sollen, doch daraus soll nun nichts mehr werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Radeon RX 7000: Doch kein RDNA 3 Refresh? [Gerücht]
 
Die Karten laufen doch. Sehe, wie mein Vorposter, da keinen Grund einen Refresh zu launchen.
Evt. ist das eigentliche Problem das MCM. Da könnten auch neuere und bessere Treiber wenig daran ändern.
Ein V8 ist eben ein V8 und kein Vierzylinder :D Ja ich weiß, Autovergleiche und so.
Vllt richtet es der nä. Shrink.
Gruß T.
 
Die Karten laufen doch.
Natürlich laufen sie. Nur sind sie deutlich langsamer als anfangs angekündigt bzw. gemutmaßt ("RTX4090 Killer") und verbrauchen dafür mehr Strom (weniger als die +50% Effizienz die angepeilt waren).

Nun gab es das Gerücht es läge an einem Bug im Silizium der Taktraten von weit über 3 GHz [bei gleicher Leistungsaufnahme] verhindert die nötig wären um die ursprünglichen Ziele zu erreichen aber der im Refresh gefixt wird.

Daraus wird jetzt wohl eher nix, weder ein refresh noch ein Wundertreiber wird kommen - ob es diesen Bug im Chip wirklich gab oder RDNA3 einfach tatsächlich so "schlecht" ist werden wir wohl nie erfahren.

Tatsache ist einfach, dass AMD offensichtlich die selbst gesteckten Ziele diese Generation zu "gewinnen" deutlich verfehlt hat - man konkurriert nur mit der 4080 statt 4090 und selbst um die zu schlagen brauchts real merklich mehr Leistungsaufnahme. So schade das für AMD und uns als Konsumenten die Vorteile von hoher Konkurrenz haben auch ist aber das sind leider die Fakten.
 
Daraus wird jetzt wohl eher nix, weder ein refresh noch ein Wundertreiber wird kommen - ob es diesen Bug im Chip wirklich gab oder RDNA3 einfach tatsächlich so "schlecht" ist werden wir wohl nie erfahren.
Warum sollte denn kein Wundertreiber kommen? :-) Die Software-Entwicklung läuft unabhängig von der Hardware weiter und ich bin guter Dinge, dass wir da noch Bumps sehen werden - ist aber purer Spekulatius.

Offenbar übersteigt der Implementierungsaufwand das, was praktisch herumkommt. Aus BWLer-Sicht. Natürlich ist ein besserer Chip wünschenswert, aber sowas manifestiert sich nicht über Nacht. So richtig Sinn ergibt das das mit dem "abgesagten" Refresh aber nicht. Ich denke, wir werden durchaus Neuerungen an der Spitze sehen. Aber vielleicht nicht beim GCD, sondern nur bei den MCDs (mehr Cache).

MfG
Raff
 
Natürlich laufen sie. Nur sind sie deutlich langsamer als anfangs angekündigt bzw. gemutmaßt ("RTX4090 Killer") und verbrauchen dafür mehr Strom (weniger als die +50% Effizienz die angepeilt waren).

Nun gab es das Gerücht es läge an einem Bug im Silizium der Taktraten von weit über 3 GHz [bei gleicher Leistungsaufnahme] verhindert die nötig wären um die ursprünglichen Ziele zu erreichen aber der im Refresh gefixt wird.

Daraus wird jetzt wohl eher nix, weder ein refresh noch ein Wundertreiber wird kommen - ob es diesen Bug im Chip wirklich gab oder RDNA3 einfach tatsächlich so "schlecht" ist werden wir wohl nie erfahren.

Tatsache ist einfach, dass AMD offensichtlich die selbst gesteckten Ziele diese Generation zu "gewinnen" deutlich verfehlt hat - man konkurriert nur mit der 4080 statt 4090 und selbst um die zu schlagen brauchts merklich mehr Leistungsaufnahme. So schade das für AMD und uns als Konsumenten die Vorteile von hoher Konkurrenz haben auch ist aber das sind leider die Fakten.

Nun gut wenn es wirklich einen Bug gab, kann man sich auch direkt damit auf RDNA 4 konzentrieren. Diesen "Bug" beheben die Karte generell kleiner Effizienter und besser ausstatten und dann einen unerwarteten Leistungssprung bringen.

Aber ich glaube fast nicht das es ein Bug war, die 7900XTX (6144) ist technisch sehr sehr nah an der 6900XT (5120) die 7900XT (5376) noch näher. Da fehlt ne ganze Menge an Shadereinheiten um zur 4090 aufzuschließen - Technisch machbar wäre es gewesen, Ist halt die Frage warum man nur 6144 in die GPU gepackt hat.
 
Es geht ja nicht um generelle Refreshes (die kommen sowieso) sondern um einen speziellen "Bug-entfernungs-3,5-GHz-Refresh" der höchstwahrscheinlich nicht kommt.

Und was Wundertreiber angeht... sagen wir mal so, die Dinger werden seit gefühlten 10 Jahren immer wieder beschworen aber ich konnte bis heute keinen sehen. Oder gibts irgendeinen Treiber von irgendeinem Hersteller, der die Performance einer bereits gelaunchten Generation um 10% oder mehr (also spürbar, nicht nur messbar) im Mittel gegenüber dem Vorgängertreiber anhebt? :ka:

Da fehlt ne ganze Menge an Shadereinheiten um zur 4090 aufzuschließen - Technisch machbar wäre es gewesen, Ist halt die Frage warum man nur 6144 in die GPU gepackt hat.
Anfangs spekulierte man ja auch auf keine Ahnung 16K Shadereinheiten und mehr für das Topmodell und 100+TFlops usw. um den großen Ada zu schlagen. Warum AMD das nicht (annähend) gemacht hat wissen sie wohl nur selbst.
 
Aber ich glaube fast nicht das es ein Bug war, die 7900XTX (6144) ist technisch sehr sehr nah an der 6900XT (5120) die 7900XT (5376) noch näher. Da fehlt ne ganze Menge an Shadereinheiten um zur 4090 aufzuschließen - Technisch machbar wäre es gewesen, Ist halt die Frage warum man nur 6144 in die GPU gepackt hat.
Weil RDNA 3 sehr größen- und somit kostenoptimiert ist. Das ist ein (massenproduzierter) Testballon für den Chiplet-Ansatz. Laut AMDs Sam Naffziger kann man davon ausgehend schneller neue Dinge implementieren bzw. paaren. Neuer GCD + alte MCDs: geht. Neue MCDs mit doppeltem Cache an altem GCD: geht auch, sogar noch einfacher. Ich bin mir nur nicht sicher, ob die Größe des Trägers in irgendeiner Form limitiert.

MfG
Raff
 
Hab davon gehört , das ist leider eine schlechte Nachricht sagt aber auch das amd sich lieber auf rdna4 konzentriert.
Und vermutlich gddr7 nicht mehr dieses Jahr erscheint.
Bliebe die frage was macht amd stattdessen der N33 ist fertig aber leider zu leistungsschwach bliebe nur noch den n32 abzusagen und den n31 auf mehr sku zurechtschneiden.
Ansonsten hätte es den refresh gegeben.
 
Natürlich laufen sie. Nur sind sie deutlich langsamer als anfangs angekündigt bzw. gemutmaßt ("RTX4090 Killer") und verbrauchen dafür mehr Strom (weniger als die +50% Effizienz die angepeilt waren).

Nun gab es das Gerücht es läge an einem Bug im Silizium der Taktraten von weit über 3 GHz [bei gleicher Leistungsaufnahme] verhindert die nötig wären um die ursprünglichen Ziele zu erreichen aber der im Refresh gefixt wird.

Daraus wird jetzt wohl eher nix, weder ein refresh noch ein Wundertreiber wird kommen - ob es diesen Bug im Chip wirklich gab oder RDNA3 einfach tatsächlich so "schlecht" ist werden wir wohl nie erfahren.

Tatsache ist einfach, dass AMD offensichtlich die selbst gesteckten Ziele diese Generation zu "gewinnen" deutlich verfehlt hat - man konkurriert nur mit der 4080 statt 4090 und selbst um die zu schlagen brauchts real merklich mehr Leistungsaufnahme. So schade das für AMD und uns als Konsumenten die Vorteile von hoher Konkurrenz haben auch ist aber das sind leider die Fakten.
PCGH:
- Max Verbrauch einer 4080 315W
- Max Verbrauch einer XTX 353W
- RT exkludiert ist die XTX over all schneller, als eine 4080
- Ob die XTX ein 4090-Killer werden sollte, entzieht sich meiner Kenntnis
- Preis der günstigsten 4080 bei MF, Stand heute: € 1329,-
- Preis der günstigsten XTX bei MF, Stand heute: € 1199,-
- € 130,- Stromguthaben um 48W zu egalisieren:D
Und gegen eine 3090Ti ein echtes Energiesparwunder. Die übrigens geschlagen wird.
Thema Raytracing:
Nv ist hier ungeschlagen! Punkt
ABER: Schauen wir uns die Leistungszuwächse in RT von RTX 3090Ti zu RTX 4090 und RX 6950XT zu RX 7900XTX an, sieht man, das bei NV die Differenz von einer Gen zur Nächsten geringer ausfällt, als bei den Radeons.
Nüchtern betrachtet:
1. Wer RT benötigt/will, kommt nicht an NV vorbei
2. Wer ansonsten in RT reinschnuppern möchte und die zweitschnellste GPU haben will, greift zur XTX.

Daher meine Abschlussfrage:
Was hat da Radeon/AMD jetzt schlecht oder falsch gemacht? Weil die Krone fehlt? Bestimmt verschmerzbar. Schließlich reden wir hier von einem völlig neuen Ansatz in der GPU-Herstellung.
Gruß T.
 
Zuletzt bearbeitet:
Ich sehe dem auch entspannter entgegen.

Ja AMD hat auch diesmal keine Leistungskrone. Aber das ist nicht schlimm.

Die Karten sind jetzt auch nicht so schlecht wie manche behaupten. Die 7900XT steht recht gut da, sie hat einen angemessenen Verbrauch bei sehr guter Leistung ggü der 4070ti und kann auch ab und an eine 4080 ärgern.

Die 7900 XTX verbraucht etwas zu viel, das stimmt. ABER sie ist immerhin schneller als eine 4080 und dazu noch günstiger. Nicht jeder braucht RT in Höchstform. RT Leistung der XTX im Bereich der 3090 ist doch i.O.
Dafür ist sie auch 30-40% schneller in Raster. Ganz so schlecht stehts also nicht mit den RDNA3 Karten.
Dazu sind die GPUs mit sorgenfreiem, üppigem VRAM ausgestattet. Das kann man von den teuren NV Karten (bis auf die zu teure RTX4080) nicht behaupten.

Ein Wundertreiber kommt vll nicht, aber Treiberpflege macht die ganz guten Karten noch besser. Und gpünstiger sind sie ja eh schon alle geworden.
Das passt also in meinen Augen.

Ich warte aber dennoch auf eine RX7700/7800 und schaue was AMD hier so auf die Beine stellt. Angemessene Leistung um die 6800XT/6900XT/RTX3080/3080ti/3090 mit 12/16GB wird es schon geben.
Wenn das mit ca. 200W-250W realisiert werden kann, dann wäre ich glücklich.
 
Ich bin eher dem AMD Lager zugeneigt und muss sagen, dass die nVidias 40er Serie einfach eine ziemlich gute Generation ist. Für mich ist die maximale Leistung eher unwichtig. Wichtiger ist die Energieeffizienz und was da angeboten wird, ist teilweise schon bemerkenswert.
Der Preis stört mich noch massiv, aber das nur eine Frage der Zeit.

Die AMD der aktuellen Generation kommt für mich, auch aufgrund des hohen Idle Verbrauchs bei mehreren schnellen Monitoren, überhaupt nicht in Frage.
 
So richtig Sinn ergibt das das mit dem "abgesagten" Refresh aber nicht. Ich denke, wir werden durchaus Neuerungen an der Spitze sehen. Aber vielleicht nicht beim GCD, sondern nur bei den MCDs (mehr Cache).
Die Aussage ergibt dann Sinn, wenn die Änderungen so umfassend wären, dass es sich schlicht nicht lohnt. Man kann dann nur noch über die Software und die Preise kommen. Den Rest wird RDNA 4 bringen. Hoffentlich!

Meiner persönlichen Meinung nach ist RDNA3 ein harter Fail mit gravierenden Mängeln. AMD nimmt besser die TSMC Rabatte mit, um RDNA2 in Masse zu bringen und über den Preis zu kommen. Eine RX 6800 XT für 500 Euro, das würde Nvidia weh tun.
 
Was hat da Radeon/AMD jetzt schlecht oder falsch gemacht?
Die wesentlichen zwei Punkte sind
- Einen Idleverbrauch der um ein Mehrfaches höher liegt als bei der Konkurrenz und in normalen Anwenderszenarien (= nicht Dauerzocken) weit schwerer wiegt als die 50W mehr unter Last
- Nicht funktionierendes QS bei seinen eigenen Kühllösungen plus die vorsichtig gesagt "zurückhaltende" Reaktion darauf

...dass die Karte deswegen günstiger ist als der Wettbewerb ist naheliegend. Die 130€ Stromvorschuss die du nennst habe ich bei 40 cent/kWh und 10 Stunden System-on-time täglich (was bei mir beides hinkommt) nach 1-3 Jahren verbraucht (je nachdem, ob die Karte im Idle 40 oder 100W will - das weiß man ja vorher nie, das fixt AMD auch schon seit Marktstart vergeblich), die Nutzungszeit sollten aber eher 4-5 Jahre werden.

Versteh mich nicht falsch, das soll keineswegs AMD schlechtreden, die grüne Konkurrenz ist ganz sicher auch nicht frei von Fehlern (alleine schon dass ich nen Blackscreen beim Booten habe und das von NV angebotene Bugfixtool das GPU-BIOS bricked ist auch ein übler Griff ins Klo) aber RDNA3 bleibt hier einfach deutlich hinter den Erwartungen zurück die die Community und offensichtlich auch AMD hatte.
 
RNDA 4 wird vermutlich diesmal früher als erwartet erscheinen und wahrscheinlich auch vor den NVIDIA 50er Karten.

Vermutlich wird AMD dort einen gossen Sprung machen und drum verschwenden sie jetzt nicht zeit und Geld ein RNDA 3 da sie relativ gut dasteht aber eben nicht zufriedenstellend
 
Die wesentlichen zwei Punkte sind
- Einen Idleverbrauch der um ein Mehrfaches höher liegt als bei der Konkurrenz und in normalen Anwenderszenarien (= nicht Dauerzocken) weit schwerer wiegt als die 50W mehr unter Last
- Nicht funktionierendes QS bei seinen eigenen Kühllösungen plus die vorsichtig gesagt "zurückhaltende" Reaktion darauf
Das sind für dich die wesentlichen zwei Punkte? ^^
  • Hoher Idleverbrauch
  • Hoher Verbrauch bei Teillast (wurde gefixt)
  • "Explodierender" Verbrauch ab 2,4GHz (Designziele verfehlt)
  • Vapor-Chamber Skandal
  • Unfertige Compiler (Dual-Issue)
  • Hardwarebugs (div. Stalls in der Pipeline, siehe Errata Liste auf GitLab)
  • Mesh Shader Issues
  • Keine Matrixcores
  • Kein Frame Interpolation (kommt noch)
  • Keine KI-Bildoptimierungsverfahren (kommt noch?!)

1674488359214.png

Source
 
Zurück