News AMD Radeon RX 9070 XT und RX 9070 angekündigt und mit FSR 4 - AI hui, Raytracing pfui?

Vielleicht könnt ihr mal den Artikel updaten. Sie haben sich geäußert und gesagt fsr 4 geht auch ohne rdna4, ähnlich wie bei xess.

"Tim von Hardware Unboxed fragte nach einer Annahme, die auf einer Fußnote basierte, die darauf hindeuten könnte, dass FSR4 9070-exklusiv (oder mindestens) sein würde, und bat um Klarheit. David erklärte, dass es nichts an FSR4 gibt, das es exklusiv für ein bestimmtes Modell macht - die RDNA4-Updates enthalten bessere MLOps, die eine Technologie wie FSR4 viel besser machen, als sie es gewesen wäre."

"die Raytracing-Einheiten "verbessert" worden"
Das kann viel heißen. Daraus in der Überschrift "raytracing pfui?" zu machen, ist schon böse. Sowas bleibt halt wieder bei den Leuten hängen.

Dem kann ich nur beipflichten. Ist irgendwie seltsam, bei AMD wird gefühlt immer ein Haar in der Suppe gesucht und die Überschriften sind subtil negativ gehalten. Aber das gehört sicherlich zum Business.
 
Weil gemunkelt wird, dass die 5070 unter dem Einsatz von DLSS an die 4090 Rohleistung heranreichen soll. Klar, die 4090 ist dann mit DLSS auch wieder eine ganze Ecke weiter weg, aber umgekehrt wird die 9070 niemals an eine 4090 heranreichen, vollkommen egal ob mit FSR oder ohne.

Bloß ergibt der Vergleich halt dann überhaupt keinen Sinn. Wenn ich an einen VW Golf Raketen baue ist er bergab vielleicht auch so schnell wie ein Ferrari bergauf.
 
Dieses mfg triggert mich
fanta vier lässt grüßen
Die rtx5070 wird definitiv nicht schneller als ne rtx4070 und frisst sogar mehr Strom mag sein das nvidia durch den erzwungenen upscaler bei den rop scheinbar mehr fps generiert grob 30% aber das kostet sehr wahrscheinlich auch optische Einbußen und man muss auf 2160p die Ausgabe einstellen damit es vergleichbar bleibt.

Die Möglichkeit das nvidia an den sm was geändert hat ist klein die alu bleiben gleich die sfu zu aktiveren dürfte nicht sein da diese deutlich mehr Strom (+40%) und was wichtiger ist deutlich weniger Takt erzwingt.
Als nvidia 2014 die sfu in den gpu deaktiviert hat brachte das etwa 30% mehr Takt dann wären die sku bei grob 1,9ghz-2,1ghz
Da dies nicht der fall ist muss man wohl den upscaler in hardware gepresst haben. Da ist es auch egal ob samsung sf4 node oder tsmc n4
Die tbp liegen bei 250w vs 200w =25% das entspricht genau dem was der sf4 node bräuchte für die 48sm für etwa 22,5tf
Aktuell sind es weiterhin 88fp32 aktiv ich könnte mir vorstellen das nvidia es geschafft hat mehr int32 Einheiten fp32 dediziert zu rechnen also statt den 32+32 dann nur noch 64fp32 +32fp32/hybrid +16 software +16 int32 dediziert
Das bringe dann maxed 104fp32 aktiv vs 88fp32 und somit die fehlende 18% (25,4tf)
Dies erklärt auch den höheren verbrauch wenn es der n4 node ist
Der haken wird aber das dadurch sämtliche legacy software deutlich langsamer laufen, zu legacy software ist alles mit dx9 ogl und älter.
ich gehe vom sf4 node aus womit die 50w mehr noch ok sind dafür das man mehr fp32 rechnen kann .
Der Rest von grob 12% macht wohl der upscaler womit nativ dann 88% renderscale sein muss wenn das scaler angewendet wird etwa 1080p 100% ,1440p 88%, 2160p 25%.
Dies wäre der goldenen zwischenweg aber dennoch wäre dann blackwell nur bedingt vergleichbar mit ada und älter
mir widerstrebt es die rtx5070 in 1080p zu vergleichen da hier massiv ein cpu limit vorliegt.
Das merke ich an meiner rtx4070 ein dx12 spiel mit viel cpu Anforderung wäre da spiderman mile morales
1080p mit dann 108fps mit 70% gpu load und das mit der schnellsten cpu die es gibt.
Ähnlich verhält sich stalker 2 das dann auch nur auf 1080p 65fps bei 90% gpu load hat und das problem wird auf 1440p durch die 88% renderscale übertragen und selbst auf 2160p da man hier 25% renderscale hat. Womit sich bei der rtx5070 auf 1440p ausgelastet wird aber in 4k nicht Skurril ist es
Aber man wird wie üblich bei den reviewern auf fps glotzen und die gpu load komplett ignorieren.
Und das bei spielen mit dxr daher wird es so ausgehen mit dem erzwungenen upscaler

rtx5070 vs rtx4070
1080p 0% Differenz zur rtx4070 85% load
1440p +30% dank 88% renderload 99% load
2160p +72% dank 25% renderscale 85% load
Das mal anhand von stalker 2

achja die rtx5090 wird man nur in 2160p vergleichen können und das bei teils heftigen cpu limits
natürlich will das nvidia mit 4k nativ verglichen haben hier wird primär die rop entlastet was dann grob maxed +0% perf. herauskommt. Und das teils im cpu limit
Das erklärt auch die präsent mit den nativen 27fps (cp2077) auf 2160p da aber dlss in hardware ist kann man das nur mit mfg vergleichen da ansonsten kein fps mehr kommt als mit ner rtx4090
Hier merkt man das der Fokus der presse falsch ist

wäre echt lustig das amd mit ner rx9070 genau gleich schnell wäre wie die rtx5070 mit weniger tf (23,4tf vs 25,4tf) dazu kommt das amd ein kleineres cpu overhead hat was dann die rx9070 sogar schneller macht in 1080p und 2160p
natürlich mit angepasster Einstellung bei 2160p
Damit ist auch klar wo amd den preis der rx9070 (56cu) setzen wird exakt 639€
Das ist ernüchternd und beweist das alle die ne rx7800xt rx7900gre rtx4070 oder rtx4070 super gekauft haben nix falsch gemacht haben.
 
Dieses mfg triggert mich
fanta vier lässt grüßen
Die rtx5070 wird definitiv nicht schneller als ne rtx4070 und frisst sogar mehr Strom mag sein das nvidia durch den erzwungenen upscaler bei den rop scheinbar mehr fps generiert grob 30% aber das kostet sehr wahrscheinlich auch optische Einbußen und man muss auf 2160p die Ausgabe einstellen damit es vergleichbar bleibt.

Die Möglichkeit das nvidia an den sm was geändert hat ist klein die alu bleiben gleich die sfu zu aktiveren dürfte nicht sein da diese deutlich mehr Strom (+40%) und was wichtiger ist deutlich weniger Takt erzwingt.
Als nvidia 2014 die sfu in den gpu deaktiviert hat brachte das etwa 30% mehr Takt dann wären die sku bei grob 1,9ghz-2,1ghz
Da dies nicht der fall ist muss man wohl den upscaler in hardware gepresst haben. Da ist es auch egal ob samsung sf4 node oder tsmc n4
Die tbp liegen bei 250w vs 200w =25% das entspricht genau dem was der sf4 node bräuchte für die 48sm für etwa 22,5tf
Aktuell sind es weiterhin 88fp32 aktiv ich könnte mir vorstellen das nvidia es geschafft hat mehr int32 Einheiten fp32 dediziert zu rechnen also statt den 32+32 dann nur noch 64fp32 +32fp32/hybrid +16 software +16 int32 dediziert
Das bringe dann maxed 104fp32 aktiv vs 88fp32 und somit die fehlende 18% (25,4tf)
Dies erklärt auch den höheren verbrauch wenn es der n4 node ist
Der haken wird aber das dadurch sämtliche legacy software deutlich langsamer laufen, zu legacy software ist alles mit dx9 ogl und älter.
ich gehe vom sf4 node aus womit die 50w mehr noch ok sind dafür das man mehr fp32 rechnen kann .
Der Rest von grob 12% macht wohl der upscaler womit nativ dann 88% renderscale sein muss wenn das scaler angewendet wird etwa 1080p 100% ,1440p 88%, 2160p 25%.
Dies wäre der goldenen zwischenweg aber dennoch wäre dann blackwell nur bedingt vergleichbar mit ada und älter
mir widerstrebt es die rtx5070 in 1080p zu vergleichen da hier massiv ein cpu limit vorliegt.
Das merke ich an meiner rtx4070 ein dx12 spiel mit viel cpu Anforderung wäre da spiderman mile morales
1080p mit dann 108fps mit 70% gpu load und das mit der schnellsten cpu die es gibt.
Ähnlich verhält sich stalker 2 das dann auch nur auf 1080p 65fps bei 90% gpu load hat und das problem wird auf 1440p durch die 88% renderscale übertragen und selbst auf 2160p da man hier 25% renderscale hat. Womit sich bei der rtx5070 auf 1440p ausgelastet wird aber in 4k nicht Skurril ist es
Aber man wird wie üblich bei den reviewern auf fps glotzen und die gpu load komplett ignorieren.
Und das bei spielen mit dxr daher wird es so ausgehen mit dem erzwungenen upscaler

rtx5070 vs rtx4070
1080p 0% Differenz zur rtx4070 85% load
1440p +30% dank 88% renderload 99% load
2160p +72% dank 25% renderscale 85% load
Das mal anhand von stalker 2

achja die rtx5090 wird man nur in 2160p vergleichen können und das bei teils heftigen cpu limits
natürlich will das nvidia mit 4k nativ verglichen haben hier wird primär die rop entlastet was dann grob maxed +0% perf. herauskommt. Und das teils im cpu limit
Das erklärt auch die präsent mit den nativen 27fps (cp2077) auf 2160p da aber dlss in hardware ist kann man das nur mit mfg vergleichen da ansonsten kein fps mehr kommt als mit ner rtx4090
Hier merkt man das der Fokus der presse falsch ist

wäre echt lustig das amd mit ner rx9070 genau gleich schnell wäre wie die rtx5070 mit weniger tf (23,4tf vs 25,4tf) dazu kommt das amd ein kleineres cpu overhead hat was dann die rx9070 sogar schneller macht in 1080p und 2160p
natürlich mit angepasster Einstellung bei 2160p
Damit ist auch klar wo amd den preis der rx9070 (56cu) setzen wird exakt 639€
Das ist ernüchternd und beweist das alle die ne rx7800xt rx7900gre rtx4070 oder rtx4070 super gekauft haben nix falsch gemacht haben.
gesundheit
 
aber umgekehrt wird die 9070 niemals an eine 4090 heranreichen, vollkommen egal ob mit FSR oder ohne.
Das stimmt so nicht. Wenn mal wirklich nur auf die FPS schaut würde eine 7600 reichen um in einem Spiel mit FSR FG mit einer 4090 gleich zu ziehen in UHD, angenommen der VRAM reicht. Für eine 5090 würde eine 7600XT reichen.
Spielt sich nicht schön, wäre aber machbar.
 
Das stimmt so nicht. Wenn mal wirklich nur auf die FPS schaut würde eine 7600 reichen um in einem Spiel mit FSR FG mit einer 4090 gleich zu ziehen in UHD, angenommen der VRAM reicht. Für eine 5090 würde eine 7600XT reichen.
Spielt sich nicht schön, wäre aber machbar.
Und dann machst du FG mit DLSS an und die 4090 ist wieder viel schneller.
 
Bei der Preisrange die Igors Lab angekündigt hat sehe ich echt schwarz für AMD.

Die RX 9000er Serie soll zwischen 300 und 1000€ bepreist werden.
Dementsprechend gibt es kein High End würde die 9070XT 1000€ kosten?
Das wäre Dead on Arrival!
 
Bei der Preisrange die Igors Lab angekündigt hat sehe ich echt schwarz für AMD.

Die RX 9000er Serie soll zwischen 300 und 1000€ bepreist werden.
Dementsprechend gibt es kein High End würde die 9070XT 1000€ kosten?
Das wäre Dead on Arrival!

Naja, das wiederspricht sich massiv mit den Eigenaussagen von AMD. Die meinten ja, dass es deutlich unter 1000 € sein werden.
 
Naja, das wiederspricht sich massiv mit den Eigenaussagen von AMD. Die meinten ja, dass es deutlich unter 1000 € sein werden.
Stimmt schon aber was will AMD im Grafik Segment denn dann für ca. 1000€ verkaufen? Ne Limitierte RX 9070 mit mehr VRAM und noch höherem Takt?

So ganz Sinn ergibt das nicht...

Quelle für die Preisspanne:

 
Zuletzt bearbeitet:
Stimmt schon aber was will AMD im Grafik Segment denn dann für ca. 1000€ verkaufen? Ne Limitierte RX 9070 mit mehr VRAM und noch höherem Takt?

So ganz Sinn ergibt das nicht...

Quelle für die Preisspanner:


Okay, versteh ich jetzt nicht, was Igors Lab da geschrieben hat. Über dieses Gespräch mit Azor wurde ja von vielen Newsseiten berichtet, auch hier von der PCGH. Und da steht eben eindeutig (genau wie bei anderen Newsseiten):

Neben einer erneuten Bestätigung, dass die RX 9070 XT für weit unter 1.000 US-Dollar in den Handel gehen soll
 
Zurück