News Radeon RX 9000: UDNA-Architektur ab Q2/2026 [Gerücht]

Bin jedenfalls gespannt auf URDNA. Der früheste Upgradekandidat für meine 7900XTX.
Womöglich werde ich aber vor einem GPU-Upgrade zuerst den Plattformwechsel auf AM6 vollziehen. Die 7900XTX hängt halt selbst als 2.- bis 3.-schnellste GPU auf dem Markt auch bei einem 5800X3D häufiger im CPU-Limit als im GPU-Limit in meinem Spielemix.
 
RDNA 2 war Perfektion für das Gaming.
GCN war fürs reine Gaming etwas ineffizient.
Ob UDNA diese schwäche umgehen kann ?

AM6 kommt erst 2028. Die RX9000 2026.
RDNA 2 war nichts halbes oder ganzes. Die 7000er auch nicht, leider. Zu viel Verbrauch für zu wenig Leistung. AMD hängt aktuell bei GPUs hinterher, leider. Dabei kaufe ich seit fast 15 Jahren nur AMD Karten.

GCN war ineffizient? Von welcher reden wir? Die erste GCN war die HD6000, die war nicht das gelbe vom Ei, weil eben ein zwischenschritt, aber die 7970 dominierte lange das Geschehen und war brachial. Danach kam Fury und Vega nicht mehr hinterher und die erste Karte die keine GCN mehr war, war die 5700XT.
 
RDNA 2 war nichts halbes oder ganzes.
RDNA 2 war dass erste mal seit Radeon 9700 Pro (2002) dass Radeons Effizienter waren in Leistung pro Watt.
(HD5000er Gen ausgenommen)
RDNA 3 konnte quasi gar kein Fortschritt erzielen was Effizienz anging.
RDNA 2 VS RDNA 3.jpg

450€ Radeon schneller als 2000€ Geforce.jpg

GCN war ineffizient? Von welcher reden wir? Die erste GCN war die HD6000, die war nicht das gelbe vom Ei, weil eben ein zwischenschritt, aber die 7970 dominierte lange das Geschehen und war brachial. Danach kam Fury und Vega nicht mehr hinterher
Laut deiner Argumentation, war also nur eine GCN stark. Die HD7000er.
Und diese war sogar Uneffizienter als die Uneffiziente Geforce GTX 600er.
1732122705779.png

HD 7970 brauchte 10W mehr als GTX 680 und die HD 7970 Ghz Edition sogar 70W mehr.
Fazit. GCN war immer uneffizienter als Geforce.
RDNA 2 war deutlich erfolgreicher.
 
Zuletzt bearbeitet:
RDNA 2 war dass erste mal seit Radeon 9700 Pro (2002) dass Radeons Effizienter waren in Leistung pro Watt.
Leider nicht durch die Bank weg.
Siehe z.b hier:
in Raytracing meist etwas unterlegen, dafür aber im Raster vorne besonders bei den Oberen Modellen.
Weiter unten im Stack leider nicht mehr so .

Und weil du schon wieder Kirschen Pflückst tue ich das auch mal:
Alles Raster btw
1732122621610.png


1732122701279.png

Von Raytrcing brauchen wir garnicht reden:
1732122777841.png


Wie bereits gesagt, finde und fande ich RDNA 2 richtig gut.
Aber wie immer hatten auch diese Ihre schwächen.
Keinen guten upscaler FSR 2.0 kam erst deutlich Später
DLSS 2.0 war Anfang 2020 unterwegs.
FSR 2.0 Q2 2022
Raytracing Leistung war deutlich schwächer.
Raster war man etwa gleich auf, dafür aber mit deutlich besser VRAM Ausstattung.
AMD war Effizienter teils deutlich sogar. Gerade bei den Großen Karten.

Für AMD wars halt blöd das der Markt träge ist und ein Mining boom war.
 
Und weil du schon wieder Kirschen Pflückst tue ich das auch mal:
Du zeigst einen Cherry Pick pro Nvidia Bench, wo die RTX 3090 ti leicht schneller ist. (in den 1% lows 10% unterschied im Raster)
Okay. Aber ich sprach von Effizienz, nicht von Geschwindigkeit.
Eine RX6900 XT brauchte deutlich weniger Strom als eine RTX 3080.
Von einer RTX 3090 ti brauchen wir garnicht erst zu sprechen mit ihren bis zu 500W.
1732123790133.png

PCGH schrieb im RTX 3090ti test.
"Wir sprechen hier von nominell 480 Watt, mit Spitzen deutlich über 500 Watt."

PCGHs Fazit:
"Im Falle unserer Karte rechnen wir mit 460 Watt Durchschnittsverbrauch, womit die RTX 3090 Ti auf auf miserable 4,60 Wpi kommt. Zum Vergleich, die RTX 3080 10GB kommt mit 325 Watt auf 3,98 Wpi. Die Radeon RX 6900 XT LC rangiert bei 3,82 Wpi, während die RX 6800 XT mit rund 295 Watt und 3,68 Wpi die Effizienzkrone abholt."

Also bitte, lasst uns RDNA 2 nicht schwächer Reden als es ist. Es war das erste mal seit über 10 Jahren (Abseits von Raytracing), dass Radeon effizienter war. Sowas hatte Radeon erst 2x in der Geschichte.
Daher habe ich auch keine Riesen Hoffnung auf UDNA.
 
Du zeigst einen Cherry Pick pro Nvidia Bench, wo die RTX 3090 ti leicht schneller ist. (in den 1% lows 10% unterschied im Raster)
Okay. Aber ich sprach von Effizienz, nicht von Geschwindigkeit.
Eine RX6900 XT brauchte deutlich weniger Strom als eine RTX 3080.
Von einer RTX 3090 ti brauchen wir garnicht erst zu sprechen mit ihren bis zu 500W.
Anhang anzeigen 1475330
schade das du die 6800xt nicht zeigst. aber ja 50 Watt zwischen der 3090 und der 6900xt sind schon etwas wie gesagt RDNA ist im Raster Effizienter.
Btw. Ein bild das nur den verbrauch zeigt ist nutzlos bei einer Effizients Diskussion.
Effizients beschreibt immer:
Wie viel Energie wird benötigt für eine Aufgabe.
Bedeutet eine beispiel karte mit 100 Fps und 100 Watt verbrauch ist effizienter als eine Karte mit 50 Fps und 60 Watt verbrauch.

Leicht schneller ??????
Das sind einmal 35%
und bei anderen sidn deine 10%.
Ich hätte auch noch schlimmer suchen können.
Aber ich bin halt nicht du.
6900xt und 3090
bzw 6800xt und 3080
Nahmen sich im Raster gemittelt nicht viel.
Aber im verbrauch meist auch nich so viel.
RX 6900 XTRX 6800 XTRX 6800Radeon VIIRTX 3090 FERTX 3080 FERTX 3070 FE
Leistungsaufnahme
Leerlauf (Desktop)8 Watt8 Watt7 Watt11 Watt14 Watt12 Watt10,5 Watt
Dual-Display (UHD + FHD)40 Watt39 Watt38 Watt12 Watt25 Watt21 Watt15 Watt
UHD-Youtube-Video52 Watt49 Watt44 Watt17 Watt28 Watt31 Watt17 Watt
Gaming (MAXIMUM)301 Watt302 Watt232 Watt303 Watt355 Watt330 Watt221 Watt
Control (WQHD + RT)296 Watt289 Watt214 Watt-355 Watt328 Watt218 Watt
Anno 1800 (Full HD)296 Watt296 Watt203 Watt--329 Watt219 Watt

302 Watt zu 330 Watt
und 301 Watt zu 355 Watt.
Bei einem Index Wert von
1732129148992.png




Oder wie von der PCGh geschreiben:
"
Setzt man die erzielte Leistungsaufnahme ins Verhältnis zum PCGH-Leistungsindex, erreicht die Radeon RX 6900 XT einen guten, wenn auch nicht herausragenden Wert. Das effizienteste RDNA-2-Modell bleibt die 230-Watt-Radeon RX 6800 mit 3,28 Watt pro Indexpunkt, gefolgt von der 300-Watt-Karte RX 6900 XT mit 3,49. Abgeschlagen ist die RX 6800 XT mit ebenfalls 300 Watt Leistungsaufnahme (3,69 Watt pro Indexpunkt). Nvidias Geforce-RX-30-Grafikkarten rangieren auf einem vergleichbaren Niveau, hier ergeben sich die Werte 3,20 (RTX 3070), 3,55 (RTX 3090) und 3,69 Watt pro Indexpunkt (RTX 3080)
"

Wie gesagt RDNA 2 war gut.
Aber du musst aufhöhren so zu tuen als wären Nvidia scheise und könnten nichts.
Die Unterschiede im Raster sind Marginal und die effizient unterschiede sind kleiner als die Jetzigen zwischen RDNA 3 und ADA.

Sobald man auf die Idee kommt Raytracing Anzuschalten gewinnen die großen Nvidia überall.
Die kleinern auch. Bis auf die 6800 dessen Gegner die 3070Ti.
Ineffizienter und Langsamer war in Raster mit deutlich weniger VRAM.

Der Rest vom Stack war sehr nahe zusammen.


Ach weil ich auch mal du sein möchte:
Oh nein die 3080 hat 64% bessere lows. So ein Pech aber auch.
1732129845963.png
 
Zuletzt bearbeitet:
Also GCN ist jetzt wirklich nix was ich mir zurücksehne xD

Na mal abwarten so weit in die Zukunft ist eh Quark da iwas zu planen.
Da AMD leider (auch mal wieder lol) kein HighEnd anbieten will mit den 8000ern werd ich halt nach RX6800XT und RX7900XTX wieder zu nV wechseln...
 
Wie gesagt RDNA 2 war gut.
Aber du musst aufhöhren so zu tuen als wären Nvidia scheise und könnten nichts.
1.) Habe ich mehrmals geschrieben, Nvidia war immer deutlich überlegen. Hast du das nicht mitbekommen ? :crazy:
2.) Habe ich Explizit erwähnt, Radeon konnte nur 2x vor RDNA 2 gegen Nvidia ankommen. (HD5870 und Radeon 9700 Pro)
Diese Sätze besagen im Umkehrschluss, Nvidia war sonnst immer Überlegen. Also zu 95% der Zeit.
Jetzt kommst du und baust daraus "Nvidia kann nix". Kommt mir vor als hast du mich in eine Schublade der Befangenheit gepackt.

Wie ich eben verlinkt habe, gilt eine RDNA 2 Effizienz Technisch in vielen fällen (im Raster) als leicht effizienter als RTX 3000.
Ohne Cherry Picking meist mindestens gleiches Level, und gleichzeitig damals leicht besseres Preis Leistungsverhältnis (besonders was die Vram menge betrifft).
Zusammen mit dem später hinzugekommenen Frame Generation für alle Spieler über Treiber sind RDNA 2 Karten wesentlich besser gealtert. Eine RTX 3070 8GB verkümmert heute bei so vielen Spielen, wohingegen eine RX6700XT 12GB oder gar eine RX6800 (Preis einer RTX 3070ti) viel besser klar kommt.
In Star Citizen erreichte meine alte RX6700 200fps, 170fps auf stationen, ohne frame gen. (Damals gabs noch kein framegen). Die RTX 3070ti 8GB meines Kumpels packt da nur 40fps weil dass Spiel bei 1440p 12-13GB Vram will.
Also RDNA 2 war für Spiele ohne Raytracing klar die bessere Generation.
Zwischen RTX 4000 und RTX 3000 gab es eine massiv höhere Verbesserung der Effizienz bei Nvidia.
Seit dem hat Radeon mal wieder wie zu 95% der Zeit seit dem Jahr 2000 dass nachsehen.
Also wie kannst du diese aussage dann tätigen ?
Auch kennst du genau wie ich den umstand, dass RDNA 4 kein High End wird.
Also auch die nächste Generation hat Radeon gegen Nvidia bereits verloren.
Und wie ich mehrfach in diesem Thread hier erwähnte, wird UDNA aka Polaris/Vega 2.0 auch keine Chance gegen Nvidia haben, weil so ein Breites Allround Modell zwangsweise kein Spezialist in allem sein kann. (Weswegen GCN ja auch gescheitert ist)
Also ich sage dir Quasi, seit dem Jahr 2000, bis 2026 wo es ca 20 Generationen gab, hat Nvidia in 17 von 20 fällen gewonnen. Und ich sage ich sehe keine Hoffnung für Radeon.
Und für dich kommt dass so rüber als sage ich Nvidia kann nichts ?
Also GCN ist jetzt wirklich nix was ich mir zurücksehne xD
Zustimm
Da AMD leider (auch mal wieder lol) kein HighEnd anbieten will mit den 8000ern werd ich halt nach RX6800XT und RX7900XTX wieder zu nV wechseln...
Brauchst du denn wirklich mehr Power ?
 
Zuletzt bearbeitet:
Zurück