Radeon RX 7000 gegen RTX 4000: AMD nennt Termin für Livestream-Präsentation

Na das wäre doch im Vergleich zu einer RTX 4090 sogar günstig, wenn es am Ende sogar 1500€ sind :D
Ich sage euch eins ich bin nicht gerade reich aber ich bin so froh dass die so teuer sind!! So kann man eher eine bekommen, als wenn sie günstig wären ?
Na ja, bei der (RX7900XT) handelt es sich wenn man den aktuellen Gerüchten Glauben schenkt, auch nur um einen beschnittenen NAVI 31, der wohl die Performance der RTX 4090, meiner Meinung nach nicht ganz erreichen kann.
Allerdings sehen die aktuellen Gerüchte dies etwas optimistischer als ich und sprechen davon, dass die RX7900XT in der Raster-Performance gleich - bis leicht schneller sein soll, dafür aber nur mit 20GB anstatt 24GB ausgestattet ist.

Ich könnte mir gut vorstellen das die Preisgestaltung in etwa so aussehen könnte:

AMD Navi 31 Vollausbau (RX????????): 12288 Cores, 384-bit, 192 MB Infinity Cache, 308mm2 GPU Die 5nm, 24GB GDDR6 (1800 -2200€) je nach dem ob sie schneller als die RTX4090ti ist, oder nicht.

AMD Navi 31 Vollausbau (RX7950XT): 12288 Cores, 384-bit, 96 MB Infinity Cache, 308mm2 GPU Die 5nm, 24GB GDDR6 (1500 -1600€) der wahre RTX4090 Gegenspieler???

AMD Navi 31 cutoff Vartiante (RX7900XT): 10752 Cores, 320-bit, 80 MB Infinity Cache, 308mm2 GPU Die 5nm, 20GB GDDR6 (1200 - 1300€) wie bereits erwähnt ,könnte ich mir gut vorstellen das diese Karte ein gutes Stück langsamer als die RTX4090 sein könnte, aber dafür deutlich schneller als die RTX4080 16GB.

Klar die Preise sind für meine Geschmack immer noch viel zu hoch, aber die RX7900XT könnte verglichen mit der 1469€ teuren RTX4080 16GB ein richtiger Preis-Leistungkracher werden.

RTX 4080 16 GB AD103-300-GPU: 9728 CUDA- Kerne. Boost-Takt 2.5 GHz , also ungefähr derselbe wie bei der RTX 4090. 16 GB GDDR6X- Speicher, mit 23 Gbit /s getaktet, 256-bit, 72MB L2 Cache, 16GB

16384/9728=1.68 ähnlicher Takt 64MB L2 vs. 72MB L2 und schnellerer Speicher 23Gbps ansatt 21Gbps (735.7 GB/s vs. 1,008 GB/s)

Lustigerweise erinnert mich die Karte (RX4080 16GB) ein wenig an die RX6700XT, jede Menge IF-Cache (96MB vs. 128MB) im Verhältnis zu den relativ wenigen Shader (2560 vs. 4608) nur dass die RX6800XT im Schnitt 2.2GHz erreichte und die RX6700XT 2.5GHz ob die RTX4080 16GB ebenfalls 0.3GHz im Schnitt schneller takten kann als die RTX4090 bezweifle ich allerdings. (2560 vs. 4608 bzw. Faktor 1.8 / 2.5 x 2.2 = 1.58)

Die RX6800XT liegt beim Review von Computerbase bei 4K, 43% vor der RX6700XT, in etwa diesen Abstand erwarte ich mir auch zwischen der RTX4090 und der RTX4080 16GB.
Mit anderen Worten die RTX4080 16GB wird chancenlos gegen die RTX7900XT sein.
 
Da kaufen sich Leute 8K Monitore, klatschen 120FPS drauf, alles muss Ultra sein. Bei DLSS & co. geht man mit Standbildern und Lupe auf Pixeljagd.
Andererseits akzeptiert man aber dann niedrig aufgelöste Schrotteffekte, fake- Spiegelungen, die je nach Betrachtungswinkel teils komplett in sich zusammenbrechen, light bleeding ursprünglicher GI Verfahren usw. usw.

Das werd ich nie verstehen.
Als ob RT mehr als nur ein Provisorium wäre, bei dem an allen Ecken und Enden gespart und getrickst wird. Bei dem Leistungshunger geht das gar nicht anders.
 
Würde ich so nicht sagen.
Da draußen gibt es außer uns hier im Forum noch zig Millionen User, die keine 4000er zu den Preisen kaufen.
Der gespielte große Hype kommt jetzt von den paar Leuten, die sich eine 4090 leisten oder von Streamern usw. die durch ihre Fans solche Sachen finanziert bekommen. Das sind die Leute die sich eh zu jeder Gen eine neue holen, dann schwören die "reicht jetzt ewig" und sobald neue Gen kommt, sind die wieder am Start, weil es ja nicht reicht von der Leistung oder wieder ein Feature unbedingt besessen werden muss. Strom egal, Kosten egal. Den kannst du zwar alles auftischen, aber die sind halt eine Minderheit und werden es immer sein.
In Wahrheit aber sind die Verkaufszahlen im Vergleich zur gesamten zockenden Bevölkerung in EU/US verschwindend gering. Das muss natürlich auch bei AMD nicht anders sein.

Ich denke einfach das die Leute gerade jetzt in der Zeit, eben nicht mehr Willens sind alles zu bezahlen.
Es ist eine sucht nicht mehr.
 
Na ja, bei der (RX7900XT) handelt es sich wenn man den aktuellen Gerüchten Glauben schenkt, auch nur um einen beschnittenen NAVI 31, der wohl die Performance der RTX 4090, meiner Meinung nach nicht ganz erreichen kann.
Allerdings sehen die aktuellen Gerüchte dies etwas optimistischer als ich und sprechen davon, dass die RX7900XT in der Raster-Performance gleich - bis leicht schneller sein soll, dafür aber nur mit 20GB anstatt 24GB ausgestattet ist.
Ja bei der RTX 4090 handelt es sich ja auch nicht um den kompletten Ausbau des AD 102 Chips. 20GB reichen bei der RX 7900 XT jedoch mehr als genug aus, mehr als 16GB wären womöglich gar nicht nötig.
Denke auch, dass die leistungstechnisch etwas unter der 4090 liegen wird aber aus Preis-Leistungssicht wesentlich attraktiver sein wird. Aber mal abwarten.
Ich könnte mir gut vorstellen das die Preisgestaltung in etwa so aussehen könnte:

AMD Navi 31 Vollausbau (RX????????): 12288 Cores, 384-bit, 192 MB Infinity Cache, 308mm2 GPU Die 5nm, 24GB GDDR6 (1800 -2200€) je nach dem ob sie schneller als die RTX4090ti ist, oder nicht.
Womöglich. Denke da soll es doch einfach die normale RX 7950 XT sein oder soll da noch etwa sowas wie eine RX 7970 XT kommen???

AMD Navi 31 Vollausbau (RX7950XT): 12288 Cores, 384-bit, 96 MB Infinity Cache, 308mm2 GPU Die 5nm, 24GB GDDR6 (1500 -1600€) der wahre RTX4090 Gegenspieler???

Denke hier an die normale 4090 als Gegenspieler!

AMD Navi 31 cutoff Vartiante (RX7900XT): 10752 Cores, 320-bit, 80 MB Infinity Cache, 308mm2 GPU Die 5nm, 20GB GDDR6 (1200 - 1300€) wie bereits erwähnt ,könnte ich mir gut vorstellen das diese Karte ein gutes Stück langsamer als die RTX4090 sein könnte, aber dafür deutlich schneller als die RTX4080 16GB.
Die RX 7800 XT wird da gut gegen ankommen denke ich! Ist zumindest im TFlop Bereich bei der 4080 16GB anzusiedeln.

Klar die Preise sind für meine Geschmack immer noch viel zu hoch, aber die RX7900XT könnte verglichen mit der 1469€ teuren RTX4080 16GB ein richtiger Preis-Leistungkracher werden.

RTX 4080 16 GB AD103-300-GPU: 9728 CUDA- Kerne. Boost-Takt 2.5 GHz , also ungefähr derselbe wie bei der RTX 4090. 16 GB GDDR6X- Speicher, mit 23 Gbit /s getaktet, 256-bit, 72MB L2 Cache, 16GB

16384/9728=1.68 ähnlicher Takt 64MB L2 vs. 72MB L2 und schnellerer Speicher 23Gbps ansatt 21Gbps (735.7 GB/s vs. 1,008 GB/s)

Lustigerweise erinnert mich die Karte (RX4080 16GB) ein wenig an die RX6700XT, jede Menge IF-Cache (96MB vs. 128MB) im Verhältnis zu den relativ wenigen Shader (2560 vs. 4608) nur dass die RX6800XT im Schnitt 2.2GHz erreichte und die RX6700XT 2.5GHz ob die RTX4080 16GB ebenfalls 0.3GHz im Schnitt schneller takten kann als die RTX4090 bezweifle ich allerdings. (2560 vs. 4608 bzw. Faktor 1.8 / 2.5 x 2.2 = 1.58)

Die RX6800XT liegt beim Review von Computerbase bei 4K, 43% vor der RX6700XT, in etwa diesen Abstand erwarte ich mir auch zwischen der RTX4090 und der RTX4080 16GB.
Mit anderen Worten die RTX4080 16GB wird chancenlos gegen die RTX7900XT sein.
Ich denke es wird leistungstechnisch in der Reihenfolge sein pi mal Daumen:
1. RTX 4090 Ti
2. RX 7970 XT (falls so eine kommt)
3. RTX 4090
4. RX 7900 XT
5. RTX 4080
6. RX 7800 XT
7. RTX 4070
8. RX 7700 XT
 
Zuletzt bearbeitet:
Mehr FPS? Gerade dafür gibt es ja so Sachen wie DLSS oder FSR.
Das ist die Theorie...
BF2042 hat noch immer kein FSR 2.0 (hat es überhaupt 1.0?)

So lange das so stiefmütterlich behandelt wird sehe ich schwarz.
DLSS wird meist rel. schnell unterstützt und AMD ausgeklammert, warum auch immer.
Zukünftig kaufe ich KEINE Spiele die nicht mindestens FSR 2.0 implementiert haben.

Sehe nicht ein wegen der Ignoranz der Spiele Hersteller meine RX 6800 ablösen zu müssen.
Dann behalten sie ihr Zeugs eben...
 
Als ob RT mehr als nur ein Provisorium wäre, bei dem an allen Ecken und Enden gespart und getrickst wird. Bei dem Leistungshunger geht das gar nicht anders.
Natürlich wird gespart. Tricksen kannst Du bei RT aber weit weniger, als es im Rasterbereich möglich ist.
RT ist ja deswegen am Kommen, WEIL das Rastern gewisse Berechnungen nicht hinbekommt bzw. nur mit einem Aufwand, der höher liegt, als wenn man es durch den Tracer jagd.

Metro Exodus Enhanced ist für viele so überraschend Performant, weil man konsequent die aufwändigen Rasterberechnungen rausgeschmissen hat, die mit hohem Aufwand versuchen irgendwas hinzufaken.
Würde man die alten Zöpfe komplett abschneiden, könnte man auch in aktuellen Titeln schon eine deutlich höhere RT Performance erreichen.
Macht man verständlicherweise nicht, weil man durch Kompatibilität eine möglichst große Käuferschicht erhalten will....
 
Zuletzt bearbeitet:
Ist BF 2042 vielleicht ein Nvidia Titel?
Es ist zumindest hinlänglich bekannt, dass Nvidia Entwickler/Publisher ordentlich bezahlt um deren Technologie (teil-)exklusiv zu verweden. FSR2.0 braucht die selben Daten des Spiels wie DLSS, es wäre also kein Problem, Spiele die DLSS supporten für FSR2.0 ready zu machen.
Das zeigen ja auch immer wieder Modder, die FSR2.0 auf DLSS Titel portieren können.

Aber es gibt nativ aber weit mehr DLSS als FSR2.0 spiele. Warum ist das wohl so?

Es werden von Spiel X nicht weniger Einheiten verkauft wenn man statt FSR+DLSS nur DLSS anbietet. Aber für den Entwickler/Publisher gibt das halt nochmal eine nette grüne Summe.

Und wie gut Nvidias Marketing funktioniert sieht man ja schon daran, dass selbst in den PCGH YouTube Videos statt Raytracing halt gerne mal von RTX gesprochen wird obwohl letzteres die Markenbezeichnung von Nvidias Raytracing fähigen GPUs ist und keine Spieletechnologie.
 
Es ist zumindest hinlänglich bekannt, dass Nvidia Entwickler/Publisher ordentlich bezahlt um deren Technologie (teil-)exklusiv zu verweden.
Hast du hierfür Belege, dass es exklusiv ist?

FSR2.0 braucht die selben Daten des Spiels wie DLSS, es wäre also kein Problem, Spiele die DLSS supporten für FSR2.0 ready zu machen.
Naja, aber es muss trotzdem integriert werden und das kostet Zeit und Geld. Nvidia vergütet den Publisher für die Arbeit, AMD nicht. Ist aus finanzieller sicht schon nachvollziehbar, weshalb FSR häufig fehlt.
 
FSR ist Open Source (https://github.com/GPUOpen-Effects/FidelityFX-FSR2), DLSS proprietär, es wird wohl irgendeinen Support auf Seiten Nvidia's geben. DLSS ist in vielen Engines bereits standardmäßig verbaut, oftmals nicht mehr als ein Plugin der installiert werden muss, der Aufwand daher extrem gering.
FSR muss, sofern nicht explizit von AMD gesponsert (kommt ja nicht so häufig vor), freiwillig implementiert werden.
Für die UE4 bzw UE5 aber z.Bsp. gibt es FSR 2 auch bereits als Plugin:
 
FSR ist Open Source (https://github.com/GPUOpen-Effects/FidelityFX-FSR2), DLSS proprietär, es wird wohl irgendeinen Support auf Seiten Nvidia's geben. DLSS ist in vielen Engines bereits standardmäßig verbaut, oftmals nicht mehr als ein Plugin der installiert werden muss, der Aufwand daher extrem gering.
FSR muss, sofern nicht explizit von AMD gesponsert (kommt ja nicht so häufig vor), freiwillig implementiert werden.
Für die UE4 bzw UE5 aber z.Bsp. gibt es FSR 2 auch bereits als Plugin:
Plugin heißt nicht das du da einfach was installierst und fertig. Die Bewegungsvectoren bei beiden Varianten müssen der Technik beigebracht werden, ansonsten kommt da nur Grütze bei raus. Hast du die Vectoren jedoch einmal definiert, kannst du relativ einfach alle drei Techniken implementieren.

Einmal implementieren reicht aber auch nicht, jede Technik die man integriert brauch auch support, muss aktualisiert werdcen und kann Fehler mit sich bringen. Zudem haben alle drei Varianten Ihre Eigenarten.
 
Hast du hierfür Belege, dass es exklusiv ist?


Naja, aber es muss trotzdem integriert werden und das kostet Zeit und Geld. Nvidia vergütet den Publisher für die Arbeit, AMD nicht. Ist aus finanzieller sicht schon nachvollziehbar, weshalb FSR häufig fehlt.
Für Belege musst du einfach mal googeln.

Zudem sagst du ja selbst dass es nachvollziehbar ist und NV die Publisher vergütet ihre Technologie zu nutzen
 
Zurück