News Radeon gegen Geforce: RTX 4090 weiter dominant im PCGH-Forum - mit Folgen für VRAM-Verbreitung

DLSS 3 ist nicht einmal halb so wichtig wie DLSS 2 und das wird bis zu RTX 2000 zurück gehend durch die Bank unterstützt und funktioniert zuverlässig. Bei AMD gibt es bis heute überhaupt keine Frame Generation, während FSR 2 nicht einmal das Niveau und die Konsistenz des ersten DLSS 2 Versionen erreicht hat. Da nützen auch die 2-3 Positivbeispiele wenig, wenn FSR 2 auch heute noch in vielen Neuerscheinungen aussieht wie Taubenschiss auf der Fensterscheibe.
Apologismus und Polemik in Reinform. Lass Mal die Kirche im Dorf. FSR 3 steht vor der Tür und wird da Boden gut machen. Beide Lager tun sich in bestimmten Punkten was Marketing-Floskeln angeht ja nichts. Diese Schwarz-Weiß-Malerei ist etwas zu simpel gedacht.
 
Bin mir sicher, es kommen noch viele RTX-Grafikkartengenerationen die mehr Leistung haben werden, sofern nichts böses dazwischen kommt.
Sehe ich auch so NUR nach fünf Jahren sind die Vortschritte (RTX 2080 zu RTX 4080 ) doch arg übersichtlich was RT angeht. Es gab Zeiten da hatte man in fünf Jahren locker fünf+ neue Generationen.
Auch wurden neue Features deutlich schneller besser umgestzt.
Die GF 256 hatte T&L eingeführt. Zwei Generationen später war das Thema nicht nur gegessen sondern es
wurde durch die Pixel- und Vertex-Shader eine bessere "Version" ersetzt.
GF 256 = 1999 und die GF3 = 2001. ( Will auch nicht von Speicher anfangen. 32MB zu 128MB).
 
Solange FSR2 Q besser aussieht als die gerenderte Auflösung, hat es für mich seinen zweck erfüllt.
Mit Quellen und Belegen hast du es ja generell nicht so dicke.
Find es amüsant wie FSR mit aller Gewalt auf eine Stufe mit DLSS gestellt wird, obwohl spätestens bei Balanced oder Performance auch für jeden Hobby-Spieler mit Mittelklassemonitor ersichtlich ist, dass FSR da keinen Stich macht.
 
Was soll ich da belegen. Wenn ein 4K FSR2 Q Bild besser aussieht als 1440p nativ Bild, dann macht FSR was es soll. Was soll man da belegen, das ist ja wohl allgemeiner Konsens.
 
Was soll ich da belegen. Wenn ein 4K FSR2 Q Bild besser aussieht als 1440p nativ Bild, dann macht FSR was es soll. Was soll man da belegen, das ist ja wohl allgemeiner Konsens.
FSR rettet manche Karte, wenn man höher spielen will....und sieht m.M.n immer noch super aus
Mit meiner kleinen RX 6800

3440x1140 nativ

3440x1440 angepasst und FSR2...spart auf alle Fälle VRam

5120x2160 angepasst und FSR2
 
In Atomic Heart wird doch bisher gar kein Raytraycing eingesetzt, demnach lässt sich gar kein Vergleich machen. Und natürlich ist der Unterschied für Grafikkenner sofort sichtbar.
Die meisten die hier Rasterlösungen favorisieren sehen es ja auch, wenn die GI gut mit den limitierten vorhandenen Mitteln umgesetzt wird.

Dafür sind meist unterschiedliche Abteilungen zuständig.

Sicherlich, Rauchgranaten, die in die Spielmechanik mit einbezogen werden, sind eine noch nie dagewesene Innovation. =)


Der Schweinebraten meiner Schwiegermutter ist auch besser als von 32G GB RAM auf 64 aufzurüsten. Immer beim Thema bleiben.:-D


Und die 4090 ist nicht mal der Vollausbau, da schlummern noch ~15% mehr Leistung, was es unwahrscheinlich macht, dass AMD mit der nächsten Generation überhaupt die 4090 schlagen kann.

Nvidia wirbt doch überall mit Raytracing in AtomicHearta kommt bestimmt mit Release von Star Citizens Squadron42.

Wenn man eine Budgetgrenze oder Deadline hat, muss man sich für Features entscheiden.

Entweder implementiert man oder arbeitet am Titel. Grafiker können nicht beides. Leider kein Foto für dich.

Der Mehrwert von Raytracing siehe Witcher 3 wo man ein Downgrade bekommt, damit sich RT farblich absetzen kann vs 3D Rauch der durch Schüsse oder Granaten aktiv gesteuert wird?

CS2 Rauch ist 1000000x innovativer als billige Lichtstrahlen die wir schon seit Quake 3 Arena Zeiten kennen. Zudem kann die Unreal Engine schöne Grafik ohne RT..... ich sehe hier keinen spielerischen Mehrwert

Aufwand Nutzen Verhältnis CS2 Smoke > RT

Ich kenne deine Mutti nicht, habe auch kein Interesse daran -> Auch hier leider kein Foto für Dich....
 
Aus der Beobachtung wie Grafikkarten in den letzten 25 Jahren weiterentwickelt wurden, muss doch jeden klar sein, dass jede Grafikkarte eines Tages technologisch veraltet und zu langsam ist ... und ein hoher Preis zögert dies kaum länger hinaus, denn egal was man bezahlt hat, schon die nachfolgende Generation lässt die vorhergehende alt aussehen.
Wir sprechen/schreiben hier allerdings von ca. 6 Monaten, nicht 6 Jahre !
O.k. , alles gut, ist halt Deine Meinung. Mit mir eben nicht.
Entschließen sich die Entwickler zukünftig mehr mit Raytracing zu machen, verliert AMD schnell den Anschluß.
Entschließen sich die Entwickler zukünftig mehr mit Raster zu machen (da nur 2000 € Karten halbwegs in RT was taugen) verliert NV schnell den Anschluß.
Wir werden sehen.
 
Warum wird sie blöd aussehen wenn sie dann in etwa auf 5080Lvl ist?
Warum soll man mit der 3090ti blöd aussehen wenn man auf 4080 Lvl ist.
Weil die 4090 schneller ist. Weil die 4090 Features hat welche die 3090 nicht hat.
(ob das jeweils zur 80er oder eher 70er sein wird ist jezt mal egal)

"Brauchbar" zocken kann ich auch mit meinem HTPC (Ryzen 7 - 5700G) .
Ich gebe aber nicht extra deutlich mehr Geld aus um Kompromisse oder gar nur brauchbare Ergebnisse zu haben.
Sonst hätte ich mir die 4090 sparen können und wäre noch mit meiner alten RTX 3080 glücklich.
Wie schnell / wie gut die RTX 4090 in zwei Jahren sein wird ist völlig egal wenn der Nachfolger draussen ist.
Der wird nicht nur schneller sein sondern ggf. auch neue Features haben welche ich dann ggf. mit der 4090er nicht nutzen kann.
Ob ich in dann in zwei Jahren ein Problem damit habe oder mir die akt. FPS reichen und kein Bedarf sehe aufzurüsten sind zwei komplett verschiedene Dinge.
Ist bei mir eben ne Mischung aus wollen & können; brauchen kommt da nicht drin vor.

In wie weit da AMD (GPU) mitspielt ist mir eigendlich egal (bzw. es auch kann / könnte).
Im High-End spielen die für mich eben keine Rolle; dafür sind die im Mainstream Bereich -aus meiner Sicht- deutlich besser aufgestellt als NV. Habe sehr viele RX 66x0 (XT) und 6700XT Karten letztes + dieses Jahr verbaut.
Aber nur eine RTX 4090 (meine!) Welche Firma damit nun besser fährt kann auch mir egal sein.
Es ist eben völlig egal das die RTX 4080 deutlich schneller als ne RX 66x0 ist wenn das Budget für GPU max.
400€ is / war.
 
Entschließen sich die Entwickler zukünftig mehr mit Raster zu machen (da nur 2000 € Karten halbwegs in RT was taugen) verliert NV schnell den Anschluß.
Wir werden sehen.
Richtig...wir müssen eh nehmen was kommt.
Nur für reines Raster bauch halt auch keine Highend Karte.
 
Zuletzt bearbeitet:
Warum soll man mit der 3090ti blöd aussehen wenn man auf 4080 Lvl ist.
Weil die 4090 schneller ist. Weil die 4090 Features hat welche die 3090 nicht hat.
(ob das jeweils zur 80er oder eher 70er sein wird ist jezt mal egal)

"Brauchbar" zocken kann ich auch mit meinem HTPC (Ryzen 7 - 5700G) .
Ich gebe aber nicht extra deutlich mehr Geld aus um Kompromisse oder gar nur brauchbare Ergebnisse zu haben.
Sonst hätte ich mir die 4090 sparen können und wäre noch mit meiner alten RTX 3080 glücklich.
Wie schnell / wie gut die RTX 4090 in zwei Jahren sein wird ist völlig egal wenn der Nachfolger draussen ist.
Der wird nicht nur schneller sein sondern ggf. auch neue Features haben welche ich dann ggf. mit der 4090er nicht nutzen kann.
Ob ich in dann in zwei Jahren ein Problem damit habe oder mir die akt. FPS reichen und kein Bedarf sehe aufzurüsten sind zwei komplett verschiedene Dinge.
Ist bei mir eben ne Mischung aus wollen & können; brauchen kommt da nicht drin vor.

In wie weit da AMD (GPU) mitspielt ist mir eigendlich egal (bzw. es auch kann / könnte).
Im High-End spielen die für mich eben keine Rolle; dafür sind die im Mainstream Bereich -aus meiner Sicht- deutlich besser aufgestellt als NV. Habe sehr viele RX 66x0 (XT) und 6700XT Karten letztes + dieses Jahr verbaut.
Aber nur eine RTX 4090 (meine!) Welche Firma damit nun besser fährt kann auch mir egal sein.
Es ist eben völlig egal das die RTX 4080 deutlich schneller als ne RX 66x0 ist wenn das Budget für GPU max.
400€ is / war.
Ich sag ja nicht das man blöd aussieht mit einer 3090Ti nun. Fakt ist die 4090 ist eine tolle, performante, wenn auch überteuerte Karte und in 2 Jahren wird die immer noch gut sein, auch wenn sie nicht mehr die Speerspitze ist.
"Brauchbar" ist halt so eine Sache und hängt von vielen Faktoren ab, denke nicht das du mit deinem 5700G "brauchbare" Ergebnisse erzielst in Triple A Games in 4k.

Es ist einfach falsch zu behaupten das die heutige Speerspitze in 2 Jahren Müll ist bzw "blöd aussehen" wird.
Davon abgesehen ist die 3090Ti nicht auf 4080Lvl und eigentlich hättest du den Vergleich 3090 zu 4080 nehmen können und da beträgt der Abstand ~30% laut PCGH, aber auch eine 3090 sieht jetzt nicht blöd aus und ist immer noch eine brauchbare Karte die sich viele wünschen würden zu besitzen.

Ada ist einfach super und man hat einen wirklich satten Sprung gemacht, nicht nur bei der Performance, sondern auch bei der Effizienz. Ich meine von rund 400-450W runter auf 300W ohne Performanceverlust ist einfach toll und ja es ist schade, dass DLSS 3 nicht von Ampere und Co supportet wird, vllt ereilt uns dasselbe Schicksal nach 2 Jahren auch, da bleibt einem nur auf AMDs Lösung zu setzen mit FSR4 oder jetzt die Ampere und Co User auf FSR3. In dem Punkt muss man echt dankbar sein das AMD diesen Weg geht und damit auch Nvidia Usern die außen vorgelassen wurden hilft damit.

Die 4090 ist für mich totaler Overkill, aber ich mag es halt mit max Settings, max RT mit rund 150-200W zu zocken mit langsam drehenden Lüftern und einer kühlen Karte und in 2 Jahren muss ich halt mal einen Gang höher schalten, aktuell nutze ich die 4090 mit rund 30% Performanceverlust, was noch mehr als schnell genug für mein 100Hz UWQHD Monitor ist, auch nutze ich DLSS und FG was zusätzlich hilft, kurz gesagt, ich bin rund um zufrieden mit der Karte, nur der Preis war halt salzig für eine Grafikkarte. Mit der Kohle hätte ich jetzt 2x XTX Karten kaufen können, nur um mal zu zeigen wie überteuert es war/ist.

Hätte auch wieder auf AMD gesetzt, wenn da nicht einige Punkte wären, die mich dazu genötigt haben die 4090 zu kaufen. Hab davor die Gen auch bei Release die 6900XT gekauft, nun wurde es mal Nvidia, dieser ganze hate sollte mal langsam aufhören und damit meine ich dieses wirkliche Fanboy gehate und nicht mal so funny pics oder das andere Lager "ärgern". Manche nehmen das einfach viel zu ernst, es ist nur PC Hardware Leute.
 
Was redest du denn da :wow: ?? Port Royal ist das vierte Album der Band Running Wild, erschienen 1988 :D
:daumen:

Ansonsten:
Meister der Musik
Running Wild spielen Running Wild.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Sorry aber das ist total hängengeblieben nach einer Nacht mit RB, Gummibärchen und Vodka.
 
Ich sag ja nicht das man blöd aussieht mit einer 3090Ti nun. Fakt ist die 4090 ist eine tolle, performante, wenn auch überteuerte Karte und in 2 Jahren wird die immer noch gut sein, auch wenn sie nicht mehr die Speerspitze ist.
"Brauchbar" ist halt so eine Sache und hängt von vielen Faktoren ab, denke nicht das du mit deinem 5700G "brauchbare" Ergebnisse erzielst in Triple A Games in 4k.

Es ist einfach falsch zu behaupten das die heutige Speerspitze in 2 Jahren Müll ist bzw "blöd aussehen" wird.
Davon abgesehen ist die 3090Ti nicht auf 4080Lvl und eigentlich hättest du den Vergleich 3090 zu 4080 nehmen können und da beträgt der Abstand ~30% laut PCGH, aber auch eine 3090 sieht jetzt nicht blöd aus und ist immer noch eine brauchbare Karte die sich viele wünschen würden zu besitzen.

Ada ist einfach super und man hat einen wirklich satten Sprung gemacht, nicht nur bei der Performance, sondern auch bei der Effizienz. Ich meine von rund 400-450W runter auf 300W ohne Performanceverlust ist einfach toll und ja es ist schade, dass DLSS 3 nicht von Ampere und Co supportet wird, vllt ereilt uns dasselbe Schicksal nach 2 Jahren auch, da bleibt einem nur auf AMDs Lösung zu setzen mit FSR4 oder jetzt die Ampere und Co User auf FSR3. In dem Punkt muss man echt dankbar sein das AMD diesen Weg geht und damit auch Nvidia Usern die außen vorgelassen wurden hilft damit.

Die 4090 ist für mich totaler Overkill, aber ich mag es halt mit max Settings, max RT mit rund 150-200W zu zocken mit langsam drehenden Lüftern und einer kühlen Karte und in 2 Jahren muss ich halt mal einen Gang höher schalten, aktuell nutze ich die 4090 mit rund 30% Performanceverlust, was noch mehr als schnell genug für mein 100Hz UWQHD Monitor ist, auch nutze ich DLSS und FG was zusätzlich hilft, kurz gesagt, ich bin rund um zufrieden mit der Karte, nur der Preis war halt salzig für eine Grafikkarte. Mit der Kohle hätte ich jetzt 2x XTX Karten kaufen können, nur um mal zu zeigen wie überteuert es war/ist.

Hätte auch wieder auf AMD gesetzt, wenn da nicht einige Punkte wären, die mich dazu genötigt haben die 4090 zu kaufen. Hab davor die Gen auch bei Release die 6900XT gekauft, nun wurde es mal Nvidia, dieser ganze hate sollte mal langsam aufhören und damit meine ich dieses wirkliche Fanboy gehate und nicht mal so funny pics oder das andere Lager "ärgern". Manche nehmen das einfach viel zu ernst, es ist nur PC Hardware Leute.

Von Müll hat ja auch keiner geredet. ;)
Die Karten sind dann eben nicht mehr der heiße Schei** und nicht mehr das non-plus-Ultra.
Der eine kriegt da Komplexe (weil seine EX-High-End Karte nun nur noch ~Mainstream ist), dem nächsten ist das egal und irgend einer freud sich das es nun mehr Leistung zu kaufen gibt. Das es so kommen wird kann man toll finden oder auch nicht; es wird aber so kommen.

"Brauchbar" ist eben wie flüssig, reicht dicke, Zukunftssicher, "10% mehr" und "30 FPS" mehr =>
Einfach nicht zu gebrauchen. :ugly:
 
Die 4090 User dieses Forums aber auch nicht...bei weitem nicht :P.
"RTX 4090 weiter dominant im PCGH-Forum"

Hier ist es auch nur so, da mehrmals wöchentlich PCGH und Raff ordentlich die 4090 Werbetrommel rühren.
Belege du mir mal lieber wo FSR 2 auf dem Niveau von DLSS 2 sein soll.
Wenn es recht ist, dann mach ich das extra für Dich noch einmal.
Musst nur draufklicken, lesen und verstehen. Bekommst das hin ?

 

Anhänge

  • FSR DLSS.jpg
    FSR DLSS.jpg
    487,2 KB · Aufrufe: 6
Zuletzt bearbeitet von einem Moderator:
Was defacto aber nicht stimmt. Fp32 pro Watt sind dramatisch höher
Kannst du überhaupt nicht messen weil die Shader je nach Spiel äußerst unterschiedlich skalieren. Skalieren sie schlecht oder gar nicht, kommt das Leistungsplus gegenüber Ampere nur durch den Takt. Also hör auf irgendwelche Milchmädchenrechnungen zu erfinden.
 
Zurück