Special Radeon RX 7900 XTX im Raytracing-Härtetest: Faktor 2 gegenüber Radeon RX 6000 ist drin

Mit dem Argument hätten wir Mitte der 2000er gleich ganz das Spielen einstellen müssen. Damals war noch nicht mal die Leistung für FHD mit ein paar leidlich komplexen Shadern da, für mehr als 30 fps.

Ich kann diese "Argumente" einfach nicht nachvollziehen.

Ich zock Spider-Man voll aufgedreht in 100+ fps. In 4k. Und Leute wie Du erzählen mir, die HW wäre noch nicht so weit.

Ja sogar ein CP77 läuft mit knapp 50fps 4k native. Hey, nicht perfekt, aber auch damit kann man sich arrangieren. Und wenn mir die FPS nicht nicht reichen, habe ich mehere Möglichkeiten das zu ändern - OHNE wirklich Kompromisse eingehen zu müssen.

Auch mit einer RDNA 2 (z.B. Deiner 6900XT) kann man CP77 mit RT nutzen. Vielleicht nicht voll aufgedreht, aber dennoch mit sehr guten RT Effekten.

Was genau ist also Deine Message hier? Ja nicht nutzen, weil man ja sonst akzeptieren müsste, dass es andere HW gibt, die besser performt? Ist das der ganze Punkt über den ihr nicht hinwegkommt?
Es geht nicht darum das ein Spiel mit den aktuellen Settings rund läuft, das habe ich auch in meinem Argrument deutlich gemacht.

Es geht einfach darum würde man RT "volle Kanne" integrieren, ja das ist auch in einem CP77 noch nicht der Fall, würde es einfach keine aktuelle Karte schaffen auch keine RTX 4090.
Und diese Settings werden in den nächsten Jahren kommen!!
Dementsprechend ist es aktuell auch in meinen Augen nicht Sinnfrei viel Geld für Grafikkarten auszugeben.
Denn wenn ich jetzt schon weiß das meine RTX 4090 für 2000€ in 2024 kein max mehr in den Games schafft sind diese 2000€ einfach fehl investiert. Wären es 300€ wäre es mir noch egal, aber die Schwelle dafür ist aktuell einfach jenseits von gut und böse.
Die Grafikkarte muss ja auch irgendwie bei mir einen Gegenwert generieren, je höher der Geldwert desto größer der Gegenwert.

Denn es wird genau das mit Raytracing passieren was damals in den 2000ern passiert ist, jede Nachfolgende GEN geht mindestens um den Faktor 2 vorweg, die Games werden sich anpassen. Die alten Karten sind nutzlos und schaffen die Games nicht mehr.
Verglichen zu Damals hat man sich gesagt achjo 300DM (150€) egal kauf mir ne Neue und war wieder am Max.


Wir kommen halt aus einer Zeit wo die normale rasterisierungs Leistung wirklich stagniert hat.
Hast du 2014 eine Graka für 1000€ gekauft kannste 2022 noch drauf zocken, aber durch Raytracing dreht sich das ganze aktuell.
Jedes Jahr werden es mehr Games und es werden auch bald Raytracing only Games kommen. Dann sind all die Karten die es gab nutzlos und du wirst 2030 einfach nicht mehr spielen können mit einer 2000€ teuren Karte von jetzt! Das sollte jeder wissen und erkennen können der im Jahr 2000 Grafikkarten gekauft hat!
 
Das stimmt so ja nicht, ich kann bereits seit 2 Jahren mit einer Karte <1000€ (3080 10 GB) CP2077 auf WQHD mit RT Psycho, max Details, DLSS Quality mit 60 FPS zocken. Die 4080 legt da ordentlich drauf, sogar ohne DLSS:

Anhang anzeigen 1410717

Die XTX liegt auf dem Niveau meiner 2 Jahre alten Karte. Für deutlich mehr Euronen...

Es geht hier im Artikel explizit um RT aber wir sollen damit aufhören? Lustig...
Muss mal was du sagst gegentesten.
Bekomme nächste Woche eine RTX3080 für 450Fr.

Aber wohl eher mit FSR2, kann ghosting nicht ausstehen!

Bin gespannt.
Durch das "Chiplet" Verfahren hätte man eventuell auch eine Version raushauen können ohne RT. Also hier die trennung machen.
Die Chipfläche nur für Raster. und durch weniger Hitze und Verbrauch ganz ander punkten, abgesehen von einem wahnsins Preis.

Wäre es nicht interessant zu sehen wie sich da der Markt entscheiden würde?
AMD würde quasi zum E-Sport Champion werden
1671234150951.gif
 
Zuletzt bearbeitet:
Muss mal was du sagst gegentesten.
Bekomme nächste Woche eine RTX3080 für 450Fr.

Aber wohl eher mit FSR2, kann ghosting nicht ausstehen!
DLSS 2.3 und höher hat kaum noch Ghosting, weniger als FSR2 auf jeden Fall. Kannst die Datei im Spiele-Ordner einfach austauschen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Bin gespannt.
Durch das "Chiplet" Verfahren hätte man eventuell auch eine Version raushauen können ohne RT. Also hier die trennung machen.
Die Chipfläche nur für Raster. und durch weniger Hitze und Verbrauch ganz ander punkten, abgesehen von einem wahnsins Preis.

Wäre es nicht interessant zu sehen wie sich da der Markt entscheiden würde?
AMD würde quasi zum E-Sport Champion werden Anhang anzeigen 1411025

Dafür hätte AMD aber die komplette Architektur umbauen und separate RT-Cores entwickeln müssen. Aktuell hängen die AMD RT-Accelerators ja an den einzelnen Shader Cores und sind nicht separat.
 
Es ist ja immer noch ein Core Chip. Die "Aufteilung" dieser Chiplets beschränkt sich auf die Caches und Speichercontroller. Da ist nicht viel aufgeteilt.

Was auch nicht verwundert. Man kann einen hochparallelen Chip nicht so einfach aufteilen. Letztlich war das ganze mehr ein Marketingcoup, so wie es für mich aussieht. Man kann die Speicheranbindung und den Cache skalieren, das wars dann aber auch schon.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Super Video dazu.
Aber das bedeutet auch, das die grössten Vorteile noch vor uns liegen.
Wenn ein grosser Teil der non-Logic Einheiten gleich bleiben, wird viel Entwicklungszeit(Geld) gespart und in der Treiberentwicklung kann man wohlmöglich auch mit weniger zukünftigen Gliches rechnen.

Dinge wie willkührlich mehr Stromverbrauch bei anderem Bildschirm lässt mich immer wieder fremdschämen ?
...sicher per Treiber korrigierbar, aber besser für in Zukunft zu verhindern.
 
Wie wichtig ist Ihnen Raytracing? Ja ja: RT ist die Zukunft usw. usw. blaba.

Wenn ich technisch nicht anständig zu - - - vertretbarem - - - Aufwand zocken kann ... pell ich mir echt ein riesen Ei drauf und mach mich nicht zum (Umwelt-)Deppen. Is ja mittlerweile peinlich mit nem Gaming-PC als komplette Wattschleuder.

Vielleicht sollte in der Gamingbranche sowas wie die Idee des "green" Gaming Fuß fassen und nicht jeder absurde RT-Quatsch programmiert werden der mit nem 3000€-PC fast unspielbar wird. Völlig idiotisch!

Da lob ich mir doch Doom Eternal!
Schon interessant, wie es früher akzeptiert war für bahnbrechende Technologie auch Geld auszugeben und heute ist man so "das kann nix, das will ich nicht, das ist doof!"
RT ist wie 3D TV wird sich nicht durchsetzen!
ja, du hast recht, realistischere Beleuchtung wird sich nicht durchsetzen.
Aber gut, hat wohl seinen Grund warum du weniger als 3 Tage nach deinem Un-Bann wieder gebannt wirst.
Wenigstens hast du miterlebt, wie die 7900 gefailed hat.

Und das obwohl du immer angekündigt hast, wie Nvidia keine Chance haben wird gegen AMDs MCM Ansatz :D
 
"Schon interessant, wie es früher akzeptiert war für bahnbrechende Technologie auch Geld auszugeben und heute ist man so "das kann nix, das will ich nicht, das ist doof!"
Richtig doof und sehr peinlich wirds erst dann wenn mans nicht peilt dass ne 3090 Ti bei Hitman 3 mit RT/1440p 30-40fps schafft. Klar RT Ultra-Einstellung. Peinlich weil das Teil mal 2500 kostete und noch peinlicher weils mit Hitman 3 erst der Anfang war. Peinlich auch das ne 3080 Ti dank RT in Full HD noch 40 Fps schafft. :kotz:
 
Zurück