Special Radeon RX 7900 XTX im Raytracing-Härtetest: Faktor 2 gegenüber Radeon RX 6000 ist drin

Ermüdend ist eher wie vielleicht ein halbes Dutzend user meinen sie müssten hier eine Art Meinungshoheit verteidigen, wie wichtig RT doch wäre. :schief:
Nein ist es nicht.
Das auch ja^^
Ich verstehe halt nicht, dass die meisten Leute nur in diesen Extremen denken und jede Diskussion nur daraus besteht sich die Absolutheiten entgegen zu werfen.
Entweder Raytracing ist der heilige Gral oder vollkommen unnötig. Entweder Team Rot oder Team Grün. Entweder Edward oder Jacob.

Ich finde das sind alles so Themen, die man differenzierter betrachten sollte.
 
Zuletzt bearbeitet:
Interessant wie die Leute wirklich unter jedem Thema, das annähernd was mit RT zu tun hat, immer und immer wieder schreiben wie unnötig RT ist. Schon etwas ermüdend...

Unnötig ist sicher das falsche Wort.
Aber die Anzahl der Spiele, die es (optisch beeindruckend) unterstützen und die Performance, auch von einer 4080, macht es für viele halt zu nicht mehr als einem Gimmick momentan.
 
Interessant wie die Leute wirklich unter jedem Thema, das annähernd was mit RT zu tun hat, immer und immer wieder schreiben wie unnötig RT ist. Schon etwas ermüdend...

PCGH hat um meine Position zum Thema gefragt, und ich sehe keinen Grund dies nicht kundzugeben, nur weil sich Mössiö ermüdet fühlt.

Meine Position bleibt nun Mal, dass RZ einfach immer noch massiv wichtiger ist und RT in Anbetracht des massiven Ressourcenaufwands für UHD@60fps+ ein nettes Gimmick bleibt und erst in den kommenden 1-2 Gens wirklich dafür interessant wird, mehr nicht. Bis dahin bleibt es eine Spielerei für eine kleine Elite, die meint repräsentativ für den Ø PC-Spieler zu sein und dabei oft selbst mit Upscaling von kleinerer Auflösung her nachhelfen muss um in dieser Auflösung überhaupt stabil 60fps+ zu erreichen.
 
Schwieriges Thema das:schief:
RT gehört bestimmt die Zukunft und ist ja jetzt nicht wirklich neu. Gefummelt wird da seit 20 Jahren dran.
NV hat dazu eine Lösung, aber leider nicht DIE Lösung. Noch nicht.
1. Die tollen Features, wie DLSS und wie sie alle heissen, sind nur Getrickse, um es iwi zu rechtfertigen und es zum Laufen zu bringen.
2. RT in relativ schnellen Shootern ist z.Z. mit hohen FPS (selbst in WQHD, geschweige denn UHD oder höher)nicht machbar > daher Trickserei
3. Ich als Anwender habe in schnellen Shootern überhaupt keine Zeit und Muse, vermeindliche Grafikpracht zu registrieren, geschweige denn, zu geniessen.
4. Und ob ich jetzt mit 40-50 FPS oder mit 70-80 FPS durch die Gegend krebse, ist fast egal. ich rede von nativ!
5. Super geeignet für Aufbausimulationen, MMOs/PPGs und Konsorten. Da macht sowas richtig Spaß. Nur für solche Games bedarf es keiner 120 FPS oder mehr. Hier reichen besagte 40-50 vollkommen aus.
6. Das Thema Implementierung ist auch schwierig. Was soll man als Entwickler alles "raytracen"? Zuviel des Guten oder darfs e bisserl mehr sei?
Mein Fazit: RT ist keineswegs überflüssig ABER überhypt, überbewertet und nativ noch nicht angekommen.
Es wird in Zukunft spannend bleiben um Raytracing.
Gruß T.
 
Einigen wir uns darauf: Hätte die aktuelle Generation Raytracing "for free" ermöglicht, also ohne Leistungsverlust, wären alle zufrieden. Gelle? :D

Da das aber nicht realistisch ist, wird es die Diskussion noch ein paar Jahre geben, bis alle Neuentwicklungen voll auf Raytracing setzen. Das wird aber noch etwa zehn Jahre dauern.

MfG
Raff
Gut man läuft ja auch schon länger dem Mantra hinterher hohe Bildraten bei hoher Auflösung zu fahren. Der "Effekt" ist permanent und stets sichtbar. Beides mehr oder minder zu "Opfern" für den Ersatz von SSR z.B. ist einfach ein bescheidener Tradeoff. Grade globale Beleuchtung ist zweifelsfrei ein deutlicher Mehrwert mit RT, aber ob ich das Game dann am Ende mit 64 statt 56 Fps spiele ist am Ende ein geringer Unterschied den die Kröte hab ich ja schon geschluckt dann.
 
Mein Fazit zum Test: Gut, dass ich nur in WQHD spiele.
Ich denke wer sich für eine XTX oder XT entscheidet WEIL (Gründe hier einfügen), der sieht dennoch einen großen Sprung im RT je nachdem was die alte GPU war. Aber wer voll auf RT abfährt und das auch gerne auf das maximal mögliche ausfahren möchte, der sollte sich keine RX 7900 kaufen.

Ich habe mich jetzt doch für die XT entschieden, weil ich einfach gerne bei AMD bleiben möchte. RT nehme ich einfach mal dankend mit und wenn sich die Gelegenheit bietet probiere ich es aus. Cyberpunkt 2077 wollte ich sowieso mal kaufen. Einen besseren Showcase gibt es ja scheinbar noch nicht.
 
Jeder hat halt zu RT, vielleicht auch je nach Geldbeutel, seine eigene Meinung.
Was mir fehlt ist das RT erstmal nichts heißt, ich finde ein Red Dead Redemption 2 wesentlich ansprechender mit vorgebackener Beleuchtung, wie ein Cyberpunk mit RT, man sieht einfach wieviel Mühe sich Rockstar da gegeben hat.
Davon ab ist mir völlig Laterne ob die Beleuchtung 1000% der Realität entspricht.

Von der Beleuchtung mal ganz abgesehen fehlt mir allgemein in aktuellen Spielen aber die Interaktion bzw. Physik, wir haben Multi-Core CPUs und dicke Grafikkarten, aber Physik und Physikeffekte sind in den meisten Games völlig rudimentär.
Warum gibt es nicht mehr sowas wie Red Faction Guerilla, wo man einfach mit dem Auto in das Haus braten kann, bei Battlefield 2042 haben sie die Physik im Vergleich zu früheren Titeln auch zurückgefahren.
Meist läuft man durch völlig statische Welten und kann froh sein wenn mal irgendwo etwas abbröckelt, etwas von einem Tisch fällt oder als Highlight wirklich mal ein Tisch kaputt geht.

Geht vielleicht auch nur mir so....
 
Schwieriges Thema das:schief:
...
Mein Fazit: RT ist keineswegs überflüssig ABER überhypt, überbewertet und nativ noch nicht angekommen.
Es wird in Zukunft spannend bleiben um Raytracing.
Gruß T.
Absolut bei dir.

Schön anzusehen ist es sicherlich (hab selbst keine RT fähige GPU; RX5700), aber wir sind noch weit weg von massentauglich.
Man sieht doch immer wieder wie rudimentär RT in NV-sponsored Titeln eingebaut wird, um ihre eigene HW zu pushen.
Aber wenn dann mal intensiv RT genutzt wird (Portal RTX zB.) dann ist selbst eine RTX4090 am Limit. Und ich kaufe doch keine 2000€+ GPU nur um ein 10 Jahre altes Games mit Ach und Krach zum Laufen zu bekommen.

Bei allen anderen Games, ist es also noch etwas Spielerei und man macht grob so viel RT rein, damit es noch grad so irgendwie auf den schnellsten GPUs (von NV) läuft. Mehr RT könnte jeder Entwickler einbauen, macht aber halt dann keinen Sinn mehr.
Daher ist es noch gute 2-4 Gens weg bis es mal in den Games wirklich zum Standard wird. Das ganze nimmt aber Fahrt auf, ja.
 
Ich spiele auf einem 4k Monitor und nutze RT gerne, da wo es die Perfomance zulässt. Vor allem Spiegelungen. Da mir das Bild mit FSR 2 teilweise sogar besser gefällt, sofern ich überhaupt einen Unterschied sehe, geht das aktuell auch relativ gut.

Spannend finde ich, wie manipulativ die Graka-Entwickler mittlerweile offensichtlich vorgehen.
Als Besitzer einer 6900xt finde ich das alles zur Zeit unnötig bis frustrierend, weil eigentlich nichts Upgradewertes dabei ist. Entweder fehlt die Leistung, oder der Preis ist völlig irre. Bei der Generation davor gab es Leistungstechnisch ja immerhin einen sinnvollen Mehrwert (und es war möglich gut es Geld für die alte Hardware zu bekommen).
Gleichzeitig zeigen Benchmarks ja sehr deutlich, wie gewollt das alles ist und das Entwicklung vielmehr darauf abzielt die Kunden zu melken, statts wie früher tatsächlich die Leistung und den Nutzen zu steigern.
 
Zuletzt bearbeitet:
Wenn man bedenkt, dass die 7900XTX deutlich mehr Strom zieht (gerade bei Dingen wie YT und ähnlichem) zahlt man auf Sicht von 2-4 Jahren locker das was man gemäß UVP eingespart hat an Stromkosten.
Natürlich sehr abhängig vom eigenen Verhalten. Hat man nur einen Monitor, ideal noch mit Low-Refresh oder nutzt den PC nur wenige Stunden die Woche ist der Mehrverbrauch egal.

Aber wieviele Leute, die 4-stellig für eine Grafikkarte ausgeben haben nur einen Low-Refresh-Monitor oder nuten den PC nicht ein paar Stunden am Tag?
Und dann zahlt man 50-100 Euro / Jahr an Strom mehr.
Das Thema war doch in der letzten GPU Gen genau umgekehrt, als NV eigentlich in jedem Spiel mehr Strom verbraucht hat.

Das hat doch auch keinen daran gehindert, die ach so tollen und teils langsameren GPUs (zb 3060 vs 6600XT, 6800XT vs 3080) dennoch zu kaufen!?
Und gezockt haben doch solche Leute sicher mehr als nur YT Videos zu glotzen? Also was ist daran jetzt genau anders? Wegen 50€ mehr im Jahr? Dafür zahlst ja auch für vergleichbare NV GPUs wesentlich mehr in der Anschaffung.

Und für jetzige AMD Karten zahlst sogar noch weniger Anschaffungspreis.

Und falls, aber nur falls man sich wegen 50-100€/Jahr Stromkosten aufregt, dann sollte man tunlichst die Finger von 1000-2000€ GPUs lassen. Dann vielleicht lieber eine RX6600XT mit 170W anstatt, 300-400W Monster ;)
 
Hab ne 7900XTX geordert und freu mich auf das große Plus an RT-Leistung, nehm ich gern mit. Kriegsentscheidend war das aber nicht ansatzweise. Erst Callisto Protocol mit RT durchgezockt und wie hier schon geschrieben wurde enttäuscht (mich) RT weitestgehend in seiner Implementation. Rieselige, "ameisenartige" Gebilde, welche scheinbar Spiegelungen oder Schatten darstellen sind mir dann die FPS Einbrüche doch nicht wert.

RT ist für mich weiterhin Early Access und nichts weiter. Fanbois, welche sich deshalb die Köpfe einschlagen um ihre bevorzugte Multi-Milliarden-Dollar Company zu verteidigen, mit welcher sie sich auf tiefster, persönlicher Ebene identifizieren, sollten lieber mal nen Psychiater aufsuchen.
 
Das Thema war doch in der letzten GPU Gen genau umgekehrt, als NV eigentlich in jedem Spiel mehr Strom verbraucht hat.

Das hat doch auch keinen daran gehindert, die ach so tollen und teils langsameren GPUs (zb 3060 vs 6600XT, 6800XT vs 3080) dennoch zu kaufen!?
Und gezockt haben doch solche Leute sicher mehr als nur YT Videos zu glotzen? Also was ist daran jetzt genau anders? Wegen 50€ mehr im Jahr? Dafür zahlst ja auch für vergleichbare NV GPUs wesentlich mehr in der Anschaffung.

Und für jetzige AMD Karten zahlst sogar noch weniger Anschaffungspreis.

Und falls, aber nur falls man sich wegen 50-100€/Jahr Stromkosten aufregt, dann sollte man tunlichst die Finger von 1000-2000€ GPUs lassen. Dann vielleicht lieber eine RX6600XT mit 170W anstatt, 300-400W Monster ;)

Wenn es für dich keinen Unterschied macht, ob du beim Spielen 30W mehr brauchst oder während normalem arbeiten 50W, ist das schön für dich - vermutlich arbeitest du nicht an deinem PC. Arbeitst du am eigenen PC läuft der PC normalerweise auch weit länger als wenn du am Tag 2,3 Stunden spielst.

Nvidia wird gekauft, weil die Mehrheit der User das Gesamtpaket von Nvidia offensitchtlich höher bewertet als das von AMD. Obwohl die AMD Karten günstiger waren ist für die große Mehrheit (3. Quartal 2022 hatte AMD nur noch 12% Marktanteil) die Nvidia-Karte das bessere Produkt. Ob du oder ich das so sehen spielt dabei keine Rolle - wenn 85% Nvidia kaufen und 12% AMD ist eben für die große Masse Nvidia attraktiver.

Wenn jetzt eine 7900XTX unterm Strich sogar teurer ist als eine 4080, gleichzeitig aber weniger Leistung und ein schlechteres Featureset bietet, dann ist das eben kein sonderlich tolles Aushängeschild von AMD.

Die 4080 gilt ja zu Recht als überteuert - und jetzt bietet AMD sogar ein noch schlechteres Gesamtpaket.

Und ja Idle-Stromverbrauch nervt mich - Geldverschwendung ist eines, aber gerade im Sommer will ich wenn ich am PC arbeite nicht noch mal 50-100W mehr rausblasen als nötig. Denn auch hier gilt: Ist bei mir 30° aufwärts muss ich nicht am PC zocken, da kann ich Freizeit anders verbringen. Aber arbeiten? Muss ich. Da brauche ich keinen PC der einen Nebenjos als Heizlüfter hat weil er seinen Durst nicht beherrschen kann.
Das Problem - der Verbrauch wird ja nicht rausgeballert weil man mehr Leistung bekommt. Nein, es geht um Dinge die man seit Jahrzehnten macht. Am PC arbeiten, YT schauen, 2 Monitore dran hängen haben.
Das AMD da inzwischen säuft ohne Ende ist für mich absurd².

Stromverbrauch per Se ist nicht "böse" - eine 4090 haut viel Strom raus, liefert aber brachial Leistung.
Aber wenn Hardware Strom beim ideln raushaut habe ich darauf keinen Bock.
Vor allem wenn die Karte dem nvidia-Konkurrenten ansonsten in jeder Hinsicht unterlegen ist.
Warum soll ich denn die 7900XTX kaufen? Kostet nach 2-3 Jahren das gleiche, kann (teils deutlich) weniger.
Geiler Deal. Not.

Und wir reden im Vergleich von einer völlig überteuerten 4080 - nicht von einem tollen Deal den Nvidia gemacht hat und den AMD nicht ganz erreicht.
Nein, die 7900XTX kämpfte gegen eine völlig absurd überteuerte Karte - fast schon ein Win by default.
Wie kann man ernsthaft einen Konkurrenzkampf gegen ein Produkt verlieren, das mal kurz seinen Preis fast verdoppelt hat?
Es ist mir völlig schnuppe, ob AMD an eine 4090 rankommt was die Performance angeht.
Das ist nicht schlimm wenn das nicht klappt.
Aber es kotzt mich an, dass AMD es nicht schafft das mieseste Angebot seit es Grafikkarten gibt (also die 4080) zu schlagen.
Sondern unterm Strich sogar noch schlechter dazustehen.
Getreu dem Motto: Wenn wir schon nicht Ersten bei der Leistung sind, lassen wir es uns wenigstens nicht nehmen das miese nvidia Produkt noch mal zu unterbieten und eine noch miesere Karte zu liefern.

Danke für nichts AMD.
 
Jeder hat halt zu RT, vielleicht auch je nach Geldbeutel, seine eigene Meinung.
Was mir fehlt ist das RT erstmal nichts heißt, ich finde ein Red Dead Redemption 2 wesentlich ansprechender mit vorgebackener Beleuchtung, wie ein Cyberpunk mit RT, man sieht einfach wieviel Mühe sich Rockstar da gegeben hat.
Davon ab ist mir völlig Laterne ob die Beleuchtung 1000% der Realität entspricht.

Von der Beleuchtung mal ganz abgesehen fehlt mir allgemein in aktuellen Spielen aber die Interaktion bzw. Physik, wir haben Multi-Core CPUs und dicke Grafikkarten, aber Physik und Physikeffekte sind in den meisten Games völlig rudimentär.
Warum gibt es nicht mehr sowas wie Red Faction Guerilla, wo man einfach mit dem Auto in das Haus braten kann, bei Battlefield 2042 haben sie die Physik im Vergleich zu früheren Titeln auch zurückgefahren.
Meist läuft man durch völlig statische Welten und kann froh sein wenn mal irgendwo etwas abbröckelt, etwas von einem Tisch fällt oder als Highlight wirklich mal ein Tisch kaputt geht.

Geht vielleicht auch nur mir so....
Nein, das geht nicht nur dir so. Es sollte viel mehr Wert darauf gelegt werden. Es gibt in der Vergangenheit mehrere Höhepunkte der Spielewelten, wo Games wirklich mal eine komplexe Umwelt haben/hatten. Aber in den letzten Jahren wurde alles eher zurück gefahren.

Dabei wundert man sich, warum 8 Kerne, mit 8 Threads weiterhin mit zu den schnellsten gehören.

Ich finde es eine Frechheit, das ein Battlefield auch heute noch nicht wieder auf dem Höhepunkt ist, im Vergleich zu älteren Teilen. Oder das jemals ein Crysis Nachfolger, von Teil 1 veröffentlicht werden konnte, mit schlechterer Physik.
 
Spricht halt in Summe für die 4080. Bessere Raytracingleistung + DLSS -> mehr Spiele in max. spielbar. In Summe muss man damit sagen, dass die Eigenschaften für die Geforce 4080 sprechen und der Preis dieser in Relation zur AMD Konkurrenz gar nicht so unverschämt ist. Und wir reden hier von einer Karte deren UVP sich gegenüber dem Vorgänger (3080) mehr als verdoppelte.
 
Nette Steigerung, aber meiner Meinung nach leider immer noch unzureichend. Wenn man Raytracing in Auflösungen oberhalb von Full HD gescheit nutzen möchte, sollte man sich keine Radeon kaufen. Für alles Andere sind die Karten definitiv gut zu gebrauchen.
 
Die gleichen Diskussionen wir vor 2 Jahren bei RX6000er vs RTX 3000er.
"Man braucht auf jeden Fall RT"
"Raytracing ist die Zukunft"
"Nur die Leistung unter RT zählt"


sad escobarRT.jpg


Ich habe seit 2 Jahren eine RT fähige Grafikkarte und habe es bislang nur mal zum ausprobieren genutzt.
 
Die gleichen Diskussionen wir vor 2 Jahren bei RX6000er vs RTX 3000er.
"Man braucht auf jeden Fall RT"
Sagt keiner!
"Raytracing ist die Zukunft"
Sind sich alle einig!
"Nur die Leistung unter RT zählt"
Sagt auch keiner
Ich habe seit 2 Jahren eine RT fähige Grafikkarte und habe es bislang nur mal zum ausprobieren genutzt.
Gibt doch schon ein paar Spiele, die mit RT besser aussehen.
Schade für dich, das du ein recht speziellen Spielegeschmack zu haben scheints, wenn noch gar kein Spiel für dich dabei war.

Aber das wird bestimmt noch ;)
 
Ist doch letztendlich sowieso immer alles subjektiv. Mich lässt es beispielsweise völlig kalt, wenn mir jemand erzählt, was man angeblich braucht, was die Zukunft ist und was nicht. Ich schaue mir den Stand der Technik an und entscheide dann für mich entsprechend selbst.

Ich konnte mich noch nie für eine Technik so begeistern wie für Raytracing und ich zocke auch schon seit über 20 Jahren auf dem PC. Wenn das bei Anderen beim Thema RT nicht so ist, ist das doch völlig in Ordnung! Welcher Name auf dem Werkzeug steht, dass mir das ermöglicht, was ich möchte, ist mir auch völlig latte.

Ich hoffe nur wirklich sehr, dass AMD jetzt richtig Gas gibt, auch mal selbst innovativ wird und in ALLEN Bereichen zu Nvidia aufschließt und nicht in bestimmten Disziplinen immer 1-2 Generationen hinterher hängt. Selbes möchte ich für Intel. Das wäre für uns alle gut!
 
Zurück