Aber kann man es den Leuten verübeln?
Seit nunmehr zwei Generationen wird und wurde RT hier im Forum massiv angepriesen, wirklich sinnvoll ist es erst seit DLSS 2.3 da ist, vorher war es eben ob NV oder AMD nicht nutzbar. Mit der 4090 ändert sich das in meinen Augen. Daher kann ich schon den einen oder anderen verstehen (sehe es ja im Grundsatz selber so), der RT (nich) nichts abgewinnen kann. Letztlich wird hier auch sehr viel auf ein Spiel, in deren Umsetzung RT wirklich mal gut ist, abgestellt ist, als zweites Argument kommt dann, dass es schon 200 Spiele gibt und alle Triple A (MWII?) Spiele damit kommen. Dabei wird immer wieder vergessen, dass von den 200 Spielen die es geben mag, 95% für die allermeisten User uninteressant sind, 90% eine nicht wirklich gelungene Umsetzung von RT bieten und 50% auch mit bisheriger Hardware nicht wirklich gut liefen! Bleiben am Ende vieleicht 10 Spiele übrig die im Kontingent sind, wo es sich lohnen würde über RT nachzudenken.
Ja, ich stehe der Technik noch sehr skeptisch gegenüber und fühle mich teilweise an die wilden 3D Hypezeiten erinnert! Oder PhysX war auch mal so eine Erfindung, die sich letztlich zwar durchgesetzt hat, aber eben nie so wie man es erwartet hat. Ja, RT wird sich durchsetzen, aber wenn es ähnlich PhysX läuft (wo Verrückte wie ich sich extra eine zweite GPU gekauft haben, die nur die PhysX Effekte berechnen sollte) wird sich das ganze erst durchsetzen, wenn es im Mainstream möglich ist und da sind bei solchen Preisen wie aktuell, bald eher Karten eie eine 4030 / 7300 zu erwarten.
P.S.
Ich habe erst zwei Spiele gespielt, in denen ich RT richtig gut fand, CB2077 und Dying Light. In allen anderen Spielen (bspw. F1 2021) bemerke ich es einfach nicht und empfinde den Performanceverlust in keiner Relation zum Grafikgewinn (gut, bin ja auch AMD User aktuell und daher mehr betroffen). Aber am Beispiel Dying Light möchte ich noch hinzufügen, dass eine 3090 (non TI) mir nicht ausreichen würde um zu spielen. DLSS ist dort eine Katastrophe und "schmiert" wie Sau, ohne DLSS und mit RT MAX ist es aber schon nahezu unspielbar (meine im Kopf zu haben, dass es damals die Percentils waren und gar nicht die AverageFPS; war aber nicht mein Rechner und ich hab mir das nur mal angeschaut, weil der Kollege schon dachte, sein Monitor wäre hin)
Ja, natürlich kann man es den Leuten verübeln.
RT wurde hier nie im Forum angepriesen. Es wurde verteidigt, gegenüber dem als Nichtigkeit abtun. So ist meine Wahrnehmung dazu.
Auch finde ich nicht, das es erst seit DLSS2.3 nutzbar ist. Für mich ist es wie bei allen technischen Weiterentwicklungen bei Grafikkarten.
Umgebungsverdeckung, oder Tessellation waren anfangs auch extrem hungrig für den optischen Nutzen. Das ist nunmal so.
Ich selber habe gespielt und war positiv von der Optik angetan, durch RT Metro Exodus, Deathloop, Guardians of the Galaxy, Cyberpunk, Dying Light 2, CoD MW...
Meine Sichtweise ist weit weniger negativer, genau wie damals bei anderen Neuerungen.
RT muss sich nicht durchsetzen, da sich schon längst die Hersteller einig sind, das es die Zukunft ist (auch die Softies). Wenn ich sehe, wie gut eine 3060TI, oder 3070 in 1080p schon RT kann (oder besser gesagt gut genug) dann sollte das mit der kommenden Gen RTX4000 und RX7000 schlussendlich in der Masse ankommen. Ich rede jetzt nicht von den uralten Gurken.
Nicht ganz richtig.
Denn seit Nvidia SLI nutzt, ist es schon so, dass beide (bzw. 3 oder 4) Grafikkarten die gleichen Informationen im Speicher haben müssen und sich der Gesamtspeicher nicht vermehrt - steht so auch in jedem SLI Test seit Übernahme von 3Dfx durch Nvidia, da eigentlich nur 3DFX SLI für Halbbildberechnungen nutzte.
SLI und Crossfire sind gestorben, weil temporale AA Methoden eine abwechselnde Bildberechnung durch 2 Grafikkarten unmöglich machen.
Immerhin brauchen diese AA Methoden die Inflormationen aus den älteren Bildern, um AA im neuen Bild zu schaffen.
Bei SLI (und Crossfire) Karten fehlt genau das vorhergehende Bild und damit die Chance, temporale AA Methoden zu nutzen
Das Board dürfte kaum teurer sein. Sie haben ungefähr gleiche Bedingungen dafür - bis auf die RAM Chips.
Durch den einen 12 Pin Anschluss ist das Boarddesign sogar noch einfacher, als mit 2-3x 8 Pin Stecker.
Beim Kühler sind sie selbst Schuld.. sie haben auf 600W hin entwickelt und brauchten einen entsprechenden Kühler. Dass sie erst NACH der Herstellung der Werkzeuge für die Kühler bemerkten, dass die Karte auch bei deutlich weniger Stromaufnahme viel Leistung bringt, ist dann eher auf schlechtes Projektmanagement zurückzuführen.
Ist SLI nicht gestorben, weil zu wenig interesse bestand, wenn der Balken sich nicht annährend verdoppelt
SLI wie wir drüber reden ist der AFR Modus, in denen genau wie du sagst jede Karte abwechselnd Bilder rechnet und damit die Probleme mit dem temporalen AA´s hat.
SLI bietet aber auch die Möglichkeit (SFR) mehrere GPUs an einem Bild rechnen zu lassen. SFR hat aber den Benchmarkbalken nur um 30-60% verlängert, gegenüber 50-90% bei AFR.
Ungeachtet dessen, das die Spielbarkeit so eigentlich beim SFR sogar besser war, als beim AFR weil die Frametimes gleichmäßiger waren und das trotz deutlich geringerer Fps. Das ist aber nie beim Kunden angekommen. Der hat nur gesehen, Balken kürzer = schlecht.
Aus heutiger Sicht, gibt es wenig gute Gründe für mGPU. Da mGPU mit der selben Rohleistung immer etwas langsamer bleibt, als in einer GPU. Es gibt zu wenig Leute die sich zwei RTX4090 in den Rechner pappen würden.
Auch da würden sich 10-30 Kunden finden lassen in DE
(auch wohl 100-200) Aber das reicht nicht, um das sich ein Hersteller da nochmal ran macht.
Ich hätte gern beides gesehen - eine 7900XT auf RTX4090 Niveau und eine 7800XT für die RTX4080.
Aktuell ist halt ziemliches Chaos.
- Eine RTX4080 die wahrscheinlich viel zu langsam für den Namen ist (neue 80er nur auf alter 90er Niveau)
- Eine andere RTX4080 die eigentlich ne 4070 ist (und wohl auch als solche kommt) und eigentlich auch zu langsam dafür ist
- Eine RTX4090 die unangreifbar schnell und daher beliebig teuer ist - und gelegentlich rumschmort
- Eine 7900XTX die die 4090er angreifen sollte, es aber nicht schafft und stattdessen gegen die 4080 antreten muss
- Eine 7800XT die kaum am Horizont sichtbar ist
...all das in Preisregionen die von Normalität für größeres Publikum (= unter 500€) Welten entfernt sind.
Ich finde das alles zwar rein technisch spannend aber ansonsten völlig "kaputt".
Ganz ehrlich, wenn ich jetzt eine Kaufentscheidung treffen müsste würde ich meine 2080 verkaufen, eine RTX4090 kaufen, die auf <= 300W einstellen und (wieder) mindestens 4-5 Jahre laufen lassen.
Das zeichnet die Probleme schon sehr gut ab
Jedoch wenn ich eine Kaufentscheidung treffen müsste, dann würde ich um 500€ das beste P/L Verhältnis für meine Ansprüche (Auflösung, Speicher, RT, oder was auch immer) suchen und kaufen. Danach abwarten, bis es wieder etwas mit mindestens 30%, oder mehr schneller ist, mehr Speicher hat, eine höhere RT Leistung bietet und das für wieder um 500€.
Nennt mich gerne Low End zocker, oder so. Aber mir ist erstens, jeder Preis über UVP eine Frechheit und zweitens, eine GPU nicht so viel Wert. Bei der 3080 zu Release, zur UVP hätte ich mit 699€ eine Ausnahme gemacht...