Die Sinnhaftigkeit von aktuellen Enthusiasten GPUs findet man eigentlich nur noch auf Marketingpräsentationen wieder aber leider nicht mehr in der Realität, weswegen sich die Entwicklung von der tatsächlichen Wirklichkeit zusehenst entkoppelt, sowohl in der sinnvoll nutzbaren Leistung, als vor allem auch im Preis Leistungsverhältnis.
Es ist immer wieder faszinierend, wie viele hier denken, dass die Optik mit der verfügbaren Leistung linear korreliert.
Dem ist nicht so. Du musst übermäßig viel Leistung reinstecken, um die Optik minimal zu verbessern und das wird mit jedem Sprung krasser.
Wie kannst du also beurteilen, ob etwas schlecht optimiert ist? Weil es optisch für dich so aussieht? Aha, klar doch.
Mir fällt nur ein Spiel ein, bei dem man wirklich sagen kann, dass es beschissen oder gar nicht optimiert ist und das ist Cities Skyline 2.
Ansonsten kannst du mir gern ein paar Gegenbeispiele nennen und mir erklären, woran du dort fest machst, dass sie schlecht optimiert sind. Ein "die Optik entspricht nicht der Leistung" reicht mir hier nicht.
Das Übel heißt Raytracing.
Jeder will es, keiner kann es sich leisten.
Das Motto lautet deshalb: "Raytrace now - Compute later".
Dir ist klar, dass auch bei deinem Liebling Rasterization das "Compute later" Gang und gäbe ist?
Also greift man tief in die Trickkiste um ein Spiel mit RT-RT irgendwie über den Berg zu bekommen.
Bis die Rohleistung in HW vorhanden ist, um 720p mit ausreichend Samples in 16ms auf den Monitor bekommen, wird es noch etliche GraKa-Generationen dauern.
Und warum ist das ein Problem? Bei Raster wurde seit jeher getrickst (SSR oder Cubemaps z.B.) und niemanden hats gestört, aber bei RT geht das auf einmal gar nicht. Scheinheiliges Argument.
Deswegen spielt man lustiges Bilderrätsel mit einer KI, drückt kräftig an der Pumpe um Frames aufzublasen und schmiert fleißig Vaseline auf den Monitor um Artefakte zu kaschieren.
Sag mir, dass du keine Ahnung von DLSS und co. hast ohne mir zu sagen, dass du keine Ahnung von DLSS hast.
Das war bei Version 1 so, aber seit Version 2 wird da nichts per KI hinzugedichtet. Das wüsstest du, wenn du dich informieren würdest, anstatt stumpf zu haten
Artefakte gab und gibt es auch bei Rasterization, aber hey, das ist halt unser Liebling, ne?
Und die Spieleschmieden weigern sich auch beharrlich mit der vorhanden Rohleistung etwas hauszuhalten.
Wie kommst du zu der Annahme? Weil das Spiel nicht die FPS liefert, die du erwartest? Oder weil du mit der 3060 nicht alle Regler auf Anschlag drücken kannst?
Da verschleudert man gerne schon das Performance-Budget einer "6090" wo doch die "5090" noch nicht einmal auf dem Markt ist und eine 4090 aus dem letzten Loch pfeift.
In welchem Spiel ist das denn der Fall? Es gibt nichts, was nicht in 4K mit 60 FPS auf der 4090 läuft. Vor RT fähigen Karten waren 4K 60 FPS nicht mal mit Raster möglich, jetzt sind 4K 60 FPS auf einmal Schrott
Niemand sagt, dass es sich im Grundsatz nicht lohnt aber der Mehrwert gegenüber den deutlichen Mehrpreis hält sich doch arg in Grenzen. Es gibt auch viele Screenshot Vergleiche wo man kaum Unterschiede zwischen RT und nicht RT sieht oder RT hoch und rt low.
Es bleibt aber keine andere Möglichkeit. Du kannst die Grafik mit Rasterization nicht weiter steigern ohne übermäßig viel Leistung zu verpulvern und zwar viel mehr als mit RT.
Hast du jemals ein Spiel mit voll dynamischen weichen Schatten ohne RT gesehen, die nicht vorberechnet waren? Gibt es nicht, weil selbst ne 4090 einstellige FPS hätte. Mit RT geht das flüssig.
Also wie soll es nach deiner und
@Da_Obst Meinung weiter gehen? Weiter Raster ohne das grafische Niveau zu steigern oder der nächste Schritt?
Ihr jammert immer nur rum, aber Lösungen liefert ihr keine.