BlubberLord
PC-Selbstbauer(in)
Also zusammenfassend:
Eine Steigerung der Rohleistung auf das 2,3-fache (3090 zu 4090: 35,6 zu 82,6 TFLOPS FP32) – enttäuschend
1,5 Mal so viele RT-Rechenkerne mit erheblicher Effizienzsteigerung (und Taktsteigerung) – enttäuschend
AMD hat ebenfalls riesige Schritte nach Vorne gemacht.
Der Streit zwischen Rasterisierung und Pathtracing scheitert ganz klar ohne eine Zielstellung:
Soll es realistische Grafik sein? Dann ergibt Rasterisierung keinen Sinn. Der Aufwand für realistische Ergebnisse ist viel zu hoch.
Pathtracing bietet die physikalisch korrekte Simulation von Licht. Das ist rechenintensiv, aber dann automatisch "realistisch".
All die Arbeit, die da rein gesteckt wird, aus in unterschiedlichen Durchläufen aufeinander gestapelten separaten Effekten eine "ansprechende" Grafik zu bekommen, könnte mit Pathtracing in schönere Assets, besseres Gamedesign und Optimierung gesteckt werden.
Lieber hätte ich eine physikalisch reale Grafik (Beleuchtung), die dafür intern in geringer Auflösung berechnet wird, die rauscht und ein paar Artefakte hat – aber dafür die Vorteile auf Entwicklerseite sowie eben Photorealismus.
Hier hat jemand geschrieben, dass das "Hinzuerfinden" von Pixeln von einer niedrigeren Auflösung schummeln sei, weil es ja die "wahren" Informationen reduziert im Vergleich zum nativen Bild.
Da habe ich lieber ein "wahres" Bild als Grundlage, aus dem dann noch ein paar Pixel erfunden werden, als ein Bild mit komplett geschummelter Beleuchtung – dafür nativ in jedem Pixel.
Mir ist klar, dass wir noch nicht ganz da sind. Aber ich finde den Weg über Pathtracing + KI-Bereinigung die beste Lösung zum Ziel Photorealismus.
Eine Steigerung der Rohleistung auf das 2,3-fache (3090 zu 4090: 35,6 zu 82,6 TFLOPS FP32) – enttäuschend
1,5 Mal so viele RT-Rechenkerne mit erheblicher Effizienzsteigerung (und Taktsteigerung) – enttäuschend
AMD hat ebenfalls riesige Schritte nach Vorne gemacht.
Der Streit zwischen Rasterisierung und Pathtracing scheitert ganz klar ohne eine Zielstellung:
Soll es realistische Grafik sein? Dann ergibt Rasterisierung keinen Sinn. Der Aufwand für realistische Ergebnisse ist viel zu hoch.
Pathtracing bietet die physikalisch korrekte Simulation von Licht. Das ist rechenintensiv, aber dann automatisch "realistisch".
All die Arbeit, die da rein gesteckt wird, aus in unterschiedlichen Durchläufen aufeinander gestapelten separaten Effekten eine "ansprechende" Grafik zu bekommen, könnte mit Pathtracing in schönere Assets, besseres Gamedesign und Optimierung gesteckt werden.
Lieber hätte ich eine physikalisch reale Grafik (Beleuchtung), die dafür intern in geringer Auflösung berechnet wird, die rauscht und ein paar Artefakte hat – aber dafür die Vorteile auf Entwicklerseite sowie eben Photorealismus.
Hier hat jemand geschrieben, dass das "Hinzuerfinden" von Pixeln von einer niedrigeren Auflösung schummeln sei, weil es ja die "wahren" Informationen reduziert im Vergleich zum nativen Bild.
Da habe ich lieber ein "wahres" Bild als Grundlage, aus dem dann noch ein paar Pixel erfunden werden, als ein Bild mit komplett geschummelter Beleuchtung – dafür nativ in jedem Pixel.
Mir ist klar, dass wir noch nicht ganz da sind. Aber ich finde den Weg über Pathtracing + KI-Bereinigung die beste Lösung zum Ziel Photorealismus.