GPUs laut Nvidia-Manager noch weit von Echtzeit-Raytracing und photorealistischer VR entfernt

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu GPUs laut Nvidia-Manager noch weit von Echtzeit-Raytracing und photorealistischer VR entfernt

Die visuelle Qualität von Spielen steigert sich nahezu jährlich. Gerade auf dem PC macht sich das dank leistungsstärkerer Hardware bemerkbar. Für Nvidia-Manager Richard Cameron sei man aber noch sehr weit davon entfernt die Grenzen auszuloten. Bis man wirklich auf dem Höhepunkt der Computer-Grafik angekommen ist, dauert es in seinen Augen noch sehr viele Jahre.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: GPUs laut Nvidia-Manager noch weit von Echtzeit-Raytracing und photorealistischer VR entfernt
 
Ich erinnere mich an eine Raytracing-Demo für Intel-CPUs, die schon ein paar Jahre auf dem Buckel hat und garnicht so schlecht aus sah. Mir scheint fast, die GPU-Hersteller wollen die Berechnung für Raytracing auf Grafikkarten nicht beschleunigen, sonst hätte sie doch längst mehr in dieser Richtung getan.
Ich bezweifle, das 40-mal mehr Rechenleistung ausreicht um Realität und Virtualität nicht mehr unterscheiden zu können. Aber möchte man das auch wirklich?
 
Also ich möchte das haben! Klar kann man sagen, dass auch die jetzige Grafik ausreicht. Aber wenn ich mich entscheiden könnte, dann würde ich immer die bessere Grafik bevorzugen.

Aber wenn man annimmt, dass "nur" 40-Mal stärkere Grafikkarten benötigt würden, wie lange dauert es dann bis dahin? Derzeit gibt es ja keine Verdopplung der Rechenleistung. Vielleicht könnte man Anfang 2030 damit rechnen? Selbst das wage ich zu bezweifeln..
 
Ich erinnere mich an eine Raytracing-Demo für Intel-CPUs, die schon ein paar Jahre auf dem Buckel hat und garnicht so schlecht aus sah. Mir scheint fast, die GPU-Hersteller wollen die Berechnung für Raytracing auf Grafikkarten nicht beschleunigen, sonst hätte sie doch längst mehr in dieser Richtung getan.
Ich bezweifle, das 40-mal mehr Rechenleistung ausreicht um Realität und Virtualität nicht mehr unterscheiden zu können. Aber möchte man das auch wirklich?

so siehts aus. ist raytracing einmal da, gibts praktisch kaum noch eine steigerung, warum sollte man danach noch neue grafikkarten kaufen.. ich denke auch dass wir "noch viele jahre" warten müssen, bis sich grafikkartenhersteller den ast absägen, auf dem sie sitzen ^^

wobei bisheriges rendering über dreiecke auch irgendwie kaum weiterkommt, andere ansätze wie voxelbasiertes rendering wird aber konsequent von den hardwareherstellern ignoriert. ich will kickstarterprojekte für neue pc-gaming-hardware :D
 
so siehts aus. ist raytracing einmal da, gibts praktisch kaum noch eine steigerung, warum sollte man danach noch neue grafikkarten kaufen.. ich denke auch dass wir "noch viele jahre" warten müssen, bis sich grafikkartenhersteller den ast absägen, auf dem sie sitzen ^^

wobei bisheriges rendering über dreiecke auch irgendwie kaum weiterkommt, andere ansätze wie voxelbasiertes rendering wird aber konsequent von den hardwareherstellern ignoriert. ich will kickstarterprojekte für neue pc-gaming-hardware :D

Voxel werden viel verwendet und wurden auch viel weiterentwickelt.
Nur werden diese nahezu nie zur direkten Darstellung verwendet weil die kubische Struktur dafür zu viele Nachteile hat.
Voxel werden meist zur Berechnung verwendet aber die Darstellung erfolgt über die bekannten Dreiecke (Voxelbasiertes Rendering). Gab es im PCGH Heft vor ein paar Ausgaben eine schöne Info dazu.
 
Ich erinnere mich an eine Raytracing-Demo für Intel-CPUs, die schon ein paar Jahre auf dem Buckel hat und garnicht so schlecht aus sah. Mir scheint fast, die GPU-Hersteller wollen die Berechnung für Raytracing auf Grafikkarten nicht beschleunigen, sonst hätte sie doch längst mehr in dieser Richtung getan.
Ich bezweifle, das 40-mal mehr Rechenleistung ausreicht um Realität und Virtualität nicht mehr unterscheiden zu können. Aber möchte man das auch wirklich?

Also ich zumindest möchte das. :daumen: Gut, ok, eigentlich würde ich ein "direkteres" Interface á la Matrix noch bevorzugen... aber das wird wohl noch etwas länger dauern und vorläufig auch nicht auf alt zu viel Akzeptanz stoßen.
 
Ich finds immer noch spannend wohin die Reise geht, aber ich glaub mir wird niemals mehr so die Kinnlade runterklappen, wie beim ersten mal als ich ein Spiel mit 3dfx gestartet hab.

Realistischere Darstellung gibt's ja teilweise schon durch Mods. Fand gerade die Videos von GTA5 und Battlefront echt verblüffend.
YouTube
 
Ich finds immer noch spannend wohin die Reise geht, aber ich glaub mir wird niemals mehr so die Kinnlade runterklappen, wie beim ersten mal als ich ein Spiel mit 3dfx gestartet hab.

Realistischere Darstellung gibt's ja teilweise schon durch Mods. Fand gerade die Videos von GTA5 und Battlefront echt verblüffend.
YouTube

Das sieht für mich absolut nicht realistisch aus. Der zu kleine Dynamikumfang soll durch zu hohen Kontrast ausgeglichen werden, das Bild ist total überschärft und die daraus entstehenden Artefakte täuschen Details vor. Wie ein überbearbeitetes Handyfoto.

Das mag für jemanden ansprechend aussehen und das ist ja auch ok, aber es ist nicht realistisch.

Es gibt sehr realistische Renderszenen in Techdemos, die sind halt nur statisch und klein.
 
Ich weiß noch wie ich 1991 mit der Schule in Paderborn war und wir an der Universität den Fachbereich Datentechnik besucht haben. Da haben sie an einem damaligen Multiprozessorsystem Raytracing, oder vielmehr eine Vorstufe dazu vorgeführt.
Wenn ich dagegen eben betrachte wie sich schon alles entwickelt hat... Ich fand es damals total faszinierend was in 2,5 Minuten berechnet wurde. Naja, heutzutage schaffen Handys mehr und das mit genug fps um flüssig zu erscheinen.
Irgendwie schon verrückt.
Deswegen denke ich auch, daß im Grafik erreicht da noch einiges in den nächsten Jahren passieren wird. Nicht unbedingt so viel was Qualität angeht, aber bezüglich dessen was in Echtzeit an Komplexität möglich ist.
 
Das sieht für mich absolut nicht realistisch aus. Der zu kleine Dynamikumfang soll durch zu hohen Kontrast ausgeglichen werden, das Bild ist total überschärft und die daraus entstehenden Artefakte täuschen Details vor. Wie ein überbearbeitetes Handyfoto.

Das mag für jemanden ansprechend aussehen und das ist ja auch ok, aber es ist nicht realistisch.

Es gibt sehr realistische Renderszenen in Techdemos, die sind halt nur statisch und klein.

Ich finds halt nur cool dass ich jederzeit pausieren könnte, und das Bild aus nem Filmtrailer stammen könnte. Geht's nur mir so?
 
Na gut. Nvidia die Technologiebremse hängt ja auch noch bei DX11 fest bzw möchte dort am liebsten aus wirtschaftlichen Gründen bleiben. Selbst wenn AMD rytracing ermöglicht wird's wohl aus dem oben genannten Grund nix.:ugly:
 
Ich erinnere mich an eine Raytracing-Demo für Intel-CPUs, die schon ein paar Jahre auf dem Buckel hat und garnicht so schlecht aus sah. Mir scheint fast, die GPU-Hersteller wollen die Berechnung für Raytracing auf Grafikkarten nicht beschleunigen, sonst hätte sie doch längst mehr in dieser Richtung getan.[...]
Die Frage ist halt immer, wie und was man mit Raytracing berechnen will.
Erstmal ist das Problem, dass es nicht "Das Raytracing" gibt, sondern eben viele Verfahren, die bei unterschiedlichen Szenen Vor- und Nachteile haben. Pathtracing eignet sich zum Beispiel bei Outdoorszenen mit viel Himmel. Da werden nur von der Kamera Strahlen in die Szene geschossen, wenn ein Strahl in den Himmel umgelenkt wird, gilt er als beendet und die Pixelfarbe steht unmittelbar fest. In verwinkelten Indoor-Szenen mit viel indirekter Beleuchtung und vielen Kaustiken ist Path Tracing zwar in erster Instanz auch schnell, die Lichtbündelungen der Lichtquellen brauchen aber sehr lange, um vernünftig aufgelöst zu werden (die Wahrscheinlichkeit, dass ein von der Kamera ausgehender Strahl irgendwann indirekt über mehrere Bounces in der Lichtquelle landet, ist in der Regel sehr, sehr gering). Da nutzt man Bidirektionales Path-Tracing. Dieser Algorithmus ist generell deutlich langsamer, sucht aber zwischen Kamera und Lichtquelle gezielt nach möglichen Bounces und schafft indirekte Beleuchtung etc. deutlich schneller.
Des weiteren muss sich jeder Grafiker beim Rendern überlegen, welche Effekte er überhaupt raytracen will. Man bekommt alle Effekte mit einem Algorithmus hin, das ist natürlich super, aber wenn man Schatten, Ambient Occlusion, Spiegelungen, Brechungen, Indirekte Beleuchtung, ... alles über Raytracing berechnen lassen will, explodiert die Anzahl der notwendigen Rays - und damit auch die Rechenzeit. Mit zu viel Raytracing bekommt man jeden Rechner klein. Entweder, man hat so viel überschüssige Rechenleistung, dass das gar keine Rolle mehr spielt (damit ist in naher Zukunft nicht zu rechnen),oder man beschränkt die Anzahl der Rays, wodurch die Bildqualität im Zweifel in die Knie geht - oder man macht bis auf Weiteres einen Hybrid-Ansatz, was ich persönlich für am Wahrscheinlichsten halte: Spiegelungen und Lichtbrechungen - maximal 2-3 Bounces - werden beispielsweise über Raytracing berechnet, der Rest klassisch über Rasterisierung.
Und in letzter Instanz ist es natürlich auch immer eine Frage nach dem Sinn und Zweck. Wir haben keinen Sinn, der ermitteln kann, ob eine gerenderte Lichtbrechung physikalisch korrekt berechnet wurde, oder eben nicht. Daher ist es in den meisten Fällen absolut okay, die Effekte über Rasterisierung "hinzubescheißen". Um die "Realitätstreue" aktueller Spiele in Raytracing umzusetzen, bräuchte man jedenfalls ein Vielfaches der Rechenleistung, wie sie in den schnellsten erhältlichen Consumer-PCs zu haben ist.
gRU?; cAPS
 
Na gut. Nvidia die Technologiebremse hängt ja auch noch bei DX11 fest bzw möchte dort am liebsten aus wirtschaftlichen Gründen bleiben. Selbst wenn AMD rytracing ermöglicht wird's wohl aus dem oben genannten Grund nix.:ugly:

Errrm, wenn dann ist AMD die Technologiebremse.

Du solltest dich evtl damit beschäftigen welcher GPU Hersteller am meisten in Vulcan investiert und da am meisten mitmischt.

Spoiler: Es ist nicht AMD.


Und einige Raytracing verfahren brauchen in der tat einiges an Rechenleistung. Und eine Hoch Optimierte Demo für eine CPU sollte man da nicht als Maßstab nehmen.
 
Jetzt ist Ihre Meinung gefragt zu GPUs laut Nvidia-Manager noch weit von Echtzeit-Raytracing und photorealistischer VR entfernt
Heißa und Hurra, ja, natürlich, wir werden in Treue noch viele Generationen völlig überteuerter Grafikkarten kaufen, bedenkt man einen EBIT um 40% bei Nvidia, damit die goldene Nase noch güldener wird. Es gäbe zwar auch andere Wege, z.B. selektive Genauigkeit im scharfen Sichtfenster des Spielers und damit enorme Reduktion des Rechenaufwandes in peripheren Bereichen, aber was hätte Nvidia davon, wenn Spieleentwickler mit den vorhandenen Ressourcen optimal umgehen würden?

Klotzen, nicht kleckern!
 
Zuletzt bearbeitet von einem Moderator:
Heißa und Hurra, ja, natürlich, wir werden in Treue noch viele Generationen völlig überteuerter Grafikkarten kaufen, bedenkt man einen EBIT um 40% bei Nvidia, damit die goldene Nase noch güldener wird. Es gäbe zwar auch andere Wege, z.B. selektive Genauigkeit im scharfen Sichtfenster des Spielers und damit enorme Reduktion des Rechenaufwandes in peripheren Bereichen, aber was hätte Nvidia davon, wenn Spieleentwickler mit den vorhandenen Ressourcen optimal umgehen würden?

Klotzen, nicht kleckern!

Joa, die Aussage, dass man aktuell noch Größenordnungen von der benötigten Rechenleistung weg ist, ist ja auch viel zu abwegig. Bestimmt hat man die Rechenleistung in den geheimsten Geheimlabors von Nvidia schon auf einem 1 Watt-Chip erreicht, aber da man damit keine Kunden melken kann, wird die Technologie von Nvidia zurückgehalten. :schief:
Es geht hier ja nicht um den Faktor 1,5, den man optimistisch vielleicht mit den angesprochenen Techniken erreichen könnte. Es geht um Faktor 100. Ich persönlich glaube, dass selbst das sehr optimistisch ist.
gRU?; cAPS
 
Ich erinnere mich an eine Raytracing-Demo für Intel-CPUs, die schon ein paar Jahre auf dem Buckel hat und garnicht so schlecht aus sah. Mir scheint fast, die GPU-Hersteller wollen die Berechnung für Raytracing auf Grafikkarten nicht beschleunigen, sonst hätte sie doch längst mehr in dieser Richtung getan.
Ich bezweifle, das 40-mal mehr Rechenleistung ausreicht um Realität und Virtualität nicht mehr unterscheiden zu können. Aber möchte man das auch wirklich?
Raytracing kam halt damals auf als Versuchsprojekt (soweit ich mich erinnere) aber habe das dann auch nicht weiter verfolgt weil glaube ich werde das im echten praxis(gaming)leben nicht mehr eleben.

Ob man das wirklich will?
https://www.extremetech.com/wp-content/uploads/2013/07/Tree_A06.03B.jpg
Mal ein Bild aus dem Jahr 2013, mit so einer Grafik würdest du nicht spielen wollen?!

Aber wenn man annimmt, dass "nur" 40-Mal stärkere Grafikkarten benötigt würden, wie lange dauert es dann bis dahin? Derzeit gibt es ja keine Verdopplung der Rechenleistung. Vielleicht könnte man Anfang 2030 damit rechnen? Selbst das wage ich zu bezweifeln..
Ich nehme mal ab das es nicht nur alleine an den 40x mehr Leitung liegt, Technisch gesehen.
Nehmen wir mal die aktuell stärkste Karte (glaube die 1080) multiplizieren die Leistung mal 40 ... soweit so gut ... was ist mit der Energie die dann so eine Karte benötigt, die Abwärme, Kühlung etc pp. Sollen die Leute sich nen Kraftwerk und ein Kühlturm zu Hause hinstellen? :D


wobei bisheriges rendering über dreiecke auch irgendwie kaum weiterkommt, andere ansätze wie voxelbasiertes rendering wird aber konsequent von den hardwareherstellern ignoriert. ich will kickstarterprojekte für neue pc-gaming-hardware :D
Stimme ich zu, aktuelle Methoden werden nur noch verfeinert.

Ich selbst habe bisher nur 2 oder 3 Spiele auf Voxelbasis gespielt und das ist schon ewig her - Delta Force, Delta Force II und Outcast - und wenn mich recht erinnere sahen die Spiele sowas von gorttig mit diesem Voxel aus.
Ich muss zugeben das ich mich auch über die Möglichkeiten von Voxel nicht informiert habe.
 
Da bin ich ja mal wirklich gespannt. Allerdings denke ich nicht, dass man wirklich schon so viel Rechenleistung benötigt. Aber deutlich mehr brauchen wir auf jeden Fall.
 
Zurück