News Cyberpunk 2077: Pathtracing benötigt bis zu 40 Prozent mehr GPU-Rechenleistung

Mittlerweile bin ich mir nicht mehr sicher, ob RT wirklich standard wird. Nvida pusht zwar, aber die letzten Games mit RT waren ja allesamt krücken.
Raster ist mittlerweile nahezu an seine Grenzen gestoßen. Raytracing und Pathtracing sind die Zukunft.
Sie haben nicht offengelegt, auf welcher Stufe DLSS läuft.
Doch, im neuesten Behind the Settings Video wird gezeigt, dass die 100 Fps+ mit DLSS 3 im Performance Preset erreicht wurden.

Der Vergleich von 16 Fps zu 100 Fps+, den CDPR und Nvidia da mehrfach hervorheben, bezieht sich auf 4K Nativ vs. 4K DLSS 3 Performance.

Liebe Grüße Sven
 
Kann gut sein. es wird aber noch 10 Jahre dauern bis Hardware auch im low Budget Bereich das stemmen kann und bis dahin und darüber hinaus werden Raster fokussiert und Plath Tracing eine Zugabe für High End denk ich.
10 Jahre? Beinichten. 2-3 Gan maximal also 4-6 Jahre. Aber natürlich nicht nativ...
 
Mittlerweile bin ich mir nicht mehr sicher, ob RT wirklich standard wird.
Ja, die gebotene Raytracing Leistung ( Spitzenmodell ) der Grafikkarten entsprechen auch nicht meinen Vorstellungen.

- mit der RTX 2000 Serie nahm ich an dass es wenigstens für 1080p @60 FPS ( nativ ) reicht
- bei der RTX 3000 Serie sollte die Leistung doch schon für 1440p @60 FPS ( nativ ) reichen
- und schließlich die RTX 4000 Serie in der Lage sein Inhalte in 4K @60 FPS ( nativ ) wiederzugeben

Stattdessen stecken wir nach fast 5 Jahren "Weiterentwicklung" leistungstechnisch im 1080p Raytracing-"Loch" fest.
Also wird es bei dem Tempo bestimmt noch weitere 5 Jahre dauern bis uns diese Raytracingleistung zu fairen Preisen angeboten wird.
 
10 Jahre? Beinichten. 2-3 Gan maximal also 4-6 Jahre. Aber natürlich nicht nativ...
Low Budget in 4 Jahren, bei einer Steigerung von 20-40% pro Gen wird das nichts. Es sei den low Budget frisst dann auch über 300W. Mit DLSS4 oder so. Dann haben sie nur noch 40% des originalen Bildmaterials, der Rest wurde Skaliert und Hinzuberechnet ;). Ich denke 6 Jahre minimum, wir werden es sehen.
 
Kann gut sein. es wird aber noch 10 Jahre dauern bis Hardware auch im low Budget Bereich das stemmen kann (…)
Ich glaube nicht, dass das so lange dauern wird. In etwa 5 Jahren sollten wir soweit sein. Meine Einschätzung bezieht sich allerdings auf AAA-Spiele.

Kleinere Projekte, Indie, eSports und Competative werden sicher noch länger auf Raster setzen.

Wenn man sieht, dass GeForce Now mit der RTX 4080 ein Cyberpunk 2077 mit Pathtracing schon jetzt sehr gut stemmen kann, weiß man wohin die Reise geht.

Die Absatzzahlen von Grafikkarten sind auf dem niedrigsten Niveau seit Erhebung der Zahlen. Noch nie wurden weniger GPUs verkauft als im letzten Quartal.

Im Vergleich zu 2007 beträgt der Grafikkartenabsatz nur noch rund 1/5.

Wo 2007 noch 29 Mio. dedizierte Grafikkarten im Quartal verkauft wurden, sind es 2022 nicht einmal mehr 7 Mio. gewesen.

Definierte Grafikkarten, DIY-Systeme & Co. spitzen sich mehr und mehr auf die Oberklasse und High-End zu.

Man sieht doch schon heute wie stiefmütterlich Nvidia und AMD die Mittelklasse und Einstiegsklasse pflegen.

10 Jahre? Beinichten. 2-3 Gan maximal also 4-6 Jahre. Aber natürlich nicht nativ...

Sehe ich auch so. Wobei sich die Frage KI-Upsampling oder nativ irgendwann gar nicht mehr stellen wird.

Irgendwann wird die Technologie standardmäßig implementiert sein. Schon heute sehen viele Spiele mit DLSS Quality besser aus als nativ und das trotz niedriger Interner Auflösung.
 
Ich glaube nicht, dass das so lange dauern wird. In etwa 5 Jahren sollten wir soweit sein. Meine Einschätzung bezieht sich allerdings auf AAA-Spiele.

Kleinere Projekte, Indie, eSports und Competative werden sicher noch länger auf Raster setzen.

Wenn man sieht, dass GeForce Now mit der RTX 4080 ein Cyberpunk 2077 mit Pathtracing schon jetzt sehr gut stemmen kann, weiß man wohin die Reise geht.

Die Absatzzahlen von Grafikkarten sind auf dem niedrigsten Niveau seit Erhebung der Zahlen. Noch nie wurden weniger GPUs verkauft als im letzten Quartal.

Im Vergleich zu 2007 beträgt der Grafikkartenabsatz nur noch rund 1/5.

Wo 2007 noch 29 Mio. dedizierte Grafikkarten im Quartal verkauft wurden, sind es 2022 nicht einmal mehr 7 Mio. gewesen.

Definierte Grafikkarten, DIY-Systeme & Co. spitzen sich mehr und mehr auf die Oberklasse und High-End zu.

Man sieht doch schon heute wie stiefmütterlich Nvidia und AMD die Mittelklasse und Einstiegsklasse pflegen.



Sehe ich auch so. Wobei sich die Frage KI-Upsampling oder nativ irgendwann gar nicht mehr stellen wird.

Irgendwann wird die Technologie standardmäßig implementiert sein. Schon heute sehen viele Spiele mit DLSS Quality besser aus als nativ und das trotz niedriger Interner Auflösung.
Den Absatz könnte man über den Preis regeln. Für die Masse ist halt 1K und drüber utopisch.
 
In Bewegung sehe ich gar keinen Unterschied und ob ich überhaupt einen Bildqualitätsvorsprung habe, merke ich eigentlich nur in Vergleichsbildern, wo ich einen Slider zwischen RT und Non-RT hin- und her bewegen kann.

Na gut, in irgendeiner Richtung "muss" man - besonders von Herstellerseite, damit die was zu verkaufen haben - neue Bildqualitätsstandards herstellen, aber bis die Grafikkarten so weit sind, dass sie das mit 75 MHz+ bei vollen Details flüssig darstellen können, werde ich die ganze neue Herrlichkeit ausschalten und ignorieren.

An die Forumsgötter: Ja. Ich habe "nur" eine 6650XT, und die liefert in RT keine spielbaren Framerates.
Aber für Standbildvergleiche reicht's.

Frohe Ostern übrigens!
 
Kann gut sein. es wird aber noch 10 Jahre dauern bis Hardware auch im low Budget Bereich das stemmen kann und bis dahin und darüber hinaus werden Raster fokussiert und Plath Tracing eine Zugabe für High End denk ich.
Wann die Hardware im LowBudget ankommt ist kein Kriterium für die Einführung eines neuen, technischen Features, dass offensichtlich in absehbarer Zeit zum Standard werden wird. So etwas braucht immer Zeit, das ist vollkommen normal, ebenso, wie es vollkommen normal ist, dass die neuesten grafischen Features erst mal nur auf den gerade neu eingeführten GPUs zur Verfügung stehen, schlicht weil diese vorerst nur die technische Anpassungen bieten, um diese Funktionalität (sinnvoll) umzusetzen.
Derartige Funktionalität muss zu irgend einem Zeitpuntk mal eingeführt werden, denn sonst wird sie sich niemals im Markt etablieren können und die fehlende Erstetablierung wird die weitere Verbreitung und auch Weiterentwicklung der Technik hemmen oder gar verhindern, das klassische Henne-Ei-Problem.
Wenn man sich ansieht, dass die 4000er-HighEnd-Gen (und das scheint sich gem. den Entwicklern und nVidia nicht nur auf das absolute Topmodell RTX 4090 zu beziehen) jetzt schon fähig ist Pathtracing in einem derart komplexen AAA-Titel zu rendern, dann kann man sich leicht ausrechnen, dass man bereits in 2024 und erst recht in 2026 einen signifikanten, großen Schritt in dieser Hinsicht machen wird.
Darüber hinaus wird klassische Rasterization natürlich nicht so schnell verschwinden, was alleine schon an dem extrem großen Konsolenmarkt liegt, denn diese Hardware ist nicht mal ansatzweise in der Lage hier mitzuhalten, bestimmt aber dennoch zu einem wesentlichen Teil den Markt aufgrund seiner Größe.

jo, sieht nett aus, aber wird wohl für immer ne Demo bleiben oder nur für " Premium" User nutzbar. Mittlerweile bin ich mir nicht mehr sicher, ob RT wirklich standard wird. Nvida pusht zwar, aber die letzten Games mit RT waren ja allesamt krücken. Entweder performance technisch oder RT war kaum ein Mehrwert.
Dann hast du die Berichterstattung nicht verfolgt. Die nennen das eine "TechDemo", weil sie die noch nicht finalisierte Funktionalität vorab veröffentlichen. Für Besitzer einer HighEnd-4000er-GPU wird das wohl noch in diesem Jahr schlicht spielbare Funktionalität sein. Man erklärte lediglich explizit, dass hier noch einiges in den kommenden Monaten hinzugefügt und optimiert werden wird. Beispielsweise arbeitet man gerade noch an einer ML-basierten GI-unterstützenden Lösung, die die Renderlast zusätzlich mindern soll, indem bestimmt wird, welche Rays tatsächlich berechnet werden müssen und für welche die GI-Lösung mittels eines NN ermittelt werden kann. Das was man jetzt am 11.4. veröffentlichen wird, ist schlicht nicht der finale Endzustand, daher ist es vollkommen legitim das als "TechDemo" auszuweisen, insbesondere wenn es erst in den kommenden Monaten mittels zusätzlicher Funktionalität abgerundet werden soll, so bspw. vielleicht um das Release des kommenden DLC herum?

Zudem, das ist natürlich auch selbstredend ein klares Vermarktungsinstrument für nVidia, auch wenn die in Cyberpunk vorgenommene Implementation anscheinend GPU-unabhängig sein wird, jedoch hinkt AMD hier entwicklungstechnisch schlicht deutlich hinterher bzgl. NextGen-Visuals, sodass deren Rückstand noch einmal überdeutlich hervorgehoben werden wird. Aber unterm Strich ist das nichts, was man nVidia vorwerfen kann, denn das würde jede Firma nutzen, bzw. anders herum, man müsste denen grobes Versagen vorwerfen, wenn sie sich eine derart offensichtliche Gelegenheit entgehen lassen würden.
 
Zuletzt bearbeitet:
Wann die Hardwar im LowBudget ankommt ist kein Kriterium für die Einführung eines neuen, technischen Features, dass offensichtlich in absehbarer Zeit zum Standard werden wird. So etwas braucht immer Zeit, das ist vollkommen normal, ebenso, wie es vollkommen normal ist, dass die neuesten grafischen Features erst mal nur auf den gerade neu eingeführten GPUs zur Verfügung stehen, schlicht weil diese vorerst nur die technische Anpassungen bieten, um diese Funktionalität (sinnvoll) umzusetzen.
Derartige Funktionalität muss zu irgend einem Zeitpuntk mal eingeführt werden, denn sonst wird sie sich niemals im Markt etablieren können und die fehlende Erstetablierung wird die weitere Verbreitung und auch Weiterentwicklung der Technik hemmen oder gar verhindern, das klassische Henne-Ei-Problem.
Wenn man sich ansieht, dass die 4000er HighEnd-Gen (und das scheint sich gem. den Entwicklern und nVidia nicht nur auf das absolute Topmodell RTX 4090 zu beziehen) jetzt schon fähig ist Pathtracing in einem derart komplexen AAA-Titel zu rendern, dann kann man sich leicht ausrechnen, dass man bereits in 2024 und bereits schon in 2026 einen signifikanten und großen Schritt in dieser Hinsicht machen wird.
Darüber hinaus wird klassische Rasterization natürlich nicht so schnell verschwinden, was alleine schon an dem extrem großen Konsolenmarkt liegt, denn diese Hardware ist nicht mal ansatzweise in der Lage hier mitzuhalten, bestimmt aber dennoch zu einem wesentlichen Teil den Markt aufgrund ihrer Größe.
Das sehe ich auch so, von daher war ich eher skeptisch das der Wandel so schnell von statten geht.
Ich bin gespannt wo die Reise hingeht.
 
Ich glaube nicht, dass das so lange dauern wird. In etwa 5 Jahren sollten wir soweit sein. Meine Einschätzung bezieht sich allerdings auf AAA-Spiele.
Grade AAA spiele werden denk ich auch immer mit Blick auf große Verkaufzahlen hin optimiert, also denke ich schon das es noch länger als 5 Jahre auch in AA noch einen "ausweichmodus" für Raster gibt.
 
Den Absatz könnte man über den Preis regeln. Für die Masse ist halt 1K und drüber utopisch.
Das hat nur wenig mit den totalen Absatzzahlen zu tun. Die Absatzzahlen der verkauften dedizierten Grafikkarten schwinden ja seit 15 Jahren.

Das hat schon lange vor den 1.000 Euro+ GPUs angefangen. Der DIY-Bereich und auch das Geschäft mit Fertig-PCs wird immer kleiner.

PCs zu bauen, wird nach und nach wieder in die Nerd-Nische wandern, aus der es einst gekommen ist.

Für dieses Jahr werden im Quartal schon nur noch ~ 6 Mio. dedizierte GPUs angepeilt. Es waren mal 30 Mio.

Aber wir sprechen einfach 2030 nochmal. ^^
 
Grade AAA spiele werden denk ich auch immer mit Blick auf große Verkaufzahlen hin optimiert, also denke ich schon das es noch länger als 5 Jahre auch in AA noch einen "ausweichmodus" für Raster gibt.

Das hängt halt eben davon ab, wie sich die Karten verbreiten und ob es eine mutige Firma gibt, die die alten Karten abserviert. Crytek hat es ja bei Crysis 3 gemacht. Da war dann für die DX 10 Karten Schluss, die noch 3 Jahre vorher verkauft wurden.

Wenn ein Unternehmen das macht, dann steigt der Druck, seine alten Karten auszumustern, das wird dafür sorgen, dass weitere den Schritt wagen und Spiele rausbringen, die Raytracing erfordern.
 
Das hat nur wenig mit den totalen Absatzzahlen zu tun. Die Absatzzahlen der verkauften dedizierten Grafikkarten schwinden ja seit 15 Jahren.

Das hat schon lange vor den 1.000 Euro+ GPUs angefangen. Der DIY-Bereich und auch das Geschäft mit Fertig-PCs wird immer kleiner.

PCs zu bauen, wird nach und nach wieder in die Nerd-Nische wandern, aus der es einst gekommen ist.

Für dieses Jahr werden im Quartal schon nur noch ~ 6 Mio. dedizierte GPUs angepeilt. Es waren mal 30 Mio.

Aber wir sprechen einfach 2030 nochmal. ^^
Und was wäre dann die Alternative? Geforce NOW oder immer mehr mobile Gaming? Ich werde es recht früh sehen wie sich der Markt weiter entwickelt.
 
Zuletzt bearbeitet:
PCs zu bauen, wird nach und nach wieder in die Nerd-Nische wandern, aus der es einst gekommen ist.
Stimmt ansich, es ist für ALLE Beteiligten besser, hätte man alle 2 oder 4 Jahre EIN festes System, eine PC-Konsole.
Entwickler können leichter und besser für ein System optimieren als für unzählige.
Der Nutzer hat weniger Probleme das System am laufen zu halten.

Ja Konsolen haben durchaus viele Vorteile... das Problem bei aktuellen Konsolen ist, das man ZU sehr eingeschränkt ist. Steamdeck beiseite.
Maus und Tastatur ist nur ein Nachgedanke und nicht einfach möglich, arbeiten ist mit einer Konsole unmöglich, etc.
Man müsste also die Funktionalität des PCs mit der Hardware einer Konsole paaren.
Am Ende haben aber ZU viele ihre Hände im PC-Markt, sodass es auch in dem Fall wieder ZU viele PC-Konsolen gäbe...

Alternative wäre zu dem ganzen sowas wie GeforceNow bzw Cloud Computer. Man hat Zuhause nur noch ein Interface und die Rechenleistung steht woanders, am besten wo es grünen Strom direkt gibt. :D
Doch dem macht vermutlich unsere Internet Infrastruktur ein Strich durch die Rechnung...
 
Und was wäre dann die Alternative? Geforce NOW oder immer mehr mobile Gaming?

Die Masse geht mehr zum Smartphone usw..

Der PC hat einfach das Problem, dass er bei den normalen 08/15 Leuten zunehmend seine Existenzberechtigung verloren hat, ihm fehlt die Killerapplikation. Um das Jahr 2000 war einfach fast jedem klar, warum man so eine graue Kiste braucht: Napster. Damit konnte man sich alle seine Lieder herunterladen und auf CD brennen. Um eine CD zu brennen brauchte man was? Eine große, graue Kiste.

Von da war der Sprung nicht weit. Mit einer 3D Karte wurde aus der grauen Kiste eine Zockerkiste.

Heute haben Youtube, Spotify, Smartphones, Tablets usw. den PC fast überflüssig gemacht. Das ist das große Problem des PC Gaming und solange keine Notwendigkeit kommt, warum sich der Normalo eine 500W saugende Kiste in sein Haus stellen soll, wird es auch nicht mehr so wie früher.
 
Dann kann "Can it run Crysis" endlich in Rente gehn!
Dann viel Spaß allen 4090 Nutzern, dafür hat man sie ja gekauft.
Ein Rennauto unter einer Plane geparkt, steht sich auch nur kaputt.
 
Zurück