News Cyberpunk 2077: Pathtracing benötigt bis zu 40 Prozent mehr GPU-Rechenleistung

Lächerlich, wir schrauben künstlich die Hardware Anforderungen in die höhe,
Solche großen Sprünge gibt es bei der Grafik nicht mehr, außer die Programmierer sind Faul.
Pathtracing_1.jpg

Der Herr ganz links erklärt doch was der entscheidende Unterschied zum "alten" RT gegen über den neuen Path-RT ist. (Ich hab die Untertitel zusammenkopiert) - fasse es aber gern nochmal mit meinen Worten zusammen.


Beim alten Raytracing warfen nur 10 Lichter Schatten auch wenn mehrere hundert im Bild waren, mit Pathtracing werfen alle Lichter Schatten - natürlich korrekte Schatten, selbst wenn 1000 Lichter im Bild zu sehen sind.

Für mich eindeutig der wichtigste Unterschied, das hat weder was mit Anforderungen künstlich in die Höhe schrauben zu tun, noch mit Programmierfaulheit.

Wenn alle Lichter realistische Schatten werfen, dazu auch noch mehrfach reflektieren, dann geht es nur darum eine realistische Beleuchtung anzustreben. Wer mehr Realismus will, muss die höheren Anforderungen akzeptieren, und der Vorwurf von Faulheit zeugt auch nur von Ignoranz und Voreingenommenheit.

Dieser Rechenaufwand kann von schwachen Grafikkarten nicht geleistet werden. Wer nicht auf die Schatten achtet und den Zuwachs an Realismus nicht erkennen will - für den reicht sicher auch weiterhin ein 6800 oder 3070. Ich will das sehen - aber schau mir dass dann aber erst mit einer 5090 an.
 
Wir haben seit neusten einen neuen OLED Fernseher (4K) und dort habe ich jetzt einiges mit Streaming Games ausgetestet. Die Grafik ist zwar nicht so perfekt wie mit dem PC, weil das Spiel (Fortnite), was ich dazu ausgetestet habe, in FullHD gestreamt wurde, aber schlecht war es nicht. Lief mit unserer 500 MBit/s Bandbreite ganz gut. Meinen XBox One Controller konnte ich per Bluetooth einfach mit dem Fernseher verbinden.
IMG_20230408_123149.jpg IMG_20230408_123326.jpg
Habe aber bisher nur das eine Spiel getestet, andere Spiele habe ich noch nicht am Laufen gehabt.
 
Warum muss es eigentlich immer 4k sein? Ginge 1440p nicht auch mal bei so intensiven Hardwarefressern?
Dann geht das eigene Erleben der Qualität vil. auch mit einer kleienren Karte? Einer "grösseren" 3xxx?

Grüsse.
 
Anhang anzeigen 1422927
Der Herr ganz links erklärt doch was der entscheidende Unterschied zum "alten" RT gegen über den neuen Path-RT ist. (Ich hab die Untertitel zusammenkopiert) - fasse es aber gern nochmal mit meinen Worten zusammen.


Beim alten Raytracing warfen nur 10 Lichter Schatten auch wenn mehrere hundert im Bild waren, mit Pathtracing werfen alle Lichter Schatten - natürlich korrekte Schatten, selbst wenn 1000 Lichter im Bild zu sehen sind.

Für mich eindeutig der wichtigste Unterschied, das hat weder was mit Anforderungen künstlich in die Höhe schrauben zu tun, noch mit Programmierfaulheit.

Wenn alle Lichter realistische Schatten werfen, dazu auch noch mehrfach reflektieren, dann geht es nur darum eine realistische Beleuchtung anzustreben. Wer mehr Realismus will, muss die höheren Anforderungen akzeptieren, und der Vorwurf von Faulheit zeugt auch nur von Ignoranz und Voreingenommenheit.

Dieser Rechenaufwand kann von schwachen Grafikkarten nicht geleistet werden. Wer nicht auf die Schatten achtet und den Zuwachs an Realismus nicht erkennen will - für den reicht sicher auch weiterhin ein 6800 oder 3070. Ich will das sehen - aber schau mir dass dann aber erst mit einer 5090 an.

Was du dir aus meinem Satz mit der Faulheit herrausgestrickt hast unglaublich. Mir ging es eher darum, das es faule Entwickler gibt die nicht Effizient mit der Leistung eines System umgehen.

Dein Szenario hat mit meiner Aussage nix am Hut.

Was mich interessiert, wären Grafikkarten in der Lage mit den Shadern ohne Tensor, RT Core auch ein reines Raytracing Bild zu renden? Interessant wäre die Performance.
 
Die Masse geht mehr zum Smartphone usw..

Der PC hat einfach das Problem, dass er bei den normalen 08/15 Leuten zunehmend seine Existenzberechtigung verloren hat, ihm fehlt die Killerapplikation. Um das Jahr 2000 war einfach fast jedem klar, warum man so eine graue Kiste braucht: Napster. Damit konnte man sich alle seine Lieder herunterladen und auf CD brennen. Um eine CD zu brennen brauchte man was? Eine große, graue Kiste.

Von da war der Sprung nicht weit. Mit einer 3D Karte wurde aus der grauen Kiste eine Zockerkiste.

Heute haben Youtube, Spotify, Smartphones, Tablets usw. den PC fast überflüssig gemacht. Das ist das große Problem des PC Gaming und solange keine Notwendigkeit kommt, warum sich der Normalo eine 500W saugende Kiste in sein Haus stellen soll, wird es auch nicht mehr so wie früher.
Smartphone ja, Tablets haben sich dank größeren Smartphones nicht so durchgesetzt wie prophezeit. Es ist aber nicht so dass die User auf ihren PC/ Notebook verzichten. die wenigsten machen ihr Office arbeiten und seien es nur Mails am Smartphone. Das diskrete/dedizierte Grafikkarten weniger werden stimmt aber eher, weil es IGPUS und APUs gibt. Wer zocken will setzt auf eine separate GPU oder halt auf Konsolen. 2008 war der Markt halt noch nicht so weit was integrierte Grafikeinheiten anging und ja da wurde mehr Karten verkauft. Tatsächlich gab es mit dem Mining wieder einen richtigen Aufschwung der jetzt natürlich weg ist. Also es war nicht so das kontinuierlich weniger GPUs gebraucht wurden. Auch in Zukunft werden wir weiter Grafikkarten brauchen, wenn sich die Cloud-Dienste nicht durchsetzen und das sehe ich nicht, die setzen sich nicht durch was Gaming angeht.

Meine Meinung.
 
Wieso soll Pathtracing eigentlich mehr Leistung brauchen. Ich denke der Punkt davon war doch Raytracing eben effzienter zu machen. So hat es mir auch GPT4 erklärt. Wieso das nun so viel mehr Leistung brauchen soll, ergibt für mich keinen Sinn..
 
Sobald eine Konsolengeneration genug Leistung für viele gute RT Effekte hat, wird es sich endgültig durchsetzen, da die Ausleuchtung der Level einfacher wird und damit der Arbeitaufwand und damit die Kosten sinken.
Da jetzt schon einige Entwickler teilweise gute Ergebnisse (Spiderman, Watchdogs Legion, Metro Exodus) auf PS5/Series X erreichen, kann ich mir vorstellen, dass bei der nächsten echten Generation durchaus RT-only Spiele kommen werden. Wobei das hauptsächlich davon abhängen wird, ob AMD bereit sein wird starke SoCd mit viel RT-Leistung für wenig Geld an Sony/MS zu liefern.
 
Wir haben seit neusten einen neuen OLED Fernseher (4K) und dort habe ich jetzt einiges mit Streaming Games ausgetestet. Die Grafik ist zwar nicht so perfekt wie mit dem PC, weil das Spiel (Fortnite), was ich dazu ausgetestet habe, in FullHD gestreamt wurde, aber schlecht war es nicht. Lief mit unserer 500 MBit/s Bandbreite ganz gut. Meinen XBox One Controller konnte ich per Bluetooth einfach mit dem Fernseher verbinden.
IMG_20230408_123149.jpg IMG_20230408_123326.jpg
Habe aber bisher nur das eine Spiel getestet, andere Spiele habe ich noch nicht am Laufen gehabt.
Wer sowas macht, darf sich aber auch nichts über die höhere Latenz von DLSS3 sagen...
Zudem 500Mbit/s ist Luxus der nicht überall bezahlbar oder überhaupt verfügbar ist.

P.S. Er redet über Gamepass Ultimate, soweit ich was funktioniert das NUR mit einem Gamepad und nicht mit Maus/KB.
Sobald eine Konsolengeneration genug Leistung für viele gute RT Effekte hat, wird es sich endgültig durchsetzen, da die Ausleuchtung der Level einfacher wird und damit der Arbeitaufwand und damit die Kosten sinken.
Da jetzt schon einige Entwickler teilweise gute Ergebnisse (Spiderman, Watchdogs Legion, Metro Exodus) auf PS5/Series X erreichen, kann ich mir vorstellen, dass bei der nächsten echten Generation durchaus RT-only Spiele kommen werden. Wobei das hauptsächlich davon abhängen wird, ob AMD bereit sein wird starke SoCd mit viel RT-Leistung für wenig Geld an Sony/MS zu liefern.
Ein kleiner Seitenhieb von mir... Da der Chip in den Konsolen von AMD ist, wird RT noch einige Generationen dauern..
Die haben RT nicht im Fokus...
Warum muss es eigentlich immer 4k sein? Ginge 1440p nicht auch mal bei so intensiven Hardwarefressern?
Dann geht das eigene Erleben der Qualität vil. auch mit einer kleienren Karte? Einer "grösseren" 3xxx?

Grüsse.
Grafik und Auflösung verbessern beide die Qualität. Natürlich kann man das eine auch ohne das andere genießen.
DLSS2 aber rendert ja schon eine niedrigere Auflösung und Skaliert das "günstig" hoch. Am Ende wird mit z.b. 1080p gerendert, auch wenn man in 4k spielt.
Nutzt man aber DLSS2 Performance in 1440p dann wird mit 720p oder so hochskaliert und 720p sind so wenig Pixel, das es matschig wirken kann.
 
Ein halbwegs fähiger Modder kann solche Effekte ohne hype Features wie RT/PT hinzaubern.

nebenbei mit viel mehr fps.

Na dann soll dieser "halbwegs fähige Modder" mal bei den großen Spiele und Filmfirmen anheuern und die in das Geheimnis einweihen. Noch besser: der "halbwegs fähige Modder" macht sein eigenes Unternehmen auf und verdient Milliarden, denn er kann ja eine etablierte Technik vollkommen überflüssig machen.

Ich glaube den Käse hast du doch schonmal erzählt?

PT braucht niemand

Das gleiche hat man über 3D Beschleuniger gesagt, 3D Grafik im Allgemeinen, Videosequenzen, Soundkarten usw..

So wie es damals bei Nvidias PhysX war. Zumindest solange, bis es ganz normal von der Hauptkarte oder CPU ohne große Probleme mit berechnet werden kann.

Wobei bis heute nicht klar ist ob und was das Ding überhaupt gemacht hat. Es kann auch sein, dass Nvidia da, mit Ageia, eine Betrugsbude gekauft hat und diesen Betrug dann weitergeführt hat. Tatsache ist, dass wohl niemals irgendwas auf GeForcekarten berechnet wurde. Das ist alles über die CPU gelaufen. Der Unterschied war, dass eine optimiertere Version verwendet wurde, wenn eine GeForcekarte drin war und eine nicht optimierte, wenn keine verbaut war.
Zudem 500Mbit/s ist Luxus der nicht überall bezahlbar oder überhaupt verfügbar ist.

Naja, es sind 10€ Aufpreis gegenüber 100MBit, wenn verfügbar. Das ist jetzt nicht so schlimm, wenn man wirklich darauf angewiesen ist.

Streaming funktioniert auch schon mit wesentlich weniger. Die reale Obergrenze sind, bei GeForce Now, 62,5 MBit. Bei 500 MBit reden wir dann mindestens über 8K in einer Qualität. jenseits von Gut und Böse, das werden wir wohl erst in den 2030ern sehen (wenn überhaupt)

Ein kleiner Seitenhieb von mir... Da der Chip in den Konsolen von AMD ist, wird RT noch einige Generationen dauern..
Die haben RT nicht im Fokus...

Da AMD das jetzt schon einigermaßen im Griff hat wird es wohl bis zur PS6 und X-Box Series XX dauern.

Nutzt man aber DLSS2 Performance in 1440p dann wird mit 720p oder so hochskaliert und 720p sind so wenig Pixel, das es matschig wirken kann.

Ich hab das jetzt bei FSR 2 auf 4K, im Ultra Performancemodus angesehen und muß sagen, dass das kein Problem ist. Das Problem ist eher ein Geflimmer in sehr seltenen Szenen. Ich war jedenfalls, in Diablo4 und der Forspoken Demo, sehr zufrieden.

Smartphone ja, Tablets haben sich dank größeren Smartphones nicht so durchgesetzt wie prophezeit.

Die sind immer noch relativ mächtig. Was den Tabletverkäufen extrem zusetzt, in die Tatsache, dass der Median eine Neuanschaffung bei 7 Jahren liegt, bei Smartphones sind es nur 20 Monate gewesen.

Es ist aber nicht so dass die User auf ihren PC/ Notebook verzichten. die wenigsten machen ihr Office arbeiten und seien es nur Mails am Smartphone.

Das Problem ist, dass man dafür keine neuen Kisten braucht. Ein Großteil hat einen Laptop und da auch teilweise einen sehr alten.

Das diskrete/dedizierte Grafikkarten weniger werden stimmt aber eher, weil es IGPUS und APUs gibt.

Sie werden weniger, weil heute einfach keine neuen PCs mehr in den Hütten der Leute stehen, das ist das Problem. Wenn quasi jeder einen aktuellen i7, i9 oder etwas von AMD hätte, dann wäre es einfach. Graka rein und zocken. Aber das ist heute nicht mehr der Fall.

Wer zocken will setzt auf eine separate GPU oder halt auf Konsolen.

Oder auf ein Smartphone...

2008 war der Markt halt noch nicht so weit was integrierte Grafikeinheiten anging und ja da wurde mehr Karten verkauft.

2008 waren die Laptops einfach noch schweineteuer, da mußte man das doppelte eines PCs hinblättern. Heute gibt es in jedem Mediamarkt billige Laptops, ab 300€ aufwärts, die die üblichen Aufgaben auch erledigen. Aus Sicht des Platzbedarfs ist das die bessere Lösung, die heute von den meisten genutzt wird. Ein PC dominiert einfach den Raum, in dem er steht, ein Laptop macht das nicht.

Noch wichtiger ist, dass sich 2088 die Smartphones nicht durchgesetzt haben. Wer irgendwas im Internet machen wollte und das waren fast alle, brauchte eine dieser großen, grauen (oder auch schwarzen) Kisten. Ein PPC war in den Nullerjahren fester Bestandteil der meisten normalen Wohnungen. Heute sind sie das nicht mehr.
Auch in Zukunft werden wir weiter Grafikkarten brauchen, wenn sich die Cloud-Dienste nicht durchsetzen und das sehe ich nicht, die setzen sich nicht durch was Gaming angeht.

Auch in Zukunft werden wir weiter Grafikkarten brauchen, wenn sich die Cloud-Dienste nicht durchsetzen und das sehe ich nicht, die setzen sich nicht durch was Gaming angeht.

Das nimmt immer mehr Fahrt auf, wenn man nicht gerade Google heißt.
 
Lächerlich, wir schrauben künstlich die Hardware Anforderungen in die höhe, so das es nur mit dem Topmodell flüssig läuft.

Billig umgesetzte Psychologie, eine weitere Reglerstufe rechts. Der Unterschied ist optisch nur noch auf Standbildern zu erkennen...aber wer schiebt den Regler schon freiwillig auf die "nur" zweithöchste Stufe.
Dann funktioniert es doch. Ist ein Showcase für Nvidia DLSS 3.0 und kurbelt den Verkauf der RTX 4090 an. Wird wohl bei den "Unbedarften" mit 1-2 Jahre alten Grafikkarten auch funktionieren. Dumm nur, dass der Zugewinn für die Bildqualität fast Null ist. Na ja, jeder wie er will.
 
Wie ich immer sage, vlt. in 5-10 Jahren, so macht es meiner Meinung nach keinen Sinn.
nebenbei mit viel mehr fps
Wobei DLSS in Cyberpunk 2077 eigentlich sehr gut umgesetzt ist, was die Qualität angeht.
Es gibt immer mehr Leute, die den kleinen Nachteil bei der Bildqualität sehr gerne für mehr Leistung in Kauf nehmen, selbst wenn DLSS / FSR / XeSS gar nicht nötig wäre. Warum sollte man auf viel höhere Bildraten wegen minimalem Qualitätsverlust verzichten?

Bei DLSS kann man zudem leicht verschiedene Versionen der Datei "nvngx_dlss.dll" probieren.

@Pu244
Es stimmt, viele Leute haben ein teures Smartphone oder einen entsprechenden Vertrag, ein Tablet und einen kleinen Laptop zum Schreiben. Es gibt vielleicht noch eine Konsole zum Zocken.
Ich bin in meinem Haushalt den umgekehrten Weg gegangen. Es gibt meinen Haupt-PC und einen Wohnzimmer-PC. Ich möchte die Austauschbarkeit von einzelnen Komponenten, relativ einfache Reinigung und Vielseitigkeit nicht missen. Ich brauche kein Tablet, das Smartphone muss nicht leistungsfähig sein und der PC ist mit guter SSD schnell hochgefahren. Auch wenn der Trend in die andere Richtung geht, spare ich mir so mehrere einzelne Geräte.
 
Zuletzt bearbeitet:
Wieso soll Pathtracing eigentlich mehr Leistung brauchen. Ich denke der Punkt davon war doch Raytracing eben effzienter zu machen. So hat es mir auch GPT4 erklärt. Wieso das nun so viel mehr Leistung brauchen soll, ergibt für mich keinen Sinn..
...nun wenn von 100 Lichtquellen bei bei Raytracing nur 10 einen Schatten werfen können, und Licht nur einmal an einer Oberfläche reflektiert wird - weil sonst keine flüssige Darstellung mehr möglich ist. Dann ist das realistisch genug.

Wenn bei Pathtracing die Anzahl der Lichtquellen und der geworfenen Schatten kein Limit hat und jedes Licht jeder Quelle auch mehrmals an Oberflächen zurückgeworfen wird, so ist dass enormer Vorteil - In Zukunft ist es egal wieviele Lichtquellen und Objekte, ein Leveldesigner in die Map platziert, weil es ein anderer Berechnungsansatz ist, - zwar braucht Pathtracing grundsätzlich mehr Leistung braucht, weil es präziser ist, aber gegenüber Raytracing nicht diese engen Limitierungen hat. - Es scheint als ginge die Zeit aufploppender Schatten, wenn man sich Straßenlaternen und Leuchtreklamen nähert vorbei.

Und es ist natürlich auch effizienter wenn mehr als 10 Schatten sogar unbegrenzt viele Schatten zur gleichen Zeit berechnet werden können.

Mir fällt es jedenfalls störend auf, dass die meisten Lichter bei Psycho-RT dennoch keinen Schatten werfen, und bis zu diesen Video wusste ich nicht die Zahl, auf die es limiert ist, lediglich 10 RT-Schatten. Die Aussicht darauf nie mehr fehlende Schatten zu bemerken, gefällt mir sehr.
 
Zuletzt bearbeitet:
Ich finde den Weg, den die Unreal 5 Engine geht, deutlich realistischer im Bezug auf die nahe Zukunft. Also der Mix aus RT und Raster, was deutlich weniger Leistung benötigt aber nicht schlechter aussieht. Das ganze lässt sich scheinbar auch schnell und kostensparend umsetzten.
Ich meine, seit ca. 5 Jahren jetzt? Also seit der Einführung der RTX 2000 wird versucht, einem RT als der neue heiße Scheiß zu verkauft, laufen tut das ganze aber weiterhin nur auf der obersten GPU Liga vernünftig. Eine Mittelklasse Karte kriegt das bis heute nicht gescheit hin und wenn überhaupt, dann nur mit Abstrichen und dann für 12 Monate +, bis dann der neue super duper RT Titel auf den Markt kommt und selbst auf der High End GPU nur noch mit Tricks gut läuft.
Reines RT ist und bleibt für mich daher ein nice to have für GPU Enthusiasten, damit sich die 1500-2000€ auch irgendwie lohnen. Das sich das in 3 Jahren ändern wird bezweifle ich, moderne Titel werden auch so schon anspruchsvoller, also ohne RT. Und wie gesagt, das was die U5 Engine bieten kann, ist in meinem Augen der momentan richtige Weg. Erstens haben die absolut wenigstens Leite die PC spielen Grakas die für RT/Pathracing nötig sind und zweitens bezweifle ich, das die nächste und übernächste Graka Gen günstiger wird, allein schon, weil man jetzt schon am Limit ist, siehe DLSS, FSR use.
Zum Release der PS4 Pro bspw. wurde im PC Bereich noch lautstark über Checkboard-Rendering gelästert, weil ist ja kein echtes 4K. Und heute braucht man ähnliche, bessere, Verfahren um auf einer 2000k Karte auf fake "4K" zu kommen. Ich meine, ich finde dlss 2.0 und fsr 2.0(1) sehr brauchbar bzw. funktioniert ziemlich gut (wenn es denn gut implementiert ist) und auch die U5 kommt ohne ihren eigenen Upscaler nicht aus. Aber wie gesagt, man erreicht jetzt schon Grenzen im HW Markt, warum man dann an technischen Neuheiten festhält, die der klassische Mittelklasse PC und die aktuelle Konsolen nur bedingt oder gar nicht erst darstellen können festhält, verstehe ich nicht so ganz bzw. warum nicht gleich alle den U5 Ansatz wählen?
Davon ab, konnte mich bis heute kaum ein RT Game wirklich beeindrucken, man hat ift das Gefühl, als stünde man in einem Spiegelkabinet bzw. alls wären trockene Oberflächen nass und Global Illumination erkenne ich nur, wenn ich den direkten Vergleich habe, ansonsten sieht es für mich halt nur "anders" aus. Und warum jetzt alles super duper realistisch sein muss, während selbst in Hollywood auf Beleuchtungen geachtet wird, die der Szene, nicht aber der Realität, dienlich sind, macht für mich auch nur teilweise Sinn. Vom Fotorealismus sind wir zumindest noch entfernt, auch wenn es durchaus Spiele gibt, die in manchen Szenen sehr nahe dran kommen.
Aber das ist jetzt nur meine Meinung, der Enthusiast, der auch ohne zu zögern 2000k auf den Tisch legt, wird das sicherlich anders sehen. Am Ende kann man ja eh nur abwarten und schauen was die Zukunft für uns Spieler (unabhängig davon ob PC oder Konsole, Streaming usw.) bringen wird. Es kann ja eigentlich nur schöner werden ;-)
 
Erklärt die Unterschiede von Software- und Hardware Raytracing recht gut. Einfach gesagt, SW-Raytracing ist nur auf kurze distance und statisch. HW Raytracing kommt auch mit beweglichen Objekten klar und hat keine reichweiten begrenzung vom Rendern.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Zurück