News Cyberpunk 2077: Pathtracing benötigt bis zu 40 Prozent mehr GPU-Rechenleistung

Die sind immer noch relativ mächtig. Was den Tabletverkäufen extrem zusetzt, in die Tatsache, dass der Median eine Neuanschaffung bei 7 Jahren liegt, bei Smartphones sind es nur 20 Monate gewesen.

Das Problem ist, dass man dafür keine neuen Kisten braucht. Ein Großteil hat einen Laptop und da auch teilweise einen sehr alten.

Sie werden weniger, weil heute einfach keine neuen PCs mehr in den Hütten der Leute stehen, das ist das Problem. Wenn quasi jeder einen aktuellen i7, i9 oder etwas von AMD hätte, dann wäre es einfach. Graka rein und zocken. Aber das ist heute nicht mehr der Fall.
Oder auf ein Smartphone...



2008 waren die Laptops einfach noch schweineteuer, da mußte man das doppelte eines PCs hinblättern. Heute gibt es in jedem Mediamarkt billige Laptops, ab 300€ aufwärts, die die üblichen Aufgaben auch erledigen. Aus Sicht des Platzbedarfs ist das die bessere Lösung, die heute von den meisten genutzt wird. Ein PC dominiert einfach den Raum, in dem er steht, ein Laptop macht das nicht.

Noch wichtiger ist, dass sich 2088 die Smartphones nicht durchgesetzt haben. Wer irgendwas im Internet machen wollte und das waren fast alle, brauchte eine dieser großen, grauen (oder auch schwarzen) Kisten. Ein PPC war in den Nullerjahren fester Bestandteil der meisten normalen Wohnungen. Heute sind sie das nicht mehr.
Auch in Zukunft werden wir weiter Grafikkarten brauchen, wenn sich die Cloud-Dienste nicht durchsetzen und das sehe ich nicht, die setzen sich nicht durch was Gaming angeht.



Das nimmt immer mehr Fahrt auf, wenn man nicht gerade Google heißt.
Es ist richtig, dass der Großteil nicht aller 2 Jahre sich neue Hardware anschafft, kann durchaus auch 10 Jahre und länger dauern. Aber zum Glück reproduziert sich die Menschheit fleißig ;). Im Buisnessbereich geht das schneller nur werden da natürlich wenig Grafikkarten gebraucht bei der Masse. Auch setzen sich immer mehr Onlinedienste durch im Gamingbereich aber Game Stream eher nicht. Die haben keinen wirklichen Aufwärtstrend und kämpfen um User.

Ich denke auch Intel sieht das ähnlich sonst würden sie nicht in den Markt mit einsteigen. Die würden sicherlich sonst im Server Bereich bleiben. Der Markt wächst zwar nicht enorm, wirft aber noch genug ab.
 
Im Gegensatz zu Crysis zum Release und darüber hinaus sieht CP2077 aber leider bereits jetzt schon in vielen Details betagt aus. Crysis war auch kein Werbe-Beacon eines Anbieters. Das sollte vielleicht dabei beachtet werden.
 
Ich denke auch Intel sieht das ähnlich sonst würden sie nicht in den Markt mit einsteigen. Die würden sicherlich sonst im Server Bereich bleiben. Der Markt wächst zwar nicht enorm, wirft aber noch genug ab.

Intel macht das ja auch nicht nur für den Gamingbereich. Das ganze ist auch bei den Profis nützlich, da macht Nvidia das große Geld und das will sich wohl auch Intel holen. Die Quadros direkt anzugreifen ist Selbstmord, die Kundschaft verzeiht kein unausgereiften Treiber, aber im Gamingmarkt können sie Erfahrungen sammeln. Beschleunigerkarten hat Intel ja schon rausgebracht.
 
Im Serverbereich kommt es eher darauf an, dass auf einem Server auf dem 25 Mann gleichzeitig per RemoteDesktop (o.ä.) arbeiten auch genug HW Beschleunigung für Teams und Videokonferenz da ist. Grafikteams arbeiten eher weiterhin lokal.

Wenn es dann wirklich an KI-Supercomputing geht, dann ist Nvidia nicht erste Wahl. So krass das klingen mag, aber Nvidia AI Server für Millionenbeträge sind da eher das Preis/Leistungssegment.

Nvidia wird also schon auch etwas investieren müssen, um ihre Gaming Kunden bei Laune zu halten, aber gleichzeitig sind sie mit AMD und Intel in einem Wettbieten um TSMC Kapazitäten die preislich so im Rahmen liegen, dass eine Vermarktung an Normalkunden noch in Frage kommt. Die oberste Schicht der KI Chip Hersteller wie Cerebras muss sich damit nicht befassen.
 
Wieso soll Pathtracing eigentlich mehr Leistung brauchen. Ich denke der Punkt davon war doch Raytracing eben effzienter zu machen. So hat es mir auch GPT4 erklärt. Wieso das nun so viel mehr Leistung brauchen soll, ergibt für mich keinen Sinn..
Effizienter heißt nicht, dass es per se weniger Leistung nötig hat.
Es gibt immer mehr Leute, die den kleinen Nachteil bei der Bildqualität sehr gerne für mehr Leistung in Kauf nehmen, selbst wenn DLSS / FSR / XeSS gar nicht nötig wäre. Warum sollte man auf viel höhere Bildraten wegen minimalem Qualitätsverlust verzichten?

Bei DLSS kann man zudem leicht verschiedene Versionen der Datei "nvngx_dlss.dll" probieren.
Modernes Upscaling möchte ich nicht missen. Vor allem DLSS besticht hier durch zumeist sehr saubere Qualität. Der Verlust der Bildqualität ist absolut hinnehmbar.
 
bis es ganz normal von der Hauptkarte oder CPU ohne große Probleme mit berechnet werden kann.
Wie du siehst, ist das immer noch nicht der Fall. Es ist ja scheinbar nicht genug platz auf der GPU Die. Entweder zusätzliche RT Beschleunigerkarte, oder zusätzlicher RT Chip auf den GPUs, was vermutlich zu teuer wäre. Daher würde eine Zusatzkarte Sinn ergeben ala Voodoo.
 
Im Serverbereich kommt es eher darauf an, dass auf einem Server auf dem 25 Mann gleichzeitig per RemoteDesktop (o.ä.) arbeiten auch genug HW Beschleunigung für Teams und Videokonferenz da ist. Grafikteams arbeiten eher weiterhin lokal.
RDP schön und gut aber dafür brauchen Server nicht zwingen Grafikkarten. Wenns ums Rendern, Entwicklung und grafische Darstellung geht schon. 25 Mann sind auch nicht viel ;).
 
In erster Linie müssen Games Spaß machen, Grafik spielt immer die 2. Geige.
Da bin ich ganz bei dir.

Ich hatte beispielsweise mit dem ersten Prince of Persia in 1989/1990 auf dem 386SX und Summer Games auf dem Commodore 64 nicht weniger Spaß als mit den aktuellsten Grafikkrachern.

Ich spiele beispielsweise seit der ersten offen Beta das erste Guild Wars und logge mich noch heute jede Woche für 2-3 Stunden ein.

Dennoch wird man auch grafisch nicht stehen bleiben können. Stillstand ist der Tod. Leider fesseln mich viele aktuelle Spiele ganz unabhängig von der Grafik nicht mehr.
 
habe im game einmal rt eingeschaltet um zu sehen wie es aussieht. gleich wieder ausgemacht. einfach nur übertrieben dieses ganze rt gedöhns. was da besser aussehen soll erschließt sich mir nicht ganz. geht haufen leistung für paar spiegelungen flöten. brauch ich nicht.
 
Wer sowas macht, darf sich aber auch nichts über die höhere Latenz von DLSS3 sagen...
Zudem 500Mbit/s ist Luxus der nicht überall bezahlbar oder überhaupt verfügbar ist.
Das ist schon klar, ist aber dennoch interessant, was mit einem Fernseher bereits ohne Konsole und PC möglich ist. Natürlich bevorzuge ich immer noch mein Rechner für Gaming.

PS: Ich könnte sogar 1000 MBit/s buchen, aber der Aufpreis rechnet sich in meinem Fall nicht und wir kommen mit der Hälfte auch noch gut aus. Natürlich ist mir auch bekannt, dass nicht jeder über solch einer Bandbreite verfügt. Wir selbst sind auch erst seit 3 Jahren an solch einer Bandbreite angebunden. Zuvor musste ich mich auch mit weniger begnügen.

P.S. Er redet über Gamepass Ultimate, soweit ich was funktioniert das NUR mit einem Gamepad und nicht mit Maus/KB.
Maus und Tastatur kann ich auch an meinem Fernseher anbinden.
 
Zuletzt bearbeitet von einem Moderator:
RDP schön und gut aber dafür brauchen Server nicht zwingen Grafikkarten. Wenns ums Rendern, Entwicklung und grafische Darstellung geht schon. 25 Mann sind auch nicht viel ;).

Teams und andere Videokonferenzen in VMWare will man sich nicht wirklich antun. Da schreien dann auch die Bürohengste nach etwas GPU Beschleunigung. Es geht ja nicht um viel. Aber trotzdem brauchst du ja eine GPU im Server die du so segmentieren kannst wie die CPU und die dann noch genug ist.
 
Teams auf Terminal Server würde ich eh nur in Betracht ziehen wenn z.B. Thin Clients zum Einsatz kommen und es nicht anders geht, dann wahrscheinlich nur Webbasierend. Ansonsten würde ich es Clientbasierend umsetzen.

Ich glaube wir schweifen ab.
 
Zuletzt bearbeitet:
Hä? Ohne FG runter bis auf 16 FPS und mit FG auf einmal über 100? Eigentlich verdoppelt FG doch die Bildrate?! Wie soll dieser große Unterschied zustande kommen?
Die Bildrate kommt zu stande weil, 4K die 4 fache Auflösung von Full HD darstellt und Pathtracing quasi linear und nicht logarithmisch wie Rasterization skaliert.

16 und 33 FPS in 4K nativ bilden eine genügend hohe Grundlage um in niedrigeren Auflösungen mit DLSS und dreistelligen Frameraten zu spielen.

Sobald der Pathtracer läuft, ist auch die Komplexität der Szene nicht mehr für die Performance allzu ausschlaggebend.
Ich aktiviere RT für geile Grafik um dann mit DLSS die Grafik wieder runter zu schrauben? :huh:
Nein, du schraubst die Grafik in Relation gesehen nach oben, vor allem verglichen mit einem Rasteransatz.

DLSS ist primär dafür da, die Qualität zu erhöhen, sprich eine höhere Auflösung, höhere Settings, mehr LoD aktivieren zu können und dennoch flüssig zu spielen.

Das erreicht man mit temporaler Akkumulation.
 
Zuletzt bearbeitet:
Die 90 hab ich einzig wegen dem Steckerdesaster nicht gekauft und ich Spiel nichtmal in 4K. Ich will halt immer die möglichst höchste Qualität genießen wenn ich denn mal Spiele. Und wenn das heißt die 4080 muss schnellstmöglich raus wenn die RTX 5000er oder RX 8000er kommen, dann ist das halt so.
:ka:
Was für ein Stecker Desaster?
Die RTX 4080 hat den gleichen Stromanschluss wie die RTX 4090.
 
Lächerlich, wir schrauben künstlich die Hardware Anforderungen in die höhe, so das es nur mit dem Topmodell flüssig läuft.
Sollte auch mit einer 4080 oder 4070 Ti gut laufen.

Meine alte RTX 3090 steht schon in den Startlöchern, erwarte mir 50 bis 60 FPS in WQHD mit DLSS Qualität.
Aha, wenn die das jetzt überall nachreichen wird die 4080 wohl die kürzeste Haltbarkeit aller GPU´s bei mir haben sobald neue Hardware auf den Markt kommt. :wall:
Dann schalte es doch ab. Niemand zwingt dich Pathtracing zu benutzen.
#Wutbürger

Raytracing ist echt interessant, aber nicht in dieser Zwischenlösung. Entweder NUR oder Gar nicht.
Kannst du diese Theorie näher ausführen?
Jede Entwicklung der bisherigen Computergrafik war nur eine Zwischenlösung bis zur nächsten Verbesserung.
Wenn man das zu Ende denkt, ist Raytracing/Pathtracing die Lösung und bisherige "Fake" Rasterumsetzungen sind eindeutig die Zwischenlösungen.
 
Zuletzt bearbeitet:
...nun wenn von 100 Lichtquellen bei bei Raytracing nur 10 einen Schatten werfen können, und Licht nur einmal an einer Oberfläche reflektiert wird - weil sonst keine flüssige Darstellung mehr möglich ist. Dann ist das realistisch genug.

Wenn bei Pathtracing die Anzahl der Lichtquellen und der geworfenen Schatten kein Limit hat und jedes Licht jeder Quelle auch mehrmals an Oberflächen zurückgeworfen wird, so ist dass enormer Vorteil - In Zukunft ist es egal wieviele Lichtquellen und Objekte, ein Leveldesigner in die Map platziert, weil es ein anderer Berechnungsansatz ist, - zwar braucht Pathtracing grundsätzlich mehr Leistung braucht, weil es präziser ist, aber gegenüber Raytracing nicht diese engen Limitierungen hat. - Es scheint als ginge die Zeit aufploppender Schatten, wenn man sich Straßenlaternen und Leuchtreklamen nähert vorbei.

Ich müsste es mir in Cyberpunkt noch einmal gezielt angucken, aber in der Regel ist die Zahl der Leucht-/Schattenquellen nicht hart limitiert. Ein Designer kann die Level zwar entworfen, dass rund "10" Lichtquellen dynamisch berechnet werden müssen. Aber wenn du dich so stellst, dass davon nur fünf in deinem Blickfeld sind, bleibt es bei diesen fünf – es werden nicht die weniger wichtigen, welche zuvor nur über Lightmaps simuliert wurden, zusätzlich geraytrayced. Genauso wenig kann man die präzise Berechnung für einzelne Lichtquellen plötzlich abschalten, wenn du eine Framerate-killende Perspektive finden, aus der 15 zu sehen sind. Wenn heute ein Schatten aufploppt, liegt das also nicht an einem harten Limit berechneter Lichtquellen, sondern nur an der Position dieser einen. Vermutlich war sie zuvor zu weit weg oder abseits der Sichtachse und wurde komplett ignoriert – nach einer Bewegung ploppt sie dann plötzlich ins Spiel. Das wird mit 100 der GPU zugemuteten Lichtquellen pro Szene vermutlich nicht besser, eventuell sogar schlimmer. Man könnte die Rechenzeit auch auf weit entfernte oder vermutlich gar nicht sichtbare Lichter verschwenden, dann könnten die natürlich nicht mehr ploppen. Aber man bekommt eindrucksvollere Preview-Screenshots, wenn man stattdessen mehr Lichtquellen innerhalb des Kernbereichs der Szene berücksichtigt. Also werden die Designer eher von fünfmal 10 potenziellen Ploppern in deiner Umgebung auf fünfmal 100 potenzielle Plopper aufrüsten.

Bei Raytrayced-Lichtquellen kamen zudem in allen bislang komplett damit arbeitenden Spielen Situationen hinzu, in der das Wirken des Denoisers klar erkennbar war. RTX-Titel erschummeln nämlich nicht nur zum Beispiel jeden zweiten Frame komplett mit FG und zusätzlich im ersten Pixel drei von vier Pixel mit DLSS Performance, selbst diese Pixel sind bei weitem nicht alle echtzeit-raytrayced. Ein wechselnder Anteil der Informationen wird temporal interpoliert, stammt also aus alten Frames, und wenn in denen zum Beispiel eine Lichtquelle fehlte, ist deren Schatten erst einmal unvollständig. Raff ich hatten vor kurzem in Half Life Raytrayced eine Stelle gefunden, da brauchte es bei circa 30-40 Fps knapp eine Sekunde, also mindestens 30 Frames, bis ein frisch aufgeploppter Schatten korrekt dargestellt wurde. Von UHD-Echtzeit-Vollbild-Berechnung, wie sie Rasterizer heute ermöglichen, ist Raytraycing viel weiter als "40 Prozent Mehrleistung" entfernt.
 
Zurück