Cyberpunk 2077: Neue Raytracing-Screenshots von CD Projekt Red und Nvidia

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Cyberpunk 2077: Neue Raytracing-Screenshots von CD Projekt Red und Nvidia

Bereits seit einiger Zeit ist bekannt, dass Cyberpunk 2077 optional auch auf Raytracing-Effekte für die Beleuchtungsdarstellung setzen wird. Nun haben sowohl die Entwickler als auch Nvidia im Rahmen der derzeit laufenden Gamescom neue Screenshots hierzu veröffentlicht.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Cyberpunk 2077: Neue Raytracing-Screenshots von CD Projekt Red und Nvidia
 
Raytracing steckt nach wie vor in den Kinderschuhen, die Nvidia User hypen es, ich amüsiere mich über sie.
 
Also ich vertraue keinen prerelease screens. Die sehen immer bestens aus, was zählt ist das was am Ende rauskommt und das ist i. d. R. meist weniger als das was vorab in Aussicht gestellt wurde, vor allem dann, wenn ein Spiel auch für Konsolen erscheint.

Raytracing schreitet mit 7 Meilenstiefeln voran, den AMD Usern stinkts, mich freut es.
Ja klar, in der Größe von Säuglingsschuhen... :lol:

MfG
 
Raytracing schreitet mit 7 Meilenstiefeln voran, den AMD Usern stinkts, mich freut es.

Ein ziemlich unpassender erster Kommentar für so ein Thema :daumen2: Er wirkt einfach provozierend mit der Behauptung in der Mitte. Kenne genug Leute welche eine Vega/Polaris und co. verbaut haben und RT sehr interessant finden.
Ich freue mich auch schon auf das Game inkl. Raytracing. Wenn die Optik und Performance passt gönne ich mir auch eine "echte" Raytracing Karte. Hoffentlich aber dann bereits die RTX3080(ti) :)

@RavionHD
Daumen sind gedrückt, Geldbeutel reichlich befüllt :ugly:
 
Sehe da jetzt auf den Screenshots zwar keinen großen Mehrwert beim Raytracing, aber das Spiel wird ziemlich sicher gekauft, wenn mein PC mal flott genug ist... Es sei denn Tests zeigen, dass auch mittlere Einstellungen bei mir drin sind, dann hätte das fast schon was nostalgisches, wie annodazumal bei einem Crysis oder Anno 1701, kurz mal alles hoch drehen, und bei einer Diashow von stärkerer Hardware zu träumen...
 
Bei aller Liebe zu CD Projekt RED und meiner Vorbestellung...

Hier sehe ich nichts noch nicht da gewesenes!
Bitte auf dem Boden der Tatsachen bleiben, Grafisch hat mich noch nichts aus den Latschen gehauen. Sieht alles gut aus und das wars dann auch.


Punkten tun Sie mit Ihrer bekannten Qualität und dem Umgang mit dem (potenziellen) Käufer. Weiter ist Witcher3 eine unerreichte Messlate die Sie übertreffen wollen.
Verkaufen tut sich Ihre frei begebare Science Fiction Welt die komplett durchdacht ist.
Nicht zu vergessen, der sehr Umfangreiche Inhalt schon mit der Standardversion.
...nur hier gebührt bis jetzt der Applaus.

Ich mag garnicht wenn Vorschusslohrbeeren erteilt werden oder Leute einfach nach dem "Fluss der Masse" reden.
Augen auf und bei Tatsachen bleiben. Realistisch und Unvoreingenommen.
 
Zuletzt bearbeitet:
Raytracing schreitet mit 7 Meilenstiefeln voran, den AMD Usern stinkts, mich freut es.
Es gibt jetzt schon neue Grafikkarten zu fairen Preisen zu kaufen, die >10x mehr RT-Rechenleistung als eine 2080Ti haben?

[Deutlich] Bessere/detailliertere (aber nicht zwingend "echte/echtere"!) Texturen haben aktuell (und auch noch eine ganze Weile) einen sehr viel größeren Einfluss auf die Immersion, als ein paar (und dann ja auch nur partiell) echte/natürliche Lichtstrahlen. Und danach kommen erst noch die "Kanten" (geometrische Genauigkeit/Details/Mesh).
 
Es gibt jetzt schon neue Grafikkarten zu fairen Preisen zu kaufen, die >10x mehr RT-Rechenleistung als eine 2080Ti haben?

[Deutlich] Bessere/detailliertere (aber nicht zwingend "echte/echtere"!) Texturen haben aktuell (und auch noch eine ganze Weile) einen sehr viel größeren Einfluss auf die Immersion, als ein paar (und dann ja auch nur partiell) echte/natürliche Lichtstrahlen. Und danach kommen erst noch die "Kanten" (geometrische Genauigkeit/Details/Mesh).
Was man schöner findet, hängt vom eigenen ästhetischen Empfinden ab und ist vollständig subjektiv.

Die Abweichung zum Fotorealismus ist objektiv quantifizierbar, das ist der technische Maßstab. Dass ohne gute Texturen und Geometrie nichts läuft, ist trivial. Wenn man auf dieses Argument abzielt, kann man genauso gut sagen, das höhere Auflösung oder höhere FPS die Immersion bei schlechten Texturen und/oder Modellen mit niedrigen Polygonzahlen eher noch verschlechtert. Je höher die Auflösung und desto schärfer das Bild, desto mehr fallen die Fehler auf. Es ist also eine Abwägungsfrage, wie so vieles. Die Preise werden noch sinken, die Leistung steigen, so wie immer.
 
Was man schöner findet, hängt vom eigenen ästhetischen Empfinden ab und ist vollständig subjektiv.
Danke dass du mir zustimmst. Eigentlich ist sowas aber größtenteils "simple" Mathematik. Gerade weil "schöner" nicht automatisch "echter" bedeuten muß. Siehe zb. "Schönheits-OPs". Man kann etwas schöner finden was unecht(er)/unnatürlich(er) ist. ;)
Die Abweichung zum Fotorealismus ist ...
Relativ. Was verstehst du unter "Fotorealismus"? Echte echte Lichtstrahlen? Oder Strahlen die nur "wie echt" aussehen, bzw. als "echte" Strahlen empfunden werden? ;)

Entscheidend ist bei der visuellen (sowie akustischen, und später auch mal haptischen, olfaktorischen und auch gustatorischen) Darstellung/Interpretation nämlich nur, was der Mensch als "besser" (= "realistischer") empfindet - und das hat mit der "echten" Realität nicht zwingend etwas (eigentlich gar nichts) zu tun. Klar, ein gewisser Grad an Details ist erforderlich, um etwas als "echt" empfinden zu können. Aber es muß deswegen ja nicht "echt echt" sein. Weder die Geometrie, noch die Oberfläche usw.

Ein Stein zb. muß einen Detailgrad erreichen, der dem Menschen den Eindruck vermittelt der Stein sei echt. Aber er muß dazu nicht wie ein echter Stein aussehen - und schon gar nicht so beleuchtet werden. Weder wie ein Stein den der Mensch kennt, noch wie einer den der Mensch nicht kennt, den es aber irgendwo im unendlichen Universum gibt - oder zumindest geben könnte. Er kann auch wie ein Stein aussehen den es so gar nicht gibt. Zb. optisch ein Diamant, geometrisch/physikalisch verhält er sich aber wie ein Wackelpudding.

Was hast du schon alles in Filmen gesehen, und (meistens unbewusst) gedacht dass das so ist, obwohl es gar nicht "echt", sondern 100% ein Fantasieprodukt war.

Wenn ein Objekt eine bestimmte geometrische Komplexität erreicht, seine Oberfläche einen "natürlichen" ("könnte so sein") Eindruck! erweckt - man also nicht durch "unnatürliche" (zb. Aliasing-) Kanten oder Strukturen usw. beim Betrachten daran erinnert wird, dass das Objekt nicht echt sondern fake/digital berechnet ist - dann wird dieses Objekt vom Betrachter als "echt" definiert/empfunden. Ganz egal ob es mathematisch/physikalisch korrekt beleuchtet wird oder nicht, oder ob es das Objekt/Material usw. wirklich gibt. Andersherum funktioniert es aber nicht. Wenn die geometrische Komplexität sowie die Oberfläche nicht einen bestimmten Detailgrad erreichen/überschreiten, dann kann das Licht so echt berechnet sein wie es will, das Objekt wird deswegen nicht automatisch als echt wahrgenommen.

Also ja, ob und wie einem das aktuelle RT gefällt oder nicht ist subjektiv, der Einfluss auf die Immersion aber nicht. Nur wenn das künstliche berechnete Licht "schlecht" gemacht ist, wird "echtes" Licht IMMER als besser empfunden. Und genau hier sieht man den Vorteil der virtuellen Realität - sie unterliegt einfach keinen physikalischen Beschränkungen/Gegebenheiten - anders wie die "echte" Realität. ;)

Oder um es ganz einfach auszudrücken:

Ein Lichtschwert wird von quasi jedem Betrachter als "echt" empfunden, obwohl es zu 100% ein Fantasie-Produkt ist, und so in seiner Funktion auch physikalisch gar nicht möglich wäre. Aber wenn die nötigen Variablen stimmen, ist die "echte" Physik völlig egal - für den Zuschauer fühlt es sich "echt" an. :D
 
Raytracing steckt nach wie vor in den Kinderschuhen, die Nvidia User hypen es, ich amüsiere mich über sie.

Es ist der nächste Schritt hin zu Foto realistischer Grafik, das muss zwar nicht gehyped werden, allerdings supported oder zumindest mit etwas Interesse verfolgen.

Dachte das Forum ist technikinteressiert.
Ja klar, in der Größe von Säuglingsschuhen... :lol:

Die Adaptionsrate ist besser als bei Directx12.
 
Danke dass du mir zustimmst. Eigentlich ist sowas aber größtenteils "simple" Mathematik. Gerade weil "schöner" nicht automatisch "echter" bedeuten muß. Siehe zb. "Schönheits-OPs". Man kann etwas schöner finden was unecht(er)/unnatürlich(er) ist. ;)
Das war nicht, was ich ausdrücken wollte. Es ging ja um eine Beurteilung des Effektes von Raytracing für die Immersion in Computerspielen. Ein Beispiel wäre hier Comicfilm zu CGI-Film mit echten Schauspielern. Oder Final Fantasy mit gerenderten Darstellern zu einer Verfilmung mit echten Darstellern usw. Eine Theorie des Schönen oder "Echten" jenseits der Simulation physikalischer Beleuchtung virtueller Realitäten, das würde mich dann doch überfordern und vermutlich auch das Thema Computerspiele überfrachten. Ist doch eher Philosophie. :)

Relativ. Was verstehst du unter "Fotorealismus"? Echte echte Lichtstrahlen? Oder Strahlen die nur "wie echt" aussehen, bzw. als "echte" Strahlen empfunden werden? ;)

Entscheidend ist bei der visuellen (sowie akustischen, und später auch mal haptischen, olfaktorischen und auch gustatorischen) Darstellung/Interpretation nämlich nur, was der Mensch als "besser" (= "realistischer") empfindet - und das hat mit der "echten" Realität nicht zwingend etwas (eigentlich gar nichts) zu tun. Klar, ein gewisser Grad an Details ist erforderlich, um etwas als "echt" empfinden zu können. Aber es muß deswegen ja nicht "echt echt" sein. Weder die Geometrie, noch die Oberfläche usw.

Ein Stein zb. muß einen Detailgrad erreichen, der dem Menschen den Eindruck vermittelt der Stein sei echt. Aber er muß dazu nicht wie ein echter Stein aussehen - und schon gar nicht so beleuchtet werden. Weder wie ein Stein den der Mensch kennt, noch wie einer den der Mensch nicht kennt, den es aber irgendwo im unendlichen Universum gibt - oder zumindest geben könnte. Er kann auch wie ein Stein aussehen den es so gar nicht gibt. Zb. optisch ein Diamant, geometrisch/physikalisch verhält er sich aber wie ein Wackelpudding.

Was hast du schon alles in Filmen gesehen, und (meistens unbewusst) gedacht dass das so ist, obwohl es gar nicht "echt", sondern 100% ein Fantasieprodukt war.
Der Versuch einer konkreten Antwort. Nehmen wir Metallic Grün als Farbe eines Automobils der Serie xyz. Dieses Grün muss über den gesamten Produktionszyklus das exakt gleiche Grün sein, weil im Falle von Reparaturen sonst kein Lack zur Verfügung stünde, der für dieses Modell bei Kratzern geeignet wäre, es ohne sichtbare Abweichungen zu reparieren. Und das, obwohl die Farbe aus verschiedenen Komponenten über viele Jahre immer wieder neu gemischt wird, jede Charge muss exakt den gleichen Farbwert haben. Für das menschliche Auge ist das nicht leistbar.
Also was bedeutet gleich? Gleich bedeutet in dem Fall, dass geeichte Fotorezeptoren den Farbwert exakt erfassen. Anschließend können die Komponenten der Farbe, wiederum automatisiert, jederzeit aufs neue so gemischt werden, dass immer wieder das gleiche Metallic Grün herauskommt. Eine farbechte Wiedergabe wäre es nun, wenn auf dem Monitor des zuständigen Designers der Monitor exakt das gleiche Grün zeigt, wie es der Lack des Automobils in der Realität hat. Ein "Foto" des Autos im Monitor müsste dann den gleichen Grünwert ergeben, selbstverständlich unter standardisierten Lichtbedingungen.
Einen Schritt weiter geht man im Raytracing, wenn man die standardisierten Lichtbedingungen nur simuliert und das Grün nur ein Produkt des Oberflächen Shaders darstellt, der auf dem Monitor gezeigt wird. Man hat dann ein simuliertes Grün. Ist das Raytracing gut, wird ein an den Monitor gehaltener Fotosensor den gleichen Messwert ergeben, wie ein an das fertige Auto gehaltener Fotosensor. Das wäre dann perfekt, bei Monitoren gibt es dazu Werte zum Farbraum, je besser, desto teurer. Monitore und Renderer, die eine solche Perfektion aufweisen, werden z.Bsp. für die Produktvisualisierung in den Entwicklungszentren großer Automobilkonzerne oder anderer Design-Zentren verwendet.

Das wäre dann nichts anderes als eine nahezu perfekte Simulation physikalischer Beleuchtung.

Was der Mensch dann dank seiner Fantasie mit dem System/Renderengine an virtuellen Realitäten schafft, ist davon völlig unabhängig. "Echt" wirkt es nur, wenn die Abweichungen zwischen Simulation und den Erfahrungswerten des Gehirns beim Interpretieren der von den Augen gelieferten Informationen so gering sind, das sie dem Gehirn als plausibel erscheinen. Es ist ja keinesfalls so, das wir alles kennen, was wir sehen. Ganz im Gegenteil, wir sehen sehr vieles, das wir weder genau kennen noch genau verstehen. Das Gehirn kategorisiert alles sehr Grob, um uns eine Orientierung zu ermöglichen. Deshalb funktionieren fantastische Motive so gut. Sie funktionieren sogar um so besser, je unbekannter uns etwas ist. So nehmen wir geringste Abweichungen in der Mimik eines Menschen war oder abweichende Färbungen der Haut durch Krankheiten, Stress usw. Daran beißen sich selbst CGI Experten noch hier und da die Zähne aus. Aber sieht man das Gesicht eines Alien mit völlig irren Farben - und ist der Renderer gut programmiert, erscheint das Alien als Echt und zwar genau deswegen, weil wir keinen Vergleichswert haben, unser Gehirn nicht im Umgang mit diesem Alien "trainiert" ist, wie es durch tägliche soziale Interaktion den Umgang mit dem Menschen trainiert hat. Ist das Raytracing schlecht, wird das Gehirn das Alien eher wie eine Comiczeichnung interpretieren. Da gibt es den interessanten Zusammenhang, das schlechte Simulationen menschlicher Gesichter abstoßender wirken, als Strichzeichnungen/Comicfiguren.


Wenn ein Objekt eine bestimmte geometrische Komplexität erreicht, seine Oberfläche einen "natürlichen" ("könnte so sein") Eindruck! erweckt - man also nicht durch "unnatürliche" (zb. Aliasing-) Kanten oder Strukturen usw. beim Betrachten daran erinnert wird, dass das Objekt nicht echt sondern fake/digital berechnet ist - dann wird dieses Objekt vom Betrachter als "echt" definiert/empfunden. Ganz egal ob es mathematisch/physikalisch korrekt beleuchtet wird oder nicht, oder ob es das Objekt/Material usw. wirklich gibt. Andersherum funktioniert es aber nicht. Wenn die geometrische Komplexität sowie die Oberfläche nicht einen bestimmten Detailgrad erreichen/überschreiten, dann kann das Licht so echt berechnet sein wie es will, das Objekt wird deswegen nicht automatisch als echt wahrgenommen.
Darum geht es beim Raytracing auch nicht. Es geht nicht darum, ob das dargestellte Echt ist oder nicht, sondern ob die Regeln der Darstellung auf der Basis physikalischer Gesetzmäßigkeiten fußen. Tun sie das nicht, wirken echte Objekte genau so falsch, wie falsche Objekte. Ist das Raytracing gut, erscheinen reale Objekte wie ein Auto genauso realistisch wie z.Bsp. ein fliegendes Auto/Sci-Fi. Das ist auch die Stärke des Raytracing. Stimmen die Shader und die Raytracing Engine, kann man jede Fantasie echt wirken lassen ohne das es allzu großen Aufwand macht, wie bei Biased Engines, wo man physikalische Beleuchtung durch Tricks simuliert (dafür sind sie schneller). Natürlich muss da auch das Mesh stimmen. In Computerspielen werden aber wegen der Anforderungen an die Geschwindigkeit grundsätzlich Geometrie mit niedriger Polygonzahl verwendet und die Oberflächendetails durch Shadermaps simuliert. Am bekanntesten sind da wohl die normal Maps. Dadurch erscheinen selbst Objekte mit einfacher Geometrie unheimlich Detailreich. Das macht man beim Raytracing nicht anders, sonst geht der Aufwand für die Hardware förmlich durch die Decke. In dem Programm, das ich verwende, ist es durchaus möglich, Menschen mit einem Mesh zu laden, das in der Geometrie Details bis hinunter zur Hautpore (ohne Haare) zu verwenden. Aber mehr als 2-3 davon gleichzeitig zu verwenden, schafft mein PC dann nicht mehr. Ein Frame dauert dann aber auch 1-2 h Renderzeit. Nicht gerade die FPS, die man in Computerspielen erwartet. :D
Also ja, ob und wie einem das aktuelle RT gefällt oder nicht ist subjektiv, der Einfluss auf die Immersion aber nicht. Nur wenn das künstliche berechnete Licht "schlecht" gemacht ist, wird "echtes" Licht IMMER als besser empfunden. Und genau hier sieht man den Vorteil der virtuellen Realität - sie unterliegt einfach keinen physikalischen Beschränkungen/Gegebenheiten - anders wie die "echte" Realität. ;)

Oder um es ganz einfach auszudrücken:

Ein Lichtschwert wird von quasi jedem Betrachter als "echt" empfunden, obwohl es zu 100% ein Fantasie-Produkt ist, und so in seiner Funktion auch physikalisch gar nicht möglich wäre. Aber wenn die nötigen Variablen stimmen, ist die "echte" Physik völlig egal - für den Zuschauer fühlt es sich "echt" an. :D
Dem kann ich voll zustimmen, habe ja schon vorher erwähnt, das physikalisch korrekte Beleuchtung die Grundlage dafür ist, das überhaupt irgend etwas "echt" erscheint. Hat man das einmal hinbekommen, erscheint dann alles echt, vom Lichtschwert bis King Kong. Bei den Plüschpuppen, die man da in den 60ern für die Darstellung von King Kong genommen hat, hatte das Gehirn noch etwas mehr Mühe mit der Immersion. Aber wenn die Fantasie stimmt, geht selbst das. Kinder können das ganz hervorragend.

Darüber hinaus weiß man ja, das auch konventionelle Spielfilme nicht die Wirklichkeit abbilden, selbst wenn kein CGI zum Einsatz kommt, sind alles nur Schauspieler, echte Menschen zwar, aber letztlich alles "Fake" :)
 
Zuletzt bearbeitet:
Das war nicht, was ich ausdrücken wollte. Es ging ja um eine Beurteilung des Effektes von Raytracing für die Immersion in Computerspielen. Ein Beispiel wäre hier Comicfilm zu CGI-Film mit echten Schauspielern. Oder Final Fantasy mit gerenderten Darstellern zu einer Verfilmung mit echten Darstellern usw.
Mitnichten wäre Derartiges ein angebrachter Vergleich, eben weil die Lichtberechnung keinen solchen Einfluss auf die Qualität der optischen Darstellung (und damit die Immersion) hat, wie die von dir erwähnten Vergleiche. RT ist komplett oberflächlich, und auch dort nur ein kleiner Aspekt. Siehe zb. Quake 1 mit Raytracing. Sieht toll aus, aber selbst wenn es komplett (und nicht nur partiell) mit RT berechnet wird, wird es immer noch ganz genau so "unecht" empfunden wie das klassische Quake 1 - nur eben mit RT. Anders wäre es, wenn es Quake 1 mit ultra hoher geometrischer Komplexität wäre, und mit einer Oberfläche so detailliert, dass diese als "echt" empfunden wird - und auch mit einer Lichtberechnungen die nicht auf der "echten" Physik beruht.

Dann nämlich wäre der Unterschied durchaus wie die von dir genannten Beispiele. Aber eben nicht wenn es nur um die Lichtberechnung geht.
 
Cyberpunk wird mit oder ohne Raytracing gut aussehen, und vielen AMD Usern geht dieses „Feature“ am A... vorbei, ich freue mich auf eine geniale Welt und Story die so fesselnd ist dass mir solche Spielereien eh gänzlich egal sind.
Klar, das müssen sie ja sagen wenn es die AMD-Technik nicht hergibt.
Aber AMD-User sind es ja gewohnt immer etwas weiter zurückzuliegen.
 
Zurück