Cyberpunk 2077: 8K-Raytracing wird ohne DLSS zur Slideshow

Wenn ich mich recht erinnere, erkannt man bei einem Sitzabstand von ca. 45 - 60 cm ab ca. 95 PPI keinen Unterschied mehr bei Filmen, Spielen etc. Beim Lesen ist es etwas anderes, da hat eine hohe Pixeldichte (bis 264 PPI) Auswirkungen auf das Leseverständnis, die Korrekturleistung, den Gemütszustand und das körperliche Unbehagen (gilt auch für höhere Herzzahlen). Macht sich natürlich nicht gut als Werbeslogan. Wenn das in der breiten breiten Bevölkerung ankommen würde - was es vermutlich nicht wird - müssten neue Lösungen her. Für den Desktop und das Lesen von Texten eine unwahrscheinlich hohe Pixeldichte und für das konsumieren von Medien mindestens 95 PPI bei 45 - 60cm Abstand. Aber man müsste eben nicht mehr den 4K, 8K, 16K und so weiter hinterher laufen, und dementsprechend Geld für Hardware ausgeben (von VR mal abgesehen).
Du hast noch was vergessen. Die eigene Sehleistung (Visus). Warum gehen immer alle bei diesen Rechnungen davon aus, dass alle die gleichen Augen haben?
Was man auch nicht außer Acht lassen darf: Bloß weil man einen leichten Unterschied sieht, weil man knapp an der Grenze der eigenen Sehleistung ist, muss man ja nicht unbedingt die höhere Auflösung wählen. Ich meine wenn man so weit weg vom Bildschirm sitzt, dass 4K nur minimal besser als WQHD aussieht, sollte man dann gleich auf 4K gehen? Oder hat man lieber die doppelten FPS, bzw. andere grafische Feinheiten?
 
Was man auch nicht außer Acht lassen darf: Bloß weil man einen leichten Unterschied sieht, weil man knapp an der Grenze der eigenen Sehleistung ist, muss man ja nicht unbedingt die höhere Auflösung wählen. Ich meine wenn man so weit weg vom Bildschirm sitzt, dass 4K nur minimal besser als WQHD aussieht, sollte man dann gleich auf 4K gehen? Oder hat man lieber die doppelten FPS, bzw. andere grafische Feinheiten?
Persönlich habe ich mit 4K das Limit dahingehend erreicht. Die Sprünge von 640x480 bis hin zu 4K hab ich alle mitgemacht und jedes Mal wars eine Offenbarung. Von 4K auf 8K ists aber so... naja... muss nicht auch wenns ein bissl besser ist.

Wenn also in 4K die vole Grafikquali (ohne Tricks) in hohgen fps dargestellt werden kann ist für mich die (Auflösungs-)Reise am Ende. Denn mehr als 4K brauche ich persönlich definitiv nicht - ich sehe selbst heute den Unterschied praktisch nicht mehr in meinen Diagonalen/Abständen und meine Augen werden nach dem 40. Lebensjahr sicher nicht mehr besser). Vielleicht ist also mit ner RTX4080Ti oder so das Ziel erreicht wo ich sagen kann 4K mit allem Ultra hält immer midenstens die 60fps. Dann habe ich nach 30 Jahren aufrüsten die Ziellinie erreicht. :haha:
 
Persönlich habe ich mit 4K das Limit dahingehend erreicht. Die Sprünge von 640x480 bis hin zu 4K hab ich alle mitgemacht und jedes Mal wars eine Offenbarung. Von 4K auf 8K ists aber so... naja... muss nicht auch wenns ein bissl besser ist.

Wenn also in 4K die vole Grafikquali (ohne Tricks) in hohgen fps dargestellt werden kann ist für mich die (Auflösungs-)Reise am Ende. Denn mehr als 4K brauche ich persönlich definitiv nicht - ich sehe selbst heute den Unterschied praktisch nicht mehr in meinen Diagonalen/Abständen und meine Augen werden nach dem 40. Lebensjahr sicher nicht mehr besser). Vielleicht ist also mit ner RTX4080Ti oder so das Ziel erreicht wo ich sagen kann 4K mit allem Ultra hält immer midenstens die 60fps. Dann habe ich nach 30 Jahren aufrüsten die Ziellinie erreicht. :haha:

Oberhalb von 4K geht es eigentlich nur um Perfektion, zumindest wenn man Bilddiagonalen bis 32" verwendet. Was nicht bedeutet, dass 8K und 16K unwichtig wären, Perfektion ist immer gut. Allerdings tritt bei mir dann die Bildwiederholrate in den Vordergrund, 4K240 haben da einfach Priorität, gegenüber 8K60. Irgendwann gibt es hoffentlich auch mal 8K240.

Die höhere Auflösung, mittels DLSS, zu nutzen, um die geringeren Auflösungen stark aufzumöbeln, ist ein Vorteil, den man nicht von der Hand weisen kann. 720p auf 4K hochskaliert steckt normales 1080p locker in die Tasche, von daher dürfte das hochskalierte 8K normales 4K vernichtend schlagen und dabei nur etwa soviel brauchen, wie normales 1440p. Nvidia hat die Quadratur des Kreises hinbekommen.

Dass man mit der RTX 4080Ti alles in 4K@ Ultra schafft, glaubst du wohl selbst nicht, wenn schon die RTX 3090 Cyberpunk 2077 nur in 1440p60 rendern kann, wenn man nicht auf Raytracing verzichtet. Da wäre mehr als nur eine Verdoppelung notwendig und die wird es in Zukunft vermutlich nichtmehr geben (und dann entwickeln sich Spiele permanent weiter. Aber dank DLSS könnte man die Spiel auch tatsächlich in 720p auf 4K hochskaliert zocken, ohne dass einem die Augen rausfallen. Eventuell hält eine RTX 3080Ti 20GB somit an die 10 Jahre (wenn man Glück bzw Pech hat, je nachdem, wie man es sieht).
 
Zuletzt bearbeitet:
Wir sehen uns in 20 jahren bei 16K
Umd 360Hz

RTX 13090 ich freue mich schon drauf.
Dich an meinem ca. 200 Zoll fernseher in Arbeit zu sehen...
 
"denn selbst eine RTX 3090 mit aktiviertem DLSS schafft das kaum."

Aber Hauptsache der tolle CEO hat diese als 8K Karte beworben.

"Zum Testen kam dabei ein aktuelles High-End-System zum Einsatz: Einem i9-10900K"

Und was soll an einem 10900K High End sein ?!? ;-)

MfG Föhn.
 
Nur die Ruhe, CD Project Red der Markführer in Sachen RPG ist ja dran.
https://img.pr0gramm.com/2020/12/24/5a338c78d5e70ce1.jpg
Das Bild beschreibt sehr treffend den Zustand von Cyberpunk 2077 :D

Dann habe ich nach 30 Jahren aufrüsten die Ziellinie erreicht. :haha:
Das glaubst du doch selber nicht. Viele haben früher schon gesagt, dass ihnen FHD reicht. Das war als 4K kaum verbreitet war. Man wird automatisch irgendwann auf 8K aufrüsten, weil es dann zum gängigen Standard geworden ist. Wird nur ab diesem Zeitpunkt mindestens zehn bis fünfzehn Jahre dauern bis es soweit ist, schätze ich mal. 4K ist ja jetzt nicht mal weit verbreitet.
 
Überraschung?!
 

Anhänge

  • tenor.gif
    tenor.gif
    16,6 KB · Aufrufe: 9
Games laufen in 4K schon wie Arsch wenn es einigermaßen Grafisch anspruchsvoll ist
Ich hab u.A. zufrieden beide AC:O (mit leicht angepassten Details auf ner 1080), HZD(quasi Vollgas auf ner 2080Ti) und alle Tomb Raider Teile(ebenfalls angepasst auf 1080) in UHD+HDR gespielt. "Wie Arsch" fühlte sich das nicht an und unglaublich gut sah es sowieso aus :ka: .
8k wird wohl erstmal als Downsampling Auflösung interessant falls bei älteren Titeln Mal wieder Leistung übrig ist. Wobei da in der Regel auch die Assets am Limit sind und man so gegenüber vollem AF nicht mehr viel rausholen kann.
 
Das glaubst du doch selber nicht. Viele haben früher schon gesagt, dass ihnen FHD reicht. Das war als 4K kaum verbreitet war. Man wird automatisch irgendwann auf 8K aufrüsten, weil es dann zum gängigen Standard geworden ist. Wird nur ab diesem Zeitpunkt mindestens zehn bis fünfzehn Jahre dauern bis es soweit ist, schätze ich mal. 4K ist ja jetzt nicht mal weit verbreitet.

In den 80ern haben auch viele geglaubt, dass ISDN für alle Ewigkeiten reichen würde, es sollte anders kommen.
 
Echt jetzt...CP 2077 läuft ruckelig in 8k :wow: ??? Das darf nicht sein da sollte man schleunigst Protese gegen einleiten :ugly:.
 
Das Bild beschreibt sehr treffend den Zustand von Cyberpunk 2077 :D


Das glaubst du doch selber nicht. Viele haben früher schon gesagt, dass ihnen FHD reicht. Das war als 4K kaum verbreitet war. Man wird automatisch irgendwann auf 8K aufrüsten, weil es dann zum gängigen Standard geworden ist. Wird nur ab diesem Zeitpunkt mindestens zehn bis fünfzehn Jahre dauern bis es soweit ist, schätze ich mal. 4K ist ja jetzt nicht mal weit verbreitet.
zu recht, ich kann nämlich mit einer 10 Jahre alten Mühle noch faat alles spielen in FHD, warum sollte ich die Auflösung ändern, wenn ich dann wieder viel mehr Aufrüstdruck hätte: ich hätte gerne meinen Syncmaster 2770h (60hz, 27 Zoll Gaming monitor von 2010, 200 Euro) aufgerüstet, aber jeder Aufrüstpfad führt dazu, dass ich auch anderes upgraden müsste:4K? ständig neue GPU nötig. 144hz Monitor? neue GPU UND neue CPU um das zu nutzen, schon bei FHD, aber 1440p müsstens schon mindestens werden. und HDR am besten auch gleich
 
Zuletzt bearbeitet:
zu recvt, ich kann nämlich mit einer 10 Jahre alten Mühle noch faat alles spielen in FHD, warum sollte ich die Auflösung ändern, wenn ich dann wieder viel mehr Aufrüstdruck hätte: ich hätte gerne meinen Syncmaster 2770h (60hz, 27 Zoll Gaming monitor von 2010, 200 Euro) aufgerüstet, aber jeder Aufrüstpfad führt dazu, dass ich auch anderes upgraden müsste:4K? ständig neue GPU nötig. 144hz Monitor? neue GPU UND neue CPU um das zu nutzen, schon bei FHD, aber 1440p müsstens schon mindestens werden. und HDR am besten auch gleich
Naja zehn Jahre ist schon etwas extrem. Ich weiß wovon ich spreche. Ich hatte vor meinem jetzigen PC der auf Höhe von 2010-2012 war. Meinen aktuellen PC werde ich noch ein paar Jährchen behalten und höchstens noch die CPU einmal aufrüsten. Denke mal dann zum Ende der aktuellen Konsolengeneration schaue ich dann mal weiter. Die meisten Spiele heutzutage sind genügsam in niedrigen Einstellungen und das ist genau dein Glück. Ich weiß nicht, jetzt wo ich mich an hohe Auflösungen und all den Schnickschnack gewöhnt habe, möchte ich ihn nicht mehr missen :D
Du hattest diesen "Luxus" nie, daher vermisst du ihn auch nicht. Hat Vor- und Nachteile. Ich persönlich würde nicht mehr unter WQHD mit mindestens sehr hohen Details gehen. Gaming ist nun mal leider ein teures Hobby (geworden). Zumindest wenn man einen potenten PC haben möchte.
 
Naja zehn Jahre ist schon etwas extrem. Ich weiß wovon ich spreche. Ich hatte vor meinem jetzigen PC der auf Höhe von 2010-2012 war. Meinen aktuellen PC werde ich noch ein paar Jährchen behalten und höchstens noch die CPU einmal aufrüsten. Denke mal dann zum Ende der aktuellen Konsolengeneration schaue ich dann mal weiter. Die meisten Spiele heutzutage sind genügsam in niedrigen Einstellungen und das ist genau dein Glück. Ich weiß nicht, jetzt wo ich mich an hohe Auflösungen und all den Schnickschnack gewöhnt habe, möchte ich ihn nicht mehr missen :D
Du hattest diesen "Luxus" nie, daher vermisst du ihn auch nicht. Hat Vor- und Nachteile. Ich persönlich würde nicht mehr unter WQHD mit mindestens sehr hohen Details gehen. Gaming ist nun mal leider ein teures Hobby (geworden). Zumindest wenn man einen potenten PC haben möchte.
natürlich ist das leicht übertrieben. Ich bin halt auf verschiedenen PCs unterwegs, aber mir persönlich ist es eben fast egal ob alles auf max ist oder nicht. Der PC meiner Frau, auf dem ich öfter Spiele, ist schon sehr alt: CPU ist ein Core i7 (@4ghz allcore) von 2008, die GPU eine Radeon 7970 (aka 280X) von 2011). Cyberpunk würde ich drauf nicht spielen wollen, das wird hal erst gekauft mit dem neuen PC. Aber fast alle Spiele laufen bislang noch, manche halt auf mid Details wie etwa Doom Eternal. Klar wär ein Upgrade längst angesagt, aber ich bin ein User der eher erst Upgradet wenns wirklich nötig ist oder was kaputt geht (beim PC meiner Frau ging die 6870 ein, es wanderte meine 7970 rüber und ich hab mir um 200€ die 1060 gekauft, Im Moment ist der PC wie auch der meiner Frau hauptsächlich zum Arbeiten da, läuft seit 2008 fast 10h täglich und ich bin überrascht, dass alles noch so super läuft. Aber natürlich juckt es mich in den Fingern, mal wieder ordentlich upzugraden.... aber ich hab noch nicht DIE Hardware gesehen, die meinen treuen Diener beerben wird. Das is was emotionales bei mir, weil ich den Knecht ja dann wieder viele Jahre haben möchte ;)

richtig notwendig wirds wenn der Großteil der Spiele für die Next-Gen gemacht werden, aber solange die Spiele auch für PS4 und Co mitentwickelt werden, laufen sie auch auf uralt PCs. So um 2023 werd ich wohl aufrüsten :-)
 
Zuletzt bearbeitet:
Bild ist Mist. Kein HDR und echtes RT.

:ugly:

äh nein. oder jedenfals nicht aus dieser "kurzen" Distanz.
Schalte mal von 1080 auf 1440 und dann auf 2160 und ggf. höher.

Ich habe die Zahl 200 oder 250 ppi gelesen; stellt sich dann die Frage warum Smartphones 500+ dpi haben.
(weil sie es können ?)
Ich beziehe mich auf wissenschaftliche Studien: Effects of high pixel density on reading comprehension, proofreading performance, mood state, and physical discomfort
Meintest du Herz(schlag)frequenz oder die Einheit Hertz (Frequenz), benannt nach dem deutschen Physiker Heinrich Hertz?
Es tut mir sehr leid, dass Dich mein Tippfehler so sehr verwirrt hat. Selbstverständlich sind Hertz gemeint. Ich hoffe Du hast keine bleibenden Schäden davongetragen?
 
Zuletzt bearbeitet:
Es tut mir sehr leid, dass Dich mein Tippfehler so sehr verwirrt hat. Selbstverständlich sind Hertz gemeint. Ich hoffe Du hast keine bleibenden Schäden davongetragen?
Da sagste wat. Meine Herzzahl stieg schon in gefährliche Bereiche und es hatte erhebliche "Auswirkungen auf das Leseverständnis, die Korrekturleistung, den Gemütszustand und das körperliche Unbehagen"...:ugly::daumen:
 
Zurück