Crysis: Crytek zeigt, wie das Remaster in 8K aussieht

Das Bild lässt mich komplett kalt...
Bin mal gespannt wenn wir echtes Gameplay sehen.

P.S. Auf der One X läuft zum Beispiel RDR2 in nativen 4K, genau wie die meisten MS Exclusiv Spiele. Sind dann zwar meist nur 30Fps aber leider limitiert in der noch aktuellen Gen der langsame CPU Part.
 
Krass. Das hätte ich nicht gedacht.:wow:
Screenshot_20191017_091020_com.google.android.youtube.jpg Screenshot_20191017_091444_com.google.android.youtube.jpg

Das ist nur ein Beispiel, aber in Forza und Battlefield ist meine RX 5700 Xt Karte oberhalb von einer RTX 2080, bei anderen Games unterhalb von einer RTX 2070...

Aber Offtopic Ende, es geht um Crysis^^

Das Bild lässt mich komplett kalt...
Bin mal gespannt wenn wir echtes Gameplay sehen.

P.S. Auf der One X läuft zum Beispiel RDR2 in nativen 4K, genau wie die meisten MS Exclusiv Spiele. Sind dann zwar meist nur 30Fps aber leider limitiert in der noch aktuellen Gen der langsame CPU Part.

Mich auch, weil ich schon eine bessere Grafik (rein von Details und Texturen her) in meinem Crysis nutze.
 
hab mir dein video nun auch mal angesehen und es schaut schon gut aus.

aber für mich gibt es da dieses riesige problem: mods können da dann vieles deutlich verschönern, aber es sieht so clean aus. das spiel bleibt das spiel, ohne leben. für mich sieht das aus, als ob man da ein paar schöne screenshots machen könnte, nur in bewegung ist das so dermaßen künstlich. wie gesagt, viele mods verschönern ein spiel, aber dadurch hauchen sie ihm noch lange kein leben ein.
 
hab mir dein video nun auch mal angesehen und es schaut schon gut aus.

aber für mich gibt es da dieses riesige problem: mods können da dann vieles deutlich verschönern, aber es sieht so clean aus. das spiel bleibt das spiel, ohne leben. für mich sieht das aus, als ob man da ein paar schöne screenshots machen könnte, nur in bewegung ist das so dermaßen künstlich. wie gesagt, viele mods verschönern ein spiel, aber dadurch hauchen sie ihm noch lange kein leben ein.
Denkst du im Remaster von Crytek wird es anders? sie werden paar Effekte hinzufügen, bessere Texturen, neue Shader, aber unterm Strick wird es so leer wie zuvor. Ich habe wenigstens mehr Tiere und Pflanzen hinzugefügt um es lebendiger wirken zu lassen. Auch neue Pflanzen die in eine Insel passen.
 
Denkst du im Remaster von Crytek wird es anders? sie werden paar Effekte hinzufügen, bessere Texturen, neue Shader, aber unterm Strick wird es so leer wie zuvor. Ich habe wenigstens mehr Tiere und Pflanzen hinzugefügt um es lebendiger wirken zu lassen. Auch neue Pflanzen die in eine Insel passen.

warum wartet man es nicht erstmal ab? das ist für mich auch so ein problem. noch bevor etwas veröffentlicht wurde, wird darüber geurteilt. das gibt es hier, das ist auch bei der vermutlichen me-remaster-trilogie zu beobachten usw..
mein gott, abwarten und tee trinken und nicht schon immer noch nicht veröffentlichtes schlecht machen.

es ist super, dass du mit den mods zufrieden bist, das will ich dir auch überhaupt nicht nehmen, ich habe aber eben auch eine eigene meinung zu der crysis-reihe ansich und die ist nicht unbedingt sonderlich positiv. für mich sind das einfach mittelmäßige shooter inkl. eher billiger story mit überwiegend toller technik.
 
Der Sinn ist, dass es fast keine sichtbaren Pixel mehr gibt. Ich habe diese Pixeldichte schon gesehen (4K auf einem 15,6" Laptopmonitor), Internetseiten und PDFs sehen aus wie gedruckt, bei Spielen gibt es einfach eine unglaubliche Klarheit, an die mein Monitor nicht rankommt. Jeder, der sagt, dass 8K unsinnig wäre, hat es einfach noch nicht gesehen oder sieht sehr schlecht. Auch 8K ist noch nicht perfekt, Anti Aliasing ist weiterhin notwendig. Von daher ist auch noch Luft für 16K.

Der Grenznutzen nimmt natürlich ab.
Ob Pixel sichtbar sind oder nicht, hängt nicht nur von deren Anzahl, sondern auch vom Betrachtungsabstand ab und bei 8k kommt man in einen Bereich, wo es absurd wird. Selbst bei 4k kann man mit 100 Prozent Sehvisus bei 50 Zoll erst bei unter einem Meter Abstand Pixel erkennen. Ich kenne niemanden der bei einem Meter Abstand mehr als 50 Zoll nutzen würde

Gesendet von meinem SM-G920F mit Tapatalk
 
Zuletzt bearbeitet:
Ob Pixel sichtbar sind oder nicht, hängt nicht nur von deren Anzahl, sondern auch vom Betrachtungsabstand ab und bei 8k kommt man in einen Bereich, wo es absurd wird. Selbst bei 4k kann man mit 100 Prozent Sehvisus bei 50 Zoll bei unter einem Meter Pixel erkennen. Ich kenne niemanden der bei einem Meter Abstand mehr als 50 Zoll nutzen würde

Gesendet von meinem SM-G920F mit Tapatalk

ich garantiere dir (wenn es soweit ist), dass du den unterschied im direkten vergleich erkennen wirst - egal was die wissenschaft über unsere augen sagt. direkter vergleich 32" 4K vs. 32" 8K mit einem meter sichtabstand. wie gesagt, ich garantiere dir, dass du es sehen wirst.
 
8k ist aktuell ziemlich unnötig, der Vorteil ist aktuell extrem gering und mit menschlichem Auge auf normalen Sitzabständen nicht zu erkennen. Derzeit wird es erstmal wichtig sein 4k in 120/144Hz wiederzugeben und die benötigte Leistung muss erstmal flächendeckend zur Verfügung gestellt werden. Ich denke sogar, dass Leistungen bis 80TF bei Grafikkarten noch sehr sinnvoll für 4k Gaming genutzt werden kann, bis wir allerdings diese Grafikkarten haben, werden noch mehr als 10 Jahre vergehen.

Selbst 4k halte ich aktuell für 95% der Gamer für sinnlos, der Spaß geht ja eigentlich erst mit 10TF Leistung los, vorher brauche ich mir über 4k keine Gedanken zu machen. Um aber aktuell bei 10TF zu sein, brauche ich eine HighEnd Karte. Mit der nun kommenden Generation an Grafikkarten wird 4k endlich tauglich und vermutlich werden in ein bis zwei Jahren selbst Mittelklassekarten die Performance zu tun zu haben.

Wann hört dieser Unsinn endlich mal auf mit dem " das menschliche Auge sieht das nicht"? Die Auflösung 4k oder 8k ist nur dann aussagekräftig wenn man es mit der Bildschirmgröße abgleicht, aka die DPI, diese ist das einzig Relevante für die Optik. Ein 32 Zoll Monitor mit 8k hat gerade einmal 280 DPI, ein modernes Smartphone wie ein iPhone 11 Pro hat 458 und auch hier würde man eine weitere Erhöhung noch massiv spüren. Sollte es eine "zu hohe" DPI geben, so sind wir noch meilenweit entfernt, insbesondere am Monitor Markt.
Wen interessiert bitte die TF Leistung, wenn es um Spiele geht? Diese macht nur Sinn, wenn man zwei Grafikkarten der gleichen Architektur miteinander vergleicht und diese ändert sich von Gen zu Gen, daher irrelevant.
Hätten Menschen wie du das Sagen würden wir noch heute in der Steinzeit hocken.

Crysis 4K AMD RX 5700 XT + Mods/new Assets in Ultra High - YouTube (noch in nur 360p), warte etwas und es wird in 4K gezeigt. Eine Stunde oben und weder 720p und noch 1080p Verfügbar? 4K weit entfernt? Ist Youtube Langsam oder wo liegt der Fehler? In der Zeit hätte mein PC 5 Videos davon Konvertieren können von 4K bis zu 480p Runter... Youtube hat wohl seine Tage^^

Der Witz ist, das Original Video ist in nativem 4K, aber der Output nur 360p???

Sieht zwar nicht allzu schlecht aus, aber man merkt die für heutige Verhältnisse schlechten Texturen der Umgebung schon ziemlich arg und die Böden sehen auch schrecklich aus.
 
Sieht zwar nicht allzu schlecht aus, aber man merkt die für heutige Verhältnisse schlechten Texturen der Umgebung schon ziemlich arg und die Böden sehen auch schrecklich aus.

Ich hatte auch eine Mod mit 4096 x 4096 Texturen für den Boden, aber das Problem war sie veränderten den Look zu sehr und ich wollte das nicht, aber unterm Strich hätte ich das ohne Probleme machen können, die Dateien sind noch auf dem PC dafür. Dann sieht alles zu anders aus.

Zum Thema 8K, es ist unnötig, weil der Vorteil zu 4K zu mindestens für mich kaum sichtbar ist. 4K ist aber sehr Sinnvoll und mit heutigen GPUs locker zu stemmen (ab AMD Radeon RX 480 und GTX 1060 in Low Details bis hohe Details je nach Spiel zu stemmen). Die Frage ist immer bei welchen Details 4K. Ich spiele auf hohen bis höchsten Details mit meiner RX 5700XT. 4K ist jetzt Standard und 8K reiner Luxus von Usern mit 2 RTX 2080Ti oder 2 RTX Titan GPUs, aber wirklich nützlich ist das nicht.
 
Wann hört dieser Unsinn endlich mal auf mit dem " das menschliche Auge sieht das nicht"? Die Auflösung 4k oder 8k ist nur dann aussagekräftig wenn man es mit der Bildschirmgröße abgleicht, aka die DPI, diese ist das einzig Relevante für die Optik. Ein 32 Zoll Monitor mit 8k hat gerade einmal 280 DPI, ein modernes Smartphone wie ein iPhone 11 Pro hat 458 und auch hier würde man eine weitere Erhöhung noch massiv spüren. Sollte es eine "zu hohe" DPI geben, so sind wir noch meilenweit entfernt, insbesondere am Monitor Markt.
Wen interessiert bitte die TF Leistung, wenn es um Spiele geht? Diese macht nur Sinn, wenn man zwei Grafikkarten der gleichen Architektur miteinander vergleicht und diese ändert sich von Gen zu Gen, daher irrelevant.
Hätten Menschen wie du das Sagen würden wir noch heute in der Steinzeit hocken.



Sieht zwar nicht allzu schlecht aus, aber man merkt die für heutige Verhältnisse schlechten Texturen der Umgebung schon ziemlich arg und die Böden sehen auch schrecklich aus.
Hier geht es ja offensichtlich um Spiele, also Monitore von 24 - 42 Zoll. Und da ist 8k einfach mal sinnfrei.
8K-Fernseher kommen – doch wer braucht sie eigentlich? | heise online
 
Wann hört dieser Unsinn endlich mal auf mit dem " das menschliche Auge sieht das nicht"? Die Auflösung 4k oder 8k ist nur dann aussagekräftig wenn man es mit der Bildschirmgröße abgleicht, aka die DPI, diese ist das einzig Relevante für die Optik. Ein 32 Zoll Monitor mit 8k hat gerade einmal 280 DPI, ein modernes Smartphone wie ein iPhone 11 Pro hat 458 und auch hier würde man eine weitere Erhöhung noch massiv spüren. Sollte es eine "zu hohe" DPI geben, so sind wir noch meilenweit entfernt, insbesondere am Monitor Markt.
Wen interessiert bitte die TF Leistung, wenn es um Spiele geht? Diese macht nur Sinn, wenn man zwei Grafikkarten der gleichen Architektur miteinander vergleicht und diese ändert sich von Gen zu Gen, daher irrelevant.
Hätten Menschen wie du das Sagen würden wir noch heute in der Steinzeit hocken.



Sieht zwar nicht allzu schlecht aus, aber man merkt die für heutige Verhältnisse schlechten Texturen der Umgebung schon ziemlich arg und die Böden sehen auch schrecklich aus.

Finde es lustig, wie du die DPI ansprichst, aber nicht die Entfernung zum Auge. Ein Smartphone ist auch wesentlich näher am Gesicht als ein Monitor oder erst recht ein TV. Ohne die Entfernung haben auch die DPI keine Aussagekraft. :P

PS: Manche Leute haben schon eine morbide Faszination mit hohen Auflösungen, obwohl man die Rechenpower besser nutzen kann als für paar Pixel mehr. Ich will keine Strichmännchen in 32K. Finde es übrigens immer lustig, wenn bei Remasters oft von HD gesprochen wird, aber nur die Auflösung hochgeschraubt wurde, während der Rest noch immer wie beim Original-Release ausschaut. Übrigens sehen viele alte Spiele in niedriger Auflösung und an CRTs meist wesentlich besser aus, als ihre "HD" Remasters.
 
Zuletzt bearbeitet:
ich garantiere dir (wenn es soweit ist), dass du den unterschied im direkten vergleich erkennen wirst - egal was die wissenschaft über unsere augen sagt. direkter vergleich 32" 4K vs. 32" 8K mit einem meter sichtabstand. wie gesagt, ich garantiere dir, dass du es sehen wirst.
Tja da liegst du falsch. Ich habe an Blindtests teilgenommen. So wie ich mit 100 Prozent Sehvisus bei 50 Zoll und 2 Meter Distanz 1080p von 4k nicht sicher unterscheiden konnte, so reicht eine einfache Verhältnisrechnung um zu erkennen das das gleiche für 8k und 4k bei einem Meter auf 50 Zoll gilt. Auf 32 Zoll erfasst das Auge bei einem Meter Distanz nicht einmal 4k vollständig, 8k ist somit absolut sinnbefreit. Man kann sich ja vieles schönreden wenn man nur fest dran glaubt, wenn das Auge jedoch die Quellgüte identifizieren muss, werden dessen Defizite schnell deutlich. Für den Test ist es unabdingbar, das gleiche Quellmedium in voller Auflösung und herunterskaliert zu vergleichen. Auch darf es es sich dabei nicht um eine dynamisch gerenderte Szene sondern ein Foto oder Standbild handeln, denn sonst vergleicht man nicht die Güte der Bildgröße, sondern Renderartefakte

Gesendet von meinem SM-G920F mit Tapatalk
 
Zuletzt bearbeitet:
Tja da liegst du falsch. Ich habe an Blindtests teilgenommen. So wie ich mit 100 Prozent Sehvisus bei 50 Zoll und 2 Meter Distanz 1080p von 4k nicht sicher unterscheiden konnte, so reicht eine einfache Verhältnisrechnung um zu erkennen das das gleiche für 8k und 4k bei einem Meter auf 50 Zoll gilt. Man kann sich ja vieles schönreden wenn man nur fest dran glaubt, wenn das Auge jedoch die Quellgüte identifizieren muss, werden dessen Defizite schnell deutlich

Gesendet von meinem SM-G920F mit Tapatalk

natürlich hast du das.

wie gesagt, beide bildschirme nebeneinander, mit dem gleichen 8k-material gefüttert. defintiv wird man den unterschied im direkten (wichtig!) vergleich sehen.
 
Jeder! sieht anders. Ich beispielsweise kann mit 200 über die Autobahn fahren und meine Freundin fragen ob sie die Frisur der Beifahrerin des dunkelgrauen Golf 6 bemerkt hat, Der auf der mittleren Fahrbahn Der Gegenseite gefahren ist. Die guckt mich dann an und fragt mich wann da überhaupt ein Golf war. Mir fallen solche Sachen aber im Augenwinkel auf, keine Ahnung warum.

Wir beide tragen keine Brille und sollten ähnliche Bedingungen haben. Dennoch sehen wir komplett verschieden. Das hat auch was mit geschulten Augen zu tun. Beispielsweise habe ich vor meinem 32" 2160p Monitor einen 27" 1440p genutzt und diesen mit VSR auf 5K betrieben. Den Unterschied zwischen nativ und downsampling bemerke ich sofort. Mein bester Kumpel jeder nicht mal den zu nativ 1440p. Deshalb spielt er auch noch immer in 1080p, was mir selbst für einen Taschenrechner bald zu wenig wäre. Nicht weil ich dann nichts erkennen würde, nein. Einfach weil ich inzwischen anderes gewohnt bin und alles was anders ist als üblich, fällt auf.
 
Denkst du im Remaster von Crytek wird es anders? sie werden paar Effekte hinzufügen, bessere Texturen, neue Shader, aber unterm Strick wird es so leer wie zuvor.

Ich frag mich eh warum ein Remaster am PC.
Konsole macht ja noch durchaus Sinn aber PC?. Crysis sieht für das alter immer noch verdammt gut aus am PC, ist gut gealtert. Den einzigen Vorteil den ich sehe ist die Technik dahinter. Da hat Crysis noch nie gut performt (DirectX10) und unter Win 10 kann es Probleme geben mit Crysis 1. Schlechte Performance/24Hz Fehler.
Naja, mal abwarten wie das PC Remaster wird. Hoffentlich versaut es Crytek nicht. Crysis 1 am PC zählt zu meinen liebsten Games of all time.
 
Tja da liegst du falsch. Ich habe an Blindtests teilgenommen. So wie ich mit 100 Prozent Sehvisus bei 50 Zoll und 2 Meter Distanz 1080p von 4k nicht sicher unterscheiden konnte, so reicht eine einfache Verhältnisrechnung um zu erkennen das das gleiche für 8k und 4k bei einem Meter auf 50 Zoll gilt. Auf 32 Zoll erfasst das Auge bei einem Meter Distanz nicht einmal 4k vollständig, 8k ist somit absolut sinnbefreit. Man kann sich ja vieles schönreden wenn man nur fest dran glaubt, wenn das Auge jedoch die Quellgüte identifizieren muss, werden dessen Defizite schnell deutlich. Für den Test ist es unabdingbar, das gleiche Quellmedium in voller Auflösung und herunterskaliert zu vergleichen. Auch darf es es sich dabei nicht um eine dynamisch gerenderte Szene sondern ein Foto oder Standbild handeln, denn sonst vergleicht man nicht die Güte der Bildgröße, sondern Renderartefakte

Da kommt es eben darauf an was du dir denn so ansiehst. Bei einem Foto oder Video kann das durchaus sein, bei einem Computerspiel hingegen nicht. Der Treppenstufeneffekt springt einem einfach ins Auge, genau wie diverse andere Dinge, etwa flimmernde Pixel. Wenn ich das Anti Aliasing abschalte, dann wird es richtig extrem.

Man kann natürlich über den abnehmenden Grenznutzen, bzw. Dminishing Returns, diskutieren, aber zu behaupten, es wür nichts bringen ist einfach nur Unsinn. Selbst 16K hat seine Berechtigung.
 
Ohne die Angabe der Blickdistanz ist eine DPI-Aussage wertlos, wie schon von einigen zuvor angemerkt wurde.

Die Sehschärfe ist definiert als Visus = 1/α mit α in Winkelminuten. Einen Wert von 1,0 betrachtet man üblicherweise als 100%ige Sehschärfe. Jugendliche können teilweise Werte von bis zu 1,2 oder in Ausnahmefällen gar 1,6 erreichen, was einer Auflösung von 0,83' (Winkelminuten) bzw. gar bis zu 0,63' entspricht.
Ein 4K-Monitor (32", 140 DPI) auf 0,7 m Distanz bedeutet, dass man einen einzelnen Pixel unter 0,89' sieht, d. h. hier wird es für "Normalsichtige" bereits schwer, einzelne Pixel auszumachen.

Der Vollständigkeit halber gibt es noch die Noniussehschärfe, die bis zu 10'' (Winkelsekunden) auflösen kann, jedoch ist diese bereits sehr speziell und kaum von sinnvoller Relevanz für komplexe Bewegtbilder, wie sie ein BF5 oder Ghost Recon auf den Bildschirm zaubert, umso mehr, wenn es dem Spieler darum geht das dargebotete Bild zu verarbeiten, Loot zu finden und Gegner zu entdecken und nicht etwa darum mögliche Pixeltreppenkannten an nahezu horizontalen oder vertikalen Objekten zu finden.

Hinzu kommt, dass die volle Sehschärfe nur in der Fovea centealis besteht, während sie in Richtung der Peripherie zunehmend abnimmt, d. h. wir sehen nur dort tatsächlich "scharf", wo wir hinsehen, bei FPS-Shootern daher die Bildmitte.

Mit etwas wie 8K muss man bei einem Desktopmonitor schon regelrechte "Adleraugen" haben um dort noch Pixel erkennen zu können, wenn man nicht gerade förmlich in das Gerät hineinkriecht.

WinkelMinutenPixelDistanz.png

Darüber hinaus verarbeitet unser Gehirn auf höherer Ebene keine "einzelnen Pixel", sondern ist eine "Mustererkennungsmaschine", die im Zuge dieses Prozesses in umfangreichem Maße Daten reduziert und eliminiert.
(Bei 4K sind das immerhin bereits 8,3 Mio. Pixel pro Frame bzw. bei 60 Hz rd. 500 Mio. Pixel/s, die da an einem vorbeirauschen.)

Frech??? Och bitte [...]

Lass' doch einfach gut sein; es wird nicht besser, wenn du nun ein weiteres Mal versuchst alles umzudeuten. ;-)
Zwei, drei Posts zuvor hat ein User darauf hingewiesen, dass er/sie sich das 8K-Bild nicht einmal in Gänze ansehen kann, weil dafür kein passendes Endgerät vorhanden ist und daraufhin habe ich lediglich ergänzt, dass er/sie damit quasi nicht alleine ist, bzw. konkret, dass die meisten Anwender selbst nicht einmal einen 4K-fähigen Monitor zur Verfügung haben (geschweige denn 8K).
Diese Aussage implizierte jedoch in keinster Weise, dass "man" sich besser auf kleine Monitore konzentrieren soll(t)en (was auch immer das in deiner Welt bedeuten mag?). Sie hat in dem Falle rein gar nichts mit Crysis zu tun, da es hier um die Darstellung von Bildmaterial geht (oder bräuchte man für Battlefield in 8K einen anderen/eigenen Monitor, sodass es hier doch eine unerwartete Äbhängigkeit zum Content gibt? Die Hardware-Hersteller würde es freuen. ;-)). Und sie hat erst recht nichts damit zu tun, wie performant Crysis zum Zeitpunkt seines Releases auf irgendwelcher Hardware lief.
Du hattest schlicht Kopfkino und auf irgend einen imaginären Unsinn "geantwortet", der so dort in der Form niemals stand.
 
Zuletzt bearbeitet:
Zurück