• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Crysis: Crytek zeigt, wie das Remaster in 8K aussieht

Julian K

PC-Selbstbauer(in)
Naja das ist auch ein Teil warum sie Probleme hatten, aber Crysis war für mich nicht nur eine Techdemo. Ich liebe das Gameplay mit dem Nanosuit und diese Inselwelt ist genau mein Setting. Daher mag ich auch Far Cry 3 sehr und spiele heute noch diese beiden Titel. Die Konsolen ports haben nur viele PC Spieler abgeschreckt. Mich übrigens ab Crysis 2. Das war der letzte Teil den ich gekauft habe. Crysis 3 haben mir die Lets Plays gelangt um zu sehen das es ein Crysis 2+ ist. Was ich damit meine ist die Grafik, die Assets, die Story und das zu simple Gameplay.
Ich habe allgemein nichts gegen Konsolen, aber die PS3 und Xbox 360 hatten 2013 1/16 des RAMs eines mittelklasse PCs zum Spielen und waren defintiv nichts mehr für ein Crysis 3. Crytek hätte mit einer PS4 und Xbox One Version zeigen können was ihre Engine kann ohne Limits.

zur Info die GPU der PS3 basiert auf einer Nvidia 7950 GT (weniger ROPs und nur 128 Bit Bus) mit nur 24 Pixel und 8 Vertex Shadern bei 550 MHz Takt. Die PS4 basiert auf einer GPU mit 1152 Shadern auf GCN Basis also etwas oberhalb einer AMD Radeon HD 7850. Beim RAM das selbe Bild, die PS3 hat 256 MB RAM und 256 MB Vram (zusammen 512MB) wovon nur 192MB Vram nutzbar waren. Die PS4 hat 8 GB GDDR5 RAM und 5,5 GB für das Spiel wovon 3 GB Vram nutzbar sein können.


mir sind die unterschiedlichen spezifikationen der konsolen bewusst. daraus das grundlegende problem von crytek abzuleiten ist aber einfach nur hanebüchen. sie mussten den markt, auf dem ihre spiele erscheinen sollten deutlich erweitern. spiele nur auf dem pc zu bringen, ist für einige möglich (anno etc., da werden die spiele aber auch mit anderen publishern im rücken und dennoch mit kleinerem budget entwickelt) , aber nicht für ein unternehmen wie crytek mit ihren damaligen ambitionen.
und da liegt halt der hase im pfeffer begraben, crytek bzw. eben die yerlis wollten viel zu viel und waren im endeffekt auch zu sehr von sich überzeugt. hätten sie mit crysis einen wirtschaftlich gesehenen kracher herausgebracht, dann hätte man das vielleicht noch etwas verstehen können, aber auch das verkaufte sich nur gut, aber keinesfalls herausragend.
 

Cybnotic

PC-Selbstbauer(in)
Crysis 2 und 3 sind doch auch coole Spiele verstehe echt nicht warum die nicht auch auf diePS4 kommen.
Crytek sollte ihre Engine auf das PS5 System anpassen oder komplett umbauen. Hoffe das sie das machen :-)
 

ATI fan

Freizeitschrauber(in)
mir sind die unterschiedlichen spezifikationen der konsolen bewusst. daraus das grundlegende problem von crytek abzuleiten ist aber einfach nur hanebüchen. sie mussten den markt, auf dem ihre spiele erscheinen sollten deutlich erweitern. spiele nur auf dem pc zu bringen, ist für einige möglich (anno etc., da werden die spiele aber auch mit anderen publishern im rücken und dennoch mit kleinerem budget entwickelt) , aber nicht für ein unternehmen wie crytek mit ihren damaligen ambitionen.
und da liegt halt der hase im pfeffer begraben, crytek bzw. eben die yerlis wollten viel zu viel und waren im endeffekt auch zu sehr von sich überzeugt. hätten sie mit crysis einen wirtschaftlich gesehenen kracher herausgebracht, dann hätte man das vielleicht noch etwas verstehen können, aber auch das verkaufte sich nur gut, aber keinesfalls herausragend.
Schau her, wenn sie schon werben mit wir bieten immer die beste Grafik und PC Spieler sind uns so wichtig, dann bitte nicht das letzte Crysis im Jahr des Release von PS4 und Xbox One auf die veralteten PS3 und Xbox 360 setzen. Kein Schwein wäre wütend auf Crytek geworden wenn sie es auf die damals neuen Konsolen gebracht hätten. Ist dir was an den Assets in Crysis 3 aufgefallen? Meistens Low Polygone, warum ist das so? Liegt am Unterbau der auch auf einer PS3 laufen muss. Zwar kann man das dank Tesselation am PC ausgleichen, aber nicht bei allem, wie bei Grass und Büschen. Auch sind die Levels kleiner als eigentlich möglich wäre. Wie gesagt wäre Crysis 3 besser geworden auch auf dem PC wenn Crytek es nie für die alten Konsolen entwickelt hätte sondern direkt Crysis 3 für PC und PS4/Xbox One gebracht hätte. Paar Monate hätten wir Fans sicher gewartet dafür.

Crysis 2 und 3 sind doch auch coole Spiele verstehe echt nicht warum die nicht auch auf diePS4 kommen.
Crytek sollte ihre Engine auf das PS5 System anpassen oder komplett umbauen. Hoffe das sie das machen :-)
Es sind als Spiel genommen keine schlechten Spiele, aber eben kein Crysis, keine echte Fortsetzung in meinen Augen und auch das Gameplay hat sich geändert wie auch das Setting.

Naja, kein Wunder bei der eingeschränkten Hardware.
Ja das denke ich mir jedes mal wenn ich Crysis 2/3 sehe, warum nur Crytek, warum musste es unbedingt auf einer Konsole die so schwach ist laufen. 2005 war die Xbox 360 noch was gutes, aber ab 2010 nicht mehr. Aber 2013 für ein Crysis 3 echt die dümmste Idee.
Ich hätte es an stelle von Crytek direkt in der PR als Next Gen Titel für PS4/Xbox One und PC angekündigt, so hätte man mehr erreicht.

Danke schade das das Video qualitativ echt grauenhaft ist und man somit keinerlei Erkenntnis kriegt wie es in echt aussieht---
Das Video ist fertig in 4K im Netz.
 

Julian K

PC-Selbstbauer(in)
Wie gesagt wäre Crysis 3 besser geworden auch auf dem PC wenn Crytek es nie für die alten Konsolen entwickelt hätte sondern direkt Crysis 3 für PC und PS4/Xbox One gebracht hätte.

da hast du halt eine recht merkwürdige ansicht. es wäre nicht "besser" geworden, nur hübscher. das problem bei den crysis-titeln war am ende doch auch nie ernsthaft die technik, sondern die spiele an sich. auch wenn es nicht mehr für die damalige last-gen gekommen wäre, wäre es danach immer noch das gleiche spiel mit der gleichen mechanik, der gleichen story usw. gewesen. einfach nur hübscher hätte dem spiel dann auch nicht zu einem unfassbaren erfolg verholfen.
das ist nur spekulativ, aber es hätte ja sogar sein können, dass es sich dann ohne die last-gen sogar insgesamt schlechter verkauft hätte.

nun aber darauf zu pochen, dass cryteks untergang an deren entscheidung auch für konsolen zu entwicklen, festhing, ist und bleibt quatsch.
 

TheFanaticTesters

Software-Overclocker(in)
genau, nun sind die konsolen schuld. der größenwahn und die arrognaz der yerli-brüder waren an dem untergang cryteks schuld, zudem haben sie häufig mehr techdemo, denn tiefgreifende spielerfahrung veröffentlicht (ja, dazu gehört auch die crysis-reihe) und gleichzeitig expandiert. technisch haben sie viel richtig gemacht, man hatte nur schnell das gefühl, dass sie viel zu schnell viel zu viel wollten, obwohl sie das wirtschaftlich überhaupt nicht tragen konnten.

Ich hab nie gesagt "DIE Konsolen sind Schuld" ich habe gesagt "ab da an ging es abwerts!
In meinen Augen haben sie sich einfach übernommen zuviel zu schnell und zu wenige erfolgreiche Titel usw usw...
 

TheFanaticTesters

Software-Overclocker(in)
Schau her, wenn sie schon werben mit wir bieten immer die beste Grafik und PC Spieler sind uns so wichtig, dann bitte nicht das letzte Crysis im Jahr des Release von PS4 und Xbox One auf die veralteten PS3 und Xbox 360 setzen. Kein Schwein wäre wütend auf Crytek geworden wenn sie es auf die damals neuen Konsolen gebracht hätten. Ist dir was an den Assets in Crysis 3 aufgefallen? Meistens Low Polygone, warum ist das so? Liegt am Unterbau der auch auf einer PS3 laufen muss. Zwar kann man das dank Tesselation am PC ausgleichen, aber nicht bei allem, wie bei Grass und Büschen. Auch sind die Levels kleiner als eigentlich möglich wäre. Wie gesagt wäre Crysis 3 besser geworden auch auf dem PC wenn Crytek es nie für die alten Konsolen entwickelt hätte sondern direkt Crysis 3 für PC und PS4/Xbox One gebracht hätte. Paar Monate hätten wir Fans sicher gewartet dafür.


Es sind als Spiel genommen keine schlechten Spiele, aber eben kein Crysis, keine echte Fortsetzung in meinen Augen und auch das Gameplay hat sich geändert wie auch das Setting.


Ja das denke ich mir jedes mal wenn ich Crysis 2/3 sehe, warum nur Crytek, warum musste es unbedingt auf einer Konsole die so schwach ist laufen. 2005 war die Xbox 360 noch was gutes, aber ab 2010 nicht mehr. Aber 2013 für ein Crysis 3 echt die dümmste Idee.
Ich hätte es an stelle von Crytek direkt in der PR als Next Gen Titel für PS4/Xbox One und PC angekündigt, so hätte man mehr erreicht.


Das Video ist fertig in 4K im Netz.

wo finden wir das video ? Link?
 

TheFanaticTesters

Software-Overclocker(in)
Crysis 4K AMD RX 5700 XT + Mods/new Assets in Ultra High - YouTube (noch in nur 360p), warte etwas und es wird in 4K gezeigt. Eine Stunde oben und weder 720p und noch 1080p Verfügbar? 4K weit entfernt? Ist Youtube Langsam oder wo liegt der Fehler? In der Zeit hätte mein PC 5 Videos davon Konvertieren können von 4K bis zu 480p Runter... Youtube hat wohl seine Tage^^

Der Witz ist, das Original Video ist in nativem 4K, aber der Output nur 360p???

Öm jetzt sagt er Video nicht verfügbar??!?!
 

ATI fan

Freizeitschrauber(in)
Öm jetzt sagt er Video nicht verfügbar??!?!
Es ist wieder Verfügbar, aber laut Youtube normal das es so lange dauert, weil 22min lang und in 4K mit 60 FPS... wird wohl erst morgen oder heute Nacht in 4K Verfügbar sein.

Aber ich kann dir anbieten dir die Mods als komplette Datei zu geben... Sag mir eine Methode wie du es erhalten willst (Upload Seite oder irgendwie anders). Bedenke es ist etwa 13GB groß.
 

TheFanaticTesters

Software-Overclocker(in)
Es ist wieder Verfügbar, aber laut Youtube normal das es so lange dauert, weil 22min lang und in 4K mit 60 FPS... wird wohl erst morgen oder heute Nacht in 4K Verfügbar sein.

Aber ich kann dir anbieten dir die Mods als komplette Datei zu geben... Sag mir eine Methode wie du es erhalten willst (Upload Seite oder irgendwie anders). Bedenke es ist etwa 13GB groß.

Danke fürs Angebot ich schaue mir morgen in ruhe das Video an wen Youtube es gerändert hat ..und melde mich dann per PN
 

RyzA

PCGH-Community-Veteran(in)
8K interessiert mich nicht.
Aber ein generelles Remaster von Crysis 1 wäre cool.
Bestenfalls mit noch etwas mehr Spielzeit im SP.:cool:
 

theeagle61

Komplett-PC-Käufer(in)
OMG, der Sinn von 8K ist, du kannst reinzoomen und sehen wie detailiert das Spiel ist, auch wenn du kein 8K Display hast
 

Pu244

Lötkolbengott/-göttin
OMG, der Sinn von 8K ist, du kannst reinzoomen und sehen wie detailiert das Spiel ist, auch wenn du kein 8K Display hast

Der Sinn ist, dass es fast keine sichtbaren Pixel mehr gibt. Ich habe diese Pixeldichte schon gesehen (4K auf einem 15,6" Laptopmonitor), Internetseiten und PDFs sehen aus wie gedruckt, bei Spielen gibt es einfach eine unglaubliche Klarheit, an die mein Monitor nicht rankommt. Jeder, der sagt, dass 8K unsinnig wäre, hat es einfach noch nicht gesehen oder sieht sehr schlecht. Auch 8K ist noch nicht perfekt, Anti Aliasing ist weiterhin notwendig. Von daher ist auch noch Luft für 16K.

Der Grenznutzen nimmt natürlich ab.
 

BigBoymann

Software-Overclocker(in)
8k ist aktuell ziemlich unnötig, der Vorteil ist aktuell extrem gering und mit menschlichem Auge auf normalen Sitzabständen nicht zu erkennen. Derzeit wird es erstmal wichtig sein 4k in 120/144Hz wiederzugeben und die benötigte Leistung muss erstmal flächendeckend zur Verfügung gestellt werden. Ich denke sogar, dass Leistungen bis 80TF bei Grafikkarten noch sehr sinnvoll für 4k Gaming genutzt werden kann, bis wir allerdings diese Grafikkarten haben, werden noch mehr als 10 Jahre vergehen.

Selbst 4k halte ich aktuell für 95% der Gamer für sinnlos, der Spaß geht ja eigentlich erst mit 10TF Leistung los, vorher brauche ich mir über 4k keine Gedanken zu machen. Um aber aktuell bei 10TF zu sein, brauche ich eine HighEnd Karte. Mit der nun kommenden Generation an Grafikkarten wird 4k endlich tauglich und vermutlich werden in ein bis zwei Jahren selbst Mittelklassekarten die Performance zu tun zu haben.
 

ATI fan

Freizeitschrauber(in)
Das Video ist jetzt in 4K...

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Im Video ist die 3x Dichte an Vegetation, viele neue Pflanzen Assets, viel viel bessere Texturen und diese mod ist knapp 5 Jahre alt. Ich meine Crytek muss es entweder besser machen oder wenigstens und dank dem Editor (der hoffentlich dabei ist) die Chance geben es selbst noch mal besser zu machen.
Bessere Texturen alleine im Remaster und etwas bessere Effekte/Shader gibt es und gab es schon (Xzero Shader/RTX Raytracing Mod).

Selbst 4k halte ich aktuell für 95% der Gamer für sinnlos, der Spaß geht ja eigentlich erst mit 10TF Leistung los, vorher brauche ich mir über 4k keine Gedanken zu machen. Um aber aktuell bei 10TF zu sein, brauche ich eine HighEnd Karte. Mit der nun kommenden Generation an Grafikkarten wird 4k endlich tauglich und vermutlich werden in ein bis zwei Jahren selbst Mittelklassekarten die Performance zu tun zu haben.
Ok 8K ist in den nächsten 7 Jahren nichts woran man denken kann, aber 4K ist nicht nur für 5% der Gamer etwas.

Dank PS4 Pro und Xbox One X ist es sogar schon im Wohnzimmer im Gaming und ich Spiele in 4K mit einer RX 5700XT sehr gut. Spätestens nächstes Jahr wird dank PS5 und Xbox Series X 4K Standard werden.
 

RyzA

PCGH-Community-Veteran(in)
Dank PS4 Pro und Xbox One X ist es sogar schon im Wohnzimmer im Gaming und ich Spiele in 4K mit einer RX 5700XT sehr gut.
PS4 Pro und XBox One können doch kein 4k. Wenn dann nur Fake 4K.
Ja. Mit einer RX 5700 XT kann man 4k spielen, wenn man die Regler richtig bedient. Kommt auch aufs Game an.
Da macht man halt Kompromisse.
Will man alles in "hoch" oder "Ultra" flüssig zocken braucht man eine RTX 2080 Ti.

Spätestens nächstes Jahr wird dank PS5 und Xbox Series X 4K Standard werden.
So unproblematisch scheint das dort aber nicht zu sein: https://www.pcgameshardware.de/Play...fuer-einige-Entwickler-problematisch-1356154/
 

ATI fan

Freizeitschrauber(in)
PS4 Pro und XBox One können doch kein 4k. Wenn dann nur Fake 4K.
Ja. Mit einer RX 5700 XT kann man 4k spielen, wenn man die Regler richtig bedient. Kommt auch aufs Game an.
Da macht man halt Kompromisse.
Will man alles in "hoch" oder "Ultra" flüssig zocken braucht man eine RTX 2080 Ti.


So unproblematisch scheint das dort aber nicht zu sein: https://www.pcgameshardware.de/Play...fuer-einige-Entwickler-problematisch-1356154/

1. ja kein volles 4K bei PS4 Pro und Xbox One X, das war aber schon vorher bekannt, also man konnte damit so Rechnen. Jedoch haben auch diese beiden Konsolen den Verkauf von 4K Tvs angeregt. Hätte man die Grafik unterhalb von der PS4 gelassen statt die selbe, dann hätten auch diese Konsolen 4K geschafft.
2. Habe ich ja schon vorher gesagt das die Leistung einer PS3 schon für 1080p gelangt hat wenn es nur PS2 Grafik+ war oder die PS4 theoretisch 4K könnte wenn es nur PS3 Grafik gewesen wäre was es Rendern muss. Ich konnte mit meiner 9800M GTS (Nvidia G94 Chip mit nur 64 Shadern) schon in 1080p spielen am TV. Habe so Mass Effect 1 gespielt. Dabei ist das System von der Leistung einer Xbox One weit entfernt die ja angeblich kein echtes Full HD kann. Ich habe mit meiner GTX 770M (eine mobile GTX 660, da selber Chip mit nur 960 Shadern) in 4K schon gespielt, aber ja nichts sehr aufwändiges. Es ist immer die Frage was du in der jeweiligen Auflösung Rendern willst. Je höhere die Details umso schwerer ist es in hohen Auflösungen zu Rendern. Aber eine PS5 und Xbox Series X werden eigentlich immer 4K können mit 60 FPS... Daran ist wenn der Entwickler Schuld wenn er die Grenzen nicht beachtet und die Details zu hoch schraubt oder nicht optimiert.
3. Hat die PS5 ja bis zu 10,28 TF Shader Leistung, das ist mehr als die meisten Gamer haben und es langt für 4K definitiv. Klar wenn ein Entickler meint maximales RayTracing zu bieten und so hohe Details zu liefern das die Konsole es schwer hat ok, dann wird es paar Titel mit 1600p geben, aber das die PS5 nicht 4K kann ist falsch. Selbst die PS4 hätte rein von der Leistung her 4K 60 FPS bieten können, die Frage ist bei was für einer Grafik.

Übrigens spiele ich in 4K meistens alles auf Ultra oder hohen Details. Ich musste nie etwas auf Mittlere Details stellen... noch nicht.

Nicht falsch verstehen, ich erwarte nicht das jedes Spiel 4K und 60FPS liefern wird auf der PS5, aber auch nur, weil sich der Entwickler ein gewisses Ziel setzt.
 
Zuletzt bearbeitet:

ATI fan

Freizeitschrauber(in)
Was für Spiele spielst du denn?
Aber nicht mit 60 FPS und mehr, oder?;)
Zuletzt Doom Eternal, davor Far Cry 5 beide jeweil max Details mit 60 FPS+ GTA5 selbes Bild und zurzeit Spiele ich wieder Black Desert und co. Crysis 1-3 in 4K mit 60 FPS ist auch kein Problem in maximalen Details mit allen Mods. (Siehe Video oben)
Aber ja es gibt Spiele die laufen auf meiner AMD Karte nicht gut, aber das scheint dann ein Nvidia vs AMD Ding zu sein wie bei Final Fantasy XV wo ich auch Abstürtze habe und viele Bugs oder Rage 2 (wo es alle 15-25min abschmiert). Aber eigentlich ist 4K und max Details oft möglich.
Crysis ist eigentlich das beste Beispiel für die Leistung meines PCs. Mit allen Mods/Texturen und neuen Configs ist das original Sehr Hoch wie Low im Vergleich zu der Mod die ich nutze. Meine Sichtweite ist höher, die Texturen bis zu 16x besser und neue Effekte ebenso Teil des Spiels.

Was ich nicht verstehe, warum ist es für dich so schwer zu glauben das mein System Spiele in 4K schafft. Es gibt sogar Games wo eine RX 5700XT eine RTX 2080 in die Tasche steckt.
Screenshot_20191017_091020_com.google.android.youtube.jpg

Eine RX 5700XT kann in einigen Games auch unterhalb einer RTX 2060 Super sein, das ist von Game zu Game anders. Aber im Schnitt auf einer Stufe mit der RTX 2070 Super.
 
Zuletzt bearbeitet:

Blackout27

Volt-Modder(in)
Das Bild lässt mich komplett kalt...
Bin mal gespannt wenn wir echtes Gameplay sehen.

P.S. Auf der One X läuft zum Beispiel RDR2 in nativen 4K, genau wie die meisten MS Exclusiv Spiele. Sind dann zwar meist nur 30Fps aber leider limitiert in der noch aktuellen Gen der langsame CPU Part.
 

ATI fan

Freizeitschrauber(in)
Krass. Das hätte ich nicht gedacht.:wow:
Screenshot_20191017_091020_com.google.android.youtube.jpgScreenshot_20191017_091444_com.google.android.youtube.jpg

Das ist nur ein Beispiel, aber in Forza und Battlefield ist meine RX 5700 Xt Karte oberhalb von einer RTX 2080, bei anderen Games unterhalb von einer RTX 2070...

Aber Offtopic Ende, es geht um Crysis^^

Das Bild lässt mich komplett kalt...
Bin mal gespannt wenn wir echtes Gameplay sehen.

P.S. Auf der One X läuft zum Beispiel RDR2 in nativen 4K, genau wie die meisten MS Exclusiv Spiele. Sind dann zwar meist nur 30Fps aber leider limitiert in der noch aktuellen Gen der langsame CPU Part.

Mich auch, weil ich schon eine bessere Grafik (rein von Details und Texturen her) in meinem Crysis nutze.
 

Julian K

PC-Selbstbauer(in)
hab mir dein video nun auch mal angesehen und es schaut schon gut aus.

aber für mich gibt es da dieses riesige problem: mods können da dann vieles deutlich verschönern, aber es sieht so clean aus. das spiel bleibt das spiel, ohne leben. für mich sieht das aus, als ob man da ein paar schöne screenshots machen könnte, nur in bewegung ist das so dermaßen künstlich. wie gesagt, viele mods verschönern ein spiel, aber dadurch hauchen sie ihm noch lange kein leben ein.
 

ATI fan

Freizeitschrauber(in)
hab mir dein video nun auch mal angesehen und es schaut schon gut aus.

aber für mich gibt es da dieses riesige problem: mods können da dann vieles deutlich verschönern, aber es sieht so clean aus. das spiel bleibt das spiel, ohne leben. für mich sieht das aus, als ob man da ein paar schöne screenshots machen könnte, nur in bewegung ist das so dermaßen künstlich. wie gesagt, viele mods verschönern ein spiel, aber dadurch hauchen sie ihm noch lange kein leben ein.
Denkst du im Remaster von Crytek wird es anders? sie werden paar Effekte hinzufügen, bessere Texturen, neue Shader, aber unterm Strick wird es so leer wie zuvor. Ich habe wenigstens mehr Tiere und Pflanzen hinzugefügt um es lebendiger wirken zu lassen. Auch neue Pflanzen die in eine Insel passen.
 

Julian K

PC-Selbstbauer(in)
Denkst du im Remaster von Crytek wird es anders? sie werden paar Effekte hinzufügen, bessere Texturen, neue Shader, aber unterm Strick wird es so leer wie zuvor. Ich habe wenigstens mehr Tiere und Pflanzen hinzugefügt um es lebendiger wirken zu lassen. Auch neue Pflanzen die in eine Insel passen.

warum wartet man es nicht erstmal ab? das ist für mich auch so ein problem. noch bevor etwas veröffentlicht wurde, wird darüber geurteilt. das gibt es hier, das ist auch bei der vermutlichen me-remaster-trilogie zu beobachten usw..
mein gott, abwarten und tee trinken und nicht schon immer noch nicht veröffentlichtes schlecht machen.

es ist super, dass du mit den mods zufrieden bist, das will ich dir auch überhaupt nicht nehmen, ich habe aber eben auch eine eigene meinung zu der crysis-reihe ansich und die ist nicht unbedingt sonderlich positiv. für mich sind das einfach mittelmäßige shooter inkl. eher billiger story mit überwiegend toller technik.
 

Andregee

Software-Overclocker(in)
Der Sinn ist, dass es fast keine sichtbaren Pixel mehr gibt. Ich habe diese Pixeldichte schon gesehen (4K auf einem 15,6" Laptopmonitor), Internetseiten und PDFs sehen aus wie gedruckt, bei Spielen gibt es einfach eine unglaubliche Klarheit, an die mein Monitor nicht rankommt. Jeder, der sagt, dass 8K unsinnig wäre, hat es einfach noch nicht gesehen oder sieht sehr schlecht. Auch 8K ist noch nicht perfekt, Anti Aliasing ist weiterhin notwendig. Von daher ist auch noch Luft für 16K.

Der Grenznutzen nimmt natürlich ab.
Ob Pixel sichtbar sind oder nicht, hängt nicht nur von deren Anzahl, sondern auch vom Betrachtungsabstand ab und bei 8k kommt man in einen Bereich, wo es absurd wird. Selbst bei 4k kann man mit 100 Prozent Sehvisus bei 50 Zoll erst bei unter einem Meter Abstand Pixel erkennen. Ich kenne niemanden der bei einem Meter Abstand mehr als 50 Zoll nutzen würde

Gesendet von meinem SM-G920F mit Tapatalk
 
Zuletzt bearbeitet:

Julian K

PC-Selbstbauer(in)
Ob Pixel sichtbar sind oder nicht, hängt nicht nur von deren Anzahl, sondern auch vom Betrachtungsabstand ab und bei 8k kommt man in einen Bereich, wo es absurd wird. Selbst bei 4k kann man mit 100 Prozent Sehvisus bei 50 Zoll bei unter einem Meter Pixel erkennen. Ich kenne niemanden der bei einem Meter Abstand mehr als 50 Zoll nutzen würde

Gesendet von meinem SM-G920F mit Tapatalk

ich garantiere dir (wenn es soweit ist), dass du den unterschied im direkten vergleich erkennen wirst - egal was die wissenschaft über unsere augen sagt. direkter vergleich 32" 4K vs. 32" 8K mit einem meter sichtabstand. wie gesagt, ich garantiere dir, dass du es sehen wirst.
 

RtZk

Lötkolbengott/-göttin
8k ist aktuell ziemlich unnötig, der Vorteil ist aktuell extrem gering und mit menschlichem Auge auf normalen Sitzabständen nicht zu erkennen. Derzeit wird es erstmal wichtig sein 4k in 120/144Hz wiederzugeben und die benötigte Leistung muss erstmal flächendeckend zur Verfügung gestellt werden. Ich denke sogar, dass Leistungen bis 80TF bei Grafikkarten noch sehr sinnvoll für 4k Gaming genutzt werden kann, bis wir allerdings diese Grafikkarten haben, werden noch mehr als 10 Jahre vergehen.

Selbst 4k halte ich aktuell für 95% der Gamer für sinnlos, der Spaß geht ja eigentlich erst mit 10TF Leistung los, vorher brauche ich mir über 4k keine Gedanken zu machen. Um aber aktuell bei 10TF zu sein, brauche ich eine HighEnd Karte. Mit der nun kommenden Generation an Grafikkarten wird 4k endlich tauglich und vermutlich werden in ein bis zwei Jahren selbst Mittelklassekarten die Performance zu tun zu haben.

Wann hört dieser Unsinn endlich mal auf mit dem " das menschliche Auge sieht das nicht"? Die Auflösung 4k oder 8k ist nur dann aussagekräftig wenn man es mit der Bildschirmgröße abgleicht, aka die DPI, diese ist das einzig Relevante für die Optik. Ein 32 Zoll Monitor mit 8k hat gerade einmal 280 DPI, ein modernes Smartphone wie ein iPhone 11 Pro hat 458 und auch hier würde man eine weitere Erhöhung noch massiv spüren. Sollte es eine "zu hohe" DPI geben, so sind wir noch meilenweit entfernt, insbesondere am Monitor Markt.
Wen interessiert bitte die TF Leistung, wenn es um Spiele geht? Diese macht nur Sinn, wenn man zwei Grafikkarten der gleichen Architektur miteinander vergleicht und diese ändert sich von Gen zu Gen, daher irrelevant.
Hätten Menschen wie du das Sagen würden wir noch heute in der Steinzeit hocken.

Crysis 4K AMD RX 5700 XT + Mods/new Assets in Ultra High - YouTube (noch in nur 360p), warte etwas und es wird in 4K gezeigt. Eine Stunde oben und weder 720p und noch 1080p Verfügbar? 4K weit entfernt? Ist Youtube Langsam oder wo liegt der Fehler? In der Zeit hätte mein PC 5 Videos davon Konvertieren können von 4K bis zu 480p Runter... Youtube hat wohl seine Tage^^

Der Witz ist, das Original Video ist in nativem 4K, aber der Output nur 360p???

Sieht zwar nicht allzu schlecht aus, aber man merkt die für heutige Verhältnisse schlechten Texturen der Umgebung schon ziemlich arg und die Böden sehen auch schrecklich aus.
 

ATI fan

Freizeitschrauber(in)
Sieht zwar nicht allzu schlecht aus, aber man merkt die für heutige Verhältnisse schlechten Texturen der Umgebung schon ziemlich arg und die Böden sehen auch schrecklich aus.

Ich hatte auch eine Mod mit 4096 x 4096 Texturen für den Boden, aber das Problem war sie veränderten den Look zu sehr und ich wollte das nicht, aber unterm Strich hätte ich das ohne Probleme machen können, die Dateien sind noch auf dem PC dafür. Dann sieht alles zu anders aus.

Zum Thema 8K, es ist unnötig, weil der Vorteil zu 4K zu mindestens für mich kaum sichtbar ist. 4K ist aber sehr Sinnvoll und mit heutigen GPUs locker zu stemmen (ab AMD Radeon RX 480 und GTX 1060 in Low Details bis hohe Details je nach Spiel zu stemmen). Die Frage ist immer bei welchen Details 4K. Ich spiele auf hohen bis höchsten Details mit meiner RX 5700XT. 4K ist jetzt Standard und 8K reiner Luxus von Usern mit 2 RTX 2080Ti oder 2 RTX Titan GPUs, aber wirklich nützlich ist das nicht.
 

IiIHectorIiI

Software-Overclocker(in)
Wann hört dieser Unsinn endlich mal auf mit dem " das menschliche Auge sieht das nicht"? Die Auflösung 4k oder 8k ist nur dann aussagekräftig wenn man es mit der Bildschirmgröße abgleicht, aka die DPI, diese ist das einzig Relevante für die Optik. Ein 32 Zoll Monitor mit 8k hat gerade einmal 280 DPI, ein modernes Smartphone wie ein iPhone 11 Pro hat 458 und auch hier würde man eine weitere Erhöhung noch massiv spüren. Sollte es eine "zu hohe" DPI geben, so sind wir noch meilenweit entfernt, insbesondere am Monitor Markt.
Wen interessiert bitte die TF Leistung, wenn es um Spiele geht? Diese macht nur Sinn, wenn man zwei Grafikkarten der gleichen Architektur miteinander vergleicht und diese ändert sich von Gen zu Gen, daher irrelevant.
Hätten Menschen wie du das Sagen würden wir noch heute in der Steinzeit hocken.



Sieht zwar nicht allzu schlecht aus, aber man merkt die für heutige Verhältnisse schlechten Texturen der Umgebung schon ziemlich arg und die Böden sehen auch schrecklich aus.
Hier geht es ja offensichtlich um Spiele, also Monitore von 24 - 42 Zoll. Und da ist 8k einfach mal sinnfrei.
8K-Fernseher kommen – doch wer braucht sie eigentlich? | heise online
 

Terracresta

Software-Overclocker(in)
Wann hört dieser Unsinn endlich mal auf mit dem " das menschliche Auge sieht das nicht"? Die Auflösung 4k oder 8k ist nur dann aussagekräftig wenn man es mit der Bildschirmgröße abgleicht, aka die DPI, diese ist das einzig Relevante für die Optik. Ein 32 Zoll Monitor mit 8k hat gerade einmal 280 DPI, ein modernes Smartphone wie ein iPhone 11 Pro hat 458 und auch hier würde man eine weitere Erhöhung noch massiv spüren. Sollte es eine "zu hohe" DPI geben, so sind wir noch meilenweit entfernt, insbesondere am Monitor Markt.
Wen interessiert bitte die TF Leistung, wenn es um Spiele geht? Diese macht nur Sinn, wenn man zwei Grafikkarten der gleichen Architektur miteinander vergleicht und diese ändert sich von Gen zu Gen, daher irrelevant.
Hätten Menschen wie du das Sagen würden wir noch heute in der Steinzeit hocken.



Sieht zwar nicht allzu schlecht aus, aber man merkt die für heutige Verhältnisse schlechten Texturen der Umgebung schon ziemlich arg und die Böden sehen auch schrecklich aus.

Finde es lustig, wie du die DPI ansprichst, aber nicht die Entfernung zum Auge. Ein Smartphone ist auch wesentlich näher am Gesicht als ein Monitor oder erst recht ein TV. Ohne die Entfernung haben auch die DPI keine Aussagekraft. :P

PS: Manche Leute haben schon eine morbide Faszination mit hohen Auflösungen, obwohl man die Rechenpower besser nutzen kann als für paar Pixel mehr. Ich will keine Strichmännchen in 32K. Finde es übrigens immer lustig, wenn bei Remasters oft von HD gesprochen wird, aber nur die Auflösung hochgeschraubt wurde, während der Rest noch immer wie beim Original-Release ausschaut. Übrigens sehen viele alte Spiele in niedriger Auflösung und an CRTs meist wesentlich besser aus, als ihre "HD" Remasters.
 
Zuletzt bearbeitet:

Andregee

Software-Overclocker(in)
ich garantiere dir (wenn es soweit ist), dass du den unterschied im direkten vergleich erkennen wirst - egal was die wissenschaft über unsere augen sagt. direkter vergleich 32" 4K vs. 32" 8K mit einem meter sichtabstand. wie gesagt, ich garantiere dir, dass du es sehen wirst.
Tja da liegst du falsch. Ich habe an Blindtests teilgenommen. So wie ich mit 100 Prozent Sehvisus bei 50 Zoll und 2 Meter Distanz 1080p von 4k nicht sicher unterscheiden konnte, so reicht eine einfache Verhältnisrechnung um zu erkennen das das gleiche für 8k und 4k bei einem Meter auf 50 Zoll gilt. Auf 32 Zoll erfasst das Auge bei einem Meter Distanz nicht einmal 4k vollständig, 8k ist somit absolut sinnbefreit. Man kann sich ja vieles schönreden wenn man nur fest dran glaubt, wenn das Auge jedoch die Quellgüte identifizieren muss, werden dessen Defizite schnell deutlich. Für den Test ist es unabdingbar, das gleiche Quellmedium in voller Auflösung und herunterskaliert zu vergleichen. Auch darf es es sich dabei nicht um eine dynamisch gerenderte Szene sondern ein Foto oder Standbild handeln, denn sonst vergleicht man nicht die Güte der Bildgröße, sondern Renderartefakte

Gesendet von meinem SM-G920F mit Tapatalk
 
Zuletzt bearbeitet:

Julian K

PC-Selbstbauer(in)
Tja da liegst du falsch. Ich habe an Blindtests teilgenommen. So wie ich mit 100 Prozent Sehvisus bei 50 Zoll und 2 Meter Distanz 1080p von 4k nicht sicher unterscheiden konnte, so reicht eine einfache Verhältnisrechnung um zu erkennen das das gleiche für 8k und 4k bei einem Meter auf 50 Zoll gilt. Man kann sich ja vieles schönreden wenn man nur fest dran glaubt, wenn das Auge jedoch die Quellgüte identifizieren muss, werden dessen Defizite schnell deutlich

Gesendet von meinem SM-G920F mit Tapatalk

natürlich hast du das.

wie gesagt, beide bildschirme nebeneinander, mit dem gleichen 8k-material gefüttert. defintiv wird man den unterschied im direkten (wichtig!) vergleich sehen.
 

Cleriker

PCGH-Community-Veteran(in)
Jeder! sieht anders. Ich beispielsweise kann mit 200 über die Autobahn fahren und meine Freundin fragen ob sie die Frisur der Beifahrerin des dunkelgrauen Golf 6 bemerkt hat, Der auf der mittleren Fahrbahn Der Gegenseite gefahren ist. Die guckt mich dann an und fragt mich wann da überhaupt ein Golf war. Mir fallen solche Sachen aber im Augenwinkel auf, keine Ahnung warum.

Wir beide tragen keine Brille und sollten ähnliche Bedingungen haben. Dennoch sehen wir komplett verschieden. Das hat auch was mit geschulten Augen zu tun. Beispielsweise habe ich vor meinem 32" 2160p Monitor einen 27" 1440p genutzt und diesen mit VSR auf 5K betrieben. Den Unterschied zwischen nativ und downsampling bemerke ich sofort. Mein bester Kumpel jeder nicht mal den zu nativ 1440p. Deshalb spielt er auch noch immer in 1080p, was mir selbst für einen Taschenrechner bald zu wenig wäre. Nicht weil ich dann nichts erkennen würde, nein. Einfach weil ich inzwischen anderes gewohnt bin und alles was anders ist als üblich, fällt auf.
 

restX3

Software-Overclocker(in)
Denkst du im Remaster von Crytek wird es anders? sie werden paar Effekte hinzufügen, bessere Texturen, neue Shader, aber unterm Strick wird es so leer wie zuvor.

Ich frag mich eh warum ein Remaster am PC.
Konsole macht ja noch durchaus Sinn aber PC?. Crysis sieht für das alter immer noch verdammt gut aus am PC, ist gut gealtert. Den einzigen Vorteil den ich sehe ist die Technik dahinter. Da hat Crysis noch nie gut performt (DirectX10) und unter Win 10 kann es Probleme geben mit Crysis 1. Schlechte Performance/24Hz Fehler.
Naja, mal abwarten wie das PC Remaster wird. Hoffentlich versaut es Crytek nicht. Crysis 1 am PC zählt zu meinen liebsten Games of all time.
 

Pu244

Lötkolbengott/-göttin
Tja da liegst du falsch. Ich habe an Blindtests teilgenommen. So wie ich mit 100 Prozent Sehvisus bei 50 Zoll und 2 Meter Distanz 1080p von 4k nicht sicher unterscheiden konnte, so reicht eine einfache Verhältnisrechnung um zu erkennen das das gleiche für 8k und 4k bei einem Meter auf 50 Zoll gilt. Auf 32 Zoll erfasst das Auge bei einem Meter Distanz nicht einmal 4k vollständig, 8k ist somit absolut sinnbefreit. Man kann sich ja vieles schönreden wenn man nur fest dran glaubt, wenn das Auge jedoch die Quellgüte identifizieren muss, werden dessen Defizite schnell deutlich. Für den Test ist es unabdingbar, das gleiche Quellmedium in voller Auflösung und herunterskaliert zu vergleichen. Auch darf es es sich dabei nicht um eine dynamisch gerenderte Szene sondern ein Foto oder Standbild handeln, denn sonst vergleicht man nicht die Güte der Bildgröße, sondern Renderartefakte

Da kommt es eben darauf an was du dir denn so ansiehst. Bei einem Foto oder Video kann das durchaus sein, bei einem Computerspiel hingegen nicht. Der Treppenstufeneffekt springt einem einfach ins Auge, genau wie diverse andere Dinge, etwa flimmernde Pixel. Wenn ich das Anti Aliasing abschalte, dann wird es richtig extrem.

Man kann natürlich über den abnehmenden Grenznutzen, bzw. Dminishing Returns, diskutieren, aber zu behaupten, es wür nichts bringen ist einfach nur Unsinn. Selbst 16K hat seine Berechtigung.
 

gerX7a

Software-Overclocker(in)
Ohne die Angabe der Blickdistanz ist eine DPI-Aussage wertlos, wie schon von einigen zuvor angemerkt wurde.

Die Sehschärfe ist definiert als Visus = 1/α mit α in Winkelminuten. Einen Wert von 1,0 betrachtet man üblicherweise als 100%ige Sehschärfe. Jugendliche können teilweise Werte von bis zu 1,2 oder in Ausnahmefällen gar 1,6 erreichen, was einer Auflösung von 0,83' (Winkelminuten) bzw. gar bis zu 0,63' entspricht.
Ein 4K-Monitor (32", 140 DPI) auf 0,7 m Distanz bedeutet, dass man einen einzelnen Pixel unter 0,89' sieht, d. h. hier wird es für "Normalsichtige" bereits schwer, einzelne Pixel auszumachen.

Der Vollständigkeit halber gibt es noch die Noniussehschärfe, die bis zu 10'' (Winkelsekunden) auflösen kann, jedoch ist diese bereits sehr speziell und kaum von sinnvoller Relevanz für komplexe Bewegtbilder, wie sie ein BF5 oder Ghost Recon auf den Bildschirm zaubert, umso mehr, wenn es dem Spieler darum geht das dargebotete Bild zu verarbeiten, Loot zu finden und Gegner zu entdecken und nicht etwa darum mögliche Pixeltreppenkannten an nahezu horizontalen oder vertikalen Objekten zu finden.

Hinzu kommt, dass die volle Sehschärfe nur in der Fovea centealis besteht, während sie in Richtung der Peripherie zunehmend abnimmt, d. h. wir sehen nur dort tatsächlich "scharf", wo wir hinsehen, bei FPS-Shootern daher die Bildmitte.

Mit etwas wie 8K muss man bei einem Desktopmonitor schon regelrechte "Adleraugen" haben um dort noch Pixel erkennen zu können, wenn man nicht gerade förmlich in das Gerät hineinkriecht.

WinkelMinutenPixelDistanz.png

Darüber hinaus verarbeitet unser Gehirn auf höherer Ebene keine "einzelnen Pixel", sondern ist eine "Mustererkennungsmaschine", die im Zuge dieses Prozesses in umfangreichem Maße Daten reduziert und eliminiert.
(Bei 4K sind das immerhin bereits 8,3 Mio. Pixel pro Frame bzw. bei 60 Hz rd. 500 Mio. Pixel/s, die da an einem vorbeirauschen.)

Frech??? Och bitte [...]

Lass' doch einfach gut sein; es wird nicht besser, wenn du nun ein weiteres Mal versuchst alles umzudeuten. ;-)
Zwei, drei Posts zuvor hat ein User darauf hingewiesen, dass er/sie sich das 8K-Bild nicht einmal in Gänze ansehen kann, weil dafür kein passendes Endgerät vorhanden ist und daraufhin habe ich lediglich ergänzt, dass er/sie damit quasi nicht alleine ist, bzw. konkret, dass die meisten Anwender selbst nicht einmal einen 4K-fähigen Monitor zur Verfügung haben (geschweige denn 8K).
Diese Aussage implizierte jedoch in keinster Weise, dass "man" sich besser auf kleine Monitore konzentrieren soll(t)en (was auch immer das in deiner Welt bedeuten mag?). Sie hat in dem Falle rein gar nichts mit Crysis zu tun, da es hier um die Darstellung von Bildmaterial geht (oder bräuchte man für Battlefield in 8K einen anderen/eigenen Monitor, sodass es hier doch eine unerwartete Äbhängigkeit zum Content gibt? Die Hardware-Hersteller würde es freuen. ;-)). Und sie hat erst recht nichts damit zu tun, wie performant Crysis zum Zeitpunkt seines Releases auf irgendwelcher Hardware lief.
Du hattest schlicht Kopfkino und auf irgend einen imaginären Unsinn "geantwortet", der so dort in der Form niemals stand.
 
Zuletzt bearbeitet:
Oben Unten