G
Gast1678576202
Guest
Mache mir da keine Sorgen Nvidia-Experience regelt
Eigentlich schade, wenn man sich überlegt was aus manchen Titeln hätte werden können, wenn man auf 1440p statt 4K optimiert hätte.
Ersteres wäre für Sony bzw. für die PS-Spieler ein klarer Nachteil.Erst kürzlich hat Sony gesagt das sie davor angst haben das Microsoft CoD künstlich auf der Playstation schlechter laufen lassen könnte.
Was spricht also dagegen das sie selber solche Praktiken praktizieren wie in diesem fall ?
Was wäre das für eine Werbung wenn das spiel doppelt oder 3 x so gut läuft wie auf einer PS5.
Es ist doch schon immer so gewesen, dass PC-Spiele bei ihrer Erscheinung eher für die Zukunft designed sind und die Hardware für die bestmögliche Qualität quasi erst im Kommen ist.Vor allem vergessen manche Leute, dass 4K noch lange kein Norm ist. Wenn man mal ein paar Jahre zurückschaut, gab es auch oft genug Spiele, wo Grafikkarten wie eine GTX 780 oder GTX 980 mit 60 FPS in Full HD zu kämpfen hatten. Da hat doch auch keiner rumgeheult.
Leute kaufen sich auch sobald eine neue Grafikkarte erscheint, diese. Da wird so mancher Konsolenfanboy genauso drüber lächeln. Das ist das Problem am Fanboyism.Und wenn ich lese, dass TLOU1 oder Resident Evil 4 auf der PS5 jetzt 80 € kosten sollen, darüber kann man als PC-Gamer nur müde lächeln. Aber klar, die Konsolen-Fanboys lassen sich immer abkassieren
Tatsächlich läuft das so nicht, sonst gäbe es Funktionen in Spielen die erst in 10 - 15 Jahren zugeschaltet werden können, wenn man eine vernünftige zweistellige Bildrate haben möchte.Naja, das gleiche Game, aber in krümeliger.
Nein. Einfach nein. Das einzige Spiel, das seiner Zeit weit voraus war, war Crysis von 2007. Danach kam nichts mehr dergleichen. Evolution, statt Revolution. Auch RT , bzw. Pathtracing, ist "nur" der nächste logische Schritt.Es ist doch schon immer so gewesen, dass PC-Spiele bei ihrer Erscheinung eher für die Zukunft designed sind[...]
Würde ich so nicht unterschreiben, Crysis 1 war natürlich ein Worst Case Szenario. Aber schau dir mal alte Benchmarks an von Spielen wie Crysis 3, Watch Dogs oder AC Black Flag. Da hatten selbst Top Grafikkarten mit 60 FPS in Full HD zu kämpfen, während heutige Grafikkarten keine Probleme haben dort die 60 FPS in 4K zu knacken.Nein. Einfach nein. Das einzige Spiel, das seiner Zeit weit voraus war, war Crysis von 2007. Danach kam nichts mehr dergleichen. Evolution, statt Revolution. Auch RT , bzw. Pathtracing, ist "nur" der nächste logische Schritt.
Also mit den Anforderungen komme ich nicht Klar. So ein schönes Atomic Heart rennt mit meiner 3090 in UHD (DLSS Qualität) mit 110-144FPS über den Bildschirm und ein Last of Us will ne 4080? Das Spiel rennt sogar auf der PS5 "native" mit 60FPS. Und die hat nicht mal annähernd so viel Leistung wie eine 4080. Dann sollte ja die PC Version Optisch noch mal soooo richtig einen drauf legen bei diesen hohen Anforderungen. Wir reden hier über kein Next Gen Titel. Das Spiel ist sehr hübsch. Aber das war es schon immer.
Muss mich berichtigen. Hab grad geschaut. Native rennt die PS5 Version mit 30 FPS. Der 60 FPS Modus ist eine Mischung aus 1440p und 2160p
Das stimmt so nicht, Crysis war nicht das einzige Spiel, wo das so war. Ist nicht bei jedem Spiel so, gar bei den wenigsten. Aber es gibt eine ganze Reihe an Spielen, die erst mit Hardware die 1-2 Generationen später erschienen sind richtig gut liefen, wie vom Entwickler gedacht. Da gehören imo z.B. Cyberpunk und MSFS auch dazu.Nein. Einfach nein. Das einzige Spiel, das seiner Zeit weit voraus war, war Crysis von 2007. Danach kam nichts mehr dergleichen. Evolution, statt Revolution. Auch RT , bzw. Pathtracing, ist "nur" der nächste logische Schritt.
Du bist doch auch nicht neu hier. Zum Release! Und so steht es aktuell noch im PSN. Kannst dich auch freuen es ist wirklich super!Wo kaufst Du Spiele? Ich hab es für 38,-€ vorbestellt... und freu mich drauf
Zum Glück hat das Marketing diesen Euphemismus noch nicht entdeckt: Calisto Protocol läuft so schlecht, weil es für künftige Hardware Generationen konzipiert wurdeAber es gibt eine ganze Reihe an Spielen, die erst mit Hardware die 1-2 Generationen später erschienen sind richtig gut liefen, wie vom Entwickler gedacht. Da gehören imo z.B. Cyberpunk und MSFS auch dazu.
Der technische Unterbau zu Cyberpunk ist eine kleine Katastrophe und ist es bis heute geblieben. Revolutionär ist was anderes.Das stimmt so nicht, Crysis war nicht das einzige Spiel, wo das so war. Ist nicht bei jedem Spiel so, gar bei den wenigsten. Aber es gibt eine ganze Reihe an Spielen, die erst mit Hardware die 1-2 Generationen später erschienen sind richtig gut liefen, wie vom Entwickler gedacht. Da gehören imo z.B. Cyberpunk und MSFS auch dazu.
In der aktuellen Ausbaustufe von Cyberpunk reicht alles maxed kaum ne 4090 (ohne DLSS).
Watch Dogs und Black Flag - so wie viele andere AAA-Games von Ubisoft - als Beispiel ran zu ziehen, halte ich für...gewagt. Die sind nicht gerade für eine gelungene Optimierung bekannt.Würde ich so nicht unterschreiben, Crysis 1 war natürlich ein Worst Case Szenario. Aber schau dir mal alte Benchmarks an von Spielen wie Crysis 3, Watch Dogs oder AC Black Flag. Da hatten selbst Top Grafikkarten mit 60 FPS in Full HD zu kämpfen, während heutige Grafikkarten keine Probleme haben dort die 60 FPS in 4K zu knacken.
Nicht, dass die Spiele großartig revolutionär waren, aber sie haben schon damalige Hardware gut gefordert.