Unreal Engine 5: Epic zeigt Echtzeit-Techdemo auf PS5

@ Blackvoodoo

Ich verstehe deine Argumentation, mach hier auch niemanden eine vorwurf, ich kenn das ja mit dem Gefährlichen Halbwissen bei mir auch selbst ;) :D.
 
Auf Dauer ist ein PC definitiv nicht günstiger was die Spiele betrifft, wenn man es denn richtig macht ;) XBOX Angebote in ausländischen Stores liegen nochmal deutlich unter Steam Preisen. Ich hab schon etliche Spiele gekauft, die max. 1 Jahr alt waren und die haben 3-4 € gekostet. Ich zahle selbst für ein Cyperpunk2077 nur 17,XX € und das direkt zum Release...

Nonsense, weil es nirgends so viele Gratisspiele gibt wie am PC. Und ausländische Angebote, Keyseller etc. gibts genauso am PC. Ich hab auch fast alle AAA Spiele die mich sointetessieren untet 5€ gekauft.
Meine Steam Bibliothek gobt aus(kann man sich ja anzeigen lassen), dass ich für meine knapp 400 Spiele im Durchschnitt weniger als 1,5 Eueo ausgegeben. Ich brauch auch kein Abo für irgendwas wie bei Box und PS
 
Gleiches denke ich im Übrigen über den Boosttakt der PS5, auf was hin entwickeln da wohl die Entwickler? ;)

MfG

Wird Sony nur mehr von den skalierenden Auflösungen usw. leben müssen. Geht ja gar nicht anders. Boost spricht ja gegen die Idee einer Konsole, dass sie unter allen Umständen gleich läuft und du daher optimieren und pressen kannst bis zum letzten Tropfen.
 
Wird Sony nur mehr von den skalierenden Auflösungen usw. leben müssen. Geht ja gar nicht anders. Boost spricht ja gegen die Idee einer Konsole, dass sie unter allen Umständen gleich läuft und du daher optimieren und pressen kannst bis zum letzten Tropfen.

Auch jetzt schon laufen alle Spiele skaliert. Vor Allem die für Xbox X und PS4Pro als 4K Spiele beworbenen Spiele laufen hochskaliert. Merkt nur keiner, was zeigt, wie wenig wichtig Auflösung wirklich ist
 
Zur Bandbreitennutzung wird man sich wohl noch etwas gedulden müssen bis beide Konsolen UND passende Spiele erschienen sind.

Mich würde mal interessieren wie die Demo auf der RTX2080ti gelaufen wäre in 4K :)

Da die 2080ti in der Praxis wahrscheinlich ~30% schneller sein dürfte als die PS5 GPU, so ca. mit 18fps
 
Also für die XOX gibt es aber auch spiele die nativ@4k laufen.

MfG
Gut, irgendwelche Spiele die eigentlich wenige Details haben.
Und viele Spiele schreiben halt nativ 4K weil sie schon intern mit einer niedrigen Renderauflösung laufen, aber dann hochskaliert sind (Doom Eternal, RDR2...). Man merkt das an vielen Spielen, dass die erst dann scharf sind, wenn sie auf der doppelten Auflösung laufen -> da ist die interne Renderauflösung wohl deutlich reduziert. Ich glaube etwa bei Control ist das so.
 
Auch jetzt schon laufen alle Spiele skaliert. Vor Allem die für Xbox X und PS4Pro als 4K Spiele beworbenen Spiele laufen hochskaliert. Merkt nur keiner, was zeigt, wie wenig wichtig Auflösung wirklich ist

Ich glaube RDR2 und FOrza laufen nativ mit 4k. :-)

MfG

Wollte gerade meinen. Vor allem auf der Xbox lief 4k häufig nativ. Hat man halt mit 30FPS gekauft und leichten Abzügen in den Details. Aber vor allem RDR2 zeigte wie gut es auf der One X schon aussah, als die durstige PC Version rauskam.

Control ist finde ich allgemein ein Negativbeispiel. Für mich sieht es auch auf dem PC daherhaft blurry aus. Da hilft ach RTX nicht.
 
Wird Sony nur mehr von den skalierenden Auflösungen usw. leben müssen. Geht ja gar nicht anders. Boost spricht ja gegen die Idee einer Konsole, dass sie unter allen Umständen gleich läuft und du daher optimieren und pressen kannst bis zum letzten Tropfen.

Die PS5 hat keinen "Boosttakt" wie GPUs am PC. Alle PS5 Konsolen verhalten sich exakt gleich deterministisch, unabhängig von der Temperatur. Das heißt, wenn das Spiel in einer Szene mit 50.000 NPCs und mit 1080@30 beim Test auf der Entwicklerkonsole läuft und die GPU dabei mit x GHz und CPU mit y GHz taktet, werden alle Konsolen bei den Kunden zu Hause in der gleichen Szene mit den gleichen Frequenzen takten und das gleiche Ergebnis liefern. Das Verhalten aller PS5 Konsolen hängt nur vom Workload/Spielecode ab. Individuelle Chipqualität, Kühlung und Raumtemperatur haben keine Auswirkung.
 
Wird Sony nur mehr von den skalierenden Auflösungen usw. leben müssen. Geht ja gar nicht anders. Boost spricht ja gegen die Idee einer Konsole, dass sie unter allen Umständen gleich läuft und du daher optimieren und pressen kannst bis zum letzten Tropfen.

Ich gehe davon aus, dass die PS5 sowieso (geplant) eine Skalierungskonsole werden soll. Nur Microsoft hat sich bisher natives 4K auf die Fahnen geschrieben.
 
Die PS5 hat keinen "Boosttakt" wie GPUs am PC. Alle PS5 Konsolen verhalten sich exakt gleich deterministisch, unabhängig von der Temperatur. Das heißt, wenn das Spiel in einer Szene mit 50.000 NPCs und mit 1080@30 beim Test auf der Entwicklerkonsole läuft und die GPU dabei mit x GHz und CPU mit y GHz taktet, werden alle Konsolen bei den Kunden zu Hause in der gleichen Szene mit den gleichen Frequenzen takten und das gleiche Ergebnis liefern. Das Verhalten aller PS5 Konsolen hängt nur vom Workload/Spielecode ab. Individuelle Chipqualität, Kühlung und Raumtemperatur haben keine Auswirkung.

Das ist auf jeden Fall mal eine offensive Behauptung, die ich zum jetzigen Stand einfach mal anzweifele bis die Konsole mal einen nachvollziehbaren Stresstest bekommt nach ihrem Release
 
Das ist auf jeden Fall mal eine offensive Behauptung, die ich zum jetzigen Stand einfach mal anzweifele bis die Konsole mal einen nachvollziehbaren Stresstest bekommt nach ihrem Release

Hat Cerny so gesagt und das klingt ja nicht nach Marketing Bla Bla, sondern ist doch eine nachvollziehbare Entscheidung, dass jede PS5 gleich laufen soll. Genügend Sicherheit müssen sie demnach einbauen, sonst gehts nämlich los mit der Chiplotterie.
 
Hat Cerny so gesagt und das klingt ja nicht nach Marketing Bla Bla, sondern ist doch eine nachvollziehbare Entscheidung, dass jede PS5 gleich laufen soll. Genügend Sicherheit müssen sie demnach einbauen, sonst gehts nämlich los mit der Chiplotterie.

Cerny ist für mich immer erstmal Marketing-blabla, daher warte ich was solche Sachen angeht einfach mal auf reale Ergebnisse. Wenn er sein Versprechen einhält gut, wenn nicht würde es mich auch nicht wundern. Wenn das kein stabiler Boost ist, wird das entwickeln die Hölle und man wird einfach den non-boost als Target nehmen. Wovon ich auch eh ausgehe.
 
Cerny ist für mich immer erstmal Marketing-blabla, daher warte ich was solche Sachen angeht einfach mal auf reale Ergebnisse. Wenn er sein Versprechen einhält gut, wenn nicht würde es mich auch nicht wundern. Wenn das kein stabiler Boost ist, wird das entwickeln die Hölle und man wird einfach den non-boost als Target nehmen. Wovon ich auch eh ausgehe.

Du als Xbox Fan ja... Das glaube ich dir... :ugly: Und Phil Spencer schnackt nicht weniger oft rum... ;-)
 
Hat Cerny so gesagt und das klingt ja nicht nach Marketing Bla Bla, sondern ist doch eine nachvollziehbare Entscheidung, dass jede PS5 gleich laufen soll. Genügend Sicherheit müssen sie demnach einbauen, sonst gehts nämlich los mit der Chiplotterie.
Er hat nicht gesagt das bei voller Auslastung der GPU und CPU diese den vollen Takt hält, so viel wie ich weiß.^^ Macht ja auch keinen Sinn, dann bräuchte man den Boost wohl kaum. ;)

MfG
 
Das ist auf jeden Fall mal eine offensive Behauptung, die ich zum jetzigen Stand einfach mal anzweifele bis die Konsole mal einen nachvollziehbaren Stresstest bekommt nach ihrem Release

Das ist eine logische und nachvollziehbare Aussage. Sony (oder sonst ein Konsolenhersteller) könnte es sich nicht erlauben, dass die eine Konsole bei Auslieferung 60 FPS stur in Spiel XY schafft und bei einem anderen Kunden schwanken die FPS zwischen 56 und 60 bei gleichem Spiel.

Cerny sagte auch nicht, dass manche PS5 den "Boost"takt dauerhaft halten können, sondern DIE PS5, also die Konsole im allgemeinen.

Bin eh der Meinung, dass Cerny sich nur (aufgrund der Präsentation für Entwickler und nicht für uns Endkunden) etwas anders ausgedrückt hat. Auch die PS4 und Xbox One haben im Grunde einen Boost- bzw. Maximaltakt. Dieser liegt logischerweise nicht immer an, weil er nicht immer von Nöten ist. Seine Ausdrucksweise hat nun zu diesen ewigen Diskussionen geführt, obwohl er ebenfalls gesagt hat, dass sowohl CPU als auch GPU gleichzeitig ihren Maximaltakt halten können.

Der einen Sache wird dann immens viel Gehör geschenkt (und mit Spekulationen um sich geworfen), der anderen zugeschrieben, dass es ja nur Marketinggewäsch wäre (und das wohlgemerkt bei einem Deep-Dive für Entwickler). :wall:



Naja, ich für meinen Teil glaube Cerny da bedeutend mehr als den ganzen spekulierenden (und häufig bewusst negativ urteilenden) Wesen zu der verbauten Hardware hier im Forum. ;)
 
Zurück