PS5: Entwickeler lobt zusätzliche Möglichkeiten durch Boost-Taktung

Mal wieder PCGH Forum at its best. *facepalm*

Der Boost arbeitet mit festem Powertarget und ist unabhängig von der Temperatur.

Dadurch hat man immer reproduzierbare Ergebnisse.

Da man das Powerlimit kontrolliert, kontrolliert man auch die Abwärme.
Wenn man weiß, dass die Kühler meinetwegen 250 Watt schaffen, dann kann man durch den Smart shift je nach Last entweder der GPU oder CPU mehr power geben.
Dadurch maximiert man die Gesamtleistung des Systems innerhalb des Powertargets, kann die Temperatur kontrollieren und erhält trotzdem stets reproduzierbare Ergebnisse.

Reproduzierbar deswegen, weil eine Szene bei jedem durchlauf immer exakt die gleiche Last erzeugt und der Energieverbrauch der Hardware und die Powerlimits feste Größen sind. Der Boost bzw. Smart Shift verhält sich also immer exakt gleich, da die Temperatur keinen unvorhersehbaren Einfluss hat.


Die Xbox arbeitet z.B. mit statischem Takt, was den Nachteil hat, dass je nach Last entweder die Lüfter häufiger hoch und runter drehen oder wenn doch irgendwann ein Power oder Temp limit greift, dann kann die Leistung innerhalb dieser limits ohne Smart Shift nicht maximiert werden. Aber auch hier hat man den Vorteil der reproduzierbaren Ergebnisse.


Am PC hat man meist Power und Temp limits und lässt auch den Taxt variabel Boosten, hat aber dann den Nachteil, dass die Ergebnisse nicht reproduzierbar sind bzw. von der Umgebungstemperatur und Gehäusekühlung abhängig sind. Sowas will man halt bei ner Konsole nicht.


Die Unterschiede dieser Methoden und die Logik dahinter sind doch leicht verständlich und sehr offensichtlich. Aber bis auf einige wenige scheints hier trotzdem keiner so richtig zu verstehen.
Ich dachte hier treiben sich technik nerds herum? Aber ich sehe hauptsächlich Leute, die irgendwelche Pauschalisierungen von sich geben, ohne sich gefühlt auch nur 5 Minuten mit dem Thema auseinandergesetzt zu haben.
Ist euch das nicht etwas peinlich?
 
Zuletzt bearbeitet von einem Moderator:
Der entscheidende Punkt ist, dass die meisten Spiele die CPU nicht ausreizen, von daher kann man das TDP Budget einfach der GPU zustecken.

warum sony nicht die gleiche gbu reingebaut hat wie xbox wie gewolt und nicht gekonnt von sony.:daumen2:

Weil Sony davon nichts wußte, genauso wie MS bei der X-Box One. Das sind Geschäftsgeheimnisse und wenn herausgekommen wäre, dass AMD die Preisgegeben hätte, dann wäre es wohl teuer geworden, weil MS sie verklagen könnte. Außerdem wäre AMD ein verbranntes Unternehmen, weil jeder weiß, dass die Geschäftsgeheimnisse dort nicht sicher sind.

Deshalb konnte Sony wohl nur raten, was MS das zusammenbraut und sie lagen um etwa 20% daneben.
 

Danke. Es gibt nicht viele die es verstanden haben.

Wenn man schon liest, dass Entwickler auf irgendwelche Taktraten hinentwickeln, muss man sich nur an den Kopf langen.

Es macht schon Sinn, wenn ich 16.6 ms für den Frame habe, aber die GPU ihre Arbeit nach 10ms schon fertig hat, muss die GPU nicht kontinuierlich bei vollen Takt laufen, was unnötig Hitze produziert und Power saugt. Warum das für den Entwickler negativ sein soll weiß ich nicht.
 
Danke. Es gibt nicht viele die es verstanden haben.

Wenn man schon liest, dass Entwickler auf irgendwelche Taktraten hinentwickeln, muss man sich nur an den Kopf langen.

Es macht schon Sinn, wenn ich 16.6 ms für den Frame habe, aber die GPU ihre Arbeit nach 10ms schon fertig hat, muss die GPU nicht kontinuierlich bei vollen Takt laufen, was unnötig Hitze produziert und Power saugt. Warum das für den Entwickler negativ sein soll weiß ich nicht.
Du suchst Dir dabei das Best Case Beispiel raus.
Als Entwickler kannst Du nicht prognostizieren an welchen Stellen die Last hoch oder niedrig ist, vielleicht grob, aber das Spielverhalten der Spieler kann man nicht zu 100% reproduzieren.
Als Entwickler musst Du für ein Performancetarget entwickeln und damit sicher stellen dass das Spiel auch im worst Case eine gewisse Bildrate einhält, daher werden die meisten eines anvisieren welches zu 100% eingehalten wird, und das wird sicher keine 2,23 Ghz sein, sondern sehr wahrscheinlich ein Stück darunter sein.

Der Nachteil ist ein niedrigeres Performancetarget, der Vorteil dass man an bestimmten Stellen sicher weniger Hitze produziert und Strom benötigt.
Aber die letzten beiden Punkte sind angesichts der Tatsache dass man mit der PS5 GPU wohl relativ außerhalb des Sweetspots unterwegs ist wohl kein Kernthema gewesen.
 
Ich dachte hier treiben sich technik nerds herum? Aber ich sehe hauptsächlich Leute, die irgendwelche Pauschalisierungen von sich geben, ohne sich gefühlt auch nur 5 Minuten mit dem Thema auseinandergesetzt zu haben.

Ach, hier gibt es so einige Überraschungen.

Man sollte meinen, dass sich hier besonders viele Leute herumtreiben, die dem Fortschritt aufgeschlossen sind. Wenn es dann aber mal nicht um eine schnellere Graka oder CPU geht, sondern um Grundsätzliches, dann sind hier allerdings teils die letzten Hinterwäldler unterwegs.

Z. B. wenn die Einführung von 5G bevorsteht "brauch ich nicht, also braucht es keiner", "mein Smartphone ist schnell genug", "die sollen erstmal 4G ausbauen" usw.. Besonders witzig ist, dass die selben Leute dann auch noch herumheulen, dass es (angeblich) keine echten Flatrates gibt (gibt es). Dass man für einen Ausbau der Flatrates auch ein entsprechend starkes Netz braucht, das kommt den Leuten nicht in den Sinn.
 
Du suchst Dir dabei das Best Case Beispiel raus.
Als Entwickler kannst Du nicht prognostizieren an welchen Stellen die Last hoch oder niedrig ist, vielleicht grob, aber das Spielverhalten der Spieler kann man nicht zu 100% reproduzieren.

Doch, das kann man. Da man eine Hardwarekonfiguration (oder vielleicht 2 oder 3) hat, läßt sich das sehr gut prognostizieren. Wenn du z.B. auf eine gewisse Stelle schaust und die Bildwiederholrate unter eine gewisse Marke abfällt, dann muß diese Stelle entsprechend anspruchsloser gestaltet werden. Wenn es an eine Stelle zu schnell geht, dann sind da noch Reserven vorhanden. Am PC ist das relativ egal, da jeder eine andere Konfiguration hat, auf der Konsole kann man hingenen immer in seinem Fenster bleiben, wenn man will.

Als Entwickler musst Du für ein Performancetarget entwickeln und damit sicher stellen dass das Spiel auch im worst Case eine gewisse Bildrate einhält, daher werden die meisten eines anvisieren welches zu 100% eingehalten wird, und das wird sicher keine 2,23 Ghz sein, sondern sehr wahrscheinlich ein Stück darunter sein.

Und wenn, dann ist das auch kein Beinbruch, es gibt genug Spiele, die ihr Zel an gewissen stellen unterschreiten und sogar teilweise sogar die 20FPS küssen (Far Cry 4 auf der PS3 oder Xenoblade Chronicles 2 auf der Switch). Beim Remake von Links Awakening geht es im Schleimsumpf auch schonmal auf die 30 FPS zu, woran sich einige Aufgehangen haben, im Rest des Spiels ist man hingegen Großteils mit 60FPS unterwegs.
 
"Insgesamt verspreche die Boost-Technologie Entwicklern laut Shah die Freiheit, zusätzliche Ressourcen dort einzusetzen, wo sie besonders benötigt werden. Wenn in einer Zwischensequenz beispielsweise eine zusätzliche CPU-Belastung durch ein zu renderndes Partikel entsteht, verursache dies dank der variablen Taktraten kein Problem. Mit fixen Taktraten bestehe jedoch die Gefahr, die CPU zu überfordern. Außerdem lobt er die von Cerny gezeigten Sony-Bemühungen, möglichst viele Vorgänge auf andere Bereiche der Maschine auszulagern. Auf welche Vorgänge er sich dabei im Detail bezieht, gibt Shah jedoch nicht an."

Da stimme ich dem Entwickler zu 100% zu. Allerdings bringt solch ein Boost bezogen zur Konkurrenz nicht viel wenn das Produkt des Kontrahenten durchweg höhere Werte garantieren kann :ugly:
Natürlich sollte man das nicht 1:1 vergleichen da sich beide Konsolen noch durch andere Punkte deutlich unterscheiden (API, I/O Block und co.). Ich schätze das Sony in Sachen CPU Power etwas mehr leisten könnte als MS, diese sind aber wohl von der reinen Rohleistung schneller.
Unterm Strich wird man darüber wohl in 1-2 Jahren nicht mehr groß drüber reden. Ich hoffe ja noch auf eine DLSS Alternative für die Next Gen Konsolen :)


@ Relex

Die Frage welche wohl die meisten interessiert ist, wie hoch die maximale Last der GPU sein wird bei 2230Mhz. Man kennt ja noch nicht das Power Limit des SoC´s. Zudem bedeutet es nicht das die GPU der Ps5 bei 2230Mhz immer die gleiche Auslastung besitzt was sich auf den verbrauch auswirkt. Bei der CPU ist es das gleiche, dodass es eben einen Wert geben muss der für die maximale Auslastung der beiden Punkte klar definiert ist und einen minimalen Punkt. Das die PS5 beim nächsten Fifa oder co. mit 2230Mhz laufen wird, verwundert sicher niemanden aber wie schaut es bei einem Open World Titel aus der "alles" von der GPU abverlangt aber auch die CPU sehr gut auslastet (zum Beispiel zu 70%)?

Ich denke diese Werte werden wir nie erfahren da diese eben dann zu vergleichen wären mit der Xbox Series X. Laut Sony sind es nur ein paar Prozent sodass man wohl bei 10TF landet. Böse Zungen denken da eher an 9-9,2TF. Sollten die aktuellen Gerüchte von Big Navi stimmen (72Cu´s bei knapp über 2Ghz Gaming Takt mit 280-310 Watt) sollte der GPU Part der Playstation 5 unter Vollast ~180 Watt benötigen. Die CPu und der I/O Block vielleicht 40-50 Watt, sodass Sony ein Limit von 215-225 Watt vorsehen könnte (SoC). Der Ram benötigt ja auch nuch ~16 Watt, gefolgt von der SSD, den Lüfter und co. Ich schätze man wird bei ~250 Watt landen sofern die Konsole alles geben muss.
Die neue Xbox Series X hat ein 310 Watt Netzeil und wird ähnliche Werte erreichen. Ob es nun die richtige Entscheidung war weniger CU´s zu verbauen für einen hohen (wahrscheinlich PC ähnlichen Takt) Takt? Keine Ahung aber die Kühlung muss schon sehr durchdacht sein da ich persönlich davon ausgehe, das der SOC kleiner ausfällt als bei der Xbox. Bei einen ähnlichen SOC Verbauch wird die Kühlung schon ihre Not haben (siehe RX5700XT)

LG

Danke. Es gibt nicht viele die es verstanden haben.

Wenn man schon liest, dass Entwickler auf irgendwelche Taktraten hinentwickeln, muss man sich nur an den Kopf langen.

Es macht schon Sinn, wenn ich 16.6 ms für den Frame habe, aber die GPU ihre Arbeit nach 10ms schon fertig hat, muss die GPU nicht kontinuierlich bei vollen Takt laufen, was unnötig Hitze produziert und Power saugt. Warum das für den Entwickler negativ sein soll weiß ich nicht.

Das stimmt aber wer sagt, das es bei MS so sein wird? Nur weil die GPU mit konstanten Werten arbeitet, muss die Auslastung doch nicht gleich bleiben. Meine GTX1080 Ti taktet auch in jedem Spiel mit konstanten 1600Mhz. Dennoch unterscheidet sich die Auslastung je nach Spiel deutlich = weniger Stromverbrqauch, geringere Temperaturen.
MS hat ja lediglich gesagt, das man die Taktraten zu jeder Zeit halten kann (worst Case Benchmark). Technisch wird die Xbox genau wie die Playstation mit ihren Takt variieren können. Ob es dann so ist keine Ahnung aber falls ja sind eben die von MS bekannten Taktraten deren Boost ^^
 
Zuletzt bearbeitet:
Du suchst Dir dabei das Best Case Beispiel raus.
Als Entwickler kannst Du nicht prognostizieren an welchen Stellen die Last hoch oder niedrig ist, vielleicht grob, aber das Spielverhalten der Spieler kann man nicht zu 100% reproduzieren.
Als Entwickler musst Du für ein Performancetarget entwickeln und damit sicher stellen dass das Spiel auch im worst Case eine gewisse Bildrate einhält, daher werden die meisten eines anvisieren welches zu 100% eingehalten wird, und das wird sicher keine 2,23 Ghz sein, sondern sehr wahrscheinlich ein Stück darunter sein.

Der Nachteil ist ein niedrigeres Performancetarget, der Vorteil dass man an bestimmten Stellen sicher weniger Hitze produziert und Strom benötigt.
Aber die letzten beiden Punkte sind angesichts der Tatsache dass man mit der PS5 GPU wohl relativ außerhalb des Sweetspots unterwegs ist wohl kein Kernthema gewesen.

Nein, man braucht hier keine niedrigeren Targets um Safe zu sein. Du hast es immer noch nicht verstanden. Man kann alles zu 100% reproduzieren und deswegen jedes bisschen ausreizen.

Wenn du die Kamera irgendwie schwenkst und dabei zufällig als Entwickler ne Stelle findest, wo die FPS unter 30 sacken, dann kann es dir als Entwickler absolut egal sein, was Smart Shift gerade mit der Leistung gemacht hat, diesen Drop wirst du 1:1 auf jeder Konsole reproduzieren können. Das ist ja der Witz an der Sache. Nur anstatt die Details jetzt irgendwie zu reduzieren, wenn du im GPU limit bist, kann man jetzt als Entwickler die CPU last ein wenig reduzieren und erhält dann automatisch etwas mehr GPU power (diese Möglichkeit loben die Entwickler). Die Szene würde dann besser laufen, Smart Shift würde sich anpassen, aber das veränderte Verhalten wäre nach wie vor beliebig oft reproduzierbar, da das SmartSift Verhalten wie gesagt von der Spielszene abhängt bzw. das Resultat dessen ist, wie dein Spiel gestaltet ist und deswegen hängt es eben nicht von irgendwelchen unvorhersehbaren Einflüssen wie der Temperatur ab.

Dass die Last nicht in jeder Szene identisch ist und die Entwickler durch Testen herausfinden müssen, ob das FPS Target eingehalten wird ist zudem etwas völlig normales. Das muss man auch bei statischen Taktraten bzw. muss man jetzt auch schon. Die PS5 wird daran aber nix ändern, denn auf die Art und Weise wie du deine Szene gestaltest nimmst du wie gesagt direkt Einfluss darauf, wie Smart Shift sich verhält. Verändert du deine Szene, verändert du smart Shift. Aber wenn du was änderst, bleibt es konsistent und reproduzierbar.

Das Smart Shift verhalten und die Taktraten der PS5 sind für eine Szene genauso in Stein gemeißelt, wie die Last, die sie auf einer GPU erzeugen wird. Es ist beliebig oft reproduzierbar.
Gleiche Szene, gleiche Last, gleiches SmartShift/Boost verhalten. Keine Ahnung, wie ich es noch anders beschreiben soll. Ist das denn echt so schwer zu verstehen?
 
Alles nutzloses Gelaber, dass nicht auf Wahrheit geprüft werden kann. Jede Diskussion ist verlorene Zeit.
Einfach abwarten bis die Konsolen erscheinen. Dann haben wir Gewissheit.

Man muss da nichts auf Wahrheit prüfen. Permanente 10,28 Tflops sind besser als ein Boost auf 10,28 TFops... Aber man kanns jetzt auch nicht ändern... Nur es als was totalTolles zu verkaufen, während die Xbox 12 Tflops hat, ist eben sehr merkwürdig.
 
Die 12 TF sind viel leicht eher 12 MS Flops ;-)
frage mich ernsthaft wie man das verglichen hat ? nur als MS Dreisatz 52CU = 100% MS Takt sowie 36 CU = X oder wie ? zumal das zwei unterschiedliche Systeme und Betriebssysteme sind auch wenn die den selben Chip als Grundlage nutzen
Auch komisch das egal was die PS besser kann, es wird von vielen MS Jünger schlechtgeredet ..
Kommt ne PC Grafikkarte die einen höheren als den Standard Takt bietet, dann wird natürlich komplett anders Argumentiert ;-)

Das die 36 CU höher Takten können ist schon mal besser als ein Standard Takt ! und für 4 K reicht das auch aus.
Die ca 44 % TF bringen die Serie X jedenfalls mit Sicherheit nicht dazu mehr als 10 FPS mehr darzustellen und schon keine höher Auflösung abseits 4K ;-) Da auch die AAA Spiele mehrere Jahre brauchen in der Entwicklung werden außer und wie gesagt höchstens 10 FPS mehr kaum unterschiede vorhanden sein. Exklusive Titel spielen sowieso in eine andere Liga, von daher.. Da MS ja erst verspätet Studios gekauft haben, wird sollte was beeindruckendes kommen eine PS5 Pro parat da sein : Also keine Panik !

Eine starke Mehrleistung wird erst dann Interessant wenn man an der Schwelle von 4 auf 8 K steht und da sind 44 % Mehrleistung ? Eine Bork Drohen würde sagen Irrelevant :-)
 
Die 12 TF sind viel leicht eher 12 MS Flops ;-)
frage mich ernsthaft wie man das verglichen hat ? nur als MS Dreisatz 52CU = 100% MS Takt sowie 36 CU = X oder wie ? zumal das zwei unterschiedliche Systeme und Betriebssysteme sind auch wenn die den selben Chip als Grundlage nutzen
Auch komisch das egal was die PS besser kann, es wird von vielen MS Jünger schlechtgeredet ..
Kommt ne PC Grafikkarte die einen höheren als den Standard Takt bietet, dann wird natürlich komplett anders Argumentiert ;-)

Das die 36 CU höher Takten können ist schon mal besser als ein Standard Takt ! und für 4 K reicht das auch aus.
Die ca 44 % TF bringen die Serie X jedenfalls mit Sicherheit nicht dazu mehr als 10 FPS mehr darzustellen und schon keine höher Auflösung abseits 4K ;-) Da auch die AAA Spiele mehrere Jahre brauchen in der Entwicklung werden außer und wie gesagt höchstens 10 FPS mehr kaum unterschiede vorhanden sein. Exklusive Titel spielen sowieso in eine andere Liga, von daher.. Da MS ja erst verspätet Studios gekauft haben, wird sollte was beeindruckendes kommen eine PS5 Pro parat da sein : Also keine Panik !

Eine starke Mehrleistung wird erst dann Interessant wenn man an der Schwelle von 4 auf 8 K steht und da sind 44 % Mehrleistung ? Eine Bork Drohen würde sagen Irrelevant :-)

Du scheinst zu den "PS5 Jüngern zu gehören", denn dein Post besteht nur aus bashing.
Einfach abwarten bis die Konsolen erscheinen. Die werden eine ähnliche Leistung haben mal ist die ein vorn, mal die andere. Hauptsache die Spiele laufen auf den Kisten. Alles andere ist irrelevant.
 
Und woher weißt du das zu 100% ? Das ist theoretisch so aber praktisch kann das anders aussehen. Am Ende werden beide Konsolen ähnlich schnell laufen. Die Unterschiede wird man nur auf dem Papier sehen. Denkt an meine Worte, wenn es soweit ist. :D
 
Die 52 CU Einheiten der Serie X werden sicher im Mittel mehr Strom verbrauchen da diese immer ? unter Volllast laufen müssen. dazu der höhere Takt der CPU !

Da diese ja nicht Variabel sind und wahrscheinlich nur bei Notabschaltung in den Keller gehen müssen.. Also mit 12 TF Brutzeln .. müssen. Die 36 selbst wenn diese auf Höchstlast laufen bestimmt trotzdem stromsparender als die 52 CU der Box Da die Kerntemperatur des Di schon bei der CPU der Serie X ja schon mehr Wärme Produzieren wird was sich natürlich auch auf die Umgebungstemperatur der GPU auswirkt den einen oder anderen verwundern ;-)

Wenn man mal vergleiche zieht zur aktuellen Generation und der Full HD / 4 K Grenze werden die 9 TF nicht so viel zu tun haben "müssten" Was aber nicht in das Marketing und Wirtschaftskonzept passt :-)
 
Du scheinst zu den "PS5 Jüngern zu gehören", denn dein Post besteht nur aus bashing.
Einfach abwarten bis die Konsolen erscheinen. Die werden eine ähnliche Leistung haben mal ist die ein vorn, mal die andere. Hauptsache die Spiele laufen auf den Kisten. Alles andere ist irrelevant.

Nö eindeutig nicht ! Wenn MS was gut macht sage ich das auch ( habe ja auch selber ein PC und hatte auch genug davon ;-)
Das wird natürlich gerne verdrängt oder überlesen Stimmt ?

Was mich hindert eine Serie X zu kaufen ist und bleibt Win 10 sowie das Marketing Geschwätz alle Spiele seien Abwärtskompatibel ... und Datenschutz ;-)
 
Die PS5 ist so gebaut das sie die hohen Taktraten dauerhaft halten kann. Da die CPU kaum zu 100% ausgelastet sein wird, kann die GPU, wenn nötig, immer bei den vollen 2,23 GHz laufen.

Nur User ohne Ahnung bezeichnen diese Konsolen als Krücken. Für manche ist also RTX 2080 bzw RTX 2080 S Performance Niveau also Krücke? Selten so etwas Dummes gelesen.

PCGH at its best facepalm.
 
Man muss da nichts auf Wahrheit prüfen. Permanente 10,28 Tflops sind besser als ein Boost auf 10,28 TFops... Aber man kanns jetzt auch nicht ändern... Nur es als was totalTolles zu verkaufen, während die Xbox 12 Tflops hat, ist eben sehr merkwürdig.


Ja vor allem wenn die Spiele kommen.. Finde es gut das auch MS mehr Studios gekauft hat und vermehr Spiele Entwickeln will. Nur leider ist das sehr Spät, ein AAA Spiel braucht schon ein paar Jahre , erst recht wenn jetzt die Qualität stark steigen soll.. Da sind die neuen Konsolen dann wieder gut 2 oder 3 Jahre alt und die nächste Generation steht vor der Tür.
Also wer freut sich da wirklich über die mehr an Abwärme etc..?
 
Der entscheidende Punkt ist, dass die meisten Spiele die CPU nicht ausreizen, von daher kann man das TDP Budget einfach der GPU zustecken.



Weil Sony davon nichts wußte, genauso wie MS bei der X-Box One. Das sind Geschäftsgeheimnisse und wenn herausgekommen wäre, dass AMD die Preisgegeben hätte, dann wäre es wohl teuer geworden, weil MS sie verklagen könnte. Außerdem wäre AMD ein verbranntes Unternehmen, weil jeder weiß, dass die Geschäftsgeheimnisse dort nicht sicher sind.

Deshalb konnte Sony wohl nur raten, was MS das zusammenbraut und sie lagen um etwa 20% daneben.

Also ich kann mich erinnern , das Sony Daten schon vor her verraten wurden ( Dokument ) aus der Schublade.
 
Zurück