News Cities Skylines 2: "Unser Ziel sind 30 Fps, nicht 60 Fps"

logischerweise entwickelt man auf ein FPS Ziel hin..das stimmt und ist soweit auch legitim

Allerdings ist doch die interressantere Frage auf welcher "Durchschnitts" Hardware diese zu realisieren ist..
Geht man jetzt von 30FPS bei nem Intel Core i3 aus oder bei einem 14900k aus in der Entwicklung
 
Also wenn ich die ersten Benchmarks von PCGH richtig gelesen habe ist die CPU eben nicht der limitierende Faktor an dieser Stelle, das Limit liegt bei der GPU, anders sind die Balken nicht zu erklären.
Der Test weiß aber nicht, ob die GPU nur zur Berechnung der Grafik oder auch für irgendwelche Berechnungen der Simulation (Matrix-Multiplikationen usw.) genutzt wird, Stichwort: CUDA, ROCm etc.
 
Der Text ist schlecht formuliert. Was der Herr sagen möchte: Du kannst das für dich sichtbare Bild nicht mit 100 FPS laufen lassen, wenn die Simulation darunter nur 30 FPS schafft. Wobei: Du kannst schon, es macht aber wenig Sinn. Aus verschiedensten Gründen.
Naja, schon. Als Vergleich dienen hier Onlinespiele. Da ist die Tickrate des Servers auch oft deutlich niedriger als die Framerate der Clients und auch hier könnte man z.B. die Kamerasteuerung durchaus von der Simulation trennen.
 
Was für eine faule Ausrede.
CO ist wohl doch nur ein mittelmäßiges Studio, das mit C:S1 Glück hatte.

An alle die "ABER SIMULATION bremst" brüllen.
Schaut mal auf die Auslastung einer 4090 beim Gameplay...

Würde die GPU Simulation übernehmen, würde sich die CPU langweilen und die FPS wären am Anfang einer Stadt nicht schon beschissen.
 
30 Fps ernsthaft? Vielleicht sollte der Typ lieber Bilder malen.
Du bist anscheinend zu jung, aber im Städteaufbau benötigt man nun mal keine 60fps.
Ich komme noch aus einer Zeit, wo ich Sim City und Sim City 2000 mit unter 25fps gezockt habe. Damals war es Ziel 25fps zu erreichen und völlig normal, dass solche Spiele bei riesigen Städten ins Limit laufen.

30fps sind Luxus.

Und wenn du das nicht verstehen willst, kannst du gern deine Ballerspiele in Low Quality mit 240fps spielen.
 
Früher haben wir Shooter auf der Röhre mit 30 FPS gezockt, das bedeutet nicht, dass das heute auch noch so sein muss oder gut ist.
Hier geht es erstmal gar nicht darum, ob 30 FPS bei dem Genre spielbar sind, sondern um die Aussage des Entwicklers.
 
Du bist anscheinend zu jung, aber im Städteaufbau benötigt man nun mal keine 60fps.
Ich komme noch aus einer Zeit, wo ich Sim City und Sim City 2000 mit unter 25fps gezockt habe. Damals war es Ziel 25fps zu erreichen und völlig normal, dass solche Spiele bei riesigen Städten ins Limit laufen.

30fps sind Luxus.

Und wenn du das nicht verstehen willst, kannst du gern deine Ballerspiele in Low Quality mit 240fps spielen.
Hab damals Sim City auch gezockt, aber was ist das denn für ein Vergleich. Damals gab es noch kein Amazon, da musste man noch selbst in den Laden gehen, wer macht das heute noch? Heute gibt es ne 4090, wer will da noch mit 30 Fps zocken?
 
Du bist anscheinend zu jung, aber im Städteaufbau benötigt man nun mal keine 60fps.
Ich komme noch aus einer Zeit, wo ich Sim City und Sim City 2000 mit unter 25fps gezockt habe. Damals war es Ziel 25fps zu erreichen und völlig normal, dass solche Spiele bei riesigen Städten ins Limit laufen.

30fps sind Luxus.

Und wenn du das nicht verstehen willst, kannst du gern deine Ballerspiele in Low Quality mit 240fps spielen.
Naja, wenn ich auf bem 3500€ PC aka rtx4090 30fps habe ist definitiv fragwürdig. Ich hab nur einen I5 10400f mit rtx3060ti, hab ich dann 5fps?
 
30 FPS mit einer 4090? Oder was? Die Aussage ist ja sowas von schwammig, die hätten sie sich sparen können. Das Ding sollte unter der Hardware die als Mindestvoraussetzung angegeben ist zumindest in Dorfgröße in Low-Settings laufen und mit Mittelklasse-Hardware dann wenigstens auf Mid.
 
Naja, schon. Als Vergleich dienen hier Onlinespiele. Da ist die Tickrate des Servers auch oft deutlich niedriger als die Framerate der Clients und auch hier könnte man z.B. die Kamerasteuerung durchaus von der Simulation trennen.
Und was bringen dir groß deine Frames, wenn sich deine Welt nicht bewegt, weil die Simulation keine Daten hat?

Wenn die Simulation mit 30 FPS läuft, das Game visuell mit 120 FPS, dann werden 4 Frames die gleichen Daten angezeigt, d.h. ein identisches Frame (von UI und Mauszeiger mal abgesehen). Dann kann man sich die Ressourcen auch sparen und versuchen diese für die Simulation zu nutzen.

Natürlich wäre das visuelle mit 120 FPS flüssiger. Wir sprechen hier aber nicht um einen Shooter, wo es auf diese Art von Reaktionszeiten ankommt.

Und das ist was der Herr eigentlich sagen will.
 
Hey, das sind immerhin doppelt so viele Frames wie beim originalen Final Fantasy VII von 1997!
Das läuft selbst heute auch auf einer 4090 OC-ultra-deluxe nicht schneller als mit 15fps :nicken:
 
Hier geht es erstmal gar nicht darum, ob 30 FPS bei dem Genre spielbar sind, sondern um die Aussage des Entwicklers.
Das Problem ist eher, dass die Aussage des Entwicklers so vereinfacht ist, dass wichtige Details verloren gehen, einfach weil sie zu kompliziert sind.

Dann kommt die Übersetzung hinzu, wo ebenfalls Informationen verloren gehen.

Und dann kommen unwissende Leser daher, die notwendige Informationen (zu recht) nicht kennen und es bildet sich eine riesige Bubble an Informationsverlust.

Abschließend wird diese Bubble genutzt um Aussagen darüber zu treffen, ob die FPS bei einer 4090 zu hoch oder niedrig sind. Was für ein Simulator eine gute FPS wäre oder was technisch die Gründe sein könnten.

Letztendlich kommentieren hier Leute, die vermutlich nie eine Simulation geschrieben oder im Detail betrachtet haben. Müssen sie ja auch nicht. Solche Aussagen kann man aber einfach nicht für voll nehmen, weswegen ein Großteil der Kommentare zu diesem Thema einfach nur uninformiertes Stammtischgepolter sind.
 
Das Problem ist eher, dass die Aussage des Entwicklers so vereinfacht ist, dass wichtige Details verloren gehen, einfach weil sie zu kompliziert sind.

Dann kommt die Übersetzung hinzu, wo ebenfalls Informationen verloren gehen.

Und dann kommen unwissende Leser daher, die notwendige Informationen (zu recht) nicht kennen und es bildet sich eine riesige Bubble an Informationsverlust.

Abschließend wird diese Bubble genutzt um Aussagen darüber zu treffen, ob die FPS bei einer 4090 zu hoch oder niedrig sind. Was für ein Simulator eine gute FPS wäre oder was technisch die Gründe sein könnten.

Letztendlich kommentieren hier Leute, die vermutlich nie eine Simulation geschrieben oder im Detail betrachtet haben. Müssen sie ja auch nicht. Solche Aussagen kann man aber einfach nicht für voll nehmen, weswegen ein Großteil der Kommentare zu diesem Thema einfach nur uninformiertes Stammtischgepolter sind.
Müssen die Spieler denn alle Details wissen? Für den Spieler bzw. Interessenten ist die Lage so, dass selbst mit einer 4090 das Spiel arg langsam und mit störenden Rucklern läuft. Dann kommt die Aussage des Entwicklers, dass angestrebt ist 30 FPS zu erreichen, ohne genauere Spezifikation mit welcher Hardware diese erreicht werden sollen und mit welchen Grafiksettings. So zumindest kommt die Aussage an. Da die wenigsten auch nur annähernd so starke Grafikkarten besitzen, gibt es da nunmal zurecht Aufschreie.

So wie die Aussage hier steht, ist sie nichtsaussagend. Mit würden 30 FPS durchaus locker reichen in einer Simulation. Aber eben mit höheren Settings und nicht unbedingt einer 4090. C:S1 spiele ich mit meiner 2070Super auf 4K mit recht hohen Settings und die Bildrate lässt nichts zu wünschen übrig.
 
Der Test weiß aber nicht, ob die GPU nur zur Berechnung der Grafik oder auch für irgendwelche Berechnungen der Simulation (Matrix-Multiplikationen usw.) genutzt wird, Stichwort: CUDA, ROCm etc.
Das lässt sich eigentlich leicht logisch prüfen. Die Abstände zwischen den GPUs liegt in etwa in dem Bereich den man so typischerweise hat.
Würde man nun tatsächlich die von dir spekulierten Berechnungen durchführen hätte Nvidia durch die Tensorkerne einen deutlichen Vorsprung haben müssen. Aber auch wenn dem nicht so wäre kann man das bezweifeln, da du bei der GPU parallelisieren willst und du dann eine ausreichend große Menge an Kalkulationen rechnen willst um das rechtfertigen zu können. Es gibt sonst auch nirgends irgendwelche Anhaltspunkte, dass die GPU tatsächlich aktiv simulativen Aufgaben erfüllt.
 
Müssen die Spieler denn alle Details wissen?
Schrieb ich bereits in dem von dir zitierten Beitrag: Nein.

Für den Spieler bzw. Interessenten ist die Lage so, dass selbst mit einer 4090 das Spiel arg langsam und mit störenden Rucklern läuft. Dann kommt die Aussage des Entwicklers, dass angestrebt ist 30 FPS zu erreichen, ohne genauere Spezifikation mit welcher Hardware diese erreicht werden sollen und mit welchen Grafiksettings. So zumindest kommt die Aussage an. Da die wenigsten auch nur annähernd so starke Grafikkarten besitzen, gibt es da nunmal zurecht Aufschreie.
Das ist aber ein Verhalten, dass die Konsumenten in der Hand haben. Anstatt das man versucht das Problem mal zu verstehen, ist man lieber empört, poltert rum und zieht weiter.

Ich stelle die These auf, dass ein Großteil der Leute, die sich hier darüber aufregen, gar nicht an dem Spiel interessiert sind sondern sich einfach nur "aus prinzip" über irgendwas aufregen möchten ;)

Auch könnte man von der PCGH-Redaktion erwarten, dass hier versucht wird Kontext für den Leser zu generieren. Wenn ich dann aber z.B. Dave mit so überaus unqualifizierten Aussagen lese, dann frag ich mich wo das Wissen für den Leser generiert werden soll.

So wie die Aussage hier steht, ist sie nichtsaussagend.
Das ist korrekt. Aus dem Grund verstehe ich ja auch nicht, wieso die Leser oder die Redaktion an einer Klärung der Situation interessiert sind. Vermutlich aber, wie schon gesagt, weils sie einfach nicht interessiert.
Das lässt sich eigentlich leicht logisch prüfen.
Lässt sich gar nicht, weil CUDA-Befehle in der GPU-Pipeline nicht von anderen Befehlen trennen lassen. Dafür bietet nvidia keine Tools. Du kannst nur die GPU-Auslastung bestimmen, jedoch nicht bestimmen womit.

Weder das nvidia eigene nvidia-smi, noch externe Tools wie nvitop, gpustat etc. können das.

Würde man nun tatsächlich die von dir spekulierten Berechnungen durchführen hätte Nvidia durch die Tensorkerne einen deutlichen Vorsprung haben müssen.
Sorry aber CUDA-Berechnungen werden nicht zwingend auf Tensor-Kernen ausgeführt. Ich weiß aktuell gar nicht, ob das überhaupt möglich ist. CUDA gibt es aber seit 2007. Da waren Tensor-Kerne noch nicht einmal ein Thema.
Siehe: https://en.wikipedia.org/wiki/CUDA
 
Zurück