ja das kommt noch oben drauf , will man die Stadia Spieler also gegen die anderen PC Spieler los lassen die keine latenz haben , dann will ich mal sehen wieviel Spass der Casual noch hat nachdem er zig mal aufs Maul bekommen hat . wenn auf dem PC mit fetten Grakas die Pseudo Pros schon low Details spielen nur um einen Tick vorteil zu haben ...
Und nicht vergessen: Wenn es Crossplay gibt, muss der Google-Stadia-Server sich auch noch mit dem Gameserver austauschen, wodurch diese Latenz auch noch dazu kommt.
Die Latenz ist doch die vom Server, schliesslich müssen die Eingaben und das Bild und Ton auch noch durch die Leitung und deswegen finde ich die Latenzen von Stadia recht gut. Oder welche Latenzen waren denn gemeint?
Das Spiel läuft bei dir lokal, d.h. die Eingabelatenz ist nicht erhöht. Nur was die anderen tun, kommt erst später bei dir an.
Faktor 4: Rechenzeit pro Frame. 33ms bei 30fps und 16ms bei 60fps. Da beißt die Maus keinen Faden ab.
Naja, vielleicht schon. Wenn die Rechenleistung wirklich so gut zusammengefasst werden kann, wie Google das behauptet, kann ein Frame deutlich schneller berechnet werden. Aber eigentlich glaube ich nicht dran. Wenn dann sechs Sessions auf einer Einheit laufen, die prinzipiell die sechsfache Leistung hat, die für eine Session nötig wäre, wird das vermutlich zu einem Schedulingalbtraum.
Eine Render-Pipeline gibt bei 60 fps im Durchschnitt alle 16 ms ein fertiges Frame aus. Das bedeutet aber nicht, dass innerhalb von 16 ms ein komplettes Frame berechnet wird. Hier muss man je nach Komplexität der Engine deutlich mehr Zeit einberechnen.
Dann müssten aber mehrere Frames gleichzeitig in einzelnen Stufen der Pipeline hängen. Alles, was doch bis jetzt gemacht wird, ist auf Daten von vorangehenden, fertigen Renderdurchläufen zuzugreifen, oder?
Ich meine wie will man die da schließlich implementieren?
Eine Bilderkennung auf der Clientseite, die dann beim Zielen hilft. Mit genug Rechenleistung sollte das möglich sein. Auf dem PC wird ja dann eine GPU frei.