Google glaubt: Stadia hat in zwei Jahren weniger Latenz als ein PC

Wenn sie trotzdem daneben liegt, dann "überschreibt" die "echte" Eingabe des Users das Ergebnis der KI.

Das gibt es bereits heute und heißt " (Movement) Interpolation" / "Movement Prediction" und funktioniert im Großen und Ganzen nur sehr schlecht. Das wird nicht viel besser nur weil man jetzt eine KI ranlässt anstatt linear zu extrapolieren oder ähnliche simple Methoden. Und "Negative Latency" (wie beschrieben in der englischen Quelle) ist ein unverschämt irreführender Marketing-Begriff.
 
Bei diesen Zahlen wurde der Display Lag für alle Plattformen außer Google Stadia herausgerechnet.
Hier die Zahlen mit Display Lag:

  • Google Stadia: 166 ms
  • Google Project Stream: 200 ms
  • PC bei 30 fps: 133 ms
  • PC mit 60 fps: 100 ms
  • Xbox One X: 166 ms
Nein, es gibt diverse Lag Messungen für PC Spiele, die die Latenz vom Mausklick bis zur Display Anzeige messen und da liegt der PC bei 60 fps bei unter 50 ms und bei 144 fps sogar bei unter 40 ms.

Wichtig ist natürlich VSync off (!), da Triple Buffering den Input Lag explodieren lässt.

Google will uns hier einen Bären aufbinden.
 
im labor sind sie sicher schneller, aber in der echten welt müsste man vermutlich neben einem rechenzentrum wohnen

Ich glaube, Du unterschätzt Google's Internet Infrastruktur. Sie ist größer als die eines jeden Providers.

Google betreibt weltweit rund 12.000 (!) POPs und Edge Nodes, mit denen Sie bei jedem Provider quasi direkt im Netz stehen. Darüber hinaus sind sie direkt an über 100 Peering Exchanges angebunden, darunter die größten der Welt wie dem DECIX. Somit ist der Weg selbst zu kleinsten Mini-Providern extrem kurz. Übersetzt heißt das so viel wie: So ziemlich jeder "wohnt direkt neben einem Google RZ":

Google Edge Network 2019-10-10 20-51-47.png

Google Edge Network

Nebenbei bemerkt hat Google erst vor wenigen Tagen angekündigt, 3 Milliarden USD in neue Infrastruktur in Europa zu investieren. Und zwar komplett in Google Cloud Infrastruktur (auf der auch Stadia läuft).

Ich glaube, manchen ist das Ausmaß dessen, was Google da macht, nicht wirklich klar.
 
Latenzmessung:

  • Google Stadia: 166 ms
  • Google Project Stream: 179 ms
  • PC bei 30 fps: 112 ms
  • PC mit 60 fps: 79 ms
  • Xbox One X: 145 ms

Und auch hier gilt: Extrem schöngerechnete Zahlen, denn 79 ms sind das obere Ende der PC Latenz mit aktiviertem VSync (ohne VSync bzw. mit FreeSync sind es eher 45 ms), während die 166ms von Stadia der absolute Best Case sind.


Immer diese Aluhut Theorien. Warum sollte Digital Foundry (die diesen Test absolviert haben) irgendwas "schön rechnen"?

Der Punkt ist: Die Stadia Latenz bewegt sich in etwa auf dem Niveau von Konsolen. Mehr muss man gar nicht wissen, um zu verstehen, dass das der anvisierten Stadia Zielgruppe ziemlich ausreichend sein wird. Und nein, E-Sportler und andere competivie Gamer gehören sicher nicht zu dieser Zielgruppe.​
 
Diese Aussage ist der größte Schwachsinn, den ich je in Form einer Marketing Floskel gehört habe.




Latenzmessung:

  • Google Stadia: 166 ms
  • Google Project Stream: 179 ms
  • PC bei 30 fps: 112 ms
  • PC mit 60 fps: 79 ms
  • Xbox One X: 145 ms

Und auch hier gilt: Extrem schöngerechnete Zahlen, denn 79 ms sind das obere Ende der PC Latenz mit aktiviertem VSync (ohne VSync bzw. mit FreeSync sind es eher 45 ms), während die 166ms von Stadia der absolute Best Case sind.



Ich hab's gerade ausprobiert. Die Zahlen für den PC sind absoluter Quatsch.
Vorgehensweise: 240 Hz Kamera (Xiaomi Mi8) filmt einen Teil vom Monitor und Maus ab. Das Video wird dann Bild für Bild wiedergegeben und die Anzahl der Frames zwischen Mausbewegung und Veränderung auf dem Bildschirm gezählt.
CS:S mit fps counter in der Ecke; Fps per "fps_max 60" begrenzt
Logitech G603 im High Modus
RTX 2080
Monitor: LG32GK650F (FreeSync/Gsync compatible aktiviert) Damit zwangsläufig etwas Display Lag.

Ergebnis bei 60fps:
9 frames, 6 frames, 6 frames -> 25-37,5ms Verzögerung (inkl. Displaylag!)

Zum Spaß: bei ca 480fps liegt die Verzögerung zwischen 2 und 3 Frames (8-12ms)

Edit: Googledrive Links zu den Videos:
VID_20191010_205346.mp4 - Google Drive 60 fps
VID_20191010_204308.mp4 - Google Drive 480 fps
 
Zuletzt bearbeitet:
Immer diese Aluhut Theorien. Warum sollte Digital Foundry (die diesen Test absolviert haben) irgendwas "schön rechnen"?

Der Punkt ist: Die Stadia Latenz bewegt sich in etwa auf dem Niveau von Konsolen. Mehr muss man gar nicht wissen, um zu verstehen, dass das der anvisierten Stadia Zielgruppe ziemlich ausreichend sein wird. Und nein, E-Sportler und andere competivie Gamer gehören sicher nicht zu dieser Zielgruppe. [/LEFT]
Bei der X1X gibt es ein low latency mode, ich zweifle das der bei den genannten Latenzen an war. ^^

MfG
 
Da Stadia keine End-to-End-Dienstleistung ist, kann Google gar nicht vollumfänglich Einfluss auf die Latenzen nehmen.

Und was das Marketing-Gewäsch mit der KI angeht, glaube ich das erst, wenn "KI" in der Lage ist, mit 100%iger Treffsicherheit Beyoncé von Roberto Blanco zu unterscheiden.

Und selbst wenn es funktioniert, sehe ich da ein Problem: Die KI wird es einfacher haben, die Eingaben mittelmäßiger und/oder konservativer Spieler vorherzusehen als die Eingaben spitzenmäßiger und/oder kreativer Spieler. Sprich, konservative Spieler mit mäßigen Reflexen erhalten KI-seitig bessere Latenzen und werden somit bevorzugt, was im Endergebnis bedeutet, dass Qualitätsunterschiede bis zu einem gewissen Grad geglättet werden. Das steht im krassen Gegensatz zu kompetitivem Gaming.
 
Zum Thema Inputlag gibt es ein sehr gutes Video von Linus Tech Tips, in dem es um Inputlag von Mäusen (Kabel vs Funk) geht.
Wer es sich nicht anschauen möchte:
Mit einer Highspeedkamera und einem Testaufbau hatte man dort teilweise unter 14ms an Inputlag hatte, bei einem 240Hz Bildschirm. Davon sind im Mittel 2ms der reinen Wiederholfrequenz geschuldet (Etwa ein Bild alle 4ms, davon die Hälfte, um auf den Durchschnitt zw. worst- und best-case zu kommen).
Der PC+Maus kommt, im schnellsten dort getesteten Fall, also auf 12ms Inputlag vor Display.
(Falls ich hier nen Denkfehler hab bitte korrigieren)


Zum Thema an sich:
Im Interview heißt es "Ultimately, we think in a year or two we’ll have games that are running faster and feel more responsive in the cloud than they do locally,”
Ich glaube, das wird hier (auch dank der vagen Überschrift) durcheinandergeworfen.
Die Spiele laufen schneller, haben also eine höhere FPS (was durchaus möglich ist, je nachdem, was man als "typische Hardware" als Vergleich zu Stadia annimmt).
Der Inputlag hingegen ist nicht weg oder geringer als am PC, aber es fühlt sich so an, als ob das so wäre - das beim Einsatz einer KI auch durchaus möglich ist, zumindest für normale Spieler, die eh keine 100%ige Kontrolle über ihren Input haben (was wohl auf 99,9% der Spieler zutrifft) und daher nicht merken, wenn die KI ein wenig mithilft.

Ob die Implementierung seitens Google so gut funktioniert wie man es sich dort erhofft werden wir sehen.
Ob man dieses Helfen am Ende gut findet oder nicht muss jeder für sich wissen.
Ich persönlich kann mir, für mich, dieses Streaming nicht vorstellen. Ich kenne aber einige Leute, für die es ein absoluter Segen wäre und die es definitiv nicht merken würden, wenn ein wenig Inputlag dazu kommen SOLLTE.
 
Das gibt es bereits heute und heißt " (Movement) Interpolation" / "Movement Prediction" und funktioniert im Großen und Ganzen nur sehr schlecht.
Der erste Teil stimmt, aber der zweite Teil ist Quatsch. Praktisch jeder MP-Shooter der letzten 15 Jahre benutzt "Movement Prediction", und das funktioniert im großen und ganzen gut, ab und zu kommt es halt zu Artefakten wie Rubber-Banding.

Aber wenn der PC daheim erst dem Server sagen müsste, dass sich der Spieler bewegt, und selbiger PC dann auf die Antwort des Servers wartet um zu erfahren wo der Spieler denn hingelaufen ist, wäre an flüssiges Spielen nicht zu denken. Die Technik, einfach den PC schon mal die Position ausrechnen zu lassen, und nur bei Bedarf mit den Daten vom Server zu korrigieren ist uralt, das benutzte sogar Quake 3 und das originale CS schon. Anders hätte man diese Spiele wohl auch kaum über eine Modem Verbindung spielen können.

Der wesentliche Unterschied ist nun, dass der Client nicht mehr den nächsten Spielzustand vorhersagt und mit dem Server abgleicht, sondern der Server die Eingaben des Nutzers vorhersagt, daraus den nächsten Spielzustand berechnet, und dann mit den Eingaben des Clients abgleicht. Wie gut das funktioniert wird sich zeigen müssen, aber mir fallen auf Anhieb eine ganze Menger hässlicher Nebeneffekte und Artefakte ein, die auch deutlich über Ärgerlichkeiten wie Rubberbanding hinausgehen.
 
Zum Thema an sich:
Im Interview heißt es "Ultimately, we think in a year or two we’ll have games that are running faster and feel more responsive in the cloud than they do locally,”
Ich glaube, das wird hier (auch dank der vagen Überschrift) durcheinandergeworfen.
Die Spiele laufen schneller, haben also eine höhere FPS (was durchaus möglich ist, je nachdem, was man als "typische Hardware" als Vergleich zu Stadia annimmt).
Der Inputlag hingegen ist nicht weg oder geringer als am PC, aber es fühlt sich so an, als ob das so wäre - das beim Einsatz einer KI auch durchaus möglich ist, zumindest für normale Spieler, die eh keine 100%ige Kontrolle über ihren Input haben (was wohl auf 99,9% der Spieler zutrifft) und daher nicht merken, wenn die KI ein wenig mithilft.
Man kann das schon so übersetzen, dass Stadia sich besser anfühlt als lokal zu spielen und das ist schlicht eine nicht haltbare Aussage.

Was kann eine KI denn leisten? Sie kann prinzipiell nur die Aktion des Spielers vorausahnen und vorausberechnen. In der Praxis sieht das dann so aus, dass der Server abgleicht, ob er richtig geraten hat oder ob die tatsächliche Eingabe abweicht und dann sind wir wieder bei bestenfalls 166 ms, wenn der Server ein Haus weiter steht.

Google wird hier wunderbare Ergebnisse präsentieren können, indem man einfach Beispiele vorführt, bei denen die KI richtig liegt. Das Ganze ist für ein konsistentes Gaming Erlebnis aber eine Katastrophe, da es für den Spieler noch schwieriger ist einen schwankenden Input Lag zu kompensieren als einen konstant hohen. Wie dem auch sei: reaktives Gameplay ist in beiden Fällen unmöglich.

Man kann das Ganze ein bisschen mit DLSS vergleichen. Das wird bis in alle Ewigkeit Fehler beim Upscaling produzieren, weil die Bewegung des Spielers nunmal nicht planbar ist.

@ Movement Prediction/Interpolation:
Ist ein ganz anderes Thema als Latenzreduktionen, da es schlicht die letzte bekannte Eingabe fortführt bis die nächste Eingabe ankommt. Google verspricht uns hier genau das Gegenteil nämlich, dass die nächste unbekannte Bewegung vorausgeahnt werden kann.
 
Zuletzt bearbeitet:
Man kann das schon so übersetzen, dass Stadia sich besser anfühlt als lokal zu spielen und das ist schlicht eine nicht haltbare Aussage.

Ich glaube, es kommt hier darauf an, womit man Stadia vergleicht.
Mit einem normalen Zocker, der mit vielen, stabilen FPS spielt, wird Stadia sich wohl nicht anlegen können.
Aber als Casual, der mit einem Uraltsystem so grade 30FPS schafft, könnte sich Stadia durchaus besser anfühlen.
Daraus folgt für mich, dass diese Aussage zwar nicht für alle Situationen zutrifft, es aber schon einen gewisse Basis gibt, bei der sie eben stimmt.

Natürlich kann man dann argumentieren, dass dies kein fairer Vergleich ist.
Ich sehe es aber so, dass Stadia sowieso nur eine Alternative für Leute ist, die eben NICHT so viel spielen, bzw. als Alternative kein gutes System haben.
Mir fallen spontan ein halbes Dutzend Leute in meinem Bekanntenkreis ein, die auf alten Systemen mit mäßiger Hardware zocken, weil sie entweder nicht so oft spielen oder sie schlichtweg kein Geld für bessere Hardware hätten. Da könnt Stadia durchaus das bessere Angebot für sie sein.
 
Es würde mich nichtmal wundern, wenn Google hier die PC Latenz an einem 08/15 Fernseher gemessen hat. Gleich mal 50 ms mehr im Vergleich zu (selbst) einem Office Monitor.
 
Es würde mich nichtmal wundern, wenn Google hier die PC Latenz an einem 08/15 Fernseher gemessen hat. Gleich mal 50 ms mehr im Vergleich zu (selbst) einem Office Monitor.

Gehe ich auch von aus.
Erstens für die bessere Werbung (denn nichts anderes ist so ein Interview am Ende), zweitens weil das durchaus zu einem großen Teil der Zielgruppe passen sollte.
 
Latenz hin und her. Ich halte ehr wenig vom Gamestreaming.

Sagen wir mal wir wollen 1080p60 streamen. Das sind ca. 3 GB/Std Daten die übertragen werden wollen. Das entspricht 1 Std HD Filmstreaming und benötigt ca. 0,6 kWh. Ein PC braucht für 1080p60 zu rendern sagen wir ca. 0,3 kWh. Also braucht der Server auch ca. 0,3 kWh dazu noch die Kühlung des Servers ca. 0,06 kWh in einen Google Datacenter (PUE 1,2 - mit anderen Worten sehr effizient) dazu noch je 0,05 kWh für Monitor und streamenden Rechner.

Dann sind wir bei 1,06 kWh für ein Stunde Gamestreaming vs. 0,35 kWh für lokal rendern... Bei 12 Stunden Spielzeit ca. 12,72 kWh vs. 4,2 kWh.

Da könnte ich also im Laden (ca. 10 km hin und zurück ~6,0 kWh bei 7l/100km) noch ne Retailversion inklusive Herstellung (~0,5 kWh bei 10 DVD mit Packung und Versand zum Laden (1 DVD = ca. 0,04 kWh inkl. Hülle, wenn ich mich recht entsinne, don't quote me on that one..;))) mit dem Auto holen und wäre immer noch nicht da...

Wenn man das Spiel allerdings runterlädt siehts, zumindest bei Full HD, anders aus. Hier wäre dann der Vorteil, dass das Spiel beim Streaming nur einmal runtergeladen werden muss und dann im Datacenter verteilt werden kann, während beim klassischen Download jeder Käufer es runterladen müsste. Wenn wir jetzt auf 1440p60 gehen, brauchen wir min. ca. 5,35 GB/Std. (x1,78), und der Vorteil ist weg, wenn das Spiel nicht größer als 64 GB ist... Und bei 4K60 müsste es schon 144 GB haben. (Bei je 12 Std. Spielzeit) Und da die Auflösung ehr höher als niedriger werden...

Naja, ist fast so als macht man ein Selfie auf der FfF-Demo mit seinem Einweg-Smartphone und schickt es dann per 4G an die Facebook-Freunde. Ziel verfehlt, Setzen 6...
 
Zuletzt bearbeitet:
Das Wort vor dem sich Stadia fürchten sollte ist nicht Lag, sondern Skalierbarkeit.

Ein typischer deutscher Hoster rechnet im Rechenzentrum mit 16A bei 220V bei 46 Höheneinheiten. Ja, redundant, aber trotzdem wird erwartet dass man 16A zieht, nicht 32A. Sagen wir ein Stadia verbraucht 150W, dann reden wir über 23 Stück pro Serverschrank. Da wird es also entweder recht luftig zugehen im Schrank, oder Google erhöht die Packungsdichte der Energie. Was wiederum die Packungsdichte der Abwärme erhöht, was wiederum Anforderungen an die Klimaanlagen stellen wird. Sind wir ehrlich, die meisten Rechenzentren sind auf Filehosting ausgelegt, mit enormer Packungsdichte von Speicher und virtuellen Maschinen. Stadia geht da in eine ganz andere Richtung. Ein Demo Rack für die Gamescom und andere Messen, ok, das wird gehen.

Aber nur mal angenommen Stadia will 1 Million Europäer gleichzeitig bedienen, dann reden wir hier von entweder von 43.000 Racks die Google verteilen muss, oder von 10.000 Racks die dann aber nicht die Anforderung eines normalen Serverschranks haben, sondern die von einem Supercomputer, weil das ist was Stadia effektiv ist in der Summe, ein crazy Supercomputer. Dann spricht Google davon sie wollen mehr Kunden bedienen wie Sony mit der Playstation. Das ist eines der wirklichen Probleme von Stadia. So gut es funktionieren mag, es skaliert einfach nicht so wie herkömmliche Servercluster skalieren, einfach weil gar nicht der Platz da ist für hunderttausende Racks. Das haben schon andere Firmen auch gemerkt, die sich auf dem Markt betätigen.

Zweites Problem ist die Bandbreite selbst. Videostreaming belastet die Netze weit weniger wie man vermuten würde, einnfach weil der Videocontent statisch ist und damit replizierbar. Bei Stadia ist wieklich jeder Stream individuell und kann nicht de-dupliziert werden. 1 Million Kunden in Europa, jeder mit 8Mbit? Klasse, jetzt haben wir nicht nur ein Rechenzentrum dessen Abwärme man mit der Wärmebildkamera vom Mond aus sehen können, wir hätten auch genug Traffic um den DeCix lahmzulegen. Da kann also Google auch gleich mal hingehen und den Knoten 50 Mal in Europa nachbauen und verteilen, damit jeder Playstation User auch umsteigen kann.


Cloud-Computing ist verglichen mit Cloud-Data-Hosting noch einmal ein ganz anderes Biest. Zwei Jahre werden da im Flug vorbei gehen und Google wird fernab jeglicher Kapazität sein. Lag hin oder her.
 
Zurück