Google glaubt: Stadia hat in zwei Jahren weniger Latenz als ein PC

Kann ich 1.000.000 gleichzeitige Stadia ausliefern? Ok, da wird es wie gesagt mit dem Platz im Rechenzentrum lustig, denn einfach so bereit steht dieser Platz in Rechenzentren nicht. Ich müsste also neue bauen. Das sind Kosten die ich bei 1 Million Stadia habe, die ich beim Testbetrieb mit 100 Usern im privaten und manchmal auf der Gamescom nicht habe. Das Produkt skaliert also nicht 1:1 nach oben. Mal kurz ne Ecke im bestehenden Google Rechenzentrum, oder bei einer Serverfarm mieten ist da nicht.

Du denkst zu "einheitenlastig". Also irgendwie "pro User, pro Stadia". Es ist nicht so, dass bei Stadia pro Spieler irgendwie eine Hardware Einheit herumstehen muss. Wir reden über Cloud, also über verteilte Compute/Storage Ressourcen und Virtualisierung. Ein "Server" wird von Dutzenden Usern gleichzeitig verwendet. Der Hardware-Aufwand für Stadia wird natürlich gigantisch, aber Du kannst davon ausgesehen, dass Google genau da sehr genau weiß, was sie tun. Über all diese Dinge haben sich sehr viele sehr schlaue Menschen bei Google bereits lange vor uns den Kopf zerbrochen.

Dann kommt der Punkt, ob ich die Bandbreite ausliefern kann. Netflix kann locker zu 1 Million Kunden streamen mit 12 MBit in der Sekunde. Das sind immerhin 11,5 Terabit pro Sekunde. Das ist aber alles Content, bei dem Proxys prima funktionieren, bei dem Netflix im Netz des ISP (Telekom, Vodafone, etc.) mal eben einen lokalen Mirror oder 100 aufstellt, weil denen ihr komplettes Angebot passt auch auf ein paar Server mit 8 Höheneinheiten in der Summe plus ein dummes rsync Skript. Kann Stadia das? Für die ist das wesentlich schwerer. Ist das Rechenzentrum zentral, dann ist da das 11,5 Terabit Problem, das wird mal nicht soeben in alle Lande verteilt und dazu ohne Lag. Will Google das gleiche machen wie Netflix und hunderte Stadia Nodes verteilen, dann sind wir wieder beim Platzproblem aus meinem vorherigen Post, oder beim "besondere Ansprüche" Problem. So oder so, das wird teuer, das skaliert also nicht so gut wie ein Testbetrieb.

Deine Überlegungen wären grundsätzlich richtig. Aber das sind alles Probleme, die bereits seit langem gelöst sind - auch ohne Stadia. Google betreibt alleine in Deutschland mindestens vier Rechenzentren für ihr bereits seit Jahren etabliertes Cloud Business für Geschäftskunden (vergleichbar mit Amazon AWS). In diesen Rechenzentren wird hierzulande Stadia laufen. Hinzu kommen Hunderte Edge Nodes in Deutschland, über die Internet Provider direkt an den Google Rechenzentren angebunden sind. (Details hier: Google Edge Network). Vor ein paar Tagen hat Google außerdem angekündigt, weitere 3 Milliarden in neue europäische Rechenzentren zu investieren. Da steht also gigantische Infrastruktur zur Verfügung.

Im Unterschied zu Netflix (die übrigens Amazon AWS benutzen und keine eigene Cloud betreiben: Netflix-Fallstudie – Amazon Web Services (AWS)) gibt es also nur den Punkt, dass Stadia nicht mit Content Delivery Networks und Caches an den Edges Content vorhalten kann. Das ist aber in Anbetracht der vorhandenen Infrastruktur wenig relevant. Die aus netztopologischer Sicht örtliche Nähe der Spieler zum RZ ist gegeben. Und in denen gibt es nicht einen Output, über den der gesamte Traffic rausgeschoben wird, sondern eben Hunderte. Zu jedem Provider und zu jedem Peering Punkt. Wenn Google irgendwas beherrscht, dann das Verteilen von Internet Traffic "at scale".

Ein wichtiger Teil der Skalierbarkeit ist auch die Frage, ob ich das Geld mit der Hardware einspielen kann, bevor mich die Konkurrenz zwingt ein Upgrade zu machen. Das skaliert besonders schlecht wenn ich wie Google mit der hardware in Vorleistung gehe bevor ich sie vermiete und die Konkurrenz wie Sony Kunden hat die bei der Hardware in Vorleistung gehen und sie mir abkaufen. Sony mag ein bisschen draufzahlen bei einer neuen Konsole, Google zahlt erstmal mit 100% drauf. Es wird ganz entscheidend sein wie viele User Google pro Stadia haben kann. Sony kann jede Konsole einmal verkaufen. Stadia kann man pro hardware an 3,2 Kunden verkaufen, oder 4,8, oder 2,8. Wir wissen es noch nicht. Aber die Trangfähigkeit des Projektes hängt da ganz entscheidend davon ab.

Ich kann die wirtschaftlichen Aspekte nicht wirklich beurteilen - das kann wahrscheinlich niemand hier. Aber im Gegensatz zu den von Dir genannten Playern wie Sony ist Alphabet (also Google) viel breiter aufgestellt und kann es sich als eines der reichsten und größten Unternehmen der Welt viel eher leisten, unterschiedliche Geschäftsbereiche untereinander quer zu subventionieren, als eine Sony das jemals könnte. Genauso wie man davon ausgehen kann, dass Google sich über all die technischen und technologischen Problemstellungen bereits einen Kopft gemacht hat, kann man davon ausgehen, dass sie insbesondere auch die wirtschaftliche Machbarkeit genauestens eruiert haben.

Man kann das natürlich alles anzweifeln, aber wir reden hier über Google. Nicht über irgend einen Hinterhofladen. Google würde ein solches - milliardenschweres - Produkt nicht am Markt platzieren, wenn sie nicht 100% wüssten, dass es funktionieren wird. Auch wenn das vielleicht die Vorstellungskraft des ein- oder anderen übersteigt (damit meine ich jetzt nicht Dich, sondern die Zweifler im Allgemeinen).
 
Hast du denn jetzt die Kontrolle? :D Das Gehirn ist teils so konzipiert, dass Entscheidungsprozesse "lange" vor dem Bewusstwerden getroffen werden und dabei allenfalls die Illusion entsteht, dass du dich frei entschieden hast.
Mist, damit ist das negative Latenzrätsel gelöst. Google fängt mit dem Controller die Hirnströme auf, bevor der Nutzer meint sich entschieden zu haben. Damit könnte es gehen. ;-)
 
Man kann das natürlich alles anzweifeln, aber wir reden hier über Google. Nicht über irgend einen Hinterhofladen. Google würde ein solches - milliardenschweres - Produkt nicht am Markt platzieren, wenn sie nicht 100% wüssten, dass es funktionieren wird. Auch wenn das vielleicht die Vorstellungskraft des ein- oder anderen übersteigt (damit meine ich jetzt nicht Dich, sondern die Zweifler im Allgemeinen).
--> The Google Cemetery - Dead Google products ??

Bzw. nur auf Hardware beschränkt:
Hardware | The Google Cemetery

Meinst du das war für 1,50€ platziert?

Und deine Aussage oben gilt doch genauso für Microsoft, und da fällt mir sofort deren Smartphonesparte und Mobile OS ein.
 

99% der Produkte auf dieser Liste sind Kleinst-Projekte, Experimente und aufgekaufte Apps, die man dann entweder eingestellt hat, um die Konkurrenz loszuwerden, oder um eingekaufte Technologie in die eigenen Produkte zu integrieren. Auf der Liste finden sich sehr wenige Produkte, die wirklich Relevanz hatten. Ich sehe da eigentlich nur Google Plus (das übrigens in Form von Google Currents gerade für Business Kunden - G Suite - umgebaut wird). Inbox war von Anfang an als Experiment angekündigt worden - als Spielwiese an der man neue Features für Gmail getestet hat. Die meisten Inbox Features werden nun nach und nach in Gmail integriert.

Einfach mal alles lesen, bevor man in eine Diskussion einsteigt.
 
Dass die Latenz bei Stadia kein großes Problem ist, wurde ja nun schon mehrfach belegt und auch getestet. Das Fazit dieser Tests: Nicht für E-Sportler geeignet, aber selbst bei schnellen Shootern wie dem neuen Doom spürt der Otto-Normal-Gamer nichts von der Latenz. Diese bewegt sich in etwa auf dem Niveau einer lokal laufenden XBox One S. Dieser Test fand mit einer frühen Alpha Version statt, die auf 30 FPS gecappt war und über WLAN lief. Bei 60 FPS wäre die Latenz um rund 30% besser gewesen. Die Leute, die das auf der Gamescom getestet haben, sprachen davon, dass es sich anfühlt als würde man am heimischen PC spielen.

Im Gegenzug sollte man beachten, dass meinem Wissen nach alle bisherigen Stadia-Vorführungen auf lokalen/benachbarten, exklusiven Servern liefen und zumindest mehrheitlich nicht einmal normale Internetverbindungen nutzten. Da fehlen also schnell mal 20-60 ms Latenz durch die Verbindung, je nach Internet-Verbindung (FTTH<<DSL<<Kabel) und Standort des Stadia-Rechenzentrums. Das letztere an jedem Google Proxy-Knoten errichtet werden, darf bezweifelt werden. Einerseits ist die benötigte Rechen- und Kühlleistung wesentlich höher als bei anderen Diensten, andererseits rechnet sich Stadia nur, wenn die Hardware im Wechseln von vielen verschiedenenen Kunden genutzt wird. Wenn Google für jeden Nutzer eine exklusive Grafikkarte einplanen muss, wäre das System auf Dauer teurer als lokale PCs bei jedem Nutzer.

Ein abwechselnde Nutzung klappt innerhalb einer Zeitzone aber nur eingeschränkt, da die meisten Spieler zur gleichen Tageszeit und zu gleichen Anlässen spielen. Google muss also entweder den Zugang zur Prime Time beschränken (ganz schlechte Publicity), die Qualität bei hoher Auslastung reduzieren (schon jetzt beschreibt nahezu jeder Tester Artefakte) oder aber Rechenkapazitäten über große Entfernungen verteilt nutzen. Beispielsweise dürften die meisten Londoner unter der Woche erst zu spielen anfangen, wenn viele Moskauer Kunden schon zu Bett gehen. Stadia wird dann aber deutlich höhere Pings aufweisen als google.de.


Nein, es gibt diverse Lag Messungen für PC Spiele, die die Latenz vom Mausklick bis zur Display Anzeige messen und da liegt der PC bei 60 fps bei unter 50 ms und bei 144 fps sogar bei unter 40 ms.

Wichtig ist natürlich VSync off (!), da Triple Buffering den Input Lag explodieren lässt.

Google will uns hier einen Bären aufbinden.

VR-Headsets haben sogar eine Input-to-Photon-Latenz von teilweise unter 20 ms. 166 ms dagegen schaffen sehr flinke Spieler als komplette Reaktionskette von Bildausgabe über menschliche Aktion bis hin zu deren Verarbeitung und da ist mit Abstand der langsamste Teil die Erkennung des Handlungsbedarfs durch den Spieler. Aber eine Latenz zwischen Ein- und Ausgabe bemerken wir auch bei vorausgeplanten Handlungen, also mit 0 ms Entscheidungszeit im Loop.


Der erste Teil stimmt, aber der zweite Teil ist Quatsch. Praktisch jeder MP-Shooter der letzten 15 Jahre benutzt "Movement Prediction", und das funktioniert im großen und ganzen gut, ab und zu kommt es halt zu Artefakten wie Rubber-Banding.

Aber wenn der PC daheim erst dem Server sagen müsste, dass sich der Spieler bewegt, und selbiger PC dann auf die Antwort des Servers wartet um zu erfahren wo der Spieler denn hingelaufen ist, wäre an flüssiges Spielen nicht zu denken. Die Technik, einfach den PC schon mal die Position ausrechnen zu lassen, und nur bei Bedarf mit den Daten vom Server zu korrigieren ist uralt, das benutzte sogar Quake 3 und das originale CS schon. Anders hätte man diese Spiele wohl auch kaum über eine Modem Verbindung spielen können.

Der wesentliche Unterschied ist nun, dass der Client nicht mehr den nächsten Spielzustand vorhersagt und mit dem Server abgleicht, sondern der Server die Eingaben des Nutzers vorhersagt, daraus den nächsten Spielzustand berechnet, und dann mit den Eingaben des Clients abgleicht. Wie gut das funktioniert wird sich zeigen müssen, aber mir fallen auf Anhieb eine ganze Menger hässlicher Nebeneffekte und Artefakte ein, die auch deutlich über Ärgerlichkeiten wie Rubberbanding hinausgehen.

Shooter-Clients nutzen Movement Prediction aber nur für Gegner, die Aktionen des Spielers selbst werden immer nativ dargestellt. Da man selbst nicht weiß, welche Eingaben die Mitspieler überhaupt vornehmen, hat die Vorhersage hier große Freiheiten. Eigentlich läuft auf jedem Client ein anderes Spiel ab und Vorhersage-Alogrithmen versuchen nur, die Bewegungen der "NPCs" darin grob, aber plausibel mit den Eingaben anderer Spieler abzugleichen. Erst extreme Fehler fallen uns durch Rubberbanding auf.

Bei Stadia ist das anders, hier werden die Eingaben des Betrachters selbst interpretiert und da dieser genau weiß, welche Aktion er auslösen wollte, bemerkt er die kleinste Abweichung. Ein (un)schönes Beispiel ist* World of Tanks. Da werden Schüsse komplett auf dem Server, die Grafik aber lokal berechnet. Obwohl das Spielgeschehen inhaltsbedingt relativ lahm ist und einem keine direkte Kontrolle über die Zielrichtung gibt, kann Server-lag dabei durchaus für Ärger sorgen – ich habe schon Schüsse hinbekommen, die im 25°-Winkel zur Kanone weggingen, weil die vom Server berechnete Waffenposition deutlich der lokalen Darstellung des Fadenkreuzes hinterhinkte.

*: Das ist einige Jahre her und war auch durch Wargamings Server bedingt, könnte heute also besser sein.


Keine Eingabeverzögerung mehr, da die KI meine Reaktionen vorhersehen kann? Wie wäre es, wenn die KI nicht gleich für mich das Spiel durchspielt? Klingt ziemlich unglaubwürdig, das dies gut funktionieren kann...

Geringere Latenz durch eine Milliardenschwere Unterstützung von Google beim Netzausbau + ländliche Regionen sowie Behörden die einen generellen Freibrief für alle Baumaßnahmen erteilen - das wäre mal eine Ansage :D

Cloud-Unternehmen lieben solche Ansagen.
Nutzung Funktion X, altes Modell: Umgelegt 500 Euro pro Jahr und Nutzer für lokale Technik. 100 Prozent Verfügbarkeit.
Nutzung Funktion X, neus Modell: Umgelegt 100 Euro pro Jahr und Nutzer aus dessen Steuergeldern finanzierte Infrastruktur plus 200 Euro pro Jahr Nutzung und Nutzer für eine teurere Internetverbindung plus 400 Euro pro Jahr Nutzung und Nutzer an Service-Gebühren. 95 Prozent Verfügbarkeit.
Bilanz: Cloud ist billiger! Cloud ist besser! Cloud ist die Zukunft! Kommt in die Cloud, zahlt nur 400 Euro statt 500 Euro im Jahr! Wir brauchen staatlich finanziertes FTTH überall für die Cloud! Denn Cloud ist die Zukunft!

(Zahlen beispielhaft aber nicht unrealistisch aus der Luft gegriffen.)
 
……..Vorurteile ohne Ende. Stadia bedeutet nicht, dass man den Gaming PC aufgeben muss. Von daher verstehe ich gar nicht, warum man sich über Stadia so echauffiert.

Aha wir haben hier also ein Google Fanboy.
Es ist ja nicht unmöglich die Latenz bei Cloudgaming "niedrig" zu halten. Aber Zeitnah ein massentaugliches Produkt zu entwickeln halte ich für ausgeschlossen.
Für wahrscheinlicher halte ich es, das Google mit diesen Behauptungen, die Neugier von Verbrauchern wecken, und somit locken will.
Selbstverständlich wird Cloudgaming in sachen Gaming den PC in Zukunft unnötig machen, das ist zum Glück noch ein paar Jahrzehnte entfernt.
 
Mist, damit ist das negative Latenzrätsel gelöst. Google fängt mit dem Controller die Hirnströme auf, bevor der Nutzer meint sich entschieden zu haben. Damit könnte es gehen. ;-)
Hehe, ja, so geht die ms Rechnung auf.

p.s.: Guter Einwand gaussmath
Wenn google das natürlich gegenrechnet was da an brain-latenz zusammenkommt erklärt das das Marketinggeschwafel. :ugly:

MfG
 
Einfach mal alles lesen, bevor man in eine Diskussion einsteigt.
Ich habe tatsächlich alle Seiten der Diskussion gelesen. Kannst du auch gerne an den von mir gesetzten likes überprüfen. Einzig bei deinen Posts hab ich meist nach 1/4 aufgehört, da mir zu viel Lobpreisung enthalten ist (insofern hast du hinsichtlich deiner Post also recht). Aber ich habe mich auch ganz konkret nur auf einen kleinen Abschnitt deiner Aussage bezogen (X Mio Projekt, ist ja google, die machen da keine Fehler).

Trotzdem gehe ich auch gerne auf deinen in der Erwiderung explizit zitierten Abschnitt (im Friedhof sind fast nur Miniprojekte) ein.
Google Glass ist/war also deiner Ansicht nach ein Miniprojekt? Kannst diesbezüglich ja gerne mit Oculus oder HTC Vive vergleichen.

Und mein Bezug auf Microsoft hast du auch ignoriert, oder kannst du dir z.B. ein neues Lumia kaufen? Meinst du Microsoft ist diesbezüglich schlechter aufgestellt als Google?
Ich denke, alle Branchenriesen können auch massive Fehlinvestitionen (bis hin zu katastrophalen, die ein solches Unternehmen an den Rand des Abgrunds bringen) machen.

Dein Argument ist nämlich, wenn es google macht, dann klappt es, weil so ein Unternehmen macht da nix falsch.
Und das ist Unsinn, da gibt es haufenweise Beispiele aus der IT-Historie, und noch viel mehr über die gesamte Industrie.

Deine Argumentation beruht da einfach auf Vertrauen in die Größe des Unternehmens. Kannst du ja gerne machen, da hab ich nichts dagegen. Ist aber kein valides Argument, sondern Glauben.
 
Zuletzt bearbeitet:
Ich glaube du fällst ganz schön gut auf das Marketinggeschwurfel rein.

Vielleicht. Vielleicht bin aber auch einfach nur etwas aufgeschlossener, was Neues betrifft. Vielleicht liegts auch daran, dass ich beruflich seit über 20 Jahren als Network Engineer unterwegs bin und gerade in den letzten Jahren immer wieder Cloud Migrationen großer Unternehmen in AWS und GCP begleitet habe. Ich weiß also ziemlich gut, wie Cloud wirklich funktioniert und was damit alles möglich ist.

Im Gegenzug sollte man beachten, dass meinem Wissen nach alle bisherigen Stadia-Vorführungen auf lokalen/benachbarten, exklusiven Servern liefen und zumindest mehrheitlich nicht einmal normale Internetverbindungen nutzten.

Gibt es dafür belegbare Quellen? Meinem Verständnis nach fanden die Tests auf der Gamescom unter "Realbedingungen" statt. Über das normale Messenetz, das vermutlich durch Tausende Besucher-Smartphones ziemlich dicht war.

Das letztere an jedem Google Proxy-Knoten errichtet werden, darf bezweifelt werden. Einerseits ist die benötigte Rechen- und Kühlleistung wesentlich höher als bei anderen Diensten, andererseits rechnet sich Stadia nur, wenn die Hardware im Wechseln von vielen verschiedenenen Kunden genutzt wird. Wenn Google für jeden Nutzer eine exklusive Grafikkarte einplanen muss, wäre das System auf Dauer teurer als lokale PCs bei jedem Nutzer.

Gerade Dir als PCGH Redaktuer würde ich empfehlen, Dir mal die Breakout Sessions zu Stadia der letzten Google Developer Conference anzuschauen. Die sind zum Großteil auf Youtube zu finden, zum Teil auf der Google Cloud Website. Sehr technisch und abseits jeglichen Marketinggeblubbers. Dort wird die Architektur von Stadia im Detail erklärt. Von Entwicklern für Entwickler. Unter anderem auch, dass nicht jedem Spieler dedizierte Hardware zugewiesen wird.


Aha wir haben hier also ein Google Fanboy.

Schade, dass es in diesem Forum immer sehr schnell sehr persönlich wird. Aber ich kann es verstehen. Es ist natürlich viel einfacher, die Fanboy Keule auszupacken, als sich substanzielle Argumente zu überlegen.

Es ist ja nicht unmöglich die Latenz bei Cloudgaming "niedrig" zu halten. Aber Zeitnah ein massentaugliches Produkt zu entwickeln halte ich für ausgeschlossen.

Stadia befindet sich seit mindestens 2015 in Entwicklung. Das ist also nichts, woran man erst seit der offiziellen Ankündigung arbeitet.
 
Als jemand der vom Land kommt und seine ganze Jugend schlechtes Internet hatte: Nein. Bei meinen Eltern im Dorf ist das Internet immernoch räudig und das wird wohl auch so schnell nicht besser. Selbst in meiner jetzigen Heimatstadt ist das Internet in manchen Teilen noch mist. Mit der Verbindung können die das vergessen. In Ländern mit gut ausgebautem Internet vielleicht. Aber hier sicher nicht.
 
Es gibt bislang noch keine regulären Stadia-Rechenzentren, daher muss für Vorführungen extra ein System eingerichtet werden. Die genaue Position im Falle der Gamescom kann ich nicht mit Quellen belegen (alle Keywords sind mit 08/15-News über die Präsentation zugespamt), aber eins garantiere ich dir: Das lief nicht über das normale Gamescom-Messenetz. Das ist erfahrungsgemäß nämlich sowas von dicht, dass bestenfalls Textmessenger in Echtzeit arbeiten können. :-D

Die Hardware-Virtualisierung ist mir bekannt, sie ändert aber nichts an der benötigten Rechenleistung. Auch Google kann VMs nicht von einem Frame zum nächsten auf einen anderen Node hoppen lassen. Wenn ein Spiel die Leistung von Grafikkarte X für die versprochene Performance benötigt, dann kann Google mit Y Grafikkarten vom Typ X nicht nenneswert viel mehr als Y Spieler gleichzeitig versorgen. Da man Ladephasen auf 0 reduzieren möchte und Menüs mangels Funktionsvielfalt beinahe überflüssig werden, muss jede Instanz zeitnah auf die maximale Rechenleistung zugreifen können. Nur in Spielen mit Inhaltsabhängig vorhersagbar schwankendem Bedarf kann Google bei gleicher Hardware wie Privat-Systeme deutlich mehr Instanzen laufen lassen. (z.B. Anno: Will man privat die Endgame-Performance eines 9900K, braucht man auch einen im early Game. Stadia könnte 2-3-4 Anfänger auf einem bewältigen.)

Das Konzept "shared hardware" wird erst dann wirklich attraktiv, wenn man die Rechenleistung zeitlich aufteilt. Spieler 1 zockt zu Zeitpunkt 1, Spieler 2 zu Zeitpunkt 2, usw. und alle nutzen die gleiche, nur einmal zu bezahlende Hardware. Dieses Konzept geht aber nur mit Gelegenheitsspielern auf, die nur an wenigen Tagen der Woche überhaupt spielen oder mit Spielern, die zu verschiedenen Uhrzeiten aktiv sind. Stadia-Abos sprechen aber regelmäßige Spieler mit festem Einkommen und (innerhalb ihrer Zeitzone) entsprechend festem Feierabend an.
 
Schade, dass es in diesem Forum immer sehr schnell sehr persönlich wird. Aber ich kann es verstehen. Es ist natürlich viel einfacher, die Fanboy Keule auszupacken, als sich substanzielle Argumente zu überlegen.
Schade, dass du hier im Forum substanzielle Kritik vieler auf eine Aussage eines Einzelnen reduzierst (wovon der Teil den du zitiert hast, auch nur die Überschrift zu den von dir geforderten Argumenten ist). Aber ich kann es verstehen. Es ist natürlich viel einfacher, die Mobbing Keule auszupacken, als sich substanzielle Argumente zu überlegen.

Gibt es dafür belegbare Quellen?
Lustig, dass du nach Quellen (für die Aussage/Behauptung hinsichtlich der Latenz auf der Messe) fragts, aber einfach so eine unbelegte Aussage wie nachfolgend raushaust und die Kritik daran von meiner Seite mit dem Holzhammer aber inhaltlich überhaupt nicht abwehrst.
Google würde ein solches - milliardenschweres - Produkt nicht am Markt platzieren, wenn sie nicht 100% wüssten, dass es funktionieren wird.
Das ist vergleichbar mit:
Microsoft würde nicht im Traum drauf kommen, ein SmartPhone und ein SmartPhone OS am Markt zu platzieren, wenn sie nicht 100% wüssten, dass es funktionieren wird (schon gesagt)
Audi/VW/Porsche/Mercedes würde nicht im Traum drauf kommen, Schummelsoftware einzusetzen und damit Strafzahlungen in Milliardenhöhe einzugehen und Reputation einzubüßen
der Staat mit seinem riesigen Verwaltungsapparat würde nicht im Traum darauf kommen, einen Flughafen für Milliarden dilletatisch zu planen und zu bauen
Pharma-Firma XYZ würde nicht im Traum darauf kommen, ein Produkt auf den Markt zu geben, das Missbildungen bei ungeborenen Kindern erzeugt (was sie ja vorher nicht wussten/wussten konnten, aber der Grundtenor der Aussage wäre vergleichbar)

Ich sage übrigens gar nicht, dass sie mit Stadia keinen Erfolg haben werden. Ich halte nur die Aussage negative Latenz für Schwachsinn. Was Marketingsprechblasen meistens sowieso sind. Und ich halte deine Logik - Milliardeninvest von Megaunternehmen kann gar nicht schiefgehen - für abstrus und verblendet. Den Schuh könntest du dir anziehen, und die Überschrift Fanboy eines anderen Nutzers passt meiner Meinung nach sehr gut auf die Art und Weise wie du argumentierst und wie du auf sachliche und fundierte Kritik an googles Marketinggeschwätz umgehst.
 
Zuletzt bearbeitet:
Es gibt bislang noch keine regulären Stadia-Rechenzentren,......
Wenn man bei Google schon eine gut funktionierende Infrastruktur hat, muss es auch keine gesonderten Rechenzentren geben.

Technisch sehe ich da nicht unbedingt so große Probleme, wie einige hier die wieder einmal die Latenz-Keule schwingen wollen.

Problematisch wird eher das man sich für Stadia alle Spiele neu kaufen muss.
Und ich glaube nicht das die Leute dazu bereit sind, wenn sie bei GoG, Steam, Uplay, Origin, oder wo anders schon viel Geld gelassen haben.
 
…….Stadia-Abos sprechen aber regelmäßige Spieler mit festem Einkommen und (innerhalb ihrer Zeitzone) entsprechend festem Feierabend an.
Torsten spricht hiermit eines von VIELEN Ungereimtheiten bei Google Stadia an. Aktuelle PCs schaffen gerade so ein Game in 2K/4K bei 120Hz zu rendern. Ergo braucht doch auch Google Stadia mindestens ~einen "PC" im Rechenzentrum pro User...……………………wie sollte sich das rechnen?
Hinzu kommt die hier schon mehrfach vorgebrachte Latenz Problematik, welche auf Physikalischen Grundgesetzen beruht.

@cryptochrome, es tut mir leid wenn du dich dadurch angegriffen fühlst, das ist nicht meine Absicht gewesen. Du machst halt nur so den Eindruck das du für die Meinungsbildung bezahlt wirst, weil du so vehement Google als unfehlbar darstellen möchtest.
 
.....Problematisch wird eher das man sich für Stadia alle Spiele neu kaufen muss.
Und ich glaube nicht das die Leute dazu bereit sind, wenn sie bei GoG, Steam, Uplay, Origin, oder wo anders schon viel Geld gelassen haben.

Wird keine Rolle Spielen, es werden logischerweise aktuelle Spiele zum Release auf den Plattformen und Stadia erscheinen, dann kauft man sich die eben gleich dort.
Ältere Spiele bei Stadia an zu bieten ist mMn obsolet
 
Es gibt bislang noch keine regulären Stadia-Rechenzentren

Die wird es auch niemals geben, da Stadia nicht in separaten, dedizierten Rechenzentren läuft, sondern auf den bereits vorhandenen GCP Regionen. Wie gesagt, schau Dir mal die Breakout Sessions der GDC an, in denen die Architektur im Detail erklärt wird.

Schade, dass du hier im Forum substanzielle Kritik vieler auf eine Aussage eines Einzelnen reduzierst (wovon der Teil den du zitiert hast, auch nur die Überschrift zu den von dir geforderten Argumenten ist). Aber ich kann es verstehen. Es ist natürlich viel einfach, die Mobbing Keule auszupacken, als sich substanzielle Argumente zu überlegen.

Warum fühltest Du Dich eigentlich angesprochen?

Dass der Umgangston hier im Forum ziemlich häufig ziemlich heftig entgleist, ist doch nichts Neues. Mein Kommentar bezog sich auf den Mitforisten, der mich als Fanboy bezeichnet hat, nicht auf Dich. Von Mobbing war übrigens in keiner Silbe die Rede.

Lustig, dass du nach Quellen (für die Aussage/Behauptung hinsichtlich der Latenz auf der Messe) fragts, aber einfach so eine unbelegte Aussage wie nachfolgend raushaust und die Kritik daran von meiner Seite mit dem Holzhammer aber inhaltlich überhaupt nicht abwehrst.

Zum einen habe ich nicht nach Quellen bzgl. Latenz auf der Messe gefragt. Zum anderen hast Du mit Deiner Aussage, dass man das auch über Microsoft und deren gescheitertes Smartphone Business hätte sagen können, natürlich vollkommen recht. Da muss ich nichts abwehren.

Zumal es mühsam ist, mit jemandem zu diskutieren, der auf Krawall gebürstet ist und dem es offensichtlich nur um Konfrontation geht. Mir gehts hier nicht darum, unbedingt recht zu haben, sondern eine sachliche Diskussion zu führen - bei der man was lernen kann und weil es mich interessiert. Das fällt hier vielen leider schwer. Siehe oben.

Ich sage übrigens gar nicht, dass sie mit Stadia keinen Erfolg haben werden. Ich halte nur die Aussage negative Latenz für Schwachsinn. Was Marketingsprechblasen meistens sowieso sind.

Auch da stimme ich Dir zu. Ich finde aber, dass hier viel Wind um nichts gemacht wird. Immerhin handelt es sich nicht um irgendwelche großen Ankündigungen von Google, die irgendwo von einer Marketingabteilung aufbereitet auf der Stadia Website prangen würde, sondern um einen Nebensatz, der in einem Interview mit einem Google Mitarbeiter gefallen ist. Das wird nun von den Medien ausgeschlachtet - auch von der PCGH. Dabei ist das doch völlig unerheblich. Unterm Strich gehts nur darum, ob Stadia gut genug funktioniert, um eine große Anzahl Spieler zufrieden stellen zu können. Und bisher habe ich nichts gesehen, das wirklich fundamental dagegen sprechen würde. Stadia wird seinen Markt finden - sicher nicht bei den PCGH Lesern, aber durchaus in einer breiten Masse. Das ist absehbar. Schließlich sind Google nicht die einzigen, die sowas machen. Microsoft, Amazon, Sony, EA, Nvidia... alles, was Rang und Name hat, arbeitet an Game Streaming Diensten. Experimente kann sich kein börsennotiertes Unternehmen wirklich leisten. Also ist davon auszugehen, dass das alles schon irgendwie Hand und Fuß haben wird.
 
Nach dem Test von Digital Foundry liegt der Input Lag bei einem PC der 60 fps rendert bei ca. 79 ms ohne Display Lag.
Wenn ich einen Ping zu Google Servern von 20 ms habe bedeutet das ca. 10 ms für den einfachen Weg zu Stadia für die Inputs.
Wenn man also den Fall annimmt, das das Model den richtigen Input vorhergesagt und die GPU das Frame bereits vorbereitet (= rendern und codieren) hat, hätte Stadia also 68 ms um das Frame zu übertragen und auf der Gegenstelle zu decodieren um einen PC bei 60 fps zu schlagen.

Hört sich auf jeden Fall interessant an. Bin gespannt wie gut das in der Praxis funktioniert.

Ist ja alles schön und gut, ABER: Selbst wenn eine Vorausberechnung gelingen würde, müsste er ja noch auf die tatsächliche Eingabe warten, um zu schauen, ob die Vorausberechnung passt. Wenn die eben nicht passt, wird mit dem eigentlichen Befehl überschrieben.
Mir ist an der Stelle nicht klar, wo hier eine Zeitersparnis erfolgen soll.
 
Unsere Wahrnehmung schneller Bewegungen ist nicht sehr präzise. Wir nehmen Fehler in der Darstellung (sowohl räumlich wegen zum Beispiel falscher Vorhersage als auch zeitlich wegen lag) zwar prinzipiell war, aber wenn sie nur kurz andauern dringt das nicht ins Bewusstsein vor. Eine 1-2 Frames lang, also nur wenige Pixel große, um 5° falsch laufende Bewegung würde das Gehirn einfach ausblenden. Dauerhaft 1-2 Frames Verzögerung geben dagegen ein merkwürdiges Gefühl und irgendwann realisiert man dann auch, woran es liegt.


Wenn man bei Google schon eine gut funktionierende Infrastruktur hat, muss es auch keine gesonderten Rechenzentren geben.

Ob sie gesondert stehen oder integriert werden ist unabhängig von der Frage nach der Existenz. Aktuell hat Google aber keinen Bedarf an 3D-Beschleuniger in den öffentlichen Serverfarmen und eine Stadia-Entwicklungsumgebung am Hauptsitz hätte viel zu lange Latenzen in andere Teile der Welt. Also gilt für Großtests wie Stadia auf der Gamescom sowieso: Es müssen extra Racks in Betrieb genommen. Das machen sie garantiert nicht an einem entfernten Standort, der den Durschnitts- oder gar Worst-Case-Fall des späteren Roll-Outs entspricht, sondern idealerweise auf dem gleichen Gelände. Warum sollte ich für eine global übertragene Live-Demo einen kölner Internet-Anschluss anbieten und die extra herbeigekarte Hardware in einem externen Rechenzentrum installieren, wenn sich auch in Ethernet-Reichweite aufbauen kann?

Im Best Case stand der Server direkt hinter der Bühne und das nicht einmal wegen dem unzweifelhaft deutlich verbesserten Lag, sondern einfach zur Absicherung: Jedes Kabel, jeder Router, jeder Switch, jede Steckverbindung, jede [bitte Vermittlungs-Hardware des gewünschten Typs Internet-Verbindung einsetzen] ist einfach ein Ausfall- und Bug-Risiko. Die kleinste Störung während einer Messe-Demo kann Image-Schaden in Millionenhöhe anrichten und ein Baggerfahrer an der falschen Stelle die Markt-Chancen des gesamten Milliardenprojektes halbieren können.
 
Zuletzt bearbeitet:
"Google glaubt: Stadia hat in zwei Jahren weniger Latenz als ein PC"

Brüller. Danke für den Witz des Tages :-D
 
Zurück