Ich komme aus der Zeit des Atari 2600, und kann mich an kein Cloud-Computing der 80er oder 90er Jahre erinnern, ja nicht mal der 00er Jahre. Geschweige denn an Aussagen aus der Zeit, der PC würde verschwinden, der sich zu dem Zeitpunkt ja gerade mal "angefangen" hat zu verbreiten. Ganz zu schweigen von Smartphones, Tablets und Smart-TVs, die ja den Bildschirm/die Plattform stellen müssen, auf dem Cloud-Computing ablaufen kann.Das sagt man jetzt schon seit gut 40 Jahren und mehr, geschehen ist aber seither wenig.
Aber ich kann mich an eine stockende Entwicklung seit dem ersten Quad-Core 2006 (QX6700) bis Anfang 2017 erinnern, und der "Kern-Explosion" seit dem aufkommen des ersten Ryzen bis heute, also der letzten 24 Monate. Ein Epyc-Mainboard zb. kann ganze 8 PCIe-Karten ungebremst mit jeweils 16 PCIe 3.0 Lanes anbinden, und mit zwei Sockeln kommen da heute schon 64 Kerne und 128 Threads dazu, und in ein paar Wochen/Monaten sind es schon 128 Kerne und 256 Threads. Da hat die Rechenleistung pro Euro in den letzten 2 Jahren enorme Sprünge hingelegt.
Aber ich sagte auch nirgends dass der aktuelle Stand der Technik schon das Ende für den PC bedeuten wird. Aber vielleicht sehen wir mit Stadia schon den Dienst, der schon heute eine ganze Menge leisten kann, und dieses Ende (also den Anfang davon) demnächst einläuten wird.
Noch mal, die Kompression eines 1080p Bildes (der 4K/UHD) ist quasi immer gleich aufwendig/bandbreitenhungrig, egal ob diese 1920x1080 (oder 3840x2160) Pixel ein Bild zeigen, das aus 1000 Polygonen besteht, oder aus 1.000.000.000.000.000 Polygonen, und auch egal ob es vorher mit 8K Auflösung, oder mit 128K Auflösung gerendert wurde, oder mit Raytracing-Effekten von einer 2080Ti, oder von einhundert 2080Ti Grafikkarten. Wenn an Ende auf zb. 1080p oder 4K/UHD runter gerechnet wird, muß auch nur dieses 1080p (oder 4K/UHD) Bild übertragen bzw. entsprechend komprimiert werden. Und wer schon mal in 4K/UHD YouTube-Videos hochgeladen hat, der weiß dass da schon lange deutlich schneller als Echtzeit komprimiert wird.Also zumindest mal das Supersampling in der Form ist über einen Stream einfach unsinnig. Du redest hier ja von 16xSSAA aufwärts und das steht sogar ohne Kompression schon in keinem Verhältnis mehr zum Mehraufwand
Vielleicht, keine Ahnung wie aufwendig sowas bei welchem Spiel ist. Evtl. sind ja schon von der Entwicklung her höher aufgelöstere/detailliertere Objekte/Modelle verfügbar (ich meine mal sowas gelesen zu haben). Aber es ging ja auch nicht darum was ich gerne hätte, und was schon heute geht, sondern was theoretisch technisch möglich ist. Google selbst hat bisher ja auch nur von max. 8K mit 120FPS gesprochen, und noch gar nichts bzgl DSR (also der runtergerechneten Ausgabe des 8K 120FPS Signals an einen 4k-/UHD- oder gar 1080p-Bildschirm) gesagt. ^^... und dass irgendwelche existierenden Spiele auf einmal bessere Modelle kriegen, kannst du wohl eher auch vergessen.