Cloud Computing: Microsofts DeLorean spart bis zu 250 Millisekunden Latenz in Spielen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Cloud Computing: Microsofts DeLorean spart bis zu 250 Millisekunden Latenz in Spielen

Cloud-Computing soll die Zukunft sein, auch für Spiele. Doch bisher gab es immer wieder Probleme mit der Latenz. Mit Microsofts dem "Project DeLorean", nach dem Auto in Zurück in die Zukunft, will man nun 250 Millisekunden Latenz sparen können - ein Achtungserfolg.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Cloud Computing: Microsofts DeLorean spart bis zu 250 Millisekunden Latenz in Spielen
 
von Sparen kann nicht die rede sein.

Schliesslich dauert alles noch gleich lang. M$ versucht lediglich vorauszusagen was auf der Konsole gleich passieren wird und rendert das entsprechende Bild.
Wundert mich das es keine MR deswegen gibt.
 
Schliesslich dauert alles noch gleich lang. M$ versucht lediglich vorauszusagen was auf der Konsole gleich passieren wird und rendert das entsprechende Bild.
Wundert mich das es keine MR deswegen gibt.

Kann uns das nicht eigentlich total egal sein, auf welche Art und Weise die Latenz verringert wird ?, solange es auch nur kleine Fortschritte beim Streaming gibt, können wir uns glücklich schätzen^^
Und der Ansatz mit dem "vorhersagen" ist vernünftiger, als wenn die Bandbreite oder Leistung der Hardware erhöht wird, da ersteres schon jetzt möglich ist ^^
 
Naja... Das die Frames einfach bevor etwas passiert berechnet werden finde ich schon bisschen kritisch.. Das kann zu hitreg Problemen führen:/
Man kann doch die Map über die cloud und die Spieler über den clienten berechnen? Wenn das möglich wäre...
 
Quasi Sprungvorhersage ^10. Wobei sich bei einer großen Menge Nutzer und begrenzten Entscheidungsmöglichkeiten die Frage stellt ob man nicht im Endeffekt dazu kommt dass man eh alle möglichen Fortsetzungen einer Szene schon fertig gerendert vorliegen hat und nur noch abspielen muss.
 
Wäre es nicht einfacher / günstiger den ganzen Mist sein zu lassen?

Mir kommen gerade ein paar Ideen / Befürchtungen :
Neue Geschäftsmodelle
a.) nicht mehr kaufen sondern nur noch im leihen.
b.) Premiumservice für bessere / weniger Latenz.
c.) "Zwangsupdates" => die neue Software braucht unbedingt das neue dlc...
d.) dürfte der Nächster Schritt sein / werden=> dedicated server sind ja auch keien selbstverständlichkeit mehr
e.) Privatsphäre :ugly:
...
 
//Jetzt braucht Microsoft nur noch den Fluxkompensator in ihre Server einbauen und schon sind 4K mit 120FPS auf der XBone möglich...und das im Stand-by-Modus. Und wenn sie dann noch den Kernreaktor ihres Servers durch einen Fusionsreaktor der mit Biomüll betrieben wird austauschen und diesen "Mr. Fusion" taufen. Ja, dann ist es vllt sogar möglich nach dem nächsten Firmwareupdate mit der XBone in der Zeit zurück zu reisen. //Bullsh1t off

h0988a08d-jpg.763431
 

Anhänge

  • h0988A08D.jpg
    h0988A08D.jpg
    47,8 KB · Aufrufe: 1.597
Zuletzt bearbeitet:
Welchen Wert hat die Aussage, dass die Latenz um ca. 250ms gesenkt wurde, wenn der Absolutwert der Latenz nicht dabei steht? :ugly:

Von 300ms auf 50ms wäre top. Von 1250ms auf 1000ms wäre eher nicht so ein Durchbruch :D
 
Ah so ein Schmarrn. Sollen die das Geld lieber in die Entwicklung in ein gscheids Windows reinstecken.
 
Sehr zuverlässig war der Delorean aber nie .. soll das bedeuten Microsoft glaubt nicht an seine neue Technik? Wenns funktioniert ists gut, wenns nicht funktioniert gehörts dazu? :fresse:
 
latenzverschleierung, durch sprungvorhersage und vermutungen, ist keine latenzsenkung, denn sobald das nicht ganz stimmt, is die alte latenz wieder da...

verarscht euch selbst, euren ganzen cloud-bullshit, könnt ihr gefälligst für euch behalten und leise weitersterben.
 
Eine moderne x86 CPU holt einen großen Teil ihrer Leistung aus der Sprungvorhersage. Da beschwert sich auch keiner dass man im schlimmsten Fall nicht schneller als bei stumpfem Abarbeiten der Eingabe ist.
 
verarscht euch selbst, euren ganzen cloud-bullshit, könnt ihr gefälligst für euch behalten und leise weitersterben.
Bitte was? :ugly: Sowohl Umsatz als auch Gewinn von Microsoft steigen seit Jahrzehnten relativ stetig. Da ist keine Spur von Schwäche oder Abkühlung des Marktes zu sehen, geschweige denn von "sterben" :)

Quelle: Microsoft (Diagramm "Umsatz- und Gewinnentwicklung" relativ weit oben)
 
Da beschwert sich auch keiner dass man im schlimmsten Fall nicht schneller als bei stumpfem Abarbeiten der Eingabe ist.

Weil man es einfach nicht merkt eventuell.

Aber wie soll irgendein Algorithmus vorhersagen können, weclhes Frame als nächstes berechnet werden soll? Ich laufe in einem Shooter beispielsweise geradeaus, vor mir kommt eine Tür und in aller Wahrscheinlichkeit geh ich da durch? Was wenn es nicht so ist und ich mich umdrehe und wo anders hingehe? Dann gibts einen mächtigen Framedrop oder wie? Das kanns ja nicht sein?
 
Zurück