Du könntest genauso gut PCI-E 2.0 x16 (= PCI-E 3.0 x8) nutzen, kommt in der Gaming Realität aufs Gleiche raus wie PCI-E 4.0 x16, nur, wenn der VRAM voll läuft bringt 4.0 etwas, da macht es aber in der Realität dann eher Sinn die Texturqualität eine Stufe runter zu Stelle, da du dann meist trotzdem das typische Geruckel im VRAM Limit hast.
Das würde ich so nicht unbedingt mehr uneingeschränkt unterschreiben, denn ich könnte mir vorstellen, dass es bestimmte Situationen gibt, wo man von schnellerer Anbindung profitieren könnte.
Ich mein ... es is alles in Entwicklung und wird schneller, auch schnellerer Speicher usw. .
Wieso sollte man also nicht auch z.B. in 1080p mit mittleren Einstellungen irgendwie einen Unterschied haben ?
Oder je nachdem in 4k/UHD halt anders und WQHD dazwischen. ?
Die Frage ist eher, ob das ein "
Game Changer"
![Fettes Grinsen :D :D](/styles/ctec/images/smilies/biggrin1.gif)
is, oder ob das wieder diese 2-8 fps sind, auf die man auch verzichten kann, wie man darauf auch schon verzichtet, in dem man
nicht bis zum Anschlag übertaktet.
Also ich werd' mir zukünftige Tests da sehr neugierig anschauen, aber von der Seitenlinie aus, da ich eh die nächsten Jahre die Basis noch nicht aufrüsten will.
Aber man muss sich ja schlau machen, was man sich 2025 Neues holt !
PS: Und ob da 100, oder 1000 fps stehen, is mir eh egal(100 fps limiter drin). Mich interessieren nur die Unterschiede im Bereich 60-100 fps.
Wenn ich da anstatt 80(PCIe 4), 70 fps hätte, mit PCIe 3, wär's mir egal(da auch noch flüssig), aber bei 35 zu 70fps wäre es für mich ein
relevanter Unterschied.
Aber
letzteres glaube ich auch eher nicht.
Mal schauen, was die Tests so zeigen.
edit:
Vielleicht weiß Raff ja schon mehr, mit seinem bis zum Anschlag OCed Ryzen PCIe 4.0 System.
![Glücklich :) :)](/styles/ctec/images/smilies/smiley.gif)
Ich denke, die Tests werden bald Erleuchtung bringen.