sers erstmal kommen wir gleich zum Thema:
wenn man sich viele verschiedene Tests anschaut (alles auf Games bezogen) wird man schnell feststellen das der Leistungsunnterschied
zwischen 4090 zu 4080 stark abfällt wenn man die Auflösung ändert. Wo bei 4k im durchschnitt grob 20% Mehrleistung gebracht wird von der 4090 ändert sich der Wert bei 2k zu knapp über 10% Mehrleistung in denn Tests.
Jetzt kommt meine Frage ist dieser Abfall an Mehrleistung wirklich nur wegen CPU Bottelneck (was sich dann ja ändern könnte wenn neue cpus rauskommen) oder ist dies einfach Karten spezifisch weil die karte auf 4k besser läuft???
Leider is es so gut wie unmöglich schnell raus zu lesen ob ein Test durch Bottelneck beeinflusst wurde oder nicht.
PS: Bitte die zahlen 10%/20% nicht zu ernst nehmen brauchte nen Beispiel nennt mir gerne realistischere zahlen ich bin gespannt!
MfG
TheDraft
wenn man sich viele verschiedene Tests anschaut (alles auf Games bezogen) wird man schnell feststellen das der Leistungsunnterschied
zwischen 4090 zu 4080 stark abfällt wenn man die Auflösung ändert. Wo bei 4k im durchschnitt grob 20% Mehrleistung gebracht wird von der 4090 ändert sich der Wert bei 2k zu knapp über 10% Mehrleistung in denn Tests.
Jetzt kommt meine Frage ist dieser Abfall an Mehrleistung wirklich nur wegen CPU Bottelneck (was sich dann ja ändern könnte wenn neue cpus rauskommen) oder ist dies einfach Karten spezifisch weil die karte auf 4k besser läuft???
Leider is es so gut wie unmöglich schnell raus zu lesen ob ein Test durch Bottelneck beeinflusst wurde oder nicht.
PS: Bitte die zahlen 10%/20% nicht zu ernst nehmen brauchte nen Beispiel nennt mir gerne realistischere zahlen ich bin gespannt!
MfG
TheDraft