14-Megapixel-Gaming: 5K3K-Multi-GPU-Benchmarks

Grid ist schon extrem.
300€ bei AMD sind genau so schnell wie 1000€ bei Nvidia.
Das ist natürlich ein krasses Beispiel aber keinen falls ein praxisfernes.
Gibt bestimmt Leute die auf ihrem 4K Fernseher gerne Rennspiele zocken, zumal man die ja auch gut mit Gamepad bedienen kann... :daumen:
 
Bei solch hohen Pixeldichten brauchts doch irgendwann gar kein AA mehr... schon 2560x1440 auf 27 Zoll ist relativ fein, aber sicherlich noch sichtbar... 4K schon weniger bis gar nicht, aber 5K...??? Auf dem 40 Zoll Display macht das noch nen Unterschied, aber bei 27 Zoll kann ich mir das kaum Vorstellen
 
MSAA ist für mich tot - seit beide Hersteller DSR/VSR anbieten. Selbst 2560x1440@1920x1080 (zur Not + FXAA) sieht meist besser aus als 4xMSAA, erfasst das ganze Bild und kostet überschaubar Performance.

Dank 8xMSAA kann ich "Europa Universalis 4" unterhalb meiner nativen Monitorauflösung spielen, und das in gut erträglicher Bildqualität @ "1050 pseudo-p". Das hat den Vorteil das ich mich beim lesen nicht so anstrengen muß :ugly:

@Top

Bei 27" und 14 Megapixel wird man wohl auf MSAA gut verzichten können.
 
irgendwie schaut das für mich so aus als würde CF bzw SLI eher schlecht skalieren? limitiert da der speicher so gewaltig?:huh:

zumindest überall außer bei Crysis 3 und TombRaider.
 
irgendwie schaut das für mich so aus als würde CF bzw SLI eher schlecht skalieren? limitiert da der speicher so gewaltig?:huh:

zumindest überall außer bei Crysis 3 und TombRaider.

Wollte ich auch gerade anmerken.

Außer C3 und TR dümpelt es so bei ~20-30% Skalierung rum, Nidia und AMD
 
aber in keinem Spiel ist der Unterschied entscheidend für Spielbar vs unspielbar.

Grid Autosport: 290X mit 35 min fps und 40 Durchschnitts-fps ist spielbar, 28 min und 33 Durchschnitt schon eher grenzwertig.
Vanishing of Ethan Carter: 25 fps bei 290X vs 15 fps bei 980, muss man dazu noch was sagen?

Aber klar, die paar Prozent mehr bei FHD rechtfertigen natürlich den 80%igen Aufschlag von 290X zur 980. Aber Vorteile bei >FHD bringen natürlich nichts. Du legst es dir auch nur so hin, wie es dir passt.
 
In Hohen Auflösungen stellt die Bandbreite eine geringere Rolle. Je höher, desto höhere Treffer im Cache und somit geringerer Bedarf der Bandbreite.
NV wählt wohl viel zu kleine Buffer und hat in hohen Auflösungen Probleme mit der Lastzuweisung. Erklärt auch, wieso NV sowohl bei der Anbindung als auch mit dem Speicher so knauserig ist bzw schon immer.
Deswegen auch die neue Compression bei den Maxwells für den Framebuffer ;-)

Allerdings nutzt AMD jetzt auch einen neuen und hat in hohen Auflösungen noch mehr Pfeffer.
Also Q2-W4 2017 ist 4K zocken für uns da, zumindest jene die High-End kaufen.

Ich zocke ja auf 3K ... da sind mal eben 5% mehr Power die darüber entscheiden: Cool oder *******.

Und ja, mit den VRs spielen die AMDs den Vorteil nochmal ordentlich aus.
 
Zuletzt bearbeitet:
Wenn man bedenkt das man zum Preis einer GTX 980 schon 2 R9 290 bekommt oder für 800 Euro eine R9 290X X2 ;) Stromverbrauch viel mehr zieht die 290X beim gamen auch nicht und für die Preisdifferenz zwischen 980 und 290 kann ich ja zig Jahre dauerzocken.
Mittlerweile ist die R9 295x2 schon für 729€ zu haben ;) die von XFX
 
Also wir haben nie gesagt, dass die Hawaii-Karten schlecht sind, das ist ein Internet-Phänomen.

4K und 5K sind jedoch Paradedisziplinen für die Radeons, welche in niedrigen Auflösungen wie Full HD nach wie vor eine Shader-Auslastungsschwäche haben. Je mehr Pixel, desto besser für die AMD-Chips.

MfG,
Raff

Naja schau mal auf die Werte, speziell die Minfps , legt den Verdacht nahe daß CF offensichtlich wieder mit Runt-Frames glänzt. Man sollte schon realistisch bleiben, selbst 4K ist für derartige Gespanne die Kotzgrenze viel mehr geht da nicht. Hinzu kommt, das einige SLI Profile nicht optimal oder für bessere Smoothness optimiert oder Vanishing of Ethan Carter eher unbekannt und keine sondere Treiber-Pflege abbekam. Bencht in 2 Jahren nochmal... ;)
 
Naja schau mal auf die Werte, speziell die Minfps , legt den Verdacht nahe daß CF offensichtlich wieder mit Runt-Frames glänzt. Man sollte schon realistisch bleiben, selbst 4K ist für derartige Gespanne die Kotzgrenze viel mehr geht da nicht. Hinzu kommt, das einige SLI Profile nicht optimal oder für bessere Smoothness optimiert oder Vanishing of Ethan Carter eher unbekannt und keine sondere Treiber-Pflege abbekam. Bencht in 2 Jahren nochmal... ;)

Sprichst du aus Erfahrung, oder mutmaßt du hier einfach nur. Ich habe bis gestern 2 290x im cf genutzt. Die Skalierung reicht von 100% bis 0% Skalierung. Extrem abhängig von treiberseitiger cf Unterstützung und Programmierung des Spiels. X rebirth hat eine negative Skalierung. Shadows of mordor nahezu 100%. Bf4 meine ich sollten es so um die 80-90% sein. Da fängt dann eher der vram an zu blocken da die 4gb mit Antialiasing überläuft. Aber dass den radeons in 4k genauso die Luft ausgeht kann ich ganz klar verneinen. Arma3 läuft im Single gpu maxed out unter 4k von 25-40 fps, abhängig von gewählter Sichtweite und Position auf der Karte. Zum einen limitiert hier die CPU, speziell im cf, zum anderen die Engine an sich. Die 290x ist ziemlich potent. Titanfall läuft fast durchgehend auf 60fps in 4k. Vor allem wenn man auf 1100-1200 MHz geht
 
Gut,
der Test beweist eigentlich das man auf dem 5K Monitor schon gut zocken kann - man muß sich nur damit anfreunden können Details runter zu schrauben (was ich persönlich nicht kann). Wie sieht es eigentlich mit triple und Quad CF/SLI aus? Damit müßte man eigentlich sogar alles schaffen können.

Auch schön das solche Tests zeigen wie sich die Karten in den wichtigen Grenzbereichen verhalten, damit wäre eigentlich erwiesen das die R9-290X besser ist als eine GTX 980 und auch die 50W Mehrverbrauch wären gerechtfertigt.

Ich würde mir das mit Details reduzieren überlegen..viele Spiele bringen so wenig sichtbaren Unterschied von zb. high zu very high oder gar ultra. Da muss man so oft viele FPS einbüsen für Effekte die man mit der Lupe suchen muss...Downsamplingt oder 4K bringt optisch gesehen allerdings ne richtige Aufwertung mit, mittlerweile möchte ich garnicht mehr ohne Downsampling spielen.....
 
Ich würde mir das mit Details reduzieren überlegen..viele Spiele bringen so wenig sichtbaren Unterschied von zb. high zu very high oder gar ultra. Da muss man so oft viele FPS einbüsen für Effekte die man mit der Lupe suchen muss...Downsamplingt oder 4K bringt optisch gesehen allerdings ne richtige Aufwertung mit, mittlerweile möchte ich garnicht mehr ohne Downsampling spielen.....

Das muß jeder für sich selbst überlegen, einige brauchen unbedingt 60FPS+, andere legen Wert auf alle Details (ich habe die Vergleiche gesehen und da ist doch ein Unterschied da) und andere lieben eine schöne hohe Auflösung. Ich persönlich bin in Sachen Auflösung recht schmerzresistent, ich kann auf meinem Röhrenmonitor problemlos auf 1152x864 (1MP) gehen und wenn die Geschwindigkeit meiner GTX 670 reicht gehe ich dann hoch auf 1600x1200 (2MP, etwa Full HD) oder gar 2048x1536 (3MP). Wenn endlich die OLEDs rauskommen wäre so ein 5K Monitor vorallem interessant da man dort super die Auflösung wählen könnte da er optimal interpolieren würde.
 
An diesen Benches sieht man auch wieder hervorragend, dass vieles einfach nur Propaganda seitens diverser Fans ist und die Wahrheit eigentlich eine andere ist als das, was so viel in den Foren propagiert wurde...

Aber das ist eigentlich schon immer so gewesen. Bzw meist so, dass die AMD Karten eine höhere Halbwertzeit hatten (man erinnere sich mal an Geforce FX vs. R300 bis einschließlich der x19xx und nVs 7000er Serie)
 
Zurück