Mittelerde: Schatten des Krieges im Test- 4-GiByte-Grafikkarten, nehmt euch in Acht! [Benchmark-Liveticker]

Wieso implementiert man eigentlich eine Auflösung (16k), welche aktuell keine Rolle spielt? Vielleicht erreicht diese Auflösung in 15-20 Jahren die breite Masse, dann das Spiel aber wahrscheinlich nicht mehr lauffähig ist bzw. es keiner mehr spielen wird.

Screenshots?

Lass mich doch das Spiel in 16K bei 3 FPS spielen, wenn ich nur Bildchen machen will. Weils einfach über das Menü erreichbar ist, kann man das beliebig aktivieren und deaktivieren.
 
Unkomprimierte Texturen zu verwenden wäre ungefähr so, wie Bilder auf Internetseiten im RAW-Format zu parken.
Für den verwendungszweck völlig sinnlos, belegt aber das zigfache an Speicher.

Die wirklich unkomprimierten Ur-Texturen die beim Hersteller in RAW und womöglich/wahrscheinlich in weit höherer Auflösung vorliegen (einfach weil das sehr große Vorteile bei der Bearbeitung hat) sind sicherlich alleine eine dreistellige GB-Anzahl. ;)

Wieso implementiert man eigentlich eine Auflösung (16k), welche aktuell keine Rolle spielt? Vielleicht erreicht diese Auflösung in 15-20 Jahren die breite Masse, dann das Spiel aber wahrscheinlich nicht mehr lauffähig ist bzw. es keiner mehr spielen wird.

1.) Screenshots.
2.) Aus dem selben Grund, wie man 4K in Half-Life2 reingeschoben hat vor zig Jahren. Irgendwann läufts auf nem Blödiamarkt-PC. Mit dem Unterschied dass man HL2 vielleicht wirklich heute noch spielen will. :-D
3.) Für Tech-Shows die vier wassergekühlte TXP-Karten mit 2,1 GHz im Quad-SLI per Spezialtreiber laufen lassen und auf mehreren 8K-Screens ein Showcase machen :ugly:
4.) Weil es einfach technisch kaum/kein Mehraufwand ist.
 
Würd mich auch brennend interessieren!

Sagt einer mit ner gtx 1060 im PC :D

Nachtrag:
Bei der GTX 1060 werden die 4k Resultate in allen anderen Auflösungen gezeigt.
Wobei das auch irgendwie nicht hinhaut.

Ist wohl irgendwas anderes schiefgelaufen
 
Zuletzt bearbeitet:
Sagt einer mit ner gtx 1060 im PC :D

Nachtrag:
Bei der GTX 1060 werden die 4k Resultate in allen anderen Auflösungen gezeigt.
Wobei das auch irgendwie nicht hinhaut.

Ist wohl irgendwas anderes schiefgelaufen

Das war einfach noch ein Platzhalter – leere Felder mag unsere Benchmark-Software nicht, wir müssen also irgendwas reinschreiben (normalerweise verstecken wir die noch nicht gebenchten GPUs allerdings, damit es nicht zu Verwirrung kommt). ;) Die GTX 1060 kommt morgen dran, genau wie eine Reihe weiterer GPUs. Schatten des Krieges ist einigermaßen umständlich zu benchen.

Gruß,
Phil
 
trotz 4k auflösung eine eher durchschnittliche grafik.
zwischen high, very high und ultra ist obendrauf kaum ein unterschied ersichtlich.
 
Ok, das sieht jetzt schon anderst aus bei Vega. Warscheinlich wird es auch noch reichen das die GTX1080 von der RX 56 geschlagen wird.
 
In der Tat :-)
Scheint mir wirklich das erste Spiel so sein, wo 8GB Vram reichen, 6GB hingegen nicht mehr.
Aber wie war das? "Warum immer Ultra Details" und so ... :cool:

In 4k scheinen ja auch keine 8 GB mehr zu reichen, dass ist wohl der Grund, weshalb die 1080 46% hinter der ti liegt.
 
2017 entwickelt sich in gewisser Weise zum Jahr des "Fan-/Läster-Boy"-Karmas. Warum?^^

Ryzen betritt die Bühne, hat einige (Start)Schwierigkeiten in Games und leidet an hohen Speicherzugriffs-Latenzen, Nasen werden gerümpft. Kurze Zeit später, Intels Mesh-Design (Skylake-X) offenbart ganz ähnliche Schwächen/Probleme, ein hoher Takt mit allen negativen Folgen soll's richten (je nach Game will es dennoch nicht klappen, die unberechenbare Inkosistenz in Games bleibt).

RX Vega wird gelauncht, neben der enttäuschenden Leistung werden allen voran die Verfügbarkeit und die realen Marktpreise stark kritisiert. Einige Wochen später wird Coffee Lake in den Markt entlassen, die Verfügbarkeit und Retail-Verkäufe (in Shops) zum Start unterbieten spielend die zuvor belächelten/geringen Zahlen von RX Vega. Die realen Preise der Hexa-Cores weichen auch "leicht" vom theoretischen UVP ab, Caseking lässt das eigene geringe Kontingent versilbern, was die Preise noch schriller erscheinen lässt als die realen Marktpreise von Vega.

Nvidia liefert mit einem (Wunder)Treiber rund eine Woche nach dem Release von Forza 7 einen fulminanten Performance-Sprung, Freude und vor allem Erleichterung macht sich breit. Schultern werden geklopft, Nvidias Treiberabteilung wird gewürdigt, quer durch alle IT-Foren, man kann auf das Erreichte stolz sein. (Dass AMD für solche "Verzögerungen" oft geteert und gefedert wird/wurde... man muss auch mal Fünfe gerade sein lassen!). Heute liefert AMD am Releasetag von Mittelerde: Schatten des Krieges einen Treiber der ebenfalls einen (unerwarteten) Performance-Sprung bringt... ich klopfe auf den Tisch. ...und bin amüsiert, wegen den Entwicklungen der letzten Monate, Wochen und Tage :)
 
Zuletzt bearbeitet von einem Moderator:
Und wieder ein Spiel bei dem wahrscheinlich sogar die RX 56 vor einer Custom GTX 1080 liegt. :D

und wieder 7 spiele wo die für toterklärte 780Ti OC in fast allen titeln an einer 290x vorbeizieht und das 2017
Reifen wie Wein, ha ha ha .
Die minframes sind bei NVIDIA viel höher.
Das sich eine 290X kaum übertakten liess im vergleich vergessen wieder alle, orientiert euch weiterhin an der Stock.

LINK
GTX 780Ti DC2 vs R9 290X Gaming In 7 Games - YouTube

Und auch die beliebteste CPU on the Planet (2500k) ist für karten ala1080/1080Ti deutlich zu langsam, trotzdem behauptet fast jeder das gegenteil.
Sehr viel ahnungslose, leider.

LINK

YouTube

LINK

YouTube

Für viele die perfekte kombi.
 
Zuletzt bearbeitet:
Zurück