Titanfall Grafikkarten-Benchmarks - 2-GiB-Karten mit enormen Problemen

Ob 40 FPS spielbar sind bleibt daher jedem selbst überlassen!
Man sollte in dem Zusammenhang auch noch erwähnen, dass 40 fps nicht gleich 40 fps ist. Viele Spiele neigen zu einem immer höheren Input Lag, je niedriger die Framerate ausfällt. Sie fangen nicht an zu ruckeln, sondern laggen immer mehr. Bei 30 fps kann dieser Lag dann schonmal eine halbe Sekunde lang sein.

Ein Multiplayer Shooter ist mit solch einem Lag praktisch unspielbar. Und laut Aussage von PCGH Phil heute morgen neigt Titanfall zu dieser Art Lag.
 
muss man sich jetzt neuerdings hardware kaufen weil die spieleentwickler nur noch deppen bei der programmierung einstellen und/oder geld sparen wollen? früher hat man sich neue hardware gekauft wenn die grafik fantastisch war und das spiel auf max laufen sollte, nicht weil ein grafisch schlechtes spiel für zwischendurch überhaupt mal spielbar sein sollte ... das nennt man kostenumverteilung an den endverbraucher, eine bodenlose frechheit ist das!
 
Jetzt mal ohne Witz, das Spiel ist einfach LAUSIG programmiert, anders kann ich mir die grottige Performance nicht erklären. :daumen2:
naja ich denke, gerade da Titanfall ein paar frische Ideen hat, ist dem ja nicht so, denn diese müssen auch gut implementiert sein und programmiert sein.
Außerdem läuft das Spiel ja auf einem SoC der von der Leistungsklasse einem Laptop entspricht flüssig. Also es ist nicht lausig programmiert, sondern die Optimierungen für PC sind halt dann etwas dünn ausgefallen...
muss man sich jetzt neuerdings hardware kaufen weil die spieleentwickler nur noch deppen bei der programmierung einstellen und/oder geld sparen wollen? früher hat man sich neue hardware gekauft wenn die grafik fantastisch war und das spiel auf max laufen sollte, nicht weil ein grafisch schlechtes spiel für zwischendurch überhaupt mal spielbar sein sollte ... das nennt man kostenumverteilung an den endverbraucher, eine bodenlose frechheit ist das!
neuerdings?
Das ist seit vielen Jahren so. Du musst ja auch für GTA4 und bald 5 eine aktuelle Hardware haben, obwohl es auf der PS3 und Xbox 360 läuft. Alan Wake usw usf. Das ist kein "neuer" Trend, das ist einfach eine Kosten-Nutzen Rechnung.
Spieleentwickler müssten für PC Optimierung viel Geld hinblättern. Der PC Markt ist aber nunmal nur 10% der Konsolenmarkt die restlichen 90%. Man schaut also an, welche Hardware diese 10% so haben, und da eh die meisten Spieler eine aktuelle HW haben, braucht man nicht für 5 Jahre alte Systeme optimieren.
 
Interessant ist aber auch 290X vs 780Ti und Titan, wo die Differenz im letzteren Fall definitiv nicht an der Speicherbestückung liegt ;)
Da hat Nvidias gottgleiche Treiberabteilung noch ein paar Rätsel zu lösen. ^^

Genau, das liegt an Nvidia's Treiberabteilung. Auf keinen Fall, ich wiederhole: Auf keinen Fall kann es an der 15 (!) Jahre alten Engine liegen.. :lol:
 
Ich hab eine GTX 460 und hab in den Einstellungen alles auf niedrig und hab meine 60 FPS :3 Was jetzt wieder interessant werden würde, ist der Ram als Grafikspeicher, wenn Titanfall den eh nur mit den Videos zumüllt. Nur dann Ingame den GDDR5 Speicher anzusprechen, wird wahrscheinlich zu kompliziert sein.
PS: Ich bin kein Experte
 
Genau, das liegt an Nvidia's Treiberabteilung. Auf keinen Fall, ich wiederhole: Auf keinen Fall kann es an der 15 (!) Jahre alten Engine liegen.. :lol:
zum Unterschied beim RAM:
Die Ti hat 10% mehr GPU und RAM Takt, klar ist sie 10% schneller, das hat weder mit der Engine zu tun, noch mit den Treibern. Erstere müsste so programmiert sein, dass die 6 GB vollgefüllt sind, damit man den Unterschied zu 4 GB Merkt, oder einfach ein HD Texture Pack verwenden oder höhere Auflösungen fahren (aber, dann läuft man früher oder später in ein GPU Limit).
Die Radeon 280 zeigt ja deutlich, dass das Spiel knapp über 2 GB braucht um perfekt zu funktionieren. Mehr als 3 GB bringen nämlich genau nix mehr (zumindest in den getesteten Auflösungen)
Das die AMD Karte vorne liegt, kann natürlich, wie du schon erwähnt hast, an der 12 Jahre alten Engine liegen (wie kommst du auf 15? Half Life 2 erschien 2004, die Arbeiten an der Engine dafür waren 2002 abgeschlossen, aber die engine wird ja stets weiterentwickelt), oder aber auch, weil derzeit die Konsolen AMD GPUs verwenden ;)
Ich hab eine GTX 460 und hab in den Einstellungen alles auf niedrig und hab meine 60 FPS :3 Was jetzt wieder interessant werden würde, ist der Ram als Grafikspeicher, wenn Titanfall den eh nur mit den Videos zumüllt. Nur dann Ingame den GDDR5 Speicher anzusprechen, wird wahrscheinlich zu kompliziert sein.
PS: Ich bin kein Experte
laut PCGH geht es eben schon ohne Videos ;) Artikel lesen :)
 
Zuletzt bearbeitet:
Jetzt fällts mir nach dem ganzen Flamewar hier gerade erst auf. Ne R9 280X klebt der Titan an den Fersen und ist 25-30 FPS schneller als die GTX770.

Unabhängig vom VRAM Verbrauch, da läuft gewaltig was falsch. :ugly:

Bei diesem Benchmark zeigt sich aber ein anderes Bild: Titanfall Beta im Benchmark-Parcours: Erste Grafikkarten-Tests
Seid ihr sicher, dass eure Testmethoden (mit Vsync und co) auch wirklich richtig sind?
 
Jetzt fällts mir nach dem ganzen Flamewar hier gerade erst auf. Ne R9 280X klebt der Titan an den Fersen und ist 25-30 FPS schneller als die GTX770.

Unabhängig vom VRAM Verbrauch, da läuft gewaltig was falsch. :ugly:

Bei diesem Benchmark zeigt sich aber ein anderes Bild: Titanfall Beta im Benchmark-Parcours: Erste Grafikkarten-Tests
Seid ihr sicher, dass eure Testmethoden (mit Vsync und co) auch wirklich richtig sind?
naja wie gesagt: in den Konsolen ist CGN Architektur, die Sourceengine wurde damals gemeinsam mit ATI Entwickelt, könnten 2 Gründe sein, warum es jetzt noch auf AMD besser läuft. Würde mich nicht wundern, wenn sich dieser Trend fortsetzt.
 
wie kommst du auf 15? Half Life 2 erschien 2004, die Arbeiten an der Engine dafür waren 2002 abgeschlossen, aber die engine wird ja stets weiterentwickelt

Ja, sie wird weiterentwickelt und neue Effekte werden reingeklatscht. Aber das Grundgerüst muss sowas nicht unbedingt gut vertragen und das ist wie gesagt 15 Jahre alt:

Die Engine wurde über fünf Jahre (von etwa 1999 bis 2004) für das Spiel Half-Life 2 als Ablösung für die bewährte Half-Life-Engine (GoldSrc) entwickelt. Das Hauptaugenmerk wurde dabei auf größtmögliche Kompatibilität zum Vorgänger gelegt, insbesondere auf die Unterstützung von BSP-Bäumen. Nach Aussagen von John Carmack beinhaltet die Engine Codefragmente der Quake-Engine.

Quelle

15 Jahre alt, damals schon auf Abwärtskompatibilität zu Goldsource getrimmt und mit Bestandteilen der Quake-Engine, auch wenn davon bestimmt (hoffentlich) nicht mehr viel übrig ist.
Damit überholt EA auf einen Schlag mühelos CoD was die älteste/schlechteste vorstellbare Technik in einem AAA-Titel angeht. Da muss sogar schon WoW zittern. Egal, der Rubel muss rollen.. :)
 
Ja, sie wird weiterentwickelt und neue Effekte werden reingeklatscht. Aber das Grundgerüst muss sowas nicht unbedingt gut vertragen und das ist wie gesagt 15 Jahre alt:
Naja, so richtig kann man das nicht als 15 Jahre alt bezeichnen: weil die Planungsphase ja nicht mitzählt. Aber ja, sie ist uralt :(
 
15 Jahre alt, damals schon auf Abwärtskompatibilität zu Goldsource getrimmt und mit Bestandteilen der Quake-Engine, auch wenn davon bestimmt (hoffentlich) nicht mehr viel übrig ist.
Damit überholt EA auf einen Schlag mühelos CoD was die älteste/schlechteste vorstellbare Technik in einem AAA-Titel angeht. Da muss sogar schon WoW zittern. Egal, der Rubel muss rollen.. :)

Die aktuelle IW-Engine aus CoD Ghosts enthält höchstwahrscheinlich auch noch Basis-Code-Zeilen aus dem Q3TA-Grundgerüst des ersten Call of Duty von 2003. WoW indes wird oft für seine Technik gerügt, unterstützt aber schon ewig DX11 zur Beschleunigung sowie 64 Bit und bietet eine ganz vernünftige Multicore-Unterstützung. :devil:

MfG,
Raff
 
naja wie gesagt: in den Konsolen ist CGN Architektur, die Sourceengine wurde damals gemeinsam mit ATI Entwickelt, könnten 2 Gründe sein, warum es jetzt noch auf AMD besser läuft. Würde mich nicht wundern, wenn sich dieser Trend fortsetzt.
Das liegt einzig und allein an dem verhunzten VRam Hunger von Titanfall. Der Engine ist es ziemlich egal ob eine GCN-Karte im Rechner ist oder nicht. Bei den 2GB Karten die in etwa auf einem Niveau sind (GTX 660 & 7870), sieht man doch eindeutig, dass bei gleicher VRam Menge keine Karte explizit mehr Performance hat.
 
Das liegt einzig und allein an dem verhunzten VRam Hunger von Titanfall. Der Engine ist es ziemlich egal ob eine GCN-Karte im Rechner ist oder nicht. Bei den 2GB Karten die in etwa auf einem Niveau sind (GTX 660 & 7870), sieht man doch eindeutig, dass bei gleicher VRam Menge keine Karte explizit mehr Performance hat.

Titan (bzw. auch 780Ti) <-> 290X gesehen? Der Speicher kann zumindest im ersten Fall nicht der Grund sein, und der Vergleich von Titan und 780Ti untereinander zeigt auch, dass die 3GB der Ti nicht der Bremsklotz sind. Ich gehe definitiv davon aus, dass NV hier per Treiberupdate noch einiges machen kann.
 
Zuletzt bearbeitet:
Zurück