Chinaquads
Volt-Modder(in)
Jetzt mal ohne Witz, das Spiel ist einfach LAUSIG programmiert, anders kann ich mir die grottige Performance nicht erklären.
Man sollte in dem Zusammenhang auch noch erwähnen, dass 40 fps nicht gleich 40 fps ist. Viele Spiele neigen zu einem immer höheren Input Lag, je niedriger die Framerate ausfällt. Sie fangen nicht an zu ruckeln, sondern laggen immer mehr. Bei 30 fps kann dieser Lag dann schonmal eine halbe Sekunde lang sein.Ob 40 FPS spielbar sind bleibt daher jedem selbst überlassen!
Es ist doch die GTX680 4GB an Bord, die Performance ist im Rahmen von ein paar Prozent identisch.Interesant wäre hier ein Vergleich der GTX770 4GB mit R9 280X 3GB
naja ich denke, gerade da Titanfall ein paar frische Ideen hat, ist dem ja nicht so, denn diese müssen auch gut implementiert sein und programmiert sein.Jetzt mal ohne Witz, das Spiel ist einfach LAUSIG programmiert, anders kann ich mir die grottige Performance nicht erklären.
neuerdings?muss man sich jetzt neuerdings hardware kaufen weil die spieleentwickler nur noch deppen bei der programmierung einstellen und/oder geld sparen wollen? früher hat man sich neue hardware gekauft wenn die grafik fantastisch war und das spiel auf max laufen sollte, nicht weil ein grafisch schlechtes spiel für zwischendurch überhaupt mal spielbar sein sollte ... das nennt man kostenumverteilung an den endverbraucher, eine bodenlose frechheit ist das!
Interessant ist aber auch 290X vs 780Ti und Titan, wo die Differenz im letzteren Fall definitiv nicht an der Speicherbestückung liegt
Da hat Nvidias gottgleiche Treiberabteilung noch ein paar Rätsel zu lösen. ^^
zum Unterschied beim RAM:Genau, das liegt an Nvidia's Treiberabteilung. Auf keinen Fall, ich wiederhole: Auf keinen Fall kann es an der 15 (!) Jahre alten Engine liegen..
laut PCGH geht es eben schon ohne Videos Artikel lesenIch hab eine GTX 460 und hab in den Einstellungen alles auf niedrig und hab meine 60 FPS :3 Was jetzt wieder interessant werden würde, ist der Ram als Grafikspeicher, wenn Titanfall den eh nur mit den Videos zumüllt. Nur dann Ingame den GDDR5 Speicher anzusprechen, wird wahrscheinlich zu kompliziert sein.
PS: Ich bin kein Experte
naja wie gesagt: in den Konsolen ist CGN Architektur, die Sourceengine wurde damals gemeinsam mit ATI Entwickelt, könnten 2 Gründe sein, warum es jetzt noch auf AMD besser läuft. Würde mich nicht wundern, wenn sich dieser Trend fortsetzt.Jetzt fällts mir nach dem ganzen Flamewar hier gerade erst auf. Ne R9 280X klebt der Titan an den Fersen und ist 25-30 FPS schneller als die GTX770.
Unabhängig vom VRAM Verbrauch, da läuft gewaltig was falsch.
Bei diesem Benchmark zeigt sich aber ein anderes Bild: Titanfall Beta im Benchmark-Parcours: Erste Grafikkarten-Tests
Seid ihr sicher, dass eure Testmethoden (mit Vsync und co) auch wirklich richtig sind?
wie kommst du auf 15? Half Life 2 erschien 2004, die Arbeiten an der Engine dafür waren 2002 abgeschlossen, aber die engine wird ja stets weiterentwickelt
Die Engine wurde über fünf Jahre (von etwa 1999 bis 2004) für das Spiel Half-Life 2 als Ablösung für die bewährte Half-Life-Engine (GoldSrc) entwickelt. Das Hauptaugenmerk wurde dabei auf größtmögliche Kompatibilität zum Vorgänger gelegt, insbesondere auf die Unterstützung von BSP-Bäumen. Nach Aussagen von John Carmack beinhaltet die Engine Codefragmente der Quake-Engine.
Genau, das liegt an Nvidia's Treiberabteilung. Auf keinen Fall, ich wiederhole: Auf keinen Fall kann es an der 15 (!) Jahre alten Engine liegen..
Naja, so richtig kann man das nicht als 15 Jahre alt bezeichnen: weil die Planungsphase ja nicht mitzählt. Aber ja, sie ist uraltJa, sie wird weiterentwickelt und neue Effekte werden reingeklatscht. Aber das Grundgerüst muss sowas nicht unbedingt gut vertragen und das ist wie gesagt 15 Jahre alt:
15 Jahre alt, damals schon auf Abwärtskompatibilität zu Goldsource getrimmt und mit Bestandteilen der Quake-Engine, auch wenn davon bestimmt (hoffentlich) nicht mehr viel übrig ist.
Damit überholt EA auf einen Schlag mühelos CoD was die älteste/schlechteste vorstellbare Technik in einem AAA-Titel angeht. Da muss sogar schon WoW zittern. Egal, der Rubel muss rollen..
Das liegt einzig und allein an dem verhunzten VRam Hunger von Titanfall. Der Engine ist es ziemlich egal ob eine GCN-Karte im Rechner ist oder nicht. Bei den 2GB Karten die in etwa auf einem Niveau sind (GTX 660 & 7870), sieht man doch eindeutig, dass bei gleicher VRam Menge keine Karte explizit mehr Performance hat.naja wie gesagt: in den Konsolen ist CGN Architektur, die Sourceengine wurde damals gemeinsam mit ATI Entwickelt, könnten 2 Gründe sein, warum es jetzt noch auf AMD besser läuft. Würde mich nicht wundern, wenn sich dieser Trend fortsetzt.
Das liegt einzig und allein an dem verhunzten VRam Hunger von Titanfall. Der Engine ist es ziemlich egal ob eine GCN-Karte im Rechner ist oder nicht. Bei den 2GB Karten die in etwa auf einem Niveau sind (GTX 660 & 7870), sieht man doch eindeutig, dass bei gleicher VRam Menge keine Karte explizit mehr Performance hat.
Titan (bzw. auch 780Ti) <-> 290X gesehen? Der Speicher kann zumindest im ersten Fall nicht der Grund sein, und der Vergleich von Titan und 780Ti untereinander zeigt auch, dass die 3GB der Ti nicht der Bremsklotz sind. Ich gehe definitiv davon aus, dass NV hier per Treiberupdate noch einiges machen kann.