Fallout 76 im Techniktest: Geforce RTX mit hohen Fps

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Fallout 76 im Techniktest: Geforce RTX mit hohen Fps

Test mit Benchmarks: Mit Fallout 76 hat Bethesda einen Serienableger der populären Fallout-Reihe veröffentlicht, dessen Aufnahme bei Spielern und Fans wohl am besten mit dem Adjektiv "kontrovers" beschrieben wird. Nachdem einige Patches erschienen sind, die unter anderem Performance-Probleme beseitigten, durchstreifen wir mit Benchmark-Tools und 14 Grafikkarten bewaffnet durch die post-apokalyptische Landschaft West Virginias.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Fallout 76 im Techniktest: Geforce RTX mit hohen Fps
 
Liegt an dem veralteten 8700k und dem CPU Limit ;-)
Und in 1440p limitiert die CPU dann nicht mehr? :schief:

Steht doch im Text, dass die Engine macht was sie will und einfach kacke zu messen ist.

Das CPU Limit ist bei 150/175 fps, was man gut in FullHD sieht und was im Text auch angesprochen wird.
 
Der einzige Grund für die schlechte Fallout4 Performance sind die absolut übertrieben tessellierten NV-Godrays. Das sollte der Redaktion aber eh bekannt sein.
 
Damit das Nvidiakarten in diesem Spiel nur ganz leicht bevorteiligt werden hätte ich nicht gerechnet. Wurde die Tessellation normalisiert? :ugly:

Was ich mich bzgl. Fallout 76 aber am meisten frage ist, ob es bei diesem durchschlagenden Erfolg überhaupt noch eine reine Steamversion geben wird? In dem Fall hätte ich es mir früher oder später doch mal angeschaut. Brauche keinen unnötigen weiteren Launcher.
 
Fand schon Fallout 4 nicht wirklich stark. Und jetzt wird aus der Fallout Reihe auch noch ein Multiplayerspiel gemacht. Als wenn es nicht schon genug davon auf dem Markt gäbe. :klatsch:
 
@Redaktion
Die RTX'en finde ich jetzt nicht so bemerkenswert, weil die Engine auf nVidia eigentlich schon immer schnell war, die 980ti - die dann unter 1440p sogar die 1070 ledert. Nett.

Gerüchten zufolge hat "iPresentIntervall=0" ab einer Versionsnummer keine Wirkung mehr gezeigt und im Zeitraum der Zusammenarbeit von Bethesda mit AMD hat wohl auch ein Profil den Weg in den Treiber gefunden, der den .ini Eintrag "0" unter Display ignorierte.

Schön das ihr andere Erfahrungen gesammelt habt.
 
Echt jetzt? Wär ja auch merkwürdig, wenn Nvidias neue/preisintensive Grafikgeneration keine hohe Frames liefern könnte...:D

Ich finde ehrlich gesagt nicht dass die hoch sind. Ich meine in 4K wofür die High-End Karten da sind ist ne 2080Ti grade mal 25% schneller als ne über 2 Jahre alte 1080Ti. Das ist gefühlt fast schon im "egal"-Bereich, die konstanten 60fps schaffen beide.

Interessanter ist eher, wie die 6GB-1060 einknickt während die 8GB-580 weiterrennt. Da ist bei den minFPS bei sonst +/- gleich schnellen Karten dann mal 270% mehr drin für die RX. Und wir reden hier von spielbaren 30 fps, nicht von irgendwelchen 10-fps-Einstellungen (was immer das Hauptargument der NV-Käufer war, "bis 6GB zu wenig sind ist die GPU sowieso zu langsam" - eben nicht). So langsam kommen wir also in den Bereich, wo 6GB und 4GB-Karten in arge Schwierigkeiten kommen wenn man nicht vRAM-intensive Regler wieder nach links schiebt.
 
Ich finde ehrlich gesagt nicht dass die hoch sind. Ich meine in 4K wofür die High-End Karten da sind ist ne 2080Ti grade mal 25% schneller als ne über 2 Jahre alte 1080Ti. Das ist gefühlt fast schon im "egal"-Bereich, die konstanten 60fps schaffen beide.

Interessanter ist eher, wie die 6GB-1060 einknickt während die 8GB-580 weiterrennt. Da ist bei den minFPS bei sonst +/- gleich schnellen Karten dann mal 270% mehr drin für die RX. Und wir reden hier von spielbaren 30 fps, nicht von irgendwelchen 10-fps-Einstellungen (was immer das Hauptargument der NV-Käufer war, "bis 6GB zu wenig sind ist die GPU sowieso zu langsam" - eben nicht). So langsam kommen wir also in den Bereich, wo 6GB und 4GB-Karten in arge Schwierigkeiten kommen wenn man nicht vRAM-intensive Regler wieder nach links schiebt.

Naja Fairerweise erst in UHD zu bemerken. Aber die Tendenz ist schon klar erkennbar. Ich hab meine 1060 auch in UHD betrieben, das würde man leidlich spüren in dem Spiel.
Interessant hier ist die guter Performance der 980ti wie ich finde. Die 970 stirbt wie gehabt wegen Ihrem Krüppelspeicher. Die Karte war echt mal ein Fail, die Leute die das Ding noch benutzen tun mir leid.
 
Bricht die Leistung der Krüppel-GTX 970 jetzt in jedem Spiel so dermaßen unspielbar ein? LOL
Ich kann mir ein wenig Häme gegenüber der Grünen Fraktion nicht verkneifen, die diese Karte und den Hersteller so vehement verteidigt haben.
 
Naja Fairerweise erst in UHD zu bemerken. Aber die Tendenz ist schon klar erkennbar. Ich hab meine 1060 auch in UHD betrieben, das würde man leidlich spüren in dem Spiel.
Interessant hier ist die guter Performance der 980ti wie ich finde. Die 970 stirbt wie gehabt wegen Ihrem Krüppelspeicher. Die Karte war echt mal ein Fail, die Leute die das Ding noch benutzen tun mir leid.

Wieso? Besser eine GTX 970 haben als mit einer intergrierten Grafikeinheit zocken. :-D Und wer nur in 1080p zockt, der dürfte auch noch mit der GTX 970 seinen Spaß haben.

Ich bin einer dieser Krüppelbesitzer :rollen:
Ich spiele in 1080p und hatte bisher nie Probleme, ausser ich habe es mit Mods übertrieben :D
Aber in Fallout 76 habe ich regelmäßig sehr anstrtengende Framdrops. Dann muss ich doch bald über ein Hardware Update nachdenken :schief:

Und gibt`s in Fallout 76 keine Grafikregler?
 
Zuletzt bearbeitet:
Ich bin einer dieser Krüppelbesitzer :rollen:
Ich spiele in 1080p und hatte bisher nie Probleme, ausser ich habe es mit Mods übertrieben :D
Aber in Fallout 76 habe ich regelmäßig sehr anstrtengende Framdrops. Dann muss ich doch bald über ein Hardware Update nachdenken :schief:
 
Bricht die Leistung der Krüppel-GTX 970 jetzt in jedem Spiel so dermaßen unspielbar ein? LOL
Ich kann mir ein wenig Häme gegenüber der Grünen Fraktion nicht verkneifen, die diese Karte und den Hersteller so vehement verteidigt haben.
Die Karte hat nur 3,5GB nutzbar und stößt deswegen eher ans Limit.
 
Ich finde ehrlich gesagt nicht dass die hoch sind. Ich meine in 4K wofür die High-End Karten da sind ist ne 2080Ti grade mal 25% schneller als ne über 2 Jahre alte 1080Ti. Das ist gefühlt fast schon im "egal"-Bereich, die konstanten 60fps schaffen beide.
Das ist doch der normale bekannte Vorsprung der 2080Ti bei gleichem Takt. :ka: Eines der wenigen Ergebnisse, die nicht irgendwie seltsam sind.

Warum liegt die 980Ti OC so weit vorne (die Karte liegt praktisch nie vor der 1070 OC)?
Warum sind in 4K die min.fps der drei schnellsten GPUs gleich, die avg.fps aber nicht (VRam Limit kann es nicht sein, da von 8 bis 11G alles vertreten ist)?
Warum bricht in 4K die 390 8G genauso wie die 1060 6G ein, die 580 8G aber nicht?

edit: Wobei... die 390/580 VRam Ergebnisse könnte man mit der Texturkompression, die es bei bei AMD seit Polaris gibt, erklären. 8G ohne Kompression scheinen zu wenig zu sein für 4K. Ergo könnte bei den gleichen min.fps der großen GPUs doch ein VRam Limit vorliegen, weil die Kompression unterschiedlich arbeitet.

Das wäre so das Auffälligste.

Die 2070 OC rennt der 1080 OC auch gut davon, aber das hält sich ja noch halbwegs im Rahmen.
 
Zuletzt bearbeitet:
Die 2070 OC rennt der 1080 OC auch gut davon, aber das hält sich ja noch halbwegs im Rahmen.
Auch nur weil ein A Chip drauf ist. Non A dürfte kaum schneller sein. Aus den Ergebnissen ergibt sich für mich eher eine gute skalierung mit Bandbreite.
Das sieht man gut an der Differenz der 56er Devil zur 64er LC. Hier liegt wohl eine Bandbreitenlimitierung vor. Deswegen dürfte die 2070 auch besser abschneiden als die 1080.
 
Aus den Ergebnissen ergibt sich für mich eher eine gute skalierung mit Bandbreite.
Ja kritisch wird ab 6GiB wohl Bandbreite und Datenkompression sein, sonst würde die 390 nicht so wegbrechen, die 980Ti aber schon.

Und 4GiB sind generell zu wenig.

Für 4K:
1060 6G: Kompression, aber keine Bandbreite: bricht weg
980Ti 6G: Kompression und Bandbreite: bricht nicht weg
390 8G: keine Kompression aber Bandbreite: bricht weg
580 8G: Kompression, keine Bandbreite, aber 8G: bricht nicht weg
970 3,5G: hoffnungsloser Fall schon weit unterhalb von 4K
 
Das sieht man gut an der Differenz der 56er Devil zur 64er LC. Hier liegt wohl eine Bandbreitenlimitierung vor.
Das gibt sich demnächst, wenn man mit einem VR Set auf Cortana fragt ob WattMan nicht automatisch den HBM Speichertakt bei der 56 erhöhen könnte...Devil passt ja dazu.:devil:

Das mit den 6GB kann nicht stimmen, die 980ti sieht zu gut aus. Aber eine 1060 unter UHD, das ist doch Tortúr, unfairer Vergleich. Und die 590 wird unter DX12 immer schneller.:)
 
Zurück