Rage 2 mit Apex-Engine - Der rabiate Endzeit-Shooter mit Vulkan-Renderer im Technik-Test

Interessante Benchmarks, auch wenn das kein Spiel für mich ist... mir reicht WWZ vorerst, muss erstmal wieder mit dem rumgeballer klar kommen. :D Schon interessant wie Pascal "stottert" und Vega performt, hätte ich nicht gedacht!
 
Hier wird schon wieder von "Vega zersägt Pascal" und ähnlichem gesprochen:cool: Morgen gibbet schon wieder andere Games und wahrscheinlich andere Bench-Ergebnisse. So und jetzt muss der Papa die kleine GTX 1080 trösten und so wie ich das sehe, werd ich wohl auch nicht um eine Gute Nacht-Geschichte herumkommen. Titel: die Rache der tapferen Pascal...:D

Gruß
 
Morgen kommt dann wieder ein UE4-Game.
Dann liegt wieder die GTX970 vorn.

Jedem Tierchen sein Plessierchen um net zu sagen Plaque....
(dann aber bitte net sagen das Plaque auch in den Parcour muss)

Ansonsten = feine Sache das "wichtige" Devs langsam auf Vulkan umsteigen.
(nur die fetten bequemen Alten net)
 

Anhänge

  • Plaque.PNG
    Plaque.PNG
    29,5 KB · Aufrufe: 64
Zuletzt bearbeitet:
Morgen kommt dann wieder ein UE4-Game.
Dann liegt wieder die GTX970 vorn.

Jedem Tierchen sein Plessierchen um net zu sagen Plaque....
(dann aber bitte net sagen das Plaque auch in den Parcour muss)

Ansonsten = feine Sache das "wichtige" Devs langsam auf Vulkan umsteigen.
(nur die fetten bequemen Alten net)
Jep, läuft exakt wie Ethan Carter Redux mit der UE4 - gleiche Technik (Photogrammetrie), gleiche statische Welt, gleiche relative (!) Performance. Onkel Epic hat die Nvidia Welt mal wieder zurecht gerückt. Inkonsistenz kann man der UE4 jedenfalls nicht vorwerfen. :ugly: Wahrscheinlich gibt's in 10 Jahren kein Spiel mit der Engine, das AMD Karten mal gut auslastet.
 
Was ich bei all dem Texten nicht verstehe sind diese ständig an der Realität vorbei aufgestellten Test-Platformen.

Ich meine ich bitte euch, eine CPU mit 5Ghz!!?
Wer zum Teufel benutzt so etwas? Das Ding kostet geschätzt einen 700er und ist stark übertaktet. So neben bei wird dann auch noch davon erzählt, dass die CPU nicht so eine Rolle spielt. :-O?
Ein Paradoxon??

Warum schiesst Ihr den mit der BFG auf Spatzen wenn das so ist? (DeluxeEdition vorausgesetzt ;-)
 
Was ich bei all dem Texten nicht verstehe sind diese ständig an der Realität vorbei aufgestellten Test-Platformen.

Ich meine ich bitte euch, eine CPU mit 5Ghz!!?
Wer zum Teufel benutzt so etwas? Das Ding kostet geschätzt einen 700er und ist stark übertaktet. So neben bei wird dann auch noch davon erzählt, dass die CPU nicht so eine Rolle spielt. :-O?
Ein Paradoxon??

Warum schiesst Ihr den mit der BFG auf Spatzen wenn das so ist? (DeluxeEdition vorausgesetzt ;-)
Weil man in einem GPU Test möglichst GPUs testet. Und wenn die CPU limitiert, wird's schwer GPUs zu testen.

Anders ausgedrückt: Die verwendete CPU ist in einem GPU Test vollkommen uninteressant, sie darf nur nicht limitieren. Und um das zu gewährleisten nimmt man einfacherweise einfach die Schnellste.
 
...dass dieser alte Wein(VEGA) nochmal reifen würde hätte ich nicht gedacht.

Dass jedoch eine GTX970 irgend einen Blumentopf gewinnen könnte ist aus dem Reich der Fantasie. -> vergesst es! GTX3,5GB ist auf dem Sterbebett.
 
Weil man in einem GPU Test möglichst GPUs testet. Und wenn die CPU limitiert, wird's schwer GPUs zu testen.

Anders ausgedrückt: Die verwendete CPU ist in einem GPU Test vollkommen uninteressant, sie darf nur nicht limitieren. Und um das zu gewährleisten nimmt man einfacherweise einfach die Schnellste.

Jetzt stell dir mal vor, eine Grakka bringt eine gewisse Leistung die entspricht Ihrer Konkurrenz bei gleicher CPU.

Was glaubst du wie es das Bild verzerrt wenn diese zwei Konkurrenten bei einer schnelleren CPU verglichen werden bei dem einer von beiden besser weg kommt als vorhin.

Diese Momentanaufnahme legt sich nieder auf deren Image, auch wenn Treiber optimierung in Zukunft das vermeintliche Manko ausgleichen werden und wegen des ausbleibens eines 5Ghz Proziss wärend der Lebzeit der Grakka nie ein Manko in erster Linie zustande gekommen wäre !??

Würde mich freuen wenn meine Worte in euren Köpfen ein Bild der Ausgagnslage formen könnte.
 
Zuletzt bearbeitet:
Die 970@FHD reicht noch bis Navi kommt. Sooo schlecht isse net.
Dito die 290x und Fury.

Ein Wechsel auf ne 1660 wird net soviel bringen, das es sich lohnt.(Maxwell 3. Aufguss)
Wäre mir analog RX590 auch zu altbacken von der Technik her.(Polaris 3. Aufguss)
 
Fury war s*cheisse aber die 290(X) war die beste Grafikkarte der letzten Jahren. Hätte ich das damals gewusst hätte ich auf das Pferd gesetzt.

Hatte die 390 und habe occasion die 1080 gekauft. Klarer Fehlkauf, ich schähme mich sogar etwas dafür :-/

So nebenbei
Das NV Treiberpacket ist eine Zumutung!
 
Zuletzt bearbeitet:
Gab einige Fury die sich gut OCen liessen: _ die Reviewer hätten mal den SOC auf 550 nehmen sollen
(net schlechter als FuryX@Stock und Nano ist Kult)
 

Anhänge

  • FURY.PNG
    FURY.PNG
    308,5 KB · Aufrufe: 80
...dass dieser alte Wein(VEGA) nochmal reifen würde hätte ich nicht gedacht.

Dass jedoch eine GTX970 irgend einen Blumentopf gewinnen könnte ist aus dem Reich der Fantasie. -> vergesst es! GTX3,5GB ist auf dem Sterbebett.

Klar in 1440p wo die GPU keine 30 Fps mehr schafft ist das natürlich ein Problem. Oh mein gott der VRAM reicht nicht aus
wo schon lange die GPU selbst nicht ausreicht.

Um in 1440p mit der GPU Klasse zu zocken müsste man so wie Details reduzieren.
 
Jetzt stell dir mal vor, eine Grakka bringt eine gewisse Leistung die entspricht Ihrer Konkurrenz bei gleicher CPU.

Solange die CPU nicht bremst ist es doch in Ordnung

Was glaubst du wie es das Bild verzerrt wenn diese zwei Konkurrenten bei einer schnelleren CPU verglichen werden bei dem einer von beiden besser weg kommt als vorhin

Wenn das passieren sollte war beim ersten Test die CPU ein Bremsklotz der die schnellere Graka auf das Level der langsameren Karte gesetzt hat.

Man kann ja auch einen Pentium 4 einsetzen, oder einen Core2Duo. Dann wären so ziemlich alle Karten gleich schnell.
 
Nach meinem VSync Problem habe ich heute das nächste.

Heute startet das Spiel immer im komischen "2333x1312" Auflösung :ugly:

Umstellen auf 4k wird zwar im Menü als aktiv angezeigt, liegt aber defacto nicht an.

Schalt ich auf Vollbild 2560x1440 um, schaltet er auf 1912x irgendwas.
Versteh den Blödsinn nicht.

Das Game kriegt es einfach nicht gebacken die geforderte Auflösung auch tatsächlich einzustellen. :what:
Vll war es ein Fehler es im Bethesda Launcher zu kaufen.... über diesen geht Denuvo ja auch nicht :lol:

Unbenannt.jpg

Schon alles Probiert, Fenstermodus / Borderless / Vollbild / die verschiedenen Auflösungsskalierungs Modis weil ich dachte vll hat es da irgendwie ein Bug. Also auch das Ausprobiert von "Aus / Ein / Manuell"
Spieldaten überprüfen lassen, komplett gelöscht und neu runter geladen.
Savegame gelöscht, sowie Ordner aus AppData.

Kann doch nicht wahr sein...

Hab vorhin sogar schon den Treiber sauber mit DDU entfernt und komplett neuinstalliert.
Selber Mist.

Dabei lief das doch gestern noch und am System wurde nichts geändert :rollen:
 
@LDNV
Evtl. verändert das Setting vom Sichtfeld die Auflösung.
Oder ähnliche Slider für dyn. Kantenglättung, Auflösungsskalierung o.ä. ?
(habe das Game leider net)
 
Hallo,

ich habe gestern mal Rage 2 angetestet. Hab eine Nvidia Karte. Läuft alles super auf 1440p Ultra. Auflösungsskalierung habe ich ausgestellt.

Kann das sein, dass die Texturen von Rage generell nicht so knackig scharf und zeitgemäß aussehen?

Optisch sieht es so wie bei Quantum Break mit Auflösungsskalierung eingeschaltet aus.

Spielerisch und der Rest ist sonst Top bisher. (Ersteindruck) Aber im optischen Bereich bin ich etwas enttäuscht.
 
VSync an -> An der selben Stelle wo es flüssig ist, fängt es auf einmal an zu ruckeln.
Guckt man wieder in den Himmel -> wieder flüssig -> guckt man wieder auf die Stelle wo es VORHER noch geruckelt hat -> Flüssig. Nach ein paar Sekunden später an GLEICHER Stelle, auf einmal wieder ruckelei. :what: ohne das sich irgendwas verändert hätte.

An den FPS liegt es nicht, ohne VSync immer über 60, an besagter Test stelle von mir sogar über 70.

Im Spiel Vsync an lief bei mir in den letzen Jahren noch nie wirklich gut. Da traten zu oft einfach Ruckler auf. Egal ob bei einer Nvidia oder AMD Karte. Wie gesagt treiberseitig Enchanted Sync oder Fast sync nutzen. Alternativ kann man das auch mit Gsync / Freesync und einen framelimiter in den Griff bekommen.
 
Zurück