Far Cry 6 im Technik-Test: Raytracing für die Grafikspeicher-Revolution

Echt Strange. Bei mir ist die Performance mit dem 496.13 so wie mit dem 472.12 und der 471.96 ist reproduzierbar etwas schwächer.
 
Bei mir ist er sogar noch schlimmer, das Speichermanagment ist nun etwas besser aber der Treiber braucht anscheinend mehr CPU Leistung, mein 4Kerner ist am kotzen bei dem Spiel.
Mhhhhh, sollte nvidia da mal etwas an der Programmierung verkackt haben....?
Ist ja selten, kann aber denen auch mal passieren (erinnere mich da an einen Treiber, der meine damalige 780Ti in The Witcher 3 sehr schlecht hat aussehen lassen - sogar schlechter als die 970 - wenn ich da nicht etwas durcheinander würfel xD )
Der nachfolgende Treiber hatte dies dann wieder ausgebügelt - war trotzdem nicht nett.

Naja, bin mal gespannt, wie sich das Thema weiterentwickelt...
 
Verstehe ich das richtig, dass sich bei jedem von euch ein anderes Bild zeichnet durch die unterschiedlichen Treiberversionen? Was ist denn da los? Habt ihr zufällig alle unterschiedliche Windowsversionen?
 
Verstehe ich das richtig, dass sich bei jedem von euch ein anderes Bild zeichnet durch die unterschiedlichen Treiberversionen? Was ist denn da los? Habt ihr zufällig alle unterschiedliche Windowsversionen?
Ich habe sowohl mit Windows 10 als auch Windows 11 getestet. Das macht bei mir keinen Unterschied. Allerdings habe ich auch eine Intel CPU und eine 3090 im Gegensatz zu den anderen.
 
Habe den neuen Treiber nun auch getestet.

Textursituation nun etwas besser, zu Matschtexturen kommt es trotzdem im Laufe des Spiel, die verschwinden dann wieder und kommen an einer anderen Stelle.
 
Naja ich hab einen 4Kerner derzeit mit 8Threads und ne 8GB Karte.
Ich muss mal schauen evtl hab ich auch Frameeinbrüche wegen dem Vram.
 
Hmm also mit meiner Vega 56 verbraucht FC6 ziemlich genau 11,5 gb Vram ... sehe da jetzt nicht was an der aussage von UbiSoft nicht stimmen sollte ...
Speicher ist eben wie Hubraum durch nichts zu ersetzen außer Drehzahl sprich HBCC hust ;)
 
Wir warten immer noch auf einen Patch - Version 1.2.0 wäre angesichts der vielen mehr oder minder kleinen Problemchen überfällig. Vorher testen wir nichts mehr, zumal wir gerade unzählige andere On- und Offline-Baustellen haben.

MfG
Raff
 
Also ich verstehe nicht ganz was das Problem ist. Die Hardware bekomme ich nicht auf 100% ausgelastet, weder CPU, noch GPU @WQHD 2560 x 1440 All Ultra +DXR + HD Textures, geschweige den VRAM. Sehe auch keine aufpoppenden Texturen oder sowas... Das Bild ist aber relativ unruhig, für meinen Geschmack...

Zu sehen am Stromverbrauch

Treiber 496.13

Edit: Die bäume im letzten Bild am Rand sehen unschön aus... Bin mal auf den PAtch gespannt und spiele dann mal weiter.
 

Anhänge

  • Far Cry® 62021-10-13-21-7-52.jpg
    Far Cry® 62021-10-13-21-7-52.jpg
    559,1 KB · Aufrufe: 59
  • Far Cry® 62021-10-14-21-48-48.jpg
    Far Cry® 62021-10-14-21-48-48.jpg
    500,8 KB · Aufrufe: 51
  • Far Cry® 62021-10-14-22-18-27.jpg
    Far Cry® 62021-10-14-22-18-27.jpg
    862,5 KB · Aufrufe: 47
  • Far Cry® 62021-10-14-22-24-18.jpg
    Far Cry® 62021-10-14-22-24-18.jpg
    843,5 KB · Aufrufe: 49
  • Far Cry® 62021-10-14-22-29-7.jpg
    Far Cry® 62021-10-14-22-29-7.jpg
    936,8 KB · Aufrufe: 65
Zuletzt bearbeitet:
Also ich verstehe nicht ganz was das Problem ist. Die Hardware bekomme ich nicht auf 100% ausgelastet, weder CPU, noch GPU @WQHD 2560 x 1440 All Ultra +DXR + HD Textures, geschweige den VRAM. Sehe auch keine aufpoppenden Texturen oder sowas... Das Bild ist aber relativ unruhig, für meinen Geschmack...

Zu sehen am Stromverbrauch

Treiber 496.13

Edit: Die bäume im letzten Bild am Rand sehen unschön aus... Bin mal auf den PAtch gespannt und spiele dann mal weiter.

Alles unter ~97% GPU Auslastung = CPU Limit, RAM Limit, VRAM Limit oder Software Limit.
Beim 2. Bild bist du eindeutig im GPU Limit, bei 2 anderen evtl und bei den anderen beiden höchstwahrscheinlich im CPU Limit.
 
Alles unter ~97% GPU Auslastung = CPU Limit, RAM Limit, VRAM Limit oder Software Limit.
Beim 2. Bild bist du eindeutig im GPU Limit, bei 2 anderen evtl und bei den anderen beiden höchstwahrscheinlich im CPU Limit.
Schau mal auf die Watt Anzeige, definitiv kein GPU Limit. Die Karte saugt bei 100% 345 Watt. Es springt immer wieder mal kurz auf 99% , aber der Verbrauch ist konstant deutlich unter 300 Watt, in jedem anderen Game verbraucht die GPU 345 Watt auf Anschlag. Das sieht man auch an der Temperatur…
Auf den Screens nicht zu sehen, weil aufm Zweitmonitor, kein CPU Kern war jeweils auf 100%. Zu keiner Zeit… Seltsam ich weiss.
 
Schau mal auf die Watt Anzeige, definitiv kein GPU Limit. Die Karte saugt bei 100% 345 Watt. Es springt immer wieder mal kurz auf 99% , aber der Verbrauch ist konstant deutlich unter 300 Watt, in jedem anderen Game verbraucht die GPU 345 Watt auf Anschlag. Das sieht man auch an der Temperatur…

Muss noch lange nichts heißen, manche Spiele brauchen mehr Saft, andere weniger. Wenn das GPU Limit springt, dann wechselst du halt öfter mal von GPU zu CPU Limit.

Auf den Screens nicht zu sehen, weil aufm Zweitmonitor, kein CPU Kern war jeweils auf 100%. Zu keiner Zeit… Seltsam ich weiss.

Kein CPU Kern muss auf 100% sein, Windows verteilt die Last.
 
Muss noch lange nichts heißen, manche Spiele brauchen mehr Saft, andere weniger. Wenn das GPU Limit springt, dann wechselst du halt öfter mal von GPU zu CPU Limit.
Sorry, ergibt kein Sinn, dass eine CPU limitierte Karte exakt das selbe verbraucht, wie eine ohne Limit die auf Anschlag läuft. Wenn die Karte 100% läuft, dann nutzt sie auch das PL. macht sie übrigens in FC5 auch… Wäre mir neu das eine GPU die ackern muss, so dass sie der limitierender Faktor ist, nicht ihr gesamtes PL Budget nutzt. Habe ich in 20 Jahren nicht gesehen.
Kein CPU Kern muss auf 100% sein, Windows verteilt die Last.
Wenn kein kern 100% hat, dann ist sie auch nicht limit. Merkt man allein schon daran, wenn ich dxr aus mache läuft das Game mit mehr als 100 FPS an den selben Stellen, die karte aber mit 70% GPU Last.

Ich mach mal morgen vergleiche mit Monitoring Daten, dann kannst du dich selbst davon überzeugen…
 
Zuletzt bearbeitet:
Ich verstehe nicht, was Du da für einen Zusammenhang schmiedest.
Graka langweilt sich: In der Regel CPU-Limit.
Irgenwas auf 100%? Seit 2005 nicht mehr, es sei denn Du hast CPPC oder Intel Turbo Boost 3.0 im Bios aktiviert, aber dann wird das vom System VORSÄTZLICH auf irgend einem Kern zusammengeparkt, und hat nix mit dem Game an sich zu tun, weil einfach alles zusammengefahren wird, was gerade Last erzeugt.

2005 nicht erlebt? Da war jede Software Singlethreaded. Du hast einen Dualcore gehabt, dann war jeder Kern zu 50% ausgelastet, aber nicht einer zu 100. DAS passierte nur, wenn der Programmierer sich über das OS hinweggesetzt hat.

DAS ist ein CPU-Limit:
farcry6_2021_10_07_13ifkvc.jpg


Und das war auch schon bei New Dawn nicht anders. Die Ubisoft-Streaming-Engine ist halt so gestrickt.
FarCryNewDawn_2021_10_15_02_19_14_722.jpg

Und auch FC5 hatte das schon so. (_HDR an, deshalb das verwaschene Bild, sorry^^)
FarCry5_2021_10_15_01_50_37_488.jpg


Dazu brauch ich nicht auf den Power-Wert schauen.
Es gibt durchaus Games die die Shader differenziert beladen. Das wirkt sich dann allerdings gleichzeitig auf den Takt der Karte aus. Übelstes Beispiel ist z.b. Days Gone.

ABER eigentlich weist man doch ein CPU-Limit über die Auflösung oder über den CPU-Takt nach, und nicht über DXR, das eine CPU-Komponente und eine Graka-Komponente enthält.

Ich reduziere die Auflösung (und damit die Last auf die Graka). FPS bleiben gleich: CPU-Limit. FPS gehen hoch: Graka-Limit.
Oder ich ziehe am CPU-Takt (egal welche Richtung), FPS gehen mit. CPU-Limit. FPS bleiben gleich: Graka-Limit.

WIEDER ohne auf den Power-Draw schauen zu müssen. Machst Du das seit 20 Jahren anders?

Hier mal ein 10 Jahre altes Beispiel. Nix ausgelastet, aber FPS gehen mit dem CPU-Takt mit. Klares CPU-Limit, was ja Deiner Meinung nach ja scheinbar gar nicht sein kann.
bf3_2012_07_01_16_39_f7rr8.jpg
bf3_2012_07_01_17_43_ckxom.jpg


Das einzige was sich die letzten Jahre wirklich geändert hat ist CPPC und Intel Turbo-Boost 3.0, das mit den Vielkernern eingeführt wurde. Damals noch als die alten 8-Kerner von Intel sich unter Singlecore-Last nicht hochgetaktet haben (weil das OS diese Singlecore-Last über alle Kerne verteilt hat) und jetzt weil sie langsam dahinterkommen das es zu viele Kerne für die meiste Software gibt, und so die Leistung auf die "besten" Kerne konzentriert werden sollte, damit die Leistung sich optimal entfalten kann.
Auf meinem ersten Screen übrigens gut zu sehen, das CCX um den Core13 wird bei mir vom OS als "bestes" CCX gewertet und benutzt.
 
Zuletzt bearbeitet:
Sorry, ergibt kein Sinn, dass eine CPU limitierte Karte exakt das selbe verbraucht, wie eine ohne Limit die auf Anschlag läuft. Wenn die Karte 100% läuft, dann nutzt sie auch das PL. macht sie übrigens in FC5 auch… Wäre mir neu das eine GPU die ackern muss, so dass sie der limitierender Faktor ist, nicht ihr gesamtes PL Budget nutzt. Habe ich in 20 Jahren nicht gesehen.

Wenn kein kern 100% hat, dann ist sie auch nicht limit. Merkt man allein schon daran, wenn ich dxr aus mache läuft das Game mit mehr als 100 FPS an den selben Stellen, die karte aber mit 70% GPU Last.

Ich mach mal morgen vergleiche mit Monitoring Daten, dann kannst du dich selbst davon überzeugen…

Wie du auf den Screenshots siehst, ist einmal die GPU bei 85% und eindeutig im CPU Limit, verbraucht aber dennoch ungefähr genauso viel wie bei 96% im eindeutigen GPU Limit.
Im CPU Limit siehst du, dass der höchste Kern bei 76% steht, und welche Überraschung im GPU Limit sieht es genauso aus, nur sieht man den Unterschied hier auch schön daran, dass die CPU statt 76 Watt auf einmal 100 Watt braucht.

Von 100% musst du dich schlicht verabschieden die gibt es nur dann wenn eine Software die Hardware eben perfekt auslasten kann, das ist aber quasi nie der Fall in Spielen.

Edit: Die Auflösung vom 2. Bild ist wirklich beschissen, hoffe man erkennt es trotzdem halbwegs.
 

Anhänge

  • COD High Res1.png
    COD High Res1.png
    3,7 MB · Aufrufe: 38
  • COD Low Res.png
    COD Low Res.png
    1 MB · Aufrufe: 39
Schießt euch jetzt nicht auf mich ein. Für mich kam ich zu dem Schluss, da ich nicht nur den Prozentwert zur Bewertung heran nahm, sondern auch die Temps und Leistungaufnahme. Habe wirklich noch nie gesehen, dass eine Karte/CPU in ihrem Limit so kühl bleibt und zusätzlich ihr Powerbudget nicht ausschöpft. Das gilt auch für die CPU.
Man lernt halt nicht aus. Seltsam siehts trotzdem aus. Werde heute Nachmittag mal das ganze nur über die Settings Ultra und Low vergleichen.

@HisN in welcher Auflösung spielst du? Wegen der 10 GB Vram Usage mit der 3090...
 
Da sieht man das das Spiel massivste cpu limitiert ist. Obwohl hier nvidia auch schuld ist installiert mal den 471,96 dann sollte die gpu Auslastung besser sein
nochn Test mit 471,41 und nochmals besseres Ergebnis


Screenshot 2021-10-15 123816.png


87% gpu load
vs
71% gpu load 472,12 und 69% 496,xx
 
Zuletzt bearbeitet:
Zurück