[PCGH-Community-Benchmarks] Battlefield 5 (CPU)

Wobei ich die P1 Werte nicht so pralle finde. Da hätte ich mehr erwartet nachdem die Avg Werte so krass gestiegen sind.
Kommt wahrscheinlich von der CPU. Hab mal was von der Regel gehört letztens, dass die Min-FPS meistens von den Interconnects der CPUs kommen. Zen 3 hat ja immer noch den IF und BF V haut ziemlich viele Threads raus, die untereinander kommunizieren müssen. Ich würde gerne mal wissen, ob ein 5800X hierbei stärker wäre.
 
Der Anteil der Leute, die eine RTX 3090 gekauft haben, ist echt verdammt hoch hier im Forum. Nvidia kann echt jeden Preis nehmen... :D
 
Das stimmt! Aber AMD schlägt ja gerade auch mächtig oben drauf... Der Markt ist verrückt. Echt bitter, wenn jetzt jemand nach einer Empfehlung im 800 Euro Bereich fragt und man dann mit Mühe und Not eine GTX 1660 Super oder eine RX 580/RX 5500 mit einem Sechskerner kombinieren kann... :ugly:
 
Hoffentlich hat einer von euch eine Idee. Stehe hier vor einem seltsamen Problem und komme nicht dahinter. Probiere schon drei Tage herum.
Ich hab am 20.06 mal gebencht:

old.png


Dann vier Tage später um was zu testen und komme nur noch auf:

new.png


Wie ihr seht sind die FT auch deutlich zackiger.
Mein Problem ist, ich komme absolut nicht mehr auf den P1 Wert von oben. Hab schon hinter mir: CMOS clear, alle möglichen UEFI settings durchprobiert (auch IF1866, bzw. das alte Profil), CapframeX neue Version, BF V settings resettet, shader cache gelöscht, origin cache gelöscht, Game repariert, DDU drüber laufen lassen, Energieprofil resettet, AMD Treiber neu installiert, aber nix. P1 ist und bleibt nun viel schlechter. Ich habe sogar schon Win auf eine zweite SSD neu installiert, aber das ändert auch nichts.
Hat jemand eine Idee was das sein kann? Bin inzwischen echt komplett ratlos.
Kommt ihr aktuell noch auf eure Ergebnisse? Mein Sys ist in etwa so schnell wie das von @PCGH_Raff, ~190 P1 passen da nicht.
 
Die Tabelle ist zwar futsch, aber das hält mich nicht davon ab, euch den Wert des Pain-in-the-Ass-5950X zu präsentieren, den ich aktuell für die kommende Ausgabe tune:

PCGH_Dave | AMD Ryzen 9 5950X "PitA"| PBO + 300 MHz, Fmax, Dynamic-OC CCD0/CCD1 4,85/4,80 GHz | 16c/32t | 32 GiB DDR4-3800, IF 1.900 MHz | CL16-16-16-32-1T | Nvidia Geforce RTX 3090 @ 2,1 GHz | 303,5 | 224 | Link |

BÄM :pcghrockt:
 
Zuletzt bearbeitet:
Also wenn ich mir die Werte von PCGH_Dave anschaue, das läuft ja bei jedem irgendwie ziemlich anders und passt nicht so recht zusammen.
 
Also wenn ich mir die Werte von PCGH_Dave anschaue, das läuft ja bei jedem irgendwie ziemlich anders und passt nicht so recht zusammen.
Da ist doch extra ein Link dabei, der die Zahlen bestätigt. Oder was meinst du? Die Frost Bite Engine hat schon immer gut mit vielen CPU-Kernen skaliert.
 
Na vergleich doch mal die Ergebnisse. Ich hab mehr avg, aber weniger P1 und nein, hier läuft nichts im Hintergrund das stört. Hatte sogar Win testweise neu installiert auf eine zweite SSD. Siehe meinen Beitrag weiter oben.
 
Ich tippe auf den RAM

In deinen Bildern oben ist zu sehen, dass du im ersten 3733 hattest, im zweiten Bild dann 3800.
Entweder sind die RAM Settings instabil (Fehlerkorrektur zu hoch) oder die 3733 waren straffer.
 
Fehlerkorrektur bei normalen UDIMMs? Der RAM läuft Karhu stable, daran liegt das nicht. Es war eine andere 5950X drin, die ein IF hole hatte. Daher der reduzierte Takt.
Ich hatte aber sogar die alte CPU wieder eingebaut, was die Ergebnisse auch nicht wieder gebessert hatte.
 
Ja Fehlerkorrektur gibt es auch ohne ECC Module. Spannungen waren für den soc auch ausgelotet? Inkls Test ob man Durchsatz verliert bei zu niedriger soc voltage? Ansonsten einfach den gegen Test machen und mit 3733 vergleichen.
 
Hast du mal einen Link für die Behauptung? Ich hab das in Verbindung mit unserem normalen RAM ja noch nie gehört.
Ich hatte die CPU mit IF1866 aber doch wieder drin mit den gleichen settings. Die Ergebnisse sind aber so geblieben. Es kann nicht daran liegen. Hab mit Aida aber auch gegen gebencht und andere Tests spucken normale Ergebnisse aus. SOC etc. passt. Danke für deinen input.
 
snakeeyes111|Intel Core i9-10900K|5,3 GHz|10c/16t|32 GiB DDR4-4000|CL14-14-34-2T|Radeon RX 6900xt|318,6|232,1|Link

SAM/rBar off


snakeeyes111|Intel Core i9-10900K|5,3 GHz|10c/16t|32 GiB DDR4-4000|CL14-14-34-2T|Radeon RX 6900xt|242,7|175,8|Link

SAM/rBar on
 
Birdy84|AMD Ryzen 7 5800X|3,8 GHz + Boost + PBO + CO|8c/16t|32GiB DDR4-3800|CL16-19-16-36-1T|Nvidia Geforce RTX 3090|236,72|173,3|Link

Birdy84|AMD Ryzen 7 5800X|3,8 GHz + Boost + PBO|8c/16t|32GiB DDR4-3800|CL16-19-16-36-1T|Nvidia Geforce RTX 3090|241,4|173,3|Link

Birdy84|AMD Ryzen 7 5800X|3,8 GHz + Boost|8c/16t|32GiB DDR4-3800|CL16-19-16-36-1T|Nvidia Geforce RTX 3090|242,0|192,1|Link

Nachdem mich @PCGH_Dave s Post letztens stutzig gemacht hat, weil er über geringere Spieleleistung mit aktiviertem CO berichtet hatte, habe ich mein Sys auch mal mit einem Spiel (statt nur Cinebench) gegengeprüft. Obwohl Cinebench mit meinen Einstellungen eindeutig eine höhere Punkzahl ausgegeben hat, decken sich die Messungen von BF5 mit Daves Erfahrung.
 
Zuletzt bearbeitet:
Darkearth27|AMD Ryzen 5900X|PBO + CO + 200|12C/24T|32 GiB DDR4-3800|CL14-16-14-28-1T|AMD Radeon RX 6900XT |372|245.4|Link

Mal ein aktuellen Bench hingelegt, auch wenn der Titel nicht mehr genutzt wird.

1630736710387.png

1630736723730.png

1630736814574.png
 
Zuletzt bearbeitet:
Hat mal jemand den Bench mit einem 12900k laufen gelassen? Wie verhält es sich da mit den e-Cores, sind die eher hinderlich? Normal skaliert das ja noch mit 8+ Kernen.
 
Zurück