Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Was ist das hier für ein komischer Benchmark parkcour ich hab in high mit 16 af und 2560 x 1440 hab ich locker zwischen 60- 120 fps ka warum ihr mit einem neueren Pc weniger fps habt bei mir läuft das Game flüssig :D
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Ich lass auch mal was zum Thema da :-)

https://www.youtube.com/watch?v=cBVypNsUDjM

1080p oder 2160p Video sollte so um 20 Uhr verfügbar sein.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Was ist das hier für ein komischer Benchmark parkcour ich hab in high mit 16 af und 2560 x 1440 hab ich locker zwischen 60- 120 fps ka warum ihr mit einem neueren Pc weniger fps habt bei mir läuft das Game flüssig :D

Nicht wundern. Das habe ich mich auch schon oft gefragt.

Seit 2017 (7700k gerkauft) habe ich mit jeder GPU (1070+1080+2080) IMMER locker 20%+ mehr FPS bei gleichen Einstellungen, betrifft alle möglichen Tests und Spiele, egal ob Jurassic World Evolution,Anno 1800,PUBG,ARK,Destiny 2, FC, Apex oder ein AC Teil usw..., ich liege immer deutlich drüber.
Das war bei jeder GPU so. Habe immer Unterschiede, Einstellungen gesucht, Treiber auf Qualität etc... Ich habe den Grund nie gefunden.

Habe auch direkt gefragt, kam keine brauchbare Antwort.

Denk dir doch einfach 10% mehr Leistung beim 9900K und 10 bis 15% beim 7700K dazu.
Herstellerangaben bedeuten für die Praxis natürlich nichts. Viele Seiten testen allerdings mit vergleichbarem RAM um mehr Infos bereitzustellen, im Zweifel eben dort umschauen.
Das Problem ist allerdings häufig, dass genau dieser langsame Speicher zu Frametimeproblemen führt und nicht die CPU selbst daran schuld ist. Das wird man mit DDR4 2400 auf einem 7700K dann halt nie erfahren.

Ich bin stolzer 7700k Besitzer und habe den RAM von 2400 auf 3200 gewechselt, bei Spielen wie AC:O wo ich doch mal ins CPU Limit gerate ergab sich eine mess und spürbare Verbesserung.
Nicht nur die FPS (5-10%), sondern auch der Frameverlauf, gerade beim integrierten Benchmark von AC:O hat man es nicht nur gefühlt sondern auch deutlich gesehen. Die min FPS waren deutlich höher und weniger Einbrüche. Zusätzlich läuft er mit 4,8 Ghz Allcore, statt 4,4Ghz. Den Boost hält er natürlich auch dauerhaft, in jeder Situation.

Bevor ich meinen RAM gewechselt habe, habe ich ne Menge Tests (720p +real) gemacht mit meinen Games, am liebsten waren mir Spiele wie AC oder FC, wo ein Benchmark integriert war... nur mal dazu...
 
Zuletzt bearbeitet:
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Nicht wundern. Das habe ich mich auch schon oft gefragt.

Seit 2017 (7700k gerkauft) habe ich mit jeder GPU (1070+1080+2080) IMMER locker 20%+ mehr FPS bei gleichen Einstellungen, betrifft alle möglichen Tests und Spiele, egal ob Jurassic World Evolution,Anno 1800,PUBG,ARK,Destiny 2, FC, Apex oder ein AC Teil usw..., ich liege immer deutlich drüber.
Das war bei jeder GPU so. Habe immer Unterschiede, Einstellungen gesucht, Treiber auf Qualität etc... Ich habe den Grund nie gefunden.

Habe auch direkt gefragt, kam keine brauchbare Antwort.



Ich bin stolzer 7700k Besitzer und habe den RAM von 2400 auf 3200 gewechselt, bei Spielen wie AC:O wo ich doch mal ins CPU Limit gerate ergab sich eine mess und spürbare Verbesserung.
Nicht nur die FPS (5-10%), sondern auch der Frameverlauf, gerade beim integrierten Benchmark von AC:O hat man es nicht nur gefühlt sondern auch deutlich gesehen. Die min FPS waren deutlich höher und weniger Einbrüche. Zusätzlich läuft er mit 4,8 Ghz Allcore, statt 4,4Ghz. Den Boost hält er natürlich auch dauerhaft, in jeder Situation.

Bevor ich meinen RAM gewechselt habe, habe ich ne Menge Tests (720p +real) gemacht mit meinen Games, am liebsten waren mir Spiele wie AC oder FC, wo ein Benchmark integriert war... nur mal dazu...

Kann ich nicht bestätigen, eigentlich immer wenn ich nachbenche bei PCGH passt das ziemlich gut zusammen. Ich hab einen 6700K, man kann sagen was man will, das Teil nähert sich für den Enthusiasten dem Ende, 4/8 reicht einfach nicht mehr. Meine VII wird ständig ausgebremst in WQHD, sei es ACO, Divison2, Anno1800 etc.

Vor allem die min. Fps sind betroffen.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Meine VII wird ständig ausgebremst in WQHD, sei es ACO, Divison2, Anno1800 etc.

Vor allem die min. Fps sind betroffen.

Da hast du ja auch genau die 3 CPU lastigen ausgesucht ^^...

Jaja die VII @ WHD ständig ausgebremst^^
Die bremst sich selber aus, der Klotz, ich hab die in Benches schon mit meiner alten 1080non Ti @2,1 Ghz gejagt und oft geschlagen...

Nice Story Bro...

:lol:
 
Zuletzt bearbeitet:
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Ja richtig und da ich Zuhause (REAL) auch im GPU Limit hänge (2080non ti @ WQHD ) ist dies schön für mich zu sehen.

720p Tests (welche ich absolut akzeptiere) und die Realität am Ende sind halt oft 2 Paar VERSCHIEDENE Schuhe.

Ich freue mich einfach was mit jahre alter Hardware trotzdem noch hinten raus kommt, in Wirklichkeit. :)

Ich hänge aber z.B. mit meinem 2700X@4,1 GHz ab Preset Hoch (also 2 Stufen unterhalb von Ultra) im CPU Limit (GPU Auslastung bei ca. 80-85%) mit einer 2080ti@ca. 2 GHz in 1440p Ultrawide mit extended FOV auf 50 und Temporal Injection auf on (habe dann so um die 80-90 FPS im Wald). Was am Ende hinten raus kommt kann man sich doch am besten herleiten, wenn anständig getrennt getestet wird, also CPU Test in 720p oder niedriger. Wenn ich im CPU Test sehe dass meine CPU im schlimmsten Fall nur 70 FPS schafft und meine GPU in 1080p@Ultra 75 FPS, dann weiß ich dass ich im CPU Limit bin und nur die 70 FPS bekomme. Wenn ich also in 1080p@Ultra die 75 FPS haben möchte, dann muss ich die CPU aufrüsten auf z.B. einen Ryzen 3600 oder größer. Wenn der CPU Test jetzt aber in einer höheren Auflösung gemacht wird, dann weiß ich nur für die getesteten Kombinationen was an FPS hinten raus kommt, aber nicht ob die eigene Hardwarekombination im getesteten Szenario im GPU oder CPU Limit ist und welche FPS ich auf meinem PC erwarten kann.

Wenn man wissen will was hinten raus kommt, muss man auch immer bedenken wie die einzelnen Tester testen. Die PCGH hat immer extreme Testszenen und im normalen Spielverlauf sind häufig nicht so anspruchsvolle Szenen vorhanden und die 2080ti der PCGH taktet z.B. "nur" mit 1770 MHz. Meine taktet aber z.B. mit knapp 2 GHz (ca. 10% höher) was dann in 1440p um die 5 FPS Unterschied macht. Meine Framerates die ich auf meinem PC habe sind eher 10 FPS höher als die aus dem PCGH Test. Die PCGH hat aber anständig und nachvollziehbar getestet und ich weiß wie ich deren Testergebnise zu interpretieren habe um diese auf mein System anwenden zu können. Ich weiß durch die getrennten GPU und CPU Tests welche FPS die PCGH mit meiner Hardwarekombination aus CPU und GPU erhalten würde und über die angegebenen Taktraten und der Erfahrung mit den Testergebnissen der PCGH Tests weiß ich wie ich diese FPS dann nach oben oder unten skalieren muss.

Ansonsten zur Technik von Breakpoint. Es ist wirklich schade dass es nur DX11 ist. Meine CPU ist im CPU Limit nur bei ca. 35% Auslastung und schon ab Preset Hoch geht die GPU Auslastung von 95%+ auf 80-85% runter. Das Spiel scheint zwar laut CPU Test recht gut mit der Anzahl der Kerne und Threads zu skalieren aber die einzelnen Kerne/Threads werden nur wenig ausgelastet. Ähnliches konnte ich auch schon in AC Odyssey beobachten, wo das Verhalten angeblich am Kopierschutz liegt. Ich hoffe das Ubisoft das wie bei AC Odyssey irgendwie patchen kann, da es dort mit der Zeit besser wurde.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Danke für den Test:daumen:
Was mich als Vega-Besitzer interessieren würde, wie sich die Aktivierung von HBCC auswirkt.
Gruß T.

Interessiert mich ebenso. Dem Feature wird seit einiger Zeit nicht mehr viel Beachtung geschenkt.
Dabei habe ich damit in Wolfenstein 2 deutliche Unterschiede messen können.
Hätte Navi das Feature auch würde ich sogar über einen Wechsel auf eine 5700 XT nachdenken, so wäre es aber ein Downgrade beim Speicher.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Was ist das hier für ein komischer Benchmark parkcour ich hab in high mit 16 af und 2560 x 1440 hab ich locker zwischen 60- 120 fps ka warum ihr mit einem neueren Pc weniger fps habt bei mir läuft das Game flüssig :D

Nicht wundern. Das habe ich mich auch schon oft gefragt.

Seit 2017 (7700k gerkauft) habe ich mit jeder GPU (1070+1080+2080) IMMER locker 20%+ mehr FPS bei gleichen Einstellungen, betrifft alle möglichen Tests und Spiele, egal ob Jurassic World Evolution,Anno 1800,PUBG,ARK,Destiny 2, FC, Apex oder ein AC Teil usw..., ich liege immer deutlich drüber.
Das war bei jeder GPU so. Habe immer Unterschiede, Einstellungen gesucht, Treiber auf Qualität etc... Ich habe den Grund nie gefunden.

Habe auch direkt gefragt, kam keine brauchbare Antwort.

Plain and simple: Ihr testet entweder mit leicht anderen Einstellungen oder leicht andere Szenen als wir. Um unsere Benchmarks nachzustellen, reicht es nicht, ungefähr etwas in der Art zu machen, sondern genau das, was wir tun. Dafür liefern wir euch ja die ganzen Erläuterungen, Videos der Szenen und nach Bedarf/Möglichkeit auch Savegames. Und dann passt das auch – siehe Gurdi. :-)

MfG,
Raff
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Kann ich nicht bestätigen, eigentlich immer wenn ich nachbenche bei PCGH passt das ziemlich gut zusammen. Ich hab einen 6700K, man kann sagen was man will, das Teil nähert sich für den Enthusiasten dem Ende, 4/8 reicht einfach nicht mehr. Meine VII wird ständig ausgebremst in WQHD, sei es ACO, Divison2, Anno1800 etc.

Vor allem die min. Fps sind betroffen.

Auf genau diese Spiele bezogen mag das zutreffen. Das eigentliche Übel dürfte wohl generell an den Ubi Engines liegen. Die muten der alten API immer mehr zu, obwohl ja bereits modernere verfügbar sind, die bestimmte Aufgaben auch wesentlich besser auf die Hardware packen.
Das fällt schon auf wenn man mal die Performance bei AO von Black Flag bis Odyssey in Relation zur Optik vergleicht. Im Endeffekt kannst du als Spieler da nicht viel machen und musst in den sauren Apfel beißen. Entweder aufrüsten um deren andauerndes API Wechsel-Aussitzen auszugleichen oder diese Spiele meiden.
Richtig optimiert sollte da keiner 4 Kern 8 Thread CPU die Luft ausgehen, andersrum dürfte Breakpoint nicht mal auf Konsolen lauffähig sein. Die investieren wahrscheinlich nur in Konsolenoptimierung und am PC ist jetzt sowieso alles egal, weil ja jeder jetzt locker 8 und mehr Kerne erwerben kann. Da gehen mal fluffige 25% CPU Potenzial für schlampige Optimierung drauf.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Plain and simple: Ihr testet entweder mit leicht anderen Einstellungen oder leicht andere Szenen als wir. Um unsere Benchmarks nachzustellen, reicht es nicht, ungefähr etwas in der Art zu machen, sondern genau das, was wir tun. Dafür liefern wir euch ja die ganzen Erläuterungen, Videos der Szenen und nach Bedarf/Möglichkeit auch Savegames. Und dann passt das auch – siehe Gurdi. :-)

MfG,
Raff

Habt ihr eigentlich mal drüber nachgedacht, die Benchmark Runs teilautomatisiert abzufrüstücken?
Autoit ist eventuell nicht ganz das richtige Tool dafür, aber es könnte euch zumindest ein wenig Arbeit abnehmen.
Mir fehlt da auch etwas der Marktüberblick, weil Autoit zu den offiziell in meiner Firma erlaubten Tools gehört und für Arbeit mit großen Excel Tabellen ganz gut funktioniert, wenn mal wieder C&P Aktionen anstehen.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

@Buggi: Sagt ja keiner das man damit nicht mehr spielen kann, ich rede explizit und ausschließlich von Enthusiastenanspruch.
Mein Skylake wird sicher noch einige Jahre Dienst tun im HTPC, dafür reicht der dicke.

Da hast du ja auch genau die 3 CPU lastigen ausgesucht ^^...

Jaja die VII @ WHD ständig ausgebremst^^
Die bremst sich selber aus, der Klotz, ich hab die in Benches schon mit meiner alten 1080non Ti @2,1 Ghz gejagt und oft geschlagen...

Nice Story Bro...

:lol:

Ohh jetzt wirds ja mal wieder richtig profesionell. Erst fabulierst du von ominös höheren Fps. in nicht näher genannten Szenarien in nicht näher genannten Spielen und dann schusterst du dir noch die Komponenten zurecht :schief:

Hier geh mal jagen du Hunter. Magst doch integrierte Benches und hast sogar nen schnelleren Prozzi und Speicher als ich(6700k @4,4 & 2933 Ram)
Kannst froh sein wenn du meine 5700er irgendwo catchst und die ist im Ref. Design....
ACO UHD Beast.jpg Division 2 Max_Out UHD.jpg FH4 Ultra WQHD HBCC.png Forza Ultra 5k.png SOTR MaxOut 4k (2).jpg Strange 4k Beast.jpg
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Temporal Injection on/off

https://www.youtube.com/watch?v=CEPRYwbuv3I
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Das erinnert mich irgendwie an die Optimierung von Fallout 4 damals, wobei da wenigstens der Inhalt überzeugen konnte, meiner Meinung nach ist Ghost recoon tot....
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Also Wildlands fand ich richtig richtig gut. Jetzt mit Breakpoint, was ich hier u.a. aus den Kommentaren lese und von Bildern her gesehen habe, ist es wohl auch nicht das was ich mir als Nachfolger erhofft hatte. Erinnert mich irgendwie an The Crew 2, dass hatte auch gegen den Vorgänger ziemlich abgestunken.
 
Zurück