Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Mit Ghost Recon Breakpoint erschien just der neueste Teil der Open-World-Shooterserie. Das Spiel ist am PC vollgepackt mit Technikschmankerln, sieht großartig aus und streckt dementsprechend viele Rechner nieder. PC Games Hardware hat diverse Grafikkarten und Prozessoren in den Dschungel geschickt, damit Sie wissen, welche Hardware für Ghost Recon Breakpoint genügt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Wie jetzt? Eine halbe Stunde online und noch kein Kommentar? Zu viel Text, hm?

Dabei haben wir diesmal nicht "nur" Grafikkarten, sondern außerdem besonders spannende CPU-Messungen für euch. Los, anschauen, wundern, diskutieren! :devil:

MfG,
Raff
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Vielen Vielen Dank für den ausführlichen Test, bei der Konkurrenz fehlen leider noch die CPU Tests.

Ganz schöner GPU Fresser,
aber ich freue mich das mein 7700k @ 4,8 Ghz noch absolut passend @ WHD abliefern wird.
Bin echt mal gespannt wann ein Platform-Wechsel zu AMD für mich Sinn macht.
Wird bestimmt noch 1-2 Jahre dauern. Cyberpunk wird noch interessant für mich.

:)
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Los, anschauen, wundern, diskutieren! :devil:
Ja Mensch, bin doch schon da :D
Mich wundert, wie die Radeon VII abstinkt, normal ist das doch eine recht potente Karte. Und in WQHD reicht dann die 2080 Ti nicht für 60Fps. Heftig. Neue Treiber und Patches werden das sicher noch etwas richten.
Cool sind auch die CPU-Benchmarks. Das jetzt bitte bei jedem Techniktest :)
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Die Radeon Seven macht erst in Ultra HD Boden gut, denn da lohnen sich mehr als 8 GiByte. Hätten wir konseqent mit maximalen Details (Ultimate) getestet, würde das noch etwas "besser" aussehen. Allerdings ist das recht praxisfern, denn spielbar ist's dann nur auf ~5 Grafikkartenmodellen ... in Full HD ...

MfG,
Raff
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Die Radeon Seven macht erst in Ultra HD Boden gut, denn da lohnen sich mehr als 8 GiByte. Hätten wir konseqent mit maximalen Details (Ultimate) getestet, würde das noch etwas "besser" aussehen. Allerdings ist das recht praxisfern, denn spielbar ist's dann nur auf ~5 Grafikkartenmodellen ... in Full HD ...

MfG,
Raff

Dann fehlt aber scheinbar die Rohleistung, wer stellt sich so ein Setup hin und zockt dann mit 21-35 FPS.

Ist ja leider so wie viele am Anfang prophezeit hatten, werden beim Zocken die 16GB bei der Seven wirklich interessant: fehlt die Rohleistung.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

hmm wird zeit für den GPU upgrade,
Meine Vega 56er macht in WQHD ja keine gute Figur.
Werde mir nachher mal selber nen Bild davon machen, lade aktuell das Game mal runter.
Hab die Beta leider nur kurz antesten können.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Danke für den Test:daumen:
Was mich als Vega-Besitzer interessieren würde, wie sich die Aktivierung von HBCC auswirkt.
Gruß T.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

hmm wird zeit für den GPU upgrade,
Meine Vega 56er macht in WQHD ja keine gute Figur.
Werde mir nachher mal selber nen Bild davon machen, lade aktuell das Game mal runter.
Hab die Beta leider nur kurz antesten können.

Freund von mir hat ein ähnliches Setup, sei so gut und teile deine Ergebnisse hier.

Besonders auf mittleren/hohen Details bitte :)

Danke
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Danke für den CPU Test. Das kann ja gar nicht sein. Der 3800X liegt nur 5% hinter dem 9900k... :ugly::ugly:

Spaß beseite, der 7700k stinkt ganz schön ab. Also ist 4/8 doch ein bissle knapp so trendmäßig.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Wie jetzt? Eine halbe Stunde online und noch kein Kommentar? Zu viel Text, hm?

Die Konkurrenz war einfach schneller ;), alles bereits gestern lesbar gewesen, mit anderen Worten aber ähnlicher Aussage.

Das "Spiel" ist eine -zweifelsohne schön anzusehende- leblose Hülle. In dem sämtliche Melk-mechanismen bis zum erbrechen ausgereizt wurden.

Ubisoft typisch halt- außen Hui, innen pfui
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Ab wieviel FPS ist das Game denn spielbar? Welchen Performancegewinn (%) kann man erwarten wenn man ultra auf hoch stellt?
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Dann fehlt aber scheinbar die Rohleistung, wer stellt sich so ein Setup hin und zockt dann mit 21-35 FPS.

Ist ja leider so wie viele am Anfang prophezeit hatten, werden beim Zocken die 16GB bei der Seven wirklich interessant: fehlt die Rohleistung.

Fast: die Rohleistung ist da (wie bei 56 und 64 auch), kommt halt nur nicht richtig auf die Straße. Interessant finde ich wie gegensätzlich hier die VII und die 5700XT sind: die XT liegt in den niedrigeren Auflösungen klar vorne und wird erst in den höheren einge- bzw. überholt. In der Hinsicht macht sich RDNA schon ziemlich gut.

Die gemunkelte 5800/5900XT mit entsprechend breiter Speicheranbindung könnte da noch ne starke Konkurrenz zur 2080/Super werden.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Belegt einmal mehr, dass 8 GB bei einer 150 bis 200-Euro-Graka für zukunftssicheres Spielen in HD möglicherweise ausreichen, ganz sicher aber nicht für die Ansprüche, die man üblicherweise mit Grakas der Preisklasse 500+ Euro verbindet.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Ab wieviel FPS ist das Game denn spielbar? Welchen Performancegewinn (%) kann man erwarten wenn man ultra auf hoch stellt?

Spielt sich aus unserer Sicht relativ gut bei geringen Bildraten. Ab 40 Fps geht's, wobei 60+ natürlich besser sind. Wie viel Hoch statt Ultra bringt, ist sehr systemabhängig. Schlauer ist meist, gezielt GPU-lastige Effekte runterzuregeln.

MfG,
Raff
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Danke für den CPU Test. Das kann ja gar nicht sein. Der 3800X liegt nur 5% hinter dem 9900k... :ugly::ugly:

Spaß beseite, der 7700k stinkt ganz schön ab. Also ist 4/8 doch ein bissle knapp so trendmäßig.

Ja tut er wirklich @ Stock, aber zum Glück sind die GPU Anforderungen so hoch das sich das gerade über FHD wieder relativiert und es dann nicht nur am 7700k krankt ^^ :lol:
Traurig.

Er darf Federn lassen, ist ja auch schon seit 2017 draußen, der 3600 hat 50% mehr Kerne und 25% Mehrleistung, mich würde interessieren wie ein 7700k mit 4,8-5,0 Ghz abliefert bei einem theroretischen 720p Test.
Gibt ja genug da draußen, schaffen ja die meisten.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Ich muss sagen, ich als Technikfreund frohlocke gar nicht mal so sehr. Einfach, weil es recht schwierig ist, dem Spiel eine brauchbare stabile Framerate zu entlocken, und die Optik daran gemessen gar nicht mal so überragend ist.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Ja tut er wirklich @ Stock, aber zum Glück sind die GPU Anforderungen so hoch das sich das gerade über FHD wieder realtiviert und es dann nicht nur am 7700k krankt ^^ :lol:

Der Punkt ist, dass das Spiel mit vier Kernen, auch wenn SMT vorhanden ist, spürbar ruckelt. Die Frametimes sind sehr unruhig. Das bessert sich erst ab sechs Kernen. Selbst ein Phenon II X6 (!) hat glattere Frametimes als der 7700K, was deutlich zeigt, dass viele CPU-Kerne auf lange Sicht die bessere Wahl darstellen.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Der Punkt ist, dass das Spiel mit vier Kernen, auch wenn SMT vorhanden ist, spürbar ruckelt. Die Frametimes sind sehr unruhig. Das bessert sich erst ab sechs Kernen. Selbst ein Phenon II X6 (!) hat glattere Frametimes als der 7700K, was deutlich zeigt, dass viele CPU-Kerne auf lange Sicht die bessere Wahl darstellen.

Ja natürlich, dem will ich auch gar nicht widersprechen, er lässt langsam Federn.
Ist ja auch gut das endlich Games und Anwendungen von mehr Kernen profitieren.

Für mich persönlich ist aber der Punkt noch nicht erreicht wo ich sage: Jetzt lohnt sich ein Platform-Wechsel, jetzt bekomme ich fürs Geld deutlich mehr. (Neuanschaffung ja, Wechsel nein)
Mein Usecase ist WQHD Gaming und da limitiert oft die GPU deutlich als erstes.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Danke für den tollen Test :daumen:

Ich hoffe mal das da noch einges an optimierungen reinfließen werden. Bissl über 60FPS, das aber nur in Full HD. :ugly:
Wenn man dann aber weiter schaut und die CPU Benches miteinfließen lässt würde mein 6700K wohl auch schon an den 60FPS zu knappern haben.

Wird Zeit das nun bald der Ryzen einziehen darf... ich kann mich nur noch immer nicht entscheiden. Vernünftig sein (3700x) oder doch "ich will aber". (3900X) :D
 
Zurück