Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Kommt morgen früh. :-)

MfG,
Raff

Sind die Ryzen auf den selben Boards/Bios gemacht, wie vorherigen Ryzen Test (https://www.pcgameshardware.de/Ryzen-9-3900X-CPU-274670/Specials/CPU-Benchmarks-2019-2020-1332404/)?
Da erreichte euer 3900x nur 6990 Punkte in Cinebench 20, während auf guten Boards leicht über 7200 erreicht werden, Stock natürlich..
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

@hanfi
Alle neueren Tests wurden mit dem "abba" getauften Bios gemacht, sprich mit kleinem Fix-Boost.
Die Testumgebung ist exakt die gleiche, wie für die CPU-Index-Messungen. Die Bedingungen sind auch die gleichen.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Was sind "gute Boards"? :-) Allcore-Turbo-Cheats sind nicht innerhalb der Spec.

MfG,
Raff
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Testet mal lieber GRID. Für diesen Müll hier gebe ich sicherlich keine 10€ aus.
Dazu braucht man nun wirklich keinen Technik Test. Läuft bei mir in UHD Ultra (wirklich alles an was geht) mit über 60 fps bei den Rennen die ich bis jetzt gefahren bin. Sieht aber auch bei weiten nicht so toll aus wie Breakpoint.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Das Spiel hat grafisch seine guten Momente. Aber es gibt auch immer wieder sowas wie auf meinem Screenshot. Alles in unmittelbarer Nähe sieht schön detailliert aus. Aber der Bereich rechts neben dem Ellbogen der Spielfigur, der nicht so weit weg ist, sieht dann schon aus, als entstamme er aus einem Spiel von 2009 und nicht 2019 (LoD ultra). Genau wie die Straße. In diesen Augenblicken sieht das Game dann einfach einfach nur "billig" aus.

Tom Clancy's Ghost Recon® Breakpoint2019-10-11-11-30-57.jpeg
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Das Spiel hat grafisch seine guten Momente. Aber es gibt auch immer wieder sowas wie auf meinem Screenshot. Alles in unmittelbarer Nähe sieht schön detailliert aus. Aber der Bereich rechts neben dem Ellbogen der Spielfigur, der nicht so weit weg ist, sieht dann schon aus, als entstamme er aus einem Spiel von 2009 und nicht 2019 (LoD ultra). Genau wie die Straße. In diesen Augenblicken sieht das Game dann einfach einfach nur "billig" aus.

Anhang anzeigen 1063486
Was ich schlimmer finde, du spielst mit Gamepad einen Shooter :nene:
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Was ich schlimmer finde, du spielst mit Gamepad einen Shooter :nene:

Das ist richtig :D
Ich habe mich nie an M+T gewöhnen können.

PS:

Bei mir sieht es so aus, wenn ich zocke. Und dann ist das Pad echt gemütlicher :D

C11DC989-74B0-4E28-A1AC-45DE20B31FC6.jpg
 
Zuletzt bearbeitet:
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Was sind "gute Boards"? :-) Allcore-Turbo-Cheats sind nicht innerhalb der Spec.

MfG,
Raff

Von Tricks weiß ich nichts, nur GB Boards sind meist schneller als MSIs, auch mit ABBA. Asus tummelt sich dazwischen.
Und vom Verbrauch an der Dose, Packagepower und Bios passen die Zahlen sehr gut zusammen.

Ich mein nur, ich erreiche mit ABBA >7250 im CB, mein Kumpel erreicht mit X570 Carbon Wifi und ABBA 7050, vor ABBA waren es 6900
Das summiert sich bei den 5% Diff zum 9900K schon.
Wenn mans aus menschlicher betrachtet, merkt man davon natürlich nichts :)
 
Zuletzt bearbeitet:
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Das ist richtig :D
Ich habe mich nie an M+T gewöhnen können.

PS:

Bei mir sieht es so aus, wenn ich zocke. Und dann ist das Pad echt gemütlicher :D

Anhang anzeigen 1063488
Ja das sieht entspannt aus. :) Ich habe auch nichts gegen Gamepads, nur sind sie meiner Meinung nach nicht für Shooter geeignet.
Ich habe das oft genug Probiert, damals auf der XBox 360 (als es noch Demos gab) auch mit meiner damaligen Bambusleitung jede Shooter Demo runtergeladen und versucht zu spielen. Auch am PC z.b. Watch Dogs mit Gamepad gespielt, bis zu einer Mission wo fast nur geballert wird und da richtig gut geschützte Gegner kamen. Da kam ich einfach nicht weiter.
Nein für mich ist ein Gamepad und Shooter unspielspar. Aber auch mit Maus und Tastatur bin ich bei weiten kein pro Gamer, vor so 2 Wochen mal wieder Battlefield 5 ausprobiert (kostet ja so gesehen, dank EA Abo, nichts), aber das ist für mich unspielbar. Rein ins Spiel, etwas rumgelaufen, tot. Spawn, wieder etwas rumgelaufen, tot, Spawn, vermutlich ein Feind, draufgeballert und schon wieder tot. Einfach nur nervig. :daumen2:
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

... heizt die Bude damit aber unwahrscheinlich ... effektiv. Ken Wunder, wenn die TDP schon ab Werk 125 Watt beträgt. :ugly:

MfG,
Raff
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Eher meh, interessanter wären RAM SKalierungstests mit dem 3700x und 9900K gewesen.;)

Bäähm, der kleine liefert immer noch ganz gut ab.

Mit 30 FPS? Nah... nicht wirklich. Die CPU ist kaum mehr für Gaming brauchbar, gilt genauso für den FX.
 
Zuletzt bearbeitet:
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Update mit Phenom II X6 @ 4,2 GHz! Cool oder cool? =)

MfG,
Raff

Sehr cool, davon wünsche ich mir mehr! Besonders, dass generell ältere CPUs mit in den Benchmarks sind gefällt mir sehr.
Die CPUs des letzten Jahrzents sind vergleichsweise gut gealtert. Wenn man die dann in neueren Spielen diese noch einigermaßen nutzen kann wird die Hardware weiter genutzt - die Umwelt wird danken.
(Ja, möglicherweise etwas höherer Stromverbrauch, aber so lange man keinen FX9590 nimmt ist die nötige Herstellungs- und Lieferenergie deutlich höher)


Zum Ergebnis:
Ein Phenom II X6 ist mit 4,2GHz also quasi gleichschnell wie ein FX 4/8-Kerner mit 4,7GHz. Autsch.
Dass die beiden Generationen sich bei der IPC sehr ähnlich sind war mir bekannt, aber dass der PII teilweise eine bessere IPC haben kann (dank 2 "echten" Kernen mehr) überrascht mich doch.
Klar, man könnte jetzt argumentieren, dass der X6 bis an die Kotzgrenze übertaktet wurde - aber das gleiche gilt ja auch für den FX 9590 :ugly:



Nachtrag:
... heizt die Bude damit aber unwahrscheinlich ... effektiv. Ken Wunder, wenn die TDP schon ab Werk 125 Watt beträgt. :ugly:

MfG,
Raff

Und das ist mit dem 9590 anders? :P
Hast du mal getestet, wie hoch der Verbrauch übertaktet ist? Zumindest der gesamte PC-Verbrauch ist ja einfach zu ermitteln, davon könnte man grob ableiten.
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

@Dave: Du hast doch jetzt die Basis des Parcours fertig. Sind RAM-OC Tests geplant?
 
AW: Ghost Recon Breakpoint im Benchmark-Test: 8-GiByte-Grafikkarten ächzen, Technikfreunde frohlocken

Sehr cool, davon wünsche ich mir mehr! Besonders, dass generell ältere CPUs mit in den Benchmarks sind gefällt mir sehr.
Die CPUs des letzten Jahrzents sind vergleichsweise gut gealtert. Wenn man die dann in neueren Spielen diese noch einigermaßen nutzen kann wird die Hardware weiter genutzt - die Umwelt wird danken.
(Ja, möglicherweise etwas höherer Stromverbrauch, aber so lange man keinen FX9590 nimmt ist die nötige Herstellungs- und Lieferenergie deutlich höher)

Zum Ergebnis:
Ein Phenom II X6 ist mit 4,2GHz also quasi gleichschnell wie ein FX 4/8-Kerner mit 4,7GHz. Autsch.
Dass die beiden Generationen sich bei der IPC sehr ähnlich sind war mir bekannt, aber dass der PII teilweise eine bessere IPC haben kann (dank 2 "echten" Kernen mehr) überrascht mich doch.
Klar, man könnte jetzt argumentieren, dass der X6 bis an die Kotzgrenze übertaktet wurde - aber das gleiche gilt ja auch für den FX 9590 :ugly:

Ich habe schon ewig einen Artikel im Kopf, der genau diese Themen behandelt. Also was mit den scheinbar schwachen AMD-CPUs der letzten Generationen noch so geht. Neue Spiele auf optimierten AM3-Kisten. Phenom II X6 maxed vs. FX-4-Moduler maxed. Einen guten FX kann man mit der Keule auf 5 GHz Allcore treiben. Sowas habe ich hier noch herumstehen. Moderne Anwendungen lasten aber besser aus als alte, sodass das wohl noch mehr Spannung braucht als früher. So war das jedenfalls beim Phenom II X6; der ließ sich vor paar Jahren noch mit 1,55 Volt mit 4,2 GHz benchen ...

Und das ist mit dem 9590 anders? :P
Hast du mal getestet, wie hoch der Verbrauch übertaktet ist? Zumindest der gesamte PC-Verbrauch ist ja einfach zu ermitteln, davon könnte man grob ableiten.

Leider habe ich in der Heimat kein Watt-o-Meter. Die Heizleistung des Rechners hat sich ggü. 4 GHz mit ~1,45 Volt aber gefühlt verdoppelt. :ugly:

Eher meh, interessanter wären RAM SKalierungstests mit dem 3700x und 9900K gewesen.;)

Voilà, RAM für Reisen 3000: https://www.pcgameshardware.de/RAM-Hardware-154108/Specials/Ryzen-3000-RAM-Praxis-1332253/

MfG,
Raff
 
Zuletzt bearbeitet:
Zurück