3DMark-Rangliste: Geforce- und Radeon-Grafikkarten im Benchmark - und wie schnell ist Ihre?

Da kann auch einfach der Chip/Boost ein mue besser sein oder/und der Vram spart noch 3-4W.
= 3-4W mehr für den Core
 
Das kommt tatsächlich so heraus, nachzulesen im Test: Intel Arc A770: 8 GiByte gegen 16 GiByte im Test inklusive Preis-Leistungs-Analyse

Ursächlich ist schlicht, dass unsere Testvehikel unterschiedlich hoch boosten. Die Asrock A770 Phantom Gaming (einzige Karte mit 8 GiB) ist deutlich seltener powerlimitiert als die Intel A770 Limited Edition, obwohl ich für die Benchmarks beide mit 190 Watt GPU-Power laufen lasse. Ist bisschen doof und verwirrend, aber die Phantom ist eben kühl und schnell (während der Speichertakt in den meisten Tests fast egal ist).

MfG
Raff
 
Natürlich ist das ganz normal. So sieht es mit meiner Stock 4090 Suprim X aus:

Die FE landet dementsprechend eine kleine Ecke darunter.
Naja Normal!? Hehe.. Dein CPU Läuft auf 5,8 und ist ein 13900K
Glaube nicht das ich eine 4090 Lite habe, bekomm nur ca 35K GPU Points hin @2655 mhz. CPU Bottleleck halt. Wäre als Info für andere nicht schlecht.
 
Moin!

Aus dem hier diskutierten Artikel:

"Wer High-End-GPUs vergleicht, sollte seinen Blick auf den Timespy Extreme lenken, denn hier spielt die CPU eine wesentlich kleinere Rolle für das Ergebnis als beim regulären Timespy, welcher bei High-End-GPUs sehr abhängig von der Infrastruktur ist."

PCGH-Grafikkarten-Benchmarks sind übrigens immer so GPU-limitiert wie möglich. :-)

MfG
Raff
 
Bei kleineren/älteren CPU´s ist vllt. der TSE-Score eher zu schaffen, der normale TS ist mir zu stark CPU+Ram-limitiert
auch im Grafikbench.
Dann dürfte meine RX 6800 mit dem gedrosselten alten 7920X ja auch nicht den Wert der hier getesteten RX 6800 erreichen. Immerhin wird hier mit einem 12900K genutzt.
Edit
Gerade Raffs Post gesehen...Highend kann gut möglich sein...habe ich aber nicht ;)
Wie dem auch sei....ich hab die kleine RX 6800 mal auf heisses Wetter umgestellt...Leistung über einer RX 6750 XT reicht momentan aus.
PR 110W.png SW 110W.png TS 110W.png TSE 110W.png
 
Zuletzt bearbeitet:
Dann dürfte meine RX 6800 mit dem gedrosselten alten 7920X ja auch nicht den Wert der hier getesteten RX 6800 erreichen. Immerhin wird hier mit einem 12900K genutzt.
Ein brutal optimierter 12900K, nebenbei bemerkt. In den letzten Spiele-Stichproben lag er meist im Dunstkreis eines mit Standardtakt betriebenen 13900KS. Apropos - stay tuned: https://www.instagram.com/p/Cs3H8LWsdbz/ :devil:

MfG
Raff
 
Muss mal Plööt Fragen, ist das jetzt Next-Gen ? Wenn eine 4090 grad mal 60fps schafft ? Das ist doch alles nur schlecht Programmierter Software zu verschulden.
 
Ich wollte eigentlich beginnen mit: Es gibt keine blöden Fragen, allerdings... :stick:
Ja klar ist das next Gen. Genau das wollen wir doch. Dass die High End Hardware benötigt wird um dieses Ziel irgendwie zu erreichen. Wenn jede Gurke alles darstellen könnte, dann bräuchte es doch gar keine Flaggschiffe mehr. Sowie dann Hardware auf dem Markt ist die das durchgehend packt, muss eine neue, noch mehr fordernde Anwendung her, um dass wir (und die Hardwarehersteller) nach den magischen 60fps streben können.
 
Naja Normal!? Hehe.. Dein CPU Läuft auf 5,8 und ist ein 13900K
Glaube nicht das ich eine 4090 Lite habe, bekomm nur ca 35K GPU Points hin @2655 mhz. CPU Bottleleck halt. Wäre als Info für andere nicht schlecht.
Irgendwie verstehe ich nicht worauf du hinaus willst. Soll PCGHs die GPUs im CPU Limit testen oder wie?

Das ist der Score den eine Stock 4090 im GPU Limit erreicht.
 
Wie dem auch sei....ich hab die kleine RX 6800 mal auf heisses Wetter umgestellt...Leistung über einer RX 6750 XT reicht momentan aus.
Im TSE hat die CPU irgendwie einen Thread weniger. läuft durchgängig mit dem höheren Takt in GT1+2.
(Sowas gibts natürlich nur bei meinem kleinen 6c nonK mit wenig Threads, = red.Boost>5t)

Ob jetzt Benchen Offline und alle möglichen Dienste deaktivieren helfen tät, ... k.A., das machen dann die Top10.

just for fun mit dem UWP-Treiber: .... der sollte noch ein mue neuer sein als der normale Adrenalin
(ohne HAGS, ... das gibts wohl nur bei W11 Insider)
 

Anhänge

  • TSE@110Wneu.jpg
    TSE@110Wneu.jpg
    233,3 KB · Aufrufe: 35
  • TS@110Wneu.jpg
    TS@110Wneu.jpg
    221,6 KB · Aufrufe: 27
  • FSR2-Featuretest@110W.JPG
    FSR2-Featuretest@110W.JPG
    245,7 KB · Aufrufe: 18
Zuletzt bearbeitet:
Ob jetzt Benchen Offline und alle möglichen Dienste deaktivieren helfen tät, ... k.A., das machen dann die Top10.
Naja...das mache ich grundsätzlich nicht. So wie die Kiste dasteht wird getestet und ich lasse bei jedem Test immer HWI mitlaufen. Genauso wie jedes Ergebnis online einsehbar ist.
 
Ich habe auch nur gewohnheitsmäßig den "Spielemodus" aktiv, ob Das noch soviel bringt, wie vor ein paar Jahren,
who knows. (sollte ja theoretisch unwichtige Threads im Hintergrund in der Prio runtersetzen)

btw.
@Tripleh84 könnte mal bei sich nach der Auslastung schauen.
Bei mir sind im TS die Dips auf 98% ein mue häufiger als im TSE.
Sowas wäre dann ein Zeichen, das CPU+Ram etwas bremsen.
 

Anhänge

  • TSE-Auslastung110W.jpg
    TSE-Auslastung110W.jpg
    203,4 KB · Aufrufe: 17
  • TS-Auslastung 110W.jpg
    TS-Auslastung 110W.jpg
    203,4 KB · Aufrufe: 47
Zuletzt bearbeitet:
Ohne Dir zu nahe treten zu wollen....Benutzerdefinierte Benchmarks sagen sagen halt rein garnichts aus.
Einmal so wie es sich gehört und einmal im 3DMARK die Auflösung auf FHD gestellt und Tess aus.

TS155W.png TS Benutzerd..png

....um keinerlei Zweifel aufkommen zu lassen würde ich immer nur nachvollziehbare Ergebnisse posten.
 
just for fun
auch mal der TSE in FHD, ... irgendwie hatte ich zuviel Hintergrundrauschen, sprich die CPU taktet niedriger

TSE@4k=6930 Grafikpoints (siehe Post#370)
TSE@FHD = 18831 Grafikpoints = ca. 170% mehr, ... skaliert also etwas schlechter als im FSR2-Test(>200% Zuwachs)
... wenn man denn aus FHD irgendeine Erkenntnis ableiten will
(vermutlich wirds in Games dann mit FSR2@Performance zw. den 170 bis 200%+ liegen, ... für mich speziell@110W-24/7)

btw.
zum Display mal ne kurze Anmerkung, ... ich nutze@Post#370 auf dem Desktop nur 1080p, aber der TSE wird trotzdem
in 4k laufen+runterskalieren, solange man net direkt im 3dMark-Custom-Setting die Resi zusätzlich ändert
(von daher kann auch Jemand an nem FHD-Moni den TSE in 4k testen)

evtl. spart FHD@Desktop beim Benchen so ca. 1-2W ggü. 4k, was sich natürlich bei nem 100W-Setting schon bemerkbar macht, ... liegt einfach an der erf. Bandbreite vom Video-Output, die dann kleiner ist
(Sowas machen manche Luxxer in den Highscores, sprich zum Benchen = extra kleine Monis.)

Zusätzlich ist bei mir RGB-Beleuchtung deaktiviert, ... evtl. gehen die 1-2W ja auch von der TGP weg,
(110W-TGP sind die gemessenen W bei AMD bzw. MPT-Voreinstellung, ... sollte so ca. 130W-TBP sein)

edit: der normale TS läuft übrigens@FHD ein mue schneller als der TSE (siehe Anhang3)
(Das liegt evtl. am AC, oder weil älter, may be weniger Details-LOD.)
 

Anhänge

  • TSE@110Wneu_FHD.jpg
    TSE@110Wneu_FHD.jpg
    247,1 KB · Aufrufe: 22
  • Bandbreite-Videolink@FHD.JPG
    Bandbreite-Videolink@FHD.JPG
    49,8 KB · Aufrufe: 14
  • TS-FHD@110Wneu.jpg
    TS-FHD@110Wneu.jpg
    243,8 KB · Aufrufe: 16
Zuletzt bearbeitet:
Kennt Jemand das Problem, dass der 3DMark plötzlich ein FPS lock hat?
Ich hab alles erdenkliche ausgeschaltet, was irgendwie mit "sync" zu tun hat, trotzdem bekomme ich nicht mehr als 50FPS...
Die Zahl wirkt auch irgendwie total willkürlich, denn mein Monitor kann immerhin 70Hz :ka:

Treiber habe ich zwischendurch neu installiert, das Problem trat komischerweise erst danach auf :confused:

Wenn ich aber bspw. den superposition bench laufen lasse, komme ich easy in den dreistelligen bereich, wie vor der Treiberneuinstallation.
Also ist mMn. der 3DMark buggy.
Den habe ich allerdings auch schon einmal gelöscht und neu installiert :-|

PS: Hab eben auch testweise mal Diablo 3 angeworfen und da ballert die neue Karte bei max settings auch bis zu 250FPS raus.
Nur der verdammte 3DMark stellt sich quer :motz:
 
Zuletzt bearbeitet:
Der merkt manchmal was man im Hintergrund laufen hat und übernimmt beispielsweise den fps lock von dem anderen Programm. Im Treiber mal das Profil von 3DMark verändern und schauen ob sich auch die 50fps ändern.
 
Zuletzt bearbeitet:
Im Treiber mal das Profil von 3DMark verändern und schauen ob sich auch die 50fps ändern.
Hab mal eine "DDU-Session" vollzogen, jetzt hab ich wieder (weit) mehr als 50FPS... :stupid:
Trotzdem bleibt 3DMark eine ***...

Stürzt bei den kleinsten Änderungen bei Spannung oder Frequenz etc. ab, wo andere benchmarks oder auch games keine Probleme haben.
Die sehen von mir nicht mal die oft im sale veranschlagten ~5€ für die "advanced" Version, wenn schon die "Demo" so abkackt. :daumen2::nene:
 
Nö, 3DMark ist einfach zu zickig :D

Hab ja mehrere games und auch bspw. superposition mit den gleichen, oder teils sogar strafferen settings, erfolgreich betrieben/durchlaufen lassen :ka:

Da hatte ich keinerlei Probleme. Sofern mein setting alltagstauglich ist und nur der 3DMark rumzickt, ist es mir auch wumpe ^^
 
Zurück