Grafikkarten-Rangliste 2024: 34 Radeon-, Arc- und Geforce-GPUs im Benchmark

Jo, meine 780Ti ist auch noch top bei, die ist auch nur der 1060 im Desktop gewichen, weil ich die 1060 so dermaßen günstig bekommen habe.

Real brauch ich die Leistung nicht mal wirklich.
Aber egal, beim Folding kommts auch gut :)
 
Zitat Zitat von flankendiskriminator Beitrag anzeigen
Finds immer noch toll, wie gut sich meine betagte GTX980 angesichts ihres Alters schlägt. Der Abstand zur Fury ist minimal.



...das mein ich doch.

Um meine Leistung zu verdoppeln müsste ich heute mehr als das doppelte zahlen was meine Grakka vor 2Jahren gekostet hat!
Für was? Für Feature nonsens die man dann nicht sieht. Am Ende sehen Consolen/PC `s gleich aus

"Kopfschüttel"

Vielleicht in Full HD aber 2k oder 4k kannst du mit 3 GB VRAM bei vielen neuen Spielen einfach knicken, selbst, wenn du die Einstellungen etwas runterstellst, sodass es wenigstens noch halbwegs annehmbar aussieht.
 
Och Leute...

Titan Xp/12G
~1.582 MHz, 11,4 GT/s

Geforce GTX 1080 Ti/11G
~1.582 MHz, 11 GT/s

Titan X
~1.531 MHz, 10 GT/s

Geforce GTX 1080/8G
~1.733 MHz, 10 GT/s

Radeon RX Vega 64 Liquid
1.590-1.750 MHz, 1,89 GT/s

AMD Radeon RX Vega 64/8G
1.401-1.630 MHz, 1,89 GT/s

Geforce GTX 1070 Ti/8G
~1.683 MHz, 8 GT/s

AMD Radeon RX Vega 56/8G
1.269-1.538 MHz, 1,6 GT/s

Geforce GTX 1070/8G
~1.683 MHz, 8 GT/s

Geforce GTX 980 Ti
~1.075 MHz, 7 GT/s

AMD bis max clock die nie gehalten wird...
NVidia Baseclock die locker um 150 -250Mhz überschritten und gehalten wird...

Naja zum Glück ham wir ja Youtube mit side by side a la DudeRandom...

Du hast eine Nvidia-Referenzkarte offenbar noch nie ohne Wasserkühler betrieben – aber bitte poste deswegen nicht bei jeder Aktualisierung unserer Benchmarkwerte dasselbe. ;) Siehe hier: http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/410090-gpu-leistungsindex-2015-16-radeon-und-geforce-modelle-im-benchmarkvergleich-11.html#post9072228

Hier noch eine generelle Anmerkung zu heutigen Benchmarks: http://extreme.pcgameshardware.de/n...-frostbite-racers-liveticker.html#post9116335

MfG,
Raff
 
4K beschreibt per Definition alle Auflösungen die bei etwa 4000x2000 Bildpunkten liegen ( = 4K2K).
Dazu zählt unter anderem auch die für das Kino gewählte Auflösung von 4096 × 2160.

UHD hingegen bezeichent die Auflösung 3840x2160, was genau dem Vierfachen von (Full)HD 1920x1080 (2x 1920 + 2x 1080) entspricht und somit einfacher für den Heimbedarf umzusetzen ist.

Nicht verwirren lassen.
 
Irgendwie krass, nach 3 Jahren mit der R9 290 kann ich immer noch auf keine lohnenswert schnellere Karte umsteigen, ohne mindestens 300€ auszugeben ¯\_(ツ)_/¯
 
Ich trau's mich gar nicht zu fragen... mit oder ohne Meltdown/Spectre-Patch?

Schon etwas mehr Nvidia/Gameworks-Titel wie immer.


Edit: Shadow Warrior 2 "beliebt" mit 350.000 Verkäufen nach so langer Zeit, habe ich etwas verpasst? Ein Mittelerde: Schatten des Krieges mit 700.000 in nur 3 Monaten ist vielleicht beliebt, aber das wäre etwas heikel gewesen wegen VRAM-Hunger, Nvidia-Pferdefuß. Beides wäre aber immerhin ein Nvidia-Titel gewesen. Oder Resident Evil 7 mit über 1,7 Millionen Verkäufen, da sähe Nvidia leider gar nicht gut aus, dennoch Nvidia-Titel.
 
Zuletzt bearbeitet von einem Moderator:
Ich trau's mich gar nicht zu fragen... mit oder ohne Meltdown/Spectre-Patch?

Schon etwas mehr Nvidia/Gameworks-Titel wie immer.

Ich habe das bisher nur so verstanden, dass es eine Einschränkung nur im CPU-Limit gibt.
Bei Spielen im GPU-Limit, sollte es den Prozessor nicht so sehr interessieren.

Ein Prozessorlimit hat in Grafikkartenmessungen nichts zu suchen, weshalb wir Maßnahmen ergreifen mussten: Damit auch die schnellsten Grafikkarten in Full-HD-Auflösung nicht von der zur Verfügung stehenden CPU-Leistung gebremst werden, haben wir in ein paar Spielen die Renderauflösung alias Auflösungsskalierung auf 150, 167 oder gar 200 Prozent angehoben.



Sehr schöne Tests wieder.:daumen:

Ich habe in Full HD auf den Unterschied der 1080 TI zur Vega geachtet. Hier ist natürlich immer das gleiche, diwe letztes Jahr zu sehen. Meistens 25-30% Unterschied. Natürlich gibt es Ausreißer.

Was ich sehr gut finde ist die Optimierung von Wolfenstein. Da prügelt sich ja die Vega mit der Titan Xp um den ersten Platz.
Auch noch interessant, wie meine Fury einbricht. Das liegt wahrscheinlich vorrangig am Videospeicher, da ja die RX580 deutlich mehr liefert.
 
Ich trau's mich gar nicht zu fragen... mit oder ohne Meltdown/Spectre-Patch?

Ohne, allerdings bewegen wir uns ja im Grafiklimit und daher sollte das egal sein. Umstellung erfolgt, wenn "alles" gepatcht ist.

Schon etwas mehr Nvidia/Gameworks-Titel wie immer.

Zähl nochmal. ;) Gameworks in Form von Nvidia-Code-Bausteinen enthalten nur The Witcher 3 (Hairworks) und Ghost Recon Wildlands (Turf). Dem gegenüber stehen die klar AMD-optimierten Titel Dirt 4 und Wolfenstein 2.

MfG,
Raff
 
Insgesamt sehr gute und erfreuliche Überarbeitung des Parcours, bin da vollkommen bei Euch. Gerade was die Repräsentativität von Vulkan betrifft hat CB hier 10%, wobei es bei nun 7.500 Spielen im Jahr 2017 lediglich Doom und Wolfenstein nennenswert geschafft haben. DX12 hat sich analog jüngerer News wieder rückläufig entwickelt, was wiederum im Status Quo bedeutet, es dreht sich faktisch noch immer alles um DX11 high level.

Spezifisch Wolfenstein mit ergänzender Unterstützung der idTech Coder dürfte insofern ein Einzelstück bleiben, denn wo keiner Vega kaufen kann braucht auch kein Entwickler von sich aus Unterstützung anbieten - kostet Geld und Zeit, was per se in der Spieleentwicklung Mangelware ist, geschweige sich mit lowlevel selbst um jedes kleinklein zu kümmern.

Bissl meh finde ich die Verwendung von Referenzkarten, denn AMD und Nvidia unterscheiden sich in dieser Hinsicht meiner Meinung nach gewaltig in der Verbreitung in Heim-Rechnern. Selbst die günstigste 1080 (Palit GeForce GTX 1080 GameRock Premium Edition) hält den Boost DAU-tauglich out of the box auf 1887Mhz, also 200Mhz mehr als im Test angegeben. Die günstigste 1070 (MSI GeForce GTX 1070 Armor 8G OC) taktet bei 1900+, ebenso 250+ Mhz. Diejenigen, welche die FE tatsächlich von Nvidia gekauft haben, schnallen wohl eher WaKü-Blöcke drauf. Hingegen dürften die Referenz-Vegas den Werten im Test relativ nahe sein. Um höhere Werte zu erhalten muss der User selbst mehr oder weniger Hand anlegen (inklusive Spannungsveränderung).

Davon abgesehen finde ich das Verfahren rund um die FHD Auflösung mit Downsampling eine gute Entscheidung! Die HQ-AF Problematik bei AMD stößt wiederum scho bissl sauer auf, Bug oder Feature vom Treiber?
 
Zuletzt bearbeitet:
Zurück