Grafikkarten-Rangliste 2023: 31 Radeon-, Arc- und Geforce-GPUs im Benchmark

Bin ich jetzt blind oder wo sehe ich um welche 20 Games es sich hier handelt? Oder sind es mal wieder hauptsächlich Retro-Games :D
 
Zuletzt bearbeitet:
Ja bist du :-D

Gleich im ersten Absatz wird hierher verlinkt:

rBar+SAM wäre ggf. ne TOP-News wert.
Da sind die Herren doch grad dran, was man so von @PCGH_Dave und @PCGH_Raff hier zuletzt gelesen hat.
 
Welche Treiber wurden denn nun verwendet?

Im Ranking wird dies ja wirklich nur sehr allgemein gehalten, Radeon nutzen 21.x? Geforce 461.x? Wir sind bei NV schon bei 466.x, bei Radeon zwar nur 21.4, aber gerade zwischen der ersten 21er und der dritten Inkarnation gab es nicht unerhebliche Leistungssteigerungen. Bei Nvidia sind diese nicht in der Breite da.

Mir ist absolut klar, dass man nicht alles neu testen kann, aber wenn so ein Update kommt, dass signifikante Boosts gibt, wäre es doch sicherlich machbar, ein Exemplar der aktuellen Riege zu testen, oder? So sind die Ergebnisse für mich derzeit recht wahllos, da eben niemand weiß, wer jetzt wo steht. Bei AMD weiß ich, dass es hier ein deutliches Plus gab, zum einen selbst probiert, zum anderen wurde der Unterschied in einer CB Analyse sichtbar. Random würde ich auf deutlich über 5% Leistungsplus schätzen, was die Karte auch hier sehr nahe an die 3090 bringen würde, je nach Gewichtung der Games auch drüber hinaus. Gerade mit aktiviertem SAM wurde die Leistung deutlich gesteigert.

Bei NV meine ich mich erinnern zu können, dass es auch nach vorne ging, aber deutlich selektiver als bei AMD. Da waren einige Spiele bei, bei den meisten aber nicht wirklich etwas.

Könnte man es nicht einrichten, bei jedem Update (mit Performance Verbesserungen; diese werden ja in den Release Notes meistens angekündigt) ein Treibertest (mit jeweils einer Karter)zu machen? Wäre ja wirklich interessant, wieviel die Karten gewinnen, gerade auch mit der Zeit. So ist dies immer abhängig davon, wie gut oder schlecht der Releasetreiber war.
 
Im Endeffekt wird sich durch rBar und SAM das Feld etwas näher zusammen schieben.
Dann sinds statt 10% Unterschied zwischen einer RTX3090 und RX6900XT nur noch 5 bis 8%.

Also nicht der Himmelweite Unterschied.
 
Das wäre erstmal zweitrangig, aber der NeuPC-Käufer möchte gerne wissen ob rBar vs SAM
bei der Systemzusammenstellung berücksichtigt werden muss.
dito Treiberoverheads

Insofern bestimmt kein Zufall, das Ampere zusammen mit recht potenten CPU´s in die PCGH-FertigPC gepackt wird.
Am Ende sollte man mal ne kleinere CPU+RDNA2+schneller Ram vs größere CPU+Ampere+Gear1-Ram im Budget vgl., bzw. evtl. sogar noch Mehrkosten für NT+Gehäuse, wenn der Ampere+RKL-Build zu fett ausfällt.
 
Zuletzt bearbeitet:
Das Problem ist leider das da sehr viele Faktoren mit reinfließen,
Das fängt bei der Spieleauswahl an,
Geht über den benutzten Treiber.. und hat auch mit der verwendeten CPU zu tun.

Mit Sam/rBAR sind die AMD Karten wieder etwas schneller als hier dargestellt wird.. auch die letzten zwei Treiber haben nochmal etwas an Leistung freigeschaufelt.

Im Grunde kann man sagen das die 6900xt+Sam und die rtx3090+rBar im Grunde auf einem Level sind.
Genauso wie 6800XT+Sam und RTX 3080+rBar

Je nach Spiel liegt mal die eine Karte vorne.. Mal die andere..

Worauf aber wirklich eingegangen werden muss ist das Problem des Nvidia Treiber overheads, gerade für diejenigen die ihren 2-3 Jahre alten CPU behalten möchten und nur Mal eben die GPU upgraden wollen.

Der Nvidia Treiber genehmigt sich Mal eben 15-25% CPU Leistung in dx12 games, die dann an anderer Stelle einfach fehlt...
Das merkt man in den Auflösungen FHD und teils auch in WQHD weil man hier bedeutend schneller in ein CPU Limit laufen kann.
Auch bei sehr CPU lastigen Spielen wird das ganze schnell zu einem Problem..
Klar fällt das bei nem neuen sehr starken CPU noch nicht auf..
aber ältere wie zb Intels 8000er und 9000er CPUs oder ryzen 3000er sind sehr schnell von der Problematik betroffen
 
Das Problem ist leider das da sehr viele Faktoren mit reinfließen,
Das fängt bei der Spieleauswahl an,
Geht über den benutzten Treiber.. und hat auch mit der verwendeten CPU zu tun.

Mit Sam/rBAR sind die AMD Karten wieder etwas schneller als hier dargestellt wird.. auch die letzten zwei Treiber haben nochmal etwas an Leistung freigeschaufelt.

Im Grunde kann man sagen das die 6900xt+Sam und die rtx3090+rBar im Grunde auf einem Level sind.
Genauso wie 6800XT+Sam und RTX 3080+rBar

Je nach Spiel liegt mal die eine Karte vorne.. Mal die andere..

Worauf aber wirklich eingegangen werden muss ist das Problem des Nvidia Treiber overheads, gerade für diejenigen die ihren 2-3 Jahre alten CPU behalten möchten und nur Mal eben die GPU upgraden wollen.

Der Nvidia Treiber genehmigt sich Mal eben 15-25% CPU Leistung in dx12 games, die dann an anderer Stelle einfach fehlt...
Das merkt man in den Auflösungen FHD und teils auch in WQHD weil man hier bedeutend schneller in ein CPU Limit laufen kann.
Auch bei sehr CPU lastigen Spielen wird das ganze schnell zu einem Problem..
Klar fällt das bei nem neuen sehr starken CPU noch nicht auf..
aber ältere wie zb Intels 8000er und 9000er CPUs oder ryzen 3000er sind sehr schnell von der Problematik betroffen
Zumal die Spiele auch wirklich richtig CPU Leistung brauchen seit geraumer Zeit.
 
Da fragt man sich Wofür!?
und
Dann gibts leider BF5@DX12, wo manche User dann net genau wissen, Worans hakt.
(dummerweise auch noch zeitgleich mit der kb-Affäre)
 
Das viele Spiele vermeintlich in dx11 besser laufen als in dx12 liegt einfach an Nvidia
.. ein bf1/bf5 läuft auf einer AMD karte in dx12 wesentlich flüssiger und besser als auf einer Nvidia Karte

Die spiele berechnen Mittlerweile viel mehr über die CPU.. Gegner Position Npcs.. hundert tausende kleiner Objekte.. Physik . 64+ Spieler auf ner Map und viele Games sind auch von hitscan weggegangen zu physikalisch berechneten geschossen mit bulletdrop und verschiedenen Geschoss Geschwindigkeiten.

Ein CPU Limit hat sogar massiv Einfluss auf die hitdetection.. in warzone merkt man das direkt wenn man im CPU Limit ist..

Und DLSS verringert nebenbei noch die Auflösung wodurch man noch eher in ein CPU Limit läuft..
Gerade bei CoD Regen sich zur Zeit viele auf das Dlss fast gar nix bringt oder den Input lag massiv erhöht.. oder es einfach deswegen massiv ruckelig läuft trotz hoher framerate
 
Zuletzt bearbeitet:
Bei so hohen Fps evtl. mal ohne Vsync probieren und inGame-Fps-Limiter so einstellen, das man das Limit vom Moni+CPU net erreicht, um die Backpressure zu reduzieren. Teilllast ist Trumpf beim Inputlag.
 
Zuletzt bearbeitet:
Bei so hohen Fps evtl. mal ohne Vsync probieren und inGame-Fps-Limiter so einstellen, das man das Limit vom Moni+CPU net erreicht, um die Backpressure zu reduzieren. Teilllast ist Trumpf beim Inputlag.
Vsync hat da gar nix mit zu tun. Auch ein CPU Limit kann Input lag erzeugen. Positionsdaten werden einfach nicht schnell genug verarbeitet.. das fühlt sich ingame dann an wie ein lag.. oder eine zeitliche Verzögerung.

Das sind die berühmten.. First Shot First Die Momente.. wo man gefühlt eine halbe Sekunde hinterher hängt
Viele schieben das auf die Verbindung.. oder auf die Server.. ist aber oft ein CPU Limit.

Natürlich kann man mit nem FPS Limit dagegen arbeiten. Nur ich spiele lieber im GPU als im CPU Limit weil's einfach noch n paar andere Probleme mit sich bringt.

Ich hab hier n 240hz Monitor.. mich interessiert weder vsync noch free-/Gsync..
Selbst bei 50fps siehst du kein Tearing mehr weil der Monitor einfach so schnell und oft aktualisiert..
70fps @ 240hz sieht genauso sauber aus wie 70fps synced
 
Wenn eine 4080 um 200% schneller wäre als eine 3090, käme ich 2022 in dringliche Aufrüstnöte. - bei meinen letzten Aufrüstnöten ließ ich den Wert jedoch laut PCGH-Leistungsindex auf 490% anschwellen.

Vielleicht also kann ich bei gleichbleibender "Schmerzresistenz" sogar bis zu einer 6080 warten - oder auch eine AMD bei akzeptabler RT-Performance (zwingend vorausgesetzt) nehmen .
 
Würde denken, die APU ist deutlich schwächer als eine 6500xt. (x)
(5700G in TS nur knapp 1800points)

(x) die 6500xt sollte man mit PCiE 4.0 verwenden, also wäre ein kleiner ADL sinnvoller als der 5700G
wenn man Beides verbinden möchte
 

Anhänge

  • 6500@TS.png
    6500@TS.png
    244,8 KB · Aufrufe: 26
  • 6500@FS-ultra.png
    6500@FS-ultra.png
    87,3 KB · Aufrufe: 25
Zurück