Control im Test: Grafikkarten-Benchmarks ohne Raytracing, 20 Modelle im Test

Jo,
es hat schon seinen Grund warum pcgamer 97% und CB 98% nimmt. Gaussmath hat das auch im Thread zu OCAT mal erklärt.
OCAT wurde von Github entfernt, weil offenbar Benchmarks durch das Tool beeinflusst wurden.

CB verwendet Average und das 99.8% Perzentil für die GPU Benchmarks sowie Average und 99% Perzentil für die CPU Benchmarks.

Warum OCAT von GitHub entfernt wurde, ist reine Spekulation. Es kann sein, dass AMD den Open Source Ansatz abschaffen will, weil FrameView von Nvidia auch nicht bei GitHub einsehbar ist. Keiner will sich in die Karten schauen lassen.

Ich sehe das kritisch. Benchmark-Tools müssen einsehbar sein, sonst kann man die Berechnung der Metriken nicht kritisch prüfen. Ich werde CapFrameX auf gar keinen Fall von GitHub entfernen. Ich bin für volle Transparenz und würde mich jederzeit jeder (sinnvollen) fachlichen Diskussion stellen.
 
Zuletzt bearbeitet von einem Moderator:
Vllt. mal noch zur Ergänzung. Zu Hardware - Reviews

HW Luxx ist net perse abzutun. Immerhin das einzige Review mit HDR!
Powercolor Red Devil Radeon RX 5700 XT im Test - Hardwareluxx
Ob alle Games tatsächlich volle Farben nutzen oder ala MEA extra für NV optimiert wurde weiss ich net.
(auch ob RGB 4:4:4 oder bei NV YUV genutzt wurde = Bandbreitenunterschied)
BF V nur in DX11 ist auch net so sinnvoll.Man hätte ruhig mal DX12 dazu nehmen können.

IgorsLab
Igor gibt meist sehr gründliche Infos zu den Frametimes und zur Uneaveness.

Vernünftigerweise nutzt Er spielbare Settings und differenziert die Einstellungen je nach Auflösung.
AMD Radeon RX 5700 und RX 5700 XT im Test – Der Raytracing-freie Sargnagel von Vega und bis zu 2.1 GHz Takt unter Wasser – Seite 3 – igor sLAB
(speziell zum Artikel sollte man noch sagen, das die Super eigentlich nur umgelabelte größere Modelle sind, wo durch den Druck von Navi endlich mal Bewegung reingekommen ist. Bei Vega+ R7 muss man momentan vorsichtig in der Bewertung sein, weil anscheinend das Zusammenführen von GCN+RDNA im Treiber noch net optimal ist)

Zusätzlich spielt noch die Bildausgabe eine Rolle. AMD nutzt meist Einfachbuffer aber NV gerne Doublebuffer.
D.h. die Maus reagiert erst ein Bild später, was bei 100fps OK ist aber net bei <50fps.
Die ganz neuen Treiber haben außerdem AntiLag bzw. UltraLowLatency(was net richtig funzt).
Man deaktiviert dann in Games die reduzierte Verzögerung und nutzt AntiLag. Einen Versuch ist es wert.
(AntiLag ist net nur 1x Buffer sondern insgesamt CPU+GPU+RAM+PCiE-Auslastung optimiert)
 

Anhänge

  • 2019.08.10-21.48.jpg
    2019.08.10-21.48.jpg
    835,6 KB · Aufrufe: 20
Zuletzt bearbeitet:
Soweit mir Jemand zugetragen hat geht bei AMD jeweils 32 Befehle Int und FP gleichzeitig.
Turing kann aber je 64 Einheiten und hat deswegen mehr Spielraum.

Wie effizente es jeweils ist hängt ja von sehr vielen Faktoren ab. Zahlen allein bringen nur eine grobe Übersicht.

Double Precision wird bei Games wohl eher weniger eingesetzt, weil diese hohe Genauigkeit wenig Sinn macht. Aber man kann es natürlich "künstlich" forcieren. ;)

Ach, du meintest die Breite der Vektoreinheiten... Das kann natürlich eine Rolle spielen.
 
Man bau dir nen spielefähigen PC und schmeiss den Plastikklumpen PS4 in die Tonne dann brauchst du hier auch nicht so rumheulen das dass Spiel ja so Scheissse ist und die Engine ja so übel und blablabla. Überings das hier ist ein PC Games Hardware Forum :P.

ne danke und wegen control schon gar nicht. das kann ich mir dann auch für die ps5 um 10€ gebraucht holen.
ich hol mir im herbst erst mal eine switch als zweitkonsole inkl. zelda und pro gamepad.
für die ps4 habe ich noch 3 games herumliegen, die ich noch nicht gespielt habe.
... weiters wird mein desktop kommendes jahr durch einen zenbook pro oder dell xps laptop ersetzt.

seit dem mining-boom ist für mich pc gaming - game over :daumen2:
 
Zuletzt bearbeitet:
Was haben die Texturen und das LoD mit RayTracing zu tun? Bei mir ändert sich dahingehend nichts, wenn ich RT bei BF5 einschalte.
Texturen oder auch das allgemeine Level of Detail werden durch den verfügbaren Grafikspeicher limitiert.
Wenn jetzt Unternehmen XY gerade eine neue Grafikkarte auf den Markt wirft welche nur 6GB VRAM bietet, der für eine neue Technologie ausgewählte Vorzeigetitel aber derer 8GB benötigt, wird in Zusammenarbeit mit dem Entwicklerstudio halt versucht den Bedarf an VRAM zu verringern.
Wenn meine Erinnerung mich nicht trügt, wurde in BF V nachträglich noch viel optimiert und beispielsweise die Anzahl verschiedener Texturoberflächen im dargestellten Bildausschnitt verringert. Ging seinerzeit mit der Raytracing-Optimierung einher.
Dass an den Texturen von Gebäudefassaden am Map-Rand so extrem gespart wird finde ich einfach schade, nur damit eine VRAM unterbestückte GPU dennoch problemlos das Ultra-Preset stemmt.
Bleibt letztendlich eine meinen Beobachtungen geschuldete Theorie und Herleitung. Extrembeispiel in die andere Richtung wäre sicherlich The Division 2.
 
Schöner Artikel!
DX12-Test gabs ja schon, hier der DX11-Test.

Interessant finde ich die min. FPS / Percentils bei DX11/12 im Vergleich. Das ist schon krass.
Die Tuningtips finde ich erstklassig! Habe auf dem Slider Unterschiede sehen können aber keiner würde mich von der "besseren" Qualitätsversion überzeugen können.
 
Was haben die Texturen und das LoD ....

Weil Ihr gerade Davon redet:
Im NV-Treiber gibt es ne Option negative TexturLOD = allow. Würde mich mal interessieren ob Das default ist.
Und welche Auswirkung Das auf die Darstellung+Vram-Verbrauch+Streamen+Fps hat.

Bildqualität am Besten mal ohne TAA-Matsch vergleichen.(ne 2060 mit 6GB wäre ideal, weil evtl. im Limit)
Müsste natürlich ein Game sein, was von Haus etwas mehr Vram braucht. RE2 o.ä.
 
Zuletzt bearbeitet:
Freut Euch lieber gemeinsam, das beide neuen Gens mit ordentlicher Software auch Ihre Möglichkeiten besser ausschöpfen können.
Es sollte zusätzlich eine Stufe über High/Ultra geben, damit nochmal Platz für die Ti und FutureGrakas bleibt.

Die XT und die 2070 und die 2070 Super mit der höchsten Stufe in 4k zu quälen macht keinen Sinn.
Genauso könnte die Ti in WQHD auch noch ein Extrem ala "Mein Leben" nutzen.

Warum bei HuntShowdown die Texturen so schwach sein müssen ist auch net klar.
Scheint aber bei einigen neuen Games auf 6GB abzuzielen. (keine Idee von Team R)
Hoffentlich gibts ein paar ordentliche Mods.
 
Zuletzt bearbeitet:
Oh Leute, was für eine grandiose Mission ich gerade gespielt habe... :sabber:
Habe das mal aufgenommen, aber Vorsicht SPOILER für die, die gar nix vorher wissen möchten.

Ansonsten aber auch in technischer Hinsicht ein schönes Beispiel was passiert, wenn ich den ISLC (intelligent standby list cleaner) vergesse einzuschalten.
So sieht das stuttering auch bei Division 2 aus. Mit dem Tool ist alles sauber.

Egal, darum geht es eigentlich gar nicht. Wer möchte, einfach genießen und viel Spaß: :daumen:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Korrekt, die Sache war gemeint.

Schon das nächste Game was Turing und RDNA bevorzugt.

Hunt: Showdown im Technik-Test: GPU-Benchmarks, Frametimes und Fazit - ComputerBase

Vermutlich ist hier ebenfalls Team Grün schuld dass es auch bei Rot besser auf der neueren Architektur läuft.^^
grafikarten war nie riesenprobem bei hunt´ problem war immer cpu.. das spiel hat überfordert alle prozessoren stark. ich bin gespannt wie ist in retail-version???
ich finde keine vernünftigen cpu-tests mehr zu spielen??? ´´ nicht jeder kann leisten 9900k´ das ist von enorme bedeutung und sehr wichtig
1080ti ´ 1080 ´ 1070ti hingen im cpu-limit
Hunt Showdown GPU/CPU | Action / FPS / TPS | GPU
crysis 1-3 wareen noch sehr gpu-lastig und cpu spielte untergeordente rolle´ kleinere rolle
ich würde seolche übersichtliche ´aufwendige cpu-tests von anderen seiten auch wünschen´ gibt es leider nicht
kurze edit
zu diese seite game-gpu nochmal tip´´ oben rechts findet ihr alle fahnen´ wählt einefch deutsche und seite wird komplett übersetzt
in kleine balken gleich neben den fahnen sind noch weitere sprachen möglich´
hier ist link zu hauptpage
Тесты видеокарт и игр, обзоры , новости мира игр и IT технологий.
Тесты видеокарт и игр, обзоры , новости мира игр и IT технологий.
 
Zuletzt bearbeitet:
Oh Leute, was für eine grandiose Mission ich gerade gespielt habe... :sabber:
Habe das mal aufgenommen, aber Vorsicht SPOILER für die, die gar nix vorher wissen möchten.

Ansonsten aber auch in technischer Hinsicht ein schönes Beispiel was passiert, wenn ich den ISLC (intelligent standby list cleaner) vergesse einzuschalten.
So sieht das stuttering auch bei Division 2 aus. Mit dem Tool ist alles sauber.

Egal, darum geht es eigentlich gar nicht. Wer möchte, einfach genießen und viel Spaß: :daumen:

Findet ihr nicht die Performance etwas mies, zu dem optisch gebotenen?
 
Kann es sein, dass das Spiel kein G-Sync unterstützt?

Fenstermodus funktioniert, aber im Randlos/Vollbild Modus bleibt der Monitor immer auf max. Hz.
 
Aber interessant das bei I3uschi der ISCL so gut funzt.

btw.
Bei HS ist der Sound net schlecht.

Bin auch echt glücklich über dieses Tool. Man darf halt nur nicht vergessen es zu aktivieren. :hmm:

Kann es sein, dass das Spiel kein G-Sync unterstützt?

Fenstermodus funktioniert, aber im Randlos/Vollbild Modus bleibt der Monitor immer auf max. Hz.

G-Sync funzt bei mir 1A und ohne Probleme. Klingt komisch bei dir und wenn hätte ich es eher anders herum erwartet, also Vollbild ja und Randlos nein.
Zumal bei den Frames (mit RTX) und da Control ja auch ein Shooter ist, ist G-Sync ja schon irgendwie Pflicht.
Check nochmal deine Einstellungen, G-Sync geht auf jeden Fall.
 
Zurück