Red Dead Redemption 2: Bis zu 45 Prozent mehr UHD-Leistung mit DLSS?

Hi, hab gerade bei Blautemple den Effizienstest von Intel und AMD gesehen. Wohl erstellt von CapframeX ?
In diesem Thread.

Also, da wird der Intel von 5,3 auf 4,5 ghz untertaktet und mit Ram übertaktet
und der AMD von 4,7 Ghz auf 4,5 untertaktet sowie mit normalem Ram getestet.
Dann schreibt ihr etwas von kluger Chip-Verwaltung bei Intel und bessere Effizienz bei der Firma.

Ich hätte mal einen Wunsch an euch.
Schaltet doch mal eine Kommentartfunktion auf der Seite frei bitte?

Faire Bedingungen sind das jedenfalls nicht. Das wirkt ziemlich konstruiert und ist auch noch nur auf Games bezogen, für mich zu wenig um ein Effizienzfazit zu ziehen.

Ich könnte auch mal einen Test der Effzienz veröffentlichen.
Mit Prime95, den neuesten Prozessoren, ohne händische Optimierung und beide Prozessoren auf übertakterbords, ohne iwas einzustellen. Dennoch wäre selbst das fairer als dieser "Test" von euch.

Wenn ihr aber zeigen wolltet, dass man mit intel genauso sparsam sein kann wie mit AMD, dann habt ihr das geschafft.
Dafür darf man den intel nur kaum auslasten, den Ram übertakten und die CPU untertakten
sowie AMD fast mit normalen Settings testen, bei geringer Auslastung.
Dann fällt nämlich der Chipinterconnect bei AMD ordenlich ins Gewicht.

Wenn man wirklich wisseen möchte, was die 7nm von AMD bringen, dann muss man die 7nm-Schaltungen auch einsetzen.
Genauso wie man die 14nm von intel einsetzten muss.
Das heißt, bei AMD wird mit zunehmendem Takt erst mal die Schwelle des Mehrverbrauchs der Logik im Vergleich zum interconnect erreicht, bis dann später, bei hoher Auslastung der größte Teil des Verbauchs auf die Recheneinheiten geht.
Das was ihr im Ergebnis habt, ist wohl zu einem erheblichen Teil 12nm interconnect +12nm IO vs 14nm+++++++++++ intel in untertaktet.

Grüße
 
Zuletzt bearbeitet:
Ich glaube die Settings werden z.T. hinsichtlich Qualitätsgewinn überbewertet. Meist reicht:

meine low-ultra Settings für 4k60fps z.Vgl., noch etwas ggü. HBU abgewandelt speziell für AMD und nur die
optisch wichtigen Dinge auf mittel-ultra (hatte die Settings noch von Vega her drin)
(damits läufts übrigens avg. bei 130...135W asic = 160..165W gesamt)
AF unter 16x zu stellen lohnt sich heutzutage nie, die Karten sind allesamt mit absolutem TMU-Overkill ausgestattet. Ich empfehle sogar, 16xHQ im Treiber zu forcen. Nicht umsonst haben Redaktionen aufgehört, den Einfluss von AF auf die Performance weiterhin in ihre Benches mit aufzunehmen...
 
Wozu brauchst Du AF 16x wenn eh TAA in der Ferne alles wegretuschiert?
Ja, insofern, als 16x kostet kaum Leistung.

Gerade bei Games mit SMAA lohnt sich dann 16x wieder.
Man kann auch das GameAA= off setzen und per Reshade SMAA versuchen.
 
Wozu brauchst Du AF 16x wenn eh TAA in der Ferne alles wegretuschiert?
Ja, insofern, als 16x kostet kaum Leistung.
Für AF gibt es (mindestens?) drei Argumente: Schärfe, temporale Stabilität und Blickwinkelstabilität.
Das TAA greift die Schärfe an, erhöht dafür die temporale Stabilität und arbeitet in beiden Punkten besser, wenn das Grundmaterial besser ist. Aber allein schon für die Blick- oder Betrachtungswinkelstabilität sollte es sich lohnen.
 
Ich hab bei RDR2 mit TAA=normal keine Probs.

Da AMD auch noch die Baumtess. besser kann, siehts eh nice aus.

btw.
bei mir@4k schaut auch SoTR@smaa gut aus und Da lohnt sich dann AF16
 
Also, da wird der Intel von 5,3 auf 4,5 ghz untertaktet und mit Ram übertaktet
und der AMD von 4,7 Ghz auf 4,5 untertaktet sowie mit normalem Ram getestet.
Dazu will ich mich mal kurz äußern:
Stock beträgt er Takt beim 10900K 4,9GHz in den meisten Spielen. Die 5,3GHz liegen ganz kurz bei Single Core Last an, was Spiele nicht sind.

Zusätzlich wurde der RAM beim 5900X selbstverständlich auch übertaktet/optimiert. Das wüsstest du aber auch wenn du den Vergleich wirklich gelesen hättest.

Auf den ganzen Rest gehe ich nicht weiter ein, weil du offensichtlich weder verstehen kannst noch willst worauf ich/wir bei dem Vergleich überhaupt hinaus wollten.
 
Faire Bedingungen sind das jedenfalls nicht. Das wirkt ziemlich konstruiert und ist auch noch nur auf Games bezogen, für mich zu wenig um ein Effizienzfazit zu ziehen.
Noch ergänzend zu den Ausführungen von @blautemple. Kritik ist nie verkehrt und wir setzen uns damit auch gerne auseinander.

Grundsätzlich sei angemerkt, dass der Test sich nur auf Gaming Szenerien beschränken sollte. Das war vorab unsere Absicht. Wir hätten auch gerne andere CPUs verglichen, insbesondere Modelle mit 6 und 8 Kernen. Leider stand uns die Hardware nicht zur Verfügung.

Intel CPUs zeigen sich in Workloads mit mittlerer Auslastung im Vorteil, das gilt natürlich nicht für Anwendungen, die Volllast verursachen. Genau das wollten wir untersuchen. Der besseren Fertigung von TSMC auf der einen Seite stehen gegenüber ein Chipletdesign, Kommunikation über den IF, fehlende P-States des I/O-Dies und ein scheinbar zu aggressives Boostverhalten. Wir sind der Meinung, dass Ryzen CPUs hier Optimierungspotential haben.
 

Zockst du eigentlich mit schwarzen Balken ums das Bild herum?

Habe selber viel mit 3200x1800p experimentiert und auf 2160p/UHD Bildschirme (egal ob Minitore oder TVs) aufgeblasen verliert man dennoch Ecke Bildschärfe und Farbtreue. Außer man spielt halt pixelgenau zu und hat halt schwarzen Bilderrahmen um das Bild. Da wäre Schärfe ja kein Problem
 
seit wann kann amd eine bessere baumtesselierung?
Schau halt ins RDR2 -Review, ...soll mit NV putzig aussehen.
(ist evtl. keine klassische Tess sondern z.T. älteres POM)

Haste denn inzwischen mal Deine Graka mit 200W in TS getestet?
Wäre nett, wenn Du net überall neue Fragen stellst, sondern auch mal ne Sache zu Ende bringst.

Snowhack mit der 3080ti hat schonmal vorgelegt!
 
Zockst du eigentlich mit schwarzen Balken ums das Bild herum?

Habe selber viel mit 3200x1800p experimentiert und auf 2160p/UHD Bildschirme (egal ob Minitore oder TVs) aufgeblasen verliert man dennoch Ecke Bildschärfe und Farbtreue. Außer man spielt halt pixelgenau zu und hat halt schwarzen Bilderrahmen um das Bild. Da wäre Schärfe ja kein Problem
Via VSR über den AMD Treiber erledigt das die GPU Skalierung sauber für mich. Das arbeitet deutlich besser als DSR z.B. oder eine Monitorskalierung. Ich nutze es an einem QHD Monitor, aber auch am UHD TV wenn die Leistung mal nicht reicht.
 
Via VSR über den AMD Treiber erledigt das die GPU Skalierung sauber für mich. Das arbeitet deutlich besser als DSR z.B. oder eine Monitorskalierung. Ich nutze es an einem QHD Monitor, aber auch am UHD TV wenn die Leistung mal nicht reicht.
das ist genau das selbe wie dsr und 3200x1800 machen keinen sinn. probier mal 2880x1620p aus
Schau halt ins RDR2 -Review, ...soll mit NV putzig aussehen.
(ist evtl. keine klassische Tess sondern z.T. älteres POM)

Haste denn inzwischen mal Deine Graka mit 200W in TS getestet?
Wäre nett, wenn Du net überall neue Fragen stellst, sondern auch mal ne Sache zu Ende bringst.

Snowhack mit der 3080ti hat schonmal vorgelegt!
nein keine lust karte rennt sehr gut. hast du einen link wo das auch gezeigt wird mit der tesselation? ergibt wenig sinn da nvidia noch immer die bessere tesselation leistung hat.

finde im web nur das amd probleme mit der tesselierung hatte bei dem game. und hatte ja eine rx 5700xt und hatte keine chance egal was ich einstellte ein so smoothes bild wie bei meiner freundin mit einer 1060 zu erreichen bei gleichen settings habe sogar monitor und tv umgeschlossen. was bild anbelangt ist nvidia noch immer könig
 
Zuletzt bearbeitet:
Pascal+Turing hatten Damit wohl PerformanceProbs

War beim Benchen bei der "objektiven" PCGH immer OFF. (warum wohl?)


Mal z.Vgl. die "subjektive" CB: ...5700xt > 2080FE
 

Anhänge

  • RDR2.JPG
    RDR2.JPG
    87 KB · Aufrufe: 25
Zuletzt bearbeitet:
Pascal+Turing hatten Damit wohl PerformanceProbs

War beim Benchen bei der "objektiven" PCGH immer OFF. (warum wohl?)


Mal z.Vgl. die "subjektive" CB: ...5700xt > 2080FE
da stand nirgends was das bei nvidia ein tesselation problem vorhanden ist. ausserdem vergleichst du auch 5700xt mit 2080 und das war nur 1 bis 2 mal der fall das die gleich auf sind. denke eher beim benchen haben die das weggelassen das amd nicht komplett einbricht
 
Sorry,
Werde Das net mit Dir vertiefen. = schade um die Zeit
Es gibt zig Seiten Foren mit dem Problem.

Kauf Dir mal Google!
 
besser = mit weniger Perf.verlust (ging net um Qualitätsvgl.)

Bild war schon im Post#32, ... zoom halt ran.
 
wow ein bild ohne vergleich und dann sagen amd kann tesselation besser darstellen^^von der performance her kann ich dir 50 andere zeigen wo die 2070 kreise um die 5700xt dreht mit tesselation
 
Zurück