• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Red Dead Redemption 2: Bis zu 45 Prozent mehr UHD-Leistung mit DLSS?

Lamaan

Freizeitschrauber(in)
Hi, hab gerade bei Blautemple den Effizienstest von Intel und AMD gesehen. Wohl erstellt von CapframeX ?
In diesem Thread.

Also, da wird der Intel von 5,3 auf 4,5 ghz untertaktet und mit Ram übertaktet
und der AMD von 4,7 Ghz auf 4,5 untertaktet sowie mit normalem Ram getestet.
Dann schreibt ihr etwas von kluger Chip-Verwaltung bei Intel und bessere Effizienz bei der Firma.

Ich hätte mal einen Wunsch an euch.
Schaltet doch mal eine Kommentartfunktion auf der Seite frei bitte?

Faire Bedingungen sind das jedenfalls nicht. Das wirkt ziemlich konstruiert und ist auch noch nur auf Games bezogen, für mich zu wenig um ein Effizienzfazit zu ziehen.

Ich könnte auch mal einen Test der Effzienz veröffentlichen.
Mit Prime95, den neuesten Prozessoren, ohne händische Optimierung und beide Prozessoren auf übertakterbords, ohne iwas einzustellen. Dennoch wäre selbst das fairer als dieser "Test" von euch.

Wenn ihr aber zeigen wolltet, dass man mit intel genauso sparsam sein kann wie mit AMD, dann habt ihr das geschafft.
Dafür darf man den intel nur kaum auslasten, den Ram übertakten und die CPU untertakten
sowie AMD fast mit normalen Settings testen, bei geringer Auslastung.
Dann fällt nämlich der Chipinterconnect bei AMD ordenlich ins Gewicht.

Wenn man wirklich wisseen möchte, was die 7nm von AMD bringen, dann muss man die 7nm-Schaltungen auch einsetzen.
Genauso wie man die 14nm von intel einsetzten muss.
Das heißt, bei AMD wird mit zunehmendem Takt erst mal die Schwelle des Mehrverbrauchs der Logik im Vergleich zum interconnect erreicht, bis dann später, bei hoher Auslastung der größte Teil des Verbauchs auf die Recheneinheiten geht.
Das was ihr im Ergebnis habt, ist wohl zu einem erheblichen Teil 12nm interconnect +12nm IO vs 14nm+++++++++++ intel in untertaktet.

Grüße
 
Zuletzt bearbeitet:

CD LABS: Radon Project

Volt-Modder(in)
Ich glaube die Settings werden z.T. hinsichtlich Qualitätsgewinn überbewertet. Meist reicht:

meine low-ultra Settings für 4k60fps z.Vgl., noch etwas ggü. HBU abgewandelt speziell für AMD und nur die
optisch wichtigen Dinge auf mittel-ultra (hatte die Settings noch von Vega her drin)
(damits läufts übrigens avg. bei 130...135W asic = 160..165W gesamt)
AF unter 16x zu stellen lohnt sich heutzutage nie, die Karten sind allesamt mit absolutem TMU-Overkill ausgestattet. Ich empfehle sogar, 16xHQ im Treiber zu forcen. Nicht umsonst haben Redaktionen aufgehört, den Einfluss von AF auf die Performance weiterhin in ihre Benches mit aufzunehmen...
 

RX480

Lötkolbengott/-göttin
Wozu brauchst Du AF 16x wenn eh TAA in der Ferne alles wegretuschiert?
Ja, insofern, als 16x kostet kaum Leistung.

Gerade bei Games mit SMAA lohnt sich dann 16x wieder.
Man kann auch das GameAA= off setzen und per Reshade SMAA versuchen.
 

CD LABS: Radon Project

Volt-Modder(in)
Wozu brauchst Du AF 16x wenn eh TAA in der Ferne alles wegretuschiert?
Ja, insofern, als 16x kostet kaum Leistung.
Für AF gibt es (mindestens?) drei Argumente: Schärfe, temporale Stabilität und Blickwinkelstabilität.
Das TAA greift die Schärfe an, erhöht dafür die temporale Stabilität und arbeitet in beiden Punkten besser, wenn das Grundmaterial besser ist. Aber allein schon für die Blick- oder Betrachtungswinkelstabilität sollte es sich lohnen.
 

RX480

Lötkolbengott/-göttin
Ich hab bei RDR2 mit TAA=normal keine Probs.

Da AMD auch noch die Baumtess. besser kann, siehts eh nice aus.

btw.
bei mir@4k schaut auch SoTR@smaa gut aus und Da lohnt sich dann AF16
 

blautemple

Lötkolbengott/-göttin
Also, da wird der Intel von 5,3 auf 4,5 ghz untertaktet und mit Ram übertaktet
und der AMD von 4,7 Ghz auf 4,5 untertaktet sowie mit normalem Ram getestet.
Dazu will ich mich mal kurz äußern:
Stock beträgt er Takt beim 10900K 4,9GHz in den meisten Spielen. Die 5,3GHz liegen ganz kurz bei Single Core Last an, was Spiele nicht sind.

Zusätzlich wurde der RAM beim 5900X selbstverständlich auch übertaktet/optimiert. Das wüsstest du aber auch wenn du den Vergleich wirklich gelesen hättest.

Auf den ganzen Rest gehe ich nicht weiter ein, weil du offensichtlich weder verstehen kannst noch willst worauf ich/wir bei dem Vergleich überhaupt hinaus wollten.
 

gaussmath

Lötkolbengott/-göttin
Faire Bedingungen sind das jedenfalls nicht. Das wirkt ziemlich konstruiert und ist auch noch nur auf Games bezogen, für mich zu wenig um ein Effizienzfazit zu ziehen.
Noch ergänzend zu den Ausführungen von @blautemple. Kritik ist nie verkehrt und wir setzen uns damit auch gerne auseinander.

Grundsätzlich sei angemerkt, dass der Test sich nur auf Gaming Szenerien beschränken sollte. Das war vorab unsere Absicht. Wir hätten auch gerne andere CPUs verglichen, insbesondere Modelle mit 6 und 8 Kernen. Leider stand uns die Hardware nicht zur Verfügung.

Intel CPUs zeigen sich in Workloads mit mittlerer Auslastung im Vorteil, das gilt natürlich nicht für Anwendungen, die Volllast verursachen. Genau das wollten wir untersuchen. Der besseren Fertigung von TSMC auf der einen Seite stehen gegenüber ein Chipletdesign, Kommunikation über den IF, fehlende P-States des I/O-Dies und ein scheinbar zu aggressives Boostverhalten. Wir sind der Meinung, dass Ryzen CPUs hier Optimierungspotential haben.
 

KuroSamurai117

BIOS-Overclocker(in)

Zockst du eigentlich mit schwarzen Balken ums das Bild herum?

Habe selber viel mit 3200x1800p experimentiert und auf 2160p/UHD Bildschirme (egal ob Minitore oder TVs) aufgeblasen verliert man dennoch Ecke Bildschärfe und Farbtreue. Außer man spielt halt pixelgenau zu und hat halt schwarzen Bilderrahmen um das Bild. Da wäre Schärfe ja kein Problem
 

RX480

Lötkolbengott/-göttin
seit wann kann amd eine bessere baumtesselierung?
Schau halt ins RDR2 -Review, ...soll mit NV putzig aussehen.
(ist evtl. keine klassische Tess sondern z.T. älteres POM)

Haste denn inzwischen mal Deine Graka mit 200W in TS getestet?
Wäre nett, wenn Du net überall neue Fragen stellst, sondern auch mal ne Sache zu Ende bringst.

Snowhack mit der 3080ti hat schonmal vorgelegt!
 

Gurdi

Kokü-Junkie (m/w)
Zockst du eigentlich mit schwarzen Balken ums das Bild herum?

Habe selber viel mit 3200x1800p experimentiert und auf 2160p/UHD Bildschirme (egal ob Minitore oder TVs) aufgeblasen verliert man dennoch Ecke Bildschärfe und Farbtreue. Außer man spielt halt pixelgenau zu und hat halt schwarzen Bilderrahmen um das Bild. Da wäre Schärfe ja kein Problem
Via VSR über den AMD Treiber erledigt das die GPU Skalierung sauber für mich. Das arbeitet deutlich besser als DSR z.B. oder eine Monitorskalierung. Ich nutze es an einem QHD Monitor, aber auch am UHD TV wenn die Leistung mal nicht reicht.
 

manimani89

BIOS-Overclocker(in)
Via VSR über den AMD Treiber erledigt das die GPU Skalierung sauber für mich. Das arbeitet deutlich besser als DSR z.B. oder eine Monitorskalierung. Ich nutze es an einem QHD Monitor, aber auch am UHD TV wenn die Leistung mal nicht reicht.
das ist genau das selbe wie dsr und 3200x1800 machen keinen sinn. probier mal 2880x1620p aus
Schau halt ins RDR2 -Review, ...soll mit NV putzig aussehen.
(ist evtl. keine klassische Tess sondern z.T. älteres POM)

Haste denn inzwischen mal Deine Graka mit 200W in TS getestet?
Wäre nett, wenn Du net überall neue Fragen stellst, sondern auch mal ne Sache zu Ende bringst.

Snowhack mit der 3080ti hat schonmal vorgelegt!
nein keine lust karte rennt sehr gut. hast du einen link wo das auch gezeigt wird mit der tesselation? ergibt wenig sinn da nvidia noch immer die bessere tesselation leistung hat.

finde im web nur das amd probleme mit der tesselierung hatte bei dem game. und hatte ja eine rx 5700xt und hatte keine chance egal was ich einstellte ein so smoothes bild wie bei meiner freundin mit einer 1060 zu erreichen bei gleichen settings habe sogar monitor und tv umgeschlossen. was bild anbelangt ist nvidia noch immer könig
 
Zuletzt bearbeitet:

RX480

Lötkolbengott/-göttin
Pascal+Turing hatten Damit wohl PerformanceProbs

War beim Benchen bei der "objektiven" PCGH immer OFF. (warum wohl?)


Mal z.Vgl. die "subjektive" CB: ...5700xt > 2080FE
 

Anhänge

  • RDR2.JPG
    RDR2.JPG
    87 KB · Aufrufe: 20
Zuletzt bearbeitet:

manimani89

BIOS-Overclocker(in)
Pascal+Turing hatten Damit wohl PerformanceProbs

War beim Benchen bei der "objektiven" PCGH immer OFF. (warum wohl?)


Mal z.Vgl. die "subjektive" CB: ...5700xt > 2080FE
da stand nirgends was das bei nvidia ein tesselation problem vorhanden ist. ausserdem vergleichst du auch 5700xt mit 2080 und das war nur 1 bis 2 mal der fall das die gleich auf sind. denke eher beim benchen haben die das weggelassen das amd nicht komplett einbricht
 

RX480

Lötkolbengott/-göttin
Sorry,
Werde Das net mit Dir vertiefen. = schade um die Zeit
Es gibt zig Seiten Foren mit dem Problem.

Kauf Dir mal Google!
 

RX480

Lötkolbengott/-göttin
besser = mit weniger Perf.verlust (ging net um Qualitätsvgl.)

Bild war schon im Post#32, ... zoom halt ran.
 

manimani89

BIOS-Overclocker(in)
wow ein bild ohne vergleich und dann sagen amd kann tesselation besser darstellen^^von der performance her kann ich dir 50 andere zeigen wo die 2070 kreise um die 5700xt dreht mit tesselation
 

Bauchklatscher

Komplett-PC-Käufer(in)
besser = mit weniger Perf.verlust (ging net um Qualitätsvgl.)
Du hast geschrieben es nice aussehen, da AMD die Tesselation besser kann.
Das sind nicht meine Worte, sondern deine.
Bild war schon im Post#32, ... zoom halt ran.
Der Beitrag enthält keinen Vergleich zwischen AMD und Nvidia, insofern verstehe ich deinen Hinweis nicht. Wenn es keinen Qualitätsunterschied gibt, wie du jetzt einräumst, was bringt mir dann ein Heranzoomen?
Ob es Leistungsunterschiede gibt kann ich nicht beurteilen, aber auch das benötigt einen Beleg.
Ich finde im Netz nichts.
 
Zuletzt bearbeitet:

RX480

Lötkolbengott/-göttin
#54

Das ne 5700xt >2080FE abschneidet ist wohl kein Zufall, oder ?

Bei PCGames wurde der Leistungsverlust ja benannt. (10-20%)

Man kann sich auch extra "grün" anstellen und NIX finden.
Ende der Diskussion für mich.
 

manimani89

BIOS-Overclocker(in)
Nein ist es nicht.
eigentlich schon deine zielaulösung ist 1080p in deinem fall ist bei mir das gleiche kann nur 120hz 4k mit dsr da wie gesagt die zielauflösung 1080p ist. das ist normales downsampling was ich bei meinem sohn ja auch mit der rx 580 mache nichts anderes

also eine custom resolution erstellen ist downsampling. ein 4k tv kann nur 1080p oder 4k
 

Gurdi

Kokü-Junkie (m/w)
eigentlich schon deine zielaulösung ist 1080p in deinem fall ist bei mir das gleiche kann nur 120hz 4k mit dsr da wie gesagt die zielauflösung 1080p ist. das ist normales downsampling was ich bei meinem sohn ja auch mit der rx 580 mache nichts anderes

also eine custom resolution erstellen ist downsampling. ein 4k tv kann nur 1080p oder 4k
1. DSR und VSR ist nicht das selbe, es sind grundsätzlich verschieden technische Ansätze. VSR ist ein vollständiges SS des Bildes. DSR ist ein Gaussfilter der nachträglich über das Bild gelegt wird mit einer definierten Schärfe.
2. Ein 4k TV kann je nach Gerät auch QHD Auflösung darstellen, in meinem Fall 1440p mit 120Hz oder UHD mit 60Hz.
 

PC_race

Kabelverknoter(in)
Bei mir bleibt hängen beim Laden, oder im Spiel Abstürze.
Zu oft.
Wenn ich probiere Benchmark zu starten, dann noch Schlimmer.
Eher unstabil dieses Update noch, adere Spiele laufen Perfekt.
Ab und zu es geht, aber das sowas ist doch Beta Version.
 

manimani89

BIOS-Overclocker(in)
1. DSR und VSR ist nicht das selbe, es sind grundsätzlich verschieden technische Ansätze. VSR ist ein vollständiges SS des Bildes. DSR ist ein Gaussfilter der nachträglich über das Bild gelegt wird mit einer definierten Schärfe.
2. Ein 4k TV kann je nach Gerät auch QHD Auflösung darstellen, in meinem Fall 1440p mit 120Hz oder UHD mit 60Hz.
es wird trotzdem beides auf die ziellauflösung zurückgerechnet. das heisst du kannst´nicht einfach 3200x1600 am tv einstellen damit würde der upscaler niemals klarkommen. also am tv eben 1080p oder das 4 fache 4k. 1440p kannst vergessen. mein sony xh 9505 kann nichtmal dsr über 4k mein oled konnte das bis 8k ohne probleme. ausser du hast dann eben kein vollbild dann würde diese auflösung gehen sonnst nicht
 
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
Bei mir bleibt hängen beim Laden, oder im Spiel Abstürze.
Zu oft.
Wenn ich probiere Benchmark zu starten, dann noch Schlimmer.
Eher unstabil dieses Update noch, adere Spiele laufen Perfekt.
Ab und zu es geht, aber das sowas ist doch Beta Version.
Hab gestern ne Stunde gespielt ohne Probleme.
es wird trotzdem beides auf die ziellauflösung zurückgerechnet. das heisst du kannst´nicht einfach 3200x1600 am tv einstellen damit würde der upscaler niemals klarkommen. also am tv eben 1080p oder das 4 fache 4k. 1440p kannst vergessen. mein sony xh 9505 kann nichtmal dsr über 4k mein oled konnte das bis 8k ohne probleme
Nochmal, der Upscaler des Geräts ist deaktiviert, 1440p an meinem Samsung Panel ist eine vorprogrammierte Auflösung, das kann ich auch via CRU auslesen. VSR ist SS, der Scaler des Panels ist dabei irrelevant, limitieren tut lediglich der Videoausgang.
 

manimani89

BIOS-Overclocker(in)
Hab gestern ne Stunde gespielt ohne Probleme.

Nochmal, der Upscaler des Geräts ist deaktiviert, 1440p an meinem Samsung Panel ist eine vorprogrammierte Auflösung, das kann ich auch via CRU auslesen. VSR ist SS, der Scaler des Panels ist dabei irrelevant, limitieren tut lediglich der Videoausgang.
ja 1080p 1440p teileweise eingeschränkt und 4k können die tvs aber kein 3200x1800. also der tv würde dann wieder normales downsampling auf entweder 1080p oder in deinem fall 1440p was ich nicht empfehle machen. downsampling wie gesagt machst du entweder mit 1080p oder wenn du 8k willst musst du e von 4k weg
 

Ben das Ding

PC-Selbstbauer(in)
Danke, habe es gestern ausprobiert in 4k. Läuft mit maximalen Settings fast immer in 60 fps. Habe aber nur kurz reingeschaut. Ist aber eine spürbare Verbesserung. Habe Qualität ausgewählt in DLSS. Bekam erst eine Fehlermeldung. Zu wenig Speicher mit meinen 24 GB GPU und 32 GB Ram :-). OHA. Nach kurzem Integritätsdurchlauf lief es dann.... MSAA Reflexionen 2 fach! Qualität der Wasserreflektionenen ca. 3/4, TAA Sharpening auf 1/3, das ganze in DX12!
 

Anhänge

  • IMG-20210715-WA0056.jpg
    IMG-20210715-WA0056.jpg
    216,3 KB · Aufrufe: 8
  • k-Red Dead Redemption 2 Screenshot 2021.07.16 - 14.01.32.58.png
    k-Red Dead Redemption 2 Screenshot 2021.07.16 - 14.01.32.58.png
    3,3 MB · Aufrufe: 7
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
Danke, habe es gestern ausprobiert in 4k. Läuft mit maximalen Settings fast immer in 60 fps. Habe aber nur kurz reingeschaut. Ist aber eine spürbare Verbesserung. Habe Qualität ausgewählt in DLSS. Bekam erst eine Fehlermeldung. Zu wenig Speicher mit meinen 24 GB GPU und 32 GB Ram :-). OHA. Nach kurzem Integritätsdurchlauf lief es dann.... MSAA Reflexionen 2 fach! Qualität der Wasserreflektionenen ca. 3/4, TAA Sharpening auf 1/3, das ganze in DX12!
Das verwende ich fast exakt genauso, nur das ich noch TAA Hoch verwende in Kombi mit 2x MSAA beim AA, Sharpener ebenfalls bei etwa einem drittel. So sieht das Spiel um Welten besser aus und hinterlässt selbst heute noch das ein oder andere Staunen bei mir.
 

Ben das Ding

PC-Selbstbauer(in)
Leider habe ich aktuell ständig Abstürze/Fehlermeldungen! Habe es jetzt deinstalliert und lade es noch mal neu. Ständig dieser Speicherfehler aber auch andere Fehler. Nervig. Sind ja nur 115 GB! Was ist da los?! Denke eigentlich nicht dass ich untermotorisiert unterwegs bin. System wurde erst neu aufgespielt. Spiel ist auf einer SSD!
Bei mir bleibt hängen beim Laden, oder im Spiel Abstürze.
Zu oft.
Wenn ich probiere Benchmark zu starten, dann noch Schlimmer.
Eher unstabil dieses Update noch, adere Spiele laufen Perfekt.
Ab und zu es geht, aber das sowas ist doch Beta Version.
Willkommen im Club!
 
Oben Unten