Doom Eternal: DLSS- und Raytracing-Vorteile - Raytracing auch über AMD-Treiber

FFX ist erst seit 8 Tagen verfügbar, dafür ist es schon in sehr vielen Spielen implementiert. DLSS ist auf der anderen Seite schon seit 2018 erhältlich, von "gleich" kann also keine Rede sein.

Insgesamt ist FFX der deutlich bessere Ansatz, da er offen ist. Funktioniert sogar mit meiner GTX 670, DLSS tut das nicht.



Ich hoffe, dass Nvidia niemals herrschen wird (die Übersetzung von "rules"), denn das wäre für die Zockerschaft extrem schlecht. DLSS ist ein weiterer Ansatz, den Markt, mit ihrem proprietären Mist unter Kontrolle zu kriegen. Wenn wir Glück haben, dann läuft es so wie bei PhysX und GSync.



Klar und bei Burger King gibt es keinen Big Mac.
Ja aber wo wir es hier noch die Tage gelesen haben ist das DLSS 1.0 für den Popo gewesen :-)
Und Nvidia herrscht doch schon denn sie bauen derzeit die besseren Grafikkarten :-)
Und die 6900X ist durch die 3080 Ti von der Pole Position verdrängt worden bei den Benchmarks. Siehe Passmark. Das Einzige wo AMD besser ist sind CPUs weswegen ich eine drin habe. Da sind die ersten 20 Plätze bei Passmarks alles AMD CPUs und Intel kommt mit seinem 11 Generation CPU erst auf dem 21 Platz. Intel stagniert schon seit Jahren in der Entwicklung der CPUs weswegen ich auch dort umgestiegen bin. Letzter Gaming Rechner war ein Intel i7 6700K
 
Zuletzt bearbeitet:
Und die 6900X ist durch die 3080 Ti von der Pole Position verdrängt worden bei den Benchmarks. Siehe Passmark.
Weird, da haben Jetzt aber alle 6900-Besitzer ganz schlaflose Nächte. oder?

Ich habe eher das Gefühl, Du willst in jedem Thread mal kurz nen Geck los lassen und schleichst Dich dann Davon:

Zeig doch mal Deine Skills an geeigneter Stelle!
 
Weird, da haben Jetzt aber alle 6900-Besitzer ganz schlaflose Nächte. oder?

Ich habe eher das Gefühl, Du willst in jedem Thread mal kurz nen Geck los lassen und schleichst Dich dann Davon:

Zeig doch mal Deine Skills an geeigneter Stelle!
Keine schlaflosen Nächte nur ich wusste schon im Dez wo ich meine gekauft habe dass Nvidia die bessere Wahl ist und ich hatte Recht. Denn ich habe lieber DLSS 2.0 anstelle 16 GB VRAM, die kein Mensch braucht wenn er nicht gerde in 4 oder 8 k zockt und selbst für 4k sind die guten Monitore 32 Zoll noch viel zu teuer oder 34 Zoll. Zumindest waren sie das Im Mai letzten Jahres wo ich mir mein top WQHD Ding gekauft habe
 
Ich könnte Dir ein paar Tatüs spenden anstelle eines 4k-TV´s.

Nach m.E. gibts genug 4k-TV´s, wo sich die 6900@16GB lohnt.
und
Wenn Du immer auf der Ti rumreitest, gibts natürlich auch XTH mit etwas mehr Bang for Buck.
Ich möchte wirklich mal ein Review sehen mit gleichen Watt.
(gerne auf 390W limitiert, damit auch 2x8pin OCed mitmachen können)

Mal ein Bsp. aus dem Luxx von ner normalen 6900XT-Ref (kein GoldenSample) leicht OC/UV@390W gesamt:
(zeig doch mal Dein OCen auf der 3080, sollte doch bis 390W reichen, auch ganz ohne Ti)
 

Anhänge

  • rVollert@345W asic.JPG
    rVollert@345W asic.JPG
    259,3 KB · Aufrufe: 8
Zuletzt bearbeitet:
Quatsch. Was hat dlss jetzt damit zu tun? Ich zocke viele Games mit einer 2060 in 4k reicht. Also welchen Vorteile hast mit 16gb? Dir ist klar es wird auf viel weniger optimiert bzw rücksicht genommen? nicht mal 1% der spieler haben 16gb vram. Moderne engines interessiert es nicht ob zu wenig vram ausser es ist tatsächlich grottig optimiert oder portier wie es bei horizon zero dawn der Fall war am anfang. Lief auf einer ps4 warum sollte es dann auf einmal 10gb brauchen. Auflösung alleine braucht nicht soviel wie immer behauptet. Settings wie ambient occlusion fressen oft 1-2gb von ultra auf hoch für fast null nutzen.

vram wird auch immer weniger relevant mit den modernen techniken die geplant sind aber , die umsetzung wird zeigen ob. wer weis. Aber stand jetzt bist mit 8gb locker bedient. Die meisten haben 4-8gb.
 
Dann hat Raff wohl nur zum Spass den Vrampool bei den 8GB anders eingestellt?

Einerseits RT fordern und andererseits dann runterregeln.
Und bei Coldwar sone komische 80% Vram/LOD beschmuh-kacke. Plop
 
Dann hat Raff wohl nur zum Spass den Vrampool bei den 8GB anders eingestellt?

Einerseits RT fordern und andererseits dann runterregeln.
Und bei Coldwar sone komische 80% Vram/LOD beschmuh-kacke. Plop
COD belegt auch gerne 20 GB wenn es darf (hat hier jemand im Forum mal per Screenshot gezeigt). Das ist aber nur VRAM Belegung, nicht Usage.

Um das Thema runter zu regeln: es gibt Spiele die "benötigen" 16 GB VRAM mit extremen Settings oder zig Mods (die nicht vom Game-Dev kommen sondern per Modding von Usern). Siehe Minecraft mit RT 24 Chunks. Aber bei diesen extremen Settings, die man für eine Belegung > 10 GB setzen muss, raucht eine 6900XT weit vorher ab. Da hilft der VRAM halt auch nicht.

1625144211983.png
 
Zurück