• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6800XT: Mit Raytracing 1/3 langsamer als GTX 3080?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Radeon RX 6800XT: Mit Raytracing 1/3 langsamer als GTX 3080?

Direkte Vergleichswerte zu Raytracing gab es bei der Präsentation der Radeon RX 6000 nicht, aber das Internet ist natürlich findig und hat einen Messwert von AMD gefunden. Und den kann man zumindest grob mit Werten der bereits erhältlichen Ampere-Karten vergleichen. Dabei konnte es sein, dass die Radeon RX 6800XT rund 1/3 langsamer ist als eine Geforce RTX 3080.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Radeon RX 6800XT: Mit Raytracing 1/3 langsamer als GTX 3080?
 

phila_delphia

Software-Overclocker(in)
Klingt für mich nachvollziehbar. Schließlich hatte nVidia genügend Zeit das eigene System zu entwickeln und in dieser Hinsicht einen Vorsprung auszubauen. Ich hätte ohnehin nicht damit gerechnet, das AMD bei der Rasterisierung so deutlich auf/überholen kann.

Diese, sehr solide Leistung + die 16 GB + der günstigere Preis + die Zusammenarbeit mit den Ryzen Chips stehen sollten für den Einen oder die andere dennoch genügend Kaufanrzyzen (sorry!) schaffen - auch wenn AMD bei RT im Moment hinterher hinkt.

Grüße

phila

P.S.: Schlimmer wärs, wenn RTX schon in richtig vielen Spielen einen ungeheuren Mehrwert böte; das und DLSS (das mir selbst wichtiger ist) werden zwar aber Team Rot kann hier noch den Anschluss finden.
 
Zuletzt bearbeitet:

DasUnding

Komplett-PC-Aufrüster(in)
Naja Nvidia hatte viel Zeit die RT-Leistung zu erhöhen, im Verhältnis zwischen den Rendermethoden hat sich aber gegenüber Turing nicht wirklich was getan.
 

candlebright

Schraubenverwechsler(in)
persoenlich finde ich raytracing schoen anzusehen aber man muss es mir teilweise schon sagen worauf ich achten muss.
fuer mich ist es daher nur ein "nice to have" aber nicht einmal im ansatz ein killer kaufargument.

meine persoenliche prioritaet liegt in genug leistung und leistungsreserven damit die karte auch wenn es mal stressig wird nicht zusammenbricht fast noch wichtiger ist mir eine auch unter last leise bis unhoerbare karte. wenn dannm noch das preis leistungs verhaeltnis stimmt ist alles super.
 

Mrry25

Komplett-PC-Aufrüster(in)
Raytracing ist zwar schön und gut aber bis das mal in allen Spielen drin ist das wird dauern. Mir fällt jetzt spontan nur Cyberpunk 2077 ein wo ich es gebrauchen könnte, wo bei ich nicht sterben werde wenn es nicht eingeschaltet ist. Für mich sind dann die 16GB schon eher eine Kaufentscheidung da man mit 8 bzw. 10 eher an die Grenzen kommen wird. Zudem ist der Peis auch noch besser und daher wird bei mir das erste mal eine Rote Karte ins Gehäuse wandern.
 

Abre

Schraubenverwechsler(in)
In der Präsentation wurde ja auch gesagt, dass die Karten sich vorwiegend um FPS kümmern... Wer viel Wert auf RT legt, kann sich anhand seiner Spieleauswahl ja ausrechnen, wie viel Nutzen er aus einer Nvidia oder AMD-Karte ziehen kann.
 

Grestorn

BIOS-Overclocker(in)
Immerhin kann AMD nun RT in ausreichender Geschwindigkeit. Offenbar auf Turing-Niveau, was auf jeden Fall ausreicht, damit man den Effekt selbst ausprobieren und bewerten kann.

Die Abneigung der AMD Anwender wird aber nur wenig abnehmen, da die Performance, zudem mangels DLSS, immer unzureichend bleiben wird. Aber da auch auf den Konsolen immer mehr RT genutzt wird - siehe das neue Spider-Man Spiel, das wohl richtig gut gelungen ist - wird da auch die Begehrlichkeit steigen.

Und in der nächsten Chip-Generation wird dann auch AMD hoffentlich konkurrenzfähig sein, was RT angeht.

Es macht keinen Sinn diese Technologie zu behindern, sie muss vorangetrieben werden, denn das ist die Zukunft.
 

dmasiretteb

PC-Selbstbauer(in)
4k und 1440p werte so liefert man Daten.

Watch Dogs läuft nicht mit RT auf einer 3080 außer man passt an und dann bleibt nicht mehr viel übrig außer man bleibt auf 1080p aber selbst da :ugly: . Wenn es da nicht läuft, wo ist dann der Unterschied? Da machen 20-30% den braten auch nicht mehr fett.

Das dauert ja noch ewig bis RT gut läuft.
 

hrIntelNvidia

Freizeitschrauber(in)
Raytracing ist aktuell noch nebensächlich. Ich hatte es in BF5 mal an. Beim Spielen selbst ist es mir nur durch niedrigere FPS aufgefallen. In der Hitze des Gefechts hast du eh kaum Zeit dich an den tollen Effekten zu erfreuen. Daher, nur an Raytracing würde ich aktuell keine Kaufentscheidung fest machen...
 

BigBoymann

Software-Overclocker(in)
Ist die Aussage im Titel dann aber nicht falsch?

Mit RT 1/3 langsamer?

Müsste es nicht heißen, RT 1/3 langsamer? Weil die Leistung in Games MIT RT wird ja sicherlich nicht um 1/3 nach unten gehen, zumindest war dies bisher nicht so, dass die Leistung linear zur RT Leistung gestiegen ist, sondern wesentlich geringere Raten waren. Vor allem sagt der Tests doch gar nichts aus, über die RT Leistung im Verbund, oder sehe ich das was falsch? Denn es kann ja gut sein, dass eine der Karten die Gameclock senken muss um RT zu nutzen, die andere aber nicht, was sich dann ja wieder auf die Gesamtperformance auswirken würde.

Will heißen, dass hier ein reiner RT Test gemacht wurde und die RT Rohleistung liegt um 1/3 niedriger, aber wenn man jetzt ein Game mit RT spielt, glaube ich nicht, dass eine 3080 bei 100fps liegen wird und die 6800XT dann bei 70fps.
 

BigBoymann

Software-Overclocker(in)
Die Abneigung der AMD Anwender wird aber nur wenig abnehmen, da die Performance, zudem mangels DLSS, immer unzureichend bleiben wird. Aber da auch auf den Konsolen immer mehr RT genutzt wird - siehe das neue Spider-Man Spiel, das wohl richtig gut gelungen ist - wird da auch die Begehrlichkeit steigen.
Abneigung hat hier glaube ich kaum einer, nur der Nutzen ist derzeit einfach zu gering und erinnert so ein wenig an die ersten Generationen von PhysX, da hat den Nutzen auch keiner bezweifelt, aber man brauchte damals quasi eine zweite Karte um die Physik sinnvoll und bei akzeptablen Frames nutzen zu können (in den ersten Jahren konnte man ja sogar eine GeForce mit einer ATI kombinieren und die GeForce dediziert für die Physik nehmen). Da sich dies kaum jemand leisten wollte / konnte, war der Nutzen von PhysX recht gering, auch wenn letztlich (bis auf wenige Fans) niemand den Nutzen absprechen wollte.

RT erinnert mich derzeit sehr stark daran, ich finde die Technik richtig gut, auch DLSS ist für mich ein interessanter Ansatz, auch wenn mich hier das propietäre wieder stört, was aber eben dazu führen wird, dass man ein oder zwei Generationen ein Alleinstellungsmerkmal hat um im Anschluss von einer freien Technik überholt zu werden. Aber bei RT ist es in meinen Augen so, dass ich aktuell sehr viel Leistung verliere (in fps) und dafür viel zu wenig sehe und spüre.
 

Daggy82

Komplett-PC-Aufrüster(in)
Raytracing ist aktuell noch nebensächlich. Ich hatte es in BF5 mal an. Beim Spielen selbst ist es mir nur durch niedrigere FPS aufgefallen. In der Hitze des Gefechts hast du eh kaum Zeit dich an den tollen Effekten zu erfreuen. Daher, nur an Raytracing würde ich aktuell keine Kaufentscheidung fest machen...
Ich hatte es auch mal getestet mit meiner 2080 in BF5 und muss zu meiner Schande gestehen ich hab den Unterschied im Laufe des Gefechtes nicht einmal bemerkt geschweige denn gesehen.
Bei Warzone hab ich überhaupt keinen Unterschied feststellen könne, außer das die Performance drunter gelitten hat.
Ich bin mir auch irgendwie sicher das die RT Performance in Zukunft noch besser wird da die Konsolen und die RX6000er Reihe sich ja sehr ähnlich sind und die Entwickler gezielt auf diese Technik hin programmieren und optimieren können.
Und selbst wenn, ich denke zusätzlich noch bis RT vollkommen im Massenmarkt bei wirklich spielbaren FPS angekommen ist vergeht noch mindestens eine Generation GPU´s, sowohl bei AMD als auch bei Nvidia.
 

burnzo

Kabelverknoter(in)
Watch Dogs läuft nicht mit RT auf einer 3080 außer man passt an und dann bleibt nicht mehr viel übrig außer man bleibt auf 1080p aber selbst da :ugly: . Wenn es da nicht läuft, wo ist dann der Unterschied? Da machen 20-30% den braten auch nicht mehr fett.

Das dauert ja noch ewig bis RT gut läuft.

DLSS Quality ist da ein guter Kompromiss (Ultra inkl. 100% Zusatzdetails).

1604043973967.png


Könnte definitiv besser laufen, aber spielbar ist es und man muss es definitiv mal gesehen haben. :)
 

KillerPlauze090

Komplett-PC-Aufrüster(in)
am ende hat man die wahl: mehr vram fürs geld oder rt. finde ich okay. amds lineup ist für alle äußerst interessant, die mit rt nichts anfangen wollen und einfach nur competitive spielen oder 4k ohne rt wollen.
dlss ist dagegen noch so ein unsicherheitsfaktor, bei dem man nicht weiß, was amd dort entgegensetzen will und wie viele spiele es absehbar unterstützen werden. d.h. genaue marktbeobachtung ist gefragt. zu früh sollte man nicht schießen.
 

dmasiretteb

PC-Selbstbauer(in)
DLSS Quality ist da ein guter Kompromiss (Ultra inkl. 100% Zusatzdetails).

Anhang anzeigen 1340347

Könnte definitiv besser laufen, aber spielbar ist es und man muss es definitiv mal gesehen haben. :)
Habe ich Zocks ja selber. Ein Cross Gen spiel das ohne DLSS gerade so über 60 FPS hat mit der neuesten Hardware. Ich finde das hätte man noch 5 Jahre entwickeln sollen im dunkeln und dann erst releasen. Schaut Geil aus gerade in Legion das kann schon was. Realistisch ist das aber nicht das jede Pfütze wie ein spiegel ist.

Hätte die Karte 2080TI Leistung wären die RT Cores genauso schnell :ugly: doppelt ja wo den huang?
 

Blowfeld

PC-Selbstbauer(in)
Da Raytracing noch in den Kinderschuhen steckt, ist es denke ich verkraftbar, dass AMD hier noch hinten liegt.

Ich persönlich mag Raytracing, spiele Control auf dem Laptop damit und es wertet das Game grafisch noch mal deutlich auf.
Für mich gilt: Wenn die Performance stimmt, wird Raytracing gerne zugeschaltet.

Generell finde ich jedoch, hat Raytracing aktuell aus 2 Gründen (NOCH) einen schweren Stand:

  1. Zu wenig Verbreitung / zu wenig optische Schmankerl um aktuell als Kaufangebot zu ziehen. :ka:
  2. Wir befinden uns gerade in einer Übergangsphase der Auflösungen. Wie damals von 1080p zu 1440p beginnt gerade der Wechsel von 1440p auf 4K. Da 4K aber aktuell noch so fordernd ist, dass top Titel selbst auf neuesten Grafikkarten nicht die 100 fps Marke, geschweige denn 144fps, knacken, hat ein Feature, dass ohne Tricks die Bildflüssigkeit negativ beeinflusst, einen schweren Stand.

    Ich denke, in 2 bis 4 Jahren werden wir echt tolle Ergebnisse mit Raytracing sehen und es wird ein Standard Feature von fast jedem AAA Titel sein. Bis dahin haben wir dann auch DLSS 4.0 und Karten, die hoffentlich die heutige Rechenleistung verdoppeln, dann passt auch 4K mit Bombastoptik UND hohen FPS. :daumen:
 
Zuletzt bearbeitet:

Norisk699

Software-Overclocker(in)
Ich kann den Hype (auch von PCGH) um Raytracing nicht ganz nachvollziehen.
Klar, in einem Artikel in einer der diesjährigen PCGH-Hefte (oder war es schon 2019?... jetzt würde sich ein Blick ins tolle neue Heft-Archiv lohnen!) wurde es echt schön erklärt und dargestellt dass es mal ein "Gamechanger" werden könnte (aus grafischer Sicht). Aber, liebe PCGH:

Es ist noch nicht so weit. Bitte setzt eine gute/spielbare RT-Performance in frühenstens 2-3 Jahren voraus, wenn erstens die meisten Spiele es unterstützen und nicht nur ein paar handverlesene Triple-A`s und zweitens wenn Grafikkartenhersteller spielbare FPS in WQHD oder 4K bei RT anbieten können. So richtig klappt das doch auch mit den 3000ern von NVIDIA noch nicht... Zugegeben aber schon mal deutlich besser als mit den 2000ern.

Aber interessant, dass AMD hier scheinbar echt noch hinterherhinkt. 1/3 hinter 3080 wäre schon eine Hausnummer und zugegeben ein Argument für NVIDIA. Mir persönlich ist RT aktuell noch total egal aber für viele hier im Forum kann das ein Argument sein.
Und die 3000er Käufer können ggf. dank dieser Meldung aufhören, seit der AMD-Präsentation mit dem Kopf gegen die Wand zu hämmern. :-)

Klar verdient NVIDIA ein Extra-Lob für die Pionierarbeit
, aber für Vergleichs-Benchmarks würde ich es bevorzugen wenn ich aktuell ausschließlich die Leistung OHNE RT verglichen bekäme... die RT-Leistung ist mir aktuell maximal eine Fußnote wert.

Einer der Vorredner hier hat passenderweise geschrieben: RT fällt mir im Eifer des Gefechts im Wesentlichen durch niedrigere FPS auf. Nicht ganz so negativ aber doch so ähnlich sehe ich es aktuell auch...
Klar sind die RT-Bilder schöner im direkten Vergleich...aber wie soll ich sagen... irgendwie fehlt mir nix wenn RT ausgeschaltet ist (ich habe es bisher nur bei einem Bekannten in CONTROL mal live gesehen).
Wenn ich dagegen Antialiasing runterstelle oder gar die Auflösung, das fällt mir sehr wohl ins Auge und wirkt sich negativ aus. Und so würde ich daher auch RT aktuell nicht zu stark gewichten.


Noch ein Punkt: Auch die neuen Konsolen (AMD-Chips drin) werden RT vermutlich nicht wirklich oder nicht so richtig gut unterstützen. Damit ist diese Technologie dann doch für die nächsten 5-6 Jahre quasi gestorben bzw. vertagt... oder wie seht ihr das? Würde mich sehr interessieren wie diesen Punkt andere hier sehen.
 

INU.ID

Moderator
Teammitglied
Wobei die Chancen eigentlich gut stehen sollten, dass die Performance sich zukünftig noch bessert. Nvidia fummelt jetzt ja schon ca. 2 Jahre an der Technik, und damit auch den Treibern, da klingen die - aus dem Stand! - 1/3 geringere RT-Performance von BigNavi für mich sogar noch relativ ordentlich.
 

duicide

Schraubenverwechsler(in)
Ob sich das Raytracing auch flächendeckend in jedem zukünftigen Spiel implementiert ist auch noch dahingestellt
Ich denke es wird auf jeden stärker kommen nachdem es die Next Gen Konsolen auch können werden. Wird ja generell auch immer viel von den Konsolen zum PC hin geported, von dem her auch gut möglich dass AMD hier am Ende auch etwas (RT) Land gut machen kann da die Games in der Entwicklung schon für AMD GPUs optimiert werden.
 

Tony103

Komplett-PC-Aufrüster(in)
Mit RT 1/3 langsamer?
33% von der Gesamtleistung bei aktiviertem Raytracing gegenüber Nvidia. Es geht nicht um einen 33% FPS Drop durch das Aktivieren von Raytracing.. Dann wäre ja AMD schneller denn Framerateeinbrüche duch Raytracing bei der 3080er z.B. sind ca 40% hoch in UHD.
Meine eigene Tests mit 2080 ti bewegen sich auch im Bereich 40-50% weniger FPS mit RT.
 

phila_delphia

Software-Overclocker(in)
Abneigung hat hier glaube ich kaum einer, nur der Nutzen ist derzeit einfach zu gering und erinnert so ein wenig an die ersten Generationen von PhysX, da hat den Nutzen auch keiner bezweifelt, aber man brauchte damals quasi eine zweite Karte um die Physik sinnvoll und bei akzeptablen Frames nutzen zu können (in den ersten Jahren konnte man ja sogar eine GeForce mit einer ATI kombinieren und die GeForce dediziert für die Physik nehmen). Da sich dies kaum jemand leisten wollte / konnte, war der Nutzen von PhysX recht gering, auch wenn letztlich (bis auf wenige Fans) niemand den Nutzen absprechen wollte.

RT erinnert mich derzeit sehr stark daran, ich finde die Technik richtig gut, auch DLSS ist für mich ein interessanter Ansatz, auch wenn mich hier das propietäre wieder stört, was aber eben dazu führen wird, dass man ein oder zwei Generationen ein Alleinstellungsmerkmal hat um im Anschluss von einer freien Technik überholt zu werden. Aber bei RT ist es in meinen Augen so, dass ich aktuell sehr viel Leistung verliere (in fps) und dafür viel zu wenig sehe und spüre.
Ich kann gut verstehen, dass man sich durch proprieträre Techniken ein Alleinstellungsmerkmal sichern will. Insgesamt halte ich sie aber für hinderlich (egal ob das bei der Monitor-Synchronisation oder bei DLSS, oder der Thunderbolt 3 Implementierung oder Raytracing ist) so bin ich als TB3 Nutzer zum momentan dem guten Willen von intel ausgeliefert, und noch dazu wird dieser Standart dann auch noch durch die unterschiedliche Einbindung von Seiten der Notebookhersteller verwässert.

Wie schön wäre ein offener Standard, den alle umsetzen würden... Aber man muss auch Träume haben.

Grüße

phila
 

Blowfeld

PC-Selbstbauer(in)
....


Noch ein Punkt: Auch die neuen Konsolen (AMD-Chips drin) werden RT vermutlich nicht wirklich oder nicht so richtig gut unterstützen. Damit ist diese Technologie dann doch für die nächsten 5-6 Jahre quasi gestorben bzw. vertagt... oder wie seht ihr das? Würde mich sehr interessieren wie diesen Punkt andere hier sehen.

Kann Deine Gedanken voll nachvollziehen.
Alles muss halt irgendwann anfangen, und ich finde es gut, dass Raytracing (scheinbar ZU) früh implementiert wird, das bedeutet nämlich, dass die Technologien sowohl hardwareseitig als auch softwareseitig ausgereift sind, sobald das Feature weit verbreitet ist in den kommenden Jahren.

Ich hoffe mal, dass dieses Mal die Konsolen NICHT die Games Evolution ausbremst, da ich vermute, dass sowohl Team rot als auch Team grün großes Interesse daran haben, sich hier langfristig zu positionieren und Entwickler zu unterstützen, damit Ihr Feature auch einen Kaufanreiz bietet.
Von daher hoffe ich, dass der PC hier mal wieder der strahlende Pionier ist, während die Konsolen halt Raytracing mit instabilen 30 FPS und verminderten Bilddetails anbieten ;)

PS: Immerhin sind wir noch eine halbe Dekade davon entfernt, dass SONY die "Raytracing und Zombie- Mode- das erste Jahr nur exklusiv auf Playstation 6 spielbar" Strategie fährt- diese ewig gestrigen. :ugly:
Wie schön wäre ein offener Standard, den alle umsetzen würden... Aber man muss auch Träume haben.
Offene Standards sind immer ein Träumchen! :daumen:
 

BigBoymann

Software-Overclocker(in)
33% von der Gesamtleistung bei aktiviertem Raytracing gegenüber Nvidia. Es geht nicht um einen 33% FPS Drop durch das Aktivieren von Raytracing.. Dann wäre ja AMD schneller denn Framerateeinbrüche duch Raytracing bei der 3080er z.B. sind ca 40% hoch in UHD.
Meine eigene Tests mit 2080 ti bewegen sich auch im Bereich 40-50% weniger FPS mit RT.
Kann dir leider nicht folgen.

33% von der Gesamtleistung? Also doch 100fps RTX3080 und 67fps 6800XT?

Das sagt dieser Test doch nicht aus, oder? Dieser Test sagt doch nur aus, wenn 100% RT Last anliegt, wie schnell die Karten sind?
Ich kann gut verstehen, dass man sich durch proprieträre Techniken ein Alleinstellungsmerkmal sichern will. Insgesamt halte ich sie aber für hinderlich (egal ob das bei der Monitor-Synchronisation oder bei DLSS, oder der Thunderbolt 3 Implementierung oder Raytracing ist) so bin ich als TB3 Nutzer zum momentan dem guten Willen von intel ausgeliefert, und noch dazu wird dieser Standart dann auch noch durch die unterschiedliche Einbindung von Seiten der Notebookhersteller verwässert.

Wie schön wäre ein offener Standard, den alle umsetzen würden... Aber man muss auch Träume haben.

Grüße

phila
Die Vergangenheit zeigt ja letztlich, dass so ein propietärer Standard, selbst wenn er besser ist, sich in den meisten Fällen nicht durchsetzt. Denke die Gründe sind vielfältig, bei DLSS fällt mir aber sofort ein, dass es letztlich für jeden Programmierer umzusetzen sein muss, das Game an sich profitiert aber nicht davon, sondern eigentlich nur ein Hersteller. Bedeutet in meinen Augen, als Publisher würde ich mir die Implemenation von NV bezahlen lassen. Bei einem offenen Standard, den alle nutzen können sieht die Sache anders aus, da profitiere ich als Publisher direkt, da mein Game, dann schneller und besser läuft.
Ja, ich denke ML wird auch hier das Rennen machen, ein offener Standard ist ja schon vorhanden, beide Hersteller können davon profitieren (streng genommen auch Intel) und es wird wieder ein oder zwei Jahre dauern, bis niemand mehr über DLSS spricht.
 

Tony103

Komplett-PC-Aufrüster(in)
Ohne ein DLSS Pendant, nein. Das reicht leider nicht. Aber sowas wird denke ich bald kommen.
Natürlich haben die was, denn neue Konsolen haben die AMD Chips und natives 4K werden die Kisten in 3xA Titeln nicht darstellen können.
Ich hoffe auf etwas Treiberbasiertes, was man unabhängig vom Spiel aktivieren kann.
 

Cleriker

PCGH-Community-Veteran(in)
Also ich muss gestehen, ich hatte AMD einen schlechteren RT Start prognostiziert. Ich hab mit maximal der RT Leistung der 2080 im absoluten best case gerechnet. Man darf nicht vergessen dass Nvidia eine Softwareschmiede ist. Die verdienen ihr Geld damit und sind schon seit Jahren an dem Thema dran und das mit deutlich mehr Manpower und Kapital. Was AMD hier abliefert ist geradezu fantastisch! Seit einer Generation erst entwickeln sie wieder Spielechips und nicht Prosumerkarten. Ich bin ehrlich beeindruckt!
Allerdings ist das Thema RT für mich recht unbedeutend. Ich spiele ja immer lieber in Qualitäts-, statt Leistungseinstellungen und seit zwei Jahren auch durchweg in 4K.
DLSS hat in Wolfenstein Details ins Bild gezaubert die ohne gar nicht da waren (was ich äußerst fraglich fand). Alle anderen DLSS Implementierungen finde ich bisher eher schlecht. Nicht schlecht im eigentlichen Sinne, sondern einfach nicht gut genug im Vergleich zur native Ausgabe. Willy hat in seinem letzten Video ja DLSS in Control gezeigt und das ist ja schon ein Vorzeigetitel. Trotzdem sieht man selbst in komprimierten YouTube Videos noch Unterschiede. Beispielsweise bei Objekten die hinter der Glaswand an der er da vorbei läuft. Die ziehen seltsame Schatten, die Kanten sind undeutlich, manche Objektränder generieren komische Farbübergänge... Das sind für viele User Kleinigkeiten, aber ich nehme sie peripher eben doch wahr und es stört mich tatsächlich.
Auch in dem Video von Raff, wo er auf der Themsebrücke steht und die Pfützen durch die Autos fahren, besser uns sauberer spiegeln als die Oberfläche der Themse selbst. Diese zeigt Zudem unschöne Ränder Bei manchen Schiffen. Kennt ihr das wenn in Kinderbüchern so Schlitze in den Seiten und Pappobjekte durchgesteckt sind die man bewegen kann. So sieht das teilweise für mich aus. Das ist gar nicht so krass, aber einmal gesehen nehme ich es auch beiläufig so wahr.
Zurück zu den Pfützen. Schaut mal auf der Kreuzung auf diese, kurz nachdem die Autos da drüber gefahren sind. Die verlaufen kaum, als würden die reifen plötzlich kein Wasser verdrängen. Auch müssten die mit Dreck aufgewühlt erstmal weniger reflektieren, tun s IT e aber nicht. Was bringt mir eine detailgetreue Reflexion wenn die Pfütze quasi starr bleibt und unecht wirkt? Klar ist das Gejammer das viele nicht teilen werden, aber für mich eben krass und wenn die fps in 4K dazu noch derbe einbrechen, nur um mit den oben genannten Schwächen, stückchenweise echte Spiegelungen auf weniger realistischen Flächen zu generieren, dann ist es für mich noch zu früh dafür. Die Vorteile sind mir schlicht zu gering.

Um zum eigentlichen Thema zurück zu kommen:
Es überrascht mich, dass AMD sich so gut abschneidet beim ersten Versuch, aber mir ist diese Technik noch nicht wichtig. Als Kaufargument demnach irrelevant.
 
Oben Unten