Radeon RX 6700 XT offiziell: Launch am 18. März, so schnell wie RTX 3070, 230 Watt, 12 GiByte VRAM

Ich sehe bei der wirklich guten Leistung moderner Karten ehrlich gesagt auch wenig Gründe DLSS zu verwenden.
Abseits von 4k ist es eh unnötig und darunter von der Qualität auch kaum zu empfehlen.
Welche wirklich gute Performance moderner Karten?
Seit Maxwell haben die Generations-Effizienzgewinne nachgelassen, das heißt, in der gleichen Wattklasse haben auch die Performancegewinne nachgelassen.

Der Geck von DLSS 2.0 Quality ist doch gerade der, ein NoBrainer zu sein: Mehr Performance und bessere Bildquali zugleich. Dass DLSS 2.0 Ultra Quality bislang fehlt, ist natürlich bei einem Gefühl wie dem deinen besonders ärgerlich. (vgl auch hier: https://extreme.pcgameshardware.de/...230-watt-12-gibyte-vram.601230/#post-10688809)
 
Ich sehe bei der wirklich guten Leistung moderner Karten ehrlich gesagt auch wenig Gründe DLSS zu verwenden.
Abseits von 4k ist es eh unnötig und darunter von der Qualität auch kaum zu empfehlen.
Versuch mal bei Cyberpunk 2077 oder Watch Dogs Legion mit RT in UWQHD 60 FPS zu erreichen. Das geht ohne DLSS nicht.
1440P Quality und Balanced ergeben immer noch ein besseres Bild als nativ, da diese entweder flimmert ohne AA bzw schlechtem AA oder mit TAA sehr unscharf wird.

Selbst wenn ich genügend FPS hätte würde ich DLSS verwenden, abgesehen davon dass es unterm Strich ein besseres Bild als nativ erzeugt, kann ich mein Performancetarget bei deutlich niedrigerem Stromverbrauch erreichen.
 
Zuletzt bearbeitet:
Für die ganzen DLSS Verfechter hier, die meinen es geht nicht mehr ohne:


AMD wird es auf allen Plattformen bringen und somit wird jedes Game auch darauf optimiert.

Somit ist AMD dann auch auf dem selben Stand was das angeht.

Und dieses Rumgereite darauf geht schon auf den Nerv mittlerweile...als wenn es nichts anderes gäbe!
Das ist ein nice-to-have....nicht mehr und nicht weniger! Punkt.
Jedes Spiel läuft auch ohne.
Ist genauso wie bisher mit RT...nice-to-have.

Bis beides so weit Verbreitung gefunden hat und überall integriert ist, vergehen noch Monate und vermutlich eher Jahre.
Bis dahin tut es die Leistung bisheriger Karten allemal und selbst die RT Leistung reicht bei beiden Herstellern mal zum schnuppern.

Ansonsten zum Thema RX6700XT....
Schnelle Karte mit mehr aus genug RAM, wohl schneller als die meisten hier gedacht(gehofft) haben, denn sonst würde man nicht auf (bisher noch) fehlendes DLSS rumreiten.
UVP Preis auch okay, immerhin etwas unter der 3070. Für 50% mehr VRAM und etwas schwächeren RT Leistung als bei der 3060ti/3070 sehr angemessen.
Fehlendes DLSS zähl ich nicht, da es auch für alle Plattformen von AMD kommt.
Dafür funktioniert SAM auf Anhieb und muss nicht noch per vBIOS auf NV GPUs nachgepatcht werden.

Von daher hat jeder Hersteller seine (kleine) Packung zu tragen und beide Hersteller sind so nah bei einander wie schon sehr sehr lange nicht mehr.

Wie bei den CPUs hat AMD auch hier bei den GPUs dem Konkurrenten gezeigt dass man mehr drauf hat als Underdog. Und das ist auch gut so.
 
Ich sehe bei der wirklich guten Leistung moderner Karten ehrlich gesagt auch wenig Gründe DLSS zu verwenden.
Abseits von 4k ist es eh unnötig und darunter von der Qualität auch kaum zu empfehlen.

Ich habe zwar eine 3090 und daher massig Leistung aber bei dem Punkt gebe ich dir Recht. Alles unter 2160p lasse ich nativ laufen. Da würde bei den meisten Fällen auch eine 2060 Super reichen.

DLSS ist schon toll, gerade wenn man etwas weiter weg sitzt (zum Beispiel am TV). Ganz Fehlerfrei ist DLSS aber nicht. In Death Stranding oder auch Cyberpunk kann man ganz gut Artefakte erkennen. Eine Art Ghosting bei bestimmten Objekten oder auch Bewegungen. Direkt vorm Monitor ist mir das deutlicher aufgefallen als am TV bei 3m Sitzabstand.

Aber ja lieber DLSS unterstützen und wenn man möchte aktivieren als keine Möglichkeit zu haben.
 
Fehlendes DLSS zähl ich nicht, da es auch für alle Plattformen von AMD kommt.
Es ist nicht ansatzweise bekannt ob AMD's Lösung qualitativ mit DLSS 2.0 mithalten kann, AMD nutzt keine KI Recheneinheiten die Nvidia für DLSS 2.0 nutzt.
Wenn am Ende sowas wie DLSS 1.0 rauskommt bringt das keinem was. Da bin ich gespannt wie gut ihre Lösung wird.

DLSS 2.0 ist jedoch ein absoluter Gamechanger, im Grunde bekommt man ein unterm Strich besseres Bild mit deutlich mehr Performance.

DLSS ist schon toll, gerade wenn man etwas weiter weg sitzt (zum Beispiel am TV). Ganz Fehlerfrei ist DLSS aber nicht. In Death Stranding oder auch Cyberpunk kann man ganz gut Artefakte erkennen. Eine Art Ghosting bei bestimmten Objekten oder auch Bewegungen. Direkt vorm Monitor ist mir das deutlicher aufgefallen als am TV bei 3m Sitzabstand.
Ich spiele vor dem Monitor und mir sind keine "Artefakte" aufgefallen. Vielleicht mit 300% Zoom.
Digital Foundry hat erst kürzlich gezeigt wie gut DLSS 2.0 im Vergleich zum nativen Bild ist.

Nativ: Entweder Dauergeflimmer ohne AA bzw schlechtem AA oder Unschärfe mit TAA
DLSS 2.0: Glattes und scharfes Bild, jedoch muss man offenbar via Nvidia Inspector zwecks Texturauflösung in manchen Fällen die Mipmaps anpassen
 

Anhänge

  • 220C4ez.png
    220C4ez.png
    2,3 MB · Aufrufe: 15
  • yrHzXra.png
    yrHzXra.png
    1,4 MB · Aufrufe: 15
Zuletzt bearbeitet:
Und dieses Rumgereite darauf geht schon auf den Nerv mittlerweile
Absolut. Die Gegenseite AcceleratedAA interessiert mich nicht ist aber für meinen Geschmack mindestens genauso nervig. Und beide sind in diesem Thread total verbreitet.
Natürlich ist es hart, sich zwischen die Fronten zu begeben und beide Seiten zu kritisieren. Aber sie schreiben nunmal beide Unfug. Auch du hast eine leichte Tendenz dazu:
Das ist ein nice-to-have....nicht mehr und nicht weniger! Punkt.
Nice2Have als Bezeichnung für ein Killerfeature zu verwenden ist eine ziemliche Streckung von Nice2Have. Dann ist auch ein leiser Rechner, eine hohe Performance oder sonstwas Nice2Have...

Spar dir das, sowas schwächt dein Posting!

P.s.: Ich habe jetzt mal diesen gerade erfundenen Begriff AcceleratedAA genutzt, damit nicht schon wieder dem anderen Subthema gewechselt, welche Bedeutung denn DLSS gerade hat. Die ist natürlich gering!
 
Ich vergleiche jetzt mal nur die AMD-Referenzkarten und deren UVP.
Die Abstufungen der einzelnen Modelle untereinander bei Recheneinheiten und VRam gefällt mir gut.
Das modellübergreifende Design und die Verarbeitungsqualität ist hervorragend.

Nur die Preisgestaltung der UVP`s passt da irgendwie nicht dazu.

Wenn man die 6800XT mit einer UVP von 649,- als Sweetspot nimmt, ist die 6900XT bei 6-9 Prozent Mehrleistung einfach zu teuer. Genauso ist der preisliche Abstand der 6800 zur 6800XT für die Minderleistung zu gering. Dabei wäre die 6800 eigentlich die eierlegende Wollmilchsau in AMD`s Lineup. So ist sie schon fast obsolet.
Die 6700XT ist zweifelsfrei eine gute Karte, aber die UVP von 479,- liegt um ca. 50 Euro zu hoch.

Trotz allem gratuliere ich AMD zu diesem starken Lineup. Wer hätte dies vor einem halben Jahr so erwartet?
 
Für die ganzen DLSS Verfechter hier, die meinen es geht nicht mehr ohne:

AMD wird es auf allen Plattformen bringen und somit wird jedes Game auch darauf optimiert.
Ohh das ist ne interessante Info. Sollte sich das bewahrheiten, hat AMD die Fäden ziemlich in der Hand. Auf den offenen Standard zu setzen dürfte sich auszahlen. Wenn die Konsolen das wirklich alle implementieren werden wir das wohl flächendeckend sehen.
Ich habe zwar eine 3090 und daher massig Leistung aber bei dem Punkt gebe ich dir Recht. Alles unter 2160p lasse ich nativ laufen. Da würde bei den meisten Fällen auch eine 2060 Super reichen.

DLSS ist schon toll, gerade wenn man etwas weiter weg sitzt (zum Beispiel am TV). Ganz Fehlerfrei ist DLSS aber nicht. In Death Stranding oder auch Cyberpunk kann man ganz gut Artefakte erkennen. Eine Art Ghosting bei bestimmten Objekten oder auch Bewegungen. Direkt vorm Monitor ist mir das deutlicher aufgefallen als am TV bei 3m Sitzabstand.

Aber ja lieber DLSS unterstützen und wenn man möchte aktivieren als keine Möglichkeit zu haben.
Stimme dir da zu, auf der Glotze ist das auch wirklich nützlich an den 4k Panels. Am HTPC mit dem Abstand zum Fernseher bin ich auch kompromissbereiter als am Main wo ich mit der Nase vorm Bild klebe.

Aber wie gesagt, mein Main ist in QHD derart schnell, da nutze ich eigentlich immer downsampling statt upscaling. WatchDogs habe ich auch mit der 3090 lieber Nativ QHD mit RT genutzt als mit DLSS und in dem Spiel langt auch die RT Leistung meiner XT für QHD.
 
Die Karte sieht verlockend aus, mal sehen wie teuer die letztendlich wird durch die Aktuelle Grafikkarten Knappheit.
Wenn die für mich in Frage kommen sollte dann eh erst später oder ich warte auf die nächste Generation von Nvidia.
Die Kühlung würde ich so oder so umbauen mit einer Alubackplate als zusätzliche Wärmeableitung wie auch bei meiner GTX 1070 Ti, das wichtigste ob ein Hersteller bzw. Arctic eine entsprechende Kühlung dafür auch rausbringt.
Da eine Wasserkühlung für mich generell nicht in Frage kommt.

Meine Sorge ist eher der Stromverbrauch unter Last alles über 200Watt finde ich schon zu viel bei einer Grafikkarte.
Denke mit Anpassungen kann der Stromverbrauch sicherlich unter 200Watt gehalten werden.
 
Da hast du natürlich vollkommen Recht.

Ich habe mich da sehr missverständlich ausgedrückt bzw das alles sehr unglücklich in einen Zusammenhang gestellt wo keiner existieren sollte. Der Wakü-Block wird, wenn man sich die Preise so anschaut, natürlich nie dazu beitragen die P/L zu verbessern insbesondere da noch andere Mehrkosten wie Anschlusstüllen, Schläuche und gegebenenfalls ein weiterer Radiator samt Lüftern anfallen, bzw anfallen können.

~100€ für den Block, dazu noch Tüllen und Schläuche/Tubes für noch mal ~10€+ und gegebenenfalls noch ein zusätzlicher Radiator und schon ist man easy bei 200€+ Mehrkosten für den Umbau, falls nicht schon vorhanden (und selbst dann hat man immer noch den Block alleine mit 100€)

Für mich ging es lediglich darum, falls ich eine 6700XT ergattern kann, ich auf jeden Fall einen Wakü-Block draufpacke und damit mit höherer Wahrscheinlichkeit die Karte noch etwas OCen kann und somit performancetechnisch vielleicht(großes vielleicht) auf RTX3070 Niveau oder minimal darüber liege.

Wie du sehr richtig festgestellt hast, sind Waküs aus P/L Sicht nicht sinnvoll und ja der Umbau auf Wakü würde bei mir rein aus Interesse/Spaß an der Materie erfolgen.
Eine tolle Reaktion auf meine knappen Worte. In der Tat würde ich das selbe tun: wenn ich direkt von AMD eine bekommen kann, kaufe ich sie, dann ist die UVP/Leistung auch egal: Jede Karte zu jeder UVP ist gerade ein Schnäppchen, auch die 3090! Und weil es mir sonst keine Freude macht, gibt es nen Wasserblock dazu, sollte ich vom Erlös der 980ti mit Block locker bekommen.

Mist dann nicht meine Traumkarte, aber NOCH eine 3080 (eine habe ich für 850 weiterverkauft, nett wie ich war) bekomme ich ja nicht zur UVP.
 
Ich spiele vor dem Monitor und mir sind keine "Artefakte" aufgefallen. Vielleicht mit 300% Zoom.
Digital Foundry hat erst kürzlich gezeigt wie gut DLSS 2.0 im Vergleich zum nativen Bild ist.

Nativ: Entweder Dauergeflimmer ohne AA bzw schlechtem AA oder Unschärfe mit TAA
DLSS 2.0: Glattes und scharfes Bild, jedoch muss man offenbar via Nvidia Inspector zwecks Texturauflösung in manchen Fällen die Mipmaps anpassen

Hier mal ein Video was ich auf die schnelle gefunden habe das ich teilweise bestätigen kann

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ansonsten zwei Beispiele wo ich solche Artefakte gut erkannt habe am Monitor in 1440p plus DLSS Qualität

1) Death Stranding
Bei Türmen wabert das Objekt etwas nach. Sieht im Augenwinkel aus wie flimmern. Dazu hatte glaube ich sogar DF ein Video gemacht.

2) Cyberpunk 2077
Beim Auto fahren in der Außenansicht eine Art Ghost Effekt am Boden bzw. Bei den Reifen. Aber auch die Gitter wir im Video kann ich bestätigen. Irgendwo sind eben auch Grenzen gesetzt.

Natürlich flimmert auch ein DLSS Bild bei geringer Auflösung. Als Qualitätssiegel würde ich den Modus jetzt nicht bezeichnen. Daher sofern die Rohleistung reicht kann man auch nativ mit guter Glättung verwenden.

Sobald ich einen 2160p Monitor besitze wird DLSS aber für mich sehr sehr wichtig werden da bei der Auflösung plus DLSS Qualität das Bild schon super aussieht wenn man die FPS im Auge behält.

Die meisten Spiele die ich zur Zeit Spiele haben sowieso kein DLSS oder gibt es gar gerade nur auf der Switch :D

Edit:
Control habe ich auch mal getestet und das fand ich von der Technik her schon sehr gut. Metro dagegen fand ich wirklich verwaschen, baut aber glaube noch auf DLSS 1.X auf.

Hoffentlich kommt bald DLSS 3.0 bzw. wird weiter verbreitet. Ich finde solche Techniken wirklich gut wenn man bestimmte Fps und Auflösungen erreichen will. Macht eine Playstation 4 Pro/5 ja nicht anders mit CR wenn auch nicht ganz so optisch gelungen ggü. nativen Auflösungen. Aber ja man muss hier und dort mit der Lupe suchen und ist im Alltag zu vernachlässigen.

Edit 2:
Deine Definition über "Deutlich schneller" interessiert mich immer noch. Kannst du dich dazu noch äußern?
 
Hier mal ein Video was ich auf die schnelle gefunden habe das ich teilweise bestätigen kann
Ansonsten zwei Beispiele wo ich solche Artefakte gut erkannt habe am Monitor in 1440p plus DLSS Qualität
1) Death Stranding
Bei Türmen wabert das Objekt etwas nach. Sieht im Augenwinkel aus wie flimmern. Dazu hatte glaube ich sogar DF ein Video gemacht.
2) Cyberpunk 2077
Beim Auto fahren in der Außenansicht eine Art Ghost Effekt am Boden bzw. Bei den Reifen. Aber auch die Gitter wir im Video kann ich bestätigen. Irgendwo sind eben auch Grenzen gesetzt.
Natürlich flimmert auch ein DLSS Bild bei geringer Auflösung. Als Qualitätssiegel würde ich den Modus jetzt nicht bezeichnen. Daher sofern die Rohleistung reicht kann man auch nativ mit guter Glättung verwenden.
Um in nativer Auflösung heute jegliches Flimmern zu verwenden setzt man fast ausschließlich nur mehr auf TAA Lösungen => unscharfes Bild. Da habe ich lieber das schärfere, detailreichere DLSS Bild wo ich vielleicht mit 300% Zoom irgendwo ein Artefakt erkennen könnte.
Edit:
Control habe ich auch mal getestet und das fand ich von der Technik her schon sehr gut. Metro dagegen fand ich wirklich verwaschen, baut aber glaube noch auf DLSS 1.X auf.
Metro Exodus nutzt DLSS 1.0, erst die Enhanced Version wird auf 2.0 setzen.
Hoffentlich kommt bald DLSS 3.0 bzw. wird weiter verbreitet. Ich finde solche Techniken wirklich gut wenn man bestimmte Fps und Auflösungen erreichen will. Macht eine Playstation 4 Pro/5 ja nicht anders mit CR wenn auch nicht ganz so optisch gelungen ggü. nativen Auflösungen. Aber ja man muss hier und dort mit der Lupe suchen und ist im Alltag zu vernachlässigen.
Checkerboard ist halt eine eine ganz normale TAA Lösung, das Ergebnis ist qualitativ bei Weitem nicht vergleichbar wie eine KI Rechenleistung.
On PS4 Pro, it features one of the best checkerboarding implementations we've seen. Meanwhile, on PC, we see a 'next-gen' image reconstruction technique - Nvidia's DLSS - which delivers image quality better than native resolution rendering.
Edit 2:
Deine Definition über "Deutlich schneller" interessiert mich immer noch. Kannst du dich dazu noch äußern?
Das ist von Fallzu Fall unterschiedlich, wieso?
 
Um in nativer Auflösung heute jegliches Flimmern zu verwenden setzt man fast ausschließlich nur mehr auf TAA Lösungen => unscharfes Bild. Da habe ich lieber das schärfere, detailreichere DLSS Bild wo ich vielleicht mit 300% Zoom irgendwo ein Artefakt erkennen könnte.

Metro Exodus nutzt DLSS 1.0, erst die Enhanced Version wird auf 2.0 setzen.

Checkerboard ist halt eine eine ganz normale TAA Lösung, das Ergebnis ist qualitativ bei Weitem nicht vergleichbar wie eine KI Rechenleistung.


Das ist von Fallzu Fall unterschiedlich, wieso?

Naja 300% ist schon übertrieben. Ich konnte es ja auch bei normalen Sitzabstand zum Monitor erkennen ^^

Bei Metro schaue ich dann nochmal nach dem Update rein. Inhaltlich fand ich es bisher echt toll.

CR verfolgt genau wie DLSS den Ansatz durch eine geringe interne Auflösung die gewünschte Ausgabe Auflösung zu verbessern. Natürlich in unterschiedlichen Ansätzen und Ergebnissen. Auf der Konsole finde ich die Lösung aber wirklich gut bei normalen Sitzabstand zum TV. Verbesserungspotenzial ist aber natürlich klar vorhanden.

Zum Thema "Deutlich schneller", das hast du vorhin geschrieben beim Vergleich zur Xbox Series X ggü. der 6700XT. Ohne genaue Definition kann ich dir da weder zustimmen noch es verneinen.
Dieses "Deutlich schneller/besser" lese ich in deinen Beiträgen immer mal wieder. Keine Ahnung ob das 1% oder 50% für dich bedeuten.

Deutlich schneller bedeutet für mich, das man spürbar oder sichtbar mehr erreicht. Alles unter 30% ist bei mir schneller aber nicht deutlich daher meine mehrfach wiederholte Frage dazu.
 
So schnell wie die 3070, aber nicht vergessen die 3070 hat lächerliche 8GB. Die 6700XT 12GB, also ist wohl eine 6700XT die deutlich BESSERE Wahl.
 
ich sehe nicht, das ein unscharfes bild oder flimmern, bei 1080p,
tatsächlich an 'zu geringer auflösung' liegt.
man schaue sich doch mal die grösse des einzel-pixels dabei an.

es liegt am jeweiligen spiel, das es unscharf, flimmernd, oder sonst was, ist.
rein vom monitor her, wäre es durchaus möglich, ohne solches ein spiel dar zu stellen.
 
Man hätte TAA ja auch mit einem nachträglichen kleine Sharpen Postprocessing Effekt ausliefern können. Dann wäre TAA eine sehr gute Lösung. Aber was will man heutzutage auch erwarten..
 
ich sehe nicht, das ein unscharfes bild oder flimmern, bei 1080p,
tatsächlich an 'zu geringer auflösung' liegt.
man schaue sich doch mal die grösse des einzel-pixels dabei an.

es liegt am jeweiligen spiel, das es unscharf, flimmernd, oder sonst was, ist.
rein vom monitor her, wäre es durchaus möglich, ohne solches ein spiel dar zu stellen.
Dass in manchen Spielen Flimmerfreiheit auch auf einem FHD-Display möglich sein könnte, würde ich unterschreiben. Allerdings sind möglich und effizient möglich halt noch zwei Paar Schuhe.

Um sowas zu zeigen, arbeite ich gerne mit HarryPotter2. Einfach allein schon, weil man Tonnen an Performance hat und dazu geringe Ladezeiten. Aber auch, weil es kein Sichtweitenlimit und kein LOD-System verwendet, man sich somit keine Gedanken machen muss, was an dem Endresultat vielleicht nur an der Distanzdarstellung liegt. Darüber hinaus sind die Texturen ziemlich winzig, auch das ist hilfreich.

In dem Spiel vergleiche ich dann besonders gerne 32xS + 8xSGSSAA (2x2 OGSSAA kombiniert mit 8xSGSSAA) in 1080p mit 8xSGSSAA in 2160p. Bei beiden wird also die gleiche Ausgangsauflösung heruntergerechnet. Das 2160p-Bild ist aber deutlich flimmerärmer, kann fast schon als flimmerfrei bezeichnet werden.
Das gleiche gilt auch für 4x4OGSSAA 1080p vs. 2x2OGSSAA in 2160p. Man erhält einfach für die gleiche Performance ein besseres Ergebnis in Punkto Flimmerfreiheit.
Darüber hinaus zeigt einem das 2160p-Bild selbst bei den winzigen Texturauflösungen von HP2 mehr Details. Das sollte aber auch nicht verwundern: Wenn eine 256x256er-Textur auf einer mittelmäßigen Entfernung dargestellt wird, sinkt nunmal sehr bald der Anteil, den sie im Viewport zur Verfügung hat, unter diese Auflösung.

In diesem Beispiel habe ich mir die originale Textur nicht angeschaut. Auf jeden Fall hat sie in 2160p etwa 320x320 Pixel, in 1080p nur etwa 160x160 Raum zur Verfügung.
VergleichSchullogoKlein.png


Fazit:
Wer Flimmerfreiheit oder auch nur Flimmerarmut haben möchte, kommt um eine hohe Monitorauflösung bei traditionellen HQ-AA-Verfahren nicht herum. Wie das mit kommenden HQ-AA-Verfahren aussehen würde, ist natürlich nicht vollkommen gewiss. Es deutet aber vieles darauf hin, dass es genauso sein wird. Wenn man viel Raum hat, in den die berechneten Informationen hineingepresst werden können, dann ist das effizienter, als wenn man wenig Raum hat. Für Freunde hoher Texturqualität führt ohnehin kein Weg um hohe Ausgabeauflösungen herum.
 
Zurück