• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6700 XT offiziell: Launch am 18. März, so schnell wie RTX 3070, 230 Watt, 12 GiByte VRAM

Blackout27

Volt-Modder(in)
Die Karte wird an der XSX deutlich vorbeiziehen, läuft ja mit fast 2,5 Ghz Takt ohne OC.
Und RDNA2 scheint sehr sehr gut mit hohem Takt zu skalieren wie man anhand der Unterschiede zwischen PS5 und XSX sieht. Erstere ist kaum bzw nicht langsamer obwohl am Papier 20% weniger Leistung.
Ich würde eine günstigere 3060ti dank viel höherer RT Leistung und DLSS aber Stand jetzt definitiv vorziehen.

Was heißt bei dir deutlich?

Ich glaube kaum das eine übertaktete 6700XT mit wohl etwas über 13TF deutlich (d.h. So 30-50% Mehrleistung) an der neuen Xbox vorbei ziehen wird.

Falls doch dann Hut ab an den Cache und der Skalierbarkeit beim Takt.

Ein 1:1 Vergleich ist sowieso nicht möglich da die Xbox als Beispiel keine 96+ Cache spendiert bekommen hat, dafür aber ein deutlich dickeres Speicherinterface.
Das die Xbox kaum besser oder gar schlechter per formt als die Playstation 5 hatten wir doch schon in so vielen Threads. Das kann am OS liegen, das die Entwickler mehr Zeit mit dem PS5 Devkits hatten oder co. Du kennst doch das Video von DF bzgl. Foto Modus und den Konsolen wo die Xbox auch mal 25% schneller sein konnte.

Ich finde daher die 6700XT auf dem Papier etwas zu teuer. Auch deine genannte 3060ti ist da nicht wirklich uninteressanter da :
1. Auf dem Papier billiger
2. ausgereiftes DLSS
3. Wahrscheinlich besser in RT
4. Stromsparender

Daher finde ich die 6700XT "hätte" 399-429€ UVP besser gestanden. Ist ja alles nur Theorie. Bekommen wird man die Karte wohl kaum unter 650€.
 

Frank-Langweiler

PC-Selbstbauer(in)
480€ für +- RTX3070 Leistung bei mehr VRAM (auch wenn nur GDDR6) scheinen mir tatsächlich ein überaus faires Angebot zu sein.

Hatte eigentlich vermutet, dass die Leistung eher Richtung 3060TI geht oder sogar vllt sogar leicht darunter ist, dann wären 400€ imho angemessen, aber so bin ich positiv überrascht.

Kann mir auch gut vorstellen, dass man mit ner guten Kühllösung auch den Takt nochmal um 200+ Mhz nach oben prügeln kann, womit dann P/L nochmal besser würde.

Werde mal schauen ob ich eine ergattern kann. Hoffe, dass sich irgendwer erbarmt für die Karte nen Wakü-Block rauszuhauen, dann wären die 200Mhz wahrscheinlich easy drin.
Das PL sinkt, wenn man eine Wakü installiert. Aus diesem Gesichtspunkt sind Waküs nicht sinnvoll. Entweder man hat Freude daran oder nicht.
 

Gurdi

Kokü-Junkie (m/w)
Also eigentlich startete die "Behandlung" mit der RX 6900 XT, die RTX 3060 folgte. ;) Selbstverständlich testen wir auch die RX 6700 XT mit SAM an und SAM aus. Standard für die Indexberechnung bleibt erst mal der Modus ohne Resizable BAR bei allen Karten, bis sich das flächendeckend durchgesetzt hat.

MfG
Raff
Also ab dem Zeitpunkt wo AMD die 3000er Prozessoren freischaltet gibt es eigentlich keinen Grund mehr die AMD Karten ohne SAM zu benchen. Dann haben sowohl die Intel Plattformen als auch die AMD Plattformen eine weite Bereitstellung gewährleistet.
 

Palmdale

BIOS-Overclocker(in)
Ist Raytracing bei AMD optisch identisch zu Raytracing Nvidia? Diese Frage vermisse ich schon einige Zeit, auch in den jeweiligen Print Artikeln

Auch die 6700er Serie würde ich das fragen nebst der eigentlichen Performance
 

Firefox83

Freizeitschrauber(in)
@Blackout27 @RavionHD

ob die 6700XT gleichwertig oder besser/schwächer als eine xbox x ist, ist mMn irrelevant.

Die 6700CT kostet UVP 429€, eine xbox x 499€. Und mMn liegt genau hier der Hase im Pfeffer!

Die 6700XT, bzw alle GPUs, müssten preislich viel attraktiver sein. Oder die Konsolen sind einfach so stark quersubventioniert, dass der Verkaufspreis einfach lächerlich günstig ist.

also ich habe grundsätzlich mit der heutigen Marktsituation stark Mühe. Ich kann mir momentan nicht erklären oder begründen, wieso ich eine GPU (oder PC, wenn man pingelig sein will) einer Konsole vorziehen soll. :ka:
 

TheGermanEngineer

BIOS-Overclocker(in)
Natürlich werden Konsolen unter Herstellungspreis verkauft. Sony und Microsoft machen mit den Konsolen je Einheit ziemlich sicher Verlust. Aber das wird alles über den Nutzungszeitraum mit den damit verbundenen Abo-Diensten wieder hereingeholt.
 

RavionHD

PCGH-Community-Veteran(in)
Ich glaube kaum das eine übertaktete 6700XT mit wohl etwas über 13TF deutlich (d.h. So 30-50% Mehrleistung) an der neuen Xbox vorbei ziehen wird. Falls doch dann Hut ab an den Cache und der Skalierbarkeit beim Takt.
Naja wenn eine am Papier 20% langsamere PS5 taktbedingt manchmal ein besseres Ergebnis liefert als die XSX dann wird die 6700XT die am Papier schneller ist und zudem noch höher taktet wohl ordentlich vorbeiziehen.
Ein 1:1 Vergleich ist sowieso nicht möglich da die Xbox als Beispiel keine 96+ Cache spendiert bekommen hat, dafür aber ein deutlich dickeres Speicherinterface.
Das die Xbox kaum besser oder gar schlechter per formt als die Playstation 5 hatten wir doch schon in so vielen Threads. Das kann am OS liegen, das die Entwickler mehr Zeit mit dem PS5 Devkits hatten oder co. Du kennst doch das Video von DF bzgl. Foto Modus und den Konsolen wo die Xbox auch mal 25% schneller sein konnte.
Das scheint grundsätzlich je nach Spiel zu varriieren.
Ich finde daher die 6700XT auf dem Papier etwas zu teuer. Auch deine genannte 3060ti ist da nicht wirklich uninteressanter da :
1. Auf dem Papier billiger
2. ausgereiftes DLSS
3. Wahrscheinlich besser in RT
4. Stromsparender
Daher finde ich die 6700XT "hätte" 399-429€ UVP besser gestanden. Ist ja alles nur Theorie. Bekommen wird man die Karte wohl kaum unter 650€.
Zu teuer ist dir GPU sowieso, ich sehe sie auch bei 399 Euro. In einem normalen Markt hätte sich der Preis kurz nach Release in der Region eingependelt.
@Blackout27 @RavionHD
ob die 6700XT gleichwertig oder besser/schwächer als eine xbox x ist, ist mMn irrelevant.
Die 6700CT kostet UVP 429€, eine xbox x 499€. Und mMn liegt genau hier der Hase im Pfeffer!
Die 6700XT, bzw alle GPUs, müssten preislich viel attraktiver sein. Oder die Konsolen sind einfach so stark quersubventioniert, dass der Verkaufspreis einfach lächerlich günstig ist.
also ich habe grundsätzlich mit der heutigen Marktsituation stark Mühe. Ich kann mir momentan nicht erklären oder begründen, wieso ich eine GPU (oder PC, wenn man pingelig sein will) einer Konsole vorziehen soll. :ka:
In der jetzigen Marktsituation kannst Du Dir weder einen PC noch Konsolenhardware kaufen.
Der 6700 XT hat auch alles andere wie ein gutea P/L Verhältnis, rein von der UVP gesehen. Als Budget Gamer wäre ich eher bei einer RTX 3060 bzw 3060ti.
Und den reinen Anschaffungspreis zu vergleichen ist sinnlos - auf den Konsolen darfst Du dann Onlinegebühren und stellenweise 80 Euro für Spiele zahlen. Preislich wird es da langfristig kaum einen Unterschied geben.
 

Derjeniche

Komplett-PC-Aufrüster(in)
Das PL sinkt, wenn man eine Wakü installiert. Aus diesem Gesichtspunkt sind Waküs nicht sinnvoll. Entweder man hat Freude daran oder nicht.

Da hast du natürlich vollkommen Recht.

Ich habe mich da sehr missverständlich ausgedrückt bzw das alles sehr unglücklich in einen Zusammenhang gestellt wo keiner existieren sollte. Der Wakü-Block wird, wenn man sich die Preise so anschaut, natürlich nie dazu beitragen die P/L zu verbessern insbesondere da noch andere Mehrkosten wie Anschlusstüllen, Schläuche und gegebenenfalls ein weiterer Radiator samt Lüftern anfallen, bzw anfallen können.

~100€ für den Block, dazu noch Tüllen und Schläuche/Tubes für noch mal ~10€+ und gegebenenfalls noch ein zusätzlicher Radiator und schon ist man easy bei 200€+ Mehrkosten für den Umbau, falls nicht schon vorhanden (und selbst dann hat man immer noch den Block alleine mit 100€)

Für mich ging es lediglich darum, falls ich eine 6700XT ergattern kann, ich auf jeden Fall einen Wakü-Block draufpacke und damit mit höherer Wahrscheinlichkeit die Karte noch etwas OCen kann und somit performancetechnisch vielleicht(großes vielleicht) auf RTX3070 Niveau oder minimal darüber liege.

Wie du sehr richtig festgestellt hast, sind Waküs aus P/L Sicht nicht sinnvoll und ja der Umbau auf Wakü würde bei mir rein aus Interesse/Spaß an der Materie erfolgen.
 

Bevier

Volt-Modder(in)
Weder noch.
Ohne DLSS Alternative ist AMD aus meiner Sicht derzeit weniger konkurrenzfähig als zu Vega Zeiten.
Selbst Moore's Law is Dead, der ja wirklich nicht als Nvidia Sympathisant gilt, hat im letzten Video seine Enttäuschung darüber breit gemacht dass AMD auch diesmal nichts Neues zu FX Super Resolution bekannt gegeben hat.

Wenn eine günstigere 3060ti dank DLSS 30-50% schneller als eine 6700XT ist wird AMD es schwer haben (in einem einigermaßen normalen Markt ohne Kryptoboom).
Und noch einmal für dich, wie viele Titel haben denn aktuell diese bedeutungsvolle Technik? Genau, eine winzige, unbedeutende Anzahl im Vergleich zu der Masse der Spiele. DLSS 2.0 ist wirklich gut und auch interessant aber mit noch immer nicht einmal 25 Titeln, nach wie vor, unbedeutend, um daraus irgendeinen Schluss zu ziehen. Wer in der heutigen Zeit eine GPU bekommt, nimmt, was er kriegt. Der einzig entscheidende Punkt an der Stelle ist Lieferbarkeit. Irgendwelche, kaum unterstützte Features sind vollkommen Wurscht...
 

Blackout27

Volt-Modder(in)
Naja wenn eine am Papier 20% langsamere PS5 taktbedingt manchmal ein besseres Ergebnis liefert als die XSX dann wird die 6700XT die am Papier schneller ist und zudem noch höher taktet wohl ordentlich vorbeiziehen.

Das scheint grundsätzlich je nach Spiel zu varriieren.

Zu teuer ist dir GPU sowieso, ich sehe sie auch bei 399 Euro. In einem normalen Markt hätte sich der Preis kurz nach Release in der Region eingependelt.

In der jetzigen Marktsituation kannst Du Dir weder einen PC noch Konsolenhardware kaufen.
Der 6700 XT hat auch alles andere wie ein gutea P/L Verhältnis, rein von der UVP gesehen. Als Budget Gamer wäre ich eher bei einer RTX 3060 bzw 3060ti.
Und den reinen Anschaffungspreis zu vergleichen ist sinnlos - auf den Konsolen darfst Du dann Onlinegebühren und stellenweise 80 Euro für Spiele zahlen. Preislich wird es da langfristig kaum einen Unterschied geben.

Nochmal was heißt bei dir "Deutlich schneller"?

Bei den Konsolen kommt es wie vorher schon geschrieben und gefühlt 1.000 mal thematisiert nicht rein auf die Rohleistung an. Die Playstation ist und bleibt für viele Entwickler die Lead Plattform für bestimmte Spiele. Außerdem scheint die API der Playstation sehr perfomant zu sein.
Das ändert dennoch nichts das Die Xbox Series X und die 6700XT auf das gleiche / ähnliche Grund Gerüst setzen, DX12 und neuer.
Man könnte auch wieder schreiben das für Konsolen besser optimiert wird aber das lasse ich jetzt aus da ein 1:1 Vergleich eben so nicht gegeben werden kann (aber sicher bei DF und co. Geben wird da es sich einfach anbietet Xbox vs. 6700X).

Wenn die 6700XT deutlich schneller sein sollte dann wohl eher wegen dem Cache und das interessiert mich sehr. Außerdem wie skaliert eine 2560 Shader 6700XT in RT ggü. der Series X mit über 3000 Shader oder gegen eine niedriger getaktete 6800.

Technisch sehr spannend :)

Zu den Konsolen,
Preislich sofern man sie bekommt sind die einfach Konkurrenz in der aktuellen Lage. Zumal mal deutlich bessere Chancen hat eine Xbox Series X oder Playstation 5 für 399-499€ zu erstehen als PC Technik :(

Die Kosten hatten wir auch schon gefühlt 1.000 mal und warum alle Plattformen immer näher an einander Rücken was die Kosten betrifft.
 
Zuletzt bearbeitet:

RavionHD

PCGH-Community-Veteran(in)
Und noch einmal für dich, wie viele Titel haben denn aktuell diese bedeutungsvolle Technik? Genau, eine winzige, unbedeutende Anzahl im Vergleich zu der Masse der Spiele. DLSS 2.0 ist wirklich gut und auch interessant aber mit noch immer nicht einmal 25 Titeln, nach wie vor, unbedeutend, um daraus irgendeinen Schluss zu ziehen. Wer in der heutigen Zeit eine GPU bekommt, nimmt, was er kriegt. Der einzig entscheidende Punkt an der Stelle ist Lieferbarkeit. Irgendwelche, kaum unterstützte Features sind vollkommen Wurscht...

Die Spiele mit der größten Userbase nutzen DLSS 2.0, egal ob Minecraft, CoD:Warzone, Black Ops Cold War, Cyberpunk 2077, Fortnite oder Warthunder.
Darüberhinaus noch Spiele wie Watch Dogs Legion, Control, Nioh 2, Death Stranding usw.

Zukünftig werden wir das bei beinahe alle größeren Titel sehen. Die Unreal Engine supportet das mittlerweile via Plugin.
 

RavionHD

PCGH-Community-Veteran(in)
Laut PCGH GPU Index sind es tatsächlich nur 2% zwischen 3070 und 6800.
Realistisch gesehen dürfte der 6700XT maximal auf 3060ti Level landen im gleichen Index.
Also sorry das P/L Verhältnis wäre dann katastrophal.
3060ti Leistung + deutlich weniger mit RT Leistung + keine DLSS Alternative und trotzdem teurer?
 

RavionHD

PCGH-Community-Veteran(in)
Da liest du einen anderen Index als ich, im neuen MAG steht es 72,8 zu 68,6% und zwar gemessen an der 3090.
Eine 6800 liegt geschmeidig 10% vor einer 3070.
Ich habe mich auf den bezogen:
 

geist4711

Software-Overclocker(in)
Die Frage ist doch eher wenn du nur auf Dauer Browserspiele und Emulatoren spielen willst, wozu überhaupt eine neue GraKa? :wall:

DLSS und RT werden Standard Optionen bei allen neuen Spielen werden.

ja genau, WERDEN, also in der zukunft.

warum also soll ich JETZT, wo ich noch nicht ein einziges solches spiel habe, und auch erst in jahren ein erstes solches kommen dürfte, schon jetzt geld dafür ausgeben?
hint: nein nicht nur browserspiele.....

zumahl das ganze ja sehr offensichtlich noch in den kinderschuhen steckt(siehe RT-leistunge der kleineren karten)........

da kauf ich doch lieber erst später solche karten, spare JETZT geld und habe später dann wohl auch mehr RT-leistung weil die dann kaufbaren karten mehr RT-leistung haben. win-win-situation für die mit köpfchen.........
 

Gurdi

Kokü-Junkie (m/w)
Ich sehe bei der wirklich guten Leistung moderner Karten ehrlich gesagt auch wenig Gründe DLSS zu verwenden.
Abseits von 4k ist es eh unnötig und darunter von der Qualität auch kaum zu empfehlen.
 

CD LABS: Radon Project

Volt-Modder(in)
Ich sehe bei der wirklich guten Leistung moderner Karten ehrlich gesagt auch wenig Gründe DLSS zu verwenden.
Abseits von 4k ist es eh unnötig und darunter von der Qualität auch kaum zu empfehlen.
Welche wirklich gute Performance moderner Karten?
Seit Maxwell haben die Generations-Effizienzgewinne nachgelassen, das heißt, in der gleichen Wattklasse haben auch die Performancegewinne nachgelassen.

Der Geck von DLSS 2.0 Quality ist doch gerade der, ein NoBrainer zu sein: Mehr Performance und bessere Bildquali zugleich. Dass DLSS 2.0 Ultra Quality bislang fehlt, ist natürlich bei einem Gefühl wie dem deinen besonders ärgerlich. (vgl auch hier: https://extreme.pcgameshardware.de/...230-watt-12-gibyte-vram.601230/#post-10688809)
 

RavionHD

PCGH-Community-Veteran(in)
Ich sehe bei der wirklich guten Leistung moderner Karten ehrlich gesagt auch wenig Gründe DLSS zu verwenden.
Abseits von 4k ist es eh unnötig und darunter von der Qualität auch kaum zu empfehlen.
Versuch mal bei Cyberpunk 2077 oder Watch Dogs Legion mit RT in UWQHD 60 FPS zu erreichen. Das geht ohne DLSS nicht.
1440P Quality und Balanced ergeben immer noch ein besseres Bild als nativ, da diese entweder flimmert ohne AA bzw schlechtem AA oder mit TAA sehr unscharf wird.

Selbst wenn ich genügend FPS hätte würde ich DLSS verwenden, abgesehen davon dass es unterm Strich ein besseres Bild als nativ erzeugt, kann ich mein Performancetarget bei deutlich niedrigerem Stromverbrauch erreichen.
 
Zuletzt bearbeitet:

danyundsahne

Komplett-PC-Aufrüster(in)
Für die ganzen DLSS Verfechter hier, die meinen es geht nicht mehr ohne:


AMD wird es auf allen Plattformen bringen und somit wird jedes Game auch darauf optimiert.

Somit ist AMD dann auch auf dem selben Stand was das angeht.

Und dieses Rumgereite darauf geht schon auf den Nerv mittlerweile...als wenn es nichts anderes gäbe!
Das ist ein nice-to-have....nicht mehr und nicht weniger! Punkt.
Jedes Spiel läuft auch ohne.
Ist genauso wie bisher mit RT...nice-to-have.

Bis beides so weit Verbreitung gefunden hat und überall integriert ist, vergehen noch Monate und vermutlich eher Jahre.
Bis dahin tut es die Leistung bisheriger Karten allemal und selbst die RT Leistung reicht bei beiden Herstellern mal zum schnuppern.

Ansonsten zum Thema RX6700XT....
Schnelle Karte mit mehr aus genug RAM, wohl schneller als die meisten hier gedacht(gehofft) haben, denn sonst würde man nicht auf (bisher noch) fehlendes DLSS rumreiten.
UVP Preis auch okay, immerhin etwas unter der 3070. Für 50% mehr VRAM und etwas schwächeren RT Leistung als bei der 3060ti/3070 sehr angemessen.
Fehlendes DLSS zähl ich nicht, da es auch für alle Plattformen von AMD kommt.
Dafür funktioniert SAM auf Anhieb und muss nicht noch per vBIOS auf NV GPUs nachgepatcht werden.

Von daher hat jeder Hersteller seine (kleine) Packung zu tragen und beide Hersteller sind so nah bei einander wie schon sehr sehr lange nicht mehr.

Wie bei den CPUs hat AMD auch hier bei den GPUs dem Konkurrenten gezeigt dass man mehr drauf hat als Underdog. Und das ist auch gut so.
 

Blackout27

Volt-Modder(in)
Ich sehe bei der wirklich guten Leistung moderner Karten ehrlich gesagt auch wenig Gründe DLSS zu verwenden.
Abseits von 4k ist es eh unnötig und darunter von der Qualität auch kaum zu empfehlen.

Ich habe zwar eine 3090 und daher massig Leistung aber bei dem Punkt gebe ich dir Recht. Alles unter 2160p lasse ich nativ laufen. Da würde bei den meisten Fällen auch eine 2060 Super reichen.

DLSS ist schon toll, gerade wenn man etwas weiter weg sitzt (zum Beispiel am TV). Ganz Fehlerfrei ist DLSS aber nicht. In Death Stranding oder auch Cyberpunk kann man ganz gut Artefakte erkennen. Eine Art Ghosting bei bestimmten Objekten oder auch Bewegungen. Direkt vorm Monitor ist mir das deutlicher aufgefallen als am TV bei 3m Sitzabstand.

Aber ja lieber DLSS unterstützen und wenn man möchte aktivieren als keine Möglichkeit zu haben.
 

RavionHD

PCGH-Community-Veteran(in)
Fehlendes DLSS zähl ich nicht, da es auch für alle Plattformen von AMD kommt.
Es ist nicht ansatzweise bekannt ob AMD's Lösung qualitativ mit DLSS 2.0 mithalten kann, AMD nutzt keine KI Recheneinheiten die Nvidia für DLSS 2.0 nutzt.
Wenn am Ende sowas wie DLSS 1.0 rauskommt bringt das keinem was. Da bin ich gespannt wie gut ihre Lösung wird.

DLSS 2.0 ist jedoch ein absoluter Gamechanger, im Grunde bekommt man ein unterm Strich besseres Bild mit deutlich mehr Performance.

DLSS ist schon toll, gerade wenn man etwas weiter weg sitzt (zum Beispiel am TV). Ganz Fehlerfrei ist DLSS aber nicht. In Death Stranding oder auch Cyberpunk kann man ganz gut Artefakte erkennen. Eine Art Ghosting bei bestimmten Objekten oder auch Bewegungen. Direkt vorm Monitor ist mir das deutlicher aufgefallen als am TV bei 3m Sitzabstand.
Ich spiele vor dem Monitor und mir sind keine "Artefakte" aufgefallen. Vielleicht mit 300% Zoom.
Digital Foundry hat erst kürzlich gezeigt wie gut DLSS 2.0 im Vergleich zum nativen Bild ist.

Nativ: Entweder Dauergeflimmer ohne AA bzw schlechtem AA oder Unschärfe mit TAA
DLSS 2.0: Glattes und scharfes Bild, jedoch muss man offenbar via Nvidia Inspector zwecks Texturauflösung in manchen Fällen die Mipmaps anpassen
 

Anhänge

  • 220C4ez.png
    220C4ez.png
    2,3 MB · Aufrufe: 15
  • yrHzXra.png
    yrHzXra.png
    1,4 MB · Aufrufe: 15
Zuletzt bearbeitet:

CD LABS: Radon Project

Volt-Modder(in)
Und dieses Rumgereite darauf geht schon auf den Nerv mittlerweile
Absolut. Die Gegenseite AcceleratedAA interessiert mich nicht ist aber für meinen Geschmack mindestens genauso nervig. Und beide sind in diesem Thread total verbreitet.
Natürlich ist es hart, sich zwischen die Fronten zu begeben und beide Seiten zu kritisieren. Aber sie schreiben nunmal beide Unfug. Auch du hast eine leichte Tendenz dazu:
Das ist ein nice-to-have....nicht mehr und nicht weniger! Punkt.
Nice2Have als Bezeichnung für ein Killerfeature zu verwenden ist eine ziemliche Streckung von Nice2Have. Dann ist auch ein leiser Rechner, eine hohe Performance oder sonstwas Nice2Have...

Spar dir das, sowas schwächt dein Posting!

P.s.: Ich habe jetzt mal diesen gerade erfundenen Begriff AcceleratedAA genutzt, damit nicht schon wieder dem anderen Subthema gewechselt, welche Bedeutung denn DLSS gerade hat. Die ist natürlich gering!
 

Nordbadener

PC-Selbstbauer(in)
Ich vergleiche jetzt mal nur die AMD-Referenzkarten und deren UVP.
Die Abstufungen der einzelnen Modelle untereinander bei Recheneinheiten und VRam gefällt mir gut.
Das modellübergreifende Design und die Verarbeitungsqualität ist hervorragend.

Nur die Preisgestaltung der UVP`s passt da irgendwie nicht dazu.

Wenn man die 6800XT mit einer UVP von 649,- als Sweetspot nimmt, ist die 6900XT bei 6-9 Prozent Mehrleistung einfach zu teuer. Genauso ist der preisliche Abstand der 6800 zur 6800XT für die Minderleistung zu gering. Dabei wäre die 6800 eigentlich die eierlegende Wollmilchsau in AMD`s Lineup. So ist sie schon fast obsolet.
Die 6700XT ist zweifelsfrei eine gute Karte, aber die UVP von 479,- liegt um ca. 50 Euro zu hoch.

Trotz allem gratuliere ich AMD zu diesem starken Lineup. Wer hätte dies vor einem halben Jahr so erwartet?
 

Gurdi

Kokü-Junkie (m/w)
Für die ganzen DLSS Verfechter hier, die meinen es geht nicht mehr ohne:

AMD wird es auf allen Plattformen bringen und somit wird jedes Game auch darauf optimiert.
Ohh das ist ne interessante Info. Sollte sich das bewahrheiten, hat AMD die Fäden ziemlich in der Hand. Auf den offenen Standard zu setzen dürfte sich auszahlen. Wenn die Konsolen das wirklich alle implementieren werden wir das wohl flächendeckend sehen.
Ich habe zwar eine 3090 und daher massig Leistung aber bei dem Punkt gebe ich dir Recht. Alles unter 2160p lasse ich nativ laufen. Da würde bei den meisten Fällen auch eine 2060 Super reichen.

DLSS ist schon toll, gerade wenn man etwas weiter weg sitzt (zum Beispiel am TV). Ganz Fehlerfrei ist DLSS aber nicht. In Death Stranding oder auch Cyberpunk kann man ganz gut Artefakte erkennen. Eine Art Ghosting bei bestimmten Objekten oder auch Bewegungen. Direkt vorm Monitor ist mir das deutlicher aufgefallen als am TV bei 3m Sitzabstand.

Aber ja lieber DLSS unterstützen und wenn man möchte aktivieren als keine Möglichkeit zu haben.
Stimme dir da zu, auf der Glotze ist das auch wirklich nützlich an den 4k Panels. Am HTPC mit dem Abstand zum Fernseher bin ich auch kompromissbereiter als am Main wo ich mit der Nase vorm Bild klebe.

Aber wie gesagt, mein Main ist in QHD derart schnell, da nutze ich eigentlich immer downsampling statt upscaling. WatchDogs habe ich auch mit der 3090 lieber Nativ QHD mit RT genutzt als mit DLSS und in dem Spiel langt auch die RT Leistung meiner XT für QHD.
 

Hisuinoi

Schraubenverwechsler(in)
Die Karte sieht verlockend aus, mal sehen wie teuer die letztendlich wird durch die Aktuelle Grafikkarten Knappheit.
Wenn die für mich in Frage kommen sollte dann eh erst später oder ich warte auf die nächste Generation von Nvidia.
Die Kühlung würde ich so oder so umbauen mit einer Alubackplate als zusätzliche Wärmeableitung wie auch bei meiner GTX 1070 Ti, das wichtigste ob ein Hersteller bzw. Arctic eine entsprechende Kühlung dafür auch rausbringt.
Da eine Wasserkühlung für mich generell nicht in Frage kommt.

Meine Sorge ist eher der Stromverbrauch unter Last alles über 200Watt finde ich schon zu viel bei einer Grafikkarte.
Denke mit Anpassungen kann der Stromverbrauch sicherlich unter 200Watt gehalten werden.
 

Frank-Langweiler

PC-Selbstbauer(in)
Da hast du natürlich vollkommen Recht.

Ich habe mich da sehr missverständlich ausgedrückt bzw das alles sehr unglücklich in einen Zusammenhang gestellt wo keiner existieren sollte. Der Wakü-Block wird, wenn man sich die Preise so anschaut, natürlich nie dazu beitragen die P/L zu verbessern insbesondere da noch andere Mehrkosten wie Anschlusstüllen, Schläuche und gegebenenfalls ein weiterer Radiator samt Lüftern anfallen, bzw anfallen können.

~100€ für den Block, dazu noch Tüllen und Schläuche/Tubes für noch mal ~10€+ und gegebenenfalls noch ein zusätzlicher Radiator und schon ist man easy bei 200€+ Mehrkosten für den Umbau, falls nicht schon vorhanden (und selbst dann hat man immer noch den Block alleine mit 100€)

Für mich ging es lediglich darum, falls ich eine 6700XT ergattern kann, ich auf jeden Fall einen Wakü-Block draufpacke und damit mit höherer Wahrscheinlichkeit die Karte noch etwas OCen kann und somit performancetechnisch vielleicht(großes vielleicht) auf RTX3070 Niveau oder minimal darüber liege.

Wie du sehr richtig festgestellt hast, sind Waküs aus P/L Sicht nicht sinnvoll und ja der Umbau auf Wakü würde bei mir rein aus Interesse/Spaß an der Materie erfolgen.
Eine tolle Reaktion auf meine knappen Worte. In der Tat würde ich das selbe tun: wenn ich direkt von AMD eine bekommen kann, kaufe ich sie, dann ist die UVP/Leistung auch egal: Jede Karte zu jeder UVP ist gerade ein Schnäppchen, auch die 3090! Und weil es mir sonst keine Freude macht, gibt es nen Wasserblock dazu, sollte ich vom Erlös der 980ti mit Block locker bekommen.

Mist dann nicht meine Traumkarte, aber NOCH eine 3080 (eine habe ich für 850 weiterverkauft, nett wie ich war) bekomme ich ja nicht zur UVP.
 

Blackout27

Volt-Modder(in)
Ich spiele vor dem Monitor und mir sind keine "Artefakte" aufgefallen. Vielleicht mit 300% Zoom.
Digital Foundry hat erst kürzlich gezeigt wie gut DLSS 2.0 im Vergleich zum nativen Bild ist.

Nativ: Entweder Dauergeflimmer ohne AA bzw schlechtem AA oder Unschärfe mit TAA
DLSS 2.0: Glattes und scharfes Bild, jedoch muss man offenbar via Nvidia Inspector zwecks Texturauflösung in manchen Fällen die Mipmaps anpassen

Hier mal ein Video was ich auf die schnelle gefunden habe das ich teilweise bestätigen kann

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Ansonsten zwei Beispiele wo ich solche Artefakte gut erkannt habe am Monitor in 1440p plus DLSS Qualität

1) Death Stranding
Bei Türmen wabert das Objekt etwas nach. Sieht im Augenwinkel aus wie flimmern. Dazu hatte glaube ich sogar DF ein Video gemacht.

2) Cyberpunk 2077
Beim Auto fahren in der Außenansicht eine Art Ghost Effekt am Boden bzw. Bei den Reifen. Aber auch die Gitter wir im Video kann ich bestätigen. Irgendwo sind eben auch Grenzen gesetzt.

Natürlich flimmert auch ein DLSS Bild bei geringer Auflösung. Als Qualitätssiegel würde ich den Modus jetzt nicht bezeichnen. Daher sofern die Rohleistung reicht kann man auch nativ mit guter Glättung verwenden.

Sobald ich einen 2160p Monitor besitze wird DLSS aber für mich sehr sehr wichtig werden da bei der Auflösung plus DLSS Qualität das Bild schon super aussieht wenn man die FPS im Auge behält.

Die meisten Spiele die ich zur Zeit Spiele haben sowieso kein DLSS oder gibt es gar gerade nur auf der Switch :D

Edit:
Control habe ich auch mal getestet und das fand ich von der Technik her schon sehr gut. Metro dagegen fand ich wirklich verwaschen, baut aber glaube noch auf DLSS 1.X auf.

Hoffentlich kommt bald DLSS 3.0 bzw. wird weiter verbreitet. Ich finde solche Techniken wirklich gut wenn man bestimmte Fps und Auflösungen erreichen will. Macht eine Playstation 4 Pro/5 ja nicht anders mit CR wenn auch nicht ganz so optisch gelungen ggü. nativen Auflösungen. Aber ja man muss hier und dort mit der Lupe suchen und ist im Alltag zu vernachlässigen.

Edit 2:
Deine Definition über "Deutlich schneller" interessiert mich immer noch. Kannst du dich dazu noch äußern?
 

RavionHD

PCGH-Community-Veteran(in)
Hier mal ein Video was ich auf die schnelle gefunden habe das ich teilweise bestätigen kann
Ansonsten zwei Beispiele wo ich solche Artefakte gut erkannt habe am Monitor in 1440p plus DLSS Qualität
1) Death Stranding
Bei Türmen wabert das Objekt etwas nach. Sieht im Augenwinkel aus wie flimmern. Dazu hatte glaube ich sogar DF ein Video gemacht.
2) Cyberpunk 2077
Beim Auto fahren in der Außenansicht eine Art Ghost Effekt am Boden bzw. Bei den Reifen. Aber auch die Gitter wir im Video kann ich bestätigen. Irgendwo sind eben auch Grenzen gesetzt.
Natürlich flimmert auch ein DLSS Bild bei geringer Auflösung. Als Qualitätssiegel würde ich den Modus jetzt nicht bezeichnen. Daher sofern die Rohleistung reicht kann man auch nativ mit guter Glättung verwenden.
Um in nativer Auflösung heute jegliches Flimmern zu verwenden setzt man fast ausschließlich nur mehr auf TAA Lösungen => unscharfes Bild. Da habe ich lieber das schärfere, detailreichere DLSS Bild wo ich vielleicht mit 300% Zoom irgendwo ein Artefakt erkennen könnte.
Edit:
Control habe ich auch mal getestet und das fand ich von der Technik her schon sehr gut. Metro dagegen fand ich wirklich verwaschen, baut aber glaube noch auf DLSS 1.X auf.
Metro Exodus nutzt DLSS 1.0, erst die Enhanced Version wird auf 2.0 setzen.
Hoffentlich kommt bald DLSS 3.0 bzw. wird weiter verbreitet. Ich finde solche Techniken wirklich gut wenn man bestimmte Fps und Auflösungen erreichen will. Macht eine Playstation 4 Pro/5 ja nicht anders mit CR wenn auch nicht ganz so optisch gelungen ggü. nativen Auflösungen. Aber ja man muss hier und dort mit der Lupe suchen und ist im Alltag zu vernachlässigen.
Checkerboard ist halt eine eine ganz normale TAA Lösung, das Ergebnis ist qualitativ bei Weitem nicht vergleichbar wie eine KI Rechenleistung.
On PS4 Pro, it features one of the best checkerboarding implementations we've seen. Meanwhile, on PC, we see a 'next-gen' image reconstruction technique - Nvidia's DLSS - which delivers image quality better than native resolution rendering.
Edit 2:
Deine Definition über "Deutlich schneller" interessiert mich immer noch. Kannst du dich dazu noch äußern?
Das ist von Fallzu Fall unterschiedlich, wieso?
 

Blackout27

Volt-Modder(in)
Um in nativer Auflösung heute jegliches Flimmern zu verwenden setzt man fast ausschließlich nur mehr auf TAA Lösungen => unscharfes Bild. Da habe ich lieber das schärfere, detailreichere DLSS Bild wo ich vielleicht mit 300% Zoom irgendwo ein Artefakt erkennen könnte.

Metro Exodus nutzt DLSS 1.0, erst die Enhanced Version wird auf 2.0 setzen.

Checkerboard ist halt eine eine ganz normale TAA Lösung, das Ergebnis ist qualitativ bei Weitem nicht vergleichbar wie eine KI Rechenleistung.


Das ist von Fallzu Fall unterschiedlich, wieso?

Naja 300% ist schon übertrieben. Ich konnte es ja auch bei normalen Sitzabstand zum Monitor erkennen ^^

Bei Metro schaue ich dann nochmal nach dem Update rein. Inhaltlich fand ich es bisher echt toll.

CR verfolgt genau wie DLSS den Ansatz durch eine geringe interne Auflösung die gewünschte Ausgabe Auflösung zu verbessern. Natürlich in unterschiedlichen Ansätzen und Ergebnissen. Auf der Konsole finde ich die Lösung aber wirklich gut bei normalen Sitzabstand zum TV. Verbesserungspotenzial ist aber natürlich klar vorhanden.

Zum Thema "Deutlich schneller", das hast du vorhin geschrieben beim Vergleich zur Xbox Series X ggü. der 6700XT. Ohne genaue Definition kann ich dir da weder zustimmen noch es verneinen.
Dieses "Deutlich schneller/besser" lese ich in deinen Beiträgen immer mal wieder. Keine Ahnung ob das 1% oder 50% für dich bedeuten.

Deutlich schneller bedeutet für mich, das man spürbar oder sichtbar mehr erreicht. Alles unter 30% ist bei mir schneller aber nicht deutlich daher meine mehrfach wiederholte Frage dazu.
 

latinoramon

PCGHX-HWbot-Member (m/w)
So schnell wie die 3070, aber nicht vergessen die 3070 hat lächerliche 8GB. Die 6700XT 12GB, also ist wohl eine 6700XT die deutlich BESSERE Wahl.
 

geist4711

Software-Overclocker(in)
ich sehe nicht, das ein unscharfes bild oder flimmern, bei 1080p,
tatsächlich an 'zu geringer auflösung' liegt.
man schaue sich doch mal die grösse des einzel-pixels dabei an.

es liegt am jeweiligen spiel, das es unscharf, flimmernd, oder sonst was, ist.
rein vom monitor her, wäre es durchaus möglich, ohne solches ein spiel dar zu stellen.
 

Eidgenosse1

Komplett-PC-Aufrüster(in)
Man hätte TAA ja auch mit einem nachträglichen kleine Sharpen Postprocessing Effekt ausliefern können. Dann wäre TAA eine sehr gute Lösung. Aber was will man heutzutage auch erwarten..
 

CD LABS: Radon Project

Volt-Modder(in)
ich sehe nicht, das ein unscharfes bild oder flimmern, bei 1080p,
tatsächlich an 'zu geringer auflösung' liegt.
man schaue sich doch mal die grösse des einzel-pixels dabei an.

es liegt am jeweiligen spiel, das es unscharf, flimmernd, oder sonst was, ist.
rein vom monitor her, wäre es durchaus möglich, ohne solches ein spiel dar zu stellen.
Dass in manchen Spielen Flimmerfreiheit auch auf einem FHD-Display möglich sein könnte, würde ich unterschreiben. Allerdings sind möglich und effizient möglich halt noch zwei Paar Schuhe.

Um sowas zu zeigen, arbeite ich gerne mit HarryPotter2. Einfach allein schon, weil man Tonnen an Performance hat und dazu geringe Ladezeiten. Aber auch, weil es kein Sichtweitenlimit und kein LOD-System verwendet, man sich somit keine Gedanken machen muss, was an dem Endresultat vielleicht nur an der Distanzdarstellung liegt. Darüber hinaus sind die Texturen ziemlich winzig, auch das ist hilfreich.

In dem Spiel vergleiche ich dann besonders gerne 32xS + 8xSGSSAA (2x2 OGSSAA kombiniert mit 8xSGSSAA) in 1080p mit 8xSGSSAA in 2160p. Bei beiden wird also die gleiche Ausgangsauflösung heruntergerechnet. Das 2160p-Bild ist aber deutlich flimmerärmer, kann fast schon als flimmerfrei bezeichnet werden.
Das gleiche gilt auch für 4x4OGSSAA 1080p vs. 2x2OGSSAA in 2160p. Man erhält einfach für die gleiche Performance ein besseres Ergebnis in Punkto Flimmerfreiheit.
Darüber hinaus zeigt einem das 2160p-Bild selbst bei den winzigen Texturauflösungen von HP2 mehr Details. Das sollte aber auch nicht verwundern: Wenn eine 256x256er-Textur auf einer mittelmäßigen Entfernung dargestellt wird, sinkt nunmal sehr bald der Anteil, den sie im Viewport zur Verfügung hat, unter diese Auflösung.

In diesem Beispiel habe ich mir die originale Textur nicht angeschaut. Auf jeden Fall hat sie in 2160p etwa 320x320 Pixel, in 1080p nur etwa 160x160 Raum zur Verfügung.
VergleichSchullogoKlein.png


Fazit:
Wer Flimmerfreiheit oder auch nur Flimmerarmut haben möchte, kommt um eine hohe Monitorauflösung bei traditionellen HQ-AA-Verfahren nicht herum. Wie das mit kommenden HQ-AA-Verfahren aussehen würde, ist natürlich nicht vollkommen gewiss. Es deutet aber vieles darauf hin, dass es genauso sein wird. Wenn man viel Raum hat, in den die berechneten Informationen hineingepresst werden können, dann ist das effizienter, als wenn man wenig Raum hat. Für Freunde hoher Texturqualität führt ohnehin kein Weg um hohe Ausgabeauflösungen herum.
 
Oben Unten