Radeon: "DX11-Wundertreiber" von AMD mit Adrenalin 22.5.2 offiziell veröffentlicht

Man hätte sich die 6800 (non-xt durch den Treiber sparen können.
Naja.. dafür wird die 3070ti gut in Schach gehalten.

Die 6800xt ist auch mittlerweile auf dem Level der 3080 12gb
.. und hat die 3080 10gb hinter sich gelassen mit der sie zu Release in etwa auf einem Level war

Je nach Benchmark ist auch die 6900xt schneller als die 3080ti/3090

Also die Karten sind durchaus Konkurrenzwürdig
 
Man hätte sich die 6800 (non-xt durch den Treiber sparen können.
na dann schau mal die Effizienz Deiner 6700 an und die Temps.

Für mich persönlich hat so ein Salvagechip wie die 6800nonXT schon Vorteile, weil die Wärmeübertragungsfläche
genauso groß ist wie bei ner 6950 aber mit weniger W der Lüfter deutlich leiser ist

Ne 6700 hat ein deutlich schlechteres Verhältnis W/mm² von der fehlenden Performance ganz zu schweigen,
selbst mit OCen wirst Du nie in die Nähe einer optimerten 6800 kommen.(bei selben W)

stell mal spassenshalber bei Dir 224W im MPT ein und takte so hoch wie möglich
Die Runs waren ohne den Lüfter hochzudrehen.(bei meiner MSi 6800 GamingX Trio @Fanstopp=off)
GPU= 55°C am Ende von GT2. Es war kein Problem ggü. der Ref. ca. 19W mehr draufzupacken ohne das mir die
Ohren abfallen, ... die vollen W braucht die Graka eh nur zeitweise in GT2


Die Effizienz in Games war nie gut bei der 6700. (selbst wenn Es jetzt 3...4% besser wäre)
 

Anhänge

  • 915@2530-1970_2132FT.png
    915@2530-1970_2132FT.png
    540,1 KB · Aufrufe: 26
  • 912@2520-2420_2132FT.png
    912@2520-2420_2132FT.png
    1,3 MB · Aufrufe: 26
  • 01d-Efficiency.png
    01d-Efficiency.png
    30,7 KB · Aufrufe: 27
Zuletzt bearbeitet:
Habe es mir eben runtergeladen, somit ist die RX 6700 schneller wie die 3070 aber wieso erst jetzt ? Kann mir das jemand erklären.
Die RX 6700XT ist in den getesten 50 Spielen genau in 10 Spielen schneller...in einem Spiel gleichauf...und in 39 Spielen langsamer als die RTX 3070.
Dein Fazit...die RX 6700XT ist jetzt schneller...echt jetzt?

Screenshot 2022-05-22 153534.jpg


Man hätte sich die 6800 (non-xt durch den Treiber sparen können.
Die RX 6800 profitiert ja auch von dem Treiber......und die ist weit weit weg von deiner RX 6700XT.
Wir können auch gerne vergleichen.
RX 6800 + RTX 3070.jpg
 
Zuletzt bearbeitet:
Waren AMD nicht die Ersten mit einem spieleunabhängigen Spatial Upscaler? (sowohl RIS als auch RSR waren zuerst bei AMD, und nvidia hat es dann später kopiert)
Nein waren sie nicht und Nvidia kam mit DLSS, bevor AMD überhaupt einen Upscaler hatte.
RT kam ebenfalls erst von Nvidia. Ordentliche DX11 Performance gibt es bei Nvidia seit Jahren und AMD hats erst mit dem letzten Treiber geschafft das Problem zu lösen
 
War AMD nicht die ersten mit Smart Memory Access? Waren AMD nicht die ersten mit PCIe 4.0 Support? Waren AMD nicht die Ersten mit einem spieleunabhängigen Spatial Upscaler? (sowohl RIS als auch RSR waren zuerst bei AMD, und nvidia hat es dann später kopiert) Waren AMD nicht die ersten mit Vulkan Support? Die ersten mit Adaptive Sync support?

Immer wenn es neue offene Standards gibt, ist AMD der erste, der diese einführt, und Nvidia zieht dann nach. Alles was nvidia kann, ist sich proprietäre Technologien auszudenken, und diese dann so zu implementieren, dass sie niemand anders nutzen kann. Warum kann nicht mal nvidia die technologische Führerschaft übernehmen? Groß genug sind sie doch.
Das lässt sich mit Nvidia aber auch machen. Die Liste wäre erheblich länger zumal sie sogar den begriff Gpu quasi erfunden und geprägt haben.
 
Nein waren sie nicht und Nvidia kam mit DLSS, bevor AMD überhaupt einen Upscaler hatte.
RT kam ebenfalls erst von Nvidia. Ordentliche DX11 Performance gibt es bei Nvidia seit Jahren und AMD hats erst mit dem letzten Treiber geschafft das Problem zu lösen
Puh.. mal wieder ne Menge Marketing...

1) RT gibt es seit Jahrzehnten. Das haben weder AMD, noch Nvidia erfunden - und auch jetzt hat keine einzige Karte genug Power für alle Effekte
2) AMD und Nvidia hatten schon lange vor DLSS und FSR / RSR upscaler - nur halt nicht so schön geschummelt, wie aktuell.
PC Spieler hatten kein Interesse an Upscaling und haben immer hämisch über Konsolen gelästert, die das seit langem als Standard Rendering einsetzen.
Jetzt, seit DLSS 1, wurde es schlicht zum Marketing Hype, dass man das Upscaling geschummel nicht mehr so leicht sieht, wie früher.


Alles in allem: YAY, meine Karte ist zu schwach für 4k und / oder RT.. aber ich kann ja in schön geschummelten 1440p spielen....

Edit: Dazu kommt noch, dass die schön gehypten Tensor Kerne nicht mal wirklich was tun... DLSS / Geräuschunterdrückung etc. laufen bestens ohne die Kerne.
Die RT Kerne sind nach aktuellem Stand ziemlich effizient. Gern mehr davon.. Dafür dann die nutzlosen Tensor Kerne rauswerfen.

Edit2:
Einen Hype hab ich glatt vergessen... die 10.496 CUDA Kerne der 3090.
Die Hälfte davon sind INT Kerne, die im Nebenjob auch FP Berechnungen können - wenn sie denn keine INT Berechnungen durchführen (was sie in 99.9% der Spiele tun).
Sind dann halt doch nur reale 5.248 FP Kerne
 
Zuletzt bearbeitet:
1) RT gibt es seit Jahrzehnten. Das haben weder AMD, noch Nvidia erfunden - und auch jetzt hat keine einzige Karte genug Power für alle Effekte
Ich habe auch nie behauptet, dass sie es erfunden haben. Nvidia hat es aber Spieletauglich gemacht und zwar vor AMD, daher kannst du dir sowas klemmen:
Puh.. mal wieder ne Menge Marketing...

2) AMD und Nvidia hatten schon lange vor DLSS und FSR / RSR upscaler - nur halt nicht so schön geschummelt, wie aktuell.
PC Spieler hatten kein Interesse an Upscaling und haben immer hämisch über Konsolen gelästert, die das seit langem als Standard Rendering einsetzen.
Es gab schon immer Upscaler, aber FSR/RSR kam erst nach DLSS. Nvidia war also auch hier mal wieder Vorreiter und genau darum ging es.
Geschummelt ist da auch nichts.

Edit: Dazu kommt noch, dass die schön gehypten Tensor Kerne nicht mal wirklich was tun... DLSS / Geräuschunterdrückung etc. laufen bestens ohne die Kerne.
Alles läuft auch ohne. Du brauchst auch keine Graka, weil die CPU die Berechnungen ebenfalls übernehmen könnte, aber das zeigt im Grunde nur, dass du nicht checkst um was es geht.
DLSS läuft auch ohne Tensorkerne, ist aber mit diesen viel effizienter/schneller und das ist das A und O bei GPUs.
Jeden Prozess so schnell wie möglich abzuarbeiten. Wenn Tensor Kerne unnütz wären, hätte Nv sie auch nicht verbaut und DLSS 2 nutzt sie.

Edit2:
Einen Hype hab ich glatt vergessen... die 10.496 CUDA Kerne der 3090.
Die Hälfte davon sind INT Kerne, die im Nebenjob auch FP Berechnungen können - wenn sie denn keine INT Berechnungen durchführen (was sie in 99.9% der Spiele tun).
Sind dann halt doch nur reale 5.248 FP Kerne
Was hat das mit meiner Aussage zutun? Dein Bashing interessiert niemanden.
Ein Kern, der INT und FP kann ist für dich als kein FP fähiger Kern? Was ein Bullshit.
Wenn deine Aussage stimmt, hat die Karte 10496 FP Kerne, wovon 5248 auch INT können.
Das ist genau die gleiche haltlose Argumentation wie bei Alder Lake mit den "Marketingkernen"...
 
Zuletzt bearbeitet:
Ich habe auch nie behauptet, dass sie es erfunden haben. Nvidia hat es aber Spieletauglich gemacht und zwar vor AMD, daher kannst du dir sowas klemmen:
Spieletauglich?
Hmm.. ist Ansichtssache.
Immerhin ist es keine Kunst, sich einen Aspekt von RT rauszugreifen, anstelle gleich alles zu wollen...
Oder doch.. die Kunst des Minimalismus.
RT ist so spieletauglich, dass selbst in den Tech Demos nicht alles 100% gespiegelt wird (In der berühmten Roboter Demo von Nvidia werden z.B. die Funken des rotierenden Bots nicht gespiegelt, obwohl er im Spiegel voll im Blick ist).
In den Spielen wird dann gern einiges ausgeklammert und nie gibt es GI, Schatten und Reflexionen gemeinsam bei halbwegs performantem Gameplay. Dann muss halt direkt der Upscaler ran, um die FPS in spielbare Bereiche zu schubsen - und das bei ner 3090.

Es gab schon immer Upscaler, aber FSR/RSR kam erst nach DLSS. Nvidia war also auch hier mal wieder Vorreiter und genau darum ging es.
Geschummelt ist da auch nichts.
Natürlich ist da viel geschummel bei - das ist das Grundprinzip eines Upscalers.
Billig hochrechnen und da Details sparen, wo sie nicht auffallen.

Alles läuft auch ohne. Du brauchst auch keine Graka, weil die CPU die Berechnungen ebenfalls übernehmen könnte, aber das zeigt im Grunde nur, dass du nicht checkst um was es geht.
DLSS läuft auch ohne Tensorkerne, ist aber mit diesen viel effizienter/schneller.
Nach Tests langweilen sich die Tensor Kerne die meiste Zeit.

Was hat das mit meiner Aussage zutun? Dein Bashing interessiert niemanden.
Das fiel mir einfach im Kontext Marketing vs. Realität ein.
Das ist auch kein Bashing, sondern schlicht Fakt.
Wenn man rein mit CUDA arbeitet, sind es auch 10.496 Kerne.
Aber halt so gut wie nur da.
Es gibt genug, die sich von der Kernzahl blenden lassen

P.S. es ist durchaus möglich, dass eine Antwort auf einen Kommentar auch Teile enthält, die sich nicht auf den beantworteten Beitrag beziehen.
 
Spieletauglich?
Hmm.. ist Ansichtssache.
Nein. Wir hatten vorher gar keine RT Effekte und können sie nun mit flüssigen Frameraten nutzen.

In den Spielen wird dann gern einiges ausgeklammert und nie gibt es GI, Schatten und Reflexionen gemeinsam bei halbwegs performantem Gameplay. Dann muss halt direkt der Upscaler ran, um die FPS in spielbare Bereiche zu schubsen - und das bei ner 3090.
Quake RT, Minecraft...
Also ich habe auch ohne DLSS mit Ultra Details und vollen Effekten akzeptable Frameraten auf einer 3090, aber wie sollst du als AMD User das auch wissen, wenn dein Tagesaufgabe nur darin besteht, mit falschen Annahmen über die Konkurrenz herzuziehen?

Natürlich ist da viel geschummel bei - das ist das Grundprinzip eines Upscalers.
Billig hochrechnen und da Details sparen, wo sie nicht auffallen.
Es ist alles Geschummel. Selbst bei Rasterization wird nur geschummelt, aber da hat es niemanden Interessiert.
Erst als Nvidia mit DLSS kam, war das auf einmal ein Thema und es kam immer aus der roten Ecke.
Was ein Zufall aber auch.

Nach Tests langweilen sich die Tensor Kerne die meiste Zeit.
Wenn DLSS in der gesamten Pipeline nur 4-5% ausmacht, dann werden die Tensor Cores die restlichen 95% auch nicht genutzt, sollte logisch sein oder?
Und bevor du jetzt kommst mit "aber dann braucht man sie ja nicht", denk doch erstmal nach, wieso es trotzdem Sinn ergibt, selbst einen kleineren Workload zu beschleunigen.

Wenn man rein mit CUDA arbeitet, sind es auch 10.496 Kerne.
Aber halt so gut wie nur da.
Es gibt genug, die sich von der Kernzahl blenden lassen
Ich habe noch nie mitbekommen, dass sich irgendwer ne Graka gekauft hat, weil sie x Cudakerne hatte, wenn man Contentcreator mal ausklammert und sich nur auf Gamer beschränkt.
Die meisten schauen sich Benchmarks an und haben ein Budget.
 
Nein. Wir hatten vorher gar keine RT Effekte und können sie nun mit flüssigen Frameraten nutzen.


Quake RT, Minecraft...
Also ich habe auch ohne DLSS mit Ultra Details und vollen Effekten akzeptable Frameraten auf einer 3090, aber wie sollst du als AMD User das auch wissen, wenn dein Tagesaufgabe nur darin besteht, mit falschen Annahmen über die Konkurrenz herzuziehen?


Es ist alles Geschummel. Selbst bei Rasterization wird nur geschummelt, aber da hat es niemanden Interessiert.
Erst als Nvidia mit DLSS kam, war das auf einmal ein Thema und es kam immer aus der roten Ecke.
Was ein Zufall aber auch.
Tja, wie soll er das nur wissen? Das Argument kannst du dir sparen! Das trifft in umgekehrter Form ja auch auf dich zu. Schließlich musst du dir das ja als grüner schön reden, denn woher willst du wissen wie es auf der anderen Seite des Tellerrands ausschaut, gell?
Das ist und war schon immer ein wirklich dummes Argument.

Der andere Absatz ist eine glatte, nachweisbare Falschaussage deinerseits. Persönlich hatte ich mir extra zum Release von Cyberpunk eine 3080 (Bildqualität) und eine 6800XT (RT-Leistung) gekauft und war von beiden enttäuscht. Vor allem aber von der 3080. Mit RT und DLSS gab es so schaise viele Bildfehler (Schlieren, Artefakte, grieseln, RT auf einer Scheibe und davor, nicht aber dahinter), dass ich lieber ohne gespielt hatte. Nur wenn man im Stand das Spiel mit RT gesehen hat, findet man es ohne lahm. Meinem Unmut habe ich direkt kund getan (als Besitzer einer teuren grünen Karte) und jetzt kommst du und behauptet das wäre niemals passierte. Fass dir Mal an die Birne. So dreist zu schwindeln...

Inzwischen hat sich DLSS deutlich weiterentwickelt, aber es bleibt nur eine Notlösung gegenüber nativ.
 
Zuletzt bearbeitet:
Das Problem liegt aber an CP2077, da helfen weder AMD noch Nvidia. Es sieht meineserachtens auch nativ aus wie die letzte Gurke.
 
Falsch. NIS kam zuerst.

Ich erinnere die zeitliche Reihenfolge so:

1. Radeon implementiert Radeon Image Scharpenig (RIS) in seine Treiber, womit hochskalierte Bilder auf einmal erträglich aussehen. Ein Lanzcos-basierter Upscaler ermöglich scharfes Upscaling das deutlich besser ist, als das was Monitore intern implementiert haben. AMD macht diesen Code Open Source.
2. Kurz darauf taucht Nvidia Image Sharpening im nVidia Treiber auf. Die Ergebnisse sehen RIS verblüffend ähnlich.
3. AMD released FSR 1.0, und macht es nutzbar für alle Entwickler und alle Grafikkarten.
4. Da FSR ein Spatialer Upscaler ist, der auch im Post Processing genutzt werden kann, implementiert AMD diesen in seinen Treiber, als Radeon Super Resolution (RSR), was mit nahezu jedem Spiel funktioniert.
5. Danach tauscht Nvidia die NIS Implementierung durch eine mit Spatial Upscaler aus, der ähnlich RSR funktioniert. (Treiber Version 496 oder so). Die alte NIS Upscaling Methode wird bei Nvidia einfach entfernt. Ich nenne es NIS 2.0. Die Ergebnisse sind wiederum sehr ähnlich zur AMD Implementierung, allerdings scheint der verwendete Schärfefilter etwas schlechter bei Nvidia zu sein.
6. AMD veröffentlicht FSR 2.0 und macht es mal wieder nutzbar für alle.

Es ist mir leider zu mühsam, da jeweils ein Datum herauszusuchen, aber so war die Reihenfolge. Und natürlich sind AMD nicht "immer" die Guten aus Konsumentensicht, aber auffallend öfter als die Blauen oder Grünen.
 
Ich erinnere die zeitliche Reihenfolge so:

1. Radeon implementiert Radeon Image Scharpenig (RIS) in seine Treiber, womit hochskalierte Bilder auf einmal erträglich aussehen. Ein Lanzcos-basierter Upscaler ermöglich scharfes Upscaling das deutlich besser ist, als das was Monitore intern implementiert haben. AMD macht diesen Code Open Source.
2. Kurz darauf taucht Nvidia Image Sharpening im nVidia Treiber auf. Die Ergebnisse sehen RIS verblüffend ähnlich.
3. AMD released FSR 1.0, und macht es nutzbar für alle Entwickler und alle Grafikkarten.
4. Da FSR ein Spatialer Upscaler ist, der auch im Post Processing genutzt werden kann, implementiert AMD diesen in seinen Treiber, als Radeon Super Resolution (RSR), was mit nahezu jedem Spiel funktioniert.
5. Danach tauscht Nvidia die NIS Implementierung durch eine mit Spatial Upscaler aus, der ähnlich RSR funktioniert. (Treiber Version 496 oder so). Die alte NIS Upscaling Methode wird bei Nvidia einfach entfernt. Ich nenne es NIS 2.0. Die Ergebnisse sind wiederum sehr ähnlich zur AMD Implementierung, allerdings scheint der verwendete Schärfefilter etwas schlechter bei Nvidia zu sein.
6. AMD veröffentlicht FSR 2.0 und macht es mal wieder nutzbar für alle.

Es ist mir leider zu mühsam, da jeweils ein Datum herauszusuchen, aber so war die Reihenfolge. Und natürlich sind AMD nicht "immer" die Guten aus Konsumentensicht, aber auffallend öfter als die Blauen oder Grünen.
Nein, RSR ist erst Anfang des Jahres rausgekommen, lange nach FSR 1.0.
Und nach NIS. Ich weiss es, meine Freundin hat eine 1080 und ich die 6700XT, ich erinnere mich genau an die Monate in denen sie die Funktion hatte, ich aber nicht.

Das ist schlicht Fakt. Irgendwelche Symphatien für irgendeinen profitorientierten Konzern kommen da bei mir aber nicht auf.

Deine Interpretation, dass NIS erst nach RSR wirklich Upsampling geworden fußt auf nichts ausser Antipathie. In den damaligen Tests hätte PCGH und andere das aber sicher bemerkt.
Da ich seit 10+ Jahren Reshade und besonders gern Schärfefilter nutze, kann ich ebenfalls Upsampling von Schärfefilter unterscheiden, echte Experten wie Raff und Co noch viel eher.

Edit:
NIS 16.November 21, RSR 17.März 22


 
Zuletzt bearbeitet:
Du hast recht, das neue NIS ist seit November im Treiber, RSR aber erst seit März. Hab ich durcheinander gebracht, danke.
 
Mit diesem "Wundertreiber" habe ich in Elden Ring auf einmal Ruckler und ganz übles Tearing.
Mit 22.5.1 hab ich das nicht.

Wer ne Idee?
 
Zurück