AMD Fidelity FX Super Resolution: Wann erscheint der Konkurrent zu Nvidias DLSS?

In reinen MHz ja, aber die Leistung skaliert nicht linear. In Summe nehmen sich BN und Ampere nix beim OC ;)
Das sehe ich deutlich anders. Meine undervoltet XT Karte ist bereits schneller als eine maximal geprügelte 3080.
Dabei verbraucht die XT weniger als die 80er Stock. Das kriegst du eben nicht hin mit einer 80er, wer eine entsprechende Karte hat kann sich gerne melden.
 
Was interessiert mich DLSS? Die sollen mal lieber Hardware, Schnittstellen, und Engine usw. so optimieren, daß es für die Spieleentwickler ähnlich durchflutscht wie auf den Konsolen. Meine Grafik und Einstellungen runterdrehen, daß es dann weniger Leistung kostet und mich damit selbst verarschen kann ich selber.
Und ich dachte Sony macht genau das auf ihrer Konsole.
Grafik/Einstellungen herunterdrehen.
 
Herbst 21 wäre ziemlich spät. Abgesehen davon hört sich das auch nicht sonderlich vielversprechend an, NVIDIA nutzt mit den Tensor Cores spezialisierte Einheiten, die gibt es bei AMD gar nicht und an diese Rechenleistung kommt AMD nie im Leben ran, die aber wohl notwendig sein wird, wenn ähnliche Qualität und Performance erzielt werden soll.

Wenn weiterhin für quasi jedes relevante Spiel DLSS kommt sehe ich schwarz für AMD, aktuell vermöbeln Last Gen Karten, bei gleicher Grafik-Qualität, die High End Riege von AMD problemlos sobald DLSS implantiert wird, was durch die Integration in die Unity Engine noch öfter vorkommen wird.
Unreal Engine, nicht Unity. Auch wenn ich es begrüßen würde, wenn es auch in Unity reinkommen würde.

Wo wir gerade bei Unity sind: Nvidia ist immer noch in der Bringschuld, was DLSS 2x (würde jetzt sicherlich einen anderen, marketingtauglicheren Namen erhalten) angeht. Ursprünglich wurde DLSS ja mit zwei Modi angekündigt, DLSS 1x mit dem Ziel, etwa native Bildquali (deshalb 1x) bei deutlich höherer Performance zu erreichen und DLSS 2x mit dem Ziel, bei gleicher bzw. irrelevant niedriger Performance möglichst hohe Bildquali zu erreichen.
Hier die originalen Versprechen zu DLSS 1.0 2x : https://developer.nvidia.com/blog/nvidia-turing-architecture-in-depth/
Hier der Versuch der PCGH-Redaktion, mit DLSS 2.0 und DSR ein DLSS 2.0 2x zumindest in Ansätzen nachzubauen: https://www.pcgameshardware.de/Nvid...orce-Tuning-Tipps-DLSS-2x-aktivieren-1346292/
Meine Bedenken von damals dazu: https://extreme.pcgameshardware.de/...tastische-bildqualitaet.564403/#post-10250566

Was hat das mit Unity zu tun? Viele Spiele mit der UnityEngine sind aktuell auf diversen Systemen zu oft im CPU- und zu selten im GPU-Limit. Da käme ein komfortabel reinpatchbarer DLSS 2x-Modus gerade recht...
 

Anhänge

  • 4K RT.jpg
    4K RT.jpg
    336,2 KB · Aufrufe: 127
  • 3090 550 Watt.jpg
    3090 550 Watt.jpg
    508,4 KB · Aufrufe: 99
  • 3090 über 2200.jpg
    3090 über 2200.jpg
    691,6 KB · Aufrufe: 88
  • Bench 6800XT OC.jpg
    Bench 6800XT OC.jpg
    425 KB · Aufrufe: 71
  • NEUE Games.jpg
    NEUE Games.jpg
    453,6 KB · Aufrufe: 86
Nein das ist nicht übertrieben, zeig mir mal ne Ampere Karte die 2600+ MHZ macht?
Weil mehr MHz alles ist was zählt :stupid:
Man kann dein Argument auch umdrehen: Die 6800XT braucht 600-700 MHz mehr, um Ampere überholen zu können. :ugly:

Achja, Cherrypicking vom Föhn wieder.
Auch das kann man umdrehen: Im PCGH Benchmark laufen, bis auf 3-4 Spiele, alle anderen getesteten schneller auf Ampere ;)
Der Screen dazu ist bereits hier im Thread.
 
Zuletzt bearbeitet:
Cherrypicking at its best. Dieses sogenannte "Performancerating - Neue Spiele" kam damals absichtlich von CB, weil sie genau nach Spielen gesucht haben, wo man dann am Ende sagen kann eine RX6800XT mache einer RTX3090 Konkurrenz. Sorry das ist mega lächerlich. :ugly: Und Computerbase kann ich auch generell nicht mehr ernstnehmen. Die sind so übelst biased. Aber wundert auch nicht bei der Community. Jeder ernstzunehmende Tester kommt zu anderen Ergebnissen.

Die sind auch diejenigen die immer schön mit SAM und OC testen, während Nvidia-Karten gern @stock und ohne diese noch nicht reingepatchten Features antreten müssen. Also sorry, komplett billig hier wieder.
 
Klar die pöse Lügenpresse ist schuld am Sieg von BN. :lol:

Vielleicht sollten hier einige einfach mal die grüne NV Brille absetzen, weil Durchblick mal ganz gut tun kann.
CB und HWUB haben praktisch die gleiche Fanboy-Community.
Hat schon einen Grund warum Nvidia die geblacklistet hatte... ob richtig oder falsch...

Ist das wirklich so? Bei CB bin ich nach langen Jahren gesperrt worden, man kannte ich als User Holt.
 
Zuletzt bearbeitet:
Takt ist nur durch noch mehr Takt zu ersetzen.
AMD hat wenn man es mal anerkennen mag hier einen echten Overclockers-Dream erschaffen, nicht mehr und nicht weniger.
Vega?

@News: freu mich schon, hoffentlich funktioniert das Ding mindestens so gut wie DLSS2.0, wenn dann noch Open Source (und somit auch von Intel genutzt) - perfekt, endlich würden das dann viel mehr Spiele unterstützen
 
:haha: :daumen:
Danke, die gehören ins gleiche Schema.
CB und HWUB haben praktisch die gleiche Fanboy-Community.
Hat schon einen Grund warum Nvidia die geblacklistet hatte... ob richtig oder falsch...
CB ist aber ungleich professioneller als HUB. Der Parcours mit den modernen Spielen war ja nur ein Sonderparcours, ansonsten sind die Unterschiede zwischen ihnen und PCGH ja nicht sooo groß.

Gut, Hardware Unboxed machen teils wirklich derben Bockmist, sind aber dennoch sehr erfolgreich. Muss man auch erstmal hinkriegen...^^
 
Welche sollen das denn sein?
Fakt ist, dass die Rasterleistung von RDNA2 viel höher ist und Nvidia mit Ampere eine reine compute Architektur für Gamer nur aufgebohrt hat, ergo ein Kompromiss ist.

Während AMD bereits mit RDNA3 auf den MCM Zug aufspringen wird, ist dieser für Nvidia bereits abgefahren.
Nach dem Meme das GCN eine reine Compute Architektur nur mit etwas Grafik sei, finde ich es lustig jetzt einen Beitrag zu lesen, der das jetzt von Bezug auf Nvidia's Ampere Architektur behauptet. :D
Vega?

@News: freu mich schon, hoffentlich funktioniert das Ding mindestens so gut wie DLSS2.0, wenn dann noch Open Source (und somit auch von Intel genutzt) - perfekt, endlich würden das dann viel mehr Spiele unterstützen
"Overclockers dream" wurde von AMD's Joe Macri beim Fiji event genannt, der minimal übertaktbar war trotz Wasserkühlung (7-8% für ungefähr 4% mehr Mehrleistung):
https://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/10/#abschnitt_uebertaktbarkeit

Falls AMD's Lösung auf der Ausführung eines trainierten Netzwerks basiert, dann hat es noch die beste Chance an Nvidia's Ergebnisse heran zu kommen, aber da AMD über keine schnelle Ausführungslogik wie die Tensor-Cores bei den Gaming-Produkten verfügt, wird die Performance und/oder Qualität unweigerlich leiden müssen.
Nichtsdestotrotz wäre es allgemein natürlich ein guter Fortschritt und würde ihre aktuelle Konkurrenzsituation stärken und irgendwann wird AMD auch Matrix-Einheiten in ihren GPUs verbauen, womöglich schon mit RDNA3.

Interessant wird es sein, wie plattformübergreifend die Lösung ausfallen wird?
Setzt man auf DirectML mit Metacommands?
Das wäre für den PC eine allgemeine Lösung und könnte, je nachdem wie gut die Metacommands von der Konkurrenz für ihre Hardware übersetzt werden, eine gute Lösung für alle Hersteller sein.
Es wäre auch direkt auf der Xbox Series verwendbar, nicht so aber auf der PS5, da muss man Sonys APIs verwenden und etwas extra Aufwand betreiben, aber viel schwerwiegender ist, dass die PS5 vermutlich keine dot-product Instruktionen unterstützt, für schnellere INT8/4-Berechnungen und Packed-Math für FP16/INT16 wäre das Beste was man bekommen würde.

Spannend was es letztendlich sein wird.
 
Ach Gurdi, viel besser... Die paar Prozent. Ich finde deine Aussagen etwas übertrieben.
Eigentlich bescheinigt so gut wie jeder Tester Ampere miserable OC Eigenschaften, sei es HWU, CB, HWL usw.
Es ist auch absolut sinnfrei diese Karten zu OC meiner Meinung nach. Gute Designs mit anständiger Platine kann man gut undervolten, aber man verliert dann eben im Boost. Was man dann an einer Stelle gewinnt, opfert man an andere Stelle wieder.

Hier hat schon mancher gefeiert dass er seine Karte getweakt hat und erreicht gerade mal das Niveau des Referenzdesigns...

Nein das ist nicht übertrieben, zeig mir mal ne Ampere Karte die 2600+ MHZ macht?
Die Aussage ist quatsch, die Zahlen spielen dabei erstmal keine Rolle. Die RX skalieren wesentlich besser durch den Takt, die Höhe ist aber eigentlich irrelevant.
 
Ich weiß zwar nicht wie es bei den großen Karten ist, aber die kleinen Ausführungen ( RX6800/RTX 3070) lassen sich gleich gut übertakten. Top-Chips und Kröten findest Du auf beiden Seiten.
PCGH 3DMARK.jpg
 
Mal ne Frage von jemandem, der keine Ahnung hat, wo genau sich die Performancegewinne vom DLSS Pendant auswirken:

Muss die AI denn nativ auf der GPU laufen (Bsp Tensor Cores)? Gibt die Trickkiste da nicht vielleicht noch andere Möglichkeiten her, an denen man ansetzen kann?
 
Was ipc angeht muss man shader vs shgader vs fps rechnen

amd BN hat
5120 shader 2,3ghz rx6900xt
4608 shader 2,4ghz rx6800xt
3840shader 2,5ghz rx6800
nvidia hat ihre shader module umgebaut und zählt jetzt die Einheiten anders auf
10496 rtx3090 1,7ghz
8704 rtx3080 1,95ghz
5888 rtx3070 2,1ghz
Die doppelte fp32 einheiten täuschen da die ipc halbiert gegenüber turing aber auch verdoppelt sobald keine anderen berechnungen als fp32 genutzt werden. Im schnitt wird es sich um 30% mehr ipc vs turing handeln
Dafür das man die doppelte an shader bekommt ist das was wenig.

amd rx6900xt erreicht in test von techpowerup
1080p 191fps
1440p 160fps
2160p 100fps
nvidia im selben parkour
1080p 197fps
1440p 169fps
2160p 110fps

Bissl mathe
4k
rtx3090
110/82=1,34fps pro shader
rx6900xt
100/80=1,25fps pro shader

WQHD
rtx3090
169/82=2,07fps pro shader
rx6900xt
160/80=2,00fps pro shader

FHD
RTX3090
197/82=2,40fps pro shader 2,4/82*80/1,9*1,7=2,09fps=ipc der architektur
rx6900xt
191/80=2,38fps pro shader 2,38/2,3*1,7=1,76fps=ipc

1080p IPC Vorteil nvidia 2,09/1,76=1,19 =19% mehr ipc vs amd und das mit einen cpu limit
1440p IPC Vorteil Nvidia 22%
2160p IPC Vorteil Nvidia 27%
Defakto rettet amd Arsch der Takt
Liegt etwa 20% unter nvidia ipc und somit auf level von turing


1080p
rtx3080 vs rx6800xt
pro nvidia 20% bei 1,7ghz
rtx3070 vs rx6800
pro nvidia 1,5% bei 1,7ghz
rtx3060ti vs RX6700xt(hier handelt sich um Gerüchte die aber sicherlich stimmen werden vermuteter cu 40 vermuteter takt um die 2,7ghz.
pro nvidia 33% bei 1,7ghz

Klar ist das linear und die ipc interessiert keinen, was am ende zählt ist fps für den euro
Die 2,7ghz der rx6700xt die ich vermute bringen der nvidia rtx3060ti ins schwitzen
rx6700xt bei 399€ wird 5% über der rtx3060ti landen

Da aber alles in dieser Rechnung linear ist und ich die speicherbandbreite komplett außer acht lasse abseits den harten fakten des testes auf tpu
Sind die abstände durchaus vergleichbar können aber stark abweichen wenn Speicherbandbreite fehlt.

Das Duell rtx3060 vs rx6700 wird spannend da nicht klar ist ob 36cu oder 32cu aktiv sind
Nvidia hat aber nur 28
mit 32cu vs 28sm
gibt das 14% nvidia langsamer als amd
mit 36 vs 28
28% nvidia langsamer als amd
wenn amd dann die gpu bei 349€ ansetzt wars das mit 319€
leider wird das erst Thema Anfang 2022

Somit zum Fazit für den normalo der sich eine gpu für ab und an und für bestes konsolenoptik kaufen will für die nächsten 5 Jahre

Das Duell rtx3060 vs rx6700 wird nvidia zwingen den Voll Ausbau des ga106 zu nutzen also 30 sm und den preis min auf 249€ zu senken. ~q1 2022
Nvidia wird gezwungen sein die rtx3060ti mehr ram bereitzustellen ich gehe von 16gb gddr6 aus mit 15gbits bei gleichen preis der gpu uvp 399€ q3 21
nvidia wird gezwungen sein ende des Jahres rtx3070 auf 16gb und den Vollausbau des ga104 zu verwenden also 48sm q3 21
nvidia wird gezwungen sein 16gb gddr6x bei der rtx3080 zu nutzen mit 2gb module. q4 21

amd steht im Grunde gut da sofern die chips auch produziert werden können
Diese Jahr wird man froh sein das man überhaupt was bekommt.

Einordnung vs turing
amd rx6700 etwa auf level der rtx2080=gtx1080ti
nvidia rtx3060 auf level der rtx2060= gtx1080/vega64
amd rx6700xt auf level der rtx2080s=+10% gtx1080
nviida rtx3060ti auf level der rtx2080s

DXR ist gesondert zu sehen da ist nvidia um nen drittel schneller
Upscaling ausgenommen

Diese Gezanke das amd deutlich schneller wäre als nvidia high end ist kindisch da derzeit Test belegen das nur ein CPU limit für den Vorsprung sorgen kann und ampere ist deutlich cpu fordernder als amd rdna2
Da sind viele YT tester hereingefallen indem sie unetrschiedliche konfigs gewählt haben und nie das cpu limit geachtet haben. zumindest Gamerx enxus ist halbwegs seriös was test kriterien angeht
HWU naja immer von test zu test je video die Datenbanken sind nicht homogen.
Ansonsten richtet euch an pcgh oder tpu . CB geht so aber die arbeiten dran .
Spiele Auswahl ist immer schwer sowie benchszenen Wahl da könne gut 10% schwankungen drin sein. neben der Plattformwahl.
Aktuell würde ich am4 zen3 nehmen da zen 3 gut 20% ipc Vorteil hat vs intel (4ghz).

Daher lasst das mit den videobeweisen man kann da nur ein cpu oder gpu limit darstellen. Und hier kommen wir zum Grund für solche videos nämlich Preis Leistung.
Aktuell ist das mehr als nur Hohn.
Spannender ist welche kombi an hardware sich veträgt und da würde ich eher legacy hardware testen wollen mit neueren games. Bis welche neuen gpu das noch Sinnvoll upgrade möglich ist.
anhand von farbcodierten tabellen plattform cpu core gpu modell ram menge diagramm in 4 Achsen

Man bedenke das eine gt 1030 so schnell ist wie eine Mittelklasse gpu von 2010
gerade der Einstiegsbereich ist spannend. aber alle welt achtet auf high end.

Das wäre ein Konzept für ne Webseite
gpu vs spiel aus den Jahren von 2000 (ab directx7 bzw NT kernel) bis heute alle Preisklassen zum vergleich.
Das bedeutet aber auch ne menge an daten sammeln sofern hardware verfügbar/nutzbar ist
Mit aktuellen spielen bis 2006 und hardware die man noch kompatibel mit win 10 ist machbar.
Darunter wird es kniffelig aber nicht unmöglich, irgendwann greift einfach die engine limitierung oder ein cpu limit hart durch. hier würde ichn schnitt machen.
Datenbanken können so Sinnvoll sein.
 
Zuletzt bearbeitet:
Zurück