AMD Fidelity FX Super Resolution: Wann erscheint der Konkurrent zu Nvidias DLSS?

DLSS 1.0 nutzte noch keine Tensor Cores.
Entsprechend war auch das Ergebnis.

Wikipedia:

Soweit ich weiß haben die ersten Versionen von DLSS die Cores genutzt. Nur die Version die in Control implementiert war (1.9 hieß die glaube ich), ein Prototyp von 2.0, lief zwischenzeitlich mal auf den normalen Cores. Hatte das so oder so ähnlich mal in einem Digital Foundry Video gehört. Kann auch sein das ich da was verwechsle, aber das zeigt ja alles nur wie undurchsichtig diese ganze DLSS/Tensorcore-Geschichte war und ist.

Edit: Hier kann man auch was über 1.9 lesen:
Ich finde DLSS klasse, weil ich damit sehr gut leben kann und es mir erspart aufzurüsten. Weniger klasse finde ich die ungenügende Verbreitung jahrelang von Nvidia und das AMD sich so lange Zeit lässt. Momentan würde ich nur alleine wegen DLSS eher Nvidia empfehlen.
 
Nun doch in einigen Bereichen so ist das Taktpotential massiv bei den 6000er Karten, alle Karten nahezu können bis 2.6GHZ takten und einige weit darüber hinaus, was nochmals ordentlich Leistung frei setzen kann, während Nvidia mit Ampere schon an der Kotzgrenze ausgeliefert wird, das kann es nicht sein, Premium sieht einfach anders aus.


Wozu das bringt doch nichts, man muss einfach auch mal sagen dürfen, was Sache ist.

Das nahezu alle RDNA2 Karten 2,6Ghz schaffen bei gesunden Einstellungen würde ich gerne sehen. Hast du dazu einen Link?

Ansonsten sind das:
1) Unterschiedliche Architekturen
2) unterschiedliche Fertigungsverfahren

Ob nun eine 6900XT mit ~2,4Ghz taktet und dabei dennoch gegen eine RTX3080 bei rund 1,9Ghz unterliegt ist doch völlig egal.

Ich hatte mir zwar auch höherer Taktraten bei Ampere vorher gewünscht aber es kam anders. Dafür ist die Architektur eine deutliche Verbesserung ggü. Turing.

Meine RTX3090 läuft bei 0,75V bei knapp über 1,7Ghz. Damit läuft sie ähnlich effizient wie alle anderen GPU'S die ich so kennen, egal ob in "10, 12 oder 7"nm.

Was ich damit sagen will, wegen mir könnte RDNA3 bei maximal 500Mhz laufen wenn die Spieleeistung stimmt ^^
 
AMD hat und kann kein CUDA, was für viele Anwender essenziell ist.
Ich nehme DLSS bzw. dessen Funktion als sehr wichtiges Feature an, aber:
Um wirklich zum Standard zu werden müsste es aber von Nvidia freigegeben werden (AMD Mantle -> Vulkan, Freesync) oder es nur noch Nvidia-Grafikkarten geben.
RTX Voice verdeutlicht neben DLSS den praktischen Nutzen der Tensor-Kerne. Man sollte aber nicht vergessen, dass wir die 1% sind.
Die komplette Geschichte des PCs basiert auf offenen Standards, abgesehen vom Gaming-Monopol-Betriebssystem Windows (ohne Wertung, hatte gute und schlechte Seiten). DirectX hat zwar wenig mit offenen Standards gemein, ist als Schnittstelle allerdings gut dokumentiert und theoretisch von allen nutzbar.

Viele nennen Cuda als wichtigen Punkt, aber viel mehr wird dann nicht genannt. Die meisten Anwendungen wären auch unter OpenCL möglich. Das behandelt Nvidia aber nur sehr stiefmütterlich.
Die meisten User werden Cuda trotz sinnvoller Möglichkeiten wohl nicht brauchen.

Die derzeitigen Standardauflösungen sind noch immer 1080p und 1440p, wobei wir uns gerade mal mitten im Trend hin zu 1440p befinden. DLSS ist nur für 4k und vielleicht UWQHD alternativlos.
 
Zuletzt bearbeitet:
Nun doch in einigen Bereichen so ist das Taktpotential massiv bei den 6000er Karten, alle Karten nahezu können bis 2.6GHZ takten und einige weit darüber hinaus, was nochmals ordentlich Leistung frei setzen kann, während Nvidia mit Ampere schon an der Kotzgrenze ausgeliefert wird, das kann es nicht sein, Premium sieht einfach anders aus.
Übertakten bringt bei Ampere genau so viel Mehrleistung wie bei BN. Also laufen sie alle an der Kotzgrenze ;)

Ampere ist groß, laut, heiß und viel zu teuer
BigNavi ist auch groß, laut, heiß und viel zu teuer und jetzt?
 
Ich vermute da wird nicht groß was gescheites bei rum kommen, wenn es proprietär wird wie bei NV ist es für die Tonne.

Nicht so voreilig junger Padawan,
Mit dem Treiber wird BN in ein paar Bereichen noch mal näher an die 3090 ran gebracht, großer Sprung kommt sicher bei Vulkan, allerdings ist das noch in keinem Spiel passend implantiert bisher, man wird abwarten müssen.
 
DLSS ist nur für 4k und vielleicht UWQHD alternativlos.
Wenn es verfügbar ist, sollte man es immer zumindest auf dem Quality-Preset reinmachen. Es bringt auch bei WQHD eine Menge auf Quality, nämlich viele zusätzliche FPS ohne grafische Einbußen - sogar teilweise mit Bildverbesserungen in der Entfernung.

ich sehe schon, es ist sehr schwer hier sachlich und faktenbasiert zu diskutieren, warum eigentlich?
Ahaha, der war gut. Lies mal deine eigenen Beiträge. Beziehungsweise das würde nichts bringen. Du gehst sicherlich davon aus, dass deine Meinung sehr sachlich, faktenbasiert, ausgewogen und neutral ist. :fresse:
 
Aber wir haben das doch gesehen, Nvidia hat Ampere völlig überhastet auf den Markt gebracht, weil sie die Hosen voll hatten und wussten was AMD mit RDNA2 geleistet hat.
AMD kann jetzt die Architektur in Ruhe weiter entwickeln, währen Nvidia ganz neu ran muss, dazu kommt noch der entwicklungs Vorsprung den AMD bei MCM inne hält, es sieht für die Grünen mittelfristig nicht gut aus.

Meine Vermutung ist gar, dass Nvidia das gleiche Schicksaal wie Intel ereilen wird, eher früher als später.
Himmel Chatstar, komm doch mal runter von deiner kindlich-naiven Fürsprache:
> "Aber wir haben das doch gesehen ..." Haben wir das? Ich glaube du verwechselst das eher mit deinem Wunschdenken und deine Meinungsäußerung bekommt nicht dadurch mehr Gewicht, weil du versuchst dich einer vermeintilch größeren Gruppe zuzurechnen, die das angeblich genau so sieht wie du.
> "Nvidia hat Ampere völlig überhastet auf den Markt gebracht ..." Du scheinst einen direkten Draht in die nVidia-Chefetage zu haben oder aber übernatürliche Fähigkeiten zu besitzen. Bei allem was mir so untergekommen ist (und das war durchaus viel) gab es nichts, was auf einen derartigen Schluss führte. (Überhastete Veröffentlichungen waren zuletzt eher AMDs Metier, und das gleich mehrfach.)
> "... weil sie die Hosen voll hatten und wussten was AMD mit RDNA2 geleistet hat." Natürlich wussten die das, denn die entwickeln deutlich länger und erfolgreicher GPUs als AMD und können das entsprechend abschätzen. Nur warum sollten die die "Hosen ...."? AMD wird ihnen nirgends wirklich gefährlich und die können jedes AMD-Produkt mit ein oder zwei eigenen Produkten kontern und zu allem Ungemach für AMD kommt derzeit noch hinzu, dass die offensichtlich weitaus weniger Karten als nVidia liefern können.
> "AMD kann jetzt die Architektur in Ruhe weiter entwickeln, währen Nvidia ganz neu ran muss ..." Lol, das kann nVidia als Marktführer ebenso "in Ruhe" angehen lassen (wenn man es derart künstlich überzogen und diametral darstellen will) und warum sollten die alles neu aufrollen müssen? Dazu haben die überhaupt keinen Anlass. Die haben die anscheinend bessere RT-Implementation, haben Tensor Cores und ein entsprechendes Äquivalent fehlt AMD derzeit gar komplett, und die haben die deutlich durchsatzstärkeren Shader.
Du hast hier die Designziele von RDNA2 nicht verstanden. AMD hat hier sehr konservativ entwicklet und sich im Wesentlichen auf die Effizienz und einen hohen Takt konzentriert, d. h. sich hier im Wesentlichen auf den Implementations/Fertigungsprozess konzentriert. RDNA2 ist schlussendlich weitaus konservativer und biederer geworden, als man zuerst vermuten konnte bzw. hoffte und die dargebotene Leistung wird primär durch den hohen Takt erreicht.
Die leistungsfähigere Architektur hat zweifellos nVidia, die sich für die Verwendung von Samsungs 8LPP entschieden haben, was denen absehbar wieder eine hohe Marge bescheren wird, also aus geschäftstechnischer Sicht eine durchaus nachvollziehbare Entscheidung. Hätten die die kleineren Ampere's ebenfalls auf TSMCs N7 gefertigt, hatte AMD wohl gar nicht mehr mithalten können, denn dann hätten auch die Ampere-Modelle noch ein paar MHz mehr vertragen (zweifellos nicht auf den Niveau der Navi-Chips, aber dennoch mehr) und wären dadurch noch einmal pauschal schneller geworden. AMD muss hier architektonisch weiterhin aufholen, denn auf dem Niveau von nVidia sind sie noch längst nicht.
> "... dazu kommt noch der entwicklungs Vorsprung den AMD bei MCM inne hält ..." Äh, what? AMD ist hier Nachzügler, nix Vorsprung. MCM ist schon ein alter Hut. Erstens weiß man noch gar nicht ob RDNA3 schon ein MCM wird, denn deren kürzlich gesichtetes Patent kann sich durchaus auf spätere Designs beziehen oder wird erst mal mit Blick auf CDNA2 umgesetzt? Darüber hinaus präsentierte nVidia schon in 2019 auf einer Tech-Konferenz ein MCM-HPC-Design, d. h. die sind da schon lange dran und werden zweifellos auch deutlich mehr Ressourcen als AMD haben. Und Intel wird gar schon gesichert in 2021 entsprechende Datacenter-Produkte mit Xe-HP in den Markt brignen und Xe-HPC dürfte AMDs aktuelle Möglichkeiten gar deutlich übertreffen.
Darüber hinaus kann man nicht einmal gesichert behaupten, dass AMD diesen "Vorsprung" bei CPUs inne hat. Die haben zwar entsprechende Produkte im Markt, technologisch ist Intels Portfolio bzgl. derartiger Technologien wie EMIB, Co-EMIB, Foveros und ODI deutlich reichhaltiger und voraussichtlich auch leistungsfähiger. (AMD hatte hier jahrelang Glück, dass Intel so lange durch seine Fertigungsprobleme ausgebremst wurde; bspw. brauchbare 10nm Anfang 2018 mit Cannon Lake und dann in 2019 auf dem Desktop wären kein Spaß für AMD und ein echtes Problem für Zen2 gewesen.)
> "... es sieht für die Grünen mittelfristig nicht gut aus" In deiner Fantasiewelt? nVidia wird dieses Jahr mit mindestens +65 % mehr Umsatz und mit etwa +200 % mehr Gewinn als AMD abschließen. Die sind wirtschaftlich deutlich erfolgreicher und technologisch stehen die eh gut da. (Der aktuellen Entwicklung nach wird AMD nicht mal mit dem Jahresabschluss 2023 (trotzt ihrer CPU-Sparte) an nVidia heranreichen können.)
> "Meine Vermutung ist gar, dass Nvidia das gleiche Schicksaal wie Intel ereilen wird, eher früher als später." Du meinst der unangefochtene Marktführer in ihrem Segment zu sein mit Umsatz und Gewinn, das sich bereits deutlich von der zweitplatzierten Konkurrenz absetzt?
AMD wird bis zur Mitte dieses Jahrzehnts nicht einmal ansatzweise an Intel heranreichen können, weil solche Marktentwicklungen viel Zeit beanspruchen. Die grob 70 Mrd. US$ Umsatz von Intel sind für AMD noch in sehr, sehr weiter Ferne ... Entweder hat hier dein Bias gesprochen oder du hast schlicht kein Verständnis für den Markt und seine Entwciklungen. Nur weil eine Firma ein gutes Produkt liefert, dass insbesondere du magst und allen anderen vorziehst, wird diese Firma dadurch nicht automatisch zum Marktführer. ;-)

Einfach mal einen Gang zurückschalten und etwas nüchtener auf die Tatsachen blicken. Zudem solltest du grundsätzlich im Hinterkopf behalten, dass der Markt in seiner Gesamtheit die vermeintlichen Kritikpunkte an nVidia und ihrer Ampere-Generation eher weniger zu teilen scheint, d. h. rein soziopsychologisch treffen sich hier in solchen Foren eher eingefleischte Fans auf der Suche nach Gleichgesinnten, jedoch sollte deren Anhäufung nicht zu dem Fehlschluss verleiten, dass das eine allgemein vorherrschende Sichtweise oder gar Tatsache darstellt. Wäre dem so, müsste man dem Großteil der Marktteilnehmer unterstellen, dass die gegen ihren Willen gezwungen werden nVidia-Produkte zu kaufen ... und das dürfte wohl eher weniger der Fall sein. Da bleibt dann als Rettungsanker für die eigene, verzerrte Sichtweise nur, dass der durchschnittliche PC-Käufer/Gamer dumm wie Brot ist und sich kein Bisschen um das kümmert, was er da gerade im Begriff ist, zu kaufen, auch wenn er da mehre Hundert oder gar Tausend Euro aus dem Fenster wirft ... und anscheinend werden solche frei zugänglichen Publikationen wie hier auf der PCGH-Webseite auch von keinem sonst konsumiert ... ;-)

ich sehe schon, es ist sehr schwer hier sachlich und faktenbasiert zu diskutieren, warum eigentlich?
Äh, what? Du solltest vielleicht bzgl. deiner Selbstwahrnehmung noch ein wenig nachjustieren ...
Von "sachlich und faktenbasiert" erscheinst du mir hier so weit weg zu sein wie kaum ein anderer. Es gibt da zwar noch ein paar Gesellen, aber bei denen habe ich eher den Eindruck, dass die sehr genau wissen, was die da in dem Moment sagen/posten und eher provozieren wollen ... bei dir dagegen habe ich eher den Eindruck, du glaubst den Unsinn, denn du da so stellenweise verzapfst auch tatsächlich ...
 
Zuletzt bearbeitet:
Nicht so voreilig junger Padawan,
Mit dem Treiber wird BN in ein paar Bereichen noch mal näher an die 3090 ran gebracht, großer Sprung kommt sicher bei Vulkan, allerdings ist das noch in keinem Spiel passend implantiert bisher, man wird abwarten müssen.
Da ist er wieder. Der AMD Wundertreiber. Wie viele Jahre wird das hier jetzt schon im Forum propagiert?
Wann kommt er denn nun endlich?
 
Wenn es verfügbar ist, sollte man es immer zumindest auf dem Quality-Preset reinmachen. Es bringt auch bei WQHD eine Menge auf Quality, nämlich viele zusätzliche FPS ohne grafische Einbußen - sogar teilweise mit Bildverbesserungen in der Entfernung.
Das glaube ich dir gerne und ist definitiv ein Pluspunkt, allerdings geht es in den Auflösungen auch ohne ganz gut, kommt aber auf die persönlichen Vorlieben und den Monitor an (60 Hz / 144 Hz)
Mal etwas anderes:
AMD nutzte für die eigene, gute Implementierung von Downsampling (VSR) die DisplayEngine der GPU, wie Nvidia dafür die Shader verwendet (DSR).
Ist es möglich, dass AMD damit ein einfaches, qualitativ schlechteres Upscaling umsetzt, wie schon länger bei Konsolen zu sehen?
 
Zuletzt bearbeitet:
Leute testet mal Control mit DLSS 2.0, Auflösung auf 1080p stellen und DLSS mit 540p rendern lassen und schaut was für ein Bild DLSS da zaubert und die FPS in die höhe schiesst bis zu 60%. Ich meine das teil rekontruriert von 540p das Bild so gut das man es auf 1080p eben mehr als akzeptiert. Mit Raytracing ist DLSS so oder so unverzichtbar und genau dessalb bietet Nvidia diese an. AMD kann nur dann mit DLSS mithalten wenn Ihre Karten extra Kerne bieten die dafür speziallisiert sind was dem Bild besser zugute kommt ( siehe DLSS 1.0 ) und natürlich die FPS in die höhe befeuert. Denn allein durch Shadern wird man diese FPS bei sehr guter Qualität nicht erreichen können. Ich weiß das man direkt als Fanboy beschimpft wird aber die Ampere Architektur ist gegenüber RDNA 2 einfach meilenweit vorraus. AMD hat mit RDNA 2 eine sehr guten start für die Zukunft, aber deren RT Kerne sind übelst langsam und bieten gleichzeitig auch keine alternative zu DLSS, auch hat sie die speziellen AI Kerne ( Nvidias Tensor Kerne ) nicht womit man erst mit der nächsten Generation RDNA 3 erst überhaupt die Chance hat um mit Nvidia mitzuhalten. DLSS wird immer wichtiger und es verbreitet sich immer schneller ( UE Engine inplentiert ). AMD ist für mich sehr wichtig, da ohne Konkurrenz wir abgezockt werden, aber man muss hier auch sagen das AMD nicht viele Karte liefern kann, da die PS5 / X erstmal vorrang haben und TSMC voll ausgelastet ist, hier darf man die verdammt guten CPUs von AMD nicht vergessen die auch da produziert werden.
 
@gerX7a
Danke für deinen Wall of Text, leider würde das hier den Rahmen sprengen im Detail darauf ein zugehen.

Da ist er wieder. Der AMD Wundertreiber. Wie viele Jahre wird das hier jetzt schon im Forum propagiert?
Wann kommt er denn nun endlich?

Geht doch aus dem Bericht hervor, vermutlich im Frühling diesen Jahres wird der Treiber kommen und man kann davon aus gehen, dass BN erst mit diesem in voller Pracht glänzen wird, jedenfalls kommt was Großes, mit dem man Nvidia hart unter Druck setzen kann.
 
Da ist er wieder. Der AMD Wundertreiber. Wie viele Jahre wird das hier jetzt schon im Forum propagiert?
Wann kommt er denn nun endlich?
Was sollte da auch wundersames passieren? Vulkan ist nicht erst gestern veröffentlicht worden und AMD unterstützt Vulkan schon lange. Da gibt es keine Veranlassung und keinen Grund für Hoffnung auf einen "Wundertreiber", der plötzlich noch irgendwie pauschal +15 % Leistung aus den Radeon's herauskitzelt. Die Schwankungen werden primär schlicht Spiel/Engine-spezifischen Eigenheiten unterliegen, wie bisher auch.
Darüber hinaus: Die PCGH hatte in ihrem Parkour auch vier Vulkan-Titel und die RX 6800 XT unterlag der RTX 3080 in jedem Titel sowohl in WQHD als auch 4K, d. h. wenn es AMD gelänge hier noch ein paar Performance-Gains herauszukitzeln, würde das erst mal auf einen Gleichstand hinauslaufen, nicht mehr.
 
AMD hat mit RDNA 2 eine sehr guten start für die Zukunft, aber deren RT Kerne sind übelst langsam
Ich wurde von der RT-Leistung positiv überrascht, hätte nicht mal gedacht dass sie direkt mit dem ersten Versuch soviel abliefern. Meiner Meinung nach wird die Standard-Grafikleistung vom PC der nächsten Jahre die RTX 3060 / RX 6700XT, aber selbst dafür müssten diese erstmal vorhanden und bei 300€ anzutreffen sein. Das wäre quasi die nächste GTX 1060.
Auflösungen ab 1440p, gepaart mit 144 Hz sind nur ein High-End Problem, zumal man für Singleplayer Grafik-Titel keine 144 fps braucht. :)
 
Geht doch aus dem Bericht hervor, vermutlich im Frühling diesen Jahres wird der Treiber kommen und man kann davon aus gehen, dass BN erst mit diesem in voller Pracht glänzen wird, jedenfalls kommt was Großes, mit dem man Nvidia hart unter Druck setzen kann.
Klingt nach der alten "fine wine" - Geschichte. AMD bringt Produkte raus, die nachträglich immer erst noch über Monate oder fast Jahre nachgebessert werden müssen. :ugly: Ich kenn's ja von meinem Ryzen. Ganz klassisch. AMD kündigt immer irgendwas richtig Fettes an, die Fans sind begeistert und hypen in den Foren rum wie Sau und mit der Zeit kommen dann allmählich minimale Verbesserung, die dann aber am Ende entweder keine Sau mehr interessieren, weil dann schon die Next-Gen ansteht und neue Hype-Gerüchte umhergehen oder sie sind dann doch so irrelevant, dass man gar nicht mehr großartig darüber berichtet. Das ist der perfekte Marketing-Kreislauf.
 
Ich wurde von der RT-Leistung positiv überrascht, hätte nicht mal gedacht dass sie direkt mit dem ersten Versuch soviel abliefern.

Eben das kommt noch dazu, AMD hat Nvidia gezeigt, wie man RT in Hardware effizient und kostengünstig umsetzt, für RDNA3 wird die RT Leistung vermutlich daher weit über dem der Konkurrenz stehen, nüchtern betrachtet.
 
ich sehe schon, es ist sehr schwer hier sachlich und faktenbasiert zu diskutieren, warum eigentlich?

Also ich wollte mir dich sachlich und faktenbasiert schreiben. Auf meinen letzten Post kam aber nichts mehr von dir...
Zu deiner Aussage, das alle RDNA2 Karten knapp 2,6Ghz schaffen ->

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Geht doch aus dem Bericht hervor, vermutlich im Frühling diesen Jahres wird der Treiber kommen und man kann davon aus gehen, dass BN erst mit diesem in voller Pracht glänzen wird, jedenfalls kommt was Großes, mit dem man Nvidia hart unter Druck setzen kann.
Das hab ich irgendwie alles schon mal bei Vega gehört..
 
@Blackout27 Danke dafür. Das ist auch so ein gutes Beispiel für:

"BigNavi ist so super effizient"
vs
"Ich übertakte das Ding jetzt auf [keine Ahnung wieviel] Watt damit es annähernd an ne nicht übertaktete RTX3080FE rankommt."
 
Zurück