Geforce RTX 4000: Warum DLSS 3 so wichtig für Nvidia ist - eine Analyse

Aber ich meine auch, es ist noch gar nicht sooo lange her, da hat man - zumindest bei entsprechend starken Karten - alles an Leistung auf die Bildqualität geworfen. Im Spiel sowie im Treiber alle "Leistungs-Optimierungen" aus-, und alle Bildverbesserer eingeschaltet, und die Regler auf Anschlag. Teilweise noch mit Zusatztools zb. AA-Modi aktiviert, an die man über Spiel und Treiber gar nicht ran gekommen ist. Egal wie wenig es potentiell brachte, und wieviel Leistung es gekostet hat - die FPS mussten runter und die Darstellungsqualität hoch.
Ja, und eines der besten Beispiele ist da eigentlich Downsampling. NVIDIA auch in der Vorreiterrolle - ok, das sind sie in den meisten Fällen, das muss man ihnen zugestehen - indem sie es als erste in den Treiber integrierten unter der Bezeichnung DSR.
Auflösung rauf, höher als vom Monitor unterstützt, und dann herunter skaliert. Also genau das Gegenteil von dem was seit DLSS beworben wird.
 
Es werden jetzt also tatsächlich Spiele entwickelt, die selbst mit High bis High End Karten nicht ohne Upscaling laufen? Das ist ja schlimmer als ich es mir vorgestellt hatte. Statt 4k@60fps für alles sind wir jetzt bei 20 fps oder verwaschenes upscaling? Niemals und dann noch diese Preise. AMD ick hör dir tappen.
Gewöhn dich lieber dran.

Die Entwicklung bleibt auch nie stehen und es gibt genug Spiele, in denen man Upscaling (DLSS) optisch kaum von nativer Auflösung unterscheiden kann. Natürlich je nach Upscaling-Stufe. Wer bei 1080p den DLSS Performance Modus einstellt, wird natürlich ein entsprechend verwaschenes Bild bekommen.

Besonders positiv möchte ich hier aber das viel erwähnte Cyberpunk 2077 anbringen, das zusätzlich zu DLSS auch einen gelungenen Schärfefilter bietet, sodass - natürlich nicht grenzenlos - verwaschene Bilder nicht oder nur im geringen Maß ertragen werden müssen. Und ja, ich hab es selbst ausprobiert. Es funktioniert.

Und solche Optionen sind schlimmstenfalls als "wünschenswert" zu bezeichnen. Vor allem, wenn die Bildqualität - je nach Auflösung und Upscaling Stufe - dabei kaum bis nicht wahrnehmbar abnimmt. Zumal dadurch auch die Lebenszeit der GPU verlängert wird. Wenn nicht DLSS, dann eben FSR (sofern AMD hier nicht auch auf die Exklusivität-Schiene ausweichen wird). Und AMD wird die Entwicklung von FSR ja auch nicht einfach liegen lassen.

DLSS ......... da mache dich lieber Downsampling und brauche keine Utopisch teurer Karte dafür.
Downsampling ist aber kein Upscaling. Downsampling ist das Gegenteil von dem, was DLSS und FSR machen.
 
Zuletzt bearbeitet:
AMD kann das auch nicht lösen. Wir sprechen hier von Vollbild-Raytracing, das Nvidia zeigt und mittels DLSS 3 um den Fps-Faktor 4 aufblasen kann. Diese Sprünge sind mit reiner Hardware-Power nicht mal eben möglich. Gewöhn dich besser an Upsampling, das bleibt und wird immer besser. :-)

MfG
Raff
Tolle Aussichten dass neue Spiele dann nurnoch ordentlich auf der Hardware von 1% der Spieler laufen welche Zugang zu dem proprietären Dreck DLSS 3.0 haben.
Das zerstört halt den kompletten Markt, aber nur weiter so NVidia, aber die Klippe wird kommen an dem der Markt Nichtgebrauch mit macht.
Persönlich hoffe ich dass es nun soweit ist.
Eine 4070 als 4080 zu vermarkten zu 1k€. Und dann bringt sie nur die Leistung wenn sie mit proprietären Software chats betrieben wird...
 
Blöd für Nvidia, dass es jetzt das plattformagnostische FSR 2.0 gibt und die meisten Entwickler sich eher darauf fokussieren werden, anstatt auf ein Feature, dass sich nur ein höchst erlesener Personenkreis leisten kann. :schief:
UE+ Unity haben DLSS nativ integriert... Von der großen und schnellen FSR 2.0 Verbreitung sehe ich seit Release nichts außer durch ein paar Modder. Wenn es das ist worauf sich AMD verlässt dann gute Nacht.

Beim Rastern wird das nächste Bild nicht erraten sondern nativ gerendert.
Via Raytracing wird das Bild allein durch Licht gerendert, was natürlich ultrarealistisch WÄRE.
Da von sich auch die 3090 Ti es nicht schafft (allenfalls in 1080p und RT nur auf Schatten), brauche ich mir diesen dramatischen technischen Nachholbedarf nicht mit "Guess the Frame" schönzureden.

Da die Lederjacke sich am DLSS 3 aufhängt, kann ich daraus schließen, dass die verbesserte RT-Leistung weiterhin sehr mau ist.
Ich stelle fest, dass wir was Rendering via Licht angeht noch ganz am Anfang befinden

Meine Kaufentscheidung mache ich daher bis vor 2026 (guess the year) erstmal nur von der Rasterperformance abhängig.
Die RT Leistung von ADA legt ordentlich drauf. Und was redest Du von "nur in 1080p und RT Schatten"? Auf Deiner RDNA2 Karte vielleicht, ich zocke CP2077 mit RT Psycho Settings in WQHD bei >60 FPS. Da sind RT Shadows, Reflections und Global Illumination drin.

Nun, wenn AI Upscaling das Niveau von nativem Rendern erreicht, bin ich voll bei dir^^

Es sind aufregende Zeiten. Mal schauen, was Nvidia noch auf die Beine stellt.
Das tut es doch bereits. In einigen Spielen ist die DLSS Bildqualität sogar höher in Tests attestiert als natives Rendern.

Es gibt ein Feature, dass sich temporales anti aliasing nennt - eventuell ist dir das bekannt.
Das braucht Informationen aus mehreren Bildern, um zu arbeiten - also genau das, von dem du meinst, es wäre unmöglich.

Jensen sagt sogar selbst, dass DLSS 3 das aktuelle und das vorherige Bild nutzt, um zu extrapolieren:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das klappt so lange, bis ein böser Nutzer eine Eingabe macht und z.B. eine 90° Kurve macht.. oder sich entscheidet, die Richtung umzukehren, in die die Hauptfigur gerade rennt.
Je nachdem, wie schnell das Spiel auf Eingaben reagiert, passen vorheriger Frame und aktueller Frame nicht sonderlich zusammen.
Oder in einer Cut scene mit der Engine Grafik gibts nen cut (im schlimmsten Fall ohne schwarzen Frame)... Oder der Kamerawinkel ändert sich plötzlich...
Jetzt hast du aber anstelle von einem Frame, der nicht mehr so ganz passt, plötzlich 3-4 davon... und die auch noch unabhängig von den Informationen, die die Spieleengine rausgibt...
Da kommt dann ab und an deutlicher Mist raus
Bei 60 FPS wird ein Frame ca. 16ms angezeigt. Wenn durch DLSS 3 daraus 120 FPS werden, dann wird das "Zwischen-Frame" ganze 8ms angezeigt. Es wird sich zeigen ob man es bemerkt wenn da etwas nicht stimmt. Ich kann mir auch schwer vorstellen dass Nvidia mit DLSS 3 wieder die Kinderkrankheiten von DLSS 1 einführt, einen Rückschritt haben sie selten gemacht.

In Multiplayer Titeln ist das im kompetitiven Umfeld definitiv keine Option, aber in Singleplayer Titeln? Vernachlässigbar meiner Meinung nach. Denn DLSS braucht man eigentlich eh nur wenn man alle Regler nach rechts schieben möchte, das macht man in Multiplayer Titeln sowieso nicht.

Du kannst davon ausgehen das in Zukunft DLSS 2.0 weniger von den Spieleentwicklern Unterstützt und Optimiert wird!
Du kannst vom Gegenteil ausgehen da alle großen Engines DLSS nativ integriert haben. DLSS 3 ist übrigens abwärtskompatibel, heißt wenn ein Spiel DLSS 3 hat dann wird man DLSS 2 dort auch nutzen können.
 
DLSS3 ist nur wichtig für NVidia, weil sonst nicht einmal die treuesten der treuen Fanboys mehr solche astronomischen preise bis hin zu einer Preisverdoppelung für einen Haufen Metall und Plastik bezahlen wollen würden.
Die umgelabelte 4070 (Ti) (je nach Auslegungssache wegen dem Vollausbau vom kleinen Chip) oder die reale 4080 sind einfach nur absolut lächerlich überbepreist.
Selbst 50% hätte man sich schon mit diverse Krisenbesorgungspreise rechtfertigen müssen.
Aber das ist nur noch blanke Abzocke.
Und wer ist schuld?
Die Ganzen Käufer der 3000er Karten zu diesen und noch viel höheren Preisen im Miningboom.
Wir Nichtkäufer haben es immer und immer wieder gepredigt:
wer die Preise zahlt, zahlt sie dann fortan fortlaufend immer und immer wieder.
Bis diese Leute es einsehen, weil sie es sich dann auch nicht mehr leisten können.
Erst dann werden auch kleinere Karten kommen, die auf Effizienz und vernünftiger Leistung und Stromverbrauch kommen, um durch eingesparte Rohstoffe auch die Verkaufspreise stark zu senken, damit diese Dinger endlich mal wieder Käufer ansprechen.
Ich jedenfalls sehe es schon so kommen, dass ich sogar komplette 3 Generationen überspringen werden, weil die einfach keine guten Karten mehr bauen wollen.
Damals vor 20 Jahren hat man sich fast jedes Jahr eine neue Karte gekauft, dann alle 2 Jahre.
Aber da gab es mehr Leistung, damit die neuen Spiele noch laufen (Crysis-Effekt^^), neue Features (DX pi pa po), irgendetwas fand man schon, warum es sich lohnte.
Jetzt will ich aber kein Vermögen ausgeben, um dann einen Backofen zu haben, der mir zusätzlich die Stromrechnung in die Höhe schnellen läßt.
Und der einzige Vorteil wäre, ich könnte Raytracing aktivieren.
Lasse ich es aus, reicht meine alte Karte wieder.
Und ich habe eine total überfüllte Spielebibliothek und lauter Sonderangebote in Spielebundles, das alles gab es und hatte man damals ebenfalls nicht.
Die Situation hat sich also völlig gedreht.
Damals brauchte man quasi die neuen Karten, heute aber nicht mehr.
Und das die Konstruktionen und Preise ebenfalsl in die falsche Richtung gehen, ist das ein absolutes Eigentor für die Hersteller (falls AMD der Konkurrenz wieder nacheifert, um beim Benchmarkbalken mitzuhalten).
Die Entwicklung im Hardwaresektor ist also echt verrückt und nicht nachvollziehbar.
Die schaffen auf Dauer ihr eigenes Grab, wenn mehr und mehr ehemalige Stammkunden abwandern oder halt viel weniger oder kleiner kaufen.
 
Die Ganzen Käufer der 3000er Karten zu diesen und noch viel höheren Preisen im Miningboom.
Meinst also am ende die Miner ubd ein paar Spieler die die Leistung brauchen evt such weil die alte Karte kaputt ging.

Jo nur die meisten haben damit Geld verdient und daher war der Preis egal.

Al ende muss ich hier auch lachen, alle die sich einen neuen Bildschirm oder sonst was geholt haben oder wo die Graka defekt geht können sich nun aussuchen ob sie alte oder neue Technik haben wollen.
Die Preise sind zu hoch jo ändert aber nix dran das ich 900€ für ne alte 3080(ti) ausgeben muss oder um die 1200€ für ne kack beschnittende 4080 12gb die aber keue Technik drin hat.

Mir kommt das hier ein wenig wie die Audiophilen vor die sagen ne muss alles ohne Digitalisierung sein für den "echten" Sound.
Feiern das ab und am ende kommt raus das einer der größten Anbieter alle verarscht hat und es doch Digital war.
Was die alles raushören konnten weil es nicht Digital ist.

Genau das kommt mir nun immer mehr mit DLSS vor.
Es gibt die wenigen die nur "geil" ohne DLSS oder FSR werden, sind am ende eine minderheit die man getrost ignorieren kann.

Ich selber begrüße das weil ich mit DLSS 3.0 auch die CPU was entlasste und trotzdem ein geiles Bild habe.
Das wird auch sicher wieder für 5 oder mehr Jahre reichen wie die 1080ti , die ich nur aufgrund einer höheren Auflösung austausche.

Zuerstmal müssen auch Netzteile für die Grakas kaufbar sein.... daher lohnt etwas warten.
So bekommt man dad AMD LineUp mit und vllt werden die Nvidias dadurch was Preiswerter.
 
Naja aber Zwischenbildberechnung hier jetzt als revolutionären, technischen Dienst an der Gesellschaft hinzustellen schießt dann auch am Ziel vorbei. Das macht jeder gammelige TV heute und das häufig nicht mal besonders gut und das bei vorhersehbarem Content.
Ganz ehrlich: Was soll der mist? Du weißt genau dass der Fernseher komplett anders arbeitet wie das was hier implementiert wurde. Eine Extrapolation ist von der Vorgehensweise zwar nicht komplex, die Kalibrierung aber alles andere als einfach...
Vor allem vertikale Bewegungen mag die Technik nicht, noch schlimmer sind Rotaionsobjekte.
Derzeit wissen wir noch nicht viel über die Technik, aber die bereits geleakten Screenshots an einigen Stellen lassen schon schlimmes befürchten, da sind ja Teils Bilder völlig entstellt. Mir fehlt derzeit auch die Vorstellungskraft wie man zuverlässig Aktionen eines Menschen vorhersehen möchte. In einem gradlinigen Rennspiel geht das noch einigermaßen, in einem Schlauchlevel Shooter evtl. auch noch gerade so. Dann hört es dann aber auch auf.
Die Frage wird wohl eher sein: Musst du es vorhersehen? Je nach FPS wird es wohl kaum bis garnicht auffallen und eher auf "Gefühl" hinauslaufen.
Es gibt ein Feature, dass sich temporales anti aliasing nennt - eventuell ist dir das bekannt.
Das braucht Informationen aus mehreren Bildern, um zu arbeiten - also genau das, von dem du meinst, es wäre unmöglich.

Jensen sagt sogar selbst, dass DLSS 3 das aktuelle und das vorherige Bild nutzt, um zu extrapolieren:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das klappt so lange, bis ein böser Nutzer eine Eingabe macht und z.B. eine 90° Kurve macht.. oder sich entscheidet, die Richtung umzukehren, in die die Hauptfigur gerade rennt.
Je nachdem, wie schnell das Spiel auf Eingaben reagiert, passen vorheriger Frame und aktueller Frame nicht sonderlich zusammen.
Dann hast du einen erhöhten Inputlag, weil du nun ein Frame verpasst. Die Bildinformationen lassen sich ja weiterhin verwenden.
Oder in einer Cut scene mit der Engine Grafik gibts nen cut (im schlimmsten Fall ohne schwarzen Frame)... Oder der Kamerawinkel ändert sich plötzlich...
Jetzt hast du aber anstelle von einem Frame, der nicht mehr so ganz passt, plötzlich 3-4 davon... und die auch noch unabhängig von den Informationen, die die Spieleengine rausgibt...
Da kommt dann ab und an deutlicher Mist raus
Du konstruirst gerade aber ganz schön was zusammen. Diese Probleme die du nennst hättest du mit allen TAA Implementierung und zumindest mir ist das noch nicht aufgefallen das bei Cuts o.ä. Probleme existieren. Wer auch mal tiefe Analysen von DLSS 2.0 gesehen hat weiß auch dass die ersten Frames einer neuen Szene nicht gut aussehen...
----------------------------

Letzten Endes ist DLSS 3.0 einfach nur ein weitergedachter Ansatz von DLSS 2.0. Nvidia darf auch nicht wirklich stehen bleiben, AMD hat mit FSR 2.0 mittlerweile eine brauchbare Lösung im Angebot und wird wohl früher oder später auf dem Niveau sein und DLSS 2.0 die daseinsberechtigung verlieren. So gewinnt man aber wieder Zeit bis AMD aufschließt.
 
DLSS 3.0 ist deshalb wichtig für Nvidia, weil man nur noch so die nochmals gestiegenen Mondpreise rechtfertigen kann, dann mit 50 % Mehrleistung würde die Fachpresse wohl bei den Preisen die Karten ungeprüft zu Nvidia zurückschicken und diese entsprechend medial abstrafen.

Grundsätzlich... Was nützt es denn, wenn man features wie R pushed und diese nur mit "Bildverbesserern" überhaupt laufen und aufgrund der Preisgestaltung nur bei einem Bruchteil der Spieler? Ich persönlich verzichte gerne auf RT, so lange das nicht vernünftig eingesetzt ist und auch entsprechend verbreitet. Ohne R braucht man DLSS jedenfalls nicht und entsprechend auch keine völlig überteuerten GPUs.

Den Quatsch sollte man wirklich nicht mitmachen und einfach mal ein, zwei Generationen die Füße stillhalten, damit die Hersteller das entsprechend verstehen. Dann ändert sich das auch wieder.

MfG
 
DLSS 3.0 ist deshalb wichtig für Nvidia, weil man nur noch so die nochmals gestiegenen Mondpreise rechtfertigen kann, dann mit 50 % Mehrleistung würde die Fachpresse wohl bei den Preisen die Karten ungeprüft zu Nvidia zurückschicken und diese entsprechend medial abstrafen.

Grundsätzlich... Was nützt es denn, wenn man features wie R pushed und diese nur mit "Bildverbesserern" überhaupt laufen und aufgrund der Preisgestaltung nur bei einem Bruchteil der Spieler? Ich persönlich verzichte gerne auf RT, so lange das nicht vernünftig eingesetzt ist und auch entsprechend verbreitet. Ohne R braucht man DLSS jedenfalls nicht und entsprechend auch keine völlig überteuerten GPUs.

Den Quatsch sollte man wirklich nicht mitmachen und einfach mal ein, zwei Generationen die Füße stillhalten, damit die Hersteller das entsprechend verstehen. Dann ändert sich das auch wieder.

MfG
RT Karten haben einen Anteil von >20% in der Steam Hardware Survey. Von "Bruchteilen" zu sprechen ist zwar korrekt, allerdings sind die Bruchteile mittlerweile jeder 4.-5. Gamer.

Neue Features kamen im Grafikbereich auch mehrfach raus bevor die Hardware stark genug war. Es gab auch immer wieder Spiele die erst mit der nächsten GPU Gen richtig gut spielbar waren.

Ich seh da einfach keinen großen Unterschied zu früher. Es wird etwas neues eingeführt und verbreitet sich langsam im Markt. Ganz normal. RT ist jetzt schon ziemlich gut verbreitet in den Karten.

DLSS ist übrigens auch abseits von RT Spielen einsetzbar, z.B. als DLAA für die beste Bildqualität oder um Strom zu sparen.
 
RT Karten haben einen Anteil von >20% in der Steam Hardware Survey. Von "Bruchteilen" zu sprechen ist zwar korrekt, allerdings sind die Bruchteile mittlerweile jeder 4.-5. Gamer.

Neue Features kamen im Grafikbereich auch mehrfach raus bevor die Hardware stark genug war. Es gab auch immer wieder Spiele die erst mit der nächsten GPU Gen richtig gut spielbar waren.

Ich seh da einfach keinen großen Unterschied zu früher. Es wird etwas neues eingeführt und verbreitet sich langsam im Markt. Ganz normal. RT ist jetzt schon ziemlich gut verbreitet in den Karten.

DLSS ist übrigens auch abseits von RT Spielen einsetzbar, z.B. als DLAA für die beste Bildqualität oder um Strom zu sparen.
Der Unterschied ist, das sie nicht proprietär ist und so die Verbreitung nicht künstlich gebremst wurde. Und nicht nur das, nVidia koppelt diese proprietäre Technologie auch noch an völlig überzogen hohe Preise, das hat so gar nichts mit der Hardwareentwicklung von früher zu tun.

MfG
 
Hier wurde DLSS 3.0 als "Blendwerk" hingestellt. Das ist ziemlich übertrieben, findest Du nicht?
Eigentlich nicht, denn im Grunde genommen ist es ein Blendwerk, es zaubert was auf den Bildschirm was nicht da ist.
Preis einer Titan
Die GTX Titan hat vor 9 Jahren Mal 949€ UVP gehabt, war auch die letzte die Consumerausstattung hatte, danach gab es HBM Speicher. Insofern nicht ganz falsch.
Wir werden ja sehen wie RDNA3 abschneidet. Ähnliche TDPs sind ja bereits geleaked worden. Ich bin gespannt was AMD bringt, zaubern können die aber auch nicht.
Wie ich schon schrieb, hat Ampere bereits stark eingebüßt und bis auf den Bereich "fancy tech" wie du ihn nennst, gibt es aktuell kein Argument pro Nvidia. Wenn AMD (wovon ich nicht ausgehe) noch einmal ein solch bedeutender Schritt wie RDNA 1 auf RDNA 2 gelingen würde, dann wäre es zappenduster für Nvidias Rasterizing Leistung.

Das mit dem Zaubern ist für mich nicht so recht nachvollziehbar! Es macht so ein wenig den Anschein, dass du der Meinung bist, dass Nvidia am oberen Limit abgeliefert hat und mehr einfach nicht möglich ist. Aber genau dies ist ganz gefährliches Denken, denn wir haben bspw. 10 Jahre lang gesehen was Intel geliefert hat und die 10-15% waren immer das beste was auf dem Markt verfügbar war. Als dann AMD endlich wieder kam haben wir in dem halben Zeitraum nicht selten Sprünge von über 50% gesehen. Der führende Partner wird also nicht immer das Maximum liefern (können oder wollen) und die Konkurenz kocht zwar auch nur mit Wasser, aber vieleicht haben die den Schnellkocktopf ausgepackt!

Man weiß noch gar nicht wie stark das CPU Limit bei den Spielen ist. Die Spiele sind mit einem 12900K getestet worden und nicht mit einem 7950X oder 13900K.
Naja, wer Grafikkarten im CPU Limit testet, der hat seinen Job dann auch nicht richtig gemacht. Also auch mit einem 12900k wirst du in keinem der gezeigten Spiele im CPU Limit landen müssen, eines der wenigen wäre vieleicht Anno, wobei ich bei 4K und Ultra Details nicht einmal sicher bin, dass man dies dort erreichen wird.
RT Karten haben einen Anteil von >20% in der Steam Hardware Survey. Von "Bruchteilen" zu sprechen ist zwar korrekt, allerdings sind die Bruchteile mittlerweile jeder 4.-5. Gamer.
Wieviele dieser Karten haben RT in nutzbarer Leistung?

3-4%?
 
Eigentlich nicht, denn im Grunde genommen ist es ein Blendwerk, es zaubert was auf den Bildschirm was nicht da ist.
Es werden weiterhin keine Details dazu erfunden. Es werden Bild-Daten von mehreren Frames miteinander verrechnet, also alles da. Ob ein Frame jetzt in der Raster-Pipeline oder auf den Tensor Cores erstellt wird macht einen Unterschied? Wieso? Beides erstellt ein Frame. #Zauberei :schief:

Die GTX Titan hat vor 9 Jahren Mal 949€ UVP gehabt, war auch die letzte die Consumerausstattung hatte, danach gab es HBM Speicher. Insofern nicht ganz falsch.
2013. Vor fast 10 (!!!) Jahren. Inflation - ignoriert, Euro-Dollar Kurs - ignoriert, technischer Fortschritt und höhere Kosten - ignoriert. :daumen:

Wie ich schon schrieb, hat Ampere bereits stark eingebüßt und bis auf den Bereich "fancy tech" wie du ihn nennst, gibt es aktuell kein Argument pro Nvidia. Wenn AMD (wovon ich nicht ausgehe) noch einmal ein solch bedeutender Schritt wie RDNA 1 auf RDNA 2 gelingen würde, dann wäre es zappenduster für Nvidias Rasterizing Leistung.
Stimmt, wer den neuen "heißen shice" will der kauft NVidia. Wer sich mit weniger zufrieden gibt kauft eben AMD. Ich seh da kein Problem.


Das mit dem Zaubern ist für mich nicht so recht nachvollziehbar! Es macht so ein wenig den Anschein, dass du der Meinung bist, dass Nvidia am oberen Limit abgeliefert hat und mehr einfach nicht möglich ist. Aber genau dies ist ganz gefährliches Denken, denn wir haben bspw. 10 Jahre lang gesehen was Intel geliefert hat und die 10-15% waren immer das beste was auf dem Markt verfügbar war. Als dann AMD endlich wieder kam haben wir in dem halben Zeitraum nicht selten Sprünge von über 50% gesehen. Der führende Partner wird also nicht immer das Maximum liefern (können oder wollen) und die Konkurenz kocht zwar auch nur mit Wasser, aber vieleicht haben die den Schnellkocktopf ausgepackt!
50% in Anwendungen die auf Multi-Core skalieren. CPUs mit GPUs vergleichen ist aber eh Unsinn. Der GCD (und es bleibt anscheinend bei 1 pro GPU) mit den Shadern wird vermutlich kein revolutionärer Schnellkochtopf, aber ich lasse mich gern überraschen von AMD.


Wieviele dieser Karten haben RT in nutzbarer Leistung?

3-4%?
Du kannst auf allen Karten RT aktivieren. Schaltest halt DLSS dazu und nimmst nicht die höchste RT Stufe. Wo Problem?

Dass auf einer 2060 kein RT-Psycho Setting möglich ist versuchst Du hier als "must-have" darzustellen. Ist in meinen Augen Unsinn.
 
Ganz genau, in RL ist RT noch recht unverbreitet und durch Nvidias Herangehen fürchte ich, wird sich das so schnell auch nicht ändern. Leider gibt es zu Viele, die diese Monetarisierungsstrategie unterstützen.^^

MfG
 
Zurück