Cyberpunk 2077 Patch 1.2: Raytracing auf Radeons noch langsam

Kenne mich da nicht so aus aber mittlerweile gibts zumindest einen PC Monitor mit OLED .
Der LG UltraFine Display OLED Pro 32EP950-B kostet aber 3700€
Edit: und hat nur 60Hz und kein freeSync oder Gsync
Für knapp ein drittel des Geldes bekommst du einen fast doppelt so großen OLED TV, der auch noch 120Hz und adaptive Sync unterstützt.

@Topic: Das war doch zu erwarten, oder? Andere, nicht AMD-optimierte Titel laufen doch auch so (langsam).
 
Ich dachte, wer RT haben will, der kauft sich eh keine AMD Karte !?
Is doch irrelevant für die Radeons.

Man kann auch sehr gut ohne RT leben. Auch in CP.
Sieht ohne RT immer noch gut aus, was das Spiel ansich leider nicht besser macht, als es rausgekommen ist.

Ich glaube RT ist nicht das Problem von CP.

Wie hier auch schon gesagt wurde, bis RT richtig umfangreich und massig eingesetzt wird, wird's wohl noch dauern.
Also auch richtig GI, alles andere auch massiv und nicht nur so ein paar Strählchen hier und da, wo dann die Effekte auf einmal verschwinden, wenn man x Meter weit weg schaut.

Sehr umfangreich und RT in allen Bereichen in Open World Games könnte in Zukunft sicher mal toll aussehen.
Wenn es dann auch flott, ohne Einschränkungen läuft. Mit flott meine ich übrigens nicht unter 60 fps. Eher Richtung 100 fps. Um 60 herum finde ich mittlerweile je nach Spiel auch schon recht "zäh".

Und irgendwie finde ich DLSS bisher auch nicht so den burner.
Damit's richtig fluppt mit RT maxed out, muss es schon ziemlich weichgespült sein(wie heißt das ? DLSS Performance ?), was dann auch nicht mehr perfekt aussieht(blurry).

Wie gesagt, in ein paar Generationen sieht's vielleicht besser damit aus, aber so lang kann man auch ruhig ne AMD Karte nehmen, mehr Grafikspeicher für was auch immer nehmen, wenn man's braucht und RT aus lassen.

Ich seh' das so ähnlich wie den 4k/UHD Hype an.
Warten wir mal noch 2 Gens und schauen dann.

Dann klappt's bei den Highendkarten vielleicht auch mit fluffigen* fps in UHD + RT(umfangreich und maxed out).

*fluffig = 70-100fps

Bisher is das doch alles noch early adopter Spielkram.
 
Zuletzt bearbeitet:
Muss man nicht, außer man will mehr als 30 FPS, aber das war vor RT in 4K nicht anders. Eine 1080 TI hat für 4K 60FPS auf ultra Settings auch nicht gereicht.
Heute erreicht man in 4K mit DLSS und Ultra Settings + RT bis zu 60 FPS. Wer das ohne DLSS haben will, muss genau wie früher die Settings runterschrauben.


Also erst, wenn es mit 150-300 FPS ohne DLSS und 300-600 FPS mit DLSS läuft?
Warum genau benötigst du in Cyberpunk 300 FPS und wieso ist alles darunter für dich nicht spielbar?

und für eine (wieviel tausend-euro?) -karte sind dann 4k@ BISZU60hz, ein 'tolles ergebnis'? nein, SO ist das ganze noch stark in den kinderschuhen. da bleib ich lieber bei FHD, ohne RT und DLSS und spare ne menge geld bei grafikkarte und monitor, statt dem hype hinterher zu rennen und nur für die grafikkarte soviel hin zu legen, wie für den ganzen restlichen rechner mit monitor und allem zubehör. ich hab auch noch ein reales leben und nur zum zocken, geb ich keinen monatslohn NUR für eine grafikkarte aus........

edit: für mich sind 'gute bildraten' alles ab STABILE 60hz, also 60hz minimum mit spitzen bis 120hz.
 
und für eine (wieviel tausend-euro?) -karte sind dann 4k@ BISZU60hz, ein 'tolles ergebnis'? nein, SO ist das ganze noch stark in den kinderschuhen. da bleib ich lieber bei FHD, ohne RT und DLSS...
Vor Turing gab es auch ohne RT keine 60 FPS in 4k, außer du hast die Settings runtergedreht, also ja, das ist ein tolles Ergebnis.
Du spielst in FHD und diskutierst über 4K? Ehm what? Wenn du doch sowieso kein 4K nutzt, warum beschwerst du dich dann? Zumal du eh keine RT fähige Graka hast.

...und spare ne menge geld bei grafikkarte und monitor, statt dem hype hinterher zu rennen und nur für die grafikkarte soviel hin zu legen, wie für den ganzen restlichen rechner mit monitor und allem zubehör. ich hab auch noch ein reales leben und nur zum zocken, geb ich keinen monatslohn NUR für eine grafikkarte aus........
Was hat der Preis der Grafikkarte jetzt genau mit der RT Leistung zutun? Du vermischt da ein paar Dinge. Die Karten sind unabhängig vom RT ziemlich teuer. Was genau ist also dein Kritikpunkt?

edit: für mich sind 'gute bildraten' alles ab STABILE 60hz, also 60hz minimum mit spitzen bis 120hz.
FPS ≠ Hz und die 60 FPS bekommst du jetzt schon mit Ultra Settings in 4K + RT. Kostet halt dementsprechend auch.

Abgesehen davon ist dein Argument, dass es sicht erst lohnt, wenn die Karten 5-10x so schnell sind wie jetzt, fernab jeglicher Realität. Das ganze dann am besten noch auf Ultra in 8K in 300+ FPS und die Karte darf maximal 300€ kosten? Da kannste lange warten :ugly:
Das wird niemals passieren und war auch in der Vergangenheit NIE der Fall.
 
Zuletzt bearbeitet:
und für eine (wieviel tausend-euro?) -karte sind dann 4k@ BISZU60hz, ein 'tolles ergebnis'? nein, SO ist das ganze noch stark in den kinderschuhen. da bleib ich lieber bei FHD, ohne RT und DLSS und spare ne menge geld bei grafikkarte und monitor, statt dem hype hinterher zu rennen und nur für die grafikkarte soviel hin zu legen, wie für den ganzen restlichen rechner mit monitor und allem zubehör. ich hab auch noch ein reales leben und nur zum zocken, geb ich keinen monatslohn NUR für eine grafikkarte aus........

edit: für mich sind 'gute bildraten' alles ab STABILE 60hz, also 60hz minimum mit spitzen bis 120hz.
Seltsame Argumente, ehrlich. Wären die Grafikkarten Preise nicht aktuell durch Corona und Mining so hoch, dann gäbe es eine 3080 für ~750 Euro. Meine 3080 OC hat mich Ende 2020 ~950 Euro gekostet, ok, aber das ist immernoch nicht der Preis vom gesamten Rest des Systems. Allein ein guter 4K Monitor kostet gerne mal 1000 Euro, ich habe "nur" einen der besten WQHD Monitore für ~700 Euro.

Ich spiele CP2077 in WQHD, maxed out Settings, RT Psycho, DLSS Quality mit konstant über 60 FPS.

edit: Wenn Dein Monatslohn so niedrig ist dass Du Dir gerade mal eine Grafikkarte davon kaufen kannst dann ist das traurig, aber daraus zu schließen dass "das ganze noch stark in den kinderschuhen" steckt ist typisches Blasendenken. Deine Blase ist (no offense) die eines Geringverdieners. DLSS ist "hingeschummelt", RT steckt in den "Kinderschuhen", Grafikkarten sollen billig sein und min. 4K, 60 FPS, maxed out settings bieten, bis dahin sind alle neuen Features "unbrauchbar". Wenn alle so denken würden dann gäbe es keinen Fortschritt, und damit meine ich nicht nur Grafik-Features.
 
Zuletzt bearbeitet von einem Moderator:
Ihr dreht ihm aber auch das Wort im Mund um, nicht ? ;)

Stimmt doch, was er sagt.

Wenn du doch sowieso kein 4K nutzt, warum beschwerst du dich dann?

Es ging doch darum, dass es noch in den Kinderschuhen steckt, sprich: Noch nicht im Mainstream angekommen. Also für die meisten noch nicht relevant.

So hab ich's zumindest verstanden.

Und im Grunde hab ich das Gleiche in grün auch geschrieben. Hab halt "early adopter Spielkram" dazu gesagt. ;)

Was hat der Preis der Grafikkarte jetzt genau mit der RT Leistung zutun?
Ja eben genau, dass es noch in der Anfangsphase steckt und noch nicht wirklich ausgiebig(also richtig gut/schön) von mainstreamkarten nutzbar. Also für die Allgemeinheit der Zocker.

Bisher isses halt noch Luxustestphase für "gut betuchte".

Meine 3080 OC hat mich Ende 2020 ~950 Euro gekostet, ok, aber das ist immernoch nicht der Preis vom gesamten Rest des Systems.
Meine 3080 TUF OC auch fast.
Und doch ... es gab mal ne Zeit, da hat man für 1250€ n "ganz guten" Gaming PC bekommen. Also komplett(evtl. zzgl. Monitor, was aber auch nich die Welt sein muss, bei ca. 150-300€).


Also @geist4711 ... bin da voll bei dir. Lass dich nich ärgern. ;) Game on ! :daumen:

Hauptsache man hat Spaß mit seinem Kram. Und ich denk mir manchmal ... wie geil muss das sein, mit sehr viel günstigerem Zeug genauso viel Spielspaß zu haben, wie Leute mit 4000€ Kisten. :D


edit: Einfach RT = off + 1080p.
edit2: Spart man auch noch Strom. ;)
 
Zuletzt bearbeitet:
Es ging doch darum, dass es noch in den Kinderschuhen steckt, sprich: Noch nicht im Mainstream angekommen. Also für die meisten noch nicht relevant.

So hab ich's zumindest verstanden.
Eines seiner Argumente ist, dass er in 4K keine 60 FPS ohne DLSS erreicht und bezeichnet das als schlechtes Ergebnis.
Diese 60 FPS erreichen wir überhaupt erst seit Turing. Vorher wurden immer die Settings rundergedreht.
Als nächstes behauptet er, dass es erst mit 5-10x Rechenleistung zu heute richtig gut funktioniert.
Keine Ahnung, was ihr so gezockt habt, aber ich habe jetzt schon 100+ FPS in 1080p mit RT und ~60 FPS in 4K mit DLSS.
Das 5-10x davon wäre 500-1000 FPS bzw. 300-600 FPS. Welche Grafikkarte hat das jemals unter maximalen Einstellungen in einem aktuellen Spiel geschafft? Mir fällt nicht eine ein.

Ja eben genau, dass es noch in der Anfangsphase steckt und noch nicht wirklich ausgiebig(also richtig gut/schön) von mainstreamkarten nutzbar. Also für die Allgemeinheit der Zocker.

Bisher isses halt noch Luxustestphase für "gut betuchte".
Eben nicht. Die Karten sind nicht wegen der RT-Technik so teuer, sondern wegen des Minings. Wenn sich das alles normalisiert hat, bekommst du eine 3080 für 750€. Glaubst du wirklich, dass die Karte ohne RT so viel günstiger wäre? Mit Sicherheit nicht.
Selbst die 3060 unterstützt RT und das ist keine Grafikkarte für "gut betuchte".

Es ist okay zu sagen, dass die Karten zu teuer sind, denn das sind sie, selbst wenn sie zur UVP käuflich wären. Als Grund dafür die RT-Technik vorzuschieben ist schlichtweg nicht richtig. Ich habe zwar das Geld übrig für eine 3090, aber glaubt ihr nicht, dass auch ich mich freuen würde, wenn ich "nur" 800€ hätte zahlen müssen?
 
Zuletzt bearbeitet:
Ihr dreht ihm aber auch das Wort im Mund um, nicht ? ;)

Stimmt doch, was er sagt.



Es ging doch darum, dass es noch in den Kinderschuhen steckt, sprich: Noch nicht im Mainstream angekommen. Also für die meisten noch nicht relevant.

So hab ich's zumindest verstanden.

Und im Grunde hab ich das Gleiche in grün auch geschrieben. Hab halt "early adopter Spielkram" dazu gesagt. ;)


Ja eben genau, dass es noch in der Anfangsphase steckt und noch nicht wirklich ausgiebig(also richtig gut/schön) von mainstreamkarten nutzbar. Also für die Allgemeinheit der Zocker.

Bisher isses halt noch Luxustestphase für "gut betuchte".


Meine 3080 TUF OC auch fast.
Und doch ... es gab mal ne Zeit, da hat man für 1250€ n "ganz guten" Gaming PC bekommen. Also komplett(evtl. zzgl. Monitor, was aber auch nich die Welt sein muss, bei ca. 150-300€).


Also @geist4711 ... bin da voll bei dir. Lass dich nich ärgern. ;) Game on ! :daumen:

Hauptsache man hat Spaß mit seinem Kram. Und ich denk mir manchmal ... wie geil muss das sein, mit sehr viel günstigerem Zeug genauso viel Spielspaß zu haben, wie Leute mit 4000€ Kisten. :D


edit: Einfach RT = off + 1080p.
edit2: Spart man auch noch Strom. ;)
Darum geht es nicht @ChrisMK72 , es geht darum dass hier jemand, der es sich schlicht nicht leisten kann, die Features als "unbrauchbar" abstempelt. Der Neid ist meiner Meinung nach in seinen Posts deutlich zu erkennen.

Würde man ihm einen Gaming PC mit einer 3060/3070/3080 schenken, glaubst Du er würde RT + DLSS nicht anschalten wenn es das Spiel unterstützt? Fakt ist doch: selbst mit einer 3060 bekommt man in FHD gute FPS mit RT + DLSS Quality.

edit: Bezüglich "1250€ n "ganz guten" Gaming PC" - aber nicht mit einem 4K Monitor, das wäre auch heute nicht machbar wenn die Grafikkarten zur UVP verfügbar wären.
 
Eines seiner Argumente ist, dass er in 4K keine 60 FPS ohne DLSS erreicht und bezeichnet das als schlechtes Ergebnis.

Ich finde das Ergebnis mancher 3090 in 4k+RT auch nicht berauschend, je nach Game, wenn man sich die Werbung ansieht und die technische Ausstattung mit 24GB GDDR6x Speicher und was dann hinten bei rum kommt.

Laut der Werbung haben wir ja schon lange echte 4k Karten. Ja klar ... je nach Geschmack möglich(selbst 8k ;) ). Aber halt etwas "lame", für meinen Geschmack, wenn man echt alles maxed out fahren will, oder zumindest das Meiste.

Ich fänd' es auch besser, wenn es ohne DLSS möglich wäre gute fps (edit: in 4k in Top AAA Titeln) zu erreichen.
Das wird auch sicher "bald" kommen. In ein paar Jahren.

Wenn sich das alles normalisiert hat, bekommst du eine 3080 für 750€.

Und das is dann mainstream ?
Bevor RT richtig Massenrelevant wird, sollte es auch gut und ausgiebig in 300€Karten nutzbar sein, finde ich.

So lange isses halt noch early adopter Luxusspielkram.

Der Neid ist meiner Meinung nach in seinen Posts deutlich zu erkennen

Ich sehe da eher gesunden Menschenverstand, der nicht jedem Werbehype hinterher rennt. Man könnte es auch Vernunft nennen.

Aber ok, ist nur nur meine unwichtige Meinung und mein Senf zu dem Thema RT + gehype.

Kann und soll sich natürlich jeder gern seine eigene Sicht zurechtlegen, passend zum Geldbeutel. ;)



edit: So ... mein Kaffee is gleich alle. Ne halbe Tasse hab ich noch Zeit. :D
 
Ich finde das Ergebnis mancher 3090 in 4k+RT auch nicht berauschend, je nach Game, wenn man sich die Werbung ansieht und die technische Ausstattung mit 24GB GDDR6x Speicher und was dann hinten bei rum kommt.
Hätte auch gerne 8K mit 144FPS, aber das ist wunschdenken und fernab jeglicher Realität.

Laut der Werbung haben wir ja schon lange echte 4k Karten. Ja klar ... je nach Geschmack möglich(selbst 8k ;) ). Aber halt etwas "lame", für meinen Geschmack, wenn man echt alles maxed out fahren will, oder zumindest das Meiste.
Wann hattest du jemals flüssiges (> 60 FPS) 4K maxed out?
Wir haben auch echte 4K Karten. Man kann die Settings immer so hochdrehen, dass die Karte in die Knie geht. Das wird sich auch zukünftig nicht ändern, deswegen kann man sie trotzdem als 4K Karte bezeichnen.

Und das is dann mainstream ?
Bevor RT richtig Massenrelevant wird, sollte es auch gut und ausgiebig in 300€Karten nutzbar sein, finde ich.
Die 80er Karten waren nie Mainstream. Die 60er waren es und dort bekommst du flüssige Bildraten in 1080p mit RT. Es ist also im Mainstreambereich angekommen.
 
Ich bin auch nicht so ganz überzeugt ob sich Raytracing durchsetzen wird. Kostet im Augenblick zu viel Leistung und nur bei den großen GPUs über 500€ (UVP) wirklich nutzbar. Erinnert bisschen an dieses Hairworks und PhysX vor ein paar Jahren, hat sich dann auch net durchgesetzt.
 
Im besten Fall ist also selbst mit der stärksten AMD GPU nur 1080P/60 FPS möglich mit leicht reduzierten RT Settings.
Die RT Leistung der 6900XT liegt letztendlich nur auf dem Level einer ~3070, also die Erwartungshaltung ist natürlich entsprechend.
 
Hätte auch gerne 8K mitr 144FPS, aber das ist wunschdenken und fernab jeglicher Realität.

Ja, genau wie RT für alle in gut und schön innerhalb der nächsten 2 Jahre.

Wann hattest du jemals flüssiges (> 60 FPS) 4K maxed out?

Is was für die Zukunft, wie geschrieben. In 2 Gens sicher möglich.

Die 80er Karten waren nie Mainstream. Die 60er waren es.

Eben.

Ich sag doch es steckt noch in den "Kinderschuhen", wie Geist auch geschrieben hat. Also noch nicht für die Masse relevant. Nix Anderes hab ich geschrieben.

Also wenn man eher vernünftige Beträge für ne einzelne GPU ausgeben möchte und an RT interessiert ist, ist es bisher noch nicht relevant, sprich: Man kann dann noch drauf verzichten.
Und in 2 Gens sieht's vielleicht schon deutlich besser aus, was die Leistungsfähigkeit betrifft. Auch für Highend 4k usw. .

Ich freu mich übrigens schon auf die 5070. Mal gespannt, was dann geht. :)
(Bin ja nicht gegen die Technik, hab ja selber ne 3080, aber einfach weil ich die Basisleistung haben wollte)

Wenn 3060er massenweise für um und unter 300€ zu haben sind, wird das aber auch immer noch kein wirklich gutes RT sein, wie es in Zukunft mal möglich sein wird, halt richtig ausgiebig, mit GI, Reflexionen, Schatten und alles reichlich durch RT berechnet. Das kommt ja auch auf die Menge der Strahlen an, die berechnet werden usw. .

Irgendwann is das sicher möglich. Wir sind aber noch in der Anfangsphase. Darum ging's doch.

Aber bisher sehen die Games halt ganz ohne RT auch immer noch sehr gut aus.
Kann man easy noch 2 Generationen mit warten, bevor man da in's RT-Thema einsteigt.


np. :)


edit:

Bezüglich "1250€ n "ganz guten" Gaming PC" - aber nicht mit einem 4K Monitor, das wäre auch heute nicht machbar wenn die Grafikkarten zur UVP verfügbar wären.
Ja, gute 4k Monitore kommen erst noch raus. ;) Einzelne Ausnahmen soll es schon geben.
Ich meinte n "guten Gaming PC" allgemein. Also womit man gut zocken kann, z.B. 1080p bis WQHD(war z.B. erstaunt, was mit ner simplen GTX 1660 Super 6GB schon machbar war, letztes Jahr, für unter 200€ Neu direkt ab Händler).


PS: So ... Kaffee is alle.
Kaffee 3.jpg
Later ! :D
 
Zuletzt bearbeitet:
Ich bin auch nicht so ganz überzeugt ob sich Raytracing durchsetzen wird. Kostet im Augenblick zu viel Leistung und nur bei den großen GPUs über 500€ (UVP) wirklich nutzbar. Erinnert bisschen an dieses Hairworks und PhysX vor ein paar Jahren, hat sich dann auch net durchgesetzt.
RT kann man nicht mit PhysX oder Hairworks vergleichen, denn das waren wirklich Gimmiks mMn.
RT dagegen erleichtert die Arbeit der Entwickler ungemein, allein deswegen wird es sich durchsetzen.
Nur bis es im großen Maße eingesetzt wird, d.h. nicht oder kaum mit klassischen Raster Techniken kombiniert wird noch ein paar Grafikkarten Generation dauern.
 
Die RT Performance auf AMD Karten war ja zu erwarten und sollte niemanden überraschen.

DF hatte mal ein Video dazu gemacht, da sah man ja schon sehr gut, wie weit AMD zurück liegt bzgl. RT:

(Für die, die es noch nicht gesehen haben. Hab's extra an die "Fazit-Stelle" gespult)
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Da wird selbst im besten Fall mMn auch kein DLSS Pendant helfen um aufzuschließen, wobei es natürlich trotzdem dringend wünschenswert ist.

So viel auch zur Zukunftstauglichkeit bzgl. voran gegangener Kommentare.
AMD's neuste Karten werden sicherlich wegen ihrer Speichermenge etwas länger durchhalten. (Ohne RT, 3090 außen vor)
Aber da Raytracing immer mehr statt weniger wird und AMD Karten schon jetzt in dieser Disziplin nicht so gut performen, fragt man sich schon, wie soll das in 2, 3 oder 4 Jahren aussehen!?

Da nVidias Achillesferse meistens der Speicher ist, sehe ich bei beiden aber nicht wirklich viel Zukunftstauglichkeit.
(Kann oder konnte man mit wenigen Ausnahmen bei GPUs doch eh nie wirklich von sprechen)
Und bei beiden kommt halt der natürliche Spiele-Prozess dazu, die 1080Ti war auch mal eine 4k @60FPS Karte.

Aber und das finde ich sehr gut. Das "schlecht sprechen" von Raytracing sollte mit diesem Parade Beispiel wie gut RT aussehen kann, weniger werden.
Schließlich können AMD Karten User sich endlich selber mal ein Bild davon machen, am eigenen Rechner.
Da ist es auch egal ob man nun mit nur ~30FPS einmal durch die Jig Jig Street laufen kann, diesen (Augen) Porno muss man einfach mal gesehen haben.
Ist jedenfalls eine optische Aufwertung, deutlich mehr als wenn man irgendwas von -medium- auf -ultra- stellt.

Zu guter Letzt wollte ich noch eine Lanze für den DLSS Performance Mode brechen.
Ist das wieder so ein Ding, wo das Glas halb leer ist? Sollte man den Modus besser gar nicht anbieten?
Oder ist es nicht eher beeindruckend, was man aus nativem ~720p Matsch heraus holen kann?

Klar, der Quality Modus ist besser, aber so schlecht sieht -Performance- doch gar nicht aus.
Es flimmert natürlich mehr, oder V's Charakter im Menu sieht furchtbar aus.
Aber, legt man noch den Schärfefilter drüber sieht es insgesamt gut aus und man bekommt genau das was man braucht, nämlich Performance.

Uff, wieder Wall of Text geworden... Viel Spaß an AMD'ler beim "Spiel neu erleben", wenn auch erstmal nur zum gucken. :daumen:
 
Zweifellos, abseits von Full HD kaum benutzbar. Daher sind ja Kniffe wie DLSS so wichtig – umso unverständlicher ist, dass AMD das nicht längst fertig hat, denn Zeit war seit der DXR-Spezifikation reichlich.

MfG
Raff

Fehlerarmes Hinzudichten von Bildinhalten an Stelle von aufwendiger, exakter Berechnung ist nicht erst seit den DXR-Spezifikationen wünschenswert oder denkbar, sondern spätestens seit der ersten geglätten Schriftart. Aber es war nie einfach, sichtbare Artefakte zu vermeiden. Da kämpfte selbst DLSS 1 stark mit und das werden auch die AMD-Entwickler haben feststellen müssen. In einer Welt mit unbegrenzten Entwicklungsressourcen müsste die Frage dagegen eher lauten, warum man überhaupt auf DLSS-Kinderkram wie rekonstruierte Pixel beschränkt? VR-Headsets extrapolieren komplette Frames für Rotationsbewegugnen seit 2016 und für komplexere Änderungen seit 2019. Da hat man dann auch keine temporalen Artefakte innerhalb eines Bildes, sondern einfach verdoppelte Fps.
 
Ich bin auch nicht so ganz überzeugt ob sich Raytracing durchsetzen wird. Kostet im Augenblick zu viel Leistung und nur bei den großen GPUs über 500€ (UVP) wirklich nutzbar. Erinnert bisschen an dieses Hairworks und PhysX vor ein paar Jahren, hat sich dann auch net durchgesetzt.

Nicht durchgesetzt ist nicht ganz korrekt. Diese Dinge sind jetzt in die Effektbibliotheken übernommen worden und werden jetzt nicht mehr als exklusive Features beworben.
 
Zurück