News Starfield-Update 1.8.86: Nvidia DLSS 3.5 mit Frame Generation ist gelandet und AMD FSR 3 steht in den Sternen

Kann sein wer aber ein Triple SLI System führt dem ist eh nicht zu helfen ich war schon mit Crossfire überfordert. ^^
Ich rede Nvidia nicht gut es geht einfach darum das Nvidia AMD immer zwei Schritte voraus ist und das nicht seit heute.

Das letzte Beispiel für den Vorsprung ist Starfield die Marke wird mit AMD beworben und die groß angekündigten Neuerungen fehlen.

Jetzt suchen Leute ausreden warum auch immer um AMD gut darzustellen solange Leute diese Vorgehensweise nicht kritisieren wird sind nichts ändern.

lg
Ich hab's im thread zu dem Spiel schon geschrieben... AMD hat zu der Zusammenarbeit genau ein Video gemacht um diese zu bewerben und da ging es um die Tatsache, dass sie dem Studio Threadrippersysteme gestellt haben. CPU und nicht GPU. Alles andere ist nur in den Foren entstanden. Erst kurz vor Release hat man was von GPU-features gehört.
 
Ich hab's im thread zu dem Spiel schon geschrieben... AMD hat zu der Zusammenarbeit genau ein Video gemacht um diese zu bewerben und da ging es um die Tatsache, dass sie dem Studio Threadrippersysteme gestellt haben. CPU und nicht GPU. Alles andere ist nur in den Foren entstanden. Erst kurz vor Release hat man was von GPU-features gehört.
Alles klar. jetzt ergibt alles einen Sinn. Das wusste ich echt nicht, danke für die Aufklärung.

lg
 
Doch,
ich hatte in IoA FG+AFMF+AL = on. (die 6800 hat eeh kein AL+)

Ob dann AL die Input+Framebearbeitung von Mouse+CPU+GPU zum Moni noch etwas harmonisiert, so das man
subjektiv weniger InputLag spürt, ... wäre zumindestens das Ziel.

Das ich mit AMD nicht 165fps Vsync haben will versteht sich von Alleine.(eingestellt 81/162fps per RTSS)
Natürlich will ich Triplebuffer vermeiden. 2x Buffer weniger ist schon spürbar.
Dafür wurde schließlich Freesync eingeführt.
Selbst wenn die Anzeige der Frametimes im AFMF die komischen Sprünge anzeigt bleibt der Graph für das
FrameGenLag nahezu konstant.

btw.
Die Smoothness von FSR2/3 auf NV-Grakas kann ich nicht einschätzen, aber man weiss zumindestens, das AMD
wesentlich besser mit FP16 umgehen kann als NV, wo dafür mehr FP32-Leistung geopfert werden muss.
Wenn also Jemand mit NV-Graka nicht ganz so smooth unterwegs ist, kanns auch am Einbruch bei der weggenommenen
FP32-Leistung liegen, ... falls das Game schon am Anschlag läuft.
Bei Ampere käme noch dazu, das separate INT-Einheiten fehlen, die ebenso durch FP32 ersetzt werden müssen.
Infolgedessen müsste rein von den TFLOPS her der Unterschied auch irgendwann mal im Spiel@FSR2/3 auffallen,
sobald alle INT+FP16+FP32-Units am Anschlag laufen.
(NV kann nur bei OCL-Kram mittels Tensor mehr FP16 nutzen, aber nicht in Games@FSR2)
 

Anhänge

  • IoA-Profil.jpg
    IoA-Profil.jpg
    136 KB · Aufrufe: 1
  • 6800 vs 3070.JPG
    6800 vs 3070.JPG
    260,2 KB · Aufrufe: 1
Zuletzt bearbeitet:
Bitte was?
Es ging darum, dass FG ein sehr subjektives Feature ist.


Vielleicht wird es irgendwann weniger subjektiv schlecht sein, aber davon ist es noch weit entfernt.
Jetzt muss ich erst nochmal nachhaken... Du redest auch hier gerade nur von FG? Bin ich auch irgendwo falsch abgebogen ;)
Du übersiehst da etwas , keine Konkurrenz, ist nicht das gleiche wie kein konkurrierendes Produkt, in einem einzelnen Leistungsbereich.
So lange es Konkurrenz gibt, der man auch größeres zutraut, muss man liefern.

Und AMD hatte auch zu Maxwell/Pascal passende Produkte. Nur an die Spitze kam AMD praktisch Nie und wenn dann nur kurz, das war unter ATI auch nicht anders. Das Bild was wir heute sehen das AMD immer den 2ten Rang bekleidet ist eigentlich Standard und war nur selten anders. Z.b. zu Rdna1 als AMD entschloss nur maximal eine rx5700xt zu liefern. Was ich finde ein großer Fehler war.
Bei Maxwell brauchte Nvidia nur noch die Mittelklasse Chips um alles von AMD in Schach zu halten. Also Maxwell ist ein schlechtes Beispiel.

Wenn Nvidia den kleineren Chips ein breiteres SI spendieren würde, dann würden auch aktuell wieder die kleineren Chips reichen. Zumindest wenn man RT mit bewertet.
Das was wir heute haben ist nicht nur Konkurrenz im Hardware Bereich sondern seid rtx auch im Software Bereich.
Das stimmt wohl.
AMD hat es gegenüber Nvidia nicht leicht. Es gibt viel Konkurrenz mit einem höheren Budget, auch Apple ist ein entsprechender Konkurrent seid dem sie auch im Mainstream Bereich aktiver sind. Und dafür schlägt sich AMD gut.
Da gehe ich absolut mit.
Und AMD würde einen Riesen Fehler machen einen Bereich davon Aufzugeben. Denn wenn man raus ist, kommt man nicht mehr so schnell rein. Selbst wenn es nur der 2te Platz ist, im obersten Segment, alles andere darunter ist geschlagen. Preis\leistung.
Auch darf man nicht vergessen, das 20% von einem Kuchen nicht nichts ist. Ich hoffe ja, jetzt wo AMD mit den CPUs seit Ryzen 5000 über Ryzen 7000 doch erstmal auf einem sehr guten soliden Weg ist, das man jetzt nur nächsten Gen etwas mehr Geld in die Entwicklung pumpen konnte und der RT Sprung deutlicher wird.
Für 1 rtx4090 kann ich momentan 2 rx7900xtx kaufen
Dafür bekommst du ja auch die doppelte RT Leistung, wenn wir über PT reden sogar noch deutlich mehr. Von daher, ist das nicht ungerechtfertigt.

Dennoch bietet die 7900XTX je nach Kundenwunsch halt auch ein super Paket. Wenn ich jetzt RT nur als gimmick sehe und mir sage, im Zweifel dann halt ohne. Dann ist die 7900XXT sehr stark.
 
Zuletzt bearbeitet:
Jetzt muss ich erst nochmal nachhaken... Du redest auch hier gerade nur von FG? Bin ich auch irgendwo falsch abgebogen ;)

Es ging um die fake Frames, egal ob von AMD oder Nvidia. Genau das hab ich am Anfang zitiert, keine Ahnung um was es dir ging.
Es ist vollkommen subjektiv, ob das ein Spiel "hübscher und flüssiger" macht.
 
Ich glaube viel eher das Bethesda das Problem ist und nicht AMD. Selbst auf der Liste angekündigter spiele mit FSR3 stand Starfield nicht drauf.
Anhang anzeigen 1444174
Warum auch immer.

Ich könnte mir aber vorstellen das sie noch eine Lösung für Antilag+ suchen, welches ja erstmal aus dem Treiber entfernt wurde. AFMF funktioniert ja auch ziemlich gut bei Starfield mit dem preview Treiber.

Glaub eher an AMD. Selbst CDPR die ja recht schnell sind neue Technologien in Cyberpunk 2077 zu implementieren, sagen, dass das FSR3 Update noch länger braucht für CP2077.
 
Es ging um die fake Frames, egal ob von AMD oder Nvidia. Genau das hab ich am Anfang zitiert, keine Ahnung um was es dir ging.
Es ist vollkommen subjektiv, ob das ein Spiel "hübscher und flüssiger" macht.
Hübscher sicher subjektiv, aber flüssiger ist halt nicht subjektiv.

Aber sorry, bin irgendwo falsch abgebogen und hatte bei den Zitaten etwas durch einander gebracht.

Man kann aber FMF und FG auch mit zu gute halten, das es durch diese Techniken hübscher werden kann, weil so der Raum für mehr RT zum Beispiel geschaffen wird.

Das eine bessere Verschattung aber besser aussieht, kann man nicht glaubhaft anzweifeln. Genauso eine bessere globale Beleuchtung usw.

Das kann sein, das man anfangs der Meinung ist, das ist nicht hübscher, aber sicher besser im Sinne einer glaubhafteren Grafik.

Was jetzt zwar auch nicht für jedes Spiel wichtig ist, aber die Grafikbomben mit jeder Grafik die an die Realität angelehnt ist schon.
 
Ich hab's im thread zu dem Spiel schon geschrieben... AMD hat zu der Zusammenarbeit genau ein Video gemacht um diese zu bewerben und da ging es um die Tatsache, dass sie dem Studio Threadrippersysteme gestellt haben. CPU und nicht GPU. Alles andere ist nur in den Foren entstanden. Erst kurz vor Release hat man was von GPU-features gehört.
Ja und nein. Es ging darum, dass fast alle AMD sponsored Spiele kein DLSS boten (Ausnahme bildeten hier nur die Spiele mit Sony als Publisher). Deshalb ging man davon aus, dass AMD den Studios das Einbinden von DLSS untersagte.
Dies wurde auch durch DF bestätigt, allerdings nicht für Starfield, sondern für 3 andere Spiele.
Es lag halt nahe, dass es bei Starfield auch so ist und, ob es so war, wissen wir heute immer noch nicht. Was hinter geschlossenen Türen passiert, kriegt hier niemand mit.

Nach dem Shitstorm dauerte es mehrere Monate, bis AMD sich mal dazu äußerte und genau zum gleichen Zeitpunkt gab es z.B. bei Avatar (AMD sponsored) die Ankündigung, dass DLSS implementiert wird. Hat natürlich nichts mit nichts zutun ;)
 
Die Bildqualität leidet.
Und Bildqualität stelle ich über alle anderen Einstellungen.
Zudem bin ich äußerst sensibel, was Schlieren, Ghosting, Artefakte usw. angeht.
Somit ist auch "flüssiger" subjektiv, wenn mich diese Fehler irritieren.
Kann ich nachvollziehen, halte ich aber für nicht ganz aktuell. Auch du kannst gerne mal bei mir zuhause vorbei kommen und dann können wir zusammen FG in Alan Wake 2 ausprobieren und du sagst mir wann du wo, welche Fehler gesehen hast.

Gibt auch Kaffee und Kuchen dazu, oder falls bevorzugt, Tee und Gebäck, oder Bier und Schnitzel ;)
Meine ich ganz ehrlich!
 
Kann ich nachvollziehen, halte ich aber für nicht ganz aktuell. Auch du kannst gerne mal bei mir zuhause vorbei kommen und dann können wir zusammen FG in Alan Wake 2 ausprobieren und du sagst mir wann du wo, welche Fehler gesehen hast.

Gibt auch Kaffee und Kuchen dazu, oder falls bevorzugt, Tee und Gebäck, oder Bier und Schnitzel ;)
Meine ich ganz ehrlich!

Ich halte es da ganz wie Bender von Futurama, Black Jack und Nutten! :lol:
 
Zurück