News AMD FSR 3: Frame-Generation-Mods beschleunigen Witcher 3 und Starfield deutlich

Darauf ist doch deine ganze Argumentation aufgebaut.
Nvidia soll ihre Entwicklungen die Jahre! vor nicht immer vergleichbaren von AMD auf dem Markt sind einfach mit den Konkurrenten teilen, damit diese die Lorbeeren einheimsen ohne etwas dafür zu tun.
Entwicklungszeit, Geld und Risiko einfach ohne das mit einem besseren Angebot wieder hereinzuholen dem Konkurrenten vor die Füße legen.
Das ist im Prinzip deine Sicht der Dinge und die kann ich nicht teilen, da dies hanebüchen ist und damit auch die Kritik an neuen und konkurrenzlosen proprietären Features.

Die Belege aus ´99 und 2006, die ich Dir geliefert habe, wer es entwickelt hat,
entweder nicht gelesen, nicht verstanden, nicht verstehen wollen.

Das hat mit DLSS nichts unmittelbar zu tun.:ka:
Grundlagenforschung gibt es auch frei erhältlich an Unis und natürlich hat Nvidia nicht Computergrafik an sich erfunden.
Irgendwie bist du weit weg vom eigentlichen Thema.

Nein, irgendwie verstehst Du stringente Ereignisabfolgen und Zusammenhänge nicht.
Ich kann hochkomplexe Themen nicht mit ausgewählten und begrenzten
Stückchenbetrachtungen so verfälschen, dass sie dann in Dein Konzept passen, sorry.

Nicht GRUNDLAGENFORSCHUNG, NV war der Lieferant der Hardware, die von Quantum3D konzipiert wurde.
Die von NV haben nicht einmal kapiert, was die da in Silizium gießen sollten.
Stand damals Quantum3D/AEGIS und NV ca. 1/4 Jahrhundert Wissensunterschied.

Leider scheinst Du auch nicht verstanden zu haben, was DLSS (eigentlich DLSSAA) ist und was es tut....

Fangen wir mit dem SS (Super Sampling) vom DLSS an:

DLSS 1.0 Spatial Anti Aliasing + Upsampling
DLSS 2.0 Temporal Anti Aliasing + Upsampling (TAAU)
DLSS 3.0 Motion Interpolation

DLSS (Super Sampling + AA) ist also das genau das, was Quantum3D ins Leben gerufen hat,
Anti Aliasing, Upsampling und Interpolation.

Jetzt kommt Euer DL (DEEP LEARNING) von NVidia :lol:

Das Einzige was NV macht, ist Spiele zu nehmen,
die durch einen größeren Rechner laufen und die
OPTIMALEN SHADER für den Code zusammenstellen
zu lassen. Damit die einzelnen PIPELINES in der
optimalen Auslastung sind :lol:
Die optimierten Shader integrieren die dann in die Treiber und in die Spielengines... :lol:

Wahnsinn, nehmen Code und schaffen es den mittels einer Riesenmaschine zu sortieren!!!!!

:lol::lol::lol::lol::lol::lol::lol::lol::lol::lol::lol::lol::lol::lol:

Verstehen wahrscheinlich nicht mal dern Source und die Funktionsweise,
aber hey, sortieren können die.....
Bester Sortierer der Welt. Deutsche Post kann von denen lernen....
 
Zuletzt bearbeitet:
quelle?
evga und gigabyte spuckt google aus...

Quelle: https://videocardz.com/newz/amazons-new-world-game-is-bricking-geforce-rtx-3090-graphics-cards

1703889767521.png


Am häufigsten war aber schon ein EVGA 3090 Modell betroffen. Trotzdem hat das 1000+ FPS Menü auch andere Karten "bricked".
 
Die Belege aus ´99 und 2006, die ich Dir geliefert habe, wer es entwickelt hat,
entweder nicht gelesen, nicht verstanden, nicht verstehen wollen.
Du hast gar keine Belege bezüglich DLSS geliefert. 😅

Dann hat eben XY Antialiasing erfunden, ändert nichts daran, dass es DLSS vor 25 Jahren nicht gab und deine Analyse komplett unsinnig ist.

Wovon du zudem sprichst, ist DLSS1.
 
Quelle: https://videocardz.com/newz/amazons-new-world-game-is-bricking-geforce-rtx-3090-graphics-cards

Anhang anzeigen 1447572

Am häufigsten war aber schon ein EVGA 3090 Modell betroffen. Trotzdem hat das 1000+ FPS Menü auch andere Karten "bricked".
"shutdown" =! broken. ich rede von gebratenen karten wegen einer kaputten lötstelle. jayztwocent berichtet auch "kauft euch alle die neue pcie stromadapter kabel" "cablemod ruft alle adapter zurück"

es fehlt bei den amd-karten & anderen nvidia boardpartner die news das die BRICKEN und nicht runterfahren.
 
"shutdown" =! broken. ich rede von gebratenen karten wegen einer kaputten lötstelle. jayztwocent berichtet auch "kauft euch alle die neue pcie stromadapter kabel" "cablemod ruft alle adapter zurück"

es fehlt bei den amd-karten & anderen nvidia boardpartner die news das die BRICKEN und nicht runterfahren.

Da gibt es auch Reddit Beiträge zu, es sind auch AMD Karten durch New World abgeraucht. Und auch andere Nvidia Karten als die 3090. Das ist auch nicht das erste Mal dass ein unlimitiertes Menü sowas fabriziert. Ich bin seit 1995 im PC Gaming dabei und habe das schon mehrfach erlebt.
 
Da gibt es auch Reddit Beiträge zu, es sind auch AMD Karten durch New World abgeraucht. Und auch andere Nvidia Karten als die 3090. Das ist auch nicht das erste Mal dass ein unlimitiertes Menü sowas fabriziert. Ich bin seit 1995 im PC Gaming dabei und habe das schon mehrfach erlebt.
höhö ob eine alte karte jetzt wegen "unlimited" fps abraucht oder sie einfach so defekt geht is schwer zu sagen. ich mein ja das die hersteller es selbst bestätigt haben. das einzige was ich merk is das spulenfiepen wenn ich mit den fps limits rumgespielt hab. egal ob nvidia oder amd.

meine alte hd4870 die ich hatte ist im windows desktop abgeraucht. hat "pstsptaspt" gemacht und puff. gibt doch paar youtuber wie northridgefix die karten reparieren, neulich nen video gesehen wie ein käfer halb unterm package war. oder das die 4090 von boardpartnern so schwer sind das die pcb's reißen und nur paar leute bock drauf haben das zu fixen. beim ersteren "könn" die hersteller nichts, beim zweiteren halt herstellerfehler. deswegen hat software die der endanwender nutzt nichts zu tun. sonst würde ja reddit voll sein das furmark die karten schrottet der reihe nach.
 
Das glaube ich bei dir allerdings auch, so oft wie du plötzlich verschiedene sachen durcheinander würfelst nur um "recht zu haben",
Ich habe nie verschiedene Sachen durcheinandergewürfelt, unwahre Behauptung.
anstatt mal verünftig darauf einzugehen was ich geschrieben habe ohne gesagtes völlig wirr aus dem Zusammenhang zu reißen.
Passt aber wohl nicht ins Weltbild.
Auf was soll ich denn eingehen? Dass DLSS kein Treiberfeature ist? Natürlich ist es per se kein Treiberfeature, es muss vorerst in das Spiel integriert werden. Deshalb muss der Treiber dennoch die Matrixeinheiten (die Radeons nicht haben) von Ada Lovelace entsprechend damit füttern, deshalb schrieb ich auch folgendes:

"Natürlich ist das auf der Ebene des Treibers genauso ein "Treiberfeature".

Treiberfeature in Anführungsstrichen, weil du das als Ausrede dafür benutzt hast, dass die Kritik, AFMF sei proprietär nicht greife, was einfach Blödsinn ist.
AMD ist nicht gezwungen den Quellcode von AFMF, um die Bilder ohne Bewegungsvektoren zu verdoppeln, closed source nur in ihrem Treiber-Software-Stack anzubieten. Directx12, Vulkan und Co haben mit deren low level Unterstützung genauso Zugriff auf die Hardware um das umzusetzen.

Wenn AMD wollte könnten sie den Quellcode auf Github stellen.
Unabhängig davon, dass AFMF der letzte Schrott ist, verglichen mit FMF in Avatar.
Nein, aber darum ging es nicht (s.u.)
Natürlich geht es genau darum. Du möchtest mir eine Aussage unterschieben, die ich nicht getätigt habe, um meine Autorität zu untergraben.
Es war DEINE Argumentation die ich auf FSR umgemüntzt habe um dir zu zeigen, dass deine Argumentation quatsch ist.
Ja, du hast etwas "umgemünzt", sprich manipuliert, danke für die Klarstellung.
p.s. deine Signatur "Jensen Leder-Liebling" merkt man in jedem Wort was du schreibst.
Komisch, mich hat dein Profilbild gar nicht interessiert. Wenn du mir jetzt final noch den "Fanboyism" unterstellen willst, entwertet das deinen Beitrag.
Versuch mal weniger Fanboytum und versuche dich an Objektivität.
Ich versuche objektiv zu bleiben. Wenn mir jemand erklärt, dass solange die Software alleine im Treiber-Stack vorhanden ist, sei es in Ordnung proprietäre Features zu bringen, aber nicht solange etwas im Spiel integriert werden muss, um es letztendlich auf Hardware Ebene mit Matrixeinheiten anzusprechen, ist das für mich ein klarer Widerspruch. Ich vertrete nach wie vor die Meinung, dass solange Funktionen wie AFMF oder FG bzw. DLSS entwickelt werden, es dazu gehören muss die Eigenentwicklung vor der Konkurrenz schützen zu können.
Egal ob es dann man gegen Nvidia geht, das stärkt aber die Glaubwürdigkeit deiner Worte.
Wie Glaubwürdig bist du schon, wenn du mir wegen eines Späßchens in der Signatur "Fanboytom" unterstellst?
Genau für Leute wie dich, steht das dort drin.
 
Zuletzt bearbeitet:
Ich habe nie verschiedene Sachen durcheinandergewürfelt, unwahre Behauptung.
Klar, stimmt:D

Auf was soll ich denn eingehen? Dass DLSS kein Treiberfeature ist? Natürlich ist es per se kein Treiberfeature, es muss vorerst in das Spiel integriert werden. Deshalb muss der Treiber dennoch die Matrixeinheiten (die Radeons nicht haben) von Ada Lovelace entsprechend damit füttern, deshalb schrieb ich auch folgendes:

"Natürlich ist das auf der Ebene des Treibers genauso ein "Treiberfeature".

Treiberfeature in Anführungsstrichen, weil du das als Ausrede dafür benutzt hast, dass die Kritik, AFMF sei proprietär nicht greife, was einfach Blödsinn ist.
AMD ist nicht gezwungen den Quellcode von AFMF, um die Bilder ohne Bewegungsvektoren zu verdoppeln, closed source nur in ihrem Treiber-Software-Stack anzubieten. Directx12, Vulkan und Co haben mit deren low level Unterstützung genauso Zugriff auf die Hardware um das umzusetzen.
Exakt das ist das Problem deiner "Argumentationen". Du wiederholst die Frage die ich gestellt habe und beantwortest sie dann mit einem der wenigen Punkte zu denen du was sagen kannst - und übrigens bereits gesagt hast ohne darauf einzugehen worauf ich eigentlich hinaus wollte. Dieses "Argument" nennt man Ignoratio Elenchi.
Ohne Wertung: Das wird sehr gerne von Trump benutzt.


Wenn AMD wollte könnten sie den Quellcode auf Github stellen.
Manchmal Frage ich mich echt ob du überhaupt ließt was geschrieben wird...

Unabhängig davon, dass AFMF der letzte Schrott ist, verglichen mit FMF in Avatar.
Kannst du wissen, weil du es mit deiner 4090 getestet hast?
Um es mal wie du zu schreiben:
DLSS1 ist genauso schrott.

DLSS wurde dann besser. Merkste selbst oder?
AFMF ist eine Beta, DLSS1 war keine. Hab ich deshalb damals rumgehatet, es sei schrott wie du es bei bei AFMF machst? Nein. Warum? Weil man nicht weiß was die Zukunft bringt.

Natürlich geht es genau darum. Du möchtest mir eine Aussage unterschieben, die ich nicht getätigt habe, um meine Autorität zu untergraben.
Ich möchte dir garnichts unterschieben, nur dass du mal ohne implizierende Aussagen oder Ignoratio Elenchi Argumenten auf meine Punkte eingehst.

Ja, du hast etwas "umgemünzt", sprich manipuliert, danke für die Klarstellung.
Ich sage doch, du verstehst es nichtmal und bist in deiner Bubble gefangen. Siehe meinen ersten Post.

Ich versuche objektiv zu bleiben.
Klar, der war gut.
Ist ja nicht so als bekämst du in enorm vielen, beinahe allen posts von dir wo du über NV als Gottgleiches Unternehmen schreibst, massiv Gegenwind.

Wie Glaubwürdig bist du schon, wenn du mir wegen eines Späßchens in der Signatur "Fanboytom" unterstellst?
Da bin ich nicht der einzige. Du fällst regelmäßig mit Fanboytum auf.
Warum denkst du lassen die meisten Personen das Schreiben mit dir nach einiger Zeit bleiben? Es macht einfach keinen Sinn gegen Fanboys zu argumentieren.

Ich sags mal so, ich habe selbst eine NV Karte, dennoch argumentiere ich im Gegensatz zu dir nicht ausschließlich für NV, sondern auchmal für AMD oder - gort behüte - kritisiere NV.

Das ist Objektivität. Zu 95% für NV zu argumentieren ist nicht Objektiv. Sich immer nur rauszusuchen was NV gut kann ohne die massiven Schattenseiten zu beleuchten ist nicht Objektiv. Zu 95% gegen AMD zu argumentieren und denen fast alles abzusprechen ist nicht Objektiv.

Aber ich mache es wie meine "Vorredner" aus den dutzenden anderen Threads: ich gebe auf. Es macht keinen Sinn.

Danke trotzdem für den Diskurs.
 
und übrigens bereits gesagt hast ohne darauf einzugehen worauf ich eigentlich hinaus wollte.
Dann bitte ich dich das zu konkretisieren. Was ist dein Punkt? Auf was möchtest du hinaus?
Ohne Wertung: Das wird sehr gerne von Trump benutzt.
Also bin ich jetzt schon "Fanboy" und "Donald Trump", natürlich "ohne Wertung", was kommt als Nächtes?^^
Wirklich sehr sachlich und themenbezogen von dir.=)
Kannst du wissen, weil du es mit deiner 4090 getestet hast?
Erstens kann ich Tests lesen, zweitens arbeite ich seit Jahren in dem Bereich und habe Zugriff auf quasi alle Karten, sofern ich dafür Zeit finde, ergo ja, ich habe AFMF auch mit einer 7900XTX getestet.
DLSS1 ist genauso schrott.
Gemessen an DLSS2 oder 3? Ja definitiv. Selbst FSR1 war besser als DLSS1.:-)
(...)auf meine Punkte eingehst.
Ich bin auf so ziemlich alles eingegangen, was in deinem Posting steht, deshalb oben die Nachfrage.
Ich sags mal so, ich habe selbst eine NV Karte, dennoch argumentiere ich im Gegensatz zu dir nicht ausschließlich für NV, sondern auchmal für AMD oder - gort behüte - kritisiere NV.
Ich kritisiere weder Nvidia noch AMD dafür, dass sie ihre Entwicklungen vor der Konkurrenz schützen.
Ich habe kein Problem mit proprietären Technologien, da sie in der Regel den ganzen Markt nach vorne bringen, das hat man die letzten Jahre einfach mit G-sync, DLSS, RTX, Frame Generation und Co gesehen.
Zu 95% gegen AMD zu argumentieren und denen fast alles abzusprechen ist nicht Objektiv.
Nur weil ich nichts gegen proprietäre Entwicklung habe, schlage ich mich auf die Seite von Nvidia? Quatsch.
Nvidia hat momentan die besseren Grafikkarten, das bessere Upscaling, das bessere Featureset und auch die bessere Effizienz. Auf der anderen Seite eben einen knappen Speicher, der kritisiere ich sehr wohl, aber hat mit dieser Diskussion überhaupt nichts zu tun.
 
DLSS
Du hast gar keine Belege bezüglich DLSS geliefert. 😅

Dann hat eben XY Antialiasing erfunden, ändert nichts daran, dass es DLSS vor 25 Jahren nicht gab und deine Analyse komplett unsinnig ist.

Wovon du zudem sprichst, ist DLSS1.

DLSS besteht aus 3 Techniken: Upscaling, Anti Aliasing + Interpolation

Das habe ich versucht Dir jetzt in mindestens 4 Posts zu erklären.
Ich habe Dir sogar die "Evolution" von DLSS 1 zu DLSS 3 aufgezeigt.
Aber Du verstehst offensichtlich nicht einmal den Begriff DLSS
oder kannst diesen nicht richtig einordnen.

Zu sagen XY hat es erfunden, aber was NV macht, das ist die Leistung,
ist genauso als würde ich behaupten, Lewis Hamilton hat das Auto erfunden,
der Nicolaus August Otto hat nur Vorarbeit geleistet.

Das Einzige was NV jetzt noch macht, ist Codeoptimierung und auch
das macht NV seit 20 Jahren, aber mehr um in Benchmarks zu schummeln.

CODE kann nämlich keine HARDWARE upgraden, das ist theoretisch schon unmöglich.

Das Einzige was DL (Deep Learning) macht ist CODEOPTIMIERUNG.

Was anderes geht in Software nicht.

Aber bitte, NV hat nicht nur Algorithmen entwickelt, die Hardware alleine
konzipiert und Renderingtechniken "erfunden", NV ist auch der Erfinder von Mathematik....
 
höhö ob eine alte karte jetzt wegen "unlimited" fps abraucht oder sie einfach so defekt geht is schwer zu sagen. ich mein ja das die hersteller es selbst bestätigt haben. das einzige was ich merk is das spulenfiepen wenn ich mit den fps limits rumgespielt hab. egal ob nvidia oder amd.

https://www.google.com/search?client=firefox-b-d&q=1000+fps+menu#ip=1

Es kann halt passieren dass die Karte dadurch abraucht. Und das ist wie gesagt schon immer ein Problem gewesen, siehe Google Link, da gibt es zig andere Spiele (auch sehr alte) in denen das passiert ist.
 
Hier Mal ein Bericht der genau das belegt, was ich bei Avatar schon gesagt hab:

"What's more interesting to me is the way the game feels with FSR 3 frame generation. Take the cards at the bottom of the chart, like the RX 7600 and below. Those all averaged 34–39 fps, which would mean a base framerate of 17–20 fps. With Nvidia's DLSS 3 frame generation, that always feels very sluggish in practice — a game will look like it's running at more than 30 fps, but will feel like it's running at less than 20 fps.

I didn't notice the same issue with FSR 3. In fact, I'd go so far as to say Avatar remained completely playable using these settings (1440p ultra with FSR 3 upscaling and framegen), where DLSS 3 games that I've played really need to be hitting 60 fps or more to feel okay. Which, honestly, doesn't make much sense to me.

FSR 3 with frame generation is still interpolating intermediate frames, which should add latency and shouldn't feel as smooth as the doubled fps would suggest. That's what I experienced with Forspoken and Immortals of Aveum as well. But whatever's going on in Avatar simply doesn't follow that same pattern, at least not in the testing and playing that I've done."


Wer kein Englisch kann:

Was mich mehr interessiert, ist das Gefühl, das das Spiel mit der FSR 3 Frame-Generierung vermittelt. Nehmen Sie die Karten am unteren Ende des Diagramms, wie die RX 7600 und darunter. Diese haben alle durchschnittlich 34–39 fps erreicht, was eine Basis-Bildrate von 17–20 fps bedeuten würde. Mit Nvidias DLSS 3 Frame-Generierung fühlt sich das immer sehr träge an — ein Spiel sieht so aus, als würde es mit mehr als 30 fps laufen, fühlt sich aber an, als würde es mit weniger als 20 fps laufen.

Ich habe das gleiche Problem mit FSR 3 nicht bemerkt. Tatsächlich würde ich sogar so weit gehen zu sagen, dass Avatar mit diesen Einstellungen (1440p ultra mit FSR 3 Upscaling und Framegen) vollständig spielbar blieb, während DLSS 3 Spiele, die ich gespielt habe, wirklich 60 fps oder mehr erreichen müssen, um sich in Ordnung zu fühlen. Was ehrlich gesagt für mich wenig Sinn macht.

FSR 3 mit Frame-Generierung interpoliert immer noch Zwischenframes, was Latenz hinzufügen und nicht so flüssig sein sollte, wie die verdoppelte fps vermuten lässt. Das ist auch das, was ich mit Forspoken und Immortals of Aveum erlebt habe. Aber was auch immer in Avatar passiert, folgt einfach nicht dem gleichen Muster, zumindest nicht in den Tests und Spielen, die ich gemacht habe.

Da kann der mit dem Licht spielt auch gerne lachen, ist halt so. ^^
 
Zuletzt bearbeitet:
a game will look like it's running at more than 30 fps, but will feel like it's running at less than 20 fps.
Wie schon ein anderer User hier geschrieben hat - FG beschleunigt eben nicht das Spiel, sondern nur die FPS. Und je niedriger die Ausgangs-FPS, um so mehr fällt dieser "Cheat" halt auf. Das FSR3 das besser hinbekommt, finde ich interessant.
 
@JackTheHero diese ewige Diskussion über die Latenz bei FG/FMF ist so überflüssig, weil nicht relevant.
Es fällt bei keinem einzigen Spiel wirklich ins Gewicht. Alan Wake bspw. ist kein schneller Shooter, bei dem jede Millisekunde zählt. Ob du jetzt die Latenz von 30 FPS oder 20 FPS hast ist gehoppst wie gesprungen und Spiele, bei denen die Latenz wichtig ist, laufen sowieso schon mit einer ordentlichen FPS Basis (CoD, BF, CS), weshalb es dort nicht auffällt.
 
Avatar ist da echt interessant. Ich hab ja mehrfach gesagt, dass ich damit FPS von 20-30 aufs doppelte gebracht hab und es fühlt sich auch so an. Schon geil.
 
Endlich ein Video was ausspricht was ich denke:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zurück