Sinnloses Nvidia Gelaber

Du verstehst es offensichtlich mal wieder nicht.
Wenn Deep Learning nicht für gute DLSS Qualität und Performance nötig ist, hat Nvidia das alte Hammer Problem.
Wenn man nur einen Hammer besitzt, wird jedes Problem zu einem Nagel.

Nvidia hat sich sehr auf KI versteift und wirft die Lösung mal eben auf jedes Problem.
Ob es die effizienteste bzw. beste Lösung ist, scheint aktuell niemanden zu kümmern - ist immerhin "Deep Learning" und "AI" als Buzzword mit drin.

Das ist doch zu Genüge getestet worden, die BESTE Bildrekonstruktion bietet DLSS. Da hilft auch kein "ja aber FSR 2.1 läuft überall und ist besser als DLSS 1" - das ist hier nicht relevant.
 
Hier geht es nicht um "ist genau so gut", sondern um den technischen Aspekt. AMD hat keinen Deep Learning Part in seiner Variante, weil es ansonsten vermutlich nicht schnell genug wäre und genau dieser DL Part fehlt, um DLSS das Wasser reichen zu können.
Nvidia hat aber einen und dieser setzt nun mal dedizierte Hardware voraus.
Ob es der DL part ist würde ich mal vorsichtig hinterfragen. DL ist vor allem nice weil man das ganze automatisiert lernen lassen kann. Es bietet einige Vorteile, aber vieles lässt sich auch ohne NN problemlos nachbilden. AMD fehlt in diesem Kontext (NN) vermutlich massiv knowhow weshalb man bei den klassischen Ansätzen wesentlich effektiver und schneller ans Ziel kommt.
Dass Nvidia aber zwingend dedizierte HW benötigt halte ich für ein Märchen. Das ausführen solcher Algorithmen ist bei GPUs absurd schnell auch ohne dedizierte Einheiten. Und das Control DLSS lief anfangs noch auf Shader.
 
Amd schafft es auch ohne.. mmh ffsr2.0 def besser als dlss 1.0
Kommt mir eher vor als wenn Nvidia wie bei gsync einfach sinnlos Leute an Ihr Ökosystem binden wollen
Wir sind aber bei DLSS2.x und nicht bei 1.x. Wieso vergleichst du FSR2 mit DLSS1?
FSR2 kann DLSS2 nicht die Stirn bieten, weil FSR2 keinen DL Aspekt hat.
Das hatte ich in diesem Thread schon 2x erklärt. Wir drehen uns im Kreis.

Was ist aus User Sicht besser, eine Technik die nur paar % benutzen können oder eine Technik die mind 95% des Ergebnisses schafft und die sicher über 80% der User wenn nicht sogar weit mehr benutzen können
Das kommt auf die Technik an und ist Subjektiv. Ich habe Nvidia Hardware und technisch, sowie optisch ist DLSS2 besser, also bevorzuge ich DLSS2.

Zu SSE, ein Programmier Guide von Intel hat schon 2001 von Verwendung der FPU abgeraten, komisch das Nvidia das 10 Jahre später immer noch so macht
Und kaum wurde es aufgedeckt.. schwups im paar Wochen wurde es geändert
Wenn du jetzt Grafikkarten entwickeln würdest und Ageia aufgekauft hättest, dessen Software schon auf CPUs funktionierte, hättest du dann zusätzliche Arbeit und Geld investiert, um es auf CPUs noch schneller laufen zu lassen oder dich um deinen Grakas gekümmert?
Nochmal: Hat Nvidia Physx beschnitten oder haben sie sich nicht um den CPU Part gekümmert? Beides geht nicht und wäre ein Widerspruch in sich.

Boa was ist das für ein bescheuerten Argument..
Du sagst man braucht unbedingt Deep Learning...
Ich habe nie behauptet, dass man irgendwas braucht, aber mit DL Aspekt sieht es nun mal besser aus und das ist Fakt.

Komisch das FSR 2.0 um einiges bessere Ergebnisse liefert als dlss 1.0.. Das Ohne Speizielle Cores und Deep Learnung und das auch noch auf 10 Jahre alten Grafikkarten... Ja für was brauch ich dann denn das Deep Learning unbedingt?
Warum sehe ich das nicht?
Und DLSS2 liefert bessere Ergebnisse als FSR2 und nun?

Darum geht es nicht...
Es geht um einen Nachweis, dass Deep Learning für die Qualität einer DLSS Wiederherstellung nötig ist.
Ja ist es :klatsch:
DL rekonstruiert das Bild und stellt feine Objekte wieder her, die bei einem reinen Upscaler verschwinden würden. Das wurde doch zu genüge von PCGH und CB getestet?!
Hast du auch nur die leiseste Ahnung, wie DLSS und FSR funktionieren?

Das geht echt auf keine Kuhhaut. Sämtliche Seiten haben DLSS1 und 2 ausführlich getestet und detailiert erklärt, wie es funktioniert.
Jetzt kommt @Khabarak um die Ecke und fragt, ob man zum rekonstruieren der feinen Objekte auch wirklich den DL Part bräuchte...
 
Zuletzt bearbeitet:
Ob es der DL part ist würde ich mal vorsichtig hinterfragen. DL ist vor allem nice weil man das ganze automatisiert lernen lassen kann. Es bietet einige Vorteile, aber vieles lässt sich auch ohne NN problemlos nachbilden. AMD fehlt in diesem Kontext (NN) vermutlich massiv knowhow weshalb man bei den klassischen Ansätzen wesentlich effektiver und schneller ans Ziel kommt.
Dass Nvidia aber zwingend dedizierte HW benötigt halte ich für ein Märchen. Das ausführen solcher Algorithmen ist bei GPUs absurd schnell auch ohne dedizierte Einheiten. Und das Control DLSS lief anfangs noch auf Shader.
Control hatte zu Release noch DLSS 1.0. Das wurde aber nachgebessert auf 2.0 welches nicht mehr über Shader läuft und deutlich bessere Rekonstruktionen geliefert hat.

Ich bin gespannt ob AMD FSR 3.0 zeitnah nachliefern kann, ansonsten sieht es düster aus in allen Spielen die DLSS 3.0 unterstützen.
 
Control hatte zu Release noch DLSS 1.0. Das wurde aber nachgebessert auf 2.0 welches nicht mehr über Shader läuft und deutlich bessere Rekonstruktionen geliefert hat.

Ich bin gespannt ob AMD FSR 3.0 zeitnah nachliefern kann, ansonsten sieht es düster aus in allen Spielen die DLSS 3.0 unterstützen.
Control lief nicht auf 1.0 sondern einer Abstraktion von dem DLSS 2.0 Algorithmus der für den Shader entwickelt wurde. hWU nannte esDLSS 1.9
 
Wir sind aber bei DLSS2.x und nicht bei 1.x. Wieso vergleichst du FSR2 mit DLSS1?
FSR2 kann DLSS2 nicht die Stirn bieten, weil FSR2 keinen DL Aspekt hat.
Das hatte ich in diesem Thread schon 2x erklärt. Wir drehen uns im Kreis.


Das kommt auf die Technik an und ist Subjektiv. Ich habe Nvidia Hardware und technisch, sowie optisch ist DLSS2 besser, also bevorzuge ich DLSS2.


Wenn du jetzt Grafikkarten entwickeln würdest und Ageia aufgekauft hättest, dessen Software schon auf CPUs funktionierte. Hättest du dann zusätzliche Arbeit und Geld investiert, um es auf CPUs noch schneller laufen zu lassen oder dich um deinen Grakas gekümmert?
Nochmal: Hat Nvidia Physx beschnitten oder haben sie sich nicht um den CPU Part gekümmert? Beides geht nicht und wäre ein Widerspruch in sich.


Ich habe nie behauptet, dass man irgendwas braucht, aber mit DL Aspekt sieht es nun mal besser aus und das ist Fakt.


Und DLSS2 liefert bessere Ergebnisse als FSR2 und nun?
Also als dlss 1.0 rauskam hat nvidia behauptet es geht nur auf Ihren Tensor Cores...
Das war def ne Lüge.. Da AMD besseres Ergebniss hinbekommt Ohne die Cores
Dann FSR 2.0 hat so gut wie aufgeholt zu Nvidia ohne Tensor Cores und Deep Leerning
Und FSR 2.1 ist definitiv besser als Dlss 2.0.. Auch das OHNE Tensor Cores und Deep Learning...
Also noch einmal warum soll der Weg von Nvidia der richtige sein den nur ein ganz kleiner Teil der Gamer benutzen kann ausser künstlich die User an Ihre Hardware binden
Siehe Gsync

Was ist besser, quellofen was wirklich jeder benutzen kann bzw. fast jeder was eigentlich genauso gut ist oder etwas was evt einen Tick besser ist aber dafür nur paar % benutzen können und man ist auf einen Hersteller und eine Bestimmte Produktreihe abhängig.

Bin mir sicher mit FSR 2.2 wird Abstand nich viel kleiner..

Also für was brauche ich jetzt die Tensor Cores und Deep Learning, wie man sieht geht es doch auch ohne..
Und wie du selber sagst bei DLLS war das alles bei DLLs 1.0 nicht nötig.. Ist das jetzt von Nvidia keine Kundengängelung wenn die es künstlich auf paar Ihrer eigenen Produkte beschränken
Wie die auch PhysikX künstlich langsamer gemacht haben, einen Schalter im Compiler umlegen und zig Fach schneller
 
Und FSR 2.1 ist definitiv besser als Dlss 2.0.. Auch das OHNE Tensor Cores und Deep Learning...
Bitte was bitte wie? Also wenn dann müsstest Du FSR 2.1 mit DLSS 2.3 vergleichen, und da liegt DLSS weiterhin vorne was Bildrekonstruktion und FPS angeht (wenn auch nur einige wenige).

Also noch einmal warum soll der Weg von Nvidia der richtige sein den nur ein ganz kleiner Teil der Gamer benutzen kann ausser künstlich die User an Ihre Hardware binden
Siehe Gsync
Gsync ist weiterhin das Premium Produkt, Freesync Premium kann da nicht ganz mithalten. Es geht hier weiterhin um die Technik, nicht ob das eine theoretisch besser verfügbar ist. Aktuell gibt es auf jeden Fall mehr Titel die DLSS unterstützen als FSR 2.0.

Was ist besser, quellofen was wirklich jeder benutzen kann bzw. fast jeder was eigentlich genauso gut ist oder etwas was evt einen Tick besser ist aber dafür nur paar % benutzen können und man ist auf einen Hersteller und eine Bestimmte Produktreihe abhängig.
Ich finde das besser was bessere Qualität abliefert. Mir persönlich ist es ziemlich egal ob andere das Nutzen können.

Bin mir sicher mit FSR 2.2 wird Abstand nich viel kleiner..

Also für was brauche ich jetzt die Tensor Cores und Deep Learning, wie man sieht geht es doch auch ohne..
Aber nicht in derselben Qualität. Deine Argumentation... Es geht auch ohne Butter, aber mit schmeckt das Brot halt besser.

Und wie du selber sagst bei DLLS war das alles bei DLLs 1.0 nicht nötig.. Ist das jetzt von Nvidia keine Kundengängelung wenn die es künstlich auf paar Ihrer eigenen Produkte beschränken
Wie die auch PhysikX künstlich langsamer gemacht haben, einen Schalter im Compiler umlegen und zig Fach schneller
Junge Junge, man macht doch nichts künstlich langsamer wenn man etwas NICHT ändert. :lol:
 
Also als dlss 1.0 rauskam hat nvidia behauptet es geht nur auf Ihren Tensor Cores...
Das war def ne Lüge..
Okay und was hat das mit dem Thema zutun? Nichts.

Da AMD besseres Ergebniss hinbekommt Ohne die Cores
AMDs zweite Iteration ist besser als Nvidias erste Iteration, ja.
Aber DLSS2 kann man nicht schlagen, weil der DL Part fehlt. Ist jetzt das 4x, dass ich dir das erkläre.

Dann FSR 2.0 hat so gut wie aufgeholt zu Nvidia ohne Tensor Cores und Deep Leerning
Joa aufgeholt, aber jeglicher Test attestiert DLSS2 ein besseres Bild.

Und FSR 2.1 ist definitiv besser als Dlss 2.0.. Auch das OHNE Tensor Cores und Deep Learning...
Jeglicher Test attestiert DLSS2 ein besseres Bild, ansonsten verlinke mir einen Test von PCGH oder CB, der aufzeigt, dass FSR2 besser ist.

Also noch einmal warum soll der Weg von Nvidia der richtige sein den nur ein ganz kleiner Teil der Gamer benutzen kann ausser künstlich die User an Ihre Hardware binden
Es hat nie jemand behauptet, dass Nvidias Weg der richtige ist. Du fängst an mir Worte in den Mund zu legen.
Nvidias Ansatz ist optisch besser und ich, so wie viele andere können ihn nutzen, also tu ich das auch.
Dementsprechend bevorzuge ich DLSS2.x.

Was ist besser, quellofen was wirklich jeder benutzen kann bzw. fast jeder was eigentlich genauso gut ist oder etwas was evt einen Tick besser ist aber dafür nur paar % benutzen können und man ist auf einen Hersteller und eine Bestimmte Produktreihe abhängig.
Aus Nutzersicht interessiert es mich herzlich wenig, ob etwas Quelloffen ist oder nicht, aber wie gesagt ist das subjektiv.

Also für was brauche ich jetzt die Tensor Cores und Deep Learning, wie man sieht geht es doch auch ohne..
Für eine bessere Bildqualität, zum 3x.

Wie die auch PhysikX künstlich langsamer gemacht haben, einen Schalter im Compiler umlegen und zig Fach schneller
Sie haben nichts aktiv langsamer gemacht. Es war schon so, als Ageia aufgekauft wurde.
Nichts zutun ≠ etwas langsamer zu machen
 
Okay und was hat das mit dem Thema zutun? Nichts.


AMDs zweite Iteration ist besser als Nvidias erste Iteration, ja.
Aber DLSS2 kann man nicht schlagen, weil der DL Part fehlt. Ist jetzt das 4x, dass ich dir das erkläre.


Joa aufgeholt, aber jeglicher Test attestiert DLSS2 ein besseres Bild.


Jeglicher Test attestiert DLSS2 ein besseres Bild, ansonsten verlinke mir einen Test von PCGH oder CB, der aufzeigt, dass FSR2 besser ist.


Es hat nie jemand behauptet, dass Nvidias Weg der richtige ist. Du fängst an mir Worte in den Mund zu legen.
Nvidias Ansatz ist optisch besser und ich, so wie viele andere können ihn nutzen, also tu ich das auch.
Dementsprechend bevorzuge ich DLSS2.x.


Aus Nutzersicht interessiert es mich herzlich wenig, ob etwas Quelloffen ist oder nicht, aber wie gesagt ist das subjektiv.


Für eine bessere Bildqualität, zum 3x.


Sie haben nichts aktiv langsamer gemacht. Es war schon so, als Ageia aufgekauft wurde.
Nichts zutun ≠ etwas langsamer zu machen
1. Natürlich hat es was damit zu tun.. Du sagtest am Anfang allgemein dlss braucht tendor cores

2. https://www.computerbase.de/2022-09...-1-sorgt-unter-anderem-fuer-weniger-ghosting/

Mmh ja das Ergebnis ist ja sowas von viel schlechter.... Klar läuft nur mit super super spezial hardware
Sie haben nichts aktiv langsamer gemacht. Es war schon so, als Ageia aufgekauft wurde.
Nichts zutun ≠ etwas langsamer zu
Hast du ne Quelle zu deiner Behauptung?
Wenn man nach über 10 Jahren nach dem Erscheinen von ssl immer noch die 40 Jahre alte fpu benutzt statt einen Schalter im Compiler umzulegen ist es aus Sicht des User aktiv langsamer zu machen
Jetzt möchte ich mal deine Quelle sehen das der Orginal Quellcode wirklich nur die fpu benutzt hat
Soweit ich weiß war der darauf ausgelegt auf deren Karten zu laufen
 
Zuletzt bearbeitet:
Wir sind aber bei DLSS2.x und nicht bei 1.x. Wieso vergleichst du FSR2 mit DLSS1?
FSR2 kann DLSS2 nicht die Stirn bieten, weil FSR2 keinen DL Aspekt hat.
Das hatte ich in diesem Thread schon 2x erklärt. Wir drehen uns im Kreis.
*seufz*
Du verstehst es immernoch nicht.. leider fürchte ich, dass keine Erklärungsversuche der Welt dir da helfen würden.
Außerdem vergleiche ich FSR mit DLSS1.... nicht FSR2...

Kurz gesagt:
Beides war der erste Versuch. Bei Nvidia mit unglaublichen Aufwand mit Deep Learning, bei AMD mit traditionell "handgedengelten" Algorithmen.
Die Ergebnisse lagen kaum merklich auseinander.

Wenn du jetzt Grafikkarten entwickeln würdest und Ageia aufgekauft hättest, dessen Software schon auf CPUs funktionierte, hättest du dann zusätzliche Arbeit und Geld investiert, um es auf CPUs noch schneller laufen zu lassen oder dich um deinen Grakas gekümmert?
Nochmal: Hat Nvidia Physx beschnitten oder haben sie sich nicht um den CPU Part gekümmert? Beides geht nicht und wäre ein Widerspruch in sich.
1) nein, ist kein Widerspruch in sich, da CPU PhysX zu der Zeit weniger Features hatte.
2) Hätte ich als GPU Entwickler Geld investiert, um meine Technik zu verbreiten - durchaus mit ein paar GPU exklusiven Teilen, keine Frage. Aber ich hätte dafür gesorgt, dass es auch auf CPUs so gut wie möglich läuft, damit eben jeder es haben will und nicht an mangelndem Interesse krepiert.

Ja ist es :klatsch:
DL rekonstruiert das Bild und stellt feine Objekte wieder her, die bei einem reinen Upscaler verschwinden würden. Das wurde doch zu genüge von PCGH und CB getestet?!
Hast du auch nur die leiseste Ahnung, wie DLSS und FSR funktionieren?
Puh... du redest dir grad ein Zeug zusammen...
Wir haben gesehen, dass es in der aktuellen Entwicklungsstufe bei DLSS besser aussieht.
Dass ein FSR bei gleicher Entwicklungszeit schlechtere Ergebnisse liefert, ist bisher noch nicht erwiesen - FSR hatte noch lange nicht die von Nvidia behaupteten 10 Jahre Entwicklung.

Das geht echt auf keine Kuhhaut. Sämtliche Seiten haben DLSS1 und 2 ausführlich getestet und detailiert erklärt, wie es funktioniert.
Jetzt kommt @Khabarak um die Ecke und fragt, ob man zum rekonstruieren der feinen Objekte auch wirklich den DL Part bräuchte...

Und mal wieder... Kein Beleg, dass es gebraucht wird.
1) Ja, wir wissen, was es tut.
2) ja, es wurde zur Genüge analysiert
3) Hat irgendwer bewiesen, dass man die gleiche Wiederherstellung nicht ohne KI erreichen kann?
Man hat nur gezeigt, dass eine KI Lösung mit 10 Jahren Entwicklungszeit es besser macht, als eine "traditionelle" Lösung mit 2-3 Jahren Entwicklungszeit.
Kein überzeugendes Argument
 
1. Natürlich hat es was damit zu tun.. Du sagtest am Anfang allgemein dlss braucht tendor cores

2. https://www.computerbase.de/2022-09...-1-sorgt-unter-anderem-fuer-weniger-ghosting/

Mmh ja das Ergebnis ist ja sowas von viel schlechter.... Klar läuft nur mit super super spezial hardware

Falschen Artikel verlinkt? Da wird FSR 2.0 mit FSR 2.1 verglichen, nicht mit DLSS 2.3. Und selbst wenn es nur ein bisschen schlechter ist, es bleibt halt schlechter. Warum kann man das nicht einfach so stehen lassen? Es wird geschwurbelt bis zum Exitus nur um nicht zugeben zu müssen dass FSR 2 nicht ganz so gut ist wie DLSS 2...

Ich freu mich dass es FSR 2 gibt, cool für alle Leute ohne RTX GPU. Ich hab eine RTX GPU und find DLSS cool. Wo ist das Problem?

Hast du ne Quelle zu deiner Behauptung?
Wenn man nach über 10 Jahren nach dem Erscheinen von ssl immer noch die 40 Jahre alte fpu benutzt statt einen Schalter im Compiler umzugehen ist es aus Sicht des User aktiv langsamer zu machen
Jetzt möchte ich mal deine Quelle sehen das der Orginal Quellcode wirklich nur die fpu benutzt hat
Soweit ich weiß war der darauf ausgelegt auf deren Karten zu laufen

Dein Ernst? Etwas nicht zu tun ist jetzt aktiv langsamer machen? Das ist die Argumentation von Schwurblern, ist Dir klar oder?
*seufz*
Du verstehst es immernoch nicht.. leider fürchte ich, dass keine Erklärungsversuche der Welt dir da helfen würden.
Außerdem vergleiche ich FSR mit DLSS1.... nicht FSR2...

Kurz gesagt:
Beides war der erste Versuch. Bei Nvidia mit unglaublichen Aufwand mit Deep Learning, bei AMD mit traditionell "handgedengelten" Algorithmen.
Die Ergebnisse lagen kaum merklich auseinander.
Nur 3-4 Jahre. Ist jetzt anscheinend kaum Zeit in der Technik. :lol:

Puh... du redest dir grad ein Zeug zusammen...
Wir haben gesehen, dass es in der aktuellen Entwicklungsstufe bei DLSS besser aussieht.
Dass ein FSR bei gleicher Entwicklungszeit schlechtere Ergebnisse liefert, ist bisher noch nicht erwiesen - FSR hatte noch lange nicht die von Nvidia behaupteten 10 Jahre Entwicklung.
Ja aber aktuell ist es doch so dass DLSS bessere Ergebnisse liefert als FSR? Wieso wird das nicht akzeptiert sondern rumgeschwurbelt?

Und mal wieder... Kein Beleg, dass es gebraucht wird.
1) Ja, wir wissen, was es tut.
2) ja, es wurde zur Genüge analysiert
3) Hat irgendwer bewiesen, dass man die gleiche Wiederherstellung nicht ohne KI erreichen kann?
Man hat nur gezeigt, dass eine KI Lösung mit 10 Jahren Entwicklungszeit es besser macht, als eine "traditionelle" Lösung mit 2-3 Jahren Entwicklungszeit.
Kein überzeugendes Argument
Und AMD braucht jetzt wieder 3-4 Jahre um DLSS 3.0 zu erreichen, und das ist dann cool weil es quelloffen ist oder wie? In den Jahren hab ich dann als ADA Käufer die ganze Zeit schon DLSS 3.0 nutzen können, schade für alle anderen...


Übrigens muss man für FSR 2.1 auch Spieleupdates zur Verfügung stellen:

Laut AMD soll es keine große Arbeit benötigen, das Spiel auf FSR 2.1 zu aktualisieren, wenn FSR 2.0 bereits unterstützt wird. Die API selbst hat sich mit dem Update nicht geändert, wobei gewisse Anpassungen am Code vorgenommen werden müssen, wenn das bestmögliche Ergebnis erzielt werden soll.

Wie viele Spiele haben FSR 2.1?
 
*seufz*
Du verstehst es immernoch nicht.. leider fürchte ich, dass keine Erklärungsversuche der Welt dir da helfen würden.
Außerdem vergleiche ich FSR mit DLSS1.... nicht FSR2...
Und wen habe ich dort zitiert? Dich oder perupp?

3) Hat irgendwer bewiesen, dass man die gleiche Wiederherstellung nicht ohne KI erreichen kann?
Weil FSR ein Upscaler ist. Dort wird nichts wiederhergestellt, sondern nur hochskaliert. Warum checkst du das nicht?!

Mir reichts. Das Gespräch mit dir ist für mich beendet.
 
Nur 3-4 Jahre. Ist jetzt anscheinend kaum Zeit in der Technik. :lol:
Im Vergleich zu 10 Jahren.. ja, durchaus.

Ja aber aktuell ist es doch so dass DLSS bessere Ergebnisse liefert als FSR? Wieso wird das nicht akzeptiert sondern rumgeschwurbelt?
Dagegen sag ich doch nichts... DLSS liefert aktuell definitiv die besseren Ergebnisse.
Das war aber nie der Punkt.
Die Frage ist: Kann man die gleichen Ergebnisse ohne KI erreichen?

Und AMD braucht jetzt wieder 3-4 Jahre um DLSS 3.0 zu erreichen, und das ist dann cool weil es quelloffen ist oder wie? In den Jahren hab ich dann als ADA Käufer die ganze Zeit schon DLSS 3.0 nutzen können, schade für alle anderen...

DLSS 3 zu erreichen dürfte nicht mal ein Jahr dauern.
Pseudoframes einschieben ist nichts neues und wird in Fernsehern seit über 10 Jahren gemacht
Low Latency Modes gibt es auch für AMD Hardware.
Daher dürfte sich das zumindest deutlich schneller erledigen.
 
Im Vergleich zu 10 Jahren.. ja, durchaus.
Hilft mir die ursprüngliche Entwicklungszeit wenn ich ein Produkt kaufe welches das Feature nicht hat?

Dagegen sag ich doch nichts... DLSS liefert aktuell definitiv die besseren Ergebnisse.
Das war aber nie der Punkt.
Die Frage ist: Kann man die gleichen Ergebnisse ohne KI erreichen?
Kann man? Weisst Du es? Nein, Du behauptest das nur. Und jetzt kommt Nvidia mit DLSS 3.0 und AMD muss wieder nachliefern um nicht abgehängt zu werden. So läuft das halt wenn man viel Geld in Forschung und Entwicklung investiert, umsonst verteilt man die Ergebnisse nicht. Macht AMD ja auch nicht...

DLSS 3 zu erreichen dürfte nicht mal ein Jahr dauern.
Pseudoframes einschieben ist nichts neues und wird in Fernsehern seit über 10 Jahren gemacht
Low Latency Modes gibt es auch für AMD Hardware.
Daher dürfte sich das zumindest deutlich schneller erledigen.
Na da bin ich gespannt.
 
Aber man hat weiterhin nichts aktiv langsamer gemacht. Man hat sich vielleicht bewusst gegen eine Verbesserung entschieden, somit zieht Dein Argument null komma garnicht.
Jetzt erwarte ich mal eine Quelle die eure Aussage untermauert das der Code wirklich so vorlag.
Und nein man braucht am Code rein gar nichts zu ändern sondern nur einen Schalter im Compiler zu aktivieren...Ihr erwartet auch immer Quellen, also auf auf
 
Jetzt erwarte ich mal eine Quelle die eure Aussage untermauert das der Code wirklich so vorlag.
Und nein man braucht am Code rein gar nichts zu ändern sondern nur einen Schalter im Compiler zu aktivieren...Ihr erwartet auch immer Quellen, also auf auf
Keine Beweislast-Umkehr mit mir. Du behauptest dass Nvidia aktiv PhysX langsamer gemacht hat. Also lieferst Du auch zuerst eine Quelle die Deine These untermauert.
 
Hilft mir die ursprüngliche Entwicklungszeit wenn ich ein Produkt kaufe welches das Feature nicht hat?
Nein. Es geht mir drum zu verstehen, welchen Entwicklungsaufwand es mit "traditionellen" Algorithmen bräuchte, um das gleiche Ergebnis zu erzielen.
Wenn man DLSS 2.x mit FSR 2.1 vergleicht und DLSS 1 mit FSR1, könnte sich die Antwort aufdrängen, dass es keine 10 Jahre gebraucht hätte.

Kann man? Weisst Du es? Nein, Du behauptest das nur. Und jetzt kommt Nvidia mit DLSS 3.0 und AMD muss wieder nachliefern um nicht abgehängt zu werden. So läuft das halt wenn man viel Geld in Forschung und Entwicklung investiert, umsonst verteilt man die Ergebnisse nicht. Macht AMD ja auch nicht...
Lies bitte die Diskussion von Anfang an.
Da frage ich aktiv, ob Deep Learning für das erreichte Ergebnis erforderlich ist.
Antwort von Owned: Ja, weil DLSS ein besseres Ergebnis liefert.

Das ist nicht wirklich eine Antwort auf die Frage.
 
Zurück