News DLSS ausgesperrt: Von AMD unterstützte Spiele blockieren Nvidias AI-Upscaling

Hast du dafür Beweise?
Habs im CB Forum gelesen:
Durch die Tensor Cores kommt noch dazu, dass das ganze effizienter läuft als bei FSR und man daher bei DLSS mehr Samples nutzen kann, ohne weniger Performance als FSR zu haben, was die qualität verbessert

Taxxor ist der DEV von CapFrameX, ich denke, dass er weiß, wovon er da redet.

Die ersten FSR Versionen sind Charaktere in Tiny Tina förmlich zerbröselt weil die Prädiktion Bildpunkte zu lange an der falschen Positionen gehalten hatte. Und das über Sekunden! Das widerspricht eigentlich deiner Behauptung.
Nein, eigentlich nicht. Eine falsche Implementierung kann das ganze verschlimmern, muss meiner Behauptung aber nicht widersprechen.

Zudem gibt es auch bei nicht RTX GPUs Einheiten die diese Berechnungen durchführen können.
Du kannst beide Algos grundsätzlich auf allen GPUs laufen lassen, aber durch die Tensorcores hast du halt zusätzliche Rechenpower und musst nicht die Renderpipeline damit zusätzlich belasten. Auf nicht RTX GPUs und RDNA schon, deswegen ist FSR entweder schlechter oder langsamer.
 
Zuletzt bearbeitet:
Sag doch mal, wie sehen deiner Meinung nach die nächsten Schritte in dem Bereich aus? Worauf willst du mit deiner Kaufentscheidung hinaus? Was denkst du wird Nvidia liefern? Die nächsten zwei bis drei Schritte und das Ergebnis daraus einfach mal beschreiben.
Ich finde DLSS und FSR sind sofern die Optik nicht wirklich leidet, was bei DLSS einfach öfter ist aktuell gute Entwicklungen. So ziemlich als größtes Problem sehe ich die CPUs für die nächsten Jahre. Wenn ich mir die letzten Spielebenchs mit Ray tracing so ansehe. Da kommt es öfter vor, das selbst High End CPUs keine 60Fps bei den Percentile schaffen. Parallel wollen alle in den Genuss von 120/240/360Hz Panel kommen und das auch sinnvoll füttern.

Natürlich ist DLSS 3 dabei dann eine unschlagbare Hilfe. Wenn ich dann sehe, das auch ein 7800X3D das nicht ansatzweise stemmen kann. Was erwarte ich denn was sich bei den CPUs in den nächsten Jahren tut.

Wobei auch die Skalierung lässt in letzter Zeit wieder nach bei den Spielen. Eine perfekte Skalierung wird es nie geben, schon gut aber das zu meist nur bsi zu 8 Threads sinnvoll genutzt werden, ist halt schlecht. Selbst ein aktueller 4 Kerner, ein Raptor Lake 4P Kerner mit 6Ghz plus 4 E-Kerne wäre heute eine starke alternative. Oder ein 5600X3d zeigt, das auch ein 7400X3D (fantasie 4 Kerner), oder 7600X3d (fantasie 6 Kerner) würden starke alternativen darstellen.

Einerseits sind die aktuellen Kerne der High End CPU noch bei weitem nicht stark genug. Andererseits wäre es nicht ganz so schlimm, wenn wieder viele Kerne besser genutzt würden.

Halten wir fest. Bei den High End CPUs fehlt massiv Leistung, für die nächsten Top Entwicklungen (Spiele mit mehr RT Einsatz, dazu am besten noch immer größere und immersivere Welten) und dann auch noch stabile 100+Fps befeuern.

Bei den GPUs sieht es nicht ganz so schlimm aus, wegen DLSS und FSR und XeSS. Aber auch hier wird zusätzlich zu DLSS und Co, noch viel mehr Leistung gebraucht.

Ich freue mich übrigens schon drauf endlich in Cyberpunk mal Pathtracing auszuprobieren, was ohne DLSS2/3 für mich nicht möglich wäre.

DLSS ab 2.X hat schon 2020 gezeigt auch bei PCGH, das die Bild Qulität öfter steigt als fällt, mit DLSS Quality. Klar, es wird nicht alles am Bild immer besser, aber in Summe gehe ich da bei der Aussage mit.

Anfangs sah die Qualitäts Einstellung noch schlechter aus, als nativ. Dann etwa gleich gut und inzwischen steigt diese, so dass oft Balanced schon in Summe einen so guten Eindruck macht wie nativ.

Auch hier sehe ich deutliche Verbesserungen und damit auch noch Potential für weitere Verbesserungen.

Vor dieser Aussage, habe ich mir extra nochmal einiges an Standbildern und Bewegtbildern angeschaut.

Ich habe letztens mir mal irgendwo einen Schnitt herausgezogen und da lag
DLSS
Quality bei +32% Fps (bei gleicher, bis besserer Bildqualität in Summe des Bildeindrucks)
Balanced +43% Fps ( bei in Summe gleich gutem gesamt Bildeindruck)
Performace +69% Fps ( natürlich mit sichtbaren Einbußen) ;)

Ich bin sehr froh, das Nvidia seiner Zeit mit DLSS voran gegangen ist und das es Hardwaregebunden ist, ist aus verschiedenen Gründen nachvollziehbar. AMD konnte gar nicht anders als FSR Open Source anzubieten, weil man nicht weitere Marktanteile verlieren darf.Außerdem ist es fürs image ja auch ganz nett.

Bei den GPUs sehe ich auch das Problem, wo soll es denn hin gehen. Eine 4090 die Zweifelsohne das Geilste Stück hardware der letzen Jahre ist, zeigt aber auch das Nvidia selbst mit einem großem Chip und extrem hoher TDP nicht mehr kann. Nicht falsch verstehen, die Leistung ist extrem stark. Aber auf der anderen Seite reicht sogar die nicht für die schöne Zukunft aus.

4k + massiver RT Einsatz usw. (Beispiel PathTracing)

Was soll da als nächstes kommen, eine 5090 mit 600W Stock TDP? mit dann 45% mehr Rohleistung als die 4090.

Gehen wir mal von Cyberpunk mit PT aus und DLSS 2 Quality, dann kommt eine 4090 gerade mal auf 36 min Fps.

Plus 45% sind auch nur 52Fps, mit DLSS 3 sind es dann schon 71Fps. (Einfach mal plump hochgerechnet, also Pi mal Daumen)


Bei den CPUs erwarte ich schon einen größeren Sprung, relativ bald. Aber auch nicht plus 100%.

Bei GPUs denke ich, das wir bei gleicher Verlustleistung nur auf max plus 30% kommen. AMD macht in der kommenden Gen vielleicht einen deutlich größeren Sprung, zumindets bei der RT Leistung.


So stelle ich mir die nächsten Schritte vor ;) Wenn ich auch durfte. RTX5000 soll zudem auch erst 2025 erscheinen.

-----------------------------------------------------

Jeder trifft seine Entscheidungen für sich selbst, aber ich gehe gerne mit DLSS und bei gleichstand auch mit FSR!


Bezogen auf Spiele und DLSS / FSR Support:
Gerade was dieses Jahr so veröffentlicht wurde macht keine gute Figur. Die Kernskalierung war schlecht, selbst High Ends CPUs schaffen es stellenweise nicht 60Fps zu halten.

Gerade diese Spiele sollten wenn schon schlammpig optimiert wird, wenigstens alles an FSR, DLSS, XeSS unterstützen, das wäre das mindeste was ich von einem Spiel erwarte.

Klar wird es immer so Situationen geben, in denen Hersteller A bei dem Spiel mitwirkt, oder sponsert und dementsprechend auch mal die Lösung von Hersteller B außen vor bleibt, aber im Schnitt sollte es überwiegend selbstverständlich sein, das DLSS, FSR und XeSS gleichermaßen zum Einsatz kommen und das in eigentlich jeder Engine. Ich meine wir haben 2023 ;)

Um deine Aussage nochmal aufzugreifen... Das beißt sich kein Stück. Nur weil mir diese Technik egal ist, kann ich mir doch für andere, die sie mögen, wünschen dass sie implementiert wird. Das unterscheidet uns beide eben grundlegend voneinander. Ich gönne jedem sowas, nicht nur einer Fraktion und auch nicht nur dann, wenn ich was davon hätte. Soll doch jeder andere glücklich werden damit, ich warte dann einfach eine Gen, oder zwei und spiele es dann ohne upsampling.
Bin eigentlich anderer Meinung, das DLSS FSR und benachteiligen angeht, aber der Absatz "Nur weil mir diese Technik egal ist" ist einfach mal ein Hoffnungsschimmer am Horizont ;). Danke dafür!
Sag doch mal, wie sehen deiner Meinung nach die nächsten Schritte in dem Bereich aus? Worauf willst du mit deiner Kaufentscheidung hinaus? Was denkst du wird Nvidia liefern? Die nächsten zwei bis drei Schritte und das Ergebnis daraus einfach mal beschreiben.
Ich finde DLSS und FSR sind sofern die Optik nicht wirklich leidet, was bei DLSS einfach öfter ist aktuell gute Entwicklungen. So ziemlich als größtes Problem sehe ich die CPUs für die nächsten Jahre. Wenn ich mir die letzten Spielebenchs mit Ray tracing so ansehe. Da kommt es öfter vor, das selbst High End CPUs keine 60Fps bei den Percentile schaffen. Parallel wollen alle in den Genuss von 120/240/360Hz Panel kommen und das auch sinnvoll füttern.

Natürlich ist DLSS 3 dabei dann eine unschlagbare Hilfe. Wenn ich dann sehe, das auch ein 7800X3D das nicht ansatzweise stemmen kann. Was erwarte ich denn was sich bei den CPUs in den nächsten Jahren tut.

Wobei auch die Skalierung lässt in letzter Zeit wieder nach bei den Spielen. Eine perfekte Skalierung wird es nie geben, schon gut aber das zu meist nur bsi zu 8 Threads sinnvoll genutzt werden, ist halt schlecht. Selbst ein aktueller 4 Kerner, ein Raptor Lake 4P Kerner mit 6Ghz plus 4 E-Kerne wäre heute eine starke alternative. Oder ein 5600X3d zeigt, das auch ein 7400X3D (fantasie 4 Kerner), oder 7600X3d (fantasie 6 Kerner) würden starke alternativen darstellen.

Einerseits sind die aktuellen Kerne der High End CPU noch bei weitem nicht stark genug. Andererseits wäre es nicht ganz so schlimm, wenn wieder viele Kerne besser genutzt würden.

Halten wir fest. Bei den High End CPUs fehlt massiv Leistung, für die nächsten Top Entwicklungen (Spiele mit mehr RT Einsatz, dazu am besten noch immer größere und immersivere Welten) und dann auch noch stabile 100+Fps befeuern.

Bei den GPUs sieht es nicht ganz so schlimm aus, wegen DLSS und FSR und XeSS. Aber auch hier wird zusätzlich zu DLSS und Co, noch viel mehr Leistung gebraucht.

Ich freue mich übrigens schon drauf endlich in Cyberpunk mal Pathtracing auszuprobieren, was ohne DLSS2/3 für mich nicht möglich wäre.

DLSS ab 2.X hat schon 2020 gezeigt auch bei PCGH, das die Bild Qulität öfter steigt als fällt, mit DLSS Quality. Klar, es wird nicht alles am Bild immer besser, aber in Summe gehe ich da bei der Aussage mit.

Anfangs sah die Qualitäts Einstellung noch schlechter aus, als nativ. Dann etwa gleich gut und inzwischen steigt diese, so dass oft Balanced schon in Summe einen so guten Eindruck macht wie nativ.

Auch hier sehe ich deutliche Verbesserungen und damit auch noch Potential für weitere Verbesserungen.

Vor dieser Aussage, habe ich mir extra nochmal einiges an Standbildern und Bewegtbildern angeschaut.

Ich habe letztens mir mal irgendwo einen Schnitt herausgezogen und da lag
DLSS
Quality bei +32% Fps (bei gleicher, bis besserer Bildqualität in Summe des Bildeindrucks)
Balanced +43% Fps ( bei in Summe gleich gutem gesamt Bildeindruck)
Performace +69% Fps ( natürlich mit sichtbaren Einbußen) ;)

Ich bin sehr froh, das Nvidia seiner Zeit mit DLSS voran gegangen ist und das es Hardwaregebunden ist, ist aus verschiedenen Gründen nachvollziehbar. AMD konnte gar nicht anders als FSR Open Source anzubieten, weil man nicht weitere Marktanteile verlieren darf.Außerdem ist es fürs image ja auch ganz nett.

Bei den GPUs sehe ich auch das Problem, wo soll es denn hin gehen. Eine 4090 die Zweifelsohne das Geilste Stück hardware der letzen Jahre ist, zeigt aber auch das Nvidia selbst mit einem großem Chip und extrem hoher TDP nicht mehr kann. Nicht falsch verstehen, die Leistung ist extrem stark. Aber auf der anderen Seite reicht sogar die nicht für die schöne Zukunft aus.

4k + massiver RT Einsatz usw. (Beispiel PathTracing)

Was soll da als nächstes kommen, eine 5090 mit 600W Stock TDP? mit dann 45% mehr Rohleistung als die 4090.

Gehen wir mal von Cyberpunk mit PT aus und DLSS 2 Quality, dann kommt eine 4090 gerade mal auf 36 min Fps.

Plus 45% sind auch nur 52Fps, mit DLSS 3 sind es dann schon 71Fps. (Einfach mal plump hochgerechnet, also Pi mal Daumen)


Bei den CPUs erwarte ich schon einen größeren Sprung, relativ bald. Aber auch nicht plus 100%.

Bei GPUs denke ich, das wir bei gleicher Verlustleistung nur auf max plus 30% kommen. AMD macht in der kommenden Gen vielleicht einen deutlich größeren Sprung, zumindets bei der RT Leistung.


So stelle ich mir die nächsten Schritte vor ;) Wenn ich auch durfte. RTX5000 soll zudem auch erst 2025 erscheinen.

-----------------------------------------------------

Jeder trifft seine Entscheidungen für sich selbst, aber ich gehe gerne mit DLSS und bei gleichstand auch mit FSR!


Bezogen auf Spiele und DLSS / FSR Support:
Gerade was dieses Jahr so veröffentlicht wurde macht keine gute Figur. Die Kernskalierung war schlecht, selbst High Ends CPUs schaffen es stellenweise nicht 60Fps zu halten.

Gerade diese Spiele sollten wenn schon schlammpig optimiert wird, wenigstens alles an FSR, DLSS, XeSS unterstützen, das wäre das mindeste was ich von einem Spiel erwarte.

Klar wird es immer so Situationen geben, in denen Hersteller A bei dem Spiel mitwirkt, oder sponsert und dementsprechend auch mal die Lösung von Hersteller B außen vor bleibt, aber im Schnitt sollte es überwiegend selbstverständlich sein, das DLSS, FSR und XeSS gleichermaßen zum Einsatz kommen und das in eigentlich jeder Engine. Ich meine wir haben 2023 ;)

Um deine Aussage nochmal aufzugreifen... Das beißt sich kein Stück. Nur weil mir diese Technik egal ist, kann ich mir doch für andere, die sie mögen, wünschen dass sie implementiert wird. Das unterscheidet uns beide eben grundlegend voneinander. Ich gönne jedem sowas, nicht nur einer Fraktion und auch nicht nur dann, wenn ich was davon hätte. Soll doch jeder andere glücklich werden damit, ich warte dann einfach eine Gen, oder zwei und spiele es dann ohne upsampling.
Bin eigentlich anderer Meinung, das DLSS FSR und benachteiligen angeht, aber der Absatz "Nur weil mir diese Technik egal ist" ist einfach mal ein Hoffnungsschimmer am Horizont ;). Danke dafür!
Warum ? Kann ich mit meiner GTX 1070 Starfield nicht mit FSR zocken ? Brauche also kein DLSS! :schief:
Die Aussage kann man verstehen, oder eben nicht.
 
Zuletzt bearbeitet:
Habs im CB Forum gelesen:


Taxxor ist der DEV von CapFrameX, ich denke, dass er weiß, wovon er da redet.
Ist kein Beweis. Komm wieder wenn du wirklich was Handfestes hast.
Nein, eigentlich nicht. Eine falsche Implementierung kann das ganze verschlimmern, muss meiner Behauptung aber nicht widersprechen.
Wenn du 2 Sekunden einen Bildpunkt an einer falschen Ecke hälst bei 80-90 fps dann hatte man bereits fast 300 Samples mit denen man arbeiten konnte.
Ab einem gewissen Punkt hast du von der Menge an Samples keinen praktischen Vorteil mehr. Höchstens einen theoretischen.
Du kannst beide Algos grundsätzlich auf allen GPUs laufen lassen, aber durch die Tensorcores hast du halt zusätzliche Rechenpower und musst nicht die Renderpipeline damit zusätzlich belasten. Auf nicht RTX GPUs und RDNA schon, deswegen ist es entweder schlechter oder langsamer.
Ich habe auch nie behauptet dass der Algorithmus auf dem gleichen Tempo laufen würde. Nur wie viel Performance man verliert ist fraglich. Ist auch bei FSR nicht so dass der Algorithmus keinen Overhead hat oder Tensor Cores keine Energie benötigen.
 
Ist kein Beweis. Komm wieder wenn du wirklich was Handfestes hast.
Vergiss es, da kommt leider "NICHTS", ich habe es auch schon seitenweise probiert, bei seinem Freund Bohemis genau das Gleiche. Da werden aus Annahmen und Indizien einfach mal Tatsachen und Beweise gemacht. Höchst suspekt. :ka:
Wenn du 2 Sekunden einen Bildpunkt an einer falschen Ecke hälst bei 80-90 fps dann hatte man bereits fast 300 Samples mit denen man arbeiten konnte.
Ab einem gewissen Punkt hast du von der Menge an Samples keinen praktischen Vorteil mehr. Höchstens einen theoretischen.

Ich habe auch nie behauptet dass der Algorithmus auf dem gleichen Tempo laufen würde. Nur wie viel Performance man verliert ist fraglich. Ist auch bei FSR nicht so dass der Algorithmus keinen Overhead hat oder Tensor Cores keine Energie benötigen.
Ich denke, um das mal zusammen zu fassen, dass der Fokus auf eine offene Technologie richtig und gut ist, für alle Spieler. Bis jetzt haben propritäre Lösungen eher dazu beigetragen, dass sich Techniken nicht relevant verbreitet haben. Daher begrüße ich die Entwicklerentscheidung. Besser wäre natürlich, wenn man einfach beides supporten würde, dann wäre alle glücklich. Hier aber zu insinuieren, AMD hätte das endgeldlich erzwungen, ist wohl eher im der Sphäre von Verschwörungsmythen einzuordnen. Man kann es annehmen aber mehr auch nicht.

Und ganz unterm Strich, meine persönliche Meinung, wäre der Fokus auf raw-Leistung sowieso besser, statt die fehlende Leistung nur durch Upscaling und FG zu verbessern. Vielleicht ist die Zeit für RT einfach noch nicht so reif, wenn es verlustbehaftete Verfahren benötigt um RT überhaupt darstellbar zu machen, sogar auf 2000 €+ GPUs.

MfG

Jetzt wirds wieder lächerlich.
Was ist denn für dich ein Beweis? .Setinel. hat seinen Beitrag geliket und der Typ ist Spieleentwickler und kennt sich mit der Thematik aus.
Man Junge, komm mal klar langsam. Google doch selber nach dem Unterschied was ein Beweis ist und was eine Annahme/Indiz. Haben wir dir hier schon zigfach erklärt, kein Grund diesen Kaugummi immer weiter auszudehnen.
Das nervt nur noch!

MfG
 
Ist kein Beweis. Komm wieder wenn du wirklich was Handfestes hast.
Jetzt wirds wieder lächerlich.
Was ist denn für dich ein Beweis? .Setinel. hat seinen Beitrag geliket und der Typ ist Spieleentwickler und kennt sich mit der Thematik aus.

Ist auch bei FSR nicht so dass der Algorithmus keinen Overhead hat oder Tensor Cores keine Energie benötigen.
Der Overhead kann durch die Tensorcores aber kompensiert werden. Das ergibt Sinn und kann man sich selbst denken.

Oder anders gefragt: DLSS benötigt Tensorcores, FSR nicht. Was ist denn deiner Meinung nach Sinn und Zweck der Tensorcores, wenn sie nicht die Berechnung beschleunigen und somit die gesparte Rechenzeit in eine bessere Bildqualität investiert werden kann?

Man Junge, komm mal klar langsam. Google doch selber nach dem Unterschied was ein Beweis ist und was eine Annahme/Indiz. Haben wir dir hier schon zigfach erklärt, kein Grund diesen Kaugummi immer weiter auszudehnen.
Wenn mir ein Spielentwickler, der den ganzen Tag in Engines rumcodet, sagt, dass es so ist, dann glaube ich ihm das.
Du bistn Verschwörungstheoretiker für den nichts ein Beweis ist. Garantiert zweifelst du auch den Klimawandel an und deshalb erübrigt sich jede weitere Diskussion mit dir. Du bist jetzt auch auf meiner Ignore.
Wenns dich nervt, dann tu das gleiche und hör auf mich vollzutexten. Ich lass mir von dir sicher nicht das Wort verbieten, nur weil dein heiß geliebtes AMD in der Kritik steht.
 
Zuletzt bearbeitet:
Jetzt wirds wieder lächerlich.
Was ist denn für dich ein Beweis? .Setinel. hat seinen Beitrag geliket und der Typ ist Spieleentwickler und kennt sich mit der Thematik aus.
Am besten eine Quellcode analyse die das wirklich Handfest belegt. Da ich aber auch weiß dass wir da keine Chance haben. Wenn du willst dass die Person echtes Gewicht hat, nimm jemand der tatsächlich wissenschaftliche Expertise in diesem Bereich bringt ;) Der dürfte die Bewertung am ehesten treffen und durch seinen Background auch sehr gut einschätzen können was geht oder nicht.
 
DLSS war bereits integriert, zudem ist es ein UE4 Titel.
Wirtschaftliche Aspekte spielen daher keine Rolle, auch wenn es in der Stellungnahme, die ich nicht gefunden habe, stehen soll.
DLSS ist doch nicht automatisch integriert nur weil es ein UE4 Titel ist... UE4 Engine gibt es seit 2014.
DLSS kann als Plugin mit integriert werden muss aber definitiv auf das Game angepasst werden, sonst läuft da gar nichts.
Die Anpassung kostet Zeit und Mitarbeiter die kosten Geld also ist es doch ein wirtschaftlicher Aspekt genau wie sie es sagen.

Und es ist die offizielle Stellungname von Boundary die du direkt findest wenn du danach googlest:
Kannste auch bei WCCFTECH so finden.

Nein, bestärkt ihn, weil AMD schwächer in Raytracing ist.
Du kannst nicht kritisch denken, wenn es um deinen Markenfetischismus geht.

Mit diesem Rückschluss kannst auch sagen das es an Apple liegt, da Apple kein Raytracing berechnet, ist Raytracing aus dem Spiel entfernt worden. Völliger Blödsinn hier eine Verbindung zu sehen. Hinterfrage mal deinen eigenen Markenfetischismus.
 
Zuletzt bearbeitet:
Wenn mir ein Spielentwickler, der den ganzen Tag in Engines rumcodet, sagt, dass es so ist, dann glaube ich ihm das.
Du bistn Verschwörungstheoretiker für den nichts ein Beweis ist. Garantiert zweifelst du auch den Klimawandel an und deshalb erübrigt sich jede weitere Diskussion mit dir. Du bist jetzt auch auf meiner Ignore.
Wenns dich nervt, dann tu das gleiche und hör auf mich vollzutexten. Ich lass mir von dir sicher nicht das Wort verbieten, nur weil dein heiß geliebtes AMD in der Kritik steht.
Okay, jetzt wird es interessant, "welcher" Spieleentwickler genau hat "dir" gesagt, dass "AMD entgeltlich dafür zahlt dlss auszuschließen bzw beim Support auszusperren"?

Da bin ich auf die konkrete Quelle sehr gespannt.

MfG
 
Das ist eine reine Behauptung deinerseits. Beweise es, schließlich forderst du das ja auch dauernd.
Du stellst sie als Experten hin und ich habe keinerlei Referenz von denen gesehen die das beweist. Ich werde mir sicher nicht die Beweispflicht umhängen wenn du in der Bringschuld bist!
CapFrameX ist für mich Referenz genug, aber für dich wird nichts ausreichend sein. Gott persönlich könnte dir sagen, dass es so ist.
Für dich ist es das. Ich erwarte halt schon jemand mit fachlichen Background der deine These stützt. Das wäre bspw. ein Entwickler für solche Algorithmen oder ein Paper (o.ä.) dass diese Prämisse aufgreift. Selbst eine technische Vorstellung von Nvidia würde da ja schon ausreichen!
Bis Dato hast du eine Aussage eines Tool Entwicklers in einem HW Forum. Das ist halt kein Beweis!

Aber es wird mittlerweile reines Offtopic daher lass ich es auch. Denke wir werden in dem Punkt sowieso nicht auf einen Nenner kommen
 
Naja, technisch sind sie über jeden Zweifel erhaben, aber zumindest zwei der User hier im Forum haben da auch spezielle Vorlieben und verteidigen und schützen ihre Marken
Vorsicht bei solchen Aussagen, nur zu oft liegt man daneben und das nur weil man von der eigenen Sichtweise dominiert ist. Ist die Natur der Sache, jeder hat seinen eigenen info Pool und zieht seine eigenen Schlüsse.

Das macht aber niemanden zu einem Fanboy.
auch sehr sehr intensiv. Der eine User schwurbelt hier seit 4 Jahren, dass Intel spätestens mit der nächsten Gen wieder besser da steht und AMD "vernichten" wird.
War zuerst bei AM5 so, bis x§d kam und die Intel Antwort darauf kommt erst noch. Außerdem schlägt ein 7800X3d einen I-13000 nicht vernichtend. Die sind schneller, gerade mit all Stock. Aber vernichtend...
Eingetroffen ist bisher nichts davon,
Wie ich schon sagte, Ansichtssache. Je nach Blickwinkel.
bis auf das AMD Intel im Gaming vernichtend
und wieder vernichtend... Im Blindtest werden es wohl 99% der User zu 99% der zeit niemals merken können.
schlägt und nun auch Intels letzte Bastion gefallen ist.
Diese Formulierung spricht auch für mich eine Sprache die dich in eine Ecke bewegt, die aber ja nicht so sein muss.
Insofern erhoffe ich mir von den Leuten da auch keine echte Neutralität.
Das ist schade, denn das schränkt deinen Info Pool maßgeblich ein und schafft nur eine unausgewogene Informationsbeschaffung.

Will dir nichts, wollte nur darauf hinaus das wir alle etwas objektiver sein können.
Okay, jetzt wird es interessant, "welcher" Spieleentwickler genau hat "dir" gesagt, dass "AMD entgeltlich dafür zahlt dlss auszuschließen bzw beim Support auszusperren"?

Da bin ich auf die konkrete Quelle sehr gespannt.

MfG
Nope, das war nicht Thema seiner Aussage ;)
 
Zuletzt bearbeitet:
Du stellst sie als Experten hin und ich habe keinerlei Referenz von denen gesehen die das beweist. Ich werde mir sicher nicht die Beweispflicht umhängen wenn du in der Bringschuld bist!

Für dich ist es das. Ich erwarte halt schon jemand mit fachlichen Background der deine These stützt. Das wäre bspw. ein Entwickler für solche Algorithmen oder ein Paper (o.ä.) dass diese Prämisse aufgreift. Selbst eine technische Vorstellung von Nvidia würde da ja schon ausreichen!
Bis Dato hast du eine Aussage eines Tool Entwicklers in einem HW Forum. Das ist halt kein Beweis!

Aber es wird mittlerweile reines Offtopic daher lass ich es auch. Denke wir werden in dem Punkt sowieso nicht auf einen Nenner kommen
Also mir reicht auch die Aussage des Capframe Typen, um es als wahrscheinlich einzustufen. Das reicht schon, um für mich Zusammenhänge zu sehen.

Aber da mir eure Diskussion zu viel Fahrt aufnimmt bin ich raus....
Kommt mal alle etwas runter...

Fanboy hier und da, Marken bla bla... Wer nicht denkt, was ich denke ist blöd. Wird gerade echt extrem und nein, es liegt sicher nicht an einem! ;)

Wenn ich könnte würde ich euch jetzt erstmal einen Kaffee austun, oder einen Eistee.
Siehe oben, ich schrieb davon, dann kam diese seine Antwort. Ich kann "nicht riechen", wenn er auf das Thema antwortet aber "angeblich" nun ein ganz anderes meint. ;-)
Egal, dieses Verhalten ist unterirdisch, wie so oft. Man sieht ja das da keine ordentliche Sachdebatte möglich ist, weil es eben zu keinem Zeitpunkt "konkret" wird und Indizien/ Annahmen als "Beweise" deklariert werden. Das führt zu nichts. :ka:

MfG
Schon ab Post 261 geht es doch darum, was der Dev von CapframeX gesagt hat und das ist mir Indiz genug.

Das ist kein unumstößlicher Beweis, den auch nie einer bekommen wird, nicht so wir hier gefordert. Aber das als plausibel zu erkennen und damit als wahrscheinlich einzustufen ist gut möglich.

Wie du die Kurve wieder zu AMD bezahlt für Ausschluss von DLSS bekommen hast, kann ich so nicht sehen. Aber ist auch Freitag ;)
 
Zuletzt bearbeitet:
Ich schließe mich derneuemann da an. Langsam solltet ihr wieder herunterkommen. Selbst wenn sich plötzlich alle am Riemen reißen würden... Es reicht ein Beitrag in dem statt "ich finde..." steht das "ist so" und schon geht's wieder von vorn los.
Meinungen als Fakten darstellen = thread im Eimer.
Andere Beiträge interpretieren statt verstehen und dann falsche Worte in den Mund legen = thread im Eimer.
Pauschal anderen Neutralität absprechen, nur weil sie Karte X verbaut haben = thread im Eimer.
Provokationen wie "peinlich" einwerfen... mehrfach = thread im Eimer.
Diese und zig andere Dinge werden eine fruchtbare und faire Diskussion immer im Staub ersticken lassen. Schaut mal wie wenig User noch hier im thread aktiv sind.
 
Zuletzt bearbeitet:
PhysX bot kaum einen wirklichen Mehrwert, wurde selten implementiert und GSync gabs ne lange Zeit ohne Lüfter und halt auch als erste der beiden Technologien soweit ich mich erinnere. Dort hat Nvidia ja auch gesehen, dass es sinniger ist, beides zu supporten und somit sogar n Zugeständnis an Freesync gemacht. GSync Ultimate hat halt noch n paar Extrafeatures, die es eben nur mit bestimmten Monitoren gibt. Das ist auch wieder Äpfel und Birnen vergleichen.

DLSS bietet halt aber nen Mehrwert und das ist der Knackpunkt. Hättest du zudem mal etwas weiter oben geschaut, hättest du durchaus gesehen, dass laut aktuellem Stand der Steam Hardware Survey lediglich ein winziger Teil der Nutzer AMD-GPUs nutzt. Etwa 15% sind das. [...]
Hmm. Also ich finde, dass zusätzliche Physik-Effekte einen größeren Mehrwert darstellen als eine etwas bessere Rekonstruktionsqualität. Der Unterschied ist, dass GPU-PhysX einen deutlich größeren Implementierungsaufwand bedeutete, als es die Aufgabe "Wir haben schon FSR, jetzt brauchen wir noch DLSS" (oder umgekehrt) jetzt tut.

MfG
Raff
 
Jetzt ist Ihre Meinung gefragt zu DLSS ausgesperrt: Von AMD unterstützte Spiele blockieren Nvidias AI-Upscaling
Kann man doch machen, es verschwendet nur Ressourcen der Entwicklung. Wenn dafür etwas mehr Zeit für Fehlerkorrekturschleifen ist, haben wir alle etwas davon. Und andere Spiele, von Nvidia gepampert, nutzen DLSS 3.0 und werden so optimiert, dass AMD User in die Röhre schauen.

So ist das mit dem Fortschritt, eine der beiden Techniken wird sich durchsetzen. FSR als offener Standard wird auch immer besser, und je mehr Hersteller in den Markt drängen, Intel versucht es gerade und andere werden folgen, werden offene Standards wichtig. Nvidia sollte DLSS einfach öffnen. Damit wäre uns allen geholfen.
 
Zuletzt bearbeitet:
Das macht aber niemanden zu einem Fanboy.
Ich habe bewusst nicht von Fanboy geredet.

Wie ich schon sagte, Ansichtssache. Je nach Blickwinkel.
Nö, erst war es Intels 10nm mit dem man dann AMD das fürchten lehren wird, dann als das nicht eingetroffen ist war es Intel 7 und was weiß ich was da noch kommt. Dazu bspw. den damaligen Test, Intel massiv bevorzugt und auf einmal waren sie sogar effizienter, war allerdings der einzige Test der das so gesehen hat.


Im Blindtest werden es wohl 99% der User zu 99% der zeit niemals merken können.
Das ist richtig, dann schau aber mal auf den Stromverbrauch, das wird am Ende jeder merken, inkl. Kühlleistun
Diese Formulierung spricht auch für mich eine Sprache die dich in eine Ecke bewegt, die aber ja nicht so sein muss.
Warum?
Intels letzte Bastion (im Desktop) war das Gaming, seit der 9er Serie ist AMD in allen anderen Desktopszenarien vorne, jetzt schafft AMD es auch im Gaming über den Strich, dafür hat Intel aber selbstredend den riesigen MC Abstand genullt, was auch Erwähnung finden muss. In Sachen Effizienz ist aber weiterhin AMD tonangebend, daher sehe ich aktuell (abseits des Preises, denn diese Punkt kann Intel überraschenderweise derzeit für sich verbuchen, was natürlich an den Plattformkosten liegt, die bei AM5 zu hoch sind) im Desktop als führend an.


Das ist schade, denn das schränkt deinen Info Pool maßgeblich ein und schafft nur eine unausgewogene Informationsbeschaffung.
Hab ich geschrieben das ich es nicht lese? Ich lese vieles, setze es nur eben auch in einen Kontext. Nebenbei war meine Aussage wenig genau, Subjektivität bemängele ich nicht mehr, letztendlich ist das einfach menschlich. Objektivität wäre wünschenswert aber unmöglich für uns Menschen. Neutralität ist das was ich mir wünschen würde, bspw. kann PCGH oder auch Igor das ganz gut. Dennoch haben beide (bei PCGH sind da auch diverse für bekannt) ihre Vorlieben, schaffen es aber sehr oft, diese Vorlieben hinten anzustellen und relativ neutral zu beschreiben.
 
Jesus, was für eine ab Seite Eins vergiftete unnötige Diskussion. Hier haben einige Wenige wirklich nichts besseres zu tun als sich in ihrer ( hoffentlich ) Freizeit darüber aufzuregen ob Firma X oder Firma Y etwas implementiert oder eben nicht:ugly::ugly: ... Eines der Gründe warum ich hier immer weniger unterwegs bin.

Es ist doch vollkommen egal ob eine Firma eine andere dafür bezahlt, oder auch nicht, ob etwas aus ihrem Portfolio implementiert wird. Wenn mir das als Nutzer nicht passt kaufe ich es nicht. Ein nicht Kauf war und wird immer die einzige Lösung sein eine Firma dazu zu bewegen dass sich etwas ändert. Aber ganz sicher nicht irgend ein Post in einem Forum.

Mir persönlich ist es vollkommen egal was implementiert wird, bzw. freue mich auch als zur Zeit nVidia Nutzer eher über FSR, da es wesentlich mehr Grafikkarten und damit Nutzer einschließt.
 
Wir sind hier nicht bei Special Olympics, dort werden Athleten mit zu schnellen Zeiten disqualifiziert. Wird DLSS nicht unterstützt, werden Geforce Nutzer benachteiligt.
Wenn du schneller laufen könntest aber durch einen Taucheranzug mit Flossen gebremst wirst, benachteiligt dich das.
Du weißt doch, dass ich einer von denen bin die nativ bevorzugen, wenn es um dieses Thema geht.
Native < Supersampling/DLAA. Ohne Frage. Deine Meinung ist zu belächeln.
Nur! Was du als Benachrichtigung auslegst, sehe ich nicht so.
Benachteiligung? Ich lege das nicht aus, das sind Fakten, die man unabhängig überprüfen kann. DLSS ist leicht bis deutlich besser je nach Titel und Qualitätsstufe.
Du legst dir das so zurecht, weil du wie schon oben gesagt eine unehrliche Type bist und Fakten wie auf einem Basar nach Gutdünken verhandelst, selbst wenn es nachweislich anders ist.
DLSS wäre eine Bevorzugung.
Nein. Genauso wenig wie ein exclusives FSR eine Bevorzugung darstellt, würde es auf AMD besser laufen als DLSS3+FG, sondern die Leistung des jeweiligen Unternehmens und seiner Mitarbeiter.
Ist kein Beweis. Komm wieder wenn du wirklich was Handfestes hast.
Das ist sicher kein Beweis den wird keiner erbringen, aber eine mögliche Erklärung warum DLSS vor allem im Performancemodus so viel besser abschneidet.
Die Unterschiede sind ja teilweise enorm.
Vergiss es, da kommt leider "NICHTS", ich habe es auch schon seitenweise probiert, bei seinem Freund Bohemis genau das Gleiche.
Wir haben keinen konkreten Beweis, da scheinst du mich wohl missverstanden zu haben, habe ich im übrigen auch nie gesagt.:-)
 
Zuletzt bearbeitet:
So, und jetzt beruhigen wir uns alle mal langsam wieder, ansonsten ist der Kindergarten hier gleich zu Ende :kaffee:

Ein paar Beiträge sind eben schon verschwunden, weil der Tonfall mittlerweile nicht mehr normal ist.

Alle nachfolgenden Beiträge sollten tunlichst auf eine neutrale und gesittete Wortwahl achten, und nur das Thema behandeln.

Danke für ihre Aufmerksamkeit!
 
Die Anpassung kostet Zeit und Mitarbeiter die kosten Geld also ist es doch ein wirtschaftlicher Aspekt genau wie sie es sagen.
Wirtschaftliche Aspekte, wenn es bereits integriert ist, machen keinerlei Sinn, wie wir von mehreren Entwicklern mittlerweile gehört haben.
Und es ist die offizielle Stellungname von Boundary die du direkt findest wenn du danach googlest:
Die deine Quelle in Frage stellt.
Yes, Surgical Scalpels has not flat-out said that AMD is to be blamed. However, we can all read between the lines. And this isn’t the first time that an AMD-sponsored game ditches DLSS over FSR.
Hinterfrage mal deinen eigenen Markenfetischismus.
Ich habe im Gegensatz zu dir keinen. Ich muss mich bei einem eindeutigen Sachverhalt nicht schützend vor ein Unternehmen werfen und es verteidigen, das habe ich nicht nötig.
... bis auf das AMD Intel im Gaming vernichtend schlägt(...)
Kann ich mir diesen Satz in die Signatur packen?
Mein 5800X3D schlägt nicht mal den 13600K und dennoch ist er ne geile CPU.
Es ist doch vollkommen egal ob eine Firma eine andere dafür bezahlt, oder auch nicht, ob etwas aus ihrem Portfolio implementiert wird.
Solange sie damit nicht die Konkurrenztechnologien aktiv verhindern, sehe ich das ganz genauso, aber auf diesen Punkt bist du ja bei deinem Beitrag nicht eingegangen, warum auch immer.=)
Aber ganz sicher nicht irgend ein Post in einem Forum.
Wenn das Thema weiter hochgekocht wird, sehen wir vielleicht alle Techniken zum Start von Starfield. Toll für die Kunden.

Mir persönlich ist es vollkommen egal was implementiert wird, bzw. freue mich auch als zur Zeit nVidia Nutzer eher über FSR, da es wesentlich mehr Grafikkarten und damit Nutzer einschließt.
Also hast du noch eine Nvidia GPU vor RTX Turing?

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Mit dem Video ist dann auch alles gesagt. :D
 
Zuletzt bearbeitet:
Zurück