News FSR 3: AMD verspricht doppelte Leistung im Vergleich zu FSR 2 durch Frame Interpolation

Manche hier wollen das Problem einfach nicht verstehen.
Manche wollen nicht verstehen, dass die Hardwarewelt nicht nach sozialistischen Maßstäben funktioniert. Solche Technologien wie Frame Generation zu entwickeln kostet viel Geld. Warum soll Nvidia das an die Konkurrenz verschenken? Das macht 0 Sinn.

Übrigens, alle, die hier Open-Source Software feiern sollen mal ihre Open-Source Projekte herzeigen. ^^
 
Redaktionell bin ich mittlerweile für PCGH tätig und bei CB aus der Redaktion ausgeschieden.

Selbstverständlich bin ich hier wie dort nach wie vor in den Foren unterwegs, das halte ich ja seit Jahren so.

News, Berichte und Specials von mir wirst du aber zukünftig hier finden. Zudem wird das Forum hier meine erste Anlaufstelle.

Da ich gerne im Nachgang zu meinen Meldungen noch Fragen beantworte, bietet sich das ganz einfach auch an.

Ich kann mich ja nicht vierteilen. ^^
Kann der Qualität des Onlinemediums PCGH nur zugänglich sein, für die CB bist du ein Verlust, ich habe deine Meldungen dort immer gerne gelesen. Aber dann: willkommen bei der PCGH :)
 
Übrigens, alle, die hier Open-Source Software feiern sollen mal ihre Open-Source Projekte herzeigen. ^^
Auch wenn ich weiß das du nicht ganz unrecht hast, heißt das dann das man nur Open-Source feiern (oder wenn man es überspitzt nutzen) darf wenn man selber Open-Source Projekte hat ?

Mal abgesehen davon das jeder der nicht sich mit programmieren auseinandersetzt damit quasi automatisch draußen ist :S
 
Auch wenn ich weiß das du nicht ganz unrecht hast, heißt das dann das man nur Open-Source feiern (oder wenn man es überspitzt nutzen) darf wenn man selber Open-Source Projekte hat ?
Alle, die sich ein Urteil erlauben über den Stellenwert von Open-Source, sollten selbst ein entsprechendes Projekt vorweisen können, ja, denn es geht stets einher mit gewissen Opfern. Das Geben und Nehmen Prinzip greift leider nicht immer.
 
Das geben und nehmen Prinzip kann auch in gewissen rahmen über spenden funktionieren nicht nur über eigene Projekte.

Zumal das sich nur wer selber sowas hat ein Urteil erlauben darf, wohl so auch nicht so stehen kann, sonst könnten man sich auch über zum Beispiel Grafikkarten kein Urteil erlauben solange man nicht selber welche baut.

Wobei ich wie schon gesagt grundsätzlich wohl ehr auf deiner Seite stehe, denn auch wenn ich immer gerne empfindlich bei Absolutheiten bin, hast du natürlich nicht unrecht das gewisse opfer damit einhergehen sollten und das oft nur genommen wird.
 
Die Behauptung war ursprünglich, dass es Jene ohne nVidia nie gegeben hätte. Vollkommen falsche Annahme!
Nein, bis jetzt nicht gegeben war die Argumentation und da liegt die Wahrscheinlichkeit hoch, da AMD nicht aktiv Raytracing verfolgte und sogar die RDNA1 Architektur die 1 Jahr nach Turing erschien komplett ohne entsprechende Funktionalität daherkam. Bei DLSS und FG ist es noch viel offensichtlicher, da hier Microsoft nicht involviert war.
So ein Quatsch! Ist dein Name Pipi Langstrumpf? Bis hier sind es in diesem thread knapp 50 Beiträge. Davon äußern sich ganze zwei positiv zu FSR 3 und zwei negativ gegenüber DLSS FG.
Ich glaube es ist klar, dass Frame Generation keine "easy Sache" und "Kacke" ist, sowie es dein Voting von Beitrag #9 andeutet und es besser wäre einfach die alten Frames erneut zu senden. :-] Eine differenzierte und informierte Betrachtung solcher Features wäre wünschenswert.
Ich mag beispielsweise DLSS FG nicht, aber halte aus genau diesem Grund auch nichts von FSR3.
Also eine reine Befindlichkeit und Meinungsäußerung, ohne dass diese auf Fakten fußt.
Warum auch? Letztlich bekommt man mehr fps im Tausch gegen Bildqualität (wenn auch geringfügig). Warum sollte ich das gut finden? Ich warte lieber damit ein Spiel zu spielen, weil ich einfach wenig Zeit zum spielen finde/nehme.
Man bekommt mehr Bildqualität, weil durch intelligente Verfahren mehr Leistung freigeschaufelt wird, die man in höhere Settings investieren kann. Man kann sogar Super Sample Upscaling mit Downsampling verbinden, um somit die Bildqualität ohne Leistungsverlust zu erhöhen.

Dann will ich es möglichst störungsfrei spielen. Also keine Artefakte, kein Schlieren usw.
Normales TAA oder SMAA in nativer Auflösung ohne Upscaling enthält eine ganze Reihe von Artefakten, das hat Rastergrafik so an sich.
Wie gesagt, ich mag die Techniken beider Hersteller nicht, was das betrifft.
Ja, das ist klar geworden. Ergibt aber keinerlei Sinn.
 
Zuletzt bearbeitet:
Manche wollen nicht verstehen, dass die Hardwarewelt nicht nach sozialistischen Maßstäben funktioniert. Solche Technologien wie Frame Generation zu entwickeln kostet viel Geld. Warum soll Nvidia das an die Konkurrenz verschenken? Das macht 0 Sinn.

Übrigens, alle, die hier Open-Source Software feiern sollen mal ihre Open-Source Projekte herzeigen. ^^
Ich glaube schon, dass das alle verstehen. Das Problem ist eher der Hyperkapitalismus, der deutlich schädliche Auswirkungen auf unsere Gesellschaft und Umwelt hat. Ob die Entwicklung von Technologien wie FG wirklich so unfassbar viel Geld gekostet hat, mag ich ehrlich gesagt bezweifeln. RT, Upscaling und FG waren keine neuen Techologien. Nvidia hat diese lediglich für GPUs implementiert.

Ich glaube ehrlich gesagt, dass wir techologisch viel weiter wären, hätten wir einen gesunden Markt und weniger restriktive Urheberrechts- und Patentgesetze.
 
Ich glaube ehrlich gesagt, dass wir techologisch viel weiter wären, hätten wir einen gesunden Markt und weniger restriktive Urheberrechts- und Patentgesetze.
Was wäre denn für die Wettbewerber dann der Alternativanreiz neue Technologien zu entwickeln, wenn man diese dann nicht als ökonomisches Mittel zur Behauptung seines Produkts und damit zum Geldverdienen verwenden kann?

Wieso sollte er sich dann nicht einfach darauf beschränken immer nur das Notwendigste zu investieren um gerade mal so auf Augenhöhe des Wettbewerbers bleiben zu können?

Wie soll denn eine Firma funktionieren, die dem Mitbewerber Innovationen und Alleinstellungsmerkmale offenlegt?
Hohe Investitionen in Forschung und Entwicklung tätigen, die dann der Mitbewerber entspannt kostenlos abgreift und für seine eigenen Produkte verwendet?

Inzwischen liegt auch ein ziemlich hoher Anteil der Selling- Points in der Software. Das wird hier vollständig unter den Tisch gekehrt.

Kann jeder mal gerne machen. 4 Jahre an einer Software entwickeln, die sich auf dem Markt behaupten soll.
Schön hohe Kredite für Entwicklung aufnehmen.
Und dann die Entscheidung fällen, dass man es nicht closed Source über den normalen Vertriebsweg verbreitet, sondern es open source stellt mit der Bitte und dem Appell an das Gute im Menschen, dass man doch eine kleine Spende entrichten möge.

Klar. Nebst dem dass die Aasgeier schon darauf warten die Source zu zerpflücken, falls diese was taugt und in ihre eigenen Projekte zu kopieren dank lockerer Uhrheberrechts- und Patentgesetze.

Und eine Erfindung zu Geld zu machen oder daran verdienen zu wollen hat nichts mit Hyperkapitalismus zu tun. Es sind Marktmechanismen auch in gemäßigtem Umfeld, die seit jeher Innovationstriebfeder sind.
Auch ein kluger Geist bracht Geld zum Leben.
Auch wenn ich weiß das du nicht ganz unrecht hast, heißt das dann das man nur Open-Source feiern (oder wenn man es überspitzt nutzen) darf wenn man selber Open-Source Projekte hat ?
Die Problematik, die immer wieder durchblitzt ist, dass diejenigen, die am lautesten nach Open- Source rufen, dies aus rein egoistischen und eigennützigen Motiven feiern, die jedoch meist zu Lasten eines anderen gehen (im Normalfall der Bösen Konzern).

99,9% haben nie einen Beitrag zur Open- Source Community beigesteuert, beteiligen sich nicht am Reporting, liefern kein Feedback usw. usf.
Also noch nichtmal die einfachsten Dinge, die man tun kann um den Projekten etwas zurückzugeben und diese am Leben zu erhalten.

Es wird nur abgegriffen in der guten Gewissheit, dass wenn der eine das Projekt aufgibt, sich dann schon ein anderer Idiot finden wird, der für einen das Projekt dann weiterentwickelt.

Und das widerspricht dem Kerngedanken.
 
Zuletzt bearbeitet:
Die Problematik, die immer wieder durchblitzt ist, dass diejenigen, die am lautesten nach Open- Source rufen, dies aus rein egoistischen und eigennützigen Motiven feiern, die jedoch meist zu Lasten eines anderen gehen (im Normalfall der Böse Konzern). 99,9% haben nie einen Beitrag zur Open- Source Community beigesteuert, beteiligen sich nicht am Reporting, liefern kein Feedback usw. uf.
Es wird nur abgegriffen in der Guten Gewissheit, dass wenn der eine das Projekt aufgibt, sich dann schon ein anderer Idiot finden wird, der für einen das Projekt dann weiterentwickelt.

Und das widerspricht dem Kerngedanken.
Das ist eine Sache wo ich hoffe das du unrecht hast (speziell die 99,9%) und auch denke das der Anteil schon höher sein dürfte, auch wenn wohl leider nicht so arg viel :S
 
Ich glaube es ist klar, dass Frame Generation keine "easy Sache" und "Kacke" ist, sowie es dein Voting von Beitrag #9 andeutet und es besser wäre einfach die alten Frames erneut zu senden. :-] Eine differenzierte und informierte Betrachtung solcher Features wäre wünschenswert.

Also eine reine Befindlichkeit und Meinungsäußerung, ohne dass diese auf Fakten fußt.

Man bekommt mehr Bildqualität, weil durch intelligente Verfahren mehr Leistung freigeschaufelt wird, die man in höhere Settings investieren kann. Man kann sogar Super Sample Upscaling mit Downsampling verbinden, um somit die Bildqualität ohne Leistungsverlust zu erhöhen.


Normales TAA oder SMAA in nativer Auflösung ohne Upscaling enthält eine ganze Reihe von Artefakten, das hat Rastergrafik so an sich.

Ja, das ist klar geworden. Ergibt aber keinerlei Sinn.
Du machst mir ja Spaß. :fresse:
Reine Beharrlichkeit ohne Fakten? Hast du das selbst mal ausprobiert? Ich hab hier auf der Plattform einen mit 4090 und einen (der ja bisher meine 3080 hatte) jetzt mit 4070ti. Ob er jetzt spielt und ich gucke, oder ich selbst spiele, ist doch völlig egal. Ändert doch nichts am Bild.
Die Einstellung zu DLSS und FSR kommt allerdings von meinen Systemen und ich verzichte lieber. In Cyberpunk beispielsweise mit dem aktuellen Patch, kann man schön sehen dass das Bild eben doch an Qualität verliert. Es wird super ruhig, was du vermutlich als Zugewinn ansiehst, aber alles was sich hinter Gittern und anderen, feinen Strukturen verbirgt, wird ungenauer. Irgendwie diffus. Das gleiche mit dem Licht dass durch Bäume fällt. Das wird diffus, was es ja soll, aber die Schatten werden unnatürlich geschärft, auch wenn der Schärferegler reduziert wird. Wenn man sich dann die Übergänge Wasser zu Asphalt, oder schräg beleuchtetes Glas zu Mauerwerk anschaut, sieht man dass es nicht korrekt arbeitet. Alles in Bewegung versteht sich. Bleibt man stehen und guckt sich etwas an, ist das Bild ja durchaus gut bis besser. Nur wer macht das? Die meiste Zeit ist man doch in Bewegung.

Was du mit Beitrag Nummer neun hast verstehe ich nicht. Der Senf ist doch nicht von mir. Als wenn ich mich so ausdrücken würde...

Edit
Jetzt verstehe ich es doch. Den hatte ich aber nicht absichtlich geliked. Ich bin ja zu 99,99% nur mit dem Handy auf PCGH unterwegs. Da passiert das schon mal beim scrollen.
 
Nein, bis jetzt nicht gegeben war die Argumentation und da liegt die Wahrscheinlichkeit hoch, da AMD nicht aktiv Raytracing verfolgte und sogar die RDNA1 Architektur die 1 Jahr nach Turing erschien komplett ohne entsprechende Funktionalität daherkam. Bei DLSS und FG ist es noch viel offensichtlicher, da hier Microsoft nicht involviert war.
Die Behauptung auf die ich mich bezogen habe ist folgende:
Und? Irgendjemand musste es bringen und Nvidia hats getan. AMD zieht, mal wieder, nur nach und die Fangemeinde feierts, aber verurteilt Nvidia.
Ohne Nvidia hätten wir heute weder DLSS/FSR, noch Frame Generation oder RT.
Auf diese Behauptung habe ich geantwortet und du bist owned heldenhaft zur Seite gesprungen.

Es wurde also behauptet, dass es ohne nVidia keine der oben genannten Technologien jemals gegeben hätte.
RT ist jedoch uralt, Upsampling und Bild-Interpolation ebenfalls.

Nun beziehst du dich bei RT darauf, dass AMD hier nur kopiert haben soll. Eine GPU IP ist im Schnitt ca 5 Jahre in der Entwicklung. Jetzt kannst du dir selbst ausrechnen ob es da Parallelitäten gab. Zudem Sony hier sicher keine unwichtige Rolle gespielt haben dürfte :)

Btw... wo sie eigentlich die von dir proklamierten internen "Marketingstrategiefolien"?

Kommt drauf an von welcher Technologie wir reden. Echtzeit Raytracing war absehbar und wurde ja auch gemeinsam mit MS und NV in einen Standard gegossen. Natürlich war man da auch am Entwickeln.
Aber wenn man sich die zeitlichen Abläufe bei Upsampling und Framegeneration ansieht scheint es schon sehr wahrscheinlich dass AMD dort erst jeweils mit dem Release der entsprechenden DLSS Version die eigene Entwicklung angeschoben hat. Insbesondere die fixe Ankündigung eines FSR3 dass dann ewig nicht kommt klingt mehr nach Kurzschlussreaktion als vorheriger Planung.

Dir gebe ich absolut Recht! Vollkommen nachvollziehbar. Jedoch wurde hier von einigen Personen behauptet, gewisse Technologien wären ohne nVidia niemals erschienen. Dies ist natürlich aboluter Schwachsinn.
 
Was wäre denn für die Wettbewerber dann der Alternativanreiz neue Technologien zu entwickeln, wenn man diese dann nicht als ökonomisches Mittel zur Behauptung seines Produkts und damit zum Geldverdienen verwenden kann?

Wieso sollte er sich dann nicht einfach darauf beschränken immer nur das Notwendigste zu investieren um gerade mal so auf Augenhöhe des Wettbewerbers bleiben zu können?

Wie soll denn eine Firma funktionieren, die dem Mitbewerber Innovationen und Alleinstellungsmerkmale offenlegt?
Hohe Investitionen in Forschung und Entwicklung tätigen, die dann der Mitbewerber entspannt kostenlos abgreift und für seine eigenen Produkte verwendet?

Inzwischen liegt auch ein ziemlich hoher Anteil der Selling- Points in der Software. Das wird hier vollständig unter den Tisch gekehrt.

Kann jeder mal gerne machen. 4 Jahre an einer Software entwickeln, die sich auf dem Markt behaupten soll.
Schön hohe Kredite für Entwicklung aufnehmen.
Und dann die Entscheidung fällen, dass man es nicht closed Source über den normalen Vertriebsweg verbreitet, sondern es open source stellt mit der Bitte und dem Appell an das Gute im Menschen, dass man doch eine kleine Spende entrichten möge.

Klar. Nebst dem dass die Aasgeier schon darauf warten die Source zu zerpflücken, falls diese was taugt und in ihre eigenen Projekte zu kopieren dank lockerer Uhrheberrechts- und Patentgesetze.

Und eine Erfindung zu Geld zu machen oder daran verdienen zu wollen hat nichts mit Hyperkapitalismus zu tun. Es sind Marktmechanismen auch in gemäßigtem Umfeld, die seit jeher Innovationstriebfeder sind.
Auch ein kluger Geist bracht Geld zum Leben.
Ich glaube, du hast mich misverstanden. Ich bin nicht gegen Urheber- und Patentrecht - ich bin aber gegen die derzeitige Form. Urheber- und Patentrecht reicht derzeit einfach zu weit und zu lang, weshalb m.E. Einschränkungen notwendig sind. Gerade im IT-Bereich sind Patente viel zu schwammig und gefährden daher die technologische Weiterentwicklung - schlicht, weil man irgendwelche oberflächlichen Ideen (nicht einmal technologische Prozesse) patentieren kann ohne diese dann im Zweifel selbst aktiv zu nutzen. Das beste Beispiel im Hardware-Bereich dürfte SCUF sein, die so einige Dinge bei Controllern in Geiselhaft halten (was der Hauptgrund dafür ist, warum XBOX Elite Controller so unverschämt teuer sind).
 
Was wäre denn für die Wettbewerber dann der Alternativanreiz neue Technologien zu entwickeln, wenn man diese dann nicht als ökonomisches Mittel zur Behauptung seines Produkts und damit zum Geldverdienen verwenden kann?

Wieso sollte er sich dann nicht einfach darauf beschränken immer nur das Notwendigste zu investieren um gerade mal so auf Augenhöhe des Wettbewerbers bleiben zu können?

Wie soll denn eine Firma funktionieren, die dem Mitbewerber Innovationen und Alleinstellungsmerkmale offenlegt?
Hohe Investitionen in Forschung und Entwicklung tätigen, die dann der Mitbewerber entspannt kostenlos abgreift und für seine eigenen Produkte verwendet?

Inzwischen liegt auch ein ziemlich hoher Anteil der Selling- Points in der Software. Das wird hier vollständig unter den Tisch gekehrt.

Kann jeder mal gerne machen. 4 Jahre an einer Software entwickeln, die sich auf dem Markt behaupten soll.
Schön hohe Kredite für Entwicklung aufnehmen.
Und dann die Entscheidung fällen, dass man es nicht closed Source über den normalen Vertriebsweg verbreitet, sondern es open source stellt mit der Bitte und dem Appell an das Gute im Menschen, dass man doch eine kleine Spende entrichten möge.

Klar. Nebst dem dass die Aasgeier schon darauf warten die Source zu zerpflücken, falls diese was taugt und in ihre eigenen Projekte zu kopieren dank lockerer Uhrheberrechts- und Patentgesetze.

Und eine Erfindung zu Geld zu machen oder daran verdienen zu wollen hat nichts mit Hyperkapitalismus zu tun. Es sind Marktmechanismen auch in gemäßigtem Umfeld, die seit jeher Innovationstriebfeder sind.
Auch ein kluger Geist bracht Geld zum Leben.

Die Problematik, die immer wieder durchblitzt ist, dass diejenigen, die am lautesten nach Open- Source rufen, dies aus rein egoistischen und eigennützigen Motiven feiern, die jedoch meist zu Lasten eines anderen gehen (im Normalfall der Bösen Konzern).

99,9% haben nie einen Beitrag zur Open- Source Community beigesteuert, beteiligen sich nicht am Reporting, liefern kein Feedback usw. usf.
Also noch nichtmal die einfachsten Dinge, die man tun kann um den Projekten etwas zurückzugeben und diese am Leben zu erhalten.

Es wird nur abgegriffen in der guten Gewissheit, dass wenn der eine das Projekt aufgibt, sich dann schon ein anderer Idiot finden wird, der für einen das Projekt dann weiterentwickelt.

Und das widerspricht dem Kerngedanken.


Nagel auf den Kopf getroffen .

Was dann auch erklärt warum FSR auf auch auf zb. Nvidia Karten läuft .

Diese Technik braucht nur einen vergleichsweise sehr geringen Sofware und Hardware Aufwand , und sieht auch dementsprechend danach aus .

Dafür würde keiner extra Geld bezahlen .

Also mehr oder weniger Open Source .

Amd hätte gar nicht die Möglichkeiten etwas besseres zu bringen und auch zu nutzen .

Man denke nur mal an die Aussage von Amd im nachhinein man hätte etwas vergleichbares zur Nvidia RTX 4090 bringen können
Amd eben.
:schief:
 
Es wurde also behauptet, dass es ohne nVidia keine der oben genannten Technologien jemals gegeben hätte.
RT ist jedoch uralt, Upsampling und Bild-Interpolation ebenfalls.
Nein, dass es diese niemlas gegeben hätte war nicht meine Aussage!
Setz die rote Brille ab und lies richtig, bevor du irgendwas behauptest.
Ich sprach vom hier und jetzt, was die Zukunft bringt, weiß ich nicht und, dass ich das RT in Spielen meine, ist doch wohl auch offensichtlich?
Du willst mich absichtlich falsch verstehen und mir Worte in den Mund legen, weil du sonst keine Gegenargumente hättest.
 
Was zwar stimmt aber ernsthaft wie hätte AMD denn etwas wie DLSS einführen können ohne sich ins Fleisch zu schneiden?

Wenn die Closed-Source angefangen hätten wäre es ein recht wahrscheinlich eine art Format Krieg geworden und wer hätte den wohl gewonnen der mit wenig oder der mit vielen Marktanteilen ?

Wenn man mit Open-Source angefangen hätte weiß ich nicht ob es viel anders als jetzt aussähe.

Auch wenn Nvidia viele Neuerungen bringt, sind die auch am ehesten in der Lage, mit mehr Geld und deutlich mehr Marktanteil sowas zu stemmen bzw. durchzudrücken.

Also auch wenn es technisch Korrekt ist, Nvidia dafür dann zu feiern, hat für mich einen faden Beigeschmack.
 
Reine Beharrlichkeit ohne Fakten? Hast du das selbst mal ausprobiert?
Ich verlasse mich dabei auf die Analyse von Experten und meinen eigenen Eindruck, auch Blindvergleiche. Und das deckt sich mit meinen Erfahrungen.
DLSS Quality liefert meist bessere Resultate als Nativ+TAA oder MLAA und einen erklecklichen Performancezuwachs kostenlos oben drauf.
In Cyberpunk beispielsweise mit dem aktuellen Patch, kann man schön sehen dass das Bild eben doch an Qualität verliert. Es wird super ruhig, was du vermutlich als Zugewinn ansiehst, aber alles was sich hinter Gittern und anderen, feinen Strukturen verbirgt, wird ungenauer. Irgendwie diffus. Das gleiche mit dem Licht dass durch Bäume fällt. Das wird diffus, was es ja soll, aber die Schatten werden unnatürlich geschärft, auch wenn der Schärferegler reduziert wird.
Das hört sich für mich so an, als dass du dich an Kleinigkeiten störst und deshalb das bessere Gesamtbild nicht verwendest.
Mir sind diese Phänomene nicht aufgefallen, obwohl ich erst heute in Cyberpunk danach gesucht habe. Für mich ist eindeutig das TAA Bild in seiner Gesamtheit schwächer in Verbindung mit Downsampling meilenweit überlegen, ohne spürbare Performanceeinbußen.
Wenn man sich dann die Übergänge Wasser zu Asphalt, oder schräg beleuchtetes Glas zu Mauerwerk anschaut, sieht man dass es nicht korrekt arbeitet.
Kannst du das mittels Screenshot zeigen?
Es wurde also behauptet, dass es ohne nVidia keine der oben genannten Technologien jemals gegeben hätte.
Der User owned bezog sich auf den Zeitraum bis heute, also jetzt.
RT ist jedoch uralt, Upsampling und Bild-Interpolation ebenfalls.
Gemeint ist RT als SDK für Computerspiele und die Hardware Unterstützung in Grafikkarten, sowie die Marktreife.
Upsampling und Bild-Interpolation stehen nicht für die Technologien wie DLSS/FSR 2.0 und Frame Generation, haben nicht ansatzweise den Funktionsumfang.
Nun beziehst du dich bei RT darauf, dass AMD hier nur kopiert haben soll.
Nein, das habe ich nicht gesagt.
Btw... wo sie eigentlich die von dir proklamierten internen "Marketingstrategiefolien"?
Ich sprach von der Marketingstrategie die für die Nutzer ersichtlich ist, nicht von Folien.

Jedoch wurde hier von einigen Personen behauptet, gewisse Technologien wären ohne nVidia niemals erschienen. Dies ist natürlich aboluter Schwachsinn.
Das wurde nicht behauptet, da liegt ein Missverständnis vor.
 
Zuletzt bearbeitet:
Das hört sich für mich so an, als dass du dich an Kleinigkeiten störst und deshalb das bessere Gesamtbild nicht verwendest.
Mir sind diese Phänomene nicht aufgefallen, obwohl ich erst heute in Cyberpunk danach gesucht habe. Für mich ist eindeutig das TAA Bild in seiner Gesamtheit schwächer in Verbindung mit Downsampling meilenweit überlegen, ohne spürbare Performanceeinbußen.

Kannst du das mittels Screenshot zeigen?
Naja klar! Ich sag doch auch nichts anderes. Es ist meine Wahrnehmung und nichts allgemeingültiges. Persönlich verstehe ich gar nicht, warum da so oft was anderes daraus gemacht wird. Ich bin Prüfer und gucke ständig auf Kleinigkeiten, es ist mein Job, dass mir geringste Abweichungen auffallen. Eine Stärke im Berufsleben, die privat halt negatives mit sich bringt.
Das heißt aber nicht, dass es das nicht gibt. Genau das ist ja das ärgerliche an DLSS. Das Bild wird sehr ruhig, kein flimmern und keine auffallenden Treppchen mehr. Wenn dann irgendwo am Bildrand im Lauf plötzlich was anders wirkt, fällt mir das übelst krass auf. Wie wenn plötzlich einer im Zimmer hinter dir hustet, wo du eben noch alleine warst.

Wenn ich wieder Zuhause bin, versuche ich das nochmal mit Bildern zu erwischen, aber das ist eben schwer. Als Video hatte ich das schon versucht, aber da macht die Komprimierung was total anderes daraus. Ein Screenshot von etwas in Bewegung ist halt meist nur wieder das eine frame und nicht der Übergang zum nächsten, wo man die Auffälligkeiten sieht.
 
Genau das ist was was zu selten in Diskussionen erwähnt wird, es ist immer eine Subjektive Sache.

Dem einen fallen so Kleinigkeiten auf und es stört ihm ,den anderen nicht.

Der eine meint es ist Müll der andere es wäre das beste was es gibt.

Keiner der beiden hat unrecht, jeder Mensch ist anders und dementsprechend ist nicht alles für alle gültig.
 
Exakt das. Irgendwie haben viele immer das Gefühl andere von ihrer Meinung überzeugen zu müssen. Sie aufdrücken, nennt man das.
Dann gibt's noch den Unterschied durch den Monitor. Wer beispielsweise einen 144Hz Monitor nutzt, wird Dinge ganz anders oder gar nicht störend wahrnehmen, die jemandem mit 60Hz Panel direkt auffallen.
 
Zuletzt bearbeitet:
Zurück