News DirectSR: Microsoft enthüllt die Upscaling-Schnittstelle für alle

Die "Uralt" Titel zeigen dass AMD anscheinend DLSS in von ihnen gesponsorten Spielen nicht gerne sieht, und dass es Nvidia egal ist.
Uralt, daher nicht "sieht", sondern "sah". Oder nenne mir mal aktuelle Titel mit FSR aber ohne DLSS. Andersherum gibt es mehr Beispiele. Alone in the dark und Outcast 2 habe ich nicht zufällig erwähnt, sind topaktuell und ohne FSR2.
Beide nutzen soweit ich weiß die UE4, daher wäre es wohl relativ einfach und schnell es einzufügen.

Ich hoffe dass sich DirectSR durchsetzt und es solche Fälle in Zukunft dann nicht mehr gibt
Außerdem sponsored Nvidia deutlich mehr Spiele als AMD, natürlich wird die Technologie dann öfter eingesetzt.
Ist das dann ein Grund zu feiern? Ich glaube nicht. Konsolen-Gamer profitieren nicht davon
 
Ich verstehe Deine Sichtweise. Ich habe eine andere. Wenn man neue Technologien einführt, dann kann man die alten Generationen nicht immer "mitnehmen".
Kann man nicht immer, aber man könnte öfter, als Nvidia das macht. Ist halt eine Servicefrage. Muss jeder selbst wissen, wo er die Grenze zwischen verbreitungsbedingt oder auch technisch gerechtfertigtem Zurücklassen und zum Neukauf Drängen zieht. Solange einem nichts weggenommen wird und man weiterhin hat, was man gekauft hat, hat man zwar keine richtige Grundlage, aber es bleibt halt schon ein Beigeschmack, wenn man weiß, dass das vorsätzlich gemacht wird.
 
Und kann man deswegen Nvidia Sabotage vorwerfen?
Ich sage das zwar nicht so deutlich und bin auch nicht sicher ob das Wort Sabotage richtig ist, aber generell ist es sicher nicht im Interesse von Nvidia offene Standards zu fördern, wenn man eigene proprietäre anbietet


Achso, Nvidia hat überhaupt nichts "Gutes" getan.
Das ich das nicht meine sollte sich zwar aus dem Kontext ergeben aber nun gut. Das meine ich damit nicht, natürlich hat Nvidia viele gute Technologien entwickelt und auch Fortschritte gebracht. Mit anderen Worten, ohne Nvidia wäre die Welt heute eine andere, wahrscheinlich weniger fortschrittliche.

Aber, was ich meine. Nvidia ist die Ausgeburt der Hölle und sie tun alles um den eigenen Wert zu steigern, dabei gehen sie auch über die sprichwörtlichen Leichen und werden immer versuchen jeden Konkurenten im Keim zu ersticken. In der Firmenpolitik etwas gutes zu suchen fällt bei Nvidia sehr schwer und gerade unter Lederjackenimitat wird das auch so bleiben. Man braucht ja nur News zu suchen um zu finden, sei es die Boardpartner die unter Druck gesetzt werden, preislich alle Risiken tragen müssen, während Gewinne zu Gunsten von NV abfallen, sei es CUDA und alle rechtlichen Möglichkeiten die Konkurenz zu Bremsen, umfangreiche AGBs für Lieferanten die diese unter Druck setzen, massives Marketing, gerne auch mit irreführenden teils falschen Angabe (bspw. GTX970 mit 4GB VRAM), sei es

All das zeigt eben in der Geschichte, dass Nvidia rücksichtslos, skrupellos und gewinnorientert ist. Ist das schlimm? Ja, allerdings hat sich die gesamte Wirtschaft so entwickelt und das AMD dies anders macht, liegt einfach daran, dass sie es müssen um eben einen anderen Ruf zu haben, sie können ihre Partner nicht so unter Druck setzen, weil es denen nahezu egal ist ob die paar Karten wegfallen, wird halt weiter NV verkauft. Wenn AMD in der Position wäre, würde es sehr wahrscheinlich ähnlich dort ablaufen.

Was ich nicht verstehe, warum muss man dieses Bild so weichzeichnen wie möglich? Man kann doch einfach bei der Wahrheit oder in der Realität bleiben. Ich kann dennoch NV kaufen und fühle mich nicht schlecht dabei, nur lasse ich mich nach Möglichkeit nicht von schnöden Marketingaussagen blenden
 
Uralt, daher nicht "sieht", sondern "sah". Oder nenne mir mal aktuelle Titel mit FSR aber ohne DLSS. Andersherum gibt es mehr Beispiele. Alone in the dark und Outcast 2 habe ich nicht zufällig erwähnt, sind topaktuell und ohne FSR2.
Beide nutzen soweit ich weiß die UE4, daher wäre es wohl relativ einfach und schnell es einzufügen.

Ich hoffe dass sich DirectSR durchsetzt und es solche Fälle in Zukunft dann nicht mehr gibt

Starfield kam auch vor kurzem nur mit FSR raus. Erst Wochen nach dem DLSS-Mod (der wenige Stunden nach Release kam und bereits besser aussah als FSR) und dem Aufschrei der Community wurde nachgeliefert. Und AMD hat sich da mit ihren Stellungnahmen (die erst mal überhaupt nicht kamen) nicht gerade mit Ruhm bekleckert.

Siehe Liste. Nvidia hat nichts damit zu tun ob Outcast 2 oder Alone in the Dark ohne FSR rauskommen. Die schätzen sogar eher wenn beides drin ist, dann kann man den Unterschied schön sehen...

Im verlinkten Artikel aus dem ursprünglichen Post stehen übrigens Stellungnahmen von Ubisoft und Nvidia. Mein Kommentar dazu ist explizit als These gekennzeichnet:

Und selbst wenn es damals so gelaufen ist, aktuell scheint eher AMD der "Technologie-Verhinderer" zu sein. Siehe Starfield und diverse andere "AMD-sponsored" Titel...

Nenn Du mir doch kürzlich erschienene AMD-Sponsored Titel. Ich hab ja was geliefert, du dagegen noch nichts...

Ist das dann ein Grund zu feiern? Ich glaube nicht. Konsolen-Gamer profitieren nicht davon

Ich feiere das nicht, wie kommst Du darauf? Ich habe hier nur den Unfug eines anderen mit Fakten widerlegt. That's it.
Kann man nicht immer, aber man könnte öfter, als Nvidia das macht.

Da spricht ein Experte?

Ist halt eine Servicefrage.

Oder technisch bedingt.

Muss jeder selbst wissen, wo er die Grenze zwischen verbreitungsbedingt oder auch technisch gerechtfertigtem Zurücklassen und zum Neukauf Drängen zieht.

Das wissen die Entwickler am besten. Ich vermag das nicht zu beurteilen, dafür kenne ich mich zu wenig damit aus.

Solange einem nichts weggenommen wird und man weiterhin hat, was man gekauft hat, hat man zwar keine richtige Grundlage, aber es bleibt halt schon ein Beigeschmack, wenn man weiß, dass das vorsätzlich gemacht wird.

Richtig, keine Grundlage. Und woher WEISST Du dass es vorsätzlich gemacht wird? Bitte Quelle verlinken, würde mich interessieren.
Was ich nicht verstehe, warum muss man dieses Bild so weichzeichnen wie möglich? Man kann doch einfach bei der Wahrheit oder in der Realität bleiben. Ich kann dennoch NV kaufen und fühle mich nicht schlecht dabei, nur lasse ich mich nach Möglichkeit nicht von schnöden Marketingaussagen blenden

Ich möchte eigentlich nur groben Unfug mit Fakten widerlegen und Verschwörungstheorien hinterfragen.

Wo zeichne ich "weich"? Ernsthaft, wo genau sage ich "Nvidia ist total toll und hat nichts Böses gemacht!"? Ich bin gespannt was Du findest!

Wie Du sagtest, so ziemlich alle Aktien-Unternehmen agieren ähnlich. "Hier gibt es nichts zu sehen!" - Das fällt mir bei den meisten der Kommentare hier ein. Haltlose Beschuldigungen (Sabotage!?), Pseudo-Argumente, alternative Fakten, sowas finde ich meist wenn es um Nvidia geht. Und selbst in Nicht-Nvidia Threads wird dasselbe veranstaltet.
 
Zuletzt bearbeitet von einem Moderator:
Da spricht ein Experte?
Man musste kein Experte sein, um mitbekommen zu haben, wie FreeSync auf Pascal-Karten noch nachgereicht wurde, nachdem man es erst nicht liefern wollte. Und bei den aktuellen Softwarelösungen sehe ich jetzt auch nicht so recht, warum die nicht auch auf den älteren RT/AI-Einheiten laufen sollten.
Oder technisch bedingt.
Ja. Oder. Je nachdem halt.
Das wissen die Entwickler am besten. Ich vermag das nicht zu beurteilen, dafür kenne ich mich zu wenig damit aus.
Aber entscheiden die das auch? Da wäre ich mir ja nicht so sicher.
Richtig, keine Grundlage. Und woher WEISST Du dass es vorsätzlich gemacht wird? Bitte Quelle verlinken, würde mich interessieren.
Na gut, dann halt nicht wissen, sondern stark vermuten. Es wirkt halt oft schon sehr weit hergeholt. Würde mich zum Beispiel sehr wundern, wenn man spezielle Hardwareeinheiten für FG zwingend bräuchte.
Es wurde wohl auch bestätigt, dass das prinzipiell auf älteren Karten möglich wäre:
https://www.pcgameshardware.de/Gefo...-auf-RTX-3000-Turing-RTX-2000-Ampere-1403920/
Dass das nicht viel bringen würde, weil die alten Karten dafür zu langsam sind, muss man ihnen halt glauben. Ich bin da eher skeptisch.
 
Man musste kein Experte sein, um mitbekommen zu haben, wie FreeSync auf Pascal-Karten noch nachgereicht wurde, nachdem man es erst nicht liefern wollte.

Freesync wurde Januar 2017 released (Stable Release)
G-Sync Compatible kam ziemlich genau 2 Jahre später im Nvidia Treiber dazu, Januar 2019

Das ist ungefähr die Zeitspanne die AMD braucht um Features von Nvidia nachzubauen. Bestimmt hätte Nvidia den Support schneller ermöglichen können, die Frage die ich mir stelle ist: Wie viele Monitore mit Adaptive Sync / Freesync gab es in der Zeit? Waren das mehr als eine handvoll? Finde dazu nichts.

Wenn es in den 2 Jahren nur wenige Monitore mit der Technologie gab, dann kann man schon nachvollziehen dass das Feature keine hohe Prio hatte.

Und bei den aktuellen Softwarelösungen sehe ich jetzt auch nicht so recht, warum die nicht auch auf den älteren RT/AI-Einheiten laufen sollten.

https://www.hardwareluxx.de/index.p...ation-die-ai-revolution-ist-losgebrochen.html

Ein Optical Flow Accelerator (OFA) bzw. eine Optical Flow Engine war bereits Bestandteil der Ampere-Architektur (GeForce-RTX-30-Serie). Verwendet wird er unter anderem in der Erkennung von Bewegungsvektoren für ein Video-Encoding. Der in der Ada-Lovelace-Architektur verwendete OFA kommt auf eine Rechenleistung von 300 TOPS (Tera-Operationen pro Sekunde) und ist mehr als doppelt so schnell wie bei der Vorgänger-Architektur. Diese Rechenleistung ist ein wichtiger Baustein zu dem, was über die Frame Generation erreicht wird.

Ich könnte mir vorstellen dass das Frame-Pacing (womit AMD ja ein paar Problemchen hat bei ihrem FMF) deswegen bei Nvidia besser läuft. Frame-Generation wird bei Nvidia durch eine dedizierte Einheit unterstützt, die auf Ada doppelt so viel leistet wie auf Ampere. Deswegen war das Statement auch sinngemäß "Kann man auf Ampere ans laufen bringen, entspricht dann aber nicht unseren Qualitätsansprüchen.".

Nvidia hat sich nicht umsonst einen Namen gemacht der für Qualität steht. Überall liest man "bessere Treiber, Hardware, Features". Auch wenn das nicht in allen Fällen immer zutrifft. Aber dieses "Qualitätsurteil" möchte Nvidia behalten, daher kommen Features (fast) immer in gutem bis sehr gutem Zustand auf den Markt.

Ja. Oder. Je nachdem halt.

Richtig. Und wir als "Laien" können das nicht mit Sicherheit sagen.

Aber entscheiden die das auch? Da wäre ich mir ja nicht so sicher.

Auch das ist und bleibt für uns Spekulation.

Na gut, dann halt nicht wissen, sondern stark vermuten. Es wirkt halt oft schon sehr weit hergeholt. Würde mich zum Beispiel sehr wundern, wenn man spezielle Hardwareeinheiten für FG zwingend bräuchte.
Es wurde wohl auch bestätigt, dass das prinzipiell auf älteren Karten möglich wäre:
https://www.pcgameshardware.de/Gefo...-auf-RTX-3000-Turing-RTX-2000-Ampere-1403920/
Dass das nicht viel bringen würde, weil die alten Karten dafür zu langsam sind, muss man ihnen halt glauben. Ich bin da eher skeptisch.

Siehe oben.
 
Die schätzen sogar eher wenn beides drin ist, dann kann man den Unterschied schön sehen...
Wer erinnert sich nicht an Jensens Zitat: "We would like all games to offer both FSR2 and DLSS3.5 so that the visual differences can be shown".
Schönes Märchen
Nvidia hat nichts damit zu tun ob Outcast 2 oder Alone in the Dark ohne FSR rauskommen.
Habe ich nicht direkt behauptet. Aber solche Beispiele bringen allen Gamern nichts.
Deswegen (ich wiederhole mich) hohhe ich, dass DirectSR sich durchsetzt bei den Entwicklern
Bestimmt hätte Nvidia den Support schneller ermöglichen können
Wollten sie halt nicht, da sie mit G-Sync Monitoren mehr Geld verdienen konnten. Erst als es deutlich mehr FreeSync-Monitore wurden, zog Nvidia nach

Nvidia könnte sicherlich FG für RTX3000 und RTX2000 ermöglichen, wenn sie wollten.
RT ging schließlich plötzlich auch ohne RTX-Karte

Sie wollen es halt einfach nicht
 
Zuletzt bearbeitet:
Bestimmt hätte Nvidia den Support schneller ermöglichen können, die Frage die ich mir stelle ist: Wie viele Monitore mit Adaptive Sync / Freesync gab es in der Zeit? Waren das mehr als eine handvoll? Finde dazu nichts.
Also ich hatte seit September 2017 einen, ohne darauf besonders geachtet zu haben.
Ich könnte mir vorstellen dass das Frame-Pacing (womit AMD ja ein paar Problemchen hat bei ihrem FMF) deswegen bei Nvidia besser läuft. Frame-Generation wird bei Nvidia durch eine dedizierte Einheit unterstützt, die auf Ada doppelt so viel leistet wie auf Ampere. Deswegen war das Statement auch sinngemäß "Kann man auf Ampere ans laufen bringen, entspricht dann aber nicht unseren Qualitätsansprüchen.".
Was das Statement war, ist mir schon klar, aber natürlich sagt man nicht "wir wollen nicht riskieren, dass es gut genug für die meisten ist und die dann ewig ihre alte Hardware nutzen". Man muss es ihnen halt einfach glauben und ich finde, da darf man schon mal skeptisch sein.
Richtig. Und wir als "Laien" können das nicht mit Sicherheit sagen.
Auch das ist und bleibt für uns Spekulation.
Dann können wir uns wohl wenigstens darauf einigen, dass wir alle nur spekulieren können. Deswegen sagte ich eingangs ja auch, dass jeder selber wissen muss, ab wo er da welche Schlüsse zieht. Ich denke aber auch eher, dass Nvidia seine Marktposition ausnutzt und die finanziellen Interessen im dadurch gegebenen Rahmen bestmöglich durchsetzt. Ist ja nicht mal wirklich verwerflich, immerhin wollen die Kunden das ja scheinbar auch so, aber man muss es eben auch nicht sympathisch finden.
 
Wer erinnert sich nicht an Jensens Zitat: "We would like all games to offer both FSR2 and DLSS3.5 so that the visual differences can be shown".
Schönes Märchen

Schau auf die Liste. Nvidia ist es offensichtlich EGAL ob FSR drin ist oder nicht. AMD dagegen...
Ich liefere Dir harte Fakten und Du kommst mit Märchen. Witziger Typ.

Habe ich nicht direkt behauptet. Aber solche Beispiele bringen allen Gamern nichts.
Deswegen (ich wiederhole mich) hohhe ich, dass DirectSR sich durchsetzt bei den Entwicklern

Ich hoffe auch dass in Zukunft alle Spiele DLSS, FSR, XeSS und TSR unterstützen.
Übrigens wolltest DU von MIR Beispiele haben, siehe ein paar Posts vorher, und jetzt bringen Beispiele nichts? Witziger Typ die Zweite.


Wollten sie halt nicht, da sie mit G-Sync Monitoren mehr Geld verdienen konnten. Erst als es deutlich mehr FreeSync-Monitore wurden, zog Nvidia nach

Äh, ja, genau das ist auch meine Vermutung. Wenn es nur eine handvoll Monitore mit der Technologie gibt, dann hat das Feature keine hohe Prio. Das hat aber nicht zwingend etwas mit Boykott oder Sabotage oder sonst einer Verschwörungstheorie zu tun, das ist schlicht Kosten/Nutzen.

Nvidia könnte sicherlich FG für RTX3000 und RTX2000 ermöglichen, wenn sie wollten.

Siehe vorheriger Post von mir. Da gehe ich auf das Thema ein.

RT ging schließlich plötzlich auch ohne RTX-Karte

Sie wollen es halt einfach nicht

Hast Du überhaupt gelesen was da steht?

Nvidias Aussage, dass es zwingend RT-Cores brauche, um pixelgenaues Raytracing performant abzubilden, wurde oft belächelt, entspricht im Ernstfall jedoch der Wahrheit. Beim Blick auf die Ergebnisse mit komplexen Raytracing-Effekten wischt selbst die Geforce RTX 2060 mit dem Pascal-Topmodell Titan Xp den Boden auf. Zwischen Geforce GTX 1080 Ti und RTX 2080 Ti, jeweils werkseitig übertaktet, liegt eine Leistungsdifferenz von 221 Prozent oder, in anderen Worten, Faktor 3,2.

Im Artikel wird das Gegenteil Deiner Aussage gesagt. Nächstes Mal vielleicht die Quellen vorher durchlesen, verstehen, und ggf. seine Meinung ändern oder es sein lassen. :lol:

Ich finde es übrigens total toll dass Du selektiv auf meine Rückfragen antwortest. Wo bleiben die Beispiele von neuen AMD-Sponsored Titeln?

Also ich hatte seit September 2017 einen, ohne darauf besonders geachtet zu haben.

Siehe Vorposter, er meint dass Nvidia erst mit dem Support nachgezogen ist als es mehr Monitore gab. Daran finde ich nichts verwerflich, das ist einfach logisch.

Was das Statement war, ist mir schon klar, aber natürlich sagt man nicht "wir wollen nicht riskieren, dass es gut genug für die meisten ist und die dann ewig ihre alte Hardware nutzen". Man muss es ihnen halt einfach glauben und ich finde, da darf man schon mal skeptisch sein.


Dann können wir uns wohl wenigstens darauf einigen, dass wir alle nur spekulieren können. Deswegen sagte ich eingangs ja auch, dass jeder selber wissen muss, ab wo er da welche Schlüsse zieht. Ich denke aber auch eher, dass Nvidia seine Marktposition ausnutzt und die finanziellen Interessen im dadurch gegebenen Rahmen bestmöglich durchsetzt. Ist ja nicht mal wirklich verwerflich, immerhin wollen die Kunden das ja scheinbar auch so, aber man muss es eben auch nicht sympathisch finden.

Stimme zu. Mich stört nur wenn negative Gerüchte, Meinungen und Theorien als Fakten dargestellt werden. Und das ist hier bei allem was mit Nvidia zu tun hat (selbst in nicht-Nvidia Threads wird die Keule gegen Nvidia rausgeholt) immer wieder der Fall. Wenn man dann nachfragt kommt in der Regel raus dass es keinen Beweis gibt und somit keine Fakten vorliegen.
 
Schau auf die Liste. Nvidia ist es offensichtlich EGAL ob FSR drin ist oder nicht.
Und daraus leitest du ab, dass NV will, dass FSR3 integriert ist, damit man zeigen kann, wie schlecht FSR im Vergleich ist.
Harter Fakt - ganz ohne Beweis. Coole Sache.
Funktioniert das sonst?
Übrigens wolltest DU von MIR Beispiele haben, siehe ein paar Posts vorher, und jetzt bringen Beispiele nichts?
Hä? Die Beispiele waren von MIR (Ja, hier passt die Großschreibung tatsächlich) und sollte zeigen, dass es aktuell Spiele ohne FSR2/3 aber mit DLSS gibt.
Im Artikel wird das Gegenteil Deiner Aussage gesagt.
Was war denn meine Aussage? Schauen wir mal nach...
RT ging schließlich plötzlich auch ohne RTX-Karte
Von perfomant war da nicht die Rede :schief:
Nächstes Mal vielleicht die Quellen vorher durchlesen, verstehen, und ggf. seine Meinung ändern oder es sein lassen.
Lesen und Verstehen scheint eher deine Schwächen zu sein
 
Naja, das war wohl eher so gemeint, dass man die Felle hat davonschwimmen sehen, weil kaum jemand auf den G-Sync-Zug aufspringen wollte und das halte ich für eine durchaus plausible Theorie.
Ihr habt wahrscheinlich beide recht: So lange melken, bis die Geforce-Community FreeSync-Support verlangt.
Aber wir schweifen ab
 
Und daraus leitest du ab, dass NV will, dass FSR3 integriert ist, damit man zeigen kann, wie schlecht FSR im Vergleich ist.
Harter Fakt - ganz ohne Beweis. Coole Sache.
Funktioniert das sonst?

Funktioniert es für Dich wenn Du meine Worte komplett veränderst und mir dann vorhälst? Ziemlich lächerlich was Du hier veranstaltest. Mein Zitat:

Die schätzen sogar eher wenn beides drin ist, dann kann man den Unterschied schön sehen...

Wo sage ich dass das Fakten sind? Die Evidenz spricht dafür, aber ob es genau so ist - keine Ahnung. Es ist meine Meinung dazu.

Hä? Die Beispiele waren von MIR (Ja, hier passt die Großschreibung tatsächlich) und sollte zeigen, dass es aktuell Spiele ohne FSR2/3 aber mit DLSS gibt.

Klar gibt es die. Wenn man "Sponsored Titel" vergleicht, dann gibt es allerdings viel mehr AMD-Titel die nur FSR haben als Nvidia-Titel die nur DLSS haben.

Ich bezog mich mit meiner Antwort aber eigentlich auf etwas anderes. Nämlich dass meine Beispiel-Liste laut Dir irrelevant ist, Du dann plötzlich relevante Beispiele von DLSS-only Titeln lieferst, und die dann doch nicht relevant sind. Ich bin verwirrt. Für mich sind echte Beispiele immer relevant.

Was war denn meine Aussage? Schauen wir mal nach...

Deine Aussage:
RT ging schließlich plötzlich auch ohne RTX-Karte
Zitat PCGH:
Nvidias Aussage, dass es zwingend RT-Cores brauche, um pixelgenaues Raytracing performant abzubilden, wurde oft belächelt, entspricht im Ernstfall jedoch der Wahrheit. Beim Blick auf die Ergebnisse mit komplexen Raytracing-Effekten wischt selbst die Geforce RTX 2060 mit dem Pascal-Topmodell Titan Xp den Boden auf. Zwischen Geforce GTX 1080 Ti und RTX 2080 Ti, jeweils werkseitig übertaktet, liegt eine Leistungsdifferenz von 221 Prozent oder, in anderen Worten, Faktor 3,2.


Von perfomant war da nicht die Rede :schief:

Technisch läuft es, aber so schlecht dass man es nicht nutzen kann. Daher hat Nvidia auch garantiert erst mal keine Ressourcen für RT auf Pascal eingesetzt. Zu der Zeit waren die mit den Turing Treibern gut beschäftigt, das musste erst mal laufen.

Lesen und Verstehen scheint eher deine Schwächen zu sein

Ja genau. Wo bleiben die neuen AMD-Sponsored Titel? Ich warte.

Naja, das war wohl eher so gemeint, dass man die Felle hat davonschwimmen sehen, weil kaum jemand auf den G-Sync-Zug aufspringen wollte und das halte ich für eine durchaus plausible Theorie.

Plausible Theorie, ja. Genauso wie meine Theorie dass Nvidia sich erst damit beschäftigt hat als die Verbreitung zugenommen hat.


Was ihr beide anscheinend nicht versteht: Ich bin kein Nvidia Fanboy. Mir ist bewusst dass alle (vorallem Aktien) Unternehmen für eins da sind: Geld zu verdienen. Intel, AMD, Nvidia, Apple, Microsoft, VW, TSMC, usw usw. Die sind für mich alle gleich. Und bei ausnahmslos allen findet man Leichen im Keller.

Was ich nicht mag sind haltlose Beschuldigungen und Propaganda. Und die lese ich hier zu oft.
 
Wo sage ich dass das Fakten sind?
Dein Ernst? Im ersten Zitat steht es.
Nochmals für dich
Schau auf die Liste. Nvidia ist es offensichtlich EGAL ob FSR drin ist oder nicht. AMD dagegen...
Ich liefere Dir harte Fakten und Du kommst mit Märchen. Witziger Typ.
Ist es jetzt sichtbar?
Es ist meine Meinung dazu.
Ja was jetzt? Ist das deine Meinung oder lieferst du harte Fakten? Mal so mal so?
Wenn man "Sponsored Titel" vergleicht, dann gibt es allerdings viel mehr AMD-Titel die nur FSR haben als Nvidia-Titel die nur DLSS haben.
Ja, mag sein wenn man FSR3 außen vor lässt.
Wo bleiben die neuen AMD-Sponsored Titel? Ich warte.
Von mir aus:
- The Invincible (mit DLSS)
- Boundary (kein DLSS)
- The Last of Us Part I (DLSS)
- Resident Evil 4 (kein DLSS)
- STAR WARS Jedi: Survivor (DLSS per Patch (soweit ich weiß))
- Immortals of Aveum (DLSS)
- AVATAR: Frontiers of Pandora (DLSS)
- Lies of P (DLSS per Patch)

Zufrieden?
 
Dein Ernst? Im ersten Zitat steht es.
Nochmals für dich

Ist es jetzt sichtbar?

Ja was jetzt? Ist das deine Meinung oder lieferst du harte Fakten? Mal so mal so?

Die Liste an sich liefert harte Fakten. Nichts auf der Liste ist falsch, oder? Darum ging es. Verdreh ruhig noch mehr damit es Dir passt. Ich bin an der Stelle raus. Ist ja lächerlich.

Ja, mag sein wenn man FSR3 außen vor lässt.

Versteh ich nicht, ist mir auch egal.

Von mir aus:
- The Invincible (mit DLSS)
- Boundary (kein DLSS)
- The Last of Us Part I (DLSS)
- Resident Evil 4 (kein DLSS)
- STAR WARS Jedi: Survivor (DLSS per Patch (soweit ich weiß))
- Immortals of Aveum (DLSS)
- AVATAR: Frontiers of Pandora (DLSS)
- Lies of P (DLSS per Patch)

Zufrieden?

Uralte Games zählen nicht laut Deiner Aussage. Auf meiner Liste sind Titel von 2023 drauf, auf Deiner auch. Vielleicht merkst Du jetzt wie unsinnig es ist zu sagen "Deine Liste zählt nicht weil die Titel alt sind"?

Es ging in der ursprünglichen Aussage darum ob Nvidia ein "Technologie Saboteur" ist. Die Liste zeigt anhand vieler Titel von 2023 dass dem, bezüglich Upscaling, nicht so ist.
 
Das war nicht meine Aussage!

Ich weiss dass das nicht Deine Aussage war. Aber darauf habe ich geantwortet, nach Belegen dazu gefragt und Beispiele gegeben wo das nicht der Fall war. Danach wurde ich von diversen Leuten hier durchgehend angegangen.

Und leider ignorierst du FSR3 bzw. AMDs FG, das ich schon mehrfach erwähnt habe

Was soll ich da ignorieren? Verhindert Nvidia dass FMF eingebaut wird? Wo?
 
Plausible Theorie, ja. Genauso wie meine Theorie dass Nvidia sich erst damit beschäftigt hat als die Verbreitung zugenommen hat.
Was ihr beide anscheinend nicht versteht: Ich bin kein Nvidia Fanboy. Mir ist bewusst dass alle (vorallem Aktien) Unternehmen für eins da sind: Geld zu verdienen. Intel, AMD, Nvidia, Apple, Microsoft, VW, TSMC, usw usw. Die sind für mich alle gleich. Und bei ausnahmslos allen findet man Leichen im Keller.
Was ich nicht verstehe ist das dringende Bedürfnis, eine Erklärung zu finden, die Nvidia besser aussehen lässt, wenn sich ein wirtschaftliches Motiv so dermaßen aufdrängt.
Was ich nicht mag sind haltlose Beschuldigungen und Propaganda. Und die lese ich hier zu oft.
Viel kann man nicht nachweisen, aber die Alternative, einfach alles zu glauben, was die Hersteller erzählen, ist eben auch nicht sonderlich attraktiv.
 
Was ich nicht verstehe ist das dringende Bedürfnis, eine Erklärung zu finden, die Nvidia besser aussehen lässt, wenn sich ein wirtschaftliches Motiv so dermaßen aufdrängt.

Mein dringendes Bedürfnis habe ich hier bereits mehrfach dargelegt, und es hat nichts mit "Nvidia besser aussehen lassen" zu tun.

Viel kann man nicht nachweisen, aber die Alternative, einfach alles zu glauben, was die Hersteller erzählen, ist eben auch nicht sonderlich attraktiv.

Du siehst auch nur schwarz und weiss, hm? Ich sage nicht dass man alles glauben soll. Ich sage, und ich wiederhole mich zum x-ten Mal hier im Thread: Theorien sind OK solange man sie NICHT ALS FAKTEN darstellt.
 
Theorien sind OK solange man sie NICHT ALS FAKTEN darstellt.
Ich habe doch schon längst eingelenkt, dass ich es nicht weiß und dass man vieles nicht wissen kann. Ich werde versuchen, in Zukunft statt "wissen" "sich sehr sicher sein" zu verwenden. Ansonsten habe ich jetzt meine Ansicht zum Punkt G-Sync und die Gründe dafür dargestellt und warum ich prinzipiell schon sehr sicher bin, dass Nvidia seinen Kunden auch Features vorenthält, die technisch möglich sind, wenn sie sich davon etwas versprechen und es ist auch in Ordnung, wenn du andere Schlüsse ziehst.
 
Zurück