"Irgendwas mit DLSS"

Bitte mach mal ne Quellenangabe zu diesen Balken. Wenn ich keine Ahnung habe, dann PCGH, Computerbase und Igor's Lab auch nicht... Alles klar, träum mal schön deine Nvidia-Bubble weiter und lass dich nicht stören ^^
CB: (Cyberpunk 2077 (RT Ultra) – 1.920 × 1.080 + DLSS 2 & DLSS 3) https://www.computerbase.de/2023-06.../2/#abschnitt_benchmarks_in_fhd_mit_dlss_2__3

Die Latenz steigt dort nur, wenn der VRAM ausgeht:
Zweifelsfrei wenig beeindruckt vom DLSS-2-Einsatz in Bezug auf die Heilung von VRAM-Mangel in FHD zeigt sich Spider-Man: Miles Morales. In diesem Spiel bei diesen Settings reichen 8 GB immer noch nicht aus.
Das ist aber dem VRAM geschuldet. Wenn du dort genug Reserven hast, sinkt die Latenz mit FG und DLSS gegenüber nativ.

Auch bei Igor sinkt die Latenz im Vergleich zu Nativ: https://www.igorslab.de/geforce-rtx...lesenen-youtuber-leider-verschwiegen-haben/7/
213.4 ms nativ vs 61.6 ms.

Nativ:
Screenshot 2023-07-14 083622.jpg


DLSS3 (FG):
Screenshot 2023-07-14 083652.jpg


Selbst ne 6800 XT hat in 1080p eine miesere Latenz als eine 4060 in 1440p mit DLSS3:
Screenshot 2023-07-14 083810.jpg


Gerade das macht Behauptung umso lustiger, wenn man bedenkt, dass du ne 6800 mit einer noch mieseren Latenz hast ;)

Dann brauchst du ja auch weiterhin auf Zitate, in dem Fall PCGH Phil, nicht eingehen. Ist ja dann auch kein Wunder.
Auf PCGH habe ich keinen Latenztest zur 4060 gefunden. Im Test der 4060 wird dort nicht drauf eingegangen:
 
Zuletzt bearbeitet:
Dein Markenfetischismus quillt dir aus jeder Pore.:daumen:
Das ist schön, vor allem das du so wunderbar schlecht lesen kannst! Wo behaupte ich denn, dass NV schlecht ist? Ich sage ganz klar an mehreren Stellen, dass die 4080 bspw. der 7900 XT/XTX vorzuziehen ist, eben weil sie nicht diese Kompromisse eingehen wie die "kleinen" Karten. Bei den kleinen Karten, 4070Ti und Co wandelt sich für mich das Blatt, obwohl hier NV nicht unbedingt nur schlechte Karten bringt. Aber eine 8GB VRAM Opferkarte ist in meinen Augen derzeit keine 400 EUR wert, eine 16GB Full HD Karte, die meines Erachtens nach durchaus ansprechende Leistungen bringt, ist allerdings mit mutmaßlichen 650+ EUR eine Frechheit. Hier bietet AMD dann eben deutlich mehr fürs Geld.

Du sagst FG nutzt nur der, der sich sein System falsch zusammengestellt hat und den Monitor falsch wählte, für alle andere ist es kein Vorteil, weil die Latenz auf AMD Niveau lieg?
Eben nicht, du verstehst es nur nicht, bzw. willst es nicht verstehen. Wenn ich einen PC konfiguriere, dann so, dass er zusammenpasst und wenn ich 4K Gaming betreiben will muss ich alleine schon für die Monitore so tief in die Tasche greifen (unter 500 EUR gibt es gar nichts und brauchbares kommt dann ab 800 EUR), dass ich mir die Frage stellen muss, passt denn dann auch meine GPU dazu? Ansonsten nehme ich eben einen WQHD Bildschirm und eine GPU größer und siehe da, System passt zusammen. Ich baue ja auch keinen 7950X3D ein um das dann mit einer RX7600 (die ich übrigens für eine noch schlechtere Karte halte als die 4060) zu kombinieren. Ein System muss zusammenpassen. FG und auch DLSS / FSR sind für mich Notbehelfe, wenn mein System zwei oder drei Jahre auf dem Buckel hat und Spiel X nicht mehr voll skaliert, dann muss ich eben abwägen, Details reduzieren, DLSS aktivieren, FG aktivieren! Für solche Szenarien ist in meinen Augen das ganze gedacht und dafür ist es gut. FG kann mich bisher eben nicht überzeugen und sei dir sicher, dass es schon gestestet habe, nicht auf meinem System, aber mehr als einmal auf dem System eines Kollegen (4080). Ja, es ist mein Empfinden, aber ich bin da nicht alleine und ich habe mir versucht verschiedene Szenarien anzuschauen, ich empfinde die meisten Spiele (schnelle Shooter mal ausgenommen) als spielbar ab einem Bereich über 50fps. In diesem Bereich 50-70 / 80 fps konnte ich einen geringen Unterschied zugunsten von FG bemerken, (144Hz Monitor). Im Bereich unter 50fps (ist mit einer 4080 gar nicht so leicht zu erreichen in den meisten Spielen) haben wir mal versucht die Karte auf einen Bereich 30-40fps zu bringen, da kann ich dir sagen empfand ich FG eher als behindernd an, ich hatte hier sehr oft das Gefühl das meine Eingaben nicht zum Bild passten, dazu habe ich Artefakte gesehen (teilweise schon ziemlich nervig).

FG konnte für mich (und ja, das ist dann auch subjektiv) einen geringen Mehrwert bieten in einem Bereich in dem ich die Spiele aber bereits als gut spielbar empfand. Mehr nicht!

Aber für mich am entscheidensten war es, dass ich mit den gleichen Einstellungen (also MaxDetails, Karte entsprechend getaktet usw.) eine DLSS Einstellung niedriger (höher, je nachdem wie man es sieht) (bzw. überhaupt eine) einen viel erheblicheren Einfluss auf die Spielbarkeit nahm und qualitativ die Unterschiede wirklich gering sind. DLSS (und hier sehe ich es auch anders als viele NV User, FSR ist durchaus eine brauchbare Alternative, die DLSS zweifelsfrei unterlegen ist, aber eben keine Lichtjahre entfernt ist) ist das was etwas bringt, wenn man es braucht! FG ist in einem so engen Band sinnvoll, dass ich es nicht als Kaufargument sehen werde. (über 90fps brauchen wir übrigens auch nicht mehr drüber reden, hier streiten sich die Wissenschaftlicher schon drüber, ob 90Hz für trainierte Augen (Kampfpiloten) überhaupt noch wahrnehmbar sind.
Gerade das macht Behauptung umso lustiger, wenn man bedenkt, dass du ne 6800 mit einer noch mieseren Latenz hast ;)
klar, mit RT on ist das so! Schau mal was der Balken ohne RT macht! Denn spielbar ist mit einer Latenz von 100ms immer noch nichts!
 
???
Dir ist bewusst, dass die 6800XT soweit hinten ist wegen RT, oder?
Liefere dazu einen Test, der aufzeigt, dass die 6800XT ohne RT bessere Latenzen hat als eine 4060 mit DLSS3 und FG, ansonsten werde ich auf deinen Unfug nicht weiter eingehen.

Ohne RT liegt die 6800XT meilenweit vor einer 4060Ti und wird eben deutlich bessere Latenzen bieten.
Nativ ja, aber sobald FG und DLSS werkeln nicht mehr und darum ging es. Btw. ging es auch um die non TI.
 
Zuletzt bearbeitet:
Liefere dazu einen Test, der aufzeigt, dass die 6800XT ohne RT bessere Latenzen hat als eine 4060 mit DLSS3 und FG, ansonsten werde ich auf deinen Unfug nicht weiter eingehen.
gibt es nicht, Igor hat leider immer nur RT on getestet und ehrlicherweise ist der Test und die gezeigten Grafen auch nicht wirklicht gut und ausreichend. Es wird bspw. Aber ergibt sich halt alleine aus dem menschlichen Verstand. Die 6800XT ist in Raster massiv schneller und wird nativ weit bessere Latenzen haben als die 4060! Wenn du dann DLSS aktivierst, solltest du bitte auch FSR aktiveren, sonst ist es ja in etwa so als wenn ich eine 4060 in Full HD benche und die 6800XT in 4K daneben stelle und dann behaupte, klar die 4060 ist the Winner!

In meinen Augen musst du drei Szenarien vergleichen,

1.) nativ = hier ist die 6800XT schneller und bietet 137,7ms Latenz während die 4060 150,2ms bietet
2.) DLSS 2.x/ FSR 2.x = dies testet Igor für mich unverständlich nicht mit; die Latenz wird aber ziemlich im gleichen Rahmen fallen, beide Karten werden hier massiv profitieren und die 6800XT wird (trotz RT on übrigens) noch vor der 4060 liegen. Mit dem Unterschied, dass die 4060 vermutlich bessere Bildqualtität liefert (aber wie schon gesagt, kein Unterschied um Lichtjahre)
3.) DLSS 3.x (inkl. FG und Reflex) / FSR 2.x inkl. Anti Lag = Hier wird die Latenz nahezu identisch zu 2.) sein

Hier nochmal das Zitat aus dem aktuellsten PCGH Test hinsichtlich FG:

DLSS 3.0 ist auch nicht dazu geeignet, ruckelnde Spiele zu "reparieren". Vornehmlich Traversal-Stutter ist mit DLSS 3.0 eventuell nochmals auffälliger, da zwar die Framerate steigt, das Bild optisch also tendenziell flüssiger wirken kann, die Ruckler aber dennoch auftreten. Bei diese fallen obendrein die Latenzen nochmals höher aus als ohne Frame Generation. Auch wenn das Bild auf das Auge flüssiger wirkt, die Ruckler sind dennoch vorhanden und sind außerdem tendenziell stärker spürbar. Eine KI kann vieles, aber zaubern kann sie nicht.

Nativ ja, aber sobald FG und DLSS werkeln nicht mehr und darum ging es. Btw. ging es auch um die non TI.
Nö, du kannst ja nicht nativ mit Upscaling vergleichen. Du kannst aber meines Wissens nach FG und Reflex only vergleichen, also ohne Upscaling! Sprich Renderauflösung bei beiden Karten identisch halten und nur FG und Reflex aktivieren, du wirst aber sehen, dass es marginale Zugewinne bei Reflex und FG geben wird, die den Vorsprung von mehr als 30% der 6800XT im Raster aber niemals kompensieren können.
 
CB: (Cyberpunk 2077 (RT Ultra) – 1.920 × 1.080 + DLSS 2 & DLSS 3) https://www.computerbase.de/2023-06.../2/#abschnitt_benchmarks_in_fhd_mit_dlss_2__3

Die Latenz steigt dort nur, wenn der VRAM ausgeht:

Das ist aber dem VRAM geschuldet. Wenn du dort genug Reserven hast, sinkt die Latenz mit FG und DLSS gegenüber nativ.

Auch bei Igor sinkt die Latenz im Vergleich zu Nativ: https://www.igorslab.de/geforce-rtx...lesenen-youtuber-leider-verschwiegen-haben/7/
213.4 ms nativ vs 61.6 ms.

Nativ:
Anhang anzeigen 1431380

DLSS3 (FG):
Anhang anzeigen 1431381

Selbst ne 6800 XT hat in 1080p eine miesere Latenz als eine 4060 in 1440p mit DLSS3:
Anhang anzeigen 1431382

Gerade das macht Behauptung umso lustiger, wenn man bedenkt, dass du ne 6800 mit einer noch mieseren Latenz hast ;)


Auf PCGH habe ich keinen Latenztest zur 4060 gefunden. Im Test der 4060 wird dort nicht drauf eingegangen:

Ich sehe hier nur RT-Benchmarks. Dass RT nicht die Stärke der RDNA 2-Karten ist, sollte klar sein.

Aber klar, immer schön Benchmarkr posten, in denen nur Nvidia besser da steht. Hast du bei Igor auch mal den Test zur 4060 gelesen, die du hier schön mit RT präsentierst?

Igor.JPG


Dazu das Fazit (ist eigentlich wie überall, egal ob PCGH, Igor, CB oder sonstwo) - Zitat Igor:

"Die GeForce RTX 4060 8 GB ist eine Karte für Full-HD, wenn es um höhere Frameraten geht und auch noch bedingt geeignet für WQHD. Dann aber wird man bereits über smartes Upscaling nachdenken müssen, denn ohne DLSS wird es stellenweise auch schon in QHD etwas arg eng. Hier kann NVIDIA durchaus seine Vorteile ausspielen, die DLSS 2.x auch rein optisch bietet. Unterstützt ein Spiel jedoch DLSS 3.0 und man würde ohne Super Sampling im unspielbaren FPS-Bereich herumdümpeln, dann kann dies quasi sogar der ultimative Rettungsanker zur Spielbarkeit sein. Die Latenzen kann man damit nicht verbessern (sie bleiben ja gleich), aber nicht jedes Genre ist so latenzgebunden wie diverse Shooter.

Man bekommt somit alle Vorteile der Ada-Architektur ab 329 Euro (MSRP-Karten). Nachteilig sind allerdings der nicht mehr zeitgemäße Speicherausbau und das enge Speicherinterface. Die 8 Lanes am PCIe 4.0 reichen vollends aus, aber wenn die Karte auf den Systemspeicher zugreifen muss, wird es spätestens bei älteren Systemen mit PCIe 3.0 arg eng. Dann sind die 11 Prozent Vorsprung zur RTX 3060 12GB schneller weg als man Mops sagen kann.

Und falls man mich noch nach einem persönlichen Fazit fragt: Es fällt leicht anders aus als das, was vorab bei gewissen YouTubern bestellt wurde. Nicht absolut negativ, denn die positiven Seiten habe ich ja genannt. Aber echte Euphorie ist es auch nicht, dazu kostet die Karte einfach zu viel und hält auch energiepolitisch nicht ganz das, was im Vorfeld versprochen wurde. Treiber kann man fixen, kein Thema. Nur beim VRAM und der Telemetrie wirds dann doch etwas komplizierter"

Den Satz mit den Latenzen habe ich dir extra mal hervor gehoben.

Also selbst wenn die Rasterized-Latency (auf der du ja ständig rumreitest) der RX 6800 höher wäre, würde das also bei der marginalen 4060-Leistung im Vergleich keine bzw. nur eine untergeordnete Rolle spielen.
 
Zuletzt bearbeitet:
@MechUnit du redest von Latenzen und postest FPS. Merkste hoffentlich selbst :lol: :lol:

Aber seis drum.
Die Latenzen kann man damit nicht verbessern (sie bleiben ja gleich), aber nicht jedes Genre ist so latenzgebunden wie diverse Shooter.
Im Vergleich zu DLSS2 ohne FG, korrekt. Aber deine Karte kann kein DLSS. Im Vergleich zu nativ werden sie besser.
Das RT von CP 2077 spielt hier nur eine kleinere Rolle. Die Nvidiakarten werden dadurch ja auch langsamer. Ist ja nicht so, dass nur die AMD Karten mehr Frames liefern, wenn ich RT deaktiviere.

Hier nochmal das gleiche mit einem anderen Titel - Nativ:
Screenshot 2023-07-14 115814.jpg


Mit DLSS3 + FG:
Screenshot 2023-07-14 115830.jpg

Quelle: https://www.pcgameshardware.de/comm...ew.cfm?article=1421113&page=3&draft=-1&rank=3

Und hier A Plague Tale:
Screenshot 2023-07-14 120252.jpg

Quelle: https://www.pcgameshardware.de/Gefo.../Nvidia-DLSS-3-RTX-4000-First-Test-1404973/3/

In allen 3 Beispielen (CP, A Plague Tale, Warhammer 4K) sinkt die Latenz mit FG gegenüber nativ. Wie kann das sein, wenn du doch behauptest, dass das gar nicht geht? :ugly:

Es ist schon lange bekannt, dass die Latenz mit FG idR. besser ist als nativ. Das ist keine neue Erkenntnis. Ausnahmen gibt es auch hier wie es z.B. der Flugsimulator zeigt, aber er ist bisher die einzige Ausnahme.

Also selbst wenn die Rasterized-Latency (auf der du ja ständig rumreitest) der RX 6800 höher wäre, würde das also bei der marginalen 4060-Leistung im Vergleich keine bzw. nur eine untergeordnete Rolle spielen.
Klar, die 4060 ist Schrott. Ich frage mich nur, warum du so sehr auf der Latenz rumreitest, wenn deine Karte eine noch schlechtere Latenz bietet. Wenn dir das so extrem wichtig ist, wieso hast du dann eine 6800 und keine Nvidiakarte mit Reflex? So schlimm kanns dann ja nicht sein ;)
 

Anhänge

  • Screenshot 2023-07-14 120252.jpg
    Screenshot 2023-07-14 120252.jpg
    115,4 KB · Aufrufe: 3
Zuletzt bearbeitet:
Das ist schön, vor allem das du so wunderbar schlecht lesen kannst!
Es ist halt extrem auffällig, dass du Features von Nvidia bei jeder sich dir eröffnenden Gelegenheit als schlecht hinstellst.
Laut deiner Argumentation sind FG, wie auch DLSS lediglich "Notbehelfe" die Leistung zu steigern, tatsächlich sind es aber Revolutionen/Evolutionen um die Bildqualität in Relation zum Aufwand enorm zu steigern. Realisiere das mal.
Eben nicht, du verstehst es nur nicht, bzw. willst es nicht verstehen.
Das sind genau die Dinge, die du behauptet hast und sie sind allesamt nachweislich falsch.
Wenn ich einen PC konfiguriere(...)
Das Thema PC konfigurieren hat weder etwas mit DLSS noch mit FG am Hut.
Dein Whataboutism, bzw. Scheindebatte führst du besser mal alleine, denn ich habe das durchschaut.
FG und auch DLSS / FSR sind für mich Notbehelfe, wenn mein System zwei oder drei Jahre auf dem Buckel hat und Spiel X nicht mehr voll skaliert, dann muss ich eben abwägen, Details reduzieren, DLSS aktivieren, FG aktivieren!
Du reduzierst mit DLSS/FSR/XeSS eben keine Details, sondern gewinnst sie selbst in niedrigen Stufen teilweise dazu! Weswegen es völlig Banane ist diese Features erst nach 2 oder 3 Jahren dazuzuschalten...
(...)und sei dir sicher, dass es schon gestestet habe, nicht auf meinem System, aber mehr als einmal auf dem System eines Kollegen (4080).
Ich würde da starke Zweifel anmelden, genauso was deine Aussagen zu DLSS bzw. SuperSampling Upscaling angeht.
(...) ist das was etwas bringt, wenn man es braucht!
Und wann soll man das nicht brauchen können? Ich spiele ja auf meiner 4070 auch nicht freiwillig mit 70 FPS, sondern lieber mit 120, oder investiere die freigewordene Leistung in ein niedrigeres PT, gerade im Sommer.
Du suchst verzweifelt nach irgendwelchen Szenarien, wo man Leistung nicht brauchen kann, dabei bemerkst du halt nicht, dass man Leistung immer brauchen kann.

Kostenlose Leistung, gesteigerte Bildqualiät, weniger Stromverbrauch... dazu sagst du "nein brauch ich nicht". Und warum machst du es? Weil du diese Features aus irgendeinem Grund doof findest (weil Nvidia das erfunden hat?!), was ein rational denkender Mensch nicht nachvollziehen kann.
 
Zuletzt bearbeitet:
Kostenlose Leistung, gesteigerte Bildqualiät, weniger Stromverbrauch... dazu sagst du "nein brauch ich nicht". Und warum machst du es? Weil du diese Features aus irgendeinem Grund doof findest (weil Nvidia das erfunden hat?!), was ein rational denkender Mensch nicht nachvollziehen kann.
Das Problem ist nur, die Leistung ist eben nicht kostenlos. NV lässt sich dafür gut bezahlen und wer bereit ist, dafür Geld auszugeben, kann das ja gerne tun, wer nicht, der lässt es. Wie hier beide Teams aufeinander losgehen, ist einfach peinlich.
Ich persönlich habe lieber in jedem Spiel ein paar mehr FPS, als zu hoffen, dass der Titel, den ich gerne spiele, DLSS 3 anbietet. Aber wenn du bereit bist etwas mehr Geld auszugeben, um die Chance auf DLSS 3 zu haben, ist das halt auch okay, jeder setzt seine Prioritäten bei einer Grafikkarte selbst.
 
Das habe ich erklärt und auch der nette Herr im Video.

Gähn...

Nö, ich führe im Gegensatz zu dir keine unnötige Grundsatzdebatte.

Wir führen keine Debatte...
Ich versuche Dir was zu erklären, leider willst oder kannst Du nur nicht verstehen.

Ist wie mit einer Taube Schach spielen...

Agnosie?

Habe doch das passende Beispiel mit Assassins Creed benannt.
Und ich verstehe nicht, warum man AMD in irgend einer Weise eine andere Behandlung zukommen lassen soll.

Siehst Du, Du willst nicht verstehen.
AMD wird hier keine "Vorzugsbehandlung" zu Teil, das willst Du als NVidia Fanboy nur nicht sehen...

Weil NVidia im Gegensatz zu AMD mit (ich versuche es jetzt ein letztes Mal) folgenden Aktionen einfach den Vogel abschießt:

- Verbot per EULA zur Nutzung von GeForce/Tesla für Compute, außer für Kryptomining
- Erpressung von Boardherstellern bei Nutzung von Komponenten anderer Hersteller
- Boykott von FreeSync
- Boykott von Vulkan/ aka Mantle
- Abschottung von DLSS gegen andere Hersteller
- Exklusion von eigenen Kunden unter Nutzung von reinen Softwarerestriktionen
um Kunden zu zwingen auf "neue" Hardware umzusteigen, Obsoleszenz, schon mal gehört?
- unfaire Behandlung von Fertigungspartnern bis zum Bankrott, EVGA?
- Benchmarkmanipulation
- usw. usf

Dagegen ist alles was AMD aufzubieten hat reinste pillepalle...

NVidia ist nicht binnen kürzester Zeit zum 5. wertvollsten Unternehmen der Welt aufgestiegen,
bestimmt nicht weil die Samariter sind.

Die Geschäftspraktiken oben zeigen wie.

Wenn Du Unternehmen mit solchen Praktiken die Stange hälst, zeigt das nur wessen Geistes Kind Du bist,
da brauchst Du mir nicht mit so nem hohlen "Whataboutism"-geseiere zu kommen.


Oder läuft das bei dir in die Arbeit auch so.
Chef: Hey Vicares, dein Schaltschrank hat keine Erdungsbänder!
Vicares: Egal, Mickey hat doch letzte Woche zwei Ösen nicht gebohrt!

Ne, bei mir im Job hab ich mit Schaltschränken, Ösen und Bändern nix an der Brause,
bin verantwortlich fürs Procurement und verantworte annähernd 145 Mio. € Spend.

Dabei arbeite ich auch unter anderem mit ca. 100 Partnerfirmen zusammen und
die sind mit ca. 1.000 Mitarbeitern bei uns tätig.

Da trägt man Verantwortung, für die Partner, die Mitarbeiter und deren Familien.

Da wird nicht geheuchelt und auf den eigenen Vorteil gepocht, um etwas mehr "rauszuquetschen"
koste es was es wolle und dann stehen da Firmen die platt gehen, Mitarbeiter bekommen kein
Geld und Familien sind verzweifelt.

Bei mir gibts so was nicht.

Aber wenn Du das so stark abfeierst...
Hey, hoffentlich hast Du in Zukunft nicht so "tolle" und "verlässliche" Partner an Bord...

Nix für ungut, es bringt nix.

Für mich zählen Charakter, Ethik, Moral.

NVidia zeigt das denen nur eine Sache wichtig ist, Geld, egal wie.

Du feierst das, ist in Ordnung.
Wie gesagt, hoffentlich sind keine Menschen von Deinen Entscheidungen abhängig.
 
@MechUnit du redest von Latenzen und postest FPS. Merkste hoffentlich selbst :lol: :lol:

Aber seis drum.

Im Vergleich zu DLSS2 ohne FG, korrekt. Aber deine Karte kann kein DLSS. Im Vergleich zu nativ werden sie besser.
Das RT von CP 2077 spielt hier nur eine kleinere Rolle. Die Nvidiakarten werden dadurch ja auch langsamer. Ist ja nicht so, dass nur die AMD Karten mehr Frames liefern, wenn ich RT deaktiviere.

Hier nochmal das gleiche mit einem anderen Titel - Nativ:
Anhang anzeigen 1431395

Mit DLSS3 + FG:Anhang anzeigen 1431396
Quelle: https://www.pcgameshardware.de/comm...ew.cfm?article=1421113&page=3&draft=-1&rank=3

Und hier A Plague Tale:
Anhang anzeigen 1431398
Quelle: https://www.pcgameshardware.de/Gefo.../Nvidia-DLSS-3-RTX-4000-First-Test-1404973/3/

In allen 3 Beispielen (CP, A Plague Tale, Warhammer 4K) sinkt die Latenz mit FG gegenüber nativ. Wie kann das sein, wenn du doch behauptest, dass das gar nicht geht? :ugly:

Es ist schon lange bekannt, dass die Latenz mit FG idR. besser ist als nativ. Das ist keine neue Erkenntnis. Ausnahmen gibt es auch hier wie es z.B. der Flugsimulator zeigt, aber er ist bisher die einzige Ausnahme.


Klar, die 4060 ist Schrott. Ich frage mich nur, warum du so sehr auf der Latenz rumreitest, wenn deine Karte eine noch schlechtere Latenz bietet. Wenn dir das so extrem wichtig ist, wieso hast du dann eine 6800 und keine Nvidiakarte mit Reflex? So schlimm kanns dann ja nicht sein ;)

Was kommst du mir immer mit "meiner" Karte? Der Vergleich mit "meiner" Karte kam von dir.

Außerdem behaupte ich hier gar nichts, sondern bringe Links, Zitate und Nachweise.

Meine Aussage war, ist und bleibt, dass die RTX 4060 für ihren Preis einfach nix taugt - auch nicht, wenn du Purzelbäume schlägst ^^ Nicht mehr, und nicht weniger. Das hab ich mit den FPS-Balken gezeigt (hier zu sehen, dass selbst die 3060 Ti schneller ist).

Wenn du dir aus meinen Aussagen einen eigenen Zusammenhang bildest und Argumente nicht unterscheiden kannst (FPS und Latenz), ist das wohl auch dein Problem, nicht meins ^^

Rede dir die Schrottkarte weiter schön - aber ich bin jetzt raus, da das Diskutieren mit dir keinen Sinn macht, wenn du falsche Zusammenhänge bildest (natürlich wieder so, dass die 4060 gut aussieht). Ich bin auch überzeugt, mich verständlich genug ausgedrückt zu haben, so dass man da nichts interpretieren kann oder muss - du halt schon, aber da kann ich dir leider nicht helfen, sorry. Mehr als deutlich ausdrücken kann ich mich nicht und ich bin nicht im Wiederholungsverein ^^
 
Zuletzt bearbeitet:
Meine Aussage war, ist und bleibt, dass die RTX 4060 für ihren Preis einfach nix taugt - auch nicht, wenn du Purzelbäume schlägst ^^ Nicht mehr, und nicht weniger. Das hab ich mit den FPS-Balken gezeigt (hier zu sehen, dass selbst die 3060 Ti schneller ist).
Falsch, um diese Aussage ging es:
Die gestiegenen Latenzen bei FG noch als "Dreingabe".
Und ich habe dir nun mehrfach bewiesen, dass die Latenzen mit FG gegenüber nativ sinken. In CP 2077 sogar extrem.
Diese Aussage stimmt also nicht.
 
Falsch, um diese Aussage ging es:

Und ich habe dir nun mehrfach bewiesen, dass die Latenzen mit FG gegenüber nativ sinken. In CP 2077 sogar extrem.
Diese Aussage stimmt also nicht.

Ein letztes Mal antworte ich dir noch:

Ja, bei einer handvoll ausgesuchter Spiele. Bei CP 2077 mit Sicherheit auch nur, weil da CD Projekt Red mit Nvidia zusammenarbeitet.

Es wurde hier genug aufgezeigt, dass die 4060 mau ist und die Fazite der Redakteure sprechen die gleiche Sprache.
Da brauchst du nicht mit ein paar Popellatenzen in ner handvoll Games ankommen ^^ Das reißt nichts an der schlechten Karte - selbst wenn die Latenzen 10x besser wären als mit Karte X und von mir aus bei jedem Spiel- und das ist das, was bei dir nicht ankommt. Das war meine Kernaussage.

Thema für mich somit beendet.
 
... nur reine Spekulation von Dir

= bedeutet ein Modder wollte dies inoffiziell tun
Ich kann Daraus net erkennen, inwiefern ein vorh.DLSS vom Studio wieder entfernt wurde.

Halt mal bitte in Zukunft den Ball flach, wenn Du keine offizielle Quelle beim Studio hast.

btw.
Die Redaktion sollte so einen Unfug auch net noch fördern mit scharfmacherischen Sätzen im Artikel.
Oder soll DAS die Klicks bringen?
"Spekulation" war das gesamte Thema.
Natürlich ist es Clickbait weil keiner detailiert nachvollziehen kann was tatsächlich Teil des Deals ist.
Ich geh aber auch davon aus das zumindest anfangs tatsächlich die Starfield Macher angewiesen wurden DLSS rauszulassen, so wie HWU das auch sieht. Man braucht kein Albert Einstein sein um 1 und 1 zusammenzuzählen.

Nvidia hat das bei FSR soweit ich weiß nie gemacht, auch wenn der AMD Fanatiker das hier mit seinem Gesülze über proprietäre Software und Themenwechseln versucht zu verschleiern.
 
Nvidia hat das bei FSR soweit ich weiß nie gemacht, auch wenn der AMD Fanatiker das hier mit seinem Gesülze über proprietäre Software und Themenwechseln versucht zu verschleiern.
Oder, DLSS sollte nie in Starfield erscheinen, so in vielen anderen Titeln auch nicht. FSR läuft auf JEDER aktuellen Karte, nicht nur auf einem Teil wie DLSS oder einem noch kleineren Teil wie DLSS3. Ja, NV ist Marktführer, und mit DLSS2 erreicht man einen großen Teil der Gamer, aber halt nicht alle. FSR ist der "sichere" Weg, um möglichst viele Spieler glücklich zu machen.
Wenn NV einen Titel unterstützt, haben sie auch etwas davon, wenn der Titel FSR anbietet, einfach immer noch viele NV Kunden gibt, die keine 2000-4000er Karte haben. Wenn DLSS bei einem AMD Titel angeboten werden sollte, haben AMD Kunden davon nie etwas.
 
:klatsch: Bei jeder Sache sei es noch so offensichtlich irgendwie eine Ethik bzw. Täter Opfer Umkehr in Gang zu setzen und Nebelkerzen zu zünden.

"Software" explizit für seine Hardware anzubieten ist eben nicht verwerflich, DLSS ist nur ein SDK weiter nichts. Entwickler zu bestechen um Features der Mitbewerber zu entfernen ist etwas völlig anderes.

Intel und Nvidia könnten diese Aktion, wenn sie denn bei Starfield seitens AMD tatsächlich so stattgefunden hat problemlos folgen davon hat der Konsument gar nichts, da scheint dein Horizont vom Markenwahn vernebelt.
FSR ist der "sichere" Weg, um möglichst viele Spieler glücklich zu machen.
Als wenn mit FSR und Radeon jeder glücklich sein müsste. Gerade zu Anfangszeit seitens DLSS welches immer belächelt wurde und sich immer größerer Beliebtheit erfreut war FSR der totale technische Abfall.
 
:klatsch: Bei jeder Sache sei es noch so offensichtlich irgendwie eine Ethik bzw. Täter Opfer Umkehr in Gang zu setzen und Nebelkerzen zu zünden.
Du siehst dich also als Opfer?
"Software" explizit für seine Hardware anzubieten ist eben nicht verwerflich, DLSS ist nur ein SDK weiter nichts. Entwickler zu bestechen um Features der Mitbewerber zu entfernen ist etwas völlig anderes.
Woher möchtest du wissen, dass etwas entfernt wurde? Ist es so unvorstellbar, dass Starfield nie mit DLSS geplant war?
Ich sage nicht, es war so, klar kann AMD gesagt haben, bringt bitte kein DLSS. Aber es ist auch möglich, dass man freiwillig drauf verzichtet hat, z.b. weil dafür keine Zeit war bzw. andere Sachen wichtiger waren.
Und wenn AMD dafür bezahlt hat, ist das ihr gutes Recht. AMD versucht AMD Karten zu verkaufen und nicht NV Kunden glücklich zu machen. NV hätte ja auch zu Bethesda gehen können, um DLSS ins Spiel zu bringen.
Intel und Nvidia könnten diese Aktion, wenn sie denn bei Starfield seitens AMD tatsächlich so stattgefunden hat problemlos folgen davon hat der Konsument gar nichts, da scheint dein Horizont vom Markenwahn vernebelt.
Was für Markenwahn?
Als wenn mit FSR und Radeon jeder glücklich sein müsste. Gerade zu Anfangszeit seitens DLSS welches immer belächelt wurde und sich immer größerer Beliebtheit erfreut war FSR der totale technische Abfall.
ka, was du mit deinem Argument aussagen möchtest. Es ist doch egal was früher war und auch heute bist du ja nicht gezwungen FSR zu nutzen. Aber anderes als bei DLSS KANN halt fast jeder FSR nutzen.
 
Kann die Redaktion bitte endlich ein Video machen wo gezeigt wird das dlss und fsr mittlerweile in der Praxis kaum noch Unterschiede haben?
Gibt genügend YouTube Videos dazu.. gabs nicht sogar einen Blindtest von der PCGH dazu?

Das ist ja schon so nervig wie der Mythos das Btrfs Daten verliert..
Heute ist heute und nicht vor 5 Jahren...
Wäre ich auch mal dafür und sage ich auch immer wieder. Die meisten würden es im Blindtest eh nicht sehen. Aber da werden dann Videos rausgekramt und crops erstellt wo ein Ast etwas pixeliger erscheint und teils abstruse Argumentationen gestartet.

Ja, DLSS ist meistens besser. Würde ich auch erwarten, wenn es auf eine GPU eines Herstellers optimiert ist und spezielle Kerne nutzt.

Aber nicht so viel besser, dass es sich lohnt da so einen Aufriss drum zu machen. Man muss schon echt Fanboy sein.
Hinterm Mond gelebt ?
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Das Video is absoluter Bullshit. Gefüttert aus Vermutungen und sonst nichts. Und zwar war es so sehr bullshit, dass sie sich genötigt sahen ein Reaktionsvideo auf die Kommentare und Bewertungen zu machen und sich verteidigt haben.
 
Zuletzt bearbeitet:
Zurück