"Irgendwas mit DLSS"

Wenn das Game wirklich so gut auf AMD Optimiert ist und man wirklich mit 4K und alles auf Maximal die 60 FPS mit einer 7900XT halten kann dann ist die Hardware alles andere als lahm
Spielbare FPS bekommt Nvidia auch hin. Wie es aussieht scheint egal zu sein? Ohne RT. Der Verbrauch der AMD Karten: - Episch.
Da muss ich dir Recht geben, für mich ist das im GPU Limit ein absoluter Gamechanger und mir ist es ein absolutes Rätsel das AMD in der Richtung einfach gar nichts kommt. Ohne wird auch Frame Generation nicht umsetzbar sein.
Da soll was kommen in dieser Generation.
 
Wer jetzt also behauptet FG wäre aufgrund der Latenz nicht benutzbar, behauptet auch gleichzeitig nicht Nvidia GPUs wären unbenutzbar und dass das Blödsinn ist ist ja klar.
Jein!

Ich bemängele nun seit Tag 1, dass FG die Latenz nicht verbessert (es findet mit Reflex eine minimale Verbesserung zu nativ statt, die aber nicht wirklich das Spielerlebnis verbessern kann), nicht mehr und nicht weniger. Wenn ein Spiel ohne FG aber auf Grund der Latenz nicht spielbar ist, kann FG dies eben nicht wirklich positiv beeinflussen, es kann (auch dies ist ja Geschmackssache) maximal die Bilder etwas flüssiger gestalten, was sich aber eben auch nur in einem engen Rahmen bewegt. Ein Spiel was bei 30fps Durchschnitt läuft, wird durch FG nicht spielbarer da hier die Latenz eben nicht ausreichend beeinflusst werden kann und zusätzlich die Bildqualität durch Artefaktbildung beeinträchtigt wird. Ein Spiel was 100fps im Durchschnitt liefert wird eben auch durch FG nicht wirklich positiv beeinflusst, da es schon mehr als flüssig läuft. Dementsprechend ist das Einsatzgebiet (und das zeigt ja auch PCGH so) recht begrenzt und für mich kein Kaufargument.


Da muss ich dir Recht geben, für mich ist das im GPU Limit ein absoluter Gamechanger und mir ist es ein absolutes Rätsel das AMD in der Richtung einfach gar nichts kommt. Ohne wird auch Frame Generation nicht umsetzbar sein.
Danke, aber zumindest verdichten sich ja die Hinweise, dass HyprX oder wie es heißen wird, etwas ähnliches bieten soll. Ob das dann so wie Reflex funktioniert müssen wir abwarten, aber es kommt zumindest was.
Und das wäre? Angekündigt ist nichts.
AMD HYPR-RX

Meinst du HYPR-RX? Das hat mit Reflex absolut nichts gemeinsam.
???
Die Ankündigungen sind bisher wage das muss man zugeben, aber AMD hat ja "Anti-Lag" was im Prinzip eine Funktion wie Reflex erfüllt, nur eben bisher mehr schlecht als recht. Man ist derzeit in meinem Kentnissstand nicht wirklich herausgekommen, wie die teilweise dramatischen Latenzverbesserungen zustande kommen sollen. AMD präsentierte ja etwas wo 89% mehr FPS im Durchschnitt anliegen soll (vermutlich FSR 3), die Latenz sich aber eben auch auf 36% reduzieren sollte, was dann eben nicht mehr nur an der Skalierung liegen sollte. Daher stellen sich die meisten eine Art Reflex vor, die eben auch besser als Anti-Lag bisher arbeiten sollte.
 
???
Die Ankündigungen sind bisher wage das muss man zugeben, aber AMD hat ja "Anti-Lag" was im Prinzip eine Funktion wie Reflex erfüllt, nur eben bisher mehr schlecht als recht.
Eben nicht. HYPR-RX kombiniert einfach nur vorhandene Technologien und vereint sie quasi auf Knopfdruck:
1689242014435.png


Anti-Lag hat mit Reflex nichts am Hut. Das ist im Grunde das was der Low Latency Mode bei Nvidia ist.
 
Naja, die Karte bringt etwa 3070 bzw. RX 6800 Leistung und mit FG kommen ja dank den 16GB Speicher auch noch einiges drauf. :daumen:

Die 8 PCIe Lanes werden durch die 16GB Speicher kaum mehr so stark limitieren wie bisher und die Latenzen sind dank Reflex auf einem guten Niveau. Meist besser wie auf deiner RX6800 mit FSR.

Da warte ich offizielle Benchmarks und Tests ab.

Gerade Reflex in Verbindung mit FG erhöht die Latenzen, vor allem bei der 4060. Siehe Test dazu vom 23.05. Zitat PCGH Phil:

"Die Frame Generation ist also auch hier positiv zu werten. Einen weniger positiven Eindruck hinterlässt allerdings die Grafikkarte selbst. Sie ist mit nur 8 GiByte für aktuelle, speicherlastige Spiele zu knapp ausgestattet, die eingeschränkte PCI-E-Verbindung verschärft diesen Umstand tendenziell nochmals, insbesondere beim Einsatz in einem System, welches nur über eine PCI-E-3.0-Anbindung verfügt. Um es kurz und schmerzlos zu halten: Die Frame Generation ist nicht dazu geeignet, Speichermängel zu kompensieren. DLSS 3.0 ist auch nicht dazu geeignet, ruckelnde Spiele zu "reparieren". Insbesondere Traversal-Stutter ist mit DLSS 3.0 eventuell nochmals auffälliger, da zwar die Framerate steigt, das Bild optisch also tendenziell flüssiger wirken kann, die Ruckler aber dennoch auftreten, bei diesen obendrein die Latenzen nochmals höher ausfallen als ohne Frame Generation. Auch wenn das Bild auf das Auge flüssiger wirkt, die Ruckler sind dennoch vorhanden und sind außerdem tendenziell stärker spürbar. Eine KI kann vieles, aber zaubern kann sie nicht. Dennoch ist DLSS 3.0 eine tolle, sehr positiv zu bewertende Neuerung. Dieses Werkzeug will wie jedes andere Werkzeug allerdings auch korrekt angewandt werden. Die Nutzung eines passenden Framelimits ist etwa eine gute Idee."

DLSS 3 und Reflex sind gute Features - auf Karten, die das ohne Traversal-Stuttering packen, nicht aber auf der 4060.

Das sehen wir dann, wenn die Karte verfügbar ist.
Ich tippe nach ein paar Wochen auf ca 450 Euro.
Die 4060Ti 8GB kannst du momentan für 389 bekommen.
Anhang anzeigen 1431278

Bei CB hat man noch einen Restverstand.

Genau, viel zu teuer für die gebotene Leistung. Aber was will ich mit der 4060? :lol:

Hier eine Quelle zum Preis der Asus ROG RTX 4060 Ti 16 GB:


Da steht auch gleich mit, was die Karte bei uns dann kosten wird. Brauchst also nicht weiter zu spekulieren.

Ich verstehe dieses Latenz-mimimi nicht. Mit FG hat man idR. eine bessere Latenz als nativ. D.h. dass deine 6800 jetzt schon eine schlechtere Latenz hat, als eine vergleichbare Nv-Karte mit FG und Reflex. Nach deiner Argumentation dürftest du gar keine AMD Karte kaufen, wenn dir die Latenz so wichtig ist.
Aber komischerweise stört sie mit einer roten Karten im System nie.

Das ist kein Mimimi, das ist einfach Realität, siehe obiges Zitat. Die 4060 hat einfach zu wenige Ressourcen dafür. Ist einfach so, leb damit. Wenn nicht, beschwer dich bei Nvidia.

Außerdem: wo habe ich in meinen Posts was auf mich bezogen? Natürlich stört mich Latenz auch - sobald spürbar. Bevor du mir aber mehr im Mund legst, was ich nie gesagt habe: bitte erst Posts aufmerksam lesen, durchatmen und erst dann schreiben. Klappt dann sicher besser mit sachlichen Argumentationen.

Ich bin weder rot, noch grün - ich kaufe mir das, was für meine persönlichen Ansprüche fürs Geld das beste P/L-Verhältnis bietet. Um das nochmal klarzustellen. Das war seinerzeit die RX 6800, und wenn Nvidia keine vernünftige Rohleistung (ohne DLSS und FG) zu einem vernünftigen Preis bringt und zudem noch zu wenig Grafikspeicher verbaut, sehe ich auch keinen Anlass, meine RX6800 zu wechseln, welche für Full HD nativ locker noch ne Zeit lang ausreicht und die nativ nach wie vor über der 4060 Ti liegt.
 
Zuletzt bearbeitet:
Eben nicht. HYPR-RX kombiniert einfach nur vorhandene Technologien und vereint sie quasi auf Knopfdruck:
CB schreibt in der Mitteilung dazu, dass die gezeigten 89% mehr FPS sehr stark auf Fluid Forms (also quasi das Gegenstück zu FG) hindeuten, gleichzeitig erfolgt aber eine Reduzierung der Latenz von weit über 60% was sich aber ohne eine Art "Reflex" nicht zusammenbringen lassen würde. Ist aber sicher viel Spekulation bei.

Aber lassen wir uns überaschen, grds. glaube ich jedenfalls, dass AMD da durchaus drauf reagieren wird, schließlich ist Reflex jetzt keine "Wundertechnik" sondern eigentlich nur eine "intelligente" Abarbeitung der Queue.
Hier eine Quelle zum Preis der Asus ROG RTX 4060 Ti 16 GB:

Da steht auch gleich mit, was die Karte bei uns dann kosten wird. Brauchst also nicht weiter zu spekulieren.
What???

16GB mit 4060Ti Leistung für über 600 EUR??? Ne 6900XT geht derzeit für 600 EUR (klar, gebraucht) übern Tisch und selbst eine 6800XT pulverisiert die 4060Ti in FullHD mit 30%, in WQHD mit 37%, in 4K mit 43%! Oder man nimmt eine 3080 12GB die liegt ungefähr auf dem spekulierten Preis der 4060Ti 16GB!

Sorry, NV ziemlich ziemlich lächerlich was ihr da macht.
 
Zuletzt bearbeitet:
Das ist kein Mimimi, das ist einfach Realität, siehe obiges Zitat. Die 4060 hat einfach zu wenige Ressourcen dafür. Ist einfach so, leb damit. Wenn nicht, beschwer dich bei Nvidia.
Das ist Unfug, der aufzeigt, dass du keine Ahnung hast, wovon du redest.
Screenshot 2023-07-13 123359.jpg


In welcher Welt ist eine Latenz von 191,2 ms besser als 99,9 ms?
Diese 191,2 ms hättest du mit einer Vergleichbaren AMD Karte, denn die können weder Reflex, noch DLSS oder FG.
Und genau das ist auch der Punkt. Mit deiner AMD-Karte hast du immer die native Latenz, welche maximal schlechter ist. Du schießt dir mit dem Argument ins eigene Bein!
 
Ahh OK, ich dachte immer, dass grds. alle KI Einheiten auch den offenen Standard können und NV (von Intel hab ich ehrlicherweise nicht so richtig den Durchblick was GPUs angeht), nur zusätzlich noch eine eigene Befehlssatzerweiterung bietet?
nein, jeder Hersteller kocht sein eigenen Süppchen..
die KI einheiten von Nvidia und Intel (Tensor Cores ect) unterstützen natürlich nur die dementsprechenden befehlssätze..

diese Sind zwar frei zugänglich.. aber bevor AMD die nutzen wird für FSR3 wird die Hölle zufrieren da AMD lieber ihr eigenes Ökosystem im KI bereich bevorzugt.. und ich glaube nicht das Nvidia oder Intel irgentwelche AMD sachen integrieren werden

Ergo wird ein KI gestütztes FSR und AMD FG nur auf AMD Karten funktionieren.
und AMD muss diesen KI Schritt ob Kurz oder Lang einfach gehen um beim Upscaling Qualitativ mithalten zu können.. Sie sind ja jetzt bereits schon Schlusslicht was die Qualität ihres Upscaling verfahrens angeht.
Deswegen wird FSR in naher zukunft seinen Open Source Aspekt auch verlieren..




und was die Latenz mit FG und Reflex angeht..
versteh da den aufriss nicht.. DLSS +FG +Reflex hat bessere Latenzen als wie es eine AMD Karte Nativ hinbekommt.. und man hat noch den Vorteil einer höher angezeigten framerate und Bildflüssigkeit
 
Hat ihr @PCGH_Sven schon mal bei AMD nachgefragt, welches Netzteil und Gehäuse sie für Starfield empfehlen?:fresse:
Ich muss hier echt fragen: Nimmt jemand diese Anforderungen vom AMD-Marketing tatsächlich für voll?
Kennt sich eben nicht jeder so gut mit Hardware aus. Der unbedarfte User glaubt er müsse für sein High End System einen teuren Chipsatz kaufen, was teilweise auch hier in der Community verbreitet ist.

Ich kenne mich auch 0 mit Autos aus, weil das Interesse fehlt, dennoch hab ich eins.
Mich könnte man also richtig verarschen was das anbelangt.
Da warte ich offizielle Benchmarks und Tests ab.
Die Variante mit 8GB wurde doch schon getestet, die 16GB dürfte zumindest in Full HD und WQHD ohne RT kaum schneller sein.
Sie ist mit nur 8 GiByte für aktuelle, speicherlastige Spiele zu knapp ausgestattet(...)
Deswegen braucht man ja einen 16GB großen Speicher um FG auch solide nutzen zu können, gleichzeitig den Flaschenhals von Bandbreite und Anbindung abzumildern.
DLSS 3 und Reflex sind gute Features - auf Karten, die das ohne Traversal-Stuttering packen, nicht aber auf der 4060.
Wenn der 4060 der Speicher ausgeht, funktioniert FG nicht, völlig klar.
 
Zuletzt bearbeitet:
Achso, das ist also Bestechung!
Ja. Nvidia hat bei GPP etwas ähnliches versucht. Entweder du tanzt nach unserer Pfeife und schließt die Konkurrenz aus, oder du bekommst keine Vergünstigungen.
Wurde damals eigentlich von allen Bubbles kritisiert, nur harte Nvidia Anhänger wollten es nicht so sehen. Darum verstehe ich nicht, wieso du ein vergleichbares Verhalten gutheißt.
Wenn du Franchisenehmer bei BK bist, dann darfst du nur x% an Ware von außerhalb zukaufen und du darfst relativ sicher sein, dass dies so gering gewählt ist, dass du eigentlich nahezu nichts von außerhalb zukaufen darfst.
Sind die Entwickler von Bethesda Franchisenehmer von AMD? Hätte mich jetzt arg gewundert.
Das du irrst, ist natürlich ausgeschlossen! :ugly:
Im Gegensatz zu dir habe ich das ausführlich getestet. Wie du das auf deiner 6900XT zum Laufen bringen möchtest, weiß ich nicht.
Wenn ich spekulieren würde, dann wäre mein Verdacht, dass für dich Features die es beim Konkurrenten gibt, generell ein rotes Tuch sind, dabei fand ich AMD´s VSR zum Beispiel Qualitativ überlegen und den RBAR Vorstoß genial.:ka:

Das ist nicht die betreffende Stelle. Ich würde sagen, es gibt sie nicht.
FG ist und bleibt ein Notbehelf, nicht mehr und nicht weniger und ist letzlich dazu gedacht, zu schwache Karten in einen annehmbaren FPS Bereich zu hieven.
Nein, kein Notbehelf, sondern eine weitere effektive Technologie um mit weniger Input mehr Output zu erzielen. AMD würde an diesem Feature nicht arbeiten, wenn sie der Meinung wären, es sei unnötig.
Das macht in meinen Augen aber eben nur für ältere Karten Sinn und aktuell unterstützen jedoch nur neue Karten das Feature, weshalb es in meinen Augen derzeit recht wenig Sinn ergibt und für mein Empfinden mehr Nachteile als Vorteile bringt.
Macht genauso für schnelle Karten Sinn, zum Beispiel RT zu nutzen, oder eine höhere Auflösung zu fahren. Du sagtest ja die RTX 4060 sei nichts für 4K mit FrameGeneration. Stimme ich zu, da müsste es eher die 4080 sein.
Zusätzlich sinkt der Strombedarf.
Diese Diskussion hatten wir schon und damals hast du nicht weiterdiskutiert, weil du behauptest hattest, selbst inkl. Reflex wären die Latenzen höher.
Dann wirst du jetzt eben nochmal neu informiert und tada, du kannst mit deiner Radeon gar nicht mehr spielen, wegen der Latenz...

Screenshot 2023-07-13 140426.png


Die Aussage ist völlig falsch und beweist einmal mehr deine Herangehensweise.
Deine Herangehensweise ist: Latenz ist das wichtigste Überhaupt und die höheren Bildraten, Framepacing, bessere Übertragung der Mausbewegungen auf den Schirm durch Zwischenbilder ist egal. Du betrachtest das Eindimensional.
Ich würde FG immer anschalten, wenn ich zu wenig FPS habe, immer, von einer niedrigeren Latenz profitiere ich weit weniger, schon gar nicht außerhalb sehr schneller Shooter.
Und genau das ist auch der Punkt. Mit deiner AMD-Karte hast du immer die native Latenz, welche maximal schlechter ist. Du schießt dir mit dem Argument ins eigene Bein!
Er kann im Treiber noch AMD´s Latenzverkürzung aktivieren, kommt aber dennoch nicht auf diese Werte. Man verdreht sich mit seiner Argumentation soweit, dass man im Prinzip sagt: Hey mit AMD GPUs kann man wegen der Latenz nicht vernünftig zocken.
 
Zuletzt bearbeitet:
Ja. Nvidia hat bei GPP etwas ähnliches versucht. Entweder du tanzt nach unserer Pfeife und schließt die Konkurrenz aus, oder du bekommst keine Vergünstigungen.
Wurde damals eigentlich von allen Bubbles kritisiert, nur harte Nvidia Anhänger wollten es nicht so sehen. Darum verstehe ich nicht, wieso du ein vergleichbares Verhalten gutheißt.
GPP war ungefähr um die Potenz 1000 schlimmer als das was AMD (evtl.) hier macht! Denn da ging es um Hardware. Dazu ging man seinerzeit sogar so weit, den Partnern unterschwellig zu drohen, "wenn ich nicht mitmacht, wissen wir auch nicht so genau wann ihr die nächsten Lieferungen erhaltet, alle die mitmachen sind vor euch dran", da geht es dann nicht mehr um Sponsoring, sondern schlichtweg um Erpressung!


Im Gegensatz zu dir habe ich das ausführlich getestet. Wie du das auf deiner 6900XT zum Laufen bringen möchtest
Na ich kann zaubern!

Nein, kein Notbehelf, sondern eine weitere effektive Technologie um mit weniger Input mehr Output zu erzielen. AMD würde an diesem Feature nicht arbeiten, wenn sie der Meinung wären, es sei unnötig.
Doch ein Notbehelf!

Zusätzlich sinkt der Strombedarf.
Der ja auch erst wieder mit der RTX4xxxer Serie interessant geworden ist und bei CPUs ohnehin keine Rolle spielt?

Deine Herangehensweise ist: Latenz ist das wichtigste Überhaupt und die höheren Bildraten, Framepacing, bessere Übertragung der Mausbewegungen auf den Schirm durch Zwischenbilder ist egal. Du betrachtest das Eindimensional.
Du willst es ja doch nicht verstehen und wirst immer nur noch AMD und FG + Reflex in den Ring werfen, ist OK. Nicht an einer einzigen Stelle Sinn einer Diskussion, aber wenn es dir dann besser geht!

"bessere Übertragung der Mausbewegungen" ist übrigens ziemlich sinnlos, denn die Mausbewegung ist letztendlich das, was keine KI der Welt "vorausberechnen" wird, einfach weil du diese steuerst.

Und nein, ich betrachte es nicht eindimensional, das tust lediglich du und dich ständig auf irgendwelche Balken berufst, die dann so interpretiert werden wie man will. Interessant finde ich, dass die Latenz bei aktiviertem DLSS quasi keine Auswirkung zwischen Reflex on und off zeigt, wobei es in gewissem Maße technisch Sinn ergeben wird. FG ist und bleibt für mich keine einzige Sekunde ein Kaufargument, wenn du es nutzen möchtest, tue es bitte, aber ohne hier den heiligen Gral herunterzureden. Reflex ist ein Kaufargument, nicht FG. Reflex kann man aber eben schon ab der GTX9er Serie (glaube ich zumindest) nutzen.

Mit deiner AMD-Karte hast du immer die native Latenz, welche maximal schlechter ist. Du schießt dir mit dem Argument ins eigene Bein!
Er kann im Treiber noch AMD´s Latenzverkürzung aktivieren, kommt aber dennoch nicht auf diese Werte. Man verdreht sich mit seiner Argumentation soweit, dass man im Prinzip sagt: Hey mit AMD GPUs kann man wegen der Latenz nicht vernünftig zocken.
Eben das zeigt ja worauf ihr ausseit! Warum schießen wir uns ins eigene Bein? Weil ihr der hemmungsosen grün hinterlegten Auffassung seit, wenn jemand nicht alles was Grün gut findet, ist er automatisch rot. Die Welt ist nicht eindimensional. Nochmal, Reflex ist für mich ein ganz klares Kaufargument für Nvidia, neben dem Stromverbrauch (bzw. der Effizienz) und ich sage es seit Release (bzw. nach dem sich die Preise etwas angepasst hatten), dass ich die 4080 einer XT und auch einer XTX vorziehen würde. (die 4090 sowieso, da sie einfach ohne Konkurenz ist). Drunter wird es aber eben spannend und während Nvidia eben Kunden (in meinen Augen) versucht mit der Spielerei FG zu locken, schaffen hier AMDs Karten meist mehr FPS und haben noch dazu neben dem meist günstigeren Preis sogar eine gescheite VRAM Ausstattung, was man seitens NV eben nicht behaupten kann. Mit einer 4080 werde ich aber eben aktuell selbst bei 4K nicht in die Not kommen FG aktivieren zu müssen um "flüssige" Bildraten zu erreichen, da aktiviere ich dann DLSS und Reflex (wobei nach oben gezeigtem vieleicht auch nicht mehr) und bin glücklich.
 
GPP war ungefähr um die Potenz 1000 schlimmer als das was AMD (evtl.) hier macht!
Potenz 1000?! :fresse: , wenn man die Konkurrenz ausschließen möchte? Ist für mich vom Prinzip her 1:1 dasselbe, nur nicht mit Boardpartnern und Hardware, sondern etablierten Softwarefeatures.
Na ich kann zaubern!
Habe ich mir schon gedacht.=)
Doch ein Notbehelf!
Nein, eine Steigerung von Input/Output, wie schon DLSS zuvor.
Was gebe ich an Rohleistung hinein und was bekomme ich als Ergebnis heraus.
"bessere Übertragung der Mausbewegungen" ist übrigens ziemlich sinnlos, denn die Mausbewegung ist letztendlich das, was keine KI der Welt "vorausberechnen" wird, einfach weil du diese steuerst.
Wird ja nicht vorrausberechnet, sondern mit minimalen Zugeständnissen an die Latenz zwischen zwei Bilder geschoben, was das Bewegungsgefühl mit der Maus steigert.
Und nein, ich betrachte es nicht eindimensional, das tust lediglich du (...)
Du hackst auf der Latenz herum, und vertrittst die absurde Position eines "Notbehelfs" was keiner der einschlägigen Tests behauptet.
Du ignorierst völlig die wesentlich höhere Bildflüssigkeit ohne die Auflösung wie bei DLSS herabzusetzen.
(...)und dich ständig auf irgendwelche Balken berufst, die dann so interpretiert werden wie man will.
Die Balken sind das was du am Monitor siehst, du versteifst dich nur auf den minimal höheren Inputlag, der nur bei schnellen Shootern für competetive Spieler problematisch ist. In Cyberpunk, GTA, Witcher und Co fällt das nicht ins Gewicht.
Eben das zeigt ja worauf ihr ausseit!
Nein, das zeigt, dass das absurd ist, weil niemand behauptet man könne mit dem üblichen Input Lag nicht zocken, oder es sei so ein großer Nachteil, außer die, die so große Probleme bei Frame Gen sehen. Input Lag ist bei weitem nicht alles.

Im Flugsimulator merkst du davon nichts, dort profitierst du einfach nur massiv durch den Wegfall des CPU Limits.
Warum schießen wir uns ins eigene Bein?
Weil du Frame Generation so vehement als Müll framest, dass dir gar nicht auffällt wie unsinnig die Argumentation im Bezug auf Radeon Karten wäre.
Nochmal, Reflex ist für mich ein ganz klares Kaufargument für Nvidia, neben dem Stromverbrauch (bzw. der Effizienz) und ich sage es seit Release (bzw. nach dem sich die Preise etwas angepasst hatten), dass ich die 4080 einer XT und auch einer XTX vorziehen würde.
Und wieso stört dich dann Frame Generation?
Drunter wird es aber eben spannend und während Nvidia eben Kunden (in meinen Augen) versucht mit der Spielerei FG zu locken, schaffen hier AMDs Karten meist mehr FPS und haben noch dazu neben dem meist günstigeren Preis...
Du kannst den Preisleistungsindexen Raster+RT von PCGH entnehmen, dass sich das nichts nimmt und klar braucht AMD bei mehr Stromverbrauch, schlechterer Upscaling BQ und keinem FG einen etwas kleineren Preis, ansonsten würde es ja niemand kaufen.

Und selbst das reicht offenbar nicht, wie man an den Marktanteilen sieht.
(...)da aktiviere ich dann DLSS und Reflex (wobei nach oben gezeigtem vieleicht auch nicht mehr) und bin glücklich.
Weil du DLSS im Prinzip genauso als unnötig ansiehst?
 
Zuletzt bearbeitet:
Und wieso stört dich dann Frame Generation?
Wo genau stört mich FG denn? Ich sehe es nur nicht als "Killeroption" und Kaufargument an. Wenn es dabei ist OK, aber wenn nicht stört es mich auch nicht.


Du kannst den Preisleistungsindexen Raster+RT von PCGH entnehmen, dass sich das nichts nimmt und klar braucht AMD bei mehr Stromverbrauch, schlechterer Upscaling BQ und keinem FG einen etwas kleineren Preis, ansonsten würde es ja niemand kaufen.
Ja, auch da werden wir unterschiedliche Ansichten haben, RT spielt in meinen Augen erst eine relevante Rolle so ab 4080, daher auch für mich der klare Vorsprung der 4080 gegenüber den AMD Karten, trotz des noch deutlich höheren Preises. Unterhalb sehe ich RT eher als nutzlos an, bisher konnten mich die RT Effekte in den meisten Spielen erst ab sehr hohen Einstellungen, wo die Karten unterhalb der 4080 aber schon regelrecht einbrechen, begeistern.

Ansonsten bietet AMD in aller Regel deutlich Raster + zu kleineren Preisen und ja, das ist natürlich dem fehlenden Featureset geschuldet, nichts anderes würde ich behaupten. Aber eine 4060Ti 16GB für über 600 EUR? Sorry, da fehlt mir die Phantasie das irgendwie zurechtfertigen.

Weil du DLSS im Prinzip genauso als unnötig ansiehst?
Nein!
DLSS macht es was ganz anderes als FG und verbessert das Spielerlebnis in allen Ebenen und verschlechtert dabei eben die Bildqualität. Dennoch ist auch dies natürlich ein Notbehelf und nur dann sinnvoll wenn nativ nicht ausreichend ist.
 
Wo genau stört mich FG denn? Ich sehe es nur nicht als "Killeroption" und Kaufargument an. Wenn es dabei ist OK, aber wenn nicht stört es mich auch nicht.
Du sagst FG nutzt nur der, der sich sein System falsch zusammengestellt hat und den Monitor falsch wählte, für alle andere ist es kein Vorteil, weil die Latenz auf AMD Niveau lieg?:confused: Sorry, da kann ich auch gleich sagen, dass ich es schei*e finde, ohne derart hanebüchene Ausflüchte zu suchen. Nur bleibt unter dem Strich kein Argument stichhaltig.
Dein Markenfetischismus quillt dir aus jeder Pore.:daumen:
Ja, auch da werden wir unterschiedliche Ansichten haben, RT spielt in meinen Augen erst eine relevante Rolle so ab 4080...
Und für mich spielt das in jedem Preissegment eine Rolle, weil man auch mit kleineren Karten in niedrigeren Auflösungen RT aktivieren kann, wenn genügend Leistung vorhanden ist. Im Zweifel dann eben keine maxed RT oder maxed Textursettings auf ner 8GB Karte. In Formel 1 2023 kann man es easy auf ner 4060 anmachen.
...bisher konnten mich die RT Effekte in den meisten Spielen erst ab sehr hohen Einstellungen, wo die Karten unterhalb der 4080 aber schon regelrecht einbrechen, begeistern.
Interessant, dabei bieten bereits RT "hoch" oder "mittel" in Spielen wie Formel 1 2023 oder Hogwarts Legacy oder Metro Exodus bereits fast die maximale Qualität.
Das nächste absurde Statement.

Aber eine 4060Ti 16GB für über 600 EUR? Sorry, da fehlt mir die Phantasie das irgendwie zurechtfertigen.
Warum sollte die Karte über 600 Euro kosten? Was ist das wieder für ein Märchen?
Der Preis für das Ding steht noch nicht mal final fest. Der bisherige angesetzte Preis liegt bei 499 Dollar.
DLSS macht es was ganz anderes als FG und verbessert das Spielerlebnis in allen Ebenen und verschlechtert dabei eben die Bildqualität.
Und da sind wir halt beim nächsten Punkt. DLSS verbessert die Bildqualität massiv, noch massiver als FSR im vergleich zur nativen Renderauflösung und sieht im Gegensatz zu FSR, quasi immer besser aus als Nativ, besonders in Bewegung, selbst mit DLSS Balanced.

Einfach hier! anschauen was das kann und die eigene Anti-Nvidia/Anti Upscaling-Haltung überdenken.
Dennoch ist auch dies natürlich ein Notbehelf und nur dann sinnvoll wenn nativ nicht ausreichend ist.
Nein, ganz klares nein. Das ist immer sinnvoll, weil die Qualität besser ist, ausnahmslos bei gleichzeitigem Downsampling.
Wer ohne DLSS oder FSR spielt weiß es halt einfach nicht besser und sollte sich bei der Onlineredaktion des Vertrauens mal informieren.
 
Zuletzt bearbeitet:
Du vermischst um deine Argumentation zu stützen zwei verschiedene Sachverhalte miteinander.
Zum einen die freie Wahl der Upscalingtechnologien (FSR, XeSS, DLSS) und zum anderen geschlossene vs. offene Lösungsansätze.
Beides hat miteinander nichts zu tun, Microsoft wird ja auch als proprietäre Lösung von der Industrie akzeptiert. Schau dir an wie viele Gamingsysteme Linux haben.

Nein, ich vermische nicht, Du relativierst.
NVidia betreibt seit 20 Jahren

Bethesdas Spiel ist doch auch proprietär, das heißt, diese Entwicklung/Engine steht den Nutzern nicht als Source Code zur Verfügung.

Du weißt nicht was das Wort proprietär bedeutet, wenn Du es in diesem Kontext benutzt.
Proprietär bedeutet nicht, wie es die Populärkultur heute weißmachen möchte, das
es Software unter Eigentum gibt, gegen die die FSF kämpft.

Der Begriff Proprietäre Software enstand im Anti-Trust Verfahren gegen IBM bei dem
IBM Mainframe Maschinen vermietete, statt verkaufte.
Gekoppelt waren damals Software und Hardware in einem Vertrag und der Nutzer wurde gezwungen
Hardware zu mieten, um die Software zu nutzen und Vice Versa, bedeutet:

a. Du bist niemals von dem Lieferanten weggegkommen
b. Der Nutzer wurde von Progress abgeschnitten
c. Das Monopol von IBM verhinderte Fortschritt

Die NVidia EULA von 2017 hat Rechenzentrenbetreibern explizit untersagt Deep Learning mit GeForce
Compute Units durchzuführen und zwang per EULA die viel teureren, aber nicht viel besseren
Quadro und Tesla Karten zu kaufen.
Und jetzt kommts, außer Rechenzentrenbetreibern die Kryptomining damit betreiben,
die durften das weiterhin....
Kryptomining, fällt mir nix mehr zu ein....

Na, erkennst Du jetzt die Parallelen und warum ich explizit NVidia und das Wort proprietär nutze....

NVidia zwingt Konsumenten Hard- und Software auf.
Jedesmal, wenn NVidia mit einer "Neuerung" kommt, wird diese so eingesetzt,
das der Markt weiterhin in Richtung NVidia abgeschottet wird.

AMD ist da offen, siehe FSR, Mantle, FreeSync... usw.
Alles ohne Lizenz, Abschottung und anderer mieser komischer Verhaltensweisen....


Ich habe das Gefühl, dass du zur Marktmanipulation nur Nvidia befähigt siehst und auch nur über Nvidia redest, obwohl es doch um AMD geht.:ka:

Nein, aber NVidia ist da bei weitem skrupelloser.
Willst Du nur nicht sehen.

Radeon Boost läuft doch auch nur auf AMD eigener Hardware.:ka:
Ob etwas open source oder herstellergebunden ist liegt hauptsächlich am Marktanteil, wie auch am geschaffenen Ökosystem

Nur mit dem Unterschied, das AMD z.B. dem Boardhersteller Sapphire z.B. die gesamte Software zur Verfügung gestellt hat, damit die basierend darauf die Sapphire Trixx entwickeln konnten...

Wieviele NVidia Alternative Treiber Pakete mit eigener Software von Boardherstellern gibt es noch mal?
Ach so gar keinen...

Chips von NVidia zu diktierten Preisen kaufen, Software aus Gnaden beziehen, EVGA plattmachen...

Toller Partner...

Und das hält dich davon ab solche Dinge bei AMD zu kritisieren?:huh:

Nein, wenn AMD scheiße baut, sollen die bluten.

Aber die pillepalle von AMD ist im Vergleich zu den Verfehlungen von NVidia nicht mal der Rede wert...

P.S. Last but not least...
NVidia droht Boardpartnern, wen diese Intelgrafikchips verbauen sollten...

So viel zu Marktmanipulation...

Bei den Methoden jetzt noch irgendwas zu AMD, da fällt mir dann nur noch ein Wort zu ein,
Heuchler.
 
Zuletzt bearbeitet:
Nein, ich vermische nicht, Du relativierst.
Das sind zwei verschiedene Sachverhalte. Eigenentwicklungen vs. Behinderung Entwicklungen anderer. Du vermischst diese beiden Sachverhalte, um das Verhalten von AMD zu rechtfertigen. Wenn du so möchtest wieder ein weiterer Whataboutism, bzw Scheinargument. Du versuchst die Diskussion auf andere Felder zu verlagern.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Du weißt nicht was das Wort proprietär bedeutet, wenn Du es in diesem Kontext benutzt.
„Als Gegenbegriff zu Open-Source-Software hat sich der Ausdruck proprietär weitgehend durchgesetzt, […]. Proprietäre Software wird in der Regel kommerziell vertrieben und liegt nur in Binärform vor.“[
Das Spiel von Bethesda läuft nur mittels hauseigener entwickelter Engine, genau wie DLSS auf dem Softwarestack von Nvidia aufsetzt und nur damit läuft...
Na, erkennst Du jetzt die Parallelen und warum ich explizit NVidia und das Wort proprietär nutze....
Ich erkenne die Parallelen, aber es ist einfach nur Whataboutism und damit redest du eben permanent über etwas anderes als über den eigentlichen Topic.
Macht das Verhalten von AMD in dieser Causa auch nicht besser. :ka:
Aber die pillepalle von AMD ist im Vergleich zu den Verfehlungen von NVidia nicht mal der Rede wert...
Ist kein Pillepalle, sondern hat ganz offensichtlich System wie Direct10.1 aus Assassins Creed herauszuhalten, weil es AMD einen Vorteil versprochen hat.
Genauso ists bei DLSS. Optische, bzw. Leistungstechnische Vorteile meist über integrierte Plugins laufend aus Software herauszuhalten oder sogar herauszupatchen sobald es eine Zusammenarbeit mit AMD gibt.
Nein, wenn AMD *** baut, sollen die bluten.
Hört sich aber ganz anders bei dir an, wenn ich mir deinen Rant ansehe, findest du das von AMD sogar ganz okay. Mit dieser Sichtweise braucht man aber dann auch Nvidia nicht kritisieren, nur weil sie das nach Assassins Creed irgendwann noch einmal gemacht haben könnten. Mir fällt aus dem Stehgreif allerdings kein Beispiel ein, wo sie AMD Tech aus Spielen gehalten haben.
 
Zuletzt bearbeitet:
Das sind zwei verschiedene Sachverhalte. Eigenentwicklungen vs. Behinderung Entwicklungen anderer. Du vermischst diese beiden Sachverhalte, um das Verhalten von AMD zu rechtfertigen. Wenn du so möchtest wieder ein weiterer Whataboutism, bzw Scheinargument. Du versuchst die Diskussion auf andere Felder zu verlagern.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Das Spiel von Bethesda läuft nur mittels hauseigener entwickelter Engine, genau wie DLSS auf dem Softwarestack von Nvidia aufsetzt und nur damit läuft...

Ich erkenne die Parallelen, aber es ist einfach nur Whataboutism und damit redest du eben permanent über etwas anderes als über den eigentlichen Topic.
Macht das Verhalten von AMD in dieser Causa auch nicht besser. :ka:

Ist kein Pillepalle, sondern hat ganz offensichtlich System wie Direct10.1 aus Assassins Creed herauszuhalten, weil es AMD einen Vorteil versprochen hat.
Genauso ists bei DLSS. Optische, bzw. Leistungstechnische Vorteile meist über integrierte Plugins laufend aus Software herauszuhalten oder sogar herauszupatchen sobald es eine Zusammenarbeit mit AMD gibt.

Hört sich aber ganz anders bei dir an, wenn ich mir deinen Rant ansehe, findest du das von AMD sogar ganz okay. Mit dieser Sichtweise braucht man aber dann auch Nvidia nicht kritisieren, nur weil sie das nach Assassins Creed irgendwann noch einmal gemacht haben könnten. Mir fällt aus dem Stehgreif allerdings kein Beispiel ein, wo sie AMD Tech aus Spielen gehalten haben.

Was soll das sein Whataboutism?

Verkaufst mir AMD als das Marktmonster und NVidia, die echte linke Dinger fahren,
über die kein Wort.

Du diktierst weder, wer hier gut, noch wer schlecht ist.

Spielst Dich als Richter über AMD auf und gehst aber mit keinem Wort auf jetzt annähernd 1 Dutzend
echter Verfehlungen NVidias ein, die ich Dir aufgezeigt habe, von denen jede
Einzelne das AMD Ding lächerlich erscheinen lässt.

Sag ich doch, Heuchler.
 
Zuletzt bearbeitet:
Was soll das sein Whataboutism?
Das habe ich erklärt und auch der nette Herr im Video.
Verkaufst mir AMD als das Marktmonster(...)
Nö, ich führe im Gegensatz zu dir keine unnötige Grundsatzdebatte.
und NVidia, die echte linke Dinger fahren, über die kein Wort.
Habe doch das passende Beispiel mit Assassins Creed benannt.
Und ich verstehe nicht, warum man AMD in irgend einer Weise eine andere Behandlung zukommen lassen soll.
Du diktierst weder, wer hier gut, noch wer schlecht ist.
Stimmt, das ist deine Aufgabe, auch wenn du die eher schlecht umsetzt.
(...)1 Dutzend echter Verfehlungen NVidias ein, die ich Dir aufgezeigt habe(...)
Weil ich nicht über dein Stöckchen springe, was du als "echte" und "unechte" Verfehlungen siehst.

Oder läuft das bei dir in die Arbeit auch so.
Chef: Hey Vicares, dein Schaltschrank hat keine Erdungsbänder!
Vicares: Egal, Mickey hat doch letzte Woche zwei Ösen nicht gebohrt!
 
Das ist Unfug, der aufzeigt, dass du keine Ahnung hast, wovon du redest.
Anhang anzeigen 1431302

In welcher Welt ist eine Latenz von 191,2 ms besser als 99,9 ms?
Diese 191,2 ms hättest du mit einer Vergleichbaren AMD Karte, denn die können weder Reflex, noch DLSS oder FG.
Und genau das ist auch der Punkt. Mit deiner AMD-Karte hast du immer die native Latenz, welche maximal schlechter ist. Du schießt dir mit dem Argument ins eigene Bein!

Bitte mach mal ne Quellenangabe zu diesen Balken. Wenn ich keine Ahnung habe, dann PCGH, Computerbase und Igor's Lab auch nicht... Alles klar, träum mal schön deine Nvidia-Bubble weiter und lass dich nicht stören ^^

Dann brauchst du ja auch weiterhin auf Zitate, in dem Fall PCGH Phil, nicht eingehen. Ist ja dann auch kein Wunder.

Allerdings halte ich dann mit dir eine sachliche Diskussion leider nicht für möglich. Mir ist schon aufgefallen, dass du entweder sticheln oder etwas ins Lächerliche ziehen musst (auch gegen andere User hier), sobald Argumente gegen Nvidia kommen. Sorry, wenn ich dich dann nicht für voll nehmen kann, da mir für so etwas meine Zeit zu schade ist.
 
Zuletzt bearbeitet:
Zurück