News AMD FSR 3: Frame-Generation-Mods beschleunigen Witcher 3 und Starfield deutlich

iwie hat jede Technologie irgendeinen Haken und man nimmt dann das, was einem besser gefällt. Sei es bessere Bildqualität / mehr fps etc. DLSS ist auch noch weit davon entfernt, perfekt zu sein. Es wird so oft getan, dass das der heilige Gral wäre und FSR und co. nutzlos sein - das stimmt aber nicht. Ich kenne genug Leute, die fsr nutzen mit älteren GPUs und "froh" sind, dadurch noch in FPS Regionen zu rutschen, die spielbar sind. Und die beschweren sich nicht mal über die Bildqualität :ugly:
Das FG via mod oder patch noch nachträglich in Spiele kommt und von "allen" Karten genutzt werden kann ist gut, aber solange unklar ist, wie gut es funktioniert , ist es für mich eher eine Randnotiz und kein Gamechanger.
 
Ist ja nicht so als dass man in sämtlichen Foren lesen kann, dass sich Leute über das Ruckeln beschweren…
Es ruckelt nichts auf meiner AMD Karte wenn ich Avatar spiele. Und das meine ich auch. Es ist wieder typisch DF dass die nur auf nvidia testen. Was is denn das? AMD Feature aber man testet es nur auf nvidia Karten um dann zu meckern wenn man was gefunden hat? Sind die zu arm um eine AMD Karte zu kaufen?

DF is nur noch lächerlich.
 
Es ruckelt nichts auf meiner AMD Karte wenn ich Avatar spiele. Und das meine ich auch. Es ist wieder typisch DF dass die nur auf nvidia testen. Was is denn das? AMD Feature aber man testet es nur auf nvidia Karten um dann zu meckern wenn man was gefunden hat? Sind die zu arm um eine AMD Karte zu kaufen?

DF is nur noch lächerlich.

Absolut berechtigte Kritik. Aber es gibt eben auch Leute mit Nvidia Karte, die sagen es sei flüssig. Was sagt uns das jetzt?

Ich hätte mir auch nichts lieber gewünscht, als dass sie mit beiden Herstellern testen, damit klar ist was Sache ist.

Trotzdem finde ich ist das Ruckeln auf Nvidia Karten schon Aufreger genug. Wenn eh schon DLSS integriert ist, dafür aber DLSS3 FG wegfällt und man als AdaLovelace User dann das ruckelnde FSR FG nutzen müsste, während viele Leute und auch teils die Presse sagen, es sei ja alles okay, weil viele das Ruckeln nicht sehen (war ja bei Shader-kompilierungsrucklern auch immer so, dass es viele einfach nicht sehen, selbst wenn das Spiel ne halbe Sekunde Standbild zeigt) dann kommt man sich schon etwas verarscht vor.

Für mich ist es ganz einfach. Entweder das läuft künftig auf Nvidia Hardware ruckelfrei oder man integriert zumindest DLSS FG.

In Avatar sah sowohl das FSR Upscaling als auch das FG von AMD (bis auf das HuD)rein optisch einwandfrei aus. Ich bestehe nicht auf DLSS und weiß auch dass ich das nicht immer bekommen werde. Aber wenn AMD FSR FG mit support für alle GPU Hersteller anbietet und die Entwickler das in diesem Glauben integrieren, dann soll es gefälligst auch ordentlich laufen.
 
Ist ja nicht so als dass man in sämtlichen Foren lesen kann, dass sich Leute über das Ruckeln beschweren… Ich kanns selbst bestätigen und bin ja in diesem Thread nicht der einzige.

Warum reagierst du eigentlich immer so empfindlich auf Kritik gegen AMD? Du bist bei solchen Themen ständig am verteidigen und relativieren. Hast du etwa kein Interesse daran, dass FSR3 besser wird? Also ich schon…
Das funktioniert eben nur, wenn man die Kritik ausspricht und zur Diskussion bringt. So lange bis sich was bessert.

Und ja, wenn mich ein Thema nervt, dann formuliere ich das auch gerne mal mit Zynismus.
Du könntest aber auch einfach mal richtig lesen und dann darüber nachdenken.
Es wurde geschrieben, dass "selbst digital foundry" es anmerkt. Dieses "selbst XYZ" verwendet man dann, wenn man danach etwas oder jemanden aufführt, der eigentlich pro dem Angeklagten eingestellt ist. Hier wurde aber eine Seite aufgeführt die eh als erstes Kritik an AMD üben würden, also das "selbst XYZ" ist hier komplett falsch gewählt und ohne Inhalt.
Er bezieht sich genau darauf und sagte sinnbildlich: "Oh Wunder... Die AMD Kritiker schlechthin kritisieren diese AMD Technik."
Jack hat mit keinem Wort die Technik verteidigt und auch nicht die Kritik abgelehnt, sondern das Gegenteil davon. Dennoch hast du genau das hineininterpretiert. Um es mal mit deinem Worten zu sagen... Warum reagierst DU so?

Edit
Bin jetzt erst durch den thread durch. Schön, dass ihr euch beruhigt habt.
Die Vergleichbarkeit ist halt das große Problem, da gebe ich euch Recht. Nur wie will man die gewährleisten?
Ada performt beispielsweise in 4k besser als bei geringer Last, bei AMD ist es genau umgekehrt seit RDNA. Dann wird beim testen natürlich jegliches syncen ausgeschaltet, damit man die maximale Performance ermitteln kann. In der Realität haben die gsync, freesync, vrr User es aber an und jeder auf andere Grenzwerte. Ich nutze noch immer 4K@60fps. Da kann die GPU meist Erholungspausen einlegen und verschluckt sich nicht so oft, hält zudem die meiste Zeit den vollen Boosttakt. Der nächste peilt mit der gleichen Karte aber 120fps an und da verhält sich das schon wieder ganz anders.
Vergleichbarkeit gibt's hier mMn seit der Kombi aus upscaling, FMF/FG und unterschiedlichen Techniken nicht mehr wirklich.
Dann konzentriert sich Nvidia darauf, auf ihren aktuellen Karten das Maximum herauszuholen, während AMD zur Kompatibilität mit allen Herstellern genau das eben nicht tut. Also selbst wenn wir nur FSR3 samt FMF auf Navi betrachten würden, so ist der Ansatz dahinter ja nicht der gkeiche wie bei Nvidia und auch diese vermeintlich optimale Situation eben doch nicht zu vergleichen.
 
Zuletzt bearbeitet:
Die Polemik gegen AMD und der Schaum vor dem Mund einiger Fanboys hier
ist wirklich nicht mehr schön.

Meinst Du die Polemik und den Schaum vor Deinem Mund? Siehe Dein Post auf Seite 1 des Threads, extra hier noch mal zur Erinnerung für Dich.


1. Es geht grad nicht um NVidia.
2. Es dreht sich um Technik, die AMD auf eigene Kappe entwickelt hat,
die sinnvoll ist und mit bezahlbarer Technik für jeden nutzbar.
Lederjacke muss sich wohl die 3. Yacht aus einem anderen Budget kaufen.
3. AMD stellt die Technik GRATIS zur Verfügung, von/für jeden nutzbar.
Sowohl von Moddern, als auch von NVIDIA-NUTZERN mit "älteren" Grafikkarten
auf die NVidia grade schei...

Auch eine 3 Jahre alte Titan RTX für um die 2.500 € ist jetzt Dank AMD
kein Altmetall, nur weil Lederjacke das so entschieden hat.

Also, Danke AMD?????
 
Sollte eigentlich klar sein , das "einfache" ( Amd,s FSR ) vervielfältigen ein und des selben Bildes ist , und nur die angezeigte Frame Rate erhöht.

Amd,s FSR macht das Spiel nicht schneller , oder hübscher und führt manchmal auch zu zusätzlichen Problemen .

Ne, ist nicht klar, kann auch nicht, weil die Aussage wirklich jegliches
Technikverständnis vermissen lässt.

Also entweder, reine Polemik, oder Du haust einfach mal einen raus,
ohne jegliches Wissen.

Spare mir jetzt, dass Du offensichtlich nicht einmal den Sinn
von FSR/DLSS verstanden hast, der in erster Linie nämlich genau das tun soll:

FPS erhöhen, damit die Leistungsreserven genutzt werden können,
um alle Schalter der Engine auf max zu setzen und dennoch spielbare
Frameraten zu ermöglichen...

Dasselbe Prinzip nutzt NVidia. Das dann noch Kapazitäten
bleiben, um nebenbei AA, Upscaling, usw. zu nutzen, sind
"Abfallprodukte" des eigentlichen Sinns...
Meinst Du die Polemik und den Schaum vor Deinem Mund? Siehe Dein Post auf Seite 1 des Threads, extra hier noch mal zur Erinnerung für Dich.

Kenne meinen Post nicht mehr so genau, ist ja auch schon verdammt lange her, ganze 24 Std....
Aber wo war da jetzt die Polemik?

Lederjacke tut sich einen Haufen Geld für überteuerte Produkte weg
und grenzt seine eigenen Produkte aus, wenn der Absatz mal wieder
angekurbelt werden soll, so weit, so Fakt.

Oder meintest Du die Absätze über AMD?

Ja, ich weiß, ist schon hart gegen AMD, so zu schreiben.
Aber was fällt denen ein?

Einfach gute Technik zum bezahlbaren Preis zur Verfügung zu stellen!!!!
Dann R&D auf eigenen Nacken betreiben und der Community
als Open Source zur Verfügung stellen!!!!
Vulkan, FreeSync, FSR, usw. usf. alles basierend auf Kooperation
von denen alle partzipieren können? Was fällt denen ein??????

Ja, hast recht, sorry, auch wenn AMD das alles so veranstaltet,
noch lange kein Grund so hart mit denen ins Gericht zu gehen....
 
Zuletzt bearbeitet:
Kenne meinen Post nicht mehr so genau, ist ja auch schon verdammt lange her, ganze 24 Std....
Aber wo war da jetzt die Polemik?

Lederjacke tut sich einen Haufen Geld für überteuerte Produkte weg
und grenzt seine eigenen Produkte aus, wenn der Absatz mal wieder
angekurbelt werden soll, so weit, so Fakt.

Oder meintest Du die Absätze über AMD?

Ja, ich weiß, ist schon hart gegen AMD, so zu schreiben.
Aber was fällt denen ein?

Einfach gute Technik zum bezahlbaren Preis zur Verfügung zu stellen!!!!
Dann R&D auf eigenen Nacken betreiben und der Community
als Open Source zur Verfügung stellen!!!!
Vulkan, FreeSync, FSR, usw. usf. alles basierend auf Kooperation
von denen alle partzipieren können? Was fällt denen ein??????

Ja, hast recht, sorry, auch wenn AMD das alles so veranstaltet,
noch lange kein Grund so hart mit denen ins Gericht zu gehen....

Du toppst die Polemik sogar noch mal, Respekt!
 
Du toppst die Polemik sogar noch mal, Respekt!


Leider und das meine ich jetzt wirklich ernst, ohne feindselig wirken zu wollen,
leider fehlt Dir offensichtlich jegliches firmenhistorische Wissen, wie Team Grün groß wurde.
Was dafür alles an Propaganda betrieben und welche Unternehmen dadurch
vom Markt gedrängt wurden.

Fing mit dem TNT 2 an, der angeblich 32 bit Color und 32 bit Frame Buffer beherrschte.
"Aggressives" Marketing von Team Grün sprach daraufhin der Konkurrenz in Form von S3, 3dfx, Matrox u.w.
(ja, es gab mal mehrere gute Chiphersteller am Markt), jegliche Kompetenz ab.
Die Verkaufszahlen von Team Grün gingen steil nach oben, die aller anderen gleichzeitig runter.

Nur hat Team Grün vergessen, denen, die sich eine TNT gekauft hatten mitzuteilen, dass wenn das 32 bit Feature
aktiviert wird, die FPS in den einstelligen Bereich sinken.

Unbrauchbares und damit nutzloses Feature für viel zu viel Geld zu Lasten ehrlicher Marktteilnehmer,
wirklich Team Grün, ganz ganz großes Tennis, Weltklasse.

Direkt danach wurde T&L propagiert, Tag und Nacht das einem übel wurde.
3dfx setzte im gleichen Zeitraum auf Anti Aliasing.
Nachdem AA platt "gemarketingt" und "T&L" gehyped wurde, war 3dfx schließlich pleite.
Team Grün übernahm dann, oh Wunder oh Wunder, die Reste von 3dfx.
Und plötzlich, noch mal, oh Wunder, oh Wunder, wurde (mit der von 3dfx für kleines Geld "erworbenen" Technologie) was gehyped?

Anti Aliasing....

Lag wohl auch daran, dass zwischen der ersten GeForce und der ersten Applikation,
die dann auch mal T&L nutzte 3 Jahre lagen...

AA war sofort und ohne Einschränkungen nutzbar...

So ging das mit Team Grün dann über GeForce bis heute weiter....
Nutzlose, weil unbrauchbare, Features hypen und Marktteilnehmer damit in ein komisches Licht rücken,
bis man im Mainstream so weit angekommen ist, Unsummen für seine Produkte zu verlangen...

Heute ist es RT, das selbst in der 3. Generation nur in der Oberklasse, also für 2 % der
User wirklich richtig nutzbar ist, das wieder für viel Geld an den Mann gebracht wird...

Erinnert mich ein bisschen an Peter Molyneux.
Der hyped auch immer, bis die Leute ihm jeden Mist abkaufen und so bald klar wird, das er wieder mal Vaporware
verkauft hat, rudert er nicht zurück, nein, er kündigt das Neue, noch spektakulärere Projekt an....

Inakzeptables Verhalten.

Da gibt es für mich auch keine Kompromisse.
 
Leider und das meine ich jetzt wirklich ernst, ohne feindselig wirken zu wollen,
leider fehlt Dir offensichtlich jegliches firmenhistorische Wissen, wie Team Grün groß wurde.
Was dafür alles an Propaganda betrieben und welche Unternehmen dadurch
vom Markt gedrängt wurden.

Mein erster 3D Beschleuniger war eine Riva TNT. Somit liegst Du komplett falsch mit Deiner Einschätzung, ich bin schon lange dabei und kenne die Historie.

Fing mit dem TNT 2 an, der angeblich 32 bit Color und 32 bit Frame Buffer beherrschte.
"Aggressives" Marketing von Team Grün sprach daraufhin der Konkurrenz in Form von S3, 3dfx, Matrox u.w.
(ja, es gab mal mehrere gute Chiphersteller am Markt), jegliche Kompetenz ab.
Die Verkaufszahlen von Team Grün gingen steil nach oben, die aller anderen gleichzeitig runter.

Nur hat Team Grün vergessen, denen, die sich eine TNT gekauft hatten mitzuteilen, dass wenn das 32 bit Feature
aktiviert wird, die FPS in den einstelligen Bereich sinken.

Unbrauchbares und damit nutzloses Feature für viel zu viel Geld zu Lasten ehrlicher Marktteilnehmer,
wirklich Team Grün, ganz ganz großes Tennis, Weltklasse.

Direkt danach wurde T&L propagiert, Tag und Nacht das einem übel wurde.
3dfx setzte im gleichen Zeitraum auf Anti Aliasing.
Nachdem AA platt "gemarketingt" und "T&L" gehyped wurde, war 3dfx schließlich pleite.
Team Grün übernahm dann, oh Wunder oh Wunder, die Reste von 3dfx.
Und plötzlich, noch mal, oh Wunder, oh Wunder, wurde (mit der von 3dfx für kleines Geld "erworbenen" Technologie) was gehyped?

Anti Aliasing....

Willkommen in einer kapitalistischen Welt wo einige Unternehmen gewinnen, andere verlieren. T&L war damals aber ein echter Gamechanger.

Lag wohl auch daran, dass zwischen der ersten GeForce und der ersten Applikation,
die dann auch mal T&L nutzte 3 Jahre lagen...

Soweit ich mich erinnere hat die T&L Engine direkt die 3D-Performance beschleunigt ohne explizite Unterstützung durch Spiele. Aber da mag ich auch falsch liegen, ich hatte die erste Geforce 256 nicht.

AA war sofort und ohne Einschränkungen nutzbar...

Stimmt. Nur hat 3DFX ihre Voodoo 5 Gen komplett in den Sand gesetzt. Da kann Nvidia nichts, garnichts, überhaupt nichts, für.

So ging das mit Team Grün dann über GeForce bis heute weiter....
Nutzlose, weil unbrauchbare, Features hypen und Marktteilnehmer damit in ein komisches Licht rücken,
bis man im Mainstream so weit angekommen ist, Unsummen für seine Produkte zu verlangen...

Reine Propaganda Deinerseits.

Heute ist es RT, das selbst in der 3. Generation nur in der Oberklasse, also für 2 % der
User wirklich richtig nutzbar ist, das wieder für viel Geld an den Mann gebracht wird...

Kompletter Unsinn. 2% der Leute? Bei 80% Nvidia Marktanteil und diversen Ampere + Ada Karten in den Top 20 des Steam Hardware Survey untertreibst Du maßlos was die Verbreitung von Karten mit RT-Beschleunigung angeht. RDNA2+3 können RT übrigens auch anschalten. Lass doch diesen Propaganda Unsinn.

Erinnert mich ein bisschen an Peter Molyneux.
Der hyped auch immer, bis die Leute ihm jeden Mist abkaufen und so bald klar wird, das er wieder mal Vaporware
verkauft hat, rudert er nicht zurück, nein, er kündigt das Neue, noch spektakulärere Projekt an....

Inakzeptables Verhalten.

Da gibt es für mich auch keine Kompromisse.

Peter Molyneux mit seiner Vaporware vergleichst Du mit DEM erfolgreichsten Grafikkarten Hersteller der letzten 20 Jahre? Der dazu auch regelmäßig abliefert und neue Features in die Masse bringt? Lächerlich.
 
Heute ist es RT, das selbst in der 3. Generation nur in der Oberklasse, also für 2 % der
User wirklich richtig nutzbar ist, das wieder für viel Geld an den Mann gebracht wird...
Was ist "richtig nutzbar"? Kommt ja immer auf die jeweiligen Spiele, Auflösung und sonstigen Settings an.

Wenn wir jetzt mal die Raytracing-Fähigkeiten von PS5 und Xbox Series X als Messlatte nehmen, kann selbst eine alte RTX 2070 oder eine RTX 3060 in vergleichbaren Settings mithalten.

Bereits über ein Drittel der im Steam-Survey erfassten Systeme sind RTX2070- bzw. RTX3060-GPUs oder besser. Inklusive RTX2060 Super und RDNA2/RDNA3-GPUs sind es bereits fast 40%... das Zwanzigfache deiner 2%-Einschätzung.

Selbst wenn man erst ab 2070 Super / 3060 Ti zählt, sind es bereits über 25%.
 
Das ist mir als Nutzer doch egal? Fakt ist, dass ich es nicht nutzen kann, wenn ich keine Nvidia GPU habe oder ich zahle dafür.

Das ist schön. Wie aktiviere ich das in Witcher 3? Gar nicht, außer ich nutze eine Mod, die nur auf Nvidia GPUs funktioniert oder bezahle für LukeFZs Mod.
Merkste die Ironie daran? ;)
LukeFZs Mod soll auf allen Karten laufen, kostet aber monatlich Geld.
Soweit ich mich recht entsinne, bietet LukeFZ die Beta(!) seiner Mods für Geld an. Die Releasefassung soll kostenlos sein. Man zahlt also für eine Beta mit Vorabzugang. Ist bei Software, insbesondere Spielen, heute (leider) normal.

Dafür ist aber AFMF und Antilag+ proprietär.
Bin ja kein Experte, aber AFMF und AL+ sind Treiberfeatures. Natürlich ist das proprietär. DLSS ist kein Treiberfeature was daher zwingend eine Karte des Herstellers voraussetzen sollte. Sonst müsste FSR doch auch proprietär sein nach deiner Logik. Ist schließlich wie DLSS kein Treiberfeature.
Könnte man DLSS im NV Controlpanel aktivieren für (fast) jedes Game, dann ja, dann würde ich es verstehen wenn es proprietär ist.


Und bevor (wie beim letzten mal) wieder irgendjemand von "Team Grün" kommt und meint, weil ich ein AMD Profilbild habe, bin ich AMD Fanboy: Es geht um RAM OC bei Ryzen CPUs, nicht um AMD GPUs -> ein Blick in die HW zeigt eine 4090 bei mir.
Dass ich das extra dazu schreiben muss zeigt schon wie absurd manche Leute in ihrer Bubble gefangen sind.
 
Absolut berechtigte Kritik. Aber es gibt eben auch Leute mit Nvidia Karte, die sagen es sei flüssig. Was sagt uns das jetzt?

Ich hätte mir auch nichts lieber gewünscht, als dass sie mit beiden Herstellern testen, damit klar ist was Sache ist.
Ja und deswegen gebe ich nicht mehr viel auf DF.
Sie verkaufen sich als Spezialisten und sind es sicher auch zum Teil, aber sie haben einen klar erkennbaren Bias towards Nvidia.

War bei Last Of Us Part 1 am PC dieses Jahr auch so ne Situation wo sie auf das Spiel geschissen haben, aber dann nicht mal eine einzige AMD Karte genutzt haben die halt einfach bei gleichem Preis zu ner Nvidia Karte auch genug VRAM mitbringt. Dann hätte Nvidia nämlich schlecht ausgesehen und man hätte gesehen, dass das Spiel einwandfrei auf ner AMD Karte läuft.

Aber sowas passiert ständig bei denen.

Und das neue Beispiel von dem du erzählst wegen FSR und Ruckeln, ist nur ein weiteres Beispiel wie die da arbeiten. Unwissenheit kann man denen ja nicht unterstellen. Wie kann man nicht mal auf die Idee kommen FSR auch mit anderen Karten zu testen? Und wenn man es dann mit Nvidia testet und es da Probleme gibt, das ist ja auch fair. Aber dann muss man eben auch andere Hersteller testen und nicht nur auf die Technik zeigen mit dem Finger weil man es nur bei einem Hersteller getestet hat.
Trotzdem finde ich ist das Ruckeln auf Nvidia Karten schon Aufreger genug. Wenn eh schon DLSS integriert ist, dafür aber DLSS3 FG wegfällt und man als AdaLovelace User dann das ruckelnde FSR FG nutzen müsste, während viele Leute und auch teils die Presse sagen, es sei ja alles okay, weil viele das Ruckeln nicht sehen (war ja bei Shader-kompilierungsrucklern auch immer so, dass es viele einfach nicht sehen, selbst wenn das Spiel ne halbe Sekunde Standbild zeigt) dann kommt man sich schon etwas verarscht vor.
Naja, ich denke jeder sieht sowas, aber nicht jeder misst dem diese enorme Bedeutung zu wie nerds das eben tun. Ich breche auch nicht in Tränen aus, wenn ich mal kurz nen Ruckler hab in nem Spiel.

Da sind die Maßstäbe von einigen auch völlig am Leben vorbei. Aber die schreien dann immer am lautesten.

Für mich ist es ganz einfach. Entweder das läuft künftig auf Nvidia Hardware ruckelfrei oder man integriert zumindest DLSS FG.
Hoffe ich auch.

In Avatar sah sowohl das FSR Upscaling als auch das FG von AMD (bis auf das HuD)rein optisch einwandfrei aus. Ich bestehe nicht auf DLSS und weiß auch dass ich das nicht immer bekommen werde. Aber wenn AMD FSR FG mit support für alle GPU Hersteller anbietet und die Entwickler das in diesem Glauben integrieren, dann soll es gefälligst auch ordentlich laufen.
Das FG in Avatar ist fantastisch und ich fühle auch keinen Inputlag. Die 40-60 FPS die ich hab mit Quality in Ultra und 4K fühlen sich auch so an. Das ist wirklich beeindruckend. Und ich hab nicht mal Antilag+. FSR3 arbeitet da wirklich fantastisch. Ich kann mir kaum vorstellen, dass es auf einer Nvidia Karte so signifikant schlecht aussehen soll.
 
Und ich hab nicht mal Antilag+. FSR3 arbeitet da wirklich fantastisch. Ich kann mir kaum vorstellen, dass es auf einer Nvidia Karte so signifikant schlecht aussehen soll.
Wie willst Du aktuell auch Antilag+ nutzen? Wurde doch aus dem Treiber vor 2 (!!!) Monaten entfernt und nicht wieder hinzugefügt, oder?
 
Welche Überraschung bei Digital Foundry. Schocker. Digital Foundry das Propagandaministerium von Nvidia.
An solchen Aussagen erkennt man "Fanboytum".
Irgendwelche Unterstellungen ohne Fakten zu nennen. Das ist das was man überproportional von der roten Seite hört. Von Grün, kommt wenig.

Ist völlig okay FSR3 mit einer 4090 zu testen, da AMD das auch bewirbt, das es auf jeden Karte laufen soll. Das ist ja unter anderem auch das große Argument AMDs.

Die Polemik gegen AMD und der Schaum vor dem Mund einiger Fanboys hier
ist wirklich nicht mehr schön.
Damit man wirklich eine Diskussion führen könnte, müsstest du konkret auf die Entgegnungen eingehen und vor allem in erster Linie darauf verzichten nur Bashing zu betreiben.
Verstehe da die ganze Aufregung nicht, habe jetzt endlich Resizable BAR
aktiviert und bin mit meiner 6750 rundum zufrieden.
Wer spricht denn die Zufriedenheit mit einer 6750XT ab? AMD bietet solide Karten mit mehr Speicher, die wenn man DLSS und RT ausnimmt auch das bessere PLV haben.
Was ich nicht verstehe ist, warum Nvidia immer angegriffen wird, obwohl sie verdammt viel Weiterentwicklungen gebracht haben, die den ganzen Markt nach vorne gebracht haben und AMD die nur nachziehen, dann als der Krankensalber gefeiert wird, obwohl das nur Schadensbegrenzung ist.

AMDs und Nvidias Karten werden nach Marktwert angeboten.
 
Zuletzt bearbeitet:
Sollte eigentlich klar sein , das "einfache" ( Amd,s FSR ) vervielfältigen ein und des selben Bildes ist , und nur die angezeigte Frame Rate erhöht.
Völliger Unsinn.
Amd,s FSR macht das Spiel nicht schneller , oder hübscher und führt manchmal auch zu zusätzlichen Problemen .
FSR nicht unbedingt. FMF schon. Das ist auf Nvidia Niveau. Zumindest in Avatar.
Dann konzentriert sich Nvidia darauf, auf ihren aktuellen Karten das Maximum herauszuholen, während AMD zur Kompatibilität mit allen Herstellern genau das eben nicht tut.
Der FSR Upscaler ist doch sogar schlechter als TAU oder Intels XeSS, wieso sollte bei AMD der offene Ansatz deren Qualität limitieren? Das ergibt doch keinerlei Sinn.
DLSS 3.5 läuft auf Turing.
Bin ja kein Experte, aber AFMF und AL+ sind Treiberfeatures. Natürlich ist das proprietär.
Niemand hindert AMD daran den Quellcode für das Feature für alle Hersteller zugänglich zu machen, damit diese es auch in ihren Software Stack integrieren können.
DLSS ist kein Treiberfeature was daher zwingend eine Karte des Herstellers voraussetzen sollte.
Natürlich ist das auf der Ebene des Treibers genauso ein "Treiberfeature".
Könnte man DLSS im NV Controlpanel aktivieren für (fast) jedes Game, dann ja, dann würde ich es verstehen wenn es proprietär ist.
Du kannst dort den spatialen Upscaler aktivieren. Auch proprietär.
 
Zuletzt bearbeitet:
Stimmt. Nur hat 3DFX ihre Voodoo 5 Gen komplett in den Sand gesetzt. Da kann Nvidia nichts, garnichts, überhaupt nichts, für.
Nicht in den Sand gesetzt, verzögert, das wäre aber nicht das Problem gewesen.
Der Druck kam aufgrund massiv sinkender Verkaufszahlen durch T&L Hype.

Reine Propaganda Deinerseits.

Na na, die Propaganda überlass ich doch lieber denen, die es können...
Warte, hab ich da "Team Grün" gehört?

Übrigens, keine Propaganda.
NVidia wurde 2006 vom DOJ wegen wettbewerbswidrigen Verhaltens angeklagt.
Nachdem 3dfx und die anderen Chiphersteller weg waren, gab es keine Konkurrenz mehr,
und es kam gemeinsam mit Ati zu illegalen Preisabsprachen...

Also, welche Propaganda?

Konurrenz wegräumen, Marktmacht erlangen, Preise ins unnnormale hebeln.
Super Laden, die Pommesbude.

Kompletter Unsinn. 2% der Leute? Bei 80% Nvidia Marktanteil und diversen Ampere + Ada Karten in den Top 20 des Steam Hardware Survey untertreibst Du maßlos was die Verbreitung von Karten mit RT-Beschleunigung angeht. RDNA2+3 können RT übrigens auch anschalten. Lass doch diesen Propaganda Unsinn.

Hallo?
Bitte, wenn schon, dann wenigstens aufmerksam lesen:

"wirklich richtig nutzbar"

Welche 3060 oder 4060, kann RT in akzeptabler Stufe in 1440p ?
Oder 3070/4070 ?

Ist doch völliger Quatsch.

RT in vernünftiger Auflösung + max Details erst ab 4080....

Wird aber so gehyped, als wäre es das Normalste der Welt,
Standardfeature quasi...

Peter Molyneux mit seiner Vaporware vergleichst Du mit DEM erfolgreichsten Grafikkarten Hersteller der letzten 20 Jahre? Der dazu auch regelmäßig abliefert und neue Features in die Masse bringt? Lächerlich.

Sorry, was liefern die noch mal ab?
Pakete von Amazon?

So, wie ich die letzten 23 Jahre beobachtet habe, hat NVidia Influencing betrieben,
auf hohem Niveau, mehr nicht, erinnert mich mehr an Kim Kardashian.
"mit labern zum Erfolg". Funktioniert bei den Kardashians, funktioniert bei Team Grün.
Man muss nur genug Follower haben und wie man sieht, haben die ja.

Anti Aliasing? Vorarbeit von 3dfx
Tesselation? AMD
Environment Bump Mapping? Matrox
Video Encoding? AMD (Tera Scale)
Shader ? (ja, die auf denen alles, auch RT basiert) ATI/AMD

Wird immer gern erzählt, Shader wären von Team Grün mit der GeForce 3
im NV20 entwickelt worden....
Stimmt nur leider nicht, der R100 beherrschte Shader in Hardware.
Da Microsoft aber den NV2A von Team Grün in der XBox verbaute,
wurde DX8 so restriktiert, dass es auf einmal zu den NV Spezifikationen
aber nicht mehr zu ATI passte...

So viel zu "abliefern"...
Marketing und bla bla, das kann NV.
Was ist "richtig nutzbar"? Kommt ja immer auf die jeweiligen Spiele, Auflösung und sonstigen Settings an.

Wenn wir jetzt mal die Raytracing-Fähigkeiten von PS5 und Xbox Series X als Messlatte nehmen, kann selbst eine alte RTX 2070 oder eine RTX 3060 in vergleichbaren Settings mithalten.

Bereits über ein Drittel der im Steam-Survey erfassten Systeme sind RTX2070- bzw. RTX3060-GPUs oder besser. Inklusive RTX2060 Super und RDNA2/RDNA3-GPUs sind es bereits fast 40%... das Zwanzigfache deiner 2%-Einschätzung.

Selbst wenn man erst ab 2070 Super / 3060 Ti zählt, sind es bereits über 25%.

"richtig nutzbar" ist doch keine subjektive Empfindung, wird von Spieleherstellern
bereits vorgegeben, nennt sich Specs....

Mit einer "Mittelklasse-Karte" will ich auch das als Ergebnis sehen,
das Mittelklasse entspricht.
Sagen wir mal mittlere Details und Hohe Auflösung.
Wahlweise max Details und mittlere Auflösung.

Und das sage nicht ich, sondern wie gesagt, die Specs jedes Spieleherstellers.
Warum?

Weil sie die Dinger so programmieren, das User mit den vorgegebenen
Konfigurationen auch jeweils das beste Ergebnis "erfühlen".

Jetzt kommt RT..... Ende

Weder Auflösung, noch Details.

Und bitte nicht propietäre OS/Treiberkonfigurationen einer PS/XBox Konsole
mit PC-Hardware-Specs durcheinander werfen.
Für Konsole wird auf Hardwareebene programmiert, ähnliches Prinzip Vulkan,
da "schleppt" man nicht so viel OS/Treiberballast mit rum.
 
Zuletzt bearbeitet:
Zurück