Auch deswegen
Aber auch um zu sehen, was aus der 2080 rauszuholen ist.
Performance: dasselbe wie mit DLSS2, nur optisch etwas mehr
Die ganze bisherige Posse um FSR3 und den Zeitablauf (November 2022 groß angekündigt, wir haben Ende August 2023 und es gibt noch nicht einmal handfestes Material, von unterstützenden Spielen logischerweise ganz zu schweigen...) deutet eher darauf hin, dass AMD sowas nie in der Entwicklung hatte, bevor Nvidia im August letzten Jahres dann Frame Generation offiziell vorgestellt hat.
ja, so ist marketing halt.
Genauso wie man bei der Ankündigung von RTX Karten zum Thema Raytracing gesagt hat man hatte das eh in Planung, bringe es aber erst, wenn es massentauglich ist und dann zum günstigen Preis. Ebenso ähnlich klangen die Angaben bezüglich DLSS.
Und die einzige Karte die bislang alle RT/PT Spiele ordentlich schafft/massentauglich ist MMN die 4090 - allerdings nicht zu dem Preis.
Ich hoffe die 5XXX Serie macht beim RT nochmal einen enormen Sprung (nicht nur dank FG), sodass nicht nur die 5080 sondern auch die 5070 (und 5060 Ti) ähnliche Performance hinblättern - dann käme RT Leistung in interessante Preisbereiche (sofern es keine Erhöhungen gibt)
Und ich hoffe auch, dass AMD alle Ressourcen sammelt für einen ordentlichen Architektur-Overhaul, damit man wie damals mit RDNA1/2 wieder an Nvidia rankommt (diesmal aber auch in RT). Ebenso hoffe ich, dass Intel endlich nachlegt.
Insofern vermutlich relativ egal, ob RDNA3 oder nicht. Irgendeine vermeintliche "Secret Sauce" dafür gibt es bei RDNA3 nicht. Ist halt ein Problem, wenn man keine dedizierten Hardwareeinheiten für sowas verbaut...
Ja, man kann über Software halt nur bedingt viel machen, ist richtig.
Und die Hardware dafür war offenbar schon länger bei Nvidia in Entwicklung und im Test (Ampere), aber nicht zufriedenstellend.
AMD ist hier halt etwas zurück, was aufgrund der Größe aber nicht verwundert.
Das ist ok, es kommt wenigstens trotzdem, wenn auch später und per Update.
Intel ist übrigens auch noch im Spiel, was machen die?
Die Argumentation ist nicht einmal mehr Haarspalterei. Du erfindest Begriffe, die es nicht gibt, um deine Behauptung zu stützen. Oder hast du eine Quelle für "V1" und "V2"?
Man muss ja jetzt keine Giftpfeile verschießen. Er nannte halt es V1 und V2, sagen wir erster und zweiter Versuch. Vielleicht hat sich hardwaretechnisch kaum was geändert, aber sie haben erkannt, dass es erst befriedigend läuft, ab einer gewissen Grundleistung (300 Gflops). Was anscheinend beim Testen festgestellt wurde ist die optimale Mindestleistung für FG( es würde wohl auch vorher laufen, aber unbefriedigend/ruckelhaft, womit sich dann eine 1000€ GPU mit speziellen Features nicht gut bewerben lässt).
Das kann natürlich auch Marketinggewäsch sein um das Feature bewusst für die 4xxx GEn zu bringen, aber irgendwas wird schon dran sein, sonst würde man nicht überall* die gleiche "Variante"/Version oder wie auch immer man es jetzt nennen mag verbauen
* so habe ich dein Zitat im
Beitrag verstanden