News FSR 3: AMD verspricht doppelte Leistung im Vergleich zu FSR 2 durch Frame Interpolation

Die Überschrift ist ungenau. AMD verspricht nicht doppelte Leistung.
Es wird hier auf der "Folie" ganz klar "up to" deklariert.
Das kann von 0% (für die Karten deren Shader zu schwach für die Option sind) bis 100% Leistungssteigerung (im Laborfall unter Extrembedingungen) alles sein.
 
Zuletzt bearbeitet:
Und? Irgendjemand musste es bringen und Nvidia hats getan. AMD zieht, mal wieder, nur nach und die Fangemeinde feierts, aber verurteilt Nvidia.
Ohne Nvidia hätten wir heute weder DLSS/FSR, noch Frame Generation oder RT.
zudem kommt halt noch dazu das die Techniken von Nvidia auch 95% immer besser sind... nutze zwar selten DLSS 2 aber das ist ja überwiegend gut was besser als FSR. Würde mich nicht wundern wenn das bei DLSS 3 vs whatever das selbe ist.
(würde so Fanboy bs zwar eig nicht schreiben, aber das gebashe gegen Nvidia bei AMD Kopien geht mir auf´n Sack)
 
@PCGH_Sven RDNA3 hat keine KI-Einheiten, es wurde lediglich der Vektor-Operation-Durchsatz erhöht.
Moin.

Meinem Kenntnisstandes nach besitzt Navi 31 insgesamt 192 KI-/Matrix-Einheiten, also je zwei pro Compute Unit.

Diese sind zwar nicht Ansatzweise mit den viel schnelleren und komplexeren Tensor-Kernen von Nvidia vergleichbar, aber dennoch wird hier von KI-Accelorators gesprochen.

D0F91501-9600-4437-B3CD-8373D2FEF962.png
Ich möchte mich da aber auch nicht an der Begrifflichkeit aufhängen. Für mich und einige Kollegen sind das KI-Units.

Dass das noch nicht Ansatzweise so flott ist wie bei Nvidia ist ja bekannt.

Liebe Grüße Sven
 
Gibt es dafür auch nur irgendeinen Beled?
"Ohne Nvidia hätten wir heute weder DLSS/FSR, noch Frame Generation oder RT." -> Ohne Beleg ist dies eine reine Behauptung.
? AMD war bis zur 6000er ewiger Zweiter (die kamen ja nur bis an Nvidias Mittelklasse - 5700xt), FSR schon damals zu bringen oder zumindest mal was anzukündigen in die Richtung, wäre sehr logisch gewesen, haben sie aber nicht weil es nichts dahingehend gab.
Nvidia brachte 2018 DLSS mit den ersten RTX Karten und AMD hat Däumchen gedreht. FSR kam 2 fast 3 Jahre! später... was für nen Beleg willste noch?
 
Würde AMD nicht nachziehen, würde AMD auch dafür Kritik einstecken.
"AMD KRIEGT NIX AUF DIE REIHE, NVIDIA HAT.."
ersetzt in dem Fall dann ganz geschmeidig
"AMD MACHT NVIDIA ALLES NACH"
wie sie es machen ist es also verkehrt, solang sie nicht die Ersten sind.

Und so eingeführte Dinge von AMD wie Mantle(Vulkan), Async, SAM, standarisiertes Adaptive Sync oder den Infitiy-Cache (hallo RTX4000), die NVidia später nachmachte, dabei entweder schlecht damit zurecht kommt/kam oder anders benannte oder stillschweigend unter anderem Namen mitmachte, werden dann einfach ignoriert :)
 
Und so eingeführte Dinge von AMD wie Mantle(Vulkan), Async, SAM, standarisiertes Adaptive Sync oder den Infitiy-Cache (hallo RTX4000), die NVidia später nachmachte, dabei entweder schlecht damit zurecht kommt/kam oder anders benannte oder stillschweigend unter anderem Namen mitmachte, werden dann einfach ignoriert :)
Nö, aber darum ging es auch nie.
Es geht darum, dass Nvidia und deren Features dauernd gehatet und AMD als der heilige Samariter dargestellt werden.
Nvidia bringt DLSS und seit Version 1 wird das Feature noch bis heute von einigen kritisch betrachtet. Frame Generation wird dauernd in ein schlechtes Licht gerückt, obwohl die meisten Kritiker es noch nie selbst gesehen haben oder überhaupt die HW besitzen um es nutzen zu können.
Jetzt kommt AMD um die Ecke, bringt FSR3 und es wird mal wieder durchweg gefeiert. Keine einzige kritische Stimme.
 
Zuletzt bearbeitet:
Meinem Kenntnisstandes nach besitzt Navi 31 insgesamt 192 KI-/Matrix-Einheiten, also je zwei pro Compute Unit.
Es sind keine Matrixeinheiten. Eine Matrixmultiplikation wird über Dot-Produkte realisiert. Dies übernehmen die Vektoreinheiten. AMD hat lediglich den Durchsatz um den Faktor ~2.5 erhöht.

RDNA3 hat keine Matrixeinheiten!
 
Jetzt kommt AMD um die Ecke, bringt FSR3 und es wird mal wieder durchweg gefeiert. Keine einzige kritische Stimme
Es reicht doch schon die Ankündigung...gebracht haben sie ja immer noch nichts.

Ich wäre sicher ganz happy wenn FSR3 auf meiner RX 6800 funktionieren würde. Aber wie manche ein feuchtes Höschen wegen einem Features bekommen, dass noch nicht mal erschienen ist und es nicht mal sicher ist ob es je unterhalb RDNA3 laufen wird...:huh:
 
^^ Inerhalb general purpose sehr wohl. Ein "lediglich den Durchsatz um den Faktor ~2.5 erhöht" betrifft auch wiklich nur die "typichen KI Berechnungen".
Oder anderst, nvidias matrix cores sind nicht general purpose. :)
 
Es reicht doch schon die Ankündigung...gebracht haben sie ja immer noch nichts.
Mir fehlen ehrlich gesagt vor Allem die passenden 4k-Monis zu nem vernünftigen Preis.
... hoffentlich bewegt sich Da noch was in der verbleibenden Zeit

Da bist Du in UWQHD mit der 6800 schon equivalent ausgerüstet.
(verstehe die Ungeduld)
 
Zuletzt bearbeitet:
Ist doch schön wenn sich die 2 Kontrahenten gegenseitig zu neuen Innovationen pushen, der eine machts halt propritär, der andere offen. Bin gespannt, wie die Qualität dann sein wird.

Finde es nur lächerlich, dass hier wieder manche einen xy vs yx Thread daraus machen, es ging hier um AMD und es dauerte keine 2 Stunden ehe wieder die eine Person bashing betreibt.

Danach folgt der Rundumschlag und das, was die Person betreibt wird allen anderen vorgeworfen...
Immer das gleiche Schema und der Thread ist wieder versaut.

Anstatt sich mal sachlich auf das Thema zu konzentrieren - einfach lächerlich sowas.
 
Finde es nur lächerlich, dass hier wieder manche einen xy vs yx Thread daraus machen, es ging hier um AMD und es dauerte keine 2 Stunden ehe wieder die eine Person bashing betreibt.
Das Bashing hat ja wohl gleich im ersten Post @JackTheHero mit seinem F*** nvidia. ^^ eröffnet.
Warum sich nicht einfach darüber freuen, dass der eigene Kartenhersteller ein neues Feature bringt? Nein..da muss gleich zur Eröffnung der Rumble in the Jungle in Gang gebracht werden.
Da bist Du in UWQHD mit der 6800 schon equivalent ausgerüstet.
(verstehe die Ungeduld)
Bin mit der Karte ja auch zufrieden. Die frisst alles in guter Qualität was ich so spiele. Falls ich da auch FSR3 nutzen könnte umso besser.
Ich weiß was ich gekauft habe und ich weiß was ich der Karte zumuten kann...da kommt gar keine Unzufriedenheit auf.
 
Zuletzt bearbeitet:
Ich meinte den schnellen Moni, der ja ideal für FG wäre.

... tue mich da jetzt schwer von 4k auf UWQHD zu downgraden, nur wg. der mehr MHz zum vernünftigen Preis
oder son teuren 4k-Moni wie Gurdi anzuschaffen
 
Ich habe so das Gefühl, dass so manchen eine etwas weniger emotionale Herangehensweisen an das Thema ganz gut zu Gesicht stehen würde.

Wer hier wem oder was etwas angeschaut hat und weshalb die eine oder andere Lösung besser ist, kann doch auch gesittet und neutral betrachten und ausdiskutiert werden.

Ich hoffe wirklich inständig, dass diese Gott gleiche Anbetung von Unternehmen irgendwann (s)ein Ende finden wird.

Börsennotierte Unternehmen sind einzig und allein ihren Aktionären verpflichtet und da gibt es keine „Guten“ oder „Bösen“.

Euch allen ein schönes Wochenende und kommt mal wieder runter. Es geht schließlich nur um Hardware.

Liebe Grüße Sven
 
Auch wenn ich finde das du recht hast und man das etwas weniger emotional betrachten sollte, denke ich doch das,
da gibt es keine „Guten“ oder „Bösen“.
etwas anders sehen würde.

Denn auch wenn im sinne von Nvidia, AMD und Intel du wohl recht hast, gibt es schon AG's die definitiv in die Kategorie Böse fallen könnten.

Klar ist es immer noch eine Definitions Sache was böse ist, aber Betrug Umweltverschutzung im großen Stil etc.
da gibt es genug was dem ein oder andern Unternehmen anzukreiden ist.

Aber Btt.
Ich für meinen teil bin gespannt ob das wirklich auch für alte Karten kommt, denn dann könnte ich sowas mal selber testen statt nur andere Tests zu lesen/sehen.
Ich bezweifel zwar das ich weder ein Freund von DLSS3 noch FSR3 werden würde, aber ich würde mich gerne eines besseren belehren lassen im Selbsttest.
 
Ich persönlich finde die ganze Interpolation einfach zum Kotzen.
Das geht aber bereits bei den Spiele-Engines los.
Für verschiedene Shader (z.B. Haare, Screenspace-Reflektionen, teilweise auch Schatten) wird abwechselnd nur jedes zweite Pixel berechnet. -> Ergebnis: furchtbares Geflimmer.
Dieses Geflimmer versucht man billig mit TAA zu glätten -> die ersten Artefakte entstehen.
Mit dem TAA-Geschmiere füttert man dann DLSS oder FSR -> aus LowRes Geschmiere wird jetzt HighRes Geschmiere mit zusätzlichen Artefakten. Ach ja, und mit einem übertriebenen Schärfe-Filter versucht man das Geschmiere aufzuwerten.
Und jetzt berechnet man aus diesem Pixelbrei auch noch Zwischenbilder -> nochmal extra Artefakte.
Klar macht man das alles aus Performance Gründen um große Auflösungen billig zu stemmen.
Aber wozu? Ich brauche kein 4K oder 8k. Am PC hab ich nur Platz für 24Zoll. Und im WoZi auf einer 2m Leinwand bei 4m Sitzabstand sieht auch 1080p ordentlich scharf aus.

Wirklich schön (und scharf - auch in Bewegung) sehen aktuelle Spiele nur mit deaktiviertem TAA downsampled von 4k+FXAA auf 2k aus.

Mir würde es reichen, wenn ein Spiel es endlich mal wieder schaffen würde, ein 1080p Bild wirklich nativ zu berechnen, vielleicht mit einem schönen 4x oder 8x MSAA oben drauf.
dich stört "geschmiere" von taa aber du benutzt fxaa?
und wieso weshalb warum msaa leider nichtmehr sehr gut nutzbar ist kann man auch schnell im internet nachlesen.

verstehe deine kritik, aber gegen ende geht die puste bissle aus
 
aber Betrug Umweltverschutzung im großen Stil
Solche zu verurteilenden Vergehen habe ich jetzt ohnehin mal ausgenommen.

Ich denke, ein jeder Konsument sollte sich mal hinterfragen und darüber nachdenken, ob er mit seinem Kauf ein Unternehmen unterstützen möchte, das betrügerisch handelt, oder die Umwelt zerstört.

Mir geht es bei der Diskussion eher um den Ansatz, den insbesondere Unternehmen wie Intel, AMD und Nvidia verfolgen.

Wer mich kennt, der weiß, dass ich ein großer Freund von Open Source bin. Da gefällt mir AMDs Ansatz natürlich sehr gut.

Aber AMD verfolgt diesen Ansatz halt nicht, weil sie so gemeinnützig sind und weil sie Open Source lieben, sondern weil sie sich davon am meisten versprechen und weil AMD in Sachen R&D nicht ansatzweise mit Nvidia mithalten kann.

ehen.
Ich bezweifel zwar das ich weder ein Freund von DLSS3 noch FSR3 werden würde, aber ich würde mich gerne eines besseren belehren lassen im Selbsttest.

Ich war da auch immer skeptisch, habe mir aber seinerzeit ein RTX 3090 TUF OC gekauft, da ich Cyberpunk 2077 spielen wollte.

Ich sehe keinerlei Unterschiede zwischen nativen 4K und DLSS 2 Quality, nehme die zusätzlichen FPS aber gerne mit.

Was ich von DLSS 3 im Flight Simulator sehen konnte, war beeindruckend und auch FSR 3 traue ich einiges zu. Ich finde das Thema spannend.

Mit DLSS Quality komme ich schon heute auf die von mir gewünschten 117 FPS für den 120 Hz OLED und mehr brauche ich nicht.

Die 3090 bleibt noch bis 2024 im System und dann schaue ich, wer das für mich beste Gesamtpaket bietet. Ob AMD oder Nvidia ist mir dabei völlig egal.
 
Hab zwar bis heute noch nie FSR genutzt..liegt wohl an den Oldie- Spielen die ich habe.Die das nicht unterstützen.:D
Aber was ja "noch" nicht ist, kann sich ja ändern mit DB 4 oder anderen Games die noch im diesem Jahr erscheinen werden.
Da frag ich mich,wie groß die Gesamtperformence einer GPU-Klasse wie meinem mit FSR 1.0/ 2.0/3.0 beeinflußt wird?Und es wäre
wirklich toll wenn AMD,das auch bei dem Vorgänger GPU-Generation ermöglicht wird.
 
Ich denke, ein jeder Konsument sollte sich mal hinterfragen und darüber nachdenken, ob er mit seinem Kauf ein Unternehmen unterstützen möchte, das betrügerisch handelt, oder die Umwelt zerstört.
Sorry, aber das halte ich in unserer komplexen Welt doch für ziemlichen Unsinn. Alle Unternehmen, die irgendwie in Asien fertigen lassen, sind irgendwie böse - sei es wegen Kinderarbeit, Ausbeutung durch menschenunwürdige Arbeitsbedingungen etc. pp. Selbst Südkorea als "westliches" Land ist da nicht frei von Unschuld. Bei Samsung sind in der Vergangenheit auch reihenweise Menschen bei der Chipherstellung krepiert, weil Arbeitsschutz ein Fremdwort war. Interessieren tut das dort niemanden - die Chaebols stehen dort schlicht über dem Gesetz.

Im Nahrungsmittelsektor sieht das nicht anders aus. Nestlé als der "big bad" betreibt bekannterweise aus Profitgier Massenmord. Trotzdem gibt es unfassbar viele Menschen, die deren Fraß fressen - sei es bei den Konzern- und Markenstrukturen auch aus Unkenntnis. Viele Menschen haben schlicht keine Ahnung, was für Bosheiten hinter den Alltagsprodukten, die sie täglich verwenden, stehen.
Börsennotierte Unternehmen sind einzig und allein ihren Aktionären verpflichtet und da gibt es keine „Guten“ oder „Bösen“.
Das sehe ich in dem Sinne halt auch anders - nicht nur aus den vorbenannten Gründen, sondern auch volkswirtschaftlich und globalpolitisch. Monopole sind halt schlecht - und Nvidia ist Quasi-Monopolist bei einem Marktanteil von 85%. Sicherlich ist auch AMD kein Kind von Unschuld, Nvidia ist in der Monopolisten-Stellung allerdings inhärent "böser". Ich will jedenfalls keine cyberpunk'sche Zukunft haben, in der Großkonzerne die Welt beherrschen.
 
Zurück