News Kein High End bei RDNA 4: AMD ist nicht das Unternehmen für Porsche- und Ferrari-Käufer

Status
Für weitere Antworten geschlossen.
Hier ein Video von einer Szene wo man ohne Frame Gen 30 fps hat.
Und dann im selben Video siehst du den selben durchlauf mit Frame Gen.
(4 Durchläufe erst Blind dann mit FPS einblendung)
Das ist ein unterschied wie Tag und Nacht. Die 60 Frame Gen FPS fühlen sich doch echt okay an.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Da bringt ein Video nichts, weil die latenz Relavant ist.
FG ist Super um das Bild Flüssiger wirken zu lassen nicht aber das Spiel.
Ich habe schon zig FG varianten getestet, DLSS FG , FSR FG, Loselass Scaling FG, Danke Kollegen auch AFMF .
Alles aber auch wirklich alle davon waren FÜR MICH unbrauchbar wenn die Nativen Framerates unter ca 65 FPs waren (je nach Spiel mussten es sogar etwas mehr sein).
Ersten die hinzugefügte Latenz und dann nochmals der nachziehe Effekt der mause in FG macht es für mich unverwendbar.
Da habe ich lieber ein weniger hoch Aufgelöstes Bild before ich FG nutze.

Zum Thema RDNA 4: Habe ich eigentlich schon alles gesagt.
Außer hoffen wir mal das RDNA 5 wieder High End Anbietet. So ein 290x Moment würde mir reichen.
Mehr VRAM als die 780ti nazu Gleiche Leistung ineffizienter aber dafür deutlich günstiger.
 
Da bringt ein Video nichts, weil die latenz Relavant ist.
FG ist Super um das Bild Flüssiger wirken zu lassen nicht aber das Spiel.
Ich habe schon zig FG varianten getestet, DLSS FG , FSR FG, Loselass Scaling FG, Danke Kollegen auch AFMF .
Wie lange ist dein AFMF test her ? Dass Video war mit AFMF 2 mit Neuen Preview Treibern die erst vor 3 Tagen raus kamen und AFMF 2 verbessert haben.
Und da zieht garnichts hinterher. Im Video steht auch es sind nur 11ms Latenz, das ist wie 11ms Ping, also kaum zu merken. Viele Monitore machen mehr unterschied aus.
Das sollte man nicht mit AFMF 1 in einen Topf werfen, und auch nicht mit dem Early AFMF 2 Built den PCGH vor einem Monat getestet hat.
 
Wie lange ist dein AFMF test her ? Dass Video war mit AFMF 2 mit Neuen Preview Treibern die erst vor 3 Tagen raus kamen und AFMF 2 verbessert haben.
Und da zieht garnichts hinterher. Im Video steht auch es sind nur 11ms Latenz, das ist wie 11ms Ping, also kaum zu merken. Viele Monitore machen mehr unterschied aus.
Das sollte man nicht mit AFMF 1 in einen Topf werfen, und auch nicht mit dem Early AFMF 2 Built den PCGH vor einem Monat getestet hat.
War 2 Wochen her, auf einem damals Aktuellen Treiber Build welche version keine ahnung.
Natürlich zieht da was hinterher ob man das merkt ist natürlich abhängig von der Person selbst.
was da steht und was gemessen ist sind zweierlei Stiefel und selbst wenn es nur 11ms das ist sehr nahe an dem Unterschied 30 zu 60 Fps und das merkt man ja wohl.
Zumal ich das große (achtung gefühl) habe das FG durch die art wie es funktioniert vorhalten von bilder und dann zwischen Bild Berechnung die Latenz mehr erhört als die reine berechnungszeit der Bilder.

Wie gesagt ab ca 90 Fps (vor FG) funktioniert das alles ganz gut für mich, nur brauche ich es da wirklich nicht mehr.
Ich brauche es bei ca 30 Fps und da ist es für mich völlig unbrauchbar.
 
Wie gesagt ab ca 90 Fps (vor FG) funktioniert das alles ganz gut für mich, nur brauche ich es da wirklich nicht mehr.
Ich brauche es bei ca 30 Fps und da ist es für mich völlig unbrauchbar.
Verständlich. Und AMD empfiehlt ja auch nicht umsonst dass man Frame Gen erst ab 60 echten FPS dazu schalten sollte. Ich verstehe dich da schon. Ich bin so ein Spieler, mich stören 90fps. Bei BF2042 hab ich die Einbrüche auf 100fps sogar bemerkt, ich wollte da immer über 130fps bleiben. Aber liegt evtl auch an meinem 144hz Monitor.
Daher macht das für mich je nach Spiel schon Sinn.
Wünsche dir noch einen schönen Tag 😉
 
RT könnte doch von heute auf morgen komplett verschwinden...die Gamingwelt würde sich einfach weiter drehen, und es würde noch immer hübsche Spiele geben...

Lederjacke hat die Werbetrommel einfach mal 10 Jahre zu früh angeschmissen..., man stelle sich ma vor RT würde das erste mal mit der 5090 erscheinen und einfach rund laufen ohne massive Kompromisse.

Stattdessen kämpfen die Pioniere lieber Jahrelang mit ihren Frames.
:ugly:
 
RT könnte doch von heute auf morgen komplett verschwinden...die Gamingwelt würde sich einfach weiter drehen, und es würde noch immer hübsche Spiele geben...

Lederjacke hat die Werbetrommel einfach mal 10 Jahre zu früh angeschmissen..., man stelle sich ma vor RT würde das erste mal mit der 5090 erscheinen und einfach rund laufen ohne massive Kompromisse.

Stattdessen kämpfen die Pioniere lieber Jahrelang mit ihren Frames.
:ugly:
Das ist eine interessante, aber naive Betrachtungsweise. Das wäre, wie wenn du sagst: Lasst uns gleich mit einer 8 Core CPU starten. 1, 2 und 4 Core CPUs überspringen wir.

Technologische Entwicklungen finden nicht revolutionär statt! Sondern immer evolutionär.

Ja natürlich kam irgendwann ein I-Phone als revolutionäres Mobiltelefon. Aber auch nicht mit 6“ Display und 3 Kameras.

Ohne einen ersten Versuch und den Glauben an dessen gelingen mit der RTX 2000 er Serie konnte es keine 3000er, 4000er … geben.

Ohne Tomb Raider mit RTX Schatten kein Cyberpunk mit Pathtracing.

Davon abgesehen wird Raytracing immer mehr kosten (Leistung und €) als Rasterising. Weil es eben aufwändiger ist (mathematisch und physikalisch).
 
RT könnte doch von heute auf morgen komplett verschwinden...die Gamingwelt würde sich einfach weiter drehen, und es würde noch immer hübsche Spiele geben..
Könnte..man war ja auch mit guten Rastereffekten nah dran.

Nur brauchst du für RT Schatten und Beleuchtung wesentlich weniger entwicklungszeit, manpower ect als wie für gute Rastereffekte..
Was wiederum die Entwicklungskosten senkt..

Geht nur ums Geld.. nicht um deinen Spaß.. du sollst kaufen und nicht gucken
 
@Cleriker "ohne upsampling und DLSS" ja und das juckt wen? Niemanden, außer den ewig gestrigen, die es partout nicht nutzen wollen, weil sie überall angeblich Artefakte sehen. Ich verwette alles darauf, dass die meisten Kritiker in einem Blindtest sowas von scheitern würden.


SW:O läuft mit 66 FPS maxed out.


Ich sehe hier genau 60: https://www.pcgameshardware.de/Blac.../Benchmark-Grafikkarten-Test-Release-1455019/


Istn reines Rastergame ohne RT. Ironisch, dass es so beschissen läuft, obwohl es von Crytek kommt und Raster ja eigentlich der heilige Gral ist ;)
Ohne RT, DLSS und FG würden die Spiele heute also keinesfalls besser aussehen und/oder besser laufen. Hunt Showdown ist der beste Beweis dafür.


Also auch 60 FPS.


Ich sehe hier 70 FPS:

Jedes von dir genannte Spiel läuft maxed out in 4K mit DLSS/FSR und FG mit 60 FPS auf der 4090. Wer Upsampling/FG nicht nutzen will, hat halt Pech, aber das ist unabhängig von RT der Fall und genau um RT als Ursprung allen Übels ging es ja.
Du hast gefragt und ich dir die Ergebnisse herausgesucht.
Kann es sein, dass du bei den AVG FPS schaust, statt den P1? Auch dass dir egal ist was für Einstellungen verwendet werden, hast du nicht erwähnt. Du fragtest nach 4K und wenn man es genau nimmt, ist Quality schon nicht mehr 2160p. Du hast eine komplett neutral gehaltene Antwort bekommen, mit öffentlichen Werten und ohne meine eigene Meinung dazu und dann meckerst du noch rum.
Als würde das nicht reichen, sagst du (niemand anderes hier), dass Raster der heilige Gral sei, was absolut nicht zum Thema passt. Woher kommt das, wenn nicht von dir? Von mir sicher nicht. Du verhältst dich, als hätte ich dich angegriffen, dabei hab ich nur deine Aussage aufgenommen.

Wenn dir Einstellungen egal sind, dann brauchen wir auch nicht über maxed reden, dann spiel halt in 720p min. oder was weiß ich. Weißt du an wen mich das gerade erinnert? An den User, der dauernd mit seinen 600 FPS in SC ankommt. Wie fandest du dieses Verhalten noch gleich? Fass dir mal an die Nase. Eben ist so ein Verhalten noch nervig und im nächsten machst du es selbst.
Was soll denn der Quatsch? Hat hier irgendwer etwas gegen die Leistung der 4090 gesagt? Nein. Hier wurden einfach nur Werte präsentiert, die von Fachredakteuren ermittelt wurden. Ganz im Gegensatz zu deiner Behauptung.
 
Das ist eine interessante, aber naive Betrachtungsweise. Das wäre, wie wenn du sagst: Lasst uns gleich mit einer 8 Core CPU starten. 1, 2 und 4 Core CPUs überspringen wir.

Technologische Entwicklungen finden nicht revolutionär statt! Sondern immer evolutionär.

Ja natürlich kam irgendwann ein I-Phone als revolutionäres Mobiltelefon. Aber auch nicht mit 6“ Display und 3 Kameras.

Ohne einen ersten Versuch und den Glauben an dessen gelingen mit der RTX 2000 er Serie konnte es keine 3000er, 4000er … geben.

Ohne Tomb Raider mit RTX Schatten kein Cyberpunk mit Pathtracing.

Davon abgesehen wird Raytracing immer mehr kosten (Leistung und €) als Rasterising. Weil es eben aufwändiger ist (mathematisch und physikalisch).
naja mir fällt spontan nichts ein was über soviele Jahre eigentlich nicht wirklich funktioniert hat...immer nur mit der Brechstange und immer nur mit kompromissen...und dabei gleichzeitig noch ziemlich wenig verändert....da ist RT schon was besonderes....
 
Könnte..man war ja auch mit guten Rastereffekten nah dran.

Nur brauchst du für RT Schatten und Beleuchtung wesentlich weniger entwicklungszeit, manpower ect als wie für gute Rastereffekte..
Was wiederum die Entwicklungskosten senkt..

Geht nur ums Geld.. nicht um deinen Spaß.. du sollst kaufen und nicht gucken
Das ist falsch bzw nur in der Theorie richtig, ausgehend davon, dass alles und nur noch mit RT umgesetzt wird. Dem ist aber nicht so, denn durch den Hybriden Ansatz hat man eher einen Mehraufwand, da man beide Technologien nutzen muss.

MfG
 
Du hast gefragt und ich dir die Ergebnisse herausgesucht.
Kann es sein, dass du bei den AVG FPS schaust, statt den P1? Auch dass dir egal ist was für Einstellungen verwendet werden, hast du nicht erwähnt. Du fragtest nach 4K und wenn man es genau nimmt, ist Quality schon nicht mehr 2160p.
Der Kern des Gesprächs war ein ganz anderer und zwar, dass DLSS, RT und FG der Ursprung allen Übels sind.
Du reitest jetzt auf 4K, FPS und verwendete Settings rum, die aber auch gar nichts mehr mit der Ursprungsdiskussion zutun haben.

Das ist hier gang und gäbe, wenns um RT geht. Wann immer RT oder DLSS kritisiert wird und man mal kritisch nachhakt bei den Usern, kommt irgendjemand daher und verwässert die ganze Diskussion in eine Richtung, die nichts mehr mit dem Ursprung zutun hat.
Es wirkt fast so, als wolle man gar keine Diskussion, sondern nur sinnlos haten und seine Abneigung gegen RT und co. Kundtun. Ob das geschriebene Sinn ergibt, spielt keine Rolle :D

Wenn dir Einstellungen egal sind, dann brauchen wir auch nicht über maxed reden, dann spiel halt in 720p min. oder was weiß ich.
Die Regler sind maxed. Weiter nach rechts geht es nicht. Die interne Renderauflösung hat damit nichts zutun.
Etliche Tests bestätigen, dass bereits DLSS Balanced idR. mit 4K nativ ebenbürtig ist und trotzdem diskutierst du mit mir über die interne Renderauflösung, über die ich nie ein Wort verloren habe. Ich sprach von 4K und ganz gleich, was für ne Upsamplingeinstellung du nutzt, ist die Ausgabe 4K.

Dass für dich interne Auflösung = Ausgabeauflösung sein muss, damit du innerlich nicht zerplatzt, ist dein Problem, nicht meins und erst recht kein genereller Maßstab.
Mich interessiert in erster Linie, was ich sehe und da ist es mir egal, ob die Engine intern mit 320p rendert, wenn die Ausgabe gescheit aussieht.

Du fragtest nach 4K und wenn man es genau nimmt, ist Quality schon nicht mehr 2160p.
Unabhängig von DLSS wird auf dem Monitor 4K ausgegeben. Das gerenderte Bild entspricht 4K. Was die Engine intern macht, spielt für niemanden hier eine Rolle.

Meine Aussage bleibt also auch weiterhin korrekt. Die 4090 schafft so gut wie jedes Spiel maxed out in 4K mit 60 FPS. DLSS und FG ändern an dieser Aussage nichts, weil die Ausgabe so oder so 4K bleibt und sämtliche Regler auf Anschlag stehen.
 
Zuletzt bearbeitet:
Das ist falsch bzw nur in der Theorie richtig, ausgehend davon, dass alles und nur noch mit RT umgesetzt wird. Dem ist aber nicht so, denn durch den Hybriden Ansatz hat man eher einen Mehraufwand, da man beide Technologien nutzen muss.

MfG
Natürlich ist es nur in der Theorie richtig und noch ein weiter Weg dahin..

Wobei wir früher sehr viele High Quality Raster Effekte hatten die optisch extrem an raytracing ran kammen..

Heutzutage hast du entweder mittelmäßiges Rastern oder raytracing
 
Der hybride Ansatz fällt ja weg, viele Spiele wie zuletzt Star Wars Outlaws oder Black Myth Wukong nutzen nur mehr reines Raytracing.

Und was Bildqualität betrifft:
Auch wenn es einige nicht wahrhaben wollen, die Zeiten wo die Pixelmenge ausschlaggebend für Bildqualität war ist lange vorbei.
Ich nutze in Spielen praktisch immer die Kombination aus DLDSR und DLSS, beides KI basierte Verfahren, und die Bildqualität ist absolut sensationell.
1725977514177.png


Native Auflösung inkl. TAA ist deutlich unschärfer und fehlerbehafteter durch Artefakte als praktisch alle gängigen Upscale Verfahren.
 
Halt auch wieder etwas was bei den AMD Karten nicht funktioniert
AMD wird mit Sicherheit auch bald eine KI basierte Upscale Lösung vorstellen, vielleicht schon mit RDNA4 (siehe https://www.xda-developers.com/rdna-4-preview-ai-architecture/), dieser Ansatz dass man alles supporten möchte wie bei FSR3 ist zwar nett, macht einem aber nicht mehr wettbewerbsfähig, und selbst Konsolenhersteller wie Sony setzen nun bald auf KI basierte Lösungen wie PSSR.
 
Soweit ich weiß ist AMD's Super Resolution das Gegenstück zu Nvidias DSR, daher nicht vergleichbar.

DSR ist "normales" Downsampling, aber qualitativ definitiv deutlich unter DLDSR.

Siehe dazu:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Dadurch dass AMD den KI Ansatz bei Bildverfahren komplett weglässt gibt es auch kein Gegenstück zu DLDSR.
 
Rastern ist eine einzige große Trickkiste. Gestört hat sich daran nie jemand.
Rastern ist noch dazu ein gangbarer Spagat zwischen guter Grafik und toller Performance.

Dasselbe bei der unsäglichen Auflösungsdiskussion. Beim Rastern wird ein Großteil der Effekte nicht in der vollen Auflösung gerendert, stört dort auch niemanden. Mich interessiert einzig das Bild was am Ende auf meinem Bildschirm ankommt und da sieht Pathtracing in UHD inkl. DLSS Performance deutlich besser aus als Rastern nativ in UHD.
Mich interessiert vorrangig die Bildqualität.
Während man tolle Effekte haben kann, leidet das Bild unter Unschärfe und Instabilität.
Und daran ist nicht RT-RT schuld - Vernünftiges, "echtes" RT ist der Benchmark für Grafik.

Die Schuld liegt beim Leistungsmangel und den Methoden, mit welchen man so tun will, als ob man genügend Ressourcen für RT hätte. Schau dir mal die Screenshots weiter oben an, sogar dem Standbild merkt man schon das Upscaling/TAA an.

Frame Generation nutze ich persönlich auch nicht, allerdings ist das mit dem Rest auch nicht wirklich vergleichbar.
Frame-Generation ist auch eine besonders schlechte Methode um mehr FPS zu bekommen.
Wenn man FG braucht, dann hat man eine zu geringe FPS-Basis und entsprechenden InputLag.
Wenn man eine ausreichende Basis-Framerate hat, dann braucht man kein FG.

Dir ist klar, dass auch bei deinem Liebling Rasterization das "Compute later" Gang und gäbe ist?
Welches Rasterspiel verschlingt denn so viele Ressourcen, dass die kommenden GraKa-Generationen nicht in der Lage sind, es nativ ordentlich darstellen zu können?

Und warum ist das ein Problem? Bei Raster wurde seit jeher getrickst (SSR oder Cubemaps z.B.) und niemanden hats gestört, aber bei RT geht das auf einmal gar nicht. Scheinheiliges Argument.
SSR kann ich ausschalten, wenn mich das flimmern stört.
Cubemaps neigen nicht dazu, zu flimmern.

Generell kann ich die Grafikeinstellungen anpassen um die Leistung zu optimieren und bewege mich in einem recht breiten Rahmen, der es erlaubt Änderungen vorzunehmen, ohne direkt massive Verluste bei der Bildqualität hinnehmen zu müssen.

Bei Raytracing-Effekten hat man quasi keinen Spielraum, was die Qualitätseinstellungen anbelangt.
Entweder es sieht mit höchsten Einstellungen passabel aus, oder dir fliegt der Bildinhalt um die Ohren, nachdem du die Einstellungen etwas herabsetzt.

Sag mir, dass du keine Ahnung von DLSS und co. hast ohne mir zu sagen, dass du keine Ahnung von DLSS hast.
Das war bei Version 1 so, aber seit Version 2 wird da nichts per KI hinzugedichtet. Das wüsstest du, wenn du dich informieren würdest, anstatt stumpf zu haten ;)
Deine Betrachtungsweise von Frame-Generation ist sehr interessant.

Artefakte gab und gibt es auch bei Rasterization, aber hey, das ist halt unser Liebling, ne?
Klar.
Raytracing ist super, es fehlt halt die Leistung um es ordentlich implementieren zu können.
Und der Leistungsmangel ist der Grund für meine Kritik.
Aber das will keiner hören.

Wie kommst du zu der Annahme? Weil das Spiel nicht die FPS liefert, die du erwartest? Oder weil du mit der 3060 nicht alle Regler auf Anschlag drücken kannst? :D
Nimm mal deine 4090 in die Hand und lass BMW drauf laufen - In UHD mit RT-RT ohne Tricks.
Anschließend können wir gerne über unsere Erwartungshaltungen sprechen, was FPS anbelangt.

In welchem Spiel ist das denn der Fall? Es gibt nichts, was nicht in 4K mit 60 FPS auf der 4090 läuft. Vor RT fähigen Karten waren 4K 60 FPS nicht mal mit Raster möglich, jetzt sind 4K 60 FPS auf einmal Schrott :D
Black Myth Wukong - 16FPS
Cyberpunk 2077 - 46FPS
Alan Wake II - 38FPS

Wenn du mal angucken möchtest, was deine Karte in einem echten RT-Szenario zu leisten vermag, dann render mal den Blender BMW-Test. Das ist dann wirklich echtes Raytracing, vollständig in Strahlen getaucht, kein Rastern, keine Tricks.

Du brauchst halt ~30 Sekunden per Frame, mit OptiX...
Aber hey, es sieht verdammt gut aus.
 
Status
Für weitere Antworten geschlossen.
Zurück