News Kein High End bei RDNA 4: AMD ist nicht das Unternehmen für Porsche- und Ferrari-Käufer

Status
Für weitere Antworten geschlossen.
Jo, deswegen sind die 1080 Ti, die 3090 und die 4090 auch quasi gleich schnell :ugly:

Software gehört zum Gesamtpackage dazu, eine Grafikkarte ist heutzutage zum Glück weit mehr als nur Hardware.
 
Die Entscheidung von AMD, finde ich richtig. Erstens kauft die Masse eben in diesem Segment und zweitens kann AMD sich dann bei der nächsten Gen neu aufstellen. Gibt ja schon länger Insider-Infos, dass AMD RDNA begraben wird und eben kein RDNA5 bringen wird, sondern eine neue Architektur starten wird.

Im Raster ist AMD ja sehr gut aufgestellt. Was nun folgen muss (mit dem RDNA4-Nachfolger) ist RT und auch Energie-Effizienz bzw. Energie-Management. Bei beidem ist NV (noch) klar vorn.

Dennoch bin ich gespannt. Eine 8700XT mit Rasterleistung oberhalb einer 7900XT und der RT-Leistung einer 4070TI oder gar 4070 Ti Super, für einen anständigen Preis bis 600 - da würde ich zuschlagen. Sohnemann würde sich im gleichen Zug über meine 7800XT freuen (die noch immer eine Top-Karte in meinen Augen ist).
 
Sorry aber die Aussage dass der Hardwaresprung geringer ist stimmt einfach absolut nicht.
Allein zwischen der RTX 3090ti und der RTX 4090 hat sich die Anzahl der Transistoren fast verdreifacht (28,3 vs 76,3 Millionen)!

Zum Vergleich vor der RT/Upscaling Ära, der Sprung von der GTX Titan (Kepler) auf die GTX Titan X (Maxwell) ist wesentlich kleiner (5 vs 8 Millionen Transistoren).

Also nein, rein auf Hardware bezogen haben wir zuletzt die größten Sprünge gesehen, nebenbei macht natürlich auch die Software riesige Fortschritte.
 
Sorry aber die Aussage dass der Hardwaresprung geringer ist stimmt einfach absolut nicht.
Allein zwischen der RTX 3090ti und der RTX 4090 hat sich die Anzahl der Transistoren fast verdreifacht (28,3 vs 76,3 Millionen)!

Zum Vergleich vor der RT/Upscaling Ära, der Sprung von der GTX Titan (Kepler) auf die GTX Titan X (Maxwell) ist wesentlich kleiner (5 vs 8 Millionen Transistoren).

Also nein, rein auf Hardware bezogen haben wir zuletzt die größten Sprünge gesehen, nebenbei macht natürlich auch die Software riesige Fortschritte.
Genauso wie der Preis. Und die super duper Hardware, bzw mehr Leistung, wird von vielen schlecht optimierte Spielen verpulvert und vielen Effekte die man teilweise im Unterschied mit der Lupe auf Standbildern betrachten muss. Die Sinnhaftigkeit von aktuellen Enthusiasten GPUs findet man eigentlich nur noch auf Marketingpräsentationen wieder aber leider nicht mehr in der Realität, weswegen sich die Entwicklung von der tatsächlichen Wirklichkeit zusehenst entkoppelt, sowohl in der sinnvoll nutzbaren Leistung, als vor allem auch im Preis Leistungsverhältnis.

MfG
 
Das ist auch ziemlich klar woran das liegt, weil man sich eben nicht mehr darauf fokussiert die Hardware möglichst weit und schnell weiterzuentwickeln sondern stattdessen lieber den Weg des geringeren Widerstandes geht und durch Software Tricks, um es einmal polemisch auszudrücken, mehr Frames auf dem Bildschirm zu zaubern aber nicht weil die Hardware im Grundsatz besser und deutlich schneller wird. Ich finde das auch schade, dass die Basis dahin gehend vernachlässigt wird und immer mehr Features in den Fokus rücken die eigentlich nur fehlende Rohleistung kaschieren sollten, im Ursprung, quasi eine Übergangslösung die jetzt zur Dauerlösung gemacht wird. Der Hintergrund ist auch klar, so kann man mit weniger Aufwand die gleiche und damit mehr marge erzielen.

Das Übel heißt Raytracing.
Jeder will es, keiner kann es sich leisten.
Das Motto lautet deshalb: "Raytrace now - Compute later".

Also greift man tief in die Trickkiste um ein Spiel mit RT-RT irgendwie über den Berg zu bekommen.
Bis die Rohleistung in HW vorhanden ist, um 720p mit ausreichend Samples in 16ms auf den Monitor bekommen, wird es noch etliche GraKa-Generationen dauern.

Deswegen spielt man lustiges Bilderrätsel mit einer KI, drückt kräftig an der Pumpe um Frames aufzublasen und schmiert fleißig Vaseline auf den Monitor um Artefakte zu kaschieren.

Von 3090 zu 4090 ist schon ein gutes Stück Rohleistung dazugekommen.
Aber es reicht halt vorne und hinten nicht aus.

Und die Spieleschmieden weigern sich auch beharrlich mit der vorhanden Rohleistung etwas hauszuhalten.
Da verschleudert man gerne schon das Performance-Budget einer "6090" wo doch die "5090" noch nicht einmal auf dem Markt ist und eine 4090 aus dem letzten Loch pfeift.

Aber so muss es jetzt wohl sein - Die Leute lieben es.
 
Also greift man tief in die Trickkiste
Rastern ist eine einzige große Trickkiste. Gestört hat sich daran nie jemand.

Dasselbe bei der unsäglichen Auflösungsdiskussion. Beim Rastern wird ein Großteil der Effekte nicht in der vollen Auflösung gerendert, stört dort auch niemanden. Mich interessiert einzig das Bild was am Ende auf meinem Bildschirm ankommt und da sieht Pathtracing in UHD inkl. DLSS Performance deutlich besser aus als Rastern nativ in UHD.

Frame Generation nutze ich persönlich auch nicht, allerdings ist das mit dem Rest auch nicht wirklich vergleichbar.
 
Genauso wie der Preis. Und die super duper Hardware, bzw mehr Leistung, wird von vielen schlecht optimierte Spielen verpulvert und vielen Effekte die man teilweise im Unterschied mit der Lupe auf Standbildern betrachten muss. Die Sinnhaftigkeit von aktuellen Enthusiasten GPUs findet man eigentlich nur noch auf Marketingpräsentationen wieder aber leider nicht mehr in der Realität, weswegen sich die Entwicklung von der tatsächlichen Wirklichkeit zusehenst entkoppelt, sowohl in der sinnvoll nutzbaren Leistung, als vor allem auch im Preis Leistungsverhältnis.

MfG
Die Sinnhaftigkeit von High End GPU's ist natürlich absolut gegeben für Spieler mit höheren Ansprüchen, und nein Fakt ist auch dass der technische Sprung zuletzt sehr groß war, und man diesen zur Gänze nur mit High End GPU's erleben kann.
Am Beispiel ganz aktuell Star Wars Outlaws und Black Myth Wukong:
1725956880845.png

1725767127858-jpeg.1469097

1725957124088.png

1725957136926.png


Das ist schlussendlich das Ergebnis aktueller Tophardware, diese Grafik war vor 5 Jahren noch absolutes Wunschdenken.
 
Das Übel heißt Raytracing.
Jeder will es, keiner kann es sich leisten.
Das Motto lautet deshalb: "Raytrace now - Compute later".

Also greift man tief in die Trickkiste um ein Spiel mit RT-RT irgendwie über den Berg zu bekommen.
Bis die Rohleistung in HW vorhanden ist, um 720p mit ausreichend Samples in 16ms auf den Monitor bekommen, wird es noch etliche GraKa-Generationen dauern.

Deswegen spielt man lustiges Bilderrätsel mit einer KI, drückt kräftig an der Pumpe um Frames aufzublasen und schmiert fleißig Vaseline auf den Monitor um Artefakte zu kaschieren.

Von 3090 zu 4090 ist schon ein gutes Stück Rohleistung dazugekommen.
Aber es reicht halt vorne und hinten nicht aus.

Und die Spieleschmieden weigern sich auch beharrlich mit der vorhanden Rohleistung etwas hauszuhalten.
Da verschleudert man gerne schon das Performance-Budget einer "6090" wo doch die "5090" noch nicht einmal auf dem Markt ist und eine 4090 aus dem letzten Loch pfeift.

Aber so muss es jetzt wohl sein - Die Leute lieben es.
Ganz ehrlich, besser kann man kaum ein zutreffenderes Bild zeichnen als mit deinen Worten, Glückwunsch dafür, sehr starke Rhetorik! ;-)

MfG
Die Sinnhaftigkeit von High End GPU's ist natürlich absolut gegeben für Spieler mit höheren Ansprüchen, und nein Fakt ist auch dass der technische Sprung zuletzt sehr groß war, und man diesen zur Gänze nur mit High End GPU's erleben kann.
Am Beispiel ganz aktuell Star Wars Outlaws und Black Myth Wukong:
Anhang anzeigen 1469253
1725767127858-jpeg.1469097

Anhang anzeigen 1469255
Anhang anzeigen 1469256

Das ist schlussendlich das Ergebnis aktueller Tophardware, diese Grafik war vor 5 Jahren noch absolutes Wunschdenken.
Niemand sagt, dass es sich im Grundsatz nicht lohnt aber der Mehrwert gegenüber den deutlichen Mehrpreis hält sich doch arg in Grenzen. Es gibt auch viele Screenshot Vergleiche wo man kaum Unterschiede zwischen RT und nicht RT sieht oder RT hoch und rt low.


MfG
 
Zuletzt bearbeitet:
Niemand sagt, dass es sich im Grundsatz nicht lohnt aber der Mehrwert gegenüber den deutlichen Mehrpreis hält sich doch arg in Grenzen. Es gibt auch viele Screenshot Vergleiche wo man kaum Unterschiede zwischen RT und nicht RT sieht oder RT hoch und rt low.


MfG
Dein Beispiel mit Star Wars Outlaws ist aber dann schlecht gewählt, Computerbase schreibt ja selbst:
Es gibt zahlreiche Qualitätsoptionen für Raytracing, die Redaktion empfiehlt jedoch, sie durchweg auf das Maximum zu schrauben, denn dem Auge tut dies sichtbar gut. Wer zum Beispiel die Reflexionen nur um eine einzige Stufe reduziert erhält sogleich eine sichtbar schlechtere Qualität in dem Bereich, da sie stellenweise überhaupt nicht mehr dargestellt werden.
Oder auch:
Auch bei den Schatten lassen sich größere Unterschiede erkennen. Mit geringen RT-Details werfen manche Objekte gar nicht erst einen Schatten, bei anderen stimmen die Schatten einfach nicht beziehungsweise es werden feine Details weggelassen.

Mag sicher Spiele geben wo Raytracing nur ein kleiner Zusatz ist und der optische Zugewinn sich in Grenzen hält, aber was wir zuletzt gesehen haben bei diversen Spielen zeigt dann doch den enormen Gewinn an Realismus und grafischem Fortschritt generell.
 
Dein Beispiel mit Star Wars Outlaws ist aber dann schlecht gewählt, Computerbase schreibt ja selbst:

Oder auch:


Mag sicher Spiele geben wo Raytracing nur ein kleiner Zusatz ist und der optische Zugewinn sich in Grenzen hält, aber was wir zuletzt gesehen haben bei diversen Spielen zeigt dann doch den enormen Gewinn an Realismus und grafischem Fortschritt generell.
Ich möchte ja auch nicht falsch verstanden werden, ich finde die Entwicklung richtig gut und man sieht auch durchaus visuelle Vorteile aber die aufgerufenen Preise mit der gebotenen Leistung rechtfertigen meiner Meinung nach nicht unbedingt den Kauf einer Enthusiasten GPU, der Mehrwert bleibt für mich einfach aus, dazu kann man sich auch gut Space Marine 2 anschauen, welches komplett ohne Raytracing auskommt und trotzdem fantastisch aussieht. ;-)

MfG
 
Dein Beispiel mit Star Wars Outlaws ist aber dann schlecht gewählt, Computerbase schreibt ja selbst:

Oder auch:


Mag sicher Spiele geben wo Raytracing nur ein kleiner Zusatz ist und der optische Zugewinn sich in Grenzen hält, aber was wir zuletzt gesehen haben bei diversen Spielen zeigt dann doch den enormen Gewinn an Realismus und grafischem Fortschritt generell.
Ich bin der Meinung, dass diese Details von den wenigsten im Spiel wirklich wahrgenommen werden. Ob da nun ultrarealistische Schatten an von den von mir gesteuerten F1-Renner geworfen werden oder nicht, sieht man in der Action nicht. Unsere Augen sind gar nicht in der Lage diese Details in Bewegung so exakt zu deuten - Stichwort: Tunnelblick.

Und ganz ehrlich, wenn ich in Games permanent nur auf so etwas achte, dann macht das Spiel generell was falsch, denn dann unterhält es einfach nicht mit Inhalten.

Klar in der Summe ist bessere und realistische Grafik immer ein Nice-to-Have... wird aber auch stark überbewertet. Die Masse der Millionen Spieler interessiert es Null. Kenne genug die nicht einmal wissen welche Grafikeinstellungen, wo und wie vorgenommen werden. Die stellen maximal auf Ihre Bildschirmauflösung (was heute gern auch automatisch vom Spiel aus geschieht) und das war es dann auch.

Schon deswegen ist AMDs Strategie der Mittelklasse nur richtig für das Unternehmen. Grafikkarten über 500 Euro sind auf alle Spieler gesehen eher selten. Kommt einem nur in solchen Foren anders vor, weil hier halt Technikbegeisterte unterwegs sind.
 
Imho sind Behauptungen wie RTX (und andere moderne Grafikfeatures) würden "nichts bringen" oder man "würde sie ohnehin nicht sehen" Schutzbehauptungen von Usern, die einfach keine Ahnung haben wovon sie sprechen. Meist dadurch verursacht, dass sie selber noch nie die Möglichkeit hatten sich selber ein Bild zu machen. Man kennts...das wird sich ändern, wenn Raytracing Rasterisierung weitestgehend ersetzt hat, so wie es damals beim Wechsel von 2D auf 3D war. Dauert halt bis die Technik performant im Low-Level Budget ankommt. Ich wette, hier tummeln sich noch etliche, fundamentalistische 2D Verfechter der späten 90er, die es heute natürlich nicht mehr zugeben würden weil es zur Einsicht kam (niemand gibt gerne Irrtümer zu) - die sind ja unmöglich alle ausgestorben.

Die stellen maximal auf Ihre Bildschirmauflösung (was heute gern auch automatisch vom Spiel aus geschieht) und das war es dann auch.
Umgekehrt sind es dann aber auch genau die, die ins Forum/ Reddit/ Streams kommen und ohne Angaben von irgendwelchen Specs blöd rumfragen, weshalb ihr Spiel so beschis*** ...eh...bescheiden aussieht und FPS Einbrüche hat laggt :ka:

AMD ist nicht das Unternehmen für Porsche- und Ferrari-Käufer
Kommt an, wenn ich mir die "Dacia-Dichte" auf den Straßen so ansehe. Leider bietet AMD aktuell ja nichtmal mehr BMWs ;)
 
Zuletzt bearbeitet:
Imho sind Behauptungen wie RTX (und andere moderne Grafikfeatures) würden "nichts bringen" oder man "würde sie ohnehin nicht sehen" Schutzbehauptungen von Usern, die einfach keine Ahnung haben wovon sie sprechen. Meist dadurch verursacht, dass sie selber noch nie die Möglichkeit hatten sich selber ein Bild zu machen. Man kennts...das wird sich ändern, wenn Raytracing Rasterisierung weitestgehend ersetzt hat, so wie es damals beim Wechsel von 2D auf 3D war. Dauert halt bis die Technik performant im Low-Level Budget ankommt. Ich wette, hier tummeln sich noch etliche, fundamentalistische 2D Verfechter der späten 90er, die es heute natürlich nicht mehr zugeben würden weil es zur Einsicht kam (niemand gibt gerne Irrtümer zu) - die sind ja unmöglich alle ausgestorben.


Umgekehrt sind es dann aber auch genau die, die ins Forum/ Reddit/ Streams kommen und ohne Angaben von irgendwelchen Specs blöd rumfragen, weshalb ihr Spiel so beschis*** ...eh...bescheiden aussieht und FPS Einbrüche hat laggt :ka:


Kommt an, wenn ich mir die "Dacia-Dichte" auf den Straßen so ansehe. Leider bietet AMD aktuell ja nichtmal mehr BMWs ;)
Schutzbehauptung? Ich habe schon vergleiche direkt bei mir daheim... zwei Rechner, einer AMD einer NV und Unterchiede sehe ich maximal im direkten Vergleich, aber beim spielen selbst fällts nicht auf. Ich spiele Games nicht um mir explizit jedes Grafikdetail anzuschauen, sondern des Spiels wegen. Sonst könnte ich auch nur Videos schauen.
Wenn mir ein Spiel erlaubt ständig auf Details der Grafik zu achten, ist es ein schlechtes Spiel, weil offenbar langweilig und Aufbau-Spiele, die ich gern spiele, bieten / benötigen solch Grafikpracht einfach nicht.

Nochmal. Das (Forum) hier ist eine winzige Blase im Spieleruniversum und nicht ansatzweise die Referenz für die Mehrheit. Kenne genug die nicht mal wissen was Raytracing, Rasterrising etc. ist.

Ich will RT ja auch nicht madig reden. Aber man sollte es auch nicht überschätzen in der Wichtigkeit am Markt. Ich kenn sogar genug Leute, die nicht einmal wissen was für eine GPU und/oder CPU sie überhaupt besitzen. Die Spielen einfach nur der Spiele wegen.
 
Die Sinnhaftigkeit von aktuellen Enthusiasten GPUs findet man eigentlich nur noch auf Marketingpräsentationen wieder aber leider nicht mehr in der Realität, weswegen sich die Entwicklung von der tatsächlichen Wirklichkeit zusehenst entkoppelt, sowohl in der sinnvoll nutzbaren Leistung, als vor allem auch im Preis Leistungsverhältnis.
Es ist immer wieder faszinierend, wie viele hier denken, dass die Optik mit der verfügbaren Leistung linear korreliert.
Dem ist nicht so. Du musst übermäßig viel Leistung reinstecken, um die Optik minimal zu verbessern und das wird mit jedem Sprung krasser.

Wie kannst du also beurteilen, ob etwas schlecht optimiert ist? Weil es optisch für dich so aussieht? Aha, klar doch.
Mir fällt nur ein Spiel ein, bei dem man wirklich sagen kann, dass es beschissen oder gar nicht optimiert ist und das ist Cities Skyline 2.
Ansonsten kannst du mir gern ein paar Gegenbeispiele nennen und mir erklären, woran du dort fest machst, dass sie schlecht optimiert sind. Ein "die Optik entspricht nicht der Leistung" reicht mir hier nicht.

Das Übel heißt Raytracing.
Jeder will es, keiner kann es sich leisten.
Das Motto lautet deshalb: "Raytrace now - Compute later".
Dir ist klar, dass auch bei deinem Liebling Rasterization das "Compute later" Gang und gäbe ist?

Also greift man tief in die Trickkiste um ein Spiel mit RT-RT irgendwie über den Berg zu bekommen.
Bis die Rohleistung in HW vorhanden ist, um 720p mit ausreichend Samples in 16ms auf den Monitor bekommen, wird es noch etliche GraKa-Generationen dauern.
Und warum ist das ein Problem? Bei Raster wurde seit jeher getrickst (SSR oder Cubemaps z.B.) und niemanden hats gestört, aber bei RT geht das auf einmal gar nicht. Scheinheiliges Argument.

Deswegen spielt man lustiges Bilderrätsel mit einer KI, drückt kräftig an der Pumpe um Frames aufzublasen und schmiert fleißig Vaseline auf den Monitor um Artefakte zu kaschieren.
Sag mir, dass du keine Ahnung von DLSS und co. hast ohne mir zu sagen, dass du keine Ahnung von DLSS hast.
Das war bei Version 1 so, aber seit Version 2 wird da nichts per KI hinzugedichtet. Das wüsstest du, wenn du dich informieren würdest, anstatt stumpf zu haten ;)

Artefakte gab und gibt es auch bei Rasterization, aber hey, das ist halt unser Liebling, ne?

Und die Spieleschmieden weigern sich auch beharrlich mit der vorhanden Rohleistung etwas hauszuhalten.
Wie kommst du zu der Annahme? Weil das Spiel nicht die FPS liefert, die du erwartest? Oder weil du mit der 3060 nicht alle Regler auf Anschlag drücken kannst? :D

Da verschleudert man gerne schon das Performance-Budget einer "6090" wo doch die "5090" noch nicht einmal auf dem Markt ist und eine 4090 aus dem letzten Loch pfeift.
In welchem Spiel ist das denn der Fall? Es gibt nichts, was nicht in 4K mit 60 FPS auf der 4090 läuft. Vor RT fähigen Karten waren 4K 60 FPS nicht mal mit Raster möglich, jetzt sind 4K 60 FPS auf einmal Schrott :D

Niemand sagt, dass es sich im Grundsatz nicht lohnt aber der Mehrwert gegenüber den deutlichen Mehrpreis hält sich doch arg in Grenzen. Es gibt auch viele Screenshot Vergleiche wo man kaum Unterschiede zwischen RT und nicht RT sieht oder RT hoch und rt low.
Es bleibt aber keine andere Möglichkeit. Du kannst die Grafik mit Rasterization nicht weiter steigern ohne übermäßig viel Leistung zu verpulvern und zwar viel mehr als mit RT.
Hast du jemals ein Spiel mit voll dynamischen weichen Schatten ohne RT gesehen, die nicht vorberechnet waren? Gibt es nicht, weil selbst ne 4090 einstellige FPS hätte. Mit RT geht das flüssig.
Also wie soll es nach deiner und @Da_Obst Meinung weiter gehen? Weiter Raster ohne das grafische Niveau zu steigern oder der nächste Schritt?
Ihr jammert immer nur rum, aber Lösungen liefert ihr keine.
 
Zuletzt bearbeitet:
In welchem Spiel ist das denn der Fall? Es gibt nichts, was nicht in 4K mit 60 FPS auf der 4090 läuft. Vor RT fähigen Karten waren 4K 60 FPS nicht mal mit Raster möglich, jetzt sind 4K 60 FPS auf einmal Schrott :D
- In StarWars Outlow ohne FG und ohne upsampling 22 und mit dann 52 fps. Also weit weg von mindestens 60.
- In Black Myth Wukong ebenfalls schon mit FG und upsampling schafft sie 50 fps.
- In Hunt Showdown sinds 56 fps
- In Nobody wants to die sinds dann 63, aber auch schon mit upsampling
- In Avatar dann 43 ohne alles und im Unoptanium mit Upsampling immerhin ganze 33 fps
- In The First Descendant sind es mit upsampling 56 fps
- In Alan Wake 2 sind mit upsampling 39 fps

Also laut PCGH Benchmarks gibt es da schon genug. Genau genommen schafft sie nur in den wenigsten neu erschienenen Titeln in 4K die 60 FPS zu halten, für ein wirklich ruhiges Bild. Deshalb ist es ja auch Zeit für die 5090. :D
 
@Cleriker "ohne upsampling und DLSS" ja und das juckt wen? Niemanden, außer den ewig gestrigen, die es partout nicht nutzen wollen, weil sie überall angeblich Artefakte sehen. Ich verwette alles darauf, dass die meisten Kritiker in einem Blindtest sowas von scheitern würden.

- In StarWars Outlow ohne FG und ohne upsampling 22 und mit dann 52 fps. Also weit weg von mindestens 60.
SW:O läuft mit 66 FPS maxed out.

- In Black Myth Wukong ebenfalls schon mit FG und upsampling schafft sie 50 fps.
Ich sehe hier genau 60: https://www.pcgameshardware.de/Blac.../Benchmark-Grafikkarten-Test-Release-1455019/

- In Hunt Showdown sinds 56 fps
Istn reines Rastergame ohne RT. Ironisch, dass es so beschissen läuft, obwohl es von Crytek kommt und Raster ja eigentlich der heilige Gral ist ;)
Ohne RT, DLSS und FG würden die Spiele heute also keinesfalls besser aussehen und/oder besser laufen. Hunt Showdown ist der beste Beweis dafür.

- In Nobody wants to die sinds dann 63, aber auch schon mit upsampling
Also auch 60 FPS.

- In Avatar dann 43 ohne alles und im Unoptanium mit Upsampling immerhin ganze 33 fps
Ich sehe hier 70 FPS:

Jedes von dir genannte Spiel läuft maxed out in 4K mit DLSS/FSR und FG mit 60 FPS auf der 4090. Wer Upsampling/FG nicht nutzen will, hat halt Pech, aber das ist unabhängig von RT der Fall und genau um RT als Ursprung allen Übels ging es ja.
 
Zuletzt bearbeitet:
60fps inkl. FG ist schon sehr zäh.
Hier ein Video von einer Szene wo man ohne Frame Gen 30 fps hat.
Und dann im selben Video siehst du den selben durchlauf mit Frame Gen.
(4 Durchläufe erst Blind dann mit FPS einblendung)
Das ist ein unterschied wie Tag und Nacht. Die 60 Frame Gen FPS fühlen sich doch echt okay an.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Status
Für weitere Antworten geschlossen.
Zurück