News FSR 4: AMDs KI-Upscaling beeindruckt in ersten Vergleichstests

Machen wir uns nichts vor, wenn nicht irgendjemand was ganz dolles mit der Rasterisierung erfindet, wird Skalierung in absehbarer Zeit das einzige Mittel, höhere FPS in höheren Auflösungen zu erzielen, sein.
Die Verkleinerung der Architektur wird in nicht allzu ferner Zukunft an ihre Grenzen stoßen und sie wird dazu auch noch hohe Kosten verursachen.
Vielleicht bekommt AMD es ja noch hin mit Chipletts.
Solange werden mit DLSS/FSR leben müssen. Und da sollten wir doch froh sein, dass beide Parteien bei den Verbesserungen scheinbar erfolgreich sind.
 
Ja, aber dann hat sich dein Problem, dass deine Spiele nicht unterstützt werden auch erledigt, schließlich wirst du ja irgendwann auch ein neues Spiel erwerben.
Ich habe drei Spiele, welche FSR3 unterstützen: Cyberpunk 2077, Everspace 2 und The Talos Principle 2. Sollten diese drei Spiele Updates bekommen, dann habe ich drei Spiele welche FSR4 unterstützen werden.

Meine Bibliothek umfasst insgesamt etwa 330 Spiele.

Und von den Spielen, welche ich regelmäßig anwerfe, meine Dauerbrenner sozusagen, unterstützt kein einziges eine Form von Upscaling wie DLSS oder FSR.

Natürlich kann es passieren, dass ich in Zukunft mal ein Spiel kaufe, welches FSR4 unterstützt. Die Wahrscheinlichkeit liegt aber bei 1:110 oder 0,9%.

Damit ist eine KI-Upscaling Funktion einer neuen Karte bei mir absolut überhaupt kein Kaufkriterium. Ich möchte Rohleistung haben, alles andere ist Nippes.

Machen wir uns nichts vor, wenn nicht irgendjemand was ganz dolles mit der Rasterisierung erfindet, wird Skalierung in absehbarer Zeit das einzige Mittel, höhere FPS in höheren Auflösungen zu erzielen, sein.
Die Verkleinerung der Architektur wird in nicht allzu ferner Zukunft an ihre Grenzen stoßen und sie wird dazu auch noch hohe Kosten verursachen.
Vielleicht bekommt AMD es ja noch hin mit Chipletts.
Solange werden mit DLSS/FSR leben müssen. Und da sollten wir doch froh sein, dass beide Parteien bei den Verbesserungen scheinbar erfolgreich sind.

Upscaling ist doch jetzt schon am Limit.
Man rendert die Spiele bereits in 720/480p um Ausgangsmaterial für die Skalierung mit ausreichender Bildrate zu bekommen.
Man kann noch auf 360/240/120p runtergehen, aber da wird dann ab einem gewissen Punkt einfach nicht mehr genügend Ausgangsmaterial für eine sinnvolle Verwertung im KI-Modell zur Verfügung stehen.

Spieleentwickler müssen unbedingt damit aufhören, Upscaler im Performance-Target zu berücksichtigen. Während man mit CUs und Fertigung noch etwas Spielraum hat, wird man mit KI bald gegen eine Wand laufen. Dann bleibt nur mehr die so verhasste Software-Optimierung, aber das will ja niemand hören.
 
Zuletzt bearbeitet:
Upscaling ist doch jetzt schon am Limit.
Man rendert die Spiele bereits in 720/480p um Ausgangsmaterial für die Skalierung mit ausreichender Bildrate zu bekommen.
Man kann noch auf 360/240/120p runtergehen, aber da wird dann ab einem gewissen Punkt einfach nicht mehr genügend Ausgangsmaterial für eine sinnvolle Verwertung im KI-Modell zur Verfügung stehen.

Spieleentwickler müssen unbedingt damit aufhören, Upscaler im Performance-Target zu berücksichtigen. Während man mit CUs und Fertigung noch etwas Spielraum hat, wird man mit KI bald gegen eine Wand laufen. Dann bleibt nur mehr die so verhasste Software-Optimierung, aber das will ja niemand hören.
Sowohl AMD als auch NVIDIA verbessern das Upscaling doch. Es sieht immer besser aus und die Darstellung wird schneller. Selbst das Inputlag soll mit Reflex2 verbessert worden sein.
Da kann man doch nicht von „am Limit“ sprechen.
Was aber ganz sicher am Limit sein wird, ist die physische Grenze bei der Struktur der Chips.

Mit den Spieleentwickern gebe ich dir absolut recht. Da wird in meinen Augen auch zu wenig getan, um alles aus den Engines und den GraKas heraus zu holen.

Allerdings sehe ich auch, wie teuer die Entwicklung von AAA Games inzwischen geworden ist.
Da noch etwas oben drauf zu packen, wird auch schwierig werden.
 
Sowohl AMD als auch NVIDIA verbessern das Upscaling doch. Es sieht immer besser aus und die Darstellung wird schneller. Selbst das Inputlag soll mit Reflex2 verbessert worden sein.
Da kann man doch nicht von „am Limit“ sprechen.
Was aber ganz sicher am Limit sein wird, ist die physische Grenze bei der Struktur der Chips.

Mit den Spieleentwickern gebe ich dir absolut recht. Da wird in meinen Augen auch zu wenig getan, um alles aus den Engines und den GraKas heraus zu holen.

Allerdings sehe ich auch, wie teuer die Entwicklung von AAA Games inzwischen geworden ist.
Da noch etwas oben drauf zu packen, wird auch schwierig werden.
Wenn Shader an die physische Grenze des machbaren stoßen, dann trifft das auf die Tensoren ebenso zu, da diese ja genauso ein Bestandteil des Chips sind.

Die KI-Features sind ja kein losgelöster Bestandteil der GPU, sondern fußen ebenso auf einer Logik welche durch Strukturgröße, Aufbau und Effizienz begrenzt wird.

NV und, jetzt auch AMD können natürlich noch an der Performanz der Upscaling-Verfahren schrauben, aber Quantensprünge wird es keine mehr geben, da dies ebenso einen Sprung bei der Fertigungstechnik erfordern würde.

Also bleibt die Steigerung der Effektivität in Software, wobei man damit auch nicht mehr besonders viel Spielraum über hat. Es ist bereits Gang und Gäbe ein 480p Bild als Input zu verwerten, darunter dürfte die Treffgenauigkeit des Modells leiden.

Wenn man jetzt auch noch das Performance-Budget, welches kurzfristig durch Upscaling aufgebessert wurde, als Grundvoraussetzung für ein Spiel verpulvert, wird man arge Probleme bekommen, alsbald der Generations-übergreifende Leistungszuwachs weiter in die Knie geht.

Schon jetzt ist der Sprung von Ada zu Blackwell mit vmtl. ca. 30% eher ernüchternd ausgefallen. Allein für Raytracing hätte das Leistungsplus zumindest 100% betragen müssen.
 
Wenn Shader an die physische Grenze des machbaren stoßen, dann trifft das auf die Tensoren ebenso zu, da diese ja genauso ein Bestandteil des Chips sind.

Die KI-Features sind ja kein losgelöster Bestandteil der GPU, sondern fußen ebenso auf einer Logik welche durch Strukturgröße, Aufbau und Effizienz begrenzt wird.

NV und, jetzt auch AMD können natürlich noch an der Performanz der Upscaling-Verfahren schrauben, aber Quantensprünge wird es keine mehr geben, da dies ebenso einen Sprung bei der Fertigungstechnik erfordern würde.

Also bleibt die Steigerung der Effektivität in Software, wobei man damit auch nicht mehr besonders viel Spielraum über hat. Es ist bereits Gang und Gäbe ein 480p Bild als Input zu verwerten, darunter dürfte die Treffgenauigkeit des Modells leiden.

Wenn man jetzt auch noch das Performance-Budget, welches kurzfristig durch Upscaling aufgebessert wurde, als Grundvoraussetzung für ein Spiel verpulvert, wird man arge Probleme bekommen, alsbald der Generations-übergreifende Leistungszuwachs weiter in die Knie geht.

Schon jetzt ist der Sprung von Ada zu Blackwell mit vmtl. ca. 30% eher ernüchternd ausgefallen. Allein für Raytracing hätte das Leistungsplus zumindest 100% betragen müssen.
Häh?

Du lieferst doch jetzt genau die Argumente für das, was ich geschrieben habe.
Die reine Hardware schafft gerade mal 30 Prozent.
Die Software aber weit mehr mit DLSS4, M-FG und Reflex2.
 
Außerdem... DLSS ist in der 4. Generation angekommen... FSR jetzt auch.
Inwiefern ist DLSS dann 2 Generationen weiter?
Als Nvidia DLSS eingeführt hat, hatte AMD ewig nichts vergleichbares (also kein FSR). Als AMD dann FSR eingeführt hat, kam NVIDIA schon mit DLSS2 um die Ecke. Knackpunkt des Ganzen: FSR war nichtmal ansatzweise so gut wie schon DLSS(1), wogegen DLSS2 ggü. DLSS1 einen deutlichen Fortschritt gemacht hat. Macht zwei Generationen Rückstand. Einen Unterschied den FSR auf DLSS bis heute kaum aufgeholt hat.
 
Ich kann mir gut vorstellen, dass das Feature RDNA4 vorbehalten bleibt.
Immerhin hat man damit ein Argument dafür, die Karte wieder besonders teuer in den Laden zu stellen.
Hab ich was verpasst? Ich meine mich recht deutlich erinnern zu können, dass es seitens AMD so kommuniziert wurde, dass FSR4 nur auf RDNA 4 laufen können wird...
 
Hab ich was verpasst? Ich meine mich recht deutlich erinnern zu können, dass es seitens AMD so kommuniziert wurde, dass FSR4 nur auf RDNA 4 laufen können wird...
Als AMD "zuletzt" darüber gesprochen hat, war noch keine Rede davon, dass FSR4 dem neuen RDNA4 Lineup vorbehalten bleibt.


Allgemein war die Erwartungshaltung dabei schon, dass auch RDNA3 mit FSR4 ausgestattet wird, da die Karten ja auch in Hardware KI-Beschleunigen können.

Aber vielleicht habe ich zwischenzeitlich etwas verpasst.
 
Als Nvidia DLSS eingeführt hat, hatte AMD ewig nichts vergleichbares (also kein FSR). Als AMD dann FSR eingeführt hat, kam NVIDIA schon mit DLSS2 um die Ecke. Knackpunkt des Ganzen: FSR war nichtmal ansatzweise so gut wie schon DLSS(1), wogegen DLSS2 ggü. DLSS1 einen deutlichen Fortschritt gemacht hat. Macht zwei Generationen Rückstand. Einen Unterschied den FSR auf DLSS bis heute kaum aufgeholt hat.
Ähm... ja... Da hast du andere Vergleiche gesehen, als 90% der Gamer...

FSR1 war besser als DLSS1.... letzteres war einfach Mist.
DLSS2 war dann schon deutlich besser und ab 2.0 kam AMD auch nicht mehr an die Bildqualität ran.

Das ändert dennoch nix daran, dass die Behauptung "DLSS ist 2 Generationen älter" vollkommener BS ist...
Nichts anderes hab ich gesagt.
DLSS ist besser... aber nicht 2 Generationen älter.
Hab ich was verpasst? Ich meine mich recht deutlich erinnern zu können, dass es seitens AMD so kommuniziert wurde, dass FSR4 nur auf RDNA 4 laufen können wird...

Man kann damit rechnen, dass FSR4 nur auf den Karten laufen wird, die eigene KI Kerne besitzen, und Upscaling nicht nur über die ROPs machen können.
Bei den RX 7900ern sind KI Kerne vorhanden.,. sie werden aktuell allerdings nicht wirklich genutzt
 
Ähm... ja... Da hast du andere Vergleiche gesehen, als 90% der Gamer...

FSR1 war besser als DLSS1.... letzteres war einfach Mist.
DLSS2 war dann schon deutlich besser und ab 2.0 kam AMD auch nicht mehr an die Bildqualität ran.

Das ändert dennoch nix daran, dass die Behauptung "DLSS ist 2 Generationen älter" vollkommener BS ist...
Nichts anderes hab ich gesagt.
DLSS ist besser... aber nicht 2 Generationen älter.
Das wäre dann ja noch schlimmer, wenn sie mit FSR1 so viel besser als DLSS1 gewesen sein sollen, dann innerhalb einer Generation so dermaßen ins Hintertreffen zu geraten … Finde dazu aber keine Videos, die belegen, dass FSR je mit DLSS den Boden gewischt haben soll.

Jedenfalls, wenn man den ersten FSR4-Präsentationen am Beispiel Ratchet & Clank Glauben schenken darf, und davon gehe ich aus, reichen sie mit FSR4 dann endlich mal an DLSS3 heran. Dann ist es nunmehr nur noch eine Generation die sie zurückliegen … was ja schonmal ein Fortschritt ist.
 
Zurück