News Playstation 5 Pro: Technische Details zur Konsole angeblich bestätigt

Naja darüber kann man streiten, wenn man auf einmal Dinge sieht die vorher gar nicht da sind auch nicht im Original.
Beschreibt aber die Funktionsweise immer noch nicht richtig. DLSS zeigt nicht auf magische Weise Dinge die vorher nicht da waren. Es sind temporale Upscaler die Bildinformationen aus vorherigen Frames "speichern" und sie einfügen. Also die Bildinformationen waren vorher da und werden wiederverwendet. Eben wie es TAA auch macht aber halt besser weil mehr Frames hergenommen und genauer vdrarbeitet werden. Deswegen hast bei guter Implementierung auch nicht 5 geisterhafte Umrisse von Rennwagen hinter sich herziehen sondern nur 2 oder 3.

In vielen Games ist deswegen DLSS und Co tatsächlich etwas detailierter und hat weniger Artefakte als höhere Renderauflösung mit TAA. Letzteres macht das mehr an Pixel eben unbrauchbarer weil es Bildschärfe kostet.

Bild setzt sich so oder so immer aus unterschiedlichen Skalierungsstufen zusammen. Eh nie alles Nativ. Glaubt ihr Holzkiste im Wichter die 15m weg steht hat volle Detsilstufe zu jeder Zeit? Post Effekte die verschiedene Auflösungsstufen haben. Siehe allein Nothlight Engine von Alan Wake 2 usw.

Videospielgrafik ist nicht wie Abtastung von alten Analogfilm in 4k. Wir sehen also immer ein Gesamtmischung aus Auflösungsstufen die der Entwickler in verschiedenen Presets zusammengestellt hat. Sowas ist eh "künstlich" so dass auch Upscaling nicht plötzlich was daran verändert. Letzten Endes muss einem das Bild gefallen. Aus dem Grund können auch Millionen auf Konsolen mit niedrigeren Einstellungen zocken als der High End PC liefert. Wenn der Unterschied für einem persönlich nicht so groß erscheint warum dann alles mit Power erschlagen wollen wo man locker 600W verballern kann?
Es geht also viel mehr um Effizenz oder die Wahl Rendrauflösung gegen mehr Effekte zu tauschen wie es halt dem Gesamtergebnis zuträglich ist.
 
Zuletzt bearbeitet:
wie Blackout schon schrieb - eigentlich gibts bisher kaum Spiele für die PS5 die gerechtfertigt im CPU Limit sind. Selbst Dragons Dogma 2 was ganz schön aussieht bisweilen zeigt eigentlich nichts was so einen großen CPU Hunger rechtfertigt..

Was Ravion mit dem FG meinte macht ja Sinn , nur hab ich bisher nicht gewusst das dies in PSSR dabei sein soll - gab es da einen neuen Leak?
 
wie Blackout schon schrieb - eigentlich gibts bisher kaum Spiele für die PS5 die gerechtfertigt im CPU Limit sind. Selbst Dragons Dogma 2 was ganz schön aussieht bisweilen zeigt eigentlich nichts was so einen großen CPU Hunger rechtfertigt..

Was Ravion mit dem FG meinte macht ja Sinn , nur hab ich bisher nicht gewusst das dies in PSSR dabei sein soll - gab es da einen neuen Leak?
Ich glaub dazu gibts keine Leaks, aber ich halte es für logisch.
Und selbst wenn nicht, PSSR wird sicher mit FSR FG kombinierbar sein, DLSS ist das ja mittlerweile auch.
 
Beschreibt aber die Funktionsweise immer noch nicht richtig. DLSS zeigt nicht auf magische Weise Dinge die vorher nicht da waren. Es sind temporale Upscaler die Bildinformationen aus vorherigen Frames "speichern" und sie einfügen. Also die Bildinformationen waren vorher da und werden wiederverwendet. Eben wie es TAA auch macht aber halt besser weil mehr Frames hergenommen und genauer vdrarbeitet werden. Deswegen hast bei guter Implementierung auch nicht 5 geisterhafte Umrisse von Rennwagen hinter sich herziehen sondern nur 2 oder 3.
Technisch gesehen schon, legt man die native Auflösung zu Grunde. Es werden ja nur, anhand von trainierten Beispielen, Elemente angezeigt, wo DLSS "annimmt" das sie da sein müssen. Künstlerisch gesehen gibt man da ein bisschen die Kontrolle aus der Hand, ähnlich den KI FUnktionen bei Samsung, die die Bilder optimieren. Sieht super aus ist dann aber nicht mehr Original. Und gestalterisch als auch technisch gilt das Hinzufügen von Informationen die vorher nicht da waren als verlustbehaftet. Nicht verlustbehaftet wäre Downsampling, da dort "tatsächliche" Informationen verarbeitet werden und keine, siehe oben, Angenommenen.
In vielen Games ist deswegen DLSS und Co tatsächlich etwas detailierter und hat weniger Artefakte als höhere Renderauflösung mit TAA. Letzteres macht das mehr an Pixel eben unbrauchbarer weil es Bildschärfe kostet.
Was genau meinst du mit Artefakte?
Bild setzt sich so oder so immer aus unterschiedlichen Skalierungsstufen zusammen. Eh nie alles Nativ. Glaubt ihr Holzkiste im Wichter die 15m weg steht hat volle Detsilstufe zu jeder Zeit? Post Effekte die verschiedene Auflösungsstufen haben. Siehe allein Nothlight Engine von Alan Wake 2 usw.
Ja das stimmt, die Objekte liegen aber in der hohen Auflösung vor, die dann dargestellt wird, wenn man davor steht. Was man in der Entfernung nicht sieht, muss man natürlich nicht darstellen.
Videospielgrafik ist nicht wie Abtastung von alten Analogfilm in 4k. Wir sehen also immer ein Gesamtmischung aus Auflösungsstufen die der Entwickler in verschiedenen Presets zusammengestellt hat. Sowas ist eh "künstlich" so dass auch Upscaling nicht plötzlich was daran verändert. Letzten Endes muss einem das Bild gefallen. Aus dem Grund können auch Millionen auf Konsolen mit niedrigeren Einstellungen zocken als der High End PC liefert. Wenn der Unterschied für einem persönlich nicht so groß erscheint warum dann alles mit Power erschlagen wollen wo man locker 600W verballern kann?
Es geht also viel mehr um Effizenz oder die Wahl Rendrauflösung gegen mehr Effekte zu tauschen wie es halt dem Gesamtergebnis zuträglich ist.
Ja genau, es muss gefallen und mir persönlich gefällt es eben nicht, wenn durch post-Prozessing das Bild verändert und die Latenz verschlechtert wird, bzw. der Input-Lag. Und glaube mir, steht die Hardware zur Verfügung, braucht man es einfach nicht, wozu auch. Dann ist in jedem Fall Downsampling vorzuziehen, wenn überhaupt, schließen könnte man mit 8k auf entsprechenden Bildschirmgrößen die Pixeldichte so erhöhen, dass man keine Treppchen und Flimmern mehr wahrnimmt.

MfG
 
Es werden ja nur, anhand von trainierten Beispielen, Elemente angezeigt, wo DLSS "annimmt" das sie da sein müssen.
Nein, das stimmt nicht. DLSS "nimmt nicht an", DLSS zeigt das an was da ist, aufgrund der begrenzten Auflösung aber im Pixelmatsch untergeht. Du solltest dich ganz dringend informieren wie temporale Upscaler, zu denen auch TAA zählt, funktionieren bevor du immer wieder dieselben falschen Behauptungen in den Raum stellst ;)
Künstlerisch gesehen gibt man da ein bisschen die Kontrolle aus der Hand
Nein tut man nicht, es ändert sich nichts.
ähnlich den KI FUnktionen bei Samsung, die die Bilder optimieren.
Nein, die funktionieren komplett anders. DLSS hat damit absolut gar nichts gemein.
 
Zuletzt bearbeitet:
Nein, das stimmt nicht. DLSS "nimmt nicht an", DLSS zeigt das an was da ist, aufgrund der begrenzten Auflösung aber im Pixelmatsch untergeht. Du solltest dich ganz dringend informieren wie temporale Upscaler, zu denen auch TAA zählt, funktionieren bevor du immer wieder dieselben falschen Behauptungen in den Raum stellst ;)

Nein tut man nicht, es ändert sich nichts.

Nein, die funktionieren komplett anders. DLSS hat damit absolut gar nichts gemein.
Nein, das steht in keinem Widerspruch zu dem was ich schrieb.
"Damit die KI aber überhaupt weiß, wie sie die entsprechenden Spielszenen hochskalieren muss, um sie möglichst gut aussehen zu lassen, muss der Algorithmus erst „angelernt“ werden. Deshalb wird das Netzwerk mit einer großen Menge an hochaufgelösten Bildern gefüttert. Erst mit diesen Daten wird die Echtzeitberechnung auf eurem PC ermöglicht."

Antrainierte Informationen die nach Annahme den hochzuskalierenden Informationen entsprechen aber nicht in jedem Fall müssen. Nichts anderes habe ich geschrieben, du kannst dein ewiges personenbezogenes Dagegengerede also ruhig sparen. :daumen:

MfG
 
Nein, das steht in keinem Widerspruch zu dem was ich schrieb.
Doch steht es.
"Damit die KI aber überhaupt weiß, wie sie die entsprechenden Spielszenen hochskalieren muss, um sie möglichst gut aussehen zu lassen, muss der Algorithmus erst „angelernt“ werden. Deshalb wird das Netzwerk mit einer großen Menge an hochaufgelösten Bildern gefüttert. Erst mit diesen Daten wird die Echtzeitberechnung auf eurem PC ermöglicht."
Die GPU führt auch bei DLSS keine "KI" oder irgendwelche KI Berechnungen aus. Das einzige was bei DLSS per KI erstellt wird ist der Algorithmus. Dieser Algorithmus fügt aber nichts hinzu oder verändert irgendwas, sondern macht, mit Hilfe vorangegangener Frames, sichtbar was ansonsten aufgrund der geringen Auflösung nicht sichtbar ist.

TAA, FSR2, TSR bzw. jede moderne temporale Kantenglättungs-Methode funktioniert genauso. Der einzig Unterschied ist die Methode wie der Algorithmus erzeugt wird.
Antrainierte Informationen die nach Annahme den hochzuskalierenden Informationen entsprechen aber nicht in jedem Fall müssen. Nichts anderes habe ich geschrieben,
Nein, wie oben beschrieben stimmt das schlicht nicht. Es wird nichts angenommen. Es wird das angezeigt was da ist.
 
Doch steht es.

Die GPU führt auch bei DLSS keine "KI" oder irgendwelche KI Berechnungen aus. Das einzige was bei DLSS per KI erstellt wird ist der Algorithmus. Dieser Algorithmus fügt aber nichts hinzu oder verändert irgendwas, sondern macht, mit Hilfe vorangegangener Frames, sichtbar was ansonsten aufgrund der geringen Auflösung nicht sichtbar ist.
Das Zitat stammt nicht von mir.
Nein, wie oben beschrieben stimmt das schlicht nicht. Es wird nichts angenommen. Es wird das angezeigt was da ist.
Also, wenn man etwas hochskalliert und es hinzufügt, was in geringeren Auflösungen nicht zu sehen ist, dann wird also nichts angezeigt, was nicht da ist?

Ok...

Zum Thema Samsung Beispiel. Das funktioniert durchaus ähnlich. Man Fotografietr den Mond. Technik bedingt kann man das mit einem Handy, aufgrund der Kontrastverhältnisse und des Rauschens, nicht so gut und die KI erkennt das, da antrainiert und gleicht genau diese fehlerhaften Informationen aus, bzw. setzt welche wo in dem Original eigentlich keine sind und das ist aus technischer Sicht dann eben kein Original mehr, bzw. verlustbehaftet, da Informationen hinzugefügt werden wo keine sind. DLSS weiß durch das Antrainieren das da welche sein müssen, skaliert niedrige Auflösungen hoch und setzt entsprechende antrainierte Informationen genau für diese Skalierung um.

Dazu auch noch einmal unterstützend eine Definition von Gamestar.:
Für diese Hochrechnung des Bildes hat Nvidia seine KI-Algorithmen mit einem neuronalen Netz trainiert. Im Grunde genommen wird eine künstliche Intelligenz mit Spielbildern gefüttert, um abzuschätzen, welche Details die KI dem Bild mit niedriger Auflösung hinzufügen muss, damit es wie ein Bild mit höherer Auflösung aussieht.

Entspricht genau dem, was ich weiter oben schrieb.

MfG
 
Zuletzt bearbeitet:
OK, wir machen es mal anders herum. Kannst du mir ein einziges Beispiel zeigen in denen DLSS Super Resolution auch nur eine einzige Information hinzudichtet die nicht da sein sollte?
 
OK, wir machen es mal anders herum. Kannst du mir ein einziges Beispiel zeigen in denen DLSS Super Resolution auch nur eine einzige Information hinzudichtet die nicht da sein sollte?
Was soll ich dir da zeigen, du hast es ja selber geschrieben, dass Bildinformationen hinzugefügt werden aus einer kleinen Auflösung heraus in eine höhere Auflösung.

MfG
 
Es werden Informationen wie die korrekten Linien bei Zaun oder Stromleitung hinzugefügt die TAA löchrig anzeigt oder native 4k ohne AA total ausgefranst oder es flimmert.

Da kommen keine bunten Linien hinzu oder plötzlich Einhörner.

Es geht viel mehr um die verlorenen Bildinformatiinen wo TAA versagt und um eine bessere Kantenglättung.

Temportale Ghosting durch falsche Vektorinformatiinen wurde mit neueren DLSS Versiinen weitesgehend eleminiert.
Mit denen kämpft aber TAA weiterhin und macht Bild zudem weit unschärfer als Nativ. Natürlich kann man Schärfe auch bei DLSS oder FSR übeftreiben wenn Werte zu hoch angesetzt und keine Regelung per Software möglich ist.

Wurde aber durch Raff oddr Wolfgsng von CB mehrfach aufgezeigt dass Upscaling tatsächlich in mehreren Bildbereichen besser ausen kann als TAA bei 2160p. Letzteres kann durch weniger Frames bri feinen Linien versagen und das Bild unruhiger machen.
Zich Spieletest nachzulesen.

Anstatt Upscaling zu verurteilen sollte man es von Game zu Game eben genau betrachten.
Gesamtergebnis kann aber muss nicht immer besser sein. Wenn Unterschied nur durch 1:1 Vergleich in paar Bereichen auffällt warum dann unnötig Leistung für höhere Auflösung verballern?

Da sind fehlende Bildinformatiinen durch 30fps viel schwerwiegender in Bewegung. Kann mir Keiner erzählen dass es bei 4k/30fps bei Kameradrehung mehr Bilddetails sieht als 1440p/DLSS/60fps.
Fakt dass das Bild bei 30fps mehr verschwimmt und ruckelt womit Details verloren gehen oder es mit starken Bewegungsunschärfe kaschiert werden muss.
 
Interessant ist ja nur, auf welchem Level PSSR agieren kann. Reden wir hier von einem Level auf DLSS Niveau (sagen wir in Version 2), oder von FSR3?

In dem damals geleakten Bild wurde anhand von Ratchet und Clanc lediglich PSSR mit FSR2 verglichen.
 
Auch wenn das Verhältnis bisher eher 70% zu 30% für DLSS ausfällt gibt es paar Games wo FSR sogar besser gefallen kann oder zumindest gleichauf ist. Uncharted 4 z.B. sah FSR 2 etwas besser aus weil DLSS zu überschärft eingestellt war.

Sony wird es ja zumindest bei der festen Hardwarekonfiguration besser abstimmen können. Insomniac eigenes TAAU sieht in R&C und Spiderman bei 1440p Upscaling schon sehr ordentlich aus. Zumindest hat man wenigef die übliche norkale TAA Unschärfe im Bild. Dürfte neue Verfahren wohl sogar etwas besser sein was die Studios rausholen.

Wenn Playstation Version häufig Leadplattform bei der Entwicklung bleibt werden Entwickler es vielleicht eher nutzen als sich auf zwei Verfahren in der PC Welt zu konzentrieren. Im Grunde sollte jede temporale Lösung sich schnell umsetzen lassen. Sieht ja wie schnell Modder DLSS in only FSR Games bekommen wie umgekehrt auch.
 
Interessant ist ja nur, auf welchem Level PSSR agieren kann. Reden wir hier von einem Level auf DLSS Niveau (sagen wir in Version 2), oder von FSR3?
Wenn man das Ganze realistisch sieht wird man kaum vom Start Weg auf dem Niveau von DLSS Super Resolution ist, dafür ist zeitliche Vorteil für Nvidia zu groß.

Aber das ist auch gar nicht erforderlich. Es würde ja schon reichen nur 70 bis 80% zu erreichen. Damit wäre man immer noch besser als jeder andere Upscaler auf den Konsolen. Einzig TSR wäre dann ein echter Konkurrent, allerdings weiß ich gar nicht ob der überhaupt schon mal auf der PS5 zum Einsatz kam.
 
Zurück