News PS6 und "Xbox Next": Bisher größter Leistungssprung durch maschinelles Lernen?

PCGH-Redaktion

Kommentar-System
Teammitglied
Für die nächste Konsolengeneration in Form von Sonys Playstation 6 und Microsofts neuer Xbox ist laut einem Bericht zu erwarten, dass sie große Vorteile aus maschinellem Lernen (ML) ziehen.

Was sagt die PCGH-X-Community zu PS6 und "Xbox Next": Bisher größter Leistungssprung durch maschinelles Lernen?

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Bei dem was sie zuletzt beworben haben 4k/120FPS reicht es einfach nicht zu sagen jetzt macht sie wirklich 4K/60FPS. Das wäre gefühlt ein Rückschritt. Wenn man jetzt sagen würde sie hätte grundsätzlich nie weniger als 4k/60FPS und dabei dauerhaft eingeschaltetes Raytracing ohne die Details aktueller Spiele zu unterschreiten, wäre das ein Fortschritt, wenn auch vielleicht nicht so viel wie man bei den Worten "den bisher größten Generationssprung überhaupt" eigentlich erwarten würde.
 
Framerate und Auflösung als Ziel zu definieren ist Unsinn, hat man bei der PS5 und Series X auch gemacht, und mittlerweile kommen Spiele deren interne Auflösung lediglich bei 720P liegt.
In Zeiten von KI Upscaling ist die Pixelmenge ohnehin nicht mehr der einzige relevant Faktor für die Bildqualität.
 
Ich hab generell nichts gegen Konsolen, aber die sollen die auch mal vernünftig ausstatten und nicht überall den Rotstift ansetzen.
 
Framerate und Auflösung als Ziel zu definieren ist Unsinn, hat man bei der PS5 und Series X auch gemacht, und mittlerweile kommen Spiele deren interne Auflösung lediglich bei 720P liegt.
In Zeiten von KI Upscaling ist die Pixelmenge ohnehin nicht mehr der einzige relevant Faktor für die Bildqualität.
Genau das! Deshalb irritiert mich die angegebene Zielauflösung 4k. Mit dem Upscaling Verfahren wird ja mit Sicherheit nicht bei Native 4k angesetzt, sondern von einer tieferliegenden Auflösung hochskaliert. Ist zwar jetzt auch in meinen Augen Haarspalterei, da ich persönlich nahezu keinen optischen Unterschied zwischen native UHD und DLSS Qualität in Zielauflösung UHD feststellen kann, aber nichtsdestotrotz ist es kein native 4k/UHD.
 
aber nichtsdestotrotz ist es kein native 4k/UHD.
Das ist aber, wenn man ehrlich ist, auch Definitionssache. Moderne Upscaler nutzen Bildinformationen aus vorangegangenen Frames, dadurch stehen effektiv mehr Bildinformationen zur Verfügung als beim nativen Bild und dementsprechend sieht das Bild auch besser aus. DLSS heißt nicht ohne Grund Deep Learning Super Sampling und nicht Deep Learning Upscaling ^^

Dasselbe gilt ja auch schon für stinknormales TAA, nur das dort der Algorithmus um längen schlechter aus. Nativ komplett ohne irgendeine Form von Temporalen AA sieht grässlich aus und sollte auch nicht mehr das Ziel sein.

Dazu kommt noch dass auch bei vermeintlich nativer Darstellung ein Großteil der Effekte sowieso nicht in nativer Auflösung gerechnet wird, einfach weil die Rechenleistung dafür niemals reichen würde. Das betrifft RT genauso wie klassisches Rastering.
 
Das ist aber, wenn man ehrlich ist, auch Definitionssache. Moderne Upscaler nutzen Bildinformationen aus vorangegangenen Frames, dadurch stehen effektiv mehr Bildinformationen zur Verfügung als beim nativen Bild und dementsprechend sieht das Bild auch besser aus.
Aber die Angabe zur Auflösung bezieht sich ja de facto auf die Bildpunkte. Demnach ist die eigentliche native Auflösung ja niedriger und wird dann per deep learning auf die Zielauflösung mit Bildpunkten wieder versehen? oder wie läuft das im Konkreten ab?

Ich bin auf jeden Fall mega gespannt, auf Sonys "DLSS". Gerade im Vergleich wird es echt interessant, wie nah sie an DLSS kommen werden.
 
Aber die Angabe zur Auflösung bezieht sich ja de facto auf die Bildpunkte. Demnach ist die eigentliche native Auflösung ja niedriger und wird dann per deep learning auf die Zielauflösung mit Bildpunkten wieder versehen? oder wie läuft das im Konkreten ab?
Man könnte als native Auflösung natürlich einfach die Renderauflösung nehmen, die Frage ist nur ob das denn sinnvoll ist in Zeiten von Super Sampling. Dort rendert die Grafikkarte zwar in einer geringeren Auflösung, allerdings werden diverse vorhergehende Frames verrechnet (die genaue Anzahl weiß ich nicht, ich meine bei DLSS aber mal was im Bereich von 60 Bildern gehört zu haben) wodurch dann effektiv mehr Pixel zur Verfügung stehen als bei "nativer" Auflösung. Wie gut das dann am Ende aussieht ist vom Algorithmus abhängig und natürlich hat auch das Nachteile, allerdings hat die native Auflösung genauso Nachteile. Z.B. kann bei nativer Darstellung nichts dargestellt werden was durch das Pixelraster fällt, also Dinge wie z.B. sehr dünne Linien, während DLSS z.B. diese Dinge ohne Probleme darstellen kann. Dafür hat DLSS wiederum Probleme mit Ghosting. Quasi ohne Nachteile ist nur Downsampling, aber der Preis dafür sind brutale Hardware Anforderungen.

Ich persönlich würde also sagen der Begriff "native Auflösung" ist veraltet weil er in der heutigen Zeit was falsches suggeriert ^^
 
Zurück