Für Playstation 5? Patentantrag weckt Erinnerungen an Nvidias DLSS

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Für Playstation 5? Patentantrag weckt Erinnerungen an Nvidias DLSS

Ein Patentantrag von Sony weckt Erinnerungen an Nvidias DLSS, wo eine Künstliche Intelligenz mit extrem hochauflösenden Bildern trainiert wird, um Games optisch aufzuwerten. Ein solches Verfahren könnte in der Playstation 5 Einzug halten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Für Playstation 5? Patentantrag weckt Erinnerungen an Nvidias DLSS
 
Ich kann mir nicht vorstellen dass man jetzt so schnell eine (gleichwertige) Antwort auf DLSS (2.0) hat, aber es wäre ja schon toll wenn man sich zumindest annähert. Gerade auf Konsolen und der Low- bis Midend-Hardware (wenn Ampere erscheint) wäre so ein gutes Upscaling goldwert! Man stelle sich vor: JEDES zukünftige Sony-Exclusive in 4K Qualität (Minimum!) und 60fps! Das wäre DER Hammer..
 
Wenn auch nur ein nativer Mittelgroßer 3D PS5 Titel, 120fps in 4k schafft fliege ich nach Tokio, stelle mich nackt vor Sonys Firmenzentrale und offeriere den Konzerncheffen meinen Körper als Ersatzteilspender.
Danke für den Lacher! Ich hab mal einen Screenshot davon gemacht. Wer weiß ob man den nicht irgendwann mal brauchen kann. :ugly:

Dabei geht es um ein Verfahren, das mittels Machine Learning und Referenzbildern neue Daten generiert, die letztlich dafür genutzt werden können, das eigentliche Objekt darzustellen. Man könnte dieses Verfahren also durchaus einsetzen, um eigentlich nicht vorhandene Bildinhalte zu ergänzen. So wird bei Nvidias Deep-Learning-Super-Sampling ein neuronales Netzwerk mit hochauflösenden beziehungsweise bestmöglich geglätteten Bildern trainiert, bis es ein Verständnis für die optimale Grafik entwickelt hat. Im Spiel wird dann in Echtzeit das (in niedrigerer Auflösung gerenderte) Bild um die erlernten Details ergänzt.
Diese Art von Technologie bei einer Spielkonsole zu haben wäre wirklich super. Mal eine Verständnisfrage: Bei DLSS ist es doch so, das der KI-Algorithmus von Nvidia selbst mit Hilfe von Screenshots angelernt wird, oder? Wäre es denn technisch machbar, das der User hier quasi mithelfen könnte, indem er automatisch generierte Screenshots von seinen Spielpartien zur Verfügung stellt? :huh:
 
Diese Art von Technologie bei einer Spielkonsole zu haben wäre wirklich super. Mal eine Verständnisfrage: Bei DLSS ist es doch so, das der KI-Algorithmus von Nvidia selbst mit Hilfe von Screenshots angelernt wird, oder? Wäre es denn technisch machbar, das der User hier quasi mithelfen könnte, indem er automatisch generierte Screenshots von seinen Spielpartien zur Verfügung stellt? :huh:

Hm, war es nicht so, dass Nvidia dafür extrem hoch aufgelöste Bilder (16K und ähnliches) verwendet? Kann mich auch irren, aber irgendwie war mir so und dann wird das vermutlich schwierig. ;):D
 
Diese Art von Technologie bei einer Spielkonsole zu haben wäre wirklich super. Mal eine Verständnisfrage: Bei DLSS ist es doch so, das der KI-Algorithmus von Nvidia selbst mit Hilfe von Screenshots angelernt wird, oder? Wäre es denn technisch machbar, das der User hier quasi mithelfen könnte, indem er automatisch generierte Screenshots von seinen Spielpartien zur Verfügung stellt? :huh:

DLSS ist leider nVidia exklusiv. Zumindest auf der Xbox Series X wird man mit DirectML etwas recht ähnliches/gleichwertiges wie DLSS haben. Sony setzt evtl. auf Checkerboarding, was sich ja einigermassen bewährt hat. Das Patent klingt aber auch spannend!
 
Diese Art von Technologie bei einer Spielkonsole zu haben wäre wirklich super. Mal eine Verständnisfrage: Bei DLSS ist es doch so, das der KI-Algorithmus von Nvidia selbst mit Hilfe von Screenshots angelernt wird, oder? Wäre es denn technisch machbar, das der User hier quasi mithelfen könnte, indem er automatisch generierte Screenshots von seinen Spielpartien zur Verfügung stellt? :huh:

Wäre ein cooler Ansatz aber ich bezweifel dass das funktionieren wird. Die KI muss ja auf etwas hinoptimieren und ohne hochaufgelöste Referenz wird es schwer. Spielszenen varrieren wodurch auch die Referenz immer neu gewählt werden müsste. Auch das Bildmaterial selbst kann nicht beliebig zugeführt werden, du willst ja normalerweise, dass die KI alle Bilder gut optimiert und nicht nur Teile einer Szene.
 
Ich schätze MS war/ist clever genug so eine Technologie schon in einem kommenden DX12 Release vorzumerken und so eigentlich propertiäre Technologien quasi zu öffnen. Mich würde wundern, wenn so ein Patent an Nvidia vorbei durchgehen sollte bzw. die es noch nicht selber haben schützen lassen.
 
DLSS ist leider nVidia exklusiv. Zumindest auf der Xbox Series X wird man mit DirectML etwas recht ähnliches/gleichwertiges wie DLSS haben. Sony setzt evtl. auf Checkerboarding, was sich ja einigermassen bewährt hat. Das Patent klingt aber auch spannend!

Danke für den Hinweis auf [FONT=&quot]DirectML [/FONT]:daumen: Ist an mir genau wie DLSS 2.0 völlig vorbei gegangen. Klingt auf dem Papier und den ersten öffentlichen Bildern von MS ja sehr ähnlich wie DLSS. Die Frage ist eben wie berechnet der SOC das Feature.
Weißt du da mehr? Sollte [FONT=&quot]DirectML ähnliche Ergebnisse wie DLSS erzielen wäre die Konsole ja noch stärker als sie so schon ist [/FONT]:devil:
 
AMD sollte man nicht unterschätzen, im Vergleich zu früher sind Techniken wie Radeon Image Sharpening und FidelityFX bereits recht gut. Da kann man mit vertretbaren Qualitätsverlusten in 4k (bei niedrigerer Renderauflösung) recht angenehm spielen. Bei den Konsolen gibt es sicherlich noch Optimierungen. DLSS wurde anfangs auch nicht über die Tensorkerne berechnet, das bekommt dann AMD sicher auch gelöst bei gleichzeitig ordentlicher Qualität.

Naja, wie auch immer, ich bin optimistisch das auf einer PS 5 oder Xbox Series X die Grafik in 4k überzeugen kann und auch spürbar bessere Bildraten ermöglicht. Dazu noch eine erheblich schnellere CPU... was soll da noch schief gehen :D
 
Danke für den Hinweis auf [FONT="]DirectML [/FONT]:daumen: Ist an mir genau wie DLSS 2.0 völlig vorbei gegangen. Klingt auf dem Papier und den ersten öffentlichen Bildern von MS ja sehr ähnlich wie DLSS. Die Frage ist eben wie berechnet der SOC das Feature.
Weißt du da mehr? Sollte [COLOR=#212121][FONT="]DirectML ähnliche Ergebnisse wie DLSS erzielen wäre die Konsole ja noch stärker als sie so schon ist [/FONT]
:devil:

Ich habe mich in dieses Thema auch nur kurz eingelesen. DirectML ist ja ein DirectX12 Ultimate Feature. Und Direct X 12 Ultimate wird nur von der Series X und den kompatiblen PC GPUs unterstützt. Anscheinend ist es eine richtig gute DirectX Version, DirectML aber am Ende auch "nur" Softwarebasiert. DLSS ist ja so wie ich das verstehe Hardware basiert.

Die Rechenleistung der Series X ist sicher ausreichend dafür. Wie und ob es umgesetzt wird ist wieder was anderes. Wenn das Ding aber hält was es verspricht, dann ist das schon was ganz gutes.
 
Zuletzt bearbeitet:
4K, bis zu 120 Fps, Raytracing und gleichzeitig noch diverse optische Neuerungen?
Es ist doch sowieso vollkommen unrealistisch, gerade grafisch anspruchsvolle AAA-Titel in der Form darzustellen. Was das angeht, gehe ich von nativem 4K, 30fps aus, wenn RT zugeschaltet ist. Ich denke, es wird auch ein Performance-Modus ohne RT angeboten.
 
Also Microsoft hat seinen Trick ja schon präsentiert. Sie bringen wieder Xbox 360 Gamegrafik einfach auf 4K hochskaliert, siehe Halo Infinite. Ich meine ist das deren Ernst? Selbst GTA4 auf der PS3 sah was Fernsicht anbelangt besser aus und auch die Gesamtgrafik hinkt hinter dem her, was wir bereits mit Crysis 1 zu sehen bekamen. Bei den Waffen hat man das Gefühl sie hätten die Texturen vergessen.
Microsoft sollte wirklich die kommenden Games nur noch auf Xbox One X und Series X anbieten und die alte Xbox One die schon am Tag 1 leistungstechnisch veraltet war, fallen lassen! Allen voran wenn das Resultat Grafik von 10 Jahren ist, wenn man die Kompatiblität Aufrecht erhalten muss.
 
Wenn auch nur ein nativer Mittelgroßer 3D PS5 Titel, 120fps in 4k schafft fliege ich nach Tokio, stelle mich nackt vor Sonys Firmenzentrale und offeriere den Konzerncheffen meinen Körper als Ersatzteilspender.

Da ich mit meiner Hardware Doom Eternal nativ in 4K mit über 120Fps spielen kann würde ich mal behaupten, dass Du Dir schon ein Mal ein Ticket nach Japan kaufen kannst. :ugly:
Das sollte mit der PS5 auch möglich sein, sofern die Engine gut an die Low-Lewel-API angepasst ist.
 
Also Microsoft hat seinen Trick ja schon präsentiert. Sie bringen wieder Xbox 360 Gamegrafik einfach auf 4K hochskaliert, siehe Halo Infinite.

Keine Ahnung was die Aussage soll.

Halo Infinite läuft mit nativen 4K 60 fps - genau das ist ja der Grund warum es so mies aussieht.
 
Anscheinend ist es eine richtig gute DirectX Version, DirectML aber am Ende auch "nur" Softwarebasiert. DLSS ist ja so wie ich das verstehe Hardware basiert.

Die Rechenleistung der Series X ist sicher ausreichend dafür. Wie und ob es umgesetzt wird ist wieder was anderes. Wenn das Ding aber hält was es verspricht, dann ist das schon was ganz gutes.
DirectML ist nur eine API. DLSS dagegen ein konkretes Netz welches man theoretisch auch via DirectML berechnen könnte. NV kann da bei passendem Eingangsformat wieder hinten ihre Tensorkerne dran hängen, AMD dagegen vorerst nur die normalen ALUs. Was so oder so fehlt ist aber das Antialiasing Netz selbst. Darauf hat NV bis jetzt noch das Monopol.

Zum Thema HW-Unterstützung zitiere ich mich Mal selbst:
Die Tensor Cores in den Turing Karten sind schon spezialisierte KI Cores. Wenn man da in der Leistung/Watt mitgehen will muss man auch spezialisierte Einheiten nehmen. Ansich Inferencing berechnen kann eine CPU natürlich. Eine CPU kann "alles" berechnen z.B. auch 3D Grafik alleine. Ist halt nur nicht besonders schnell.
Was aber bis jetzt anscheinend keiner ausserhalb von NV weiß ist wie stark DLSS die Tensor Cores überhaupt auslastet. Unter Umständen sind die Netze garnicht soo schlimm und man könnte die auch ohne große Leistungsverluste auf den GP-ALUs auswerten.
 
Zurück