News Nvidia DLSS 10: Vom KI-Upscaling zum vollständig neuralen Echtzeit-Rendering

Da denkst du falsch, die Grenze liegt sehr, sehr viel höher



Wenn du mir nicht glaubst und zu den Leuten gehörst, deren Badewanne oder Waschbecken weiß ist und du das ganze auch noch putzt, damit es nicht gelb aussieht, dann kannst du den Test machen. Nimm ein Haar und platziere es im Waschbecken oder der Badewanne. Das Haar ist weniger breit, als ein 8K Pixel, in einem 31,5" Monitor. Besonders wenn es ein dunkles Haar ist, wird dir auffallen, wie gut man es sieht. Nun geh zurück, bis das Haar nicht mehr zu erkennen ist. Du wirst etliche Meter zurückgehen müssen, wenn du gut sehen kannst wohl 5m oder mehr. Denk dran, das Haar ist weniger breit, als der 8K Pixel.

Bei solchen Problemfällen ist das Auge extrem empfindlich.



Dummerweise gehört der Treppenstufeneffekt zu genau diesen Problemfällen. Der wird dir auch noch bei 16K ins Auge stechen, wenn du normal sehen kannst, wenn auch nicht so extrem.

AA wird man immer benötigen, bzw. es wird immer Sinn ergeben.
"Sehe" ich ziemlich anders. :cool:
(achso, für Richtigdenker: "nein, ich glaube Dir nicht")

1.) sprechen wir nicht von einem 40" Weißbild mit einem schwarzen Einzelpixel (extremer schwarz-weiss Kontrast), sondern von komplett farbigen Szenen. Solche extremen Grenzwertbetrachtungen, wie du sie beschreibst hast du so gut wie nie in Film und Computer-Spiel. Zudem meist auch noch bewegt und nicht statisch.
Mach das doch mal mit nem braunen Haar auf grünem Grund - und selbst das wäre noch krass, weil Du solche Einzelszenen sehr selten im statischen Bild hast.

2.) Bei ähnlich farbigen angrenzenden Pixeln ist die Pixelgröße weniger das Problem sondern der feine Abstand unter den Pixeln der diese als voneiniander getrennt wahrnehmen lässt. Dadrauf hat man früher schon bei Lochmasken geachtet.

3.) Rechne mir das mal bitte vor. Es kommt schließlich nicht von ungefähr, dass 8k als Milestone und Grenzwert in der TV-Technologie angesehen werden (fast schon als Heiliger Gral - und hier verwende ich ausnahmsweise mal die Bezeichnung)

Dein Auge verfügt über Rezeptoren auf der Netzhaut, die die Lichtimpulse als Nervensignale ans Hirn leiten, wo das Signal verarbeitet und interpretiert wird. Diese Photorezeptoren ("Stäbchen" gennannt) haben eine gewisse Größe und Dichte - je nach Art. Im primären farbigen Sehfeld gröber aber dafür farbsensibel und fokusiertes Sehen, im periphären Sichtfeld dichter, aber dafür nur noch Graustufen und nicht fokusiertes Sehen.

"Das Auflösungsvermögen des Auges ist ein Maß für die Fähigkeit des Auges, räumlich und zeitlich benachbarte Reize zu trennen. Das räumliche Auflösungsvermögen ist über den Winkelabstand Δϕ definiert, den zwei Objektpunkte bezüglich der Pupillenmitte voneinander haben müssen, um zwei getrennte Lichtempfindungen hervorzurufen"
- also zwei Objekte überhaupt noch voieinander unterscheiden zu können.
"Es wird begrenzt durch die Beugung des Lichtes am Pupillenrand und die endliche Größe der Zapfen und deren Abstand in der Netzhaut (Beugung). Mit Δϕ = 1,22 · λ/d folgt bei Tageslicht mit einem Pupillendurchmesser d = 3 mm und einer Wellenlänge von λ = 550 nm eine Auflösungsgrenze von Δϕ = 48 ″ (zum Faktor 1,22 Beugung). Aufgrund seines Aufbaus sieht das menschliche Auge zwei Punkte nur dann getrennt, wenn sie unter einem Winkel von Δϕ > 1 erscheinen (bei einem Abstand von 25 cm müßten die beiden Punkte mindestens 0,04 mm voneinander entfernt sein)"
[Quelle: Lexikon der Physik, Spektrum Verlag]

Bin ich mal frech und skaliere das mal: also bei einem Sitzabstand von ~1m vom Monitor, wäre das dann ein Punktabstand von 0,16mm. Richtig? Richtig ...
Nehmen wir meine angesprochenes Optimum von Blickabstand = Monitorgröße wäre das 1m (~39,4 inch) Bilddiagonale.
Ich nehme mal 16:9 ... wäre also Horizonal ~87,2 cm (= 100cm / (16^2+9^2)^1/2 * 16).
Nun noch 8k Pixel (Horizontal bei 8k UHD 16:9, gelle? Oder nehmen wir mal extra für Dich die 7680 ), also 87,2 cm / 7680 = 0,01 cm je Pixel (oder in mm ~ 0,11mm je pixel).

Du kannst also ganz nah an den Monitor ranrutschen. Auch für einen Sitzabstand von 60cm zum Monitor bist du bei gleichbleibender Monitorgröße von oben (eigentlich müsstest Du ja nach meinem Ideal jetzt auch die Bildiagonale auf 60cm schrumpfen) immer noch "ganz nah dran", also 0,096mm Auflösungsvermögen vs. 0,11mm Pixelabstand.

Selbst auf 10cm Nähe wirst du keine Pixel mehr direkt nebeneinander unterscheiden können. Ich gehe aber mal davon aus, dass Du auf 10cm eh Probleme bekommst ab einem gewissen Alter, noch zu fokusieren (= scharf zu sehen)

Beinflusst auch stark die Wahrnehmung des von Dir angebrachten Treppenstufeneffekts.
Und Nein, AA wird man nicht "immer" benötigen. Auswirkungen deuten sich bereits heute an, indem Reviewer subjektiv berichten, dass bei 4k Aliasing garnicht mehr so stark stört, bzw. man garkein so hohes AA mehr braucht.

(Ähnlicher Effekt bei Screentearing, auf andere Weise: bei 500Hz ist das garnicht mehr so schlimm :heul: )

Der Punkt ist, dass man mit DLSS oder FSR und einer höheren Auflösung immer bessere Ergebnisse erreichen kann und auch noch mehr Leistung hat.

Nehmen wir einfach mal 32K nativ auf einem 31,5" Monitor. Statt nativ in 32K berechnet man das Bild in 20K und skaliert es dann auf 64K hoch und gibt es auf einem 64K Monitor aus. Das Ergebnis sieht, mit der Lupe, wesentlich besser aus und man hat auch noch mehr Leistung. Deshalb wird man mit Upscaling immer besser fahren, solange hochauflösendere Monitore zur Verfügung stehen.
Lupe? Wieso denn jetzt Lupe?!

Die ganze Argumentation mit Deiner Upscaling "Bildverbesserung" gilt außerdem immer nur für Rasterisierung.
Ich vermute mal, dass wenn du bei 20k und 32k ankommst, Du solch riesige Füllmengen an Bilddaten hast, dass irgendwann Raster zu unperformant wird und man tatsächlich auf Vektor und Raycasting usw. umschwenkt. Methoden, die jetzt noch zu kompliziert und aufwendig sind, spielen dann plötzlich ihre Stärken in der Skalierbarkeit aus.

Die Vektor-Diskussion läuft schon länger bei Schrift; weg von Raster-fonts, hin zu Vektro-fonts.

Weiß ja nicht, was Du so auf deinem Monitor den lieben langen Tag guckst, aber bei mir sind das keine schwarzen Schamhaare auf einer großen weißen Fläche (zumindest nicht über längere Zeiträume).
Aber die kannst Du Dir ja dann per DLSS schön-skalieren lassen (das kriegt die KI vermutlich auch noch ohne viel Ratefehler hin ... wobei, vielleicht "wundert" die sich, warum jemand einzelne Haare auf so ner großen Weißfläche anstarren wollen sollte und fängt an Wolkenmuster und Fell zu interpretieren) :lol:

Aber gut, dass Du richtig denkst... :daumen:
 
Zuletzt bearbeitet:
Und was ändert das? Die P6000 kann genauso wenig DLSS/FG wie deine RX 6800.
Bleibt also nur festzuhalten....Du hast keinen realen Bezug zu DLSS/FG und lehnst es erst einmal ab, da deine Hardware dazu nicht fähig ist.
Du hast überhaupt nicht den Kern seiner Aussage verstanden. Lies nochmal genau nach, was er eigentlich sagt.

6, setzen.
 
Da denkst du falsch, die Grenze liegt sehr, sehr viel höher



Wenn du mir nicht glaubst und zu den Leuten gehörst, deren Badewanne oder Waschbecken weiß ist und du das ganze auch noch putzt, damit es nicht gelb aussieht, dann kannst du den Test machen. Nimm ein Haar und platziere es im Waschbecken oder der Badewanne. Das Haar ist weniger breit, als ein 8K Pixel, in einem 31,5" Monitor. Besonders wenn es ein dunkles Haar ist, wird dir auffallen, wie gut man es sieht. Nun geh zurück, bis das Haar nicht mehr zu erkennen ist. Du wirst etliche Meter zurückgehen müssen, wenn du gut sehen kannst wohl 5m oder mehr. Denk dran, das Haar ist weniger breit, als der 8K Pixel.

Bei solchen Problemfällen ist das Auge extrem empfindlich.



Dummerweise gehört der Treppenstufeneffekt zu genau diesen Problemfällen. Der wird dir auch noch bei 16K ins Auge stechen, wenn du normal sehen kannst, wenn auch nicht so extrem.

AA wird man immer benötigen, bzw. es wird immer Sinn ergeben.



Der Punkt ist, dass man mit DLSS oder FSR und einer höheren Auflösung immer bessere Ergebnisse erreichen kann und auch noch mehr Leistung hat.

Nehmen wir einfach mal 32K nativ auf einem 31,5" Monitor. Statt nativ in 32K berechnet man das Bild in 20K und skaliert es dann auf 64K hoch und gibt es auf einem 64K Monitor aus. Das Ergebnis sieht, mit der Lupe, wesentlich besser aus und man hat auch noch mehr Leistung. Deshalb wird man mit Upscaling immer besser fahren, solange hochauflösendere Monitore zur Verfügung stehen.

Nur ist das nicht gerade praxisrelevant und eher ein theoretischer Extremfall.

Man soll ja niemals nie sagen und sicherlich gibt es Leute denen genau das auffällt und als unspielbar empfinden aber entwickelt wird eher für die Mehrheit.

Schon meine 1080Ti wurde damals mit 4k beworben aber erst die 4090 kann davon wirklich profitieren, bis dahin war WQHD und dafür hohe FPS eher der Sweetspot (kommt natürlich darauf an was man spielt aber ich spreche eben eher vom durchschnittlichen Spieler).
4k wird sich jetzt vielleicht endlich durchsetzen können aber schon das wird kein Spaziergang.
Man sieht es ja am Fernseher, die DVD ist immer noch beliebter als die Blu-ray und die UHD Blu-ray hat ohnehin nur eine kleine Nische bei Filmfans.
Jetzt wurden die zwar auch durch Streaming verdrängt aber das zeigt eher das den leuten die Qualität ausreicht, durch die starke Komprimierung ist ein 4k Stream auch nicht besser als eine BluRay die sich nichtmal gegenüber der DVD durchsetzen konnte. jetzt gibt es zwar 8k Fernseher aber bis 65" macht das kaum Sinn und ohnehin müsste erstmal der Content nachziehen was er aber nicht passiert weil kaum einer dafür den Aufpreis zahlen will.

Full HD wäre wahrscheinlich immer noch die Nummer 1 aber ein 4k Fernseher kostet schlicht kaum mehr und bietet mehr Auswahl an Geräten.
 
Du hast überhaupt nicht den Kern seiner Aussage verstanden. Lies nochmal genau nach, was er eigentlich sagt.
Nene...ich versteh schon. Wenn ich sowas lese...
FSR.png

keinerlei Ablehnung zum upscaling. Ich bin ich mir sicher, dass deine und seine Ausführungen ganz anders wären....wenn nur in der Überschrift der richtige Name stehen würde

AMD FSR 10: Vom KI-Upscaling zum vollständig neuralen Echtzeit-Rendering
 
Nene...ich versteh schon. Wenn ich sowas lese...
Anhang anzeigen 1438721
keinerlei Ablehnung zum upscaling. Ich bin ich mir sicher, dass deine und seine Ausführungen ganz anders wären....wenn nur in der Überschrift der richtige Name stehen würde

AMD FSR 10: Vom KI-Upscaling zum vollständig neuralen Echtzeit-Rendering

Du hast seine Nachricht und die davorgehende, auf die er sich bezieht, immer noch nicht wirklich gelesen und verstanden.

Du selbst hast Sidewinder fälschlicher Weise die Beurteilungskompetenz abgesprochen, weil er angeblich "nur" eine 6800 der Konkurrenz als Krafikkarte habe.

"Wie willst Du das mit einer RX 6800 überhaupt beurteilen? Zumindest auf meiner RX 6800 funktioniert DLSS/FG nicht." (Deine Worte)​

Worauf dieser erwiederte, dass es heute sehr weit verbreitet ist -vor allem in einem Techforum wie diesem hier- dass Leute über verschiedenste Hardware und mehr Rechner, als nur einem verfügen, ungeachtet davon, was man in der Fußzeile aufgeführt liest.
Zum Gegenbeweis der Ein-Rechner-Ideologie hat er die Antwort angeblich auf einem ganz anderen Gerät geschrieben.

Ihm ging es nicht darum, ob eine P6000 DLSS oder was kann.
Hier ging es um die Untermauerung der Mehrrechnerhypothese, dass Leute auf viele unterschiedliche Hardware Zugriff haben können und Du darum nicht von vornherein eine fehlende Beurteilungskompetenz unterstellen kannst.
Er könnte ja noch einen 3, 4 oder 5. Rechner haben, oder sein Bruder, Sohn/Tochter, Freunde, Arbeitgeber ...
Ich hab hier allein 6 Rechner stehen (glaub im Schrank liegt sogar noch ein Apple G4) und im Keller stehen auch noch zwei Geräte rum, davon ein Dell mit einer dedizierten Nvidia-Grafikkarte - wer hätte es gedacht. Und die Raspberry's, Arduinos, Smartphones und SteamDecks noch garnicht mitgezählt.
Woher willst Du wissen was andere alles besitzen oder Zugang zu haben?

Q.E.D.

Sag mal, bist Du jetzt nur angepienst, weil wir Dein geliebtes Nvidia nicht toll finden und DLSS (oder Upscaling allgemein) nicht für die gleiste Sache seit geschnitten Brot halten?

Wenn ich sowas lese...
Anhang anzeigen 1438721
keinerlei Ablehnung zum upscaling. Ich bin ich mir sicher, dass deine und seine Ausführungen ganz anders wären....wenn nur in der Überschrift der richtige Name stehen würde

AMD FSR 10: Vom KI-Upscaling zum vollständig neuralen Echtzeit-Rendering

Bist Du jetzt sauer, weil wir Upscaling nicht mögen?
Und du willst uns AMD-Fandom unterstellen, um deine Nvida-Begeisterung zu relativieren? Ist es das?

Um es vorwegzunehmen: ja, ich bevorzuge derzeit AMD gegenüber Nvidia aus verschiedenen anderen Überlegungen.
Finde ich AMD darum die Tollsten und Besten, die nichts falsch machen? Nein, ganz und garnicht - im Gegenteil stellen sie sich manchmal echt doof an.
Ich mag zum Beispiel die offenen Standards (egal ob sie die nun aus Überzeugung oder aus der Not heraus verfolgen).
Fände ich upscaling gut, wenn es proprietär von AMD käme und da nen tick hübscher aussehe, als bei Nvidia?
Nein, auch dann nicht.
Proprietär ist für mich der größte Punkt des Anstoßes. Der nächste ist Upscaling an sich: es ist eine Krücke, die ein paar Dinge eindrucksvoll macht und ein paar Sachen schlecht.

Nimm z.B. AA, für einen Moment, gleiches Problem im Kern: Treppeneffekt an Kanten stört - besonders wenn er in Bewegung flimmert. Also verwasche ich die Kante ... tadaaaa! Flimmern weg, Treppe nur noch schwer auszumachen ABER dafür jetzt leider unscharf. Ist AA nun die geilste Erfindung seit Feuer und muss sofort auf alles angewandt in ins unermessliche hochgetrieben werden?
Mir wäre lieber man würde das Treppchenproblem grundsätzlich und anders lösen - zB durch höhere Auflösungen allgemein. AA ist ein Pflaster. Kein gutes. Aber gut genug, wenn die Wunde ganz schlimm ist. Wann akzeptiere ich lieber ein bisschen Flimmern und scharfe Treppen-Kanten, und wann will ich lieber weniger Flimmern und tolleriere unscharfe Kanten?
Und so ist es mit Upscaling auch. Problem: hübscher für schlechter

Am Ende entscheidet man sich subjektiv für das für einen persönliche kleiner Übel. Darüber sollte man aber nicht vergessen und immer immer im Hinterkopf behalten, dass die angewandte Technik ein Pflaster ist, eine Trickserei und keine perfekte Allheillösung (genauso wenig, wie KI für alles eine Lösung ist).
 
Zuletzt bearbeitet:
Das aber in der heutigen zeit laut zu sagen ist doch schon fast Blasphemie. :rolleyes:
Ja, der KI-Hype ist abartig. Merke ich auch bei uns in der Firma.
KI dies, KI das. Jeder hat Angst was zu verpassen und später der Dumme zu sein, verstehen tut es keiner.

Das ist wie bei der .com-Bubble damals. "Du bist im Internet? Da nimm das Geld!"

Ich wette es gibt bald auch KI-Klopapier und KI-Zahnpasta...
 
Zurück