News Nvidia DLSS 10: Vom KI-Upscaling zum vollständig neuralen Echtzeit-Rendering

Aber aufm 6 Zoll Smartphonebildschirm sieht man das nicht mehr. PC-Gaming wird wie wir es kennen sterben. Ich bin froh von Anfang an das PC-Gaming miterlebt zu haben und leider auch den Untergang.

Microsoft sieht ebenso die Zukunft des Gamings in der Cloud für unterwegs aufm Smartphone= Todesstoß.
Der PC wird auf absehbare Zeit nicht sterben. Es geht nicht nur darum was die Konzerne wollen, die Kunden müssen es auch annehmen. Und das ist bei Cloudgaming so gar nicht der Fall, die Nachteile sind zu groß. Spätestens wenn wie aktuell die VOD Anbieter anfangen den Bogen zu überspannen, ist Ärger und Frust vorprogrammiert.

Was ebenfalls nicht funktioniert, ist das klassische Gaming per Cloud aufs Smartphone zu bringen. Ein Candy Crush & Co. mögen auf dem Smartphone gut funktionieren, nicht jedoch narrative Singleplayer Games mit vielen Stunden Spielzeit.
 
Upsampling ist kein Qualitätsverbesserungsverfahren sondern eine Sparmaßnahme.

Das mag uns derzeit noch nicht so bewusst werden, weil die "eratenen" höherauflösenden Bilder eine höhere Qualität vorgaukeln.
Bei den derzeit noch genutzten schlechteren Detailgraden (=Auflösungen. Also schlechter als die Grenze des mit dem Auge noch wahrnehmbaren; Auflösunge bei ~8K) erscheint uns Upsampling als hübscher und schärfer, als das native (auch immer noch) "detailarme" Bild.

Aber genaugenommen werden da mit KI Bilddetail-erate-Methoden entwickelt, die aus wenigen Informationen mehr eraten sollen.
Das geht halt nur in begrenztem Umfang gut und ist nur eingeschränkt sinnvoll. Es ist immer besser, die wahre vollständige Information zu haben, als eine lückenhafte, aus der man versuchte, das Gesamtbild zu erraten.
Bildverbesserung und Postprozessing haben dabei immer ein Stück weit ihre Berechtigung, da Computergrafik an sich aus Kompromissen und Simplifizierungen besteht.

Beispiel:
Text. Text kann man gut raten. Auch aus einem schlechten A kann ich immer noch ein A lesen. Hier nachzuschärfen ist logisch.
Aber mach das mal bei einem Kieselstein- oder Walboden, oder einem Ameisenhaufen aus einiger Entfernung...
Sitzt da eine Ameise, eintausend, ein Matschklumpen oder eine tote Maus?
Sobald die Intension und Zusammenhänge verloren gehen, kann man aus geringeren Details nicht mehr das volle Bild zusammensetzen.

Das ist so wie bei Tessellation. Wo ergibt es Sinn, wo nicht? Große gerade Flächen tausendfach fein zu tessellieren, die man mit 2 Polygonen darstellen könnte, ergibt absolut keinen Sinn. Genausowenig wie bei feinen Details in großer Entfernung (hat Nvidia aber übrigens gemacht)

Wenn ich einem Renderer Vektorgrafik gebe, braucht er garnichts erraten.
Da sag ich ihm genau, wo der Punkt sitzt, wie er den Kreis zu zeichnen hat und wie das Blümchenmuster drarauf zu generieren ist. Mathematisch korrekt, kein raten nötig.

Glaub, es wird irgendwann sinnvoller, der KI meine Szene zu geben und daraus mathemathisch optimiert Vektor-Informationen für den Renderer umwandeln zu lassen, anstatt getrickste Rastergrafik im Nachgang aufhübschen zu lassen.
 
Zuletzt bearbeitet:
Upsampling ist kein Qualitätsverbesserungsverfahren sondern eine Sparmaßnahme.

Das mag uns derzeit noch nicht so bewusst werden, weil die "eratenen" höherauflösenden Bilder eine höhere Qualität vorgaukeln.
Bei den derzeit noch genutzten schlechteren Detailgraden (also schlechter als die Grenze des mit dem Auge noch wahrnehmbaren) uns Upsampling als hübscher und schärfer.
Das macht alles irgendwie keinen Sinn was du schreibst. Die "Sparmaßnahme" sieht selbst mit aktuellem Stand der Technik oft schon besser aus als nativ bei gleichzeitig besserer Performance und weniger Leistungsaufnahme. Die Aussage mit den "schlechten" Detailgraden verstehe ich ebenfalls nicht. Der Detailgrad in Spielen ist höher denn je, nur um den zu erreichen wird eben schon auf Deep Learning Upsampling zurückgegriffen weil nativ im Grunde nichts anderes als Brute Force ist.

So hat es ein Nvidia Mitarbeiter jüngst auch im Interview mit Digital Foundry gesagt. Anstatt mit Brute Force - sprich nativ - alles zu erschlagen, muss damit begonnen werden die vorhandene Rechenleistung intelligenter einzusetzen. Aktuell sind GPUs bei 5 nm angekommen und ein Ende der großen Leistungssprünge auf Basis von Silizium absehbar. Von den explodierenden Kosten haben wir dabei noch nicht geredet.

Der Grundstein für AI im Gaming wird gerade gelegt und schon jetzt sieht es vielversprechend aus, man darf gespannt sein wo wir in 5-6 Jahren sind.
 
Das macht alles irgendwie keinen Sinn was du schreibst. Die "Sparmaßnahme" sieht selbst mit aktuellem Stand der Technik oft schon besser aus als nativ bei gleichzeitig besserer Performance und weniger Leistungsaufnahme.
Die Sparmaßnahme darin ist das man für eine gleichwertiges bild ohne Bildverbesserung deutlich höhere Auflösung und dementsprechend viel mehr Leistung braucht.
 
So hat es ein Nvidia Mitarbeiter jüngst auch im Interview mit Digital Foundry gesagt. Anstatt mit Brute Force - sprich nativ - alles zu erschlagen, muss damit begonnen werden die vorhandene Rechenleistung intelligenter einzusetzen. Aktuell sind GPUs bei 5 nm angekommen und ein Ende der großen Leistungssprünge auf Basis von Silizium absehbar. Von den explodierenden Kosten haben wir dabei noch nicht geredet.
Nur würde ich aus dem Marketing-Blubb seitens NV definitiv nicht ableiten, dass sie das betreiben wollen, um den Kunden wieder kostengünstigere Hardware fü bessere Spieleerlebnisse zu verkaufen, sondern ich sehe darin eher einen cleveren weiteren Schritt zur Gewinnmaximierung seitens der Hardwareanbieter. Denn warum sollten sie vom aktuell marktbeherrschenden hohen Preismodell wieder runter, wenn sich ihre Kosten relativ einfach bei künftigen Generationen deckeln oder sogar reduzieren lassen und man den Kunden durch Koppelung neuer Software an neue Hardware trotzdem wieder alten Wein in neuen Schläuchen verscherbeln kann? Mangels echter Konkurrenz ist das ein recht einfaches Spiel. Und immer dran denken: Firmen sind nicht nett weil es ihnen um Menschen und deren Bedrüfnisse geht, sondern nur weil sie an die Kreditkarten ran wollen ;)
 
Das macht alles irgendwie keinen Sinn was du schreibst. Die "Sparmaßnahme" sieht selbst mit aktuellem Stand der Technik oft schon besser aus als nativ bei gleichzeitig besserer Performance und weniger Leistungsaufnahme. Die Aussage mit den "schlechten" Detailgraden verstehe ich ebenfalls nicht. Der Detailgrad in Spielen ist höher denn je, nur um den zu erreichen wird eben schon auf Deep Learning Upsampling zurückgegriffen weil nativ im Grunde nichts anderes als Brute Force ist.

So hat es ein Nvidia Mitarbeiter jüngst auch im Interview mit Digital Foundry gesagt. Anstatt mit Brute Force - sprich nativ - alles zu erschlagen, muss damit begonnen werden die vorhandene Rechenleistung intelligenter einzusetzen. Aktuell sind GPUs bei 5 nm angekommen und ein Ende der großen Leistungssprünge auf Basis von Silizium absehbar. Von den explodierenden Kosten haben wir dabei noch nicht geredet.

Der Grundstein für AI im Gaming wird gerade gelegt und schon jetzt sieht es vielversprechend aus, man darf gespannt sein wo wir in 5-6 Jahren sind.
Dann beschäftige Dich bitte mit der Technik dahinter und schau mal, was KI und Qualityreconstruction eigentlich macht.
Wofür ein Upsampler gut ist, ist das Datenrauschen zu reduzieren und daraus noch Muster zu eraten.
Er ist nicht gut, um Inhalte zu liefern, über die keine Informationen vorhanden sind.

Sinnvoll angewandt, kann man so noch aus niedrigen Details und verrauschten Daten etwas interpretieren.
Irgendwann ist das Rauschen aber so groß, daß Dir kaum noch brauchbare und zuverlässige Informationen vorliegen. Hier fängt die KI an zu phantasieren.

Der "schlechtere Detailgrad" bezog sich auf das, was Dein Auge biologisch wahrnehmen kann vs. dessen, was Dein Monitor darstellt. So gesehen ist HD, 2K, 4K alles ein schlechterer Detailgrad. Je näher du an 8K bei Desktop-Monitoren kommst, je näher kommst du der menschlich biologischen Detail-Wahrnehbarkeitsgrenze Deines Auges (siehe meine vornagehenden Beiträge)

Im Rasterbereich kann man es als denoiser und zur Dekompression verwenden - eingeschränkt
Die Sparmaßnahme darin ist das man für eine gleichwertiges bild ohne Bildverbesserung deutlich höhere Auflösung und dementsprechend viel mehr Leistung braucht.
"Gleichwertig" sei mal dahingestellt.
Sagen wir "subjektiv ebenbürtig" ;)
 
Zuletzt bearbeitet:
Das macht alles irgendwie keinen Sinn was du schreibst. Die "Sparmaßnahme" sieht selbst mit aktuellem Stand der Technik oft schon besser aus als nativ bei gleichzeitig besserer Performance und weniger Leistungsaufnahme.
Das macht schon Sinn. Dass es besser für Dich aussieht, kann sein, bedeutet aber nicht, dass es genauer wäre. Man sieht ja bereits an DLSS 3.5, dass ein Übermaß an KI das Bild nicht nur schärft, sondern auch Dinge erfinden kann, bzw. "genauer" im eigenen Kontext machen kann, während es dann im Kontext des Bildes nicht mehr so gut passt.
Beispielsweise bei dem LED-Herz, das ich vorher gepostet habe. Für die KI ist es logisch, dass alle LED-Punkte perfekte Quadrate sein müssen, möglichst den gleichen Abstand haben müssen und aus einer normalen Perspektive perfekt erscheinen müssen.
Aber anscheinend hat die KI nicht erkannt, dass der Würfel Konvexe Flächen hat, auf denen das Herz ist. Es so zu verändern, dass es auf einem Papier perfekt aussieht, macht es falscher, weil dort, wo die Wölbung ist, die Grafik verzerrt sein muss.
Beim Boden das gleiche. Ungenauigkeiten, Staub, Rost, usw. - darauf war man sehr stolz, als die Engines und Grafik-APIs das unterstützten. Eine KI gefährdet das alles, denn für sie ist das oft "falsch".

Fakt also: Das Bild kann besser (vor allem schöner) aussehen, ohne dass es das soll! Denn es soll oft versifft, kalt und dreckig wirken.
 
Nur würde ich aus dem Marketing-Blubb seitens NV definitiv nicht ableiten, dass sie das betreiben wollen, um den Kunden wieder kostengünstigere Hardware fü bessere Spieleerlebnisse zu verkaufen, sondern ich sehe darin eher einen cleveren weiteren Schritt zur Gewinnmaximierung seitens der Hardwareanbieter.
Ich sehe da kein Marketing-Blubb. Überall steigen Aufwand und Kosten um noch ein paar Prozent mehr Rechenleistung rauszuquetschen, Aufwand/Nutzen stehen irgendwann in keinem Verhältnis mehr. Die vorhandene Rechenleistung intelligenter einzusetzen macht deshalb eindeutig Sinn. Die Brute Force Methode stößt inzwischen an ihre Grenzen und kann oft nur durch noch mehr Leistungsaufnahme erkauft werden.

Die AI einen Teil der Arbeit erledigen zu lassen wird mehr und mehr zur Normalität werden. GPUs haben vorgelegt und CPUs werden folgen - siehe die integrierte NPU in Meteor Lake.

Das macht schon Sinn. Dass es besser für Dich aussieht, kann sein, bedeutet aber nicht, dass es genauer wäre. Man sieht ja bereits an DLSS 3.5, dass ein Übermaß an KI das Bild nicht nur schärft, sondern auch Dinge erfinden kann, bzw. "genauer" im eigenen Kontext machen kann, während es dann im Kontext des Bildes nicht mehr so gut passt.
Was wir aktuell in Cyberpunk sehen ist immer noch eine Technology Preview, man könnte es auch als den ersten Schritt oder die erste Generation bezeichnen. Glaub doch nicht, dass nach Cyberpunk schon Schluss ist. Nvidia wird das ganze weiter verbessern und optimieren, den nächsten großen Auftritt erwarte ich in CDPRs nächstem Titel - wahrscheinlich Witcher 4.
 
Ziel muss immer sein mit möglichst geringer Energieaufnahme das bestmögliche Ergebnis zu erreichen.
Und das geht zweifellos nicht über normale Shader.

KI Kerne helfen sowohl bei der Bildqualität wie auch bei der Bildgenerierung.
Und das Ergebnis ist selbst jetzt bereits großartig, ich nutze nur mehr Technologie wie DLDSR, DLSS und FG, die Kombination aus Allem sorgt einfach für tolle Bilder.

Starfield_2023_09_22_17_02_55_792.jpg
 
Ziel muss immer sein mit möglichst geringer Energieaufnahme das bestmögliche Ergebnis zu erreichen.
Und das geht zweifellos nicht über normale Shader.

KI Kerne helfen sowohl bei der Bildqualität wie auch bei der Bildgenerierung.
Und das Ergebnis ist selbst jetzt bereits großartig, ich nutze nur mehr Technologie wie DLDSR, DLSS und FG, die Kombination aus Allem sorgt einfach für tolle Bilder.

Anhang anzeigen 1438580
Ja, toll vs "wahre" Bilder.

Die Diskussion wird irgendwann sein, ob das, was Du da gezeigt bekommt, überhaupt noch der Wahrheit enspricht oder so gezeigt wird, wie es vom Künstler gedacht war.

Das Mag bei Konsumgütern und fiktiven Videospielinhalten noch weiter weg von der Relevanz sein, als in der Realitäts-Photographie. Aber gegeben ist es.

Schau mal diese Original-Photos und dazu aufgewerteten Upsamples an:
-> LINK
Da wird der junge Mann plötzlich mit Falten alt-gedichtet, die Frau guckt plötzlich schön in die Kamera, hat einen anderen Mund und dolle Zähne, die sie wahrscheinlich so nie hatte ...
Einfach, weil das Original keinen Aufschluss über solche Detailinformationen gibt und die KI trainiert wurde zu raten, was auf uns "hübsch wirkt", nicht, was die "wahrscheinliche Wahrheit" war.
Die Diskussion hast Du jetzt schon bei Handy-Bildern: entspricht das noch der Wahrheit oder ist das von der KI kreativ frei interpretiert?
Schön sieht es aus. Aber wollte ich ein schönes Bild oder den Moment authentisch einfangen?
 
Zuletzt bearbeitet:
Letztendlich dient uns KI hier als Abkürzung und katapultiert uns bei jedem Erfolg technologisch ein paar Jahre weiter in die Zukunft. Mit DLSS und Frame Generation kann man schon heute die effektive Performance erreichen, die wir sonst erst in einigen Jahren gehabt hätten.
Ja sage ich doch, mir ist das Resultat wichtig egal ob nativ oder interpoliert.
Der Weg dahin ist mir egal solange nicht nur der Hersteller seinen Nutzen davon hat.
 
Was wir aktuell in Cyberpunk sehen ist immer noch eine Technology Preview, man könnte es auch als den ersten Schritt oder die erste Generation bezeichnen. Glaub doch nicht, dass nach Cyberpunk schon Schluss ist. Nvidia wird das ganze weiter verbessern und optimieren, den nächsten großen Auftritt erwarte ich in CDPRs nächstem Titel - wahrscheinlich Witcher 4.

DLSS = Zuckerguss.

Zuckerguss kann schon toll sein und den Cookie noch unterstreichen. Zuckerguss ist aber kein Allheilmittel für alles und jeden und kein Ersatz für gutes Kochen.

Zuckerguss auf einer gebratenen Forelle ist nicht so doll und versaut total das gedachte Ergebnis. (Oder nimm von mir aus Ketchup)
Und bei ner versalzenen und verbrannten Leberpastete kannst Du noch so viel Zuckerguss dran tun - das rettet es auch nicht mehr (zumal es eh nicht past)

Alles was wir sagen und ermahnen ist, dass es kein Allheilmittel und Ersatz für gute Bildgeneration und starke Rechenleistung ist.
Eine 4090 wird mit DLSS 3.5 Quality auf 4k Zielbild beeindruckendes leisten, wenn sie die Ursprungsgrafik in 2,8K rechnet und nacharbeitet und damit dann noch flüssiger arbeitet. Einfach weil 4K auch schon recht nah an 8K ist und der Unterschied für Dein Auge nicht mehr so groß. (und hier ist auch FSR garnicht mehr so schlecht, einfach, weil wir schon von hoher Ausgangsqualität und Zielauflösung reden)

Aber eine 4060 wird trotz DLSS 3.5 aus 720p kein tolles HD zaubern.
Oder versuch mal mit ner 2060.
Auch auf einer 4090 in HD sieht DLSS 3.5 nicht berauschend aus. FSR noch weniger.

Bei niedrigen Auflösungen als auch schwacher Hardware kommt der Nutzen nicht mehr so auf die Strasse.
Und eigentlich sollte ich doch genau das wollen: dass altersschwache Hardware auch noch ein bischen länger ausgequetscht werden kann, oder?

Aber genau da schwächelt Upscaling derzeit: mit alter Hardware aus niedriger Qualität noch was brauchbares zu erzeugen.
Stattdessen wird sie eingesetzt, um starker Hardware in tollen Qualitätsstufen noch besser auf die Sprünge zu helfen.

Bestimmt ist DLSS 4 noch toller und schöner und geht dann nicht mehr auf einer 4070 ...
(Weil Nvidia will ja, dass du upgradest.)
 
Zuletzt bearbeitet:
Überall steigen Aufwand und Kosten um noch ein paar Prozent mehr Rechenleistung rauszuquetschen, Aufwand/Nutzen stehen irgendwann in keinem Verhältnis mehr.
Genau: Und das Ergebnis dieses "alles rausquetschen" zeigt die aktuelle Grafikkartengeneration eben nicht! Nicht einmal das sog. Flaggschiff die 4090 stellt da noch einen Vollausbau der Technologie dar und der Rest drunter ist dann eh fast nur noch Abzocken auf ganz hohem Niveau oder was bitte rechtfertigt Preise von um die 900€ für eine 4070ti. Maximaler Aufwand, um das letzte Quäntchen Rechenleistung rauszuquetschen sicher nicht. Aber bitte: Jeder mag sich die Marketing-Soße der Techkonzerne ganz persönlich zu eigen machen - und darf sich dann aber auch nicht über immer weiter steigende Preise bei noch weiter steigenden Gewinnmargen derselben beschweren.
 
Ob wir nun KI-Fans sind oder nicht. Ob jemand das will oder nicht. Das spielt keine Rolle mehr.
...
Das war´s. Aus die Maus.
Klingt, als wärs schon soweit. Dann lösch doch bitte sofort alle Spiele von Deinem Rechner, welche nicht 100%ig von KI berechnete Bilder haben und im Anschluss wünsche ich viel Spaß beim Spielen von ..
 
@G4mest3r hör auf rum zu jammern. KI ist die Zukunft und das wird dein mimimi nicht ändern.
Deine Vergleiche und Strohmänner sind völliger Humbug.
Wenn nativ für dich das Wahre ist, dann have fun, du wirst aber akzeptieren müssen, dass Nvidia, Intel und AMD einen anderen Weg gehen und dieser auch von dem überwiegenden Großteil der Kunden angenommen wird.
Niemanden interessiert das Gejammer von ein paar Nativwarrior in irgendwelchen Foren.

Sämtliche Tester/Magazine sind begeistert von DLSS/FSR, aber du weißt es natürlich besser ;)
 
Kommt ganz drauf an, was ich spielen möchte. Manchmal ist Realismus gewünscht, manchmal Abstraktion und Kunst-Stil.
Leute haben Jahrhunderte im fortorealistischen Alltag gelebt und trotzdem Fantasie und Kreativität gehabt.

Warum ich am Rechner sitze und in virtuellen Welten drifte? Weil ich diese "Erfahungen" nicht im echten Leben machen kann.
Wenn ich meinem Nachbarn die Conan-Axt in den Rücken hauhe, komme ich in den Knast, in die Rolle eines Dinosaurierers oder Vogels kann ich nur schwer schlüpfen, mit einem Düsenjet mit 1000 Sachen 1m über dem Wasser langsausen und in einen dog-fight wechseln... kann sehr schmerzhaft werden.
Und in den 2. Weltkrieg zurück oder Nazis entkommen müssen will ich nicht am eigenen Leib erleben.

Ich kann mich noch sehr lebhaft an ängstliche Nächte im Gebüsch als junger Pachysaurus erinnern während ein T-Rex in der Nähe durch Unterholz stapfte und rumschnüffelte.
Oder an die Anspannung der ersten Nächte in Dying Light auf einem Dach muchs-mäuschen-still auf das Morgrauen warten, während unweit die Hunter-Zombies kreischen.
Die Parkoureinlagen in schwindelerregnder Höhe in Mirror's Edge, Florenz zur Zeit der Renaissance, der erste Ritt auf einem Mammut in FarCry Primal oder der Schrecken als ein Säbelzahntiger mich aus dem Gebüsch anfiel, den Humor und Lachanfall in Monkey Island wegen des blödsinnig gleichbleibenden Anzugsmusters des Verkäufers ...
Klasse, sehr gut ge-/geschrieben G4mesr3r! ✌️
 
Ich denke bei 8k oder knapp drüber ist dann Sättigung erreicht.

Da denkst du falsch, die Grenze liegt sehr, sehr viel höher

Bei üblicher Monitor Entfernung von ca. 1 bis 1,5m für eine Bilddiagonale von =Abstand (also auch 1 bis 1,5m) ist das Primäre Blickfeld inkl. etwas periphärem Sehen gut ausgeschöpft und bei einer 8k-Auflösung auf dieser Fläche selbst mit guten Augen kein Bildpunkt mehr wahrnehmbar.

Wenn du mir nicht glaubst und zu den Leuten gehörst, deren Badewanne oder Waschbecken weiß ist und du das ganze auch noch putzt, damit es nicht gelb aussieht, dann kannst du den Test machen. Nimm ein Haar und platziere es im Waschbecken oder der Badewanne. Das Haar ist weniger breit, als ein 8K Pixel, in einem 31,5" Monitor. Besonders wenn es ein dunkles Haar ist, wird dir auffallen, wie gut man es sieht. Nun geh zurück, bis das Haar nicht mehr zu erkennen ist. Du wirst etliche Meter zurückgehen müssen, wenn du gut sehen kannst wohl 5m oder mehr. Denk dran, das Haar ist weniger breit, als der 8K Pixel.

Bei solchen Problemfällen ist das Auge extrem empfindlich.

Ab da braucht man kein Antialiasing zur Kantenglättung mehr, kein Downsampling, kein Upsampling wenn die Hardware dies performant zu bedienen vermag und zusätzliche Rechenleistung wird wieder in andere Gimmicks gesteckt.

Dummerweise gehört der Treppenstufeneffekt zu genau diesen Problemfällen. Der wird dir auch noch bei 16K ins Auge stechen, wenn du normal sehen kannst, wenn auch nicht so extrem.

AA wird man immer benötigen, bzw. es wird immer Sinn ergeben.

Denen werfe ich nun entgegen: was wenn ich aber diese Technik nun nicht auf niedrigere Auflösung anwende, sondern auf Nativ? Oder gar auf höhere Auflösung?
Ich könnte doch jetzt schon auch auf Nativ einfach per Bildnachbearbeitung noch zuätzlich drauf hauen und damit Kanten nachzeichnen, Kontraste hervorheben und Inhalte nachschärfen. Typisches Postprozessing.

Der Punkt ist, dass man mit DLSS oder FSR und einer höheren Auflösung immer bessere Ergebnisse erreichen kann und auch noch mehr Leistung hat.

Nehmen wir einfach mal 32K nativ auf einem 31,5" Monitor. Statt nativ in 32K berechnet man das Bild in 20K und skaliert es dann auf 64K hoch und gibt es auf einem 64K Monitor aus. Das Ergebnis sieht, mit der Lupe, wesentlich besser aus und man hat auch noch mehr Leistung. Deshalb wird man mit Upscaling immer besser fahren, solange hochauflösendere Monitore zur Verfügung stehen.
 
Zurück