News Nvidia DLSS: "Native Auflösungen sind nicht mehr die beste Lösung!" [Bericht]

Aber ich will zum Spielen nicht auf NVidia und AMDs Server angewiesen sein. Da würde ich sogar auf Leistung verzicheten--GERNE. Wird sie dann zu wenig um das es noch vor Konsolen steht. Spiele ich einfach nicht mehr.

Was ein Hersteller gut findet, kann mir doch egal sein. Passen meine Vorstellungen nicht mehr zu dem was mir vorgelegt wird, bin ich weg. Und wenn ich dann noch darauf angewiesen bin Konsolengrafik mit ner 500€ Mittelklasse Karte nur dann zu übertreffen wenn ich auf deren Servern meine eigentliche Standardauflösung in erträglichen fps zu erzeugen. Dann piss ich lieber auf den ganzen Rotz!
Dann habe ich auch wieder mehr Zeit für die echte Welt, und ihre Realität.

Für klingt das so:
Mehr Daten+Mehr Kontrolle
Preissteigerung und/oder Leistungsverknappung und als Rechtfertigung das eingens auf Servergaming gelenkte Angebot.

Ich hab auch gar nichts gegen Moderne Technik generell. Find ich sogar sehr gut auch RT,PT bla bla, Prinzipiell schöne Entwicklung
--- Nur bevor mich einer jetzt blöd voll quatscht mit irgendeinem geschwafel von; Fortschritt!!! Du bist Anachronistisch--

Der Weg dahin die Bindung an die Konzerne, Die Bindung an die Masse, und Dauerhaft Online zu sein, so ganz heimlich mit nem Lauten HALLO aber durch die HIntertür!
Mir geht nur tierisch auf den Sack das für alles, je neuer es ist, ich in immer mehr Abhängigkeiten treten muss um die Neuerung überhaupt vollends nutzen zu können.
 
Zuletzt bearbeitet:
Wobei man dazu sagen muss dass selbst Intels XeSS Lösung qualitativ besser als FSR2 ist in den meisten Fällen, als Neueinsteiger auch beachtlich.
Leider wahr seit dem Kauf von ATI durch AMD wurde die Marke kaputt gewirtschaftet ATI war richtig stark aufgestellt und hatte eigene Ideen heute null eigene Ideen nur schlecht kopieren.
Ich vermute mal das AMD eh kein Bock mehr hat sich mit Nvidia zumessen, der Focus liegt eher auf den Prozessor markt.
 
Wieso packst Du einen CPU Preisvergleich aus wenn es um GPUs geht?
Beides sind Microchips, die auf Wafern belichtet werden, in zwei verschiedenen Hallen bei TSMC, Luftlinie wahrscheinlich ein paar hundert Meter entfernt.

Und du willst jetzt ernsthaft behaupten bei einem dieser Produkte wäre die Inflation viel schlimmer gewesen und der Waferpreis viel höher gestiegen als beim anderen? Meinst du das wirklich ernst?
Ich glaube auch das die reine Leistung nicht mehr ausreichen wird, da die Spielegrafik noch anspruchsvoller werden und ich glaube auch nicht dran, dass du oder ich Lust hätten, sich alle 3 Jahre eine GPU für 1500 Euro kaufen zu wollen.
Keine Angst, das wirst du trotzdem machen. Ich weiß nicht wie du auf die Idee kommst, Nvidia würde plötzlich keine Sollbruchstellen wie wenig VRAM mehr einbauen, oder neue Features plötzlich nicht mehr für alte Karten sperren, und dich eine Karte ewig nutzen lassen.

Das ist doch pures Wunschdenken und völlig realitätsfern. Mittlerweile sollte doch jeder 6-jähirge wissen, wie Nvidia tickt. Und Nvidia gibt nun mal auf unabsehbare Zeit den Ton an. Leider.
 
Ne es geht einfach darum eine Technik (Raytracing) marktreif zu machen die seit etlichen Jahren nach wie vor in den Kinderschuhen steckt. Und schlichtweg kann die jetzige Hardware es immer noch nicht ausreichend rendern. Und dann wird, obwohl Raytracing noch nicht mal rund läuft, pathtracing als das Novum unter das Volk gebracht. Die Anbieter allen voran Nvidia versuchen den Verbrauchern weiß zu machen, dass sie das unbedingt brauchen und sind ziemlich erfolgreich damit. Bauernfängerei par excellence.
Du führst die Spitze der Rastering Optimisten definitiv an.

Die Anbieter, die uns alle veräppeln wollen wären dann Intel, AMD, Nvidia, Apple, Microsoft und ARM. Windows 12 wird dann mit seiner KI Technik ebenfalls ein riesiger Bauerntrick sein. Tja das ist eine ziemlich krasse Milliarden Aktion, um uns alle an der Nase herumzuführen.

Übrigens ich glaube auch das die Erde eine Scheibe ist und das dritte Reich von der Antarktis aus vorbereitet wird.
 
Keine Angst, das wirst du trotzdem machen. Ich weiß nicht wie du auf die Idee kommst, Nvidia würde plötzlich keine Sollbruchstellen wie wenig VRAM mehr einbauen, oder neue Features plötzlich nicht mehr für alte Karten sperren, und dich eine Karte ewig nutzen lassen.

Das ist doch pures Wunschdenken und völlig realitätsfern. Mittlerweile sollte doch jeder 6-jähirge wissen, wie Nvidia tickt. Und Nvidia gibt nun mal auf unabsehbare Zeit den Ton an. Leider.
Ehem. Wo habe ich das behauptet das, was du von dir gibst, du hast einfach was falsch hinein interpretiert.
Was ich genau meinte, war das man auch mit einer günstigeren GPU spaß haben kann, ohne dafür 1500 Euro bezahlen zu müssen dank DLSS3 und FG woher nimmt du diese Behauptung.
Was sind den für dich wenig VRAM? Ich habe ja 12 GB auf meiner Karte und keine Probleme damit.
Beides sind Microchips, die auf Wafern belichtet werden, in zwei verschiedenen Hallen bei TSMC, Luftlinie wahrscheinlich ein paar hundert Meter entfernt.

Und du willst jetzt ernsthaft behaupten bei einem dieser Produkte wäre die Inflation viel schlimmer gewesen und der Waferpreis viel höher gestiegen als beim anderen? Meinst du das wirklich ernst?
Ein Wafer kostet aktuell 150.000 Euro und ja, die Inflation hat uns hart getroffen auch hier in Deutschland bin in der Kristallzüchtung (Lithografie) und Intel ist ein Kunde von uns, daher weiß ich das,
 
Zuletzt bearbeitet:
Also erstens erfindet DLSS keine Details dazu.
...
Das habe ich auch nicht geschrieben. Ich habe hoch-KI'te Dinge geschrieben. Da steht nichts von erfunden.

DLSS 3.0 – So funktioniert die Grafik-Technologie
DLSS 3.0 setzt sich aus drei Kern-Elementen zusammen. Sie alle greifen auf eine künstliche Intelligenz zurück, die mittels deep learning mit hochauflösenden Bildern angelernt wird, um diese dann in Echtzeit in eine verbesserte Bildqualität umzumünzen. Quelle: https://www.connect-living.de/ratge...upscaling-nvidia-reflex-erklaert-3205815.html

Die hochauflösenden Bilder meines Körpers sollte NVidia allerdings nicht haben. Falls doch, wäre das eventuell ein Fall für ein Gericht.

...
Und zweitens sind KI-Modelle bereits jetzt in der Medizin im Einsatz, an diversen Stellen. Z.b. bei der Impfstoff-Herstellung (Protein-Kombinationen), oder in der Krebserkennung.
...
Das habe ich genauso wenig geschrieben. In meinem Beispiel ging es um einen chirurgischen Eingriff. Keine Worte von KI-Modellen, Impfstoffherstellung oder Krebsfrüherkennung. Ich hab keine Ahnung, woher Du das ganze Zeug hast, ich wäre Dir aber dankbar beim Zitieren auch beim Inhalt des Zitats zu bleiben.
Aber in dem Zusammenhang kannst Du mir nochmal erklären, was DLSS genau mit Protein-Kombinationen zu tun hat.

...
Und dabei sind sie tausendfach schneller und besser als ein Mensch es je sein kann.
...
Aha ... das klingt nicht schlecht, aber meinst Du DLSS oder Deine selbst genannten KI-Modelle?

Edit: Nur so nebenbei, glaubst Du das menschliche Auge und die Interpretation Deines Gehirns von Lichtstrahlen die auf die Netzhaut treffen sind fehlerfrei? :ugly:
Glaubst Du, dass Du fehlerfrei bist?
Edit: Nur so nebenbei: ich bin Brillenträger. Warum also sollte ich das glauben? Ich persönlich glaube, dass ein Mensch kein Roboter ist und das Fehler (oder in Deinem Fall Fehlinterpretationen, evtl. aus Gründen ungenügender Auflösung oder anderen Umständen) zu seiner Existenz gehören.
Ich Unterrichte meinen Schülern sogar gezielt einen positiven Umgang mit Fehlern, nicht nur aus einer auf die Lerneffizienz ausgerichteten Perspektive. Wir können alle unseren Fehlern mit Leichtigkeit begegnen. 100%ig Fehlerfrei? Nein Danke! Das wäre mir wohl eh viel zu langweilig. Klingt ja irgendwie nach der ersten Matrixversion.
 
Leider hat AMD wieder einmal verschlafen, so das Nvidia auch diesem Bereich dominieren wird, aber es gibt ja noch Intel, die rüsten auch auf in Sachen KI wird spannend.
Die schlafen nicht, die verzetteln sich nur mit erschreckender Regelmäßigkeit durch Over-Engineering: Das sorgt dann für "Schüsse ins Blaue" die im Endeffekt Totalausfälle sind, weil nicht vom Markt angenommen(z.B. Vega Primitive Shaders) oder am Markt vorbei entwickelt(Bulldozer). Manchmal kommen aber auch echte Revolutionen für die ganze Halbleiterindustrie bei raus wie HBM(nutzen alle, ist nur zu teuer für den Normalo), Chiplets und Interposer(nutzen Intel und AMD), IMC(nutzen auch alle).
Die kommende FG von AMD sieht ja auch vielversprechend aus und die Verzögerung ist zumindest laut den jüngsten Informationen gerechtfertigt, wenn sie denn tatsächlich in dem Umfang kommt. Zumindest wirkt das nicht mit heißer Nadel gestrickt, auch wenn das viele Kommentatoren hier gerne sähen, weil die Konkurrenz mal wieder werbewirksam vorgeprescht ist.
Nvidia Technologien von denen wir profitieren:
- T&L (ja, ich meine die Revolution der 3D Grafikberechnung mit der Geforce256)
Ja NVidia waren die ersten, aber die ganze Grafikindustrie hatte damals das Problem des harten Prozessorlimits wegen Transformation gesehen. Damals gab es auch noch keine x86 Multikernprozessoren, wo man einen anderen kern dafür abstellen konnte. Spätestens mit der Voodoo2 war das extrem auffällig und wurde dann für DX7 Keyfeature. Wegen des GHz-Rennens hat man sich aber nicht sofort um das Problem gekümmert(und deshalb war die Geforce 256 SDR auch nicht sofort der Killer, da die anderen Karten mit den neuen schnellen Prozessoren zeitnah aufschließen konnten. Erst mit dem DDR Modell und der Geforce 2 und dem Wechsel der Software auf 32 Bit(wo 3dfx kein Land mehr gesehen hat), wurde NVidia groß. T&L alleine war man nur schneller, aber nicht der Revoluzzer wie dargestellt, da die ganze Industrie in die Richtung entwickelt hat.
Heute würde ich fast sogar behaupten, dass man T&L besser einstampft und wieder den Prozessor dafür abstellt, weil die Busbandbreite groß genug wird und man massig Kerne zur Verfügung hat. Wer den Mut hat das umzusetzen(auch wenn man dann vermutlich M$ vor das Schienbein tritt mit ihrer DX-Spezifikation) wird der nächste Performanceking(zumindest in allen Titeln, die heute im GPU-Limit hängen).
- G-Sync (es gab vorher keine Monitor Sync Technologie im Consumer Bereich soweit ich weiss)
Das ist richtig, bis auf eine Spezifikation der VESA die keinen Interessiert hat, gab es da nichts.
- PhysX (war vorher eine extra PCI Karte die man kaufen musste)
Und die dazugehörende API. Die Konkurrenz Havoc war ja Prozessor-only und da auch stark limitiert(viele noch mit hochgetaktetem Singlecore oder "geklebtem Dualcore" mit Schneckentakt unterwegs). Die Idee von Ageia, Physik auf einen separaten Chip auszulagern war gut, mit Prozessorfallback natürlich. Nvidia machte daraus eine reine Prozessorlösung mit Grafikkartencheck(und Handbremse falls NV nicht erkannt wurde). Mafia 2 z.B. zieht nach ca. 10 min die Bremse wenn man keine NV-Karte hat(aus heiterem Himmel). Safe&Load, NV-Dummytreiber oder Gammel-Geforce reichten zum überzeugen der Software. NV Treiber ohne Vendor-ID werfen einen auch raus :P.
- Reflex (beste Latenzverbesserung wo gibt, vorher gab es da nichts)
- Upscaling (war vorher alles ziemlicher Schrott bis DLSS 2.0 kam)
Stimmt beides, da hat NVidia wirklich sinnvoll Neuland betreten.
- Real-Time-Raytracing / Pathtracing (dass das so schnell für Consumer erreichbar wird hätte vor 5 Jahren JEDER als unmöglich bezeichnet)
Ja sie waren die ersten und ich finde es super, dass sie da den ersten Schritt gemacht haben. Das Ganze wurde nur völlig falsch beworben in meinen Augen.
Echtzeit-Raytracing ist auch heute noch zu langsam: Mehr als ein paar Alibipfützen, stark vereinfachte Abtastung mit absurdem Denoising und Uralt-Titel mit gefühlten 10 Polygonen klappen auch heute noch nicht. Den Vorteil sehe ich aber in der Entwicklung von neuen Engines und Spielen: Man muss kein Genie mehr sein, um die Beleuchtung oder Schatten glaubhaft in Spielen darzustellen. Was Performance angeht ist Baked Lighting samt Shadowmaps nach wie vor der Optik- und FPS-King, aber es vereinfacht die Entwicklung enorm, wenn man mit Echtzeit Raytracing on-the-fly sieht, wie ein Level oder eine Szene aussieht ohne zunächst stundenlang rendern zu müssen, wie früher. Und Dinge wie Spiegel muss man nicht mehr mit Render-to-texture(was gerade auf Konsolen ohne brauchbaren BST schnell Performancekiller ist) teuer implementieren.
Insofern hat NVidia da in erster Linie viel für Spieleentwickler gemacht(zumindest aus meiner Sicht); für den Kunden ist das ganze noch Spielerei und nur bei den üblichen Verdächtigen(Pfützen und Co) sinnvoll. Deshalb auch die kritik an der erbung von Nvidia damals.
Sorry, aber ich muss zu Dir stellvertretend sagen: Mich kotzt eure Technik-Angst an. Wir sind hier in einem PC Games Hardware Extreme Forum, hier sollten sich technikbegeisterte Leute austauschen über den neuesten heißen Shice und was liest man stattdessen? "Früher war alles besser" - "Nativ oder GTFO" - "Keiner braucht Raytracing". Ewiggestrige trifft es wirklich gut. Warum etwas schlauer berechnen wenn man es mit drölfzig Watt auch brute forcen kann, gell?

Der Rant musste mal raus.
Ist doch eigentlich konsequent: Wir wollen hier Over-Engineering und neue Hard- und Softwarelösungen, statt Softwarelösungen, die mittelmäßige Hardware streckt. Sowas muss auch sein, aber bitte als eine Art Abwärtskompatibilität("hey mit unserer damals tollen, jetzt nicht mehr ganz frischen 1070 kannste auch heute noch alles machen... toll dass du uns treu bleibst!"), aber das nicht als den neuen heißen Scheiß bewerben. Neues per Software konkurrenzfähig machen und altes frühzeitig per Software auf die Resterampe ist genau das Gegenteil von Innovation.

NVidia bitte mehr T&L, Gsync, Reflex, DLSS(für alle noch treiberunterstützten Karten) so was, aber bitte keine als Neuerung verkauften Zwischenlösungen. Machts wie AMD, riskiert einfach mal was! Ihr habt das wirklich mal gekonnt(und könnt das heute bei dem Aktienkurs besser als je zuvor):
32bit-3d Rendering, das wart ihr; Unified Shader(eurer Ding), SLI(nicht neu aber macht das doch nochmal mit den neuen Algorithmen).
DLSS steigert die Bildqualität
Wenn sonst alles flimmert und die Pixel tanzen, dann nehme ich das gerne damit das Bild aufhört so unruhig zu sein(vor allem Gras, Zäune, Blätter etc.). Besser ist es aber nicht, nur billiger, als Downsamling zu nutzen.
Natives Rendering ist durch Upscaling schlicht und einfach nur noch ineffizient.
Ja bei FPS/Watt oder FPS/Euro sicherlich gerne auch bei Bildqualität, wenn die Ausgangsauflösung(für DLSS)>=Zielauflösung(Monitor) ist und dann DLSS zusätzlich genutzt wird(quasi als Downsampling für Arme). Aber wenn die Ausgangsauflösungauflösung für DLSS < Zielauflösung, also Upsamplin wie angedacht, ist , dann kann die Bildqualität gar nicht so gut sein wie nativ zumindest nicht vom Detailgrad. Weil Upscaling halt nichts dazuerfindet, wie
Weißt du was nativ bedeutet? Renderauflösung = Ausgabeauflösung.
Vor oder nach DLSS? Wenn man DLSS als eine Art Postprocessing sieht, dann rendert man in 1080p und bläst das ganze auf 1440p auf. Nativ? Ist ja 1440p gerendert oder doch nicht?
Konservative "nativ"-Verfechter sehen das eher so: 720p<720p+DLSS(Ziel ~1080p)<1080p<1080+DLSS(Ziel-/Monitorauflösung ~1440p)<1440p<1440p+DLSS(Ziel ~4k)<4k...
Um das mal zu verdeutlichen: Downsampling beispielsweise rechnet ja auch nicht nativ. Dabei wird intern eben eine höhere Auflösung berechnet, wodurch wiederum mehr Informationen im endgültigen Bild enthalten sind als mit der nativen Auflösung.
Besseres Bild bei nicht-nativer Auflösung
Ich denke jedem sollte klar sein, dass "nativ" impliziert, dass die Renderauflösung(vor Postprocessing) mindestens der technischen(halt "nativen") Auflösung seines (LCD-)Bildschirms entspricht, damit ein Pixel auch ein Pixel ist und es keine Unschärfe/Interpolationsartefakte wegen zu geringer Auflösung gibt. Klar die Grafikkarte spuckt ein 1440p Bild aus, wenn man 1080p hochrechnet, aber DLSS sieht halt nur 1080p(halt nicht nativ).
"Nativ" sagt nichts über die Qualität von irgendwas.
Stimmt. Nur die Korrelation Detailgrad zu Qualität besteht zweifellos: Beispeilsweise ist bei manchen Engines das Sichtfeld auflösungsabhängig. Auf 1440p Upgescaltes hat immer weniger auf dem Schirm, als Natives oder Downgesampeltes.

*vor und nach DLSS Auflösungen Beispielwerte. Die krummen Zahlen der Basisrenderauflösung merkt sich ja kein Schwein
software lässt sich eben besser verkaufen als teure 3nm Hardware, wo die marge nicht hoch ist.:ugly:
Die Produktionskosten sind auch toll. Das Geschenk das nicht aufhört zu schenken. Der Sampo* der Technikindustrie.

*magisches Gerät des Kalevala, das Salz, Weizen und Gold produziert und seinem Besitzer unermesslichen Wohlstand verschafft
 
Zuletzt bearbeitet:
Du führst die Spitze der Rastering Optimisten definitiv an.

Die Anbieter, die uns alle veräppeln wollen wären dann Intel, AMD, Nvidia, Apple, Microsoft und ARM. Windows 12 wird dann mit seiner KI Technik ebenfalls ein riesiger Bauerntrick sein. Tja das ist eine ziemlich krasse Milliarden Aktion, um uns alle an der Nase herumzuführen.

Übrigens ich glaube auch das die Erde eine Scheibe ist und das dritte Reich von der Antarktis aus vorbereitet wird.
ich sage nicht, dass RT nicht interessant ist. Ich sage, dass die Technik nicht so weit ist. Wenn Du Upscaling-Methoden brauchst um Spiele mit Raytracing überhaupt in spielbare Sphären zu bringen werte ich das als Verzweiflungstat.
 
Übrigens ich glaube auch das die Erde eine Scheibe ist und das dritte Reich von der Antarktis aus vorbereitet wird.
Was ein Blödsinn, die leben in der Hohlerde und auf dem Mond.
Ein Wafer kostet aktuell 150.000 Euro und ja, die Inflation hat uns hart getroffen auch hier in Deutschland bin in der Kristallzüchtung (Lithografie) und Intel ist ein Kunde von uns, daher weiß ich das,
https://www.tomshardware.com/news/tsmc-expected-to-charge-25000usd-per-2nm-wafer
Was soll das für ein Wafer sein?
 
Zuletzt bearbeitet:
hm interessant,aber trautig zugleich.
Ich habe ja die tests gesehen bei der RTX 4090 wo ohne DLSS die Leistungsteigerung nicht mehr so hoch war.ALso damit meine ich garkein DLSS oder upsalling.Nur so wie man es damals auch gemacht hatte.Anstecken,in 4k anwerfen als Beispiel und da sieht das ganze mit der RTX 4090 nicht mehr so gut aus.
In sehr anspruchsollen Games wird man trotz rtx 4090 die Settings dennoch in 4k herunter drehen müssen.
Darum werde ich das auch meiden in Zukunft auch wenn ich am Ende weniger Leistung davon habe.
Ich habe nur das große Glück nicht in 4k zu zocken.Also für die Auflösung braucht man nen größeren Bildschirm.Das wiederum benötigt nen größeren Schreibtisch.
Es müsste ein Wunder passieren oder ebenso Tricksen wie Nvidia das macht,dann wird der Schreibtisch wie durch Zauberhand größer ohne mehr Platz zu benötigen.
Aber das geht ja nur in der Fantasie.Ich habe ein direkt Vergleich gesehen von DLSS.Wenn man im direkten Vergleich genau hinschaut sieht man den Unterschied noch.Klar müsste der Bildschirm dann 4k können das man es im direkten Vergleich sieht und nicht in Full HD.

Das was DLSS kann,kann ich auch.Einfach die Auflösung runter drehen.Klar ist DLSS da minimal besser,aber auf dem Vorteil kann ich auch pfeifen.Ich werden bei extrem kleinen Auflösung eh keinen Unterschied mehr merken ob Nativ oder Dlss gestellt worden ist.
Wenn dann wird DLSS wohl auch nach unten ausgerollt,wie dann Anstatt Full HD dann nur noch in HD.
Oder bis das standard wird,wird dann Full HD einfach aussterben,wobei es gibt da noch so viele die in Full HD Unterwegs sind.

Ich weis das diese angebliche Wundertechnik nicht unter Full HD funktioniert.Und warum weil es viel zu wenig Infos gibt die man nach unten berechnen könnte.

Hoffen wir mal das die Bildschirm nicht schlechter werden.ALs Argument werden diese dann angeben,ja wenn du ne niedrige Auflösung willst, dann musst du DLSS und co Einstellen,wir geben uns da keine Mühe mehr und inplantieren Interpolation des Bildschirms extra schlecht so das dann ne GPU mit DLSS bzw FG notwenig wird.Dafür bekommt dann der Bildschirm Hersteller Geld von den GPU Herstellern.

Kann ich mir dann schon gut Vorstellen.Die Spiele Hersteller könnten das auch so handhaben. Das Spiel erkennt welcher Hersteller von GPU drinnen ist und nimmt diese Technik dann.Nen Abschalten wird es in Zukunft nicht mehr geben.Das Game wird dann nicht mehr Nativ diese Angezeigte Auflösung wieder geben können.Das Game wird Flüssig laufen und die Spiele Hersteller stehen gut da ohne sich viel mehr mühe zu machen.
Bekommen dafür dann Geld der GPU Hersteller.
Oder wenn DLSS und co Abschaltbar ist,wird es ne massive FPS Einbruch geben.Man wird dann viele Settings reduzieren müssen um es Nativ die Auflösung genießen zu können,trotz Sauteuer GPU.
Ich hoffe das es nicht so kommen wird,aber es kann.Ich selbst spiele da wohl keine Rolle aber es wird einige in dem Fall dann treffen,das ist klar.
Ich hoffe ja nicht das wenn ich da 1080p Einstelle,dann nur ein hochskalierte 720p Auflösung dann sehen werde,weil dafür kaufe ich mir keine neue GPU. Bei sowas kann ich ja gleich auf ner Konsole zocken.Weil da bekomme ich das zwar auch,aber sieht dann wesentlich besser aus.
 
Weißt du was nativ bedeutet? Renderauflösung = Ausgabeauflösung.

Nativ ist kein Qualitätsbegriff. Ich meine, es ist ganz einfach wie etwas besser sein kann als nativ: Wenn es mehr Informationen enthält. Wenn die Upscaling-Algorithmen es schaffen mehr Informationen ins Bild zu kriegen als die native Auflösung enthält, kann das Bild besser sein.

Um das mal zu verdeutlichen: Downsampling beispielsweise rechnet ja auch nicht nativ. Dabei wird intern eben eine höhere Auflösung berechnet, wodurch wiederum mehr Informationen im endgültigen Bild enthalten sind als mit der nativen Auflösung.
Besseres Bild bei nicht-nativer Auflösung.

"Nativ" sagt nichts über die Qualität von irgendwas.
Da liegst Du ein Mü daneben. Nativ bedeutet:
- naturbelassen
- unverändert
- oder sogar ohne Zusätze
Leitet sich von dem lateinischen Wort "nativus" ab, was so viel bedeutet wie von Anbeginn oder von Geburt an.
So, genug kluggeschissen :D
Gruß T.
 
Da liegst Du ein Mü daneben. Nativ bedeutet:
- naturbelassen
- unverändert
- oder sogar ohne Zusätze
Leitet sich von dem lateinischen Wort "nativus" ab, was so viel bedeutet wie von Anbeginn oder von Geburt an.
So, genug kluggeschissen :D
Gruß T.
Schon klar ?. Naturbelassen gefällt mir übrigens am besten als Synonym.

Sicher weißt du aber auch, dass ich den Kontext unausgesprochen vorausgesetzt hab.
 
Ein Wafer kostet aktuell 150.000 Euro und ja, die Inflation hat uns hart getroffen auch hier in Deutschland bin in der Kristallzüchtung (Lithografie) und Intel ist ein Kunde von uns, daher weiß ich das,
Ok sehr interessant.Wie lange werden denn schon Kristalle künstlich erschaffen für die Fertigung.Und gibt es auf der Welt keine Kristalle mehr die schon immer auf der Welt gegeben hatte weil diese alle schon verwendet wurden? Und gibt es da keine Unterschiede zwischen Nativen und künstlich Hergestellten Kristalle?
Und Dinge wie Spiegel muss man nicht mehr mit Render-to-texture(was gerade auf Konsolen ohne brauchbaren BST schnell Performancekiller ist) teuer implementieren.
Hm was heißt denn BST ausgeschrieben und ist das sowas wie Texturen zu tuen?
 
Zuletzt bearbeitet:
Hm was heißt denn BST ausgeschrieben und ist das sowas wie Texturen zu tuen?
Binary Search Tree. Eine Datenstruktur, die man verwenden kann um beispielsweise effizient abzufragen, welche Bereiche eines Levels die Spielerkamera "sieht", bzw. bald sehen wird, um entsprechend Texturen und Objekte zu streamen.
Bei meinem Beispiel für den Spiegel müsste man schauen, welche Perspektiven von der Spielerpostition aus zu sehen sind vom kopierten Bereich "hinter dem Spiegel". Das kostet weniger Leistung, als wenn man das ganze Level 2x voll berechnet und dann den sichtbaren Bereich ausschneidet für den "render-to texture"-Spiegel. Mit Raytracing kann man sich hier die Sache sparen und einfach live auf niedriger Auflösung nachgucken, was gespiegelt wird und dann denoisen. Zwar nicht so gut wie ein BST aber immernoch besser, als die Rechenlast direkt zu verdoppeln.
Hoffe, das verdeutlicht das grob. :)

Die ersten die das intensiv für Grafik verwendet haben waren ID-Software: Doom und Quake liefen auch gerade deshalb so unglaublich gut und schnell.
Ok sehr interessant.Wie lange werden denn schon Kristalle künstlich erschaffen für die Fertigung.Und gibt es auf der Welt keine Kristalle mehr die schon immer auf der Welt gegeben hatte weil diese alle schon verwendet wurden? Und gibt es da keine Unterschiede zwischen Nativen und künstlich Hergestellten Kristalle?
Man möchte Siliziumeinkristalle(d.h. die Kristallstruktur ist perfekt ausgerichtet),damit die Halbleitereigenschaften durch den ganzen Chip vorhersehbar sind und man wie auf einem weißen Blatt Papier arbeitet. Das gibt es in der Natur so nicht. Wie bei Diamanten: Die Echten erkennt der Experte an den natürlichen Verunreinigungen und den Fremdstoffen(Künstliche sind zu gut um wahr zu sein :) ).
Schau dir Solarzellen an, da kann man das schon optisch direkt gut sehen, dass der Unterschied enorm ist:
Monokristalin(schweineteuer und optisch glatt wie ein Spiegel)
Polykristalin(sieht aus wie viele Splitter Glasscheiben, Billiger aber Effizienz schlechter)
Amorph("matter" Glanz, "körnige" Struktur, sehr billig aber von der Effizienz her meilenweit unter den Einkristallen)
Ich habe ja die tests gesehen bei der RTX 4090 wo ohne DLSS die Leistungsteigerung nicht mehr so hoch war.ALso damit meine ich garkein DLSS oder upsalling.Nur so wie man es damals auch gemacht hatte.Anstecken,in 4k anwerfen als Beispiel und da sieht das ganze mit der RTX 4090 nicht mehr so gut aus.
Ich behaupte mal 4k ist das absehbare Limit auf lange Zeit für den Schreibtisch. Wie nah soll man den da dran sitzen, damit man da noch Pixel erkennt? Entweder der Monitor ist so groß, dass man eh nur 50% sieht, oder die Pixel sind ununterscheidbar. Schon 1440p ist bei gesundem Sitzabstand "scharf".
Darüber lohnt im Grunde nur für Simulation, wo man eintauchen will und sich umsehen(in dem Sinne).
Passt eigentlich auch gut zum Artikel. Falls NVidia das auch so sieht, dann muss man gar nicht mehr groß entwickeln, sondern sich nur dem Spielemarkt anpassen, weil die obere Auflösung einen Fixpunkt erreicht hat.
In dem Fall würde ich NVidia sogar 100% zustimmen, aber dann sollten die da mit offenen Karten spielen.
Hoffen wir mal das die Bildschirm nicht schlechter werden.
Man ist ja noch nichtmal in allen Belangen bei den Vorteilen einer Röhre angekommen. Ich glaube nicht, das das da jetzt schon schlechter werden sollte. Abgesehen von der unsäglichen 16:9 Auflösung auf der wir festsitzen, weil irgendwelche Panelhersteller zu Beginn des HD Booms den Markt mit TFTs überflutet haben, die eigentlich für Fernseher gedacht waren. 16:10 wäre vom Sichtfeld besser, aber die gibt es nur noch in ultrateuren Profigeräten, obwohl das ursprünglich mal der Widescreen-Standard für Computer war. Ansonsten sehe ich aber nur konstante Entwicklungen nach vorne(Frequenz, Schwarzwerte, Schaltzeiten etc.).
 
Zuletzt bearbeitet:
Naja es wollen welche Monitor Hersteller davon weg brechen,in dem man auch nach oben 5k,6k und sogar 8k herausbringt.Denke mal die werden sich nicht gut verkaufen und wenn,dann nur für den Profi Bereich und nix für die standard User.
Und hochskalierte von Full HD auf 8k wäre totale Verschwendung der Resourcen.

Achja wollte nur das schreiben was mir aufgefallen ist.Ich selbst habe es schon gemerkt das alles viel zu klein war.Ich selbst hatte nur 24 4k und 24 " WQHD gehabt und das ganze als zum Vergleich 24" Full HD was ich dann gewechselt hatte.
Hatte das ganze nicht auf 27" getestet gehabt aber ich komme bei dem anderen PC ja sogar super mit 27" Full HD zurecht.Aber recht viel weiter runter will ich nicht mehr gehen.Wobei CS Source zocke ich auf dem Bildschirm sogar mit 720p.Mag zwar die zäune pixelig sein,dafür sehe ich etwas besser.Klar ab einer gewissen Reichweite sehe ich die Gegner noch immer zu schlecht.Muss mir wohl noch überlegen wie ich das ganze lösen will,das ich auch weiter entfernte Gegener noch gut sehen kann.Bin zudem ein Brillenträger.Sehe ohne Brille nur noch die gegener Verschwommen.Bin eigentlicher einer der aus der Ferne nicht mehr gut sehen kann,aber dank des dauer Tragens auch einer der aus der nähe nicht mehr so gut sehen kann.
Tolle Entwicklung.Klar geht immer schärfer aber der Effekt vergeht immer wieder sehr schnell.Und dann immer wieder vergleichen,das dauert bei mir meist sehr lange weil ich da immer sehr genau hinschauen muss.Ist also nicht leicht für mich.

PS:wobei ich dir damit also recht gebe.Es beschweren sich im grunde genommen insgesammt nicht so viele Menschen das 4k nicht Nativ ist,sondern dank DLSS herunter skaliertes 4k Nativ eigentlich WQHD ist und WQHD Nativ eigentlich ein Full HD Ausgabebild dank DLSS.
Ich selbst habe es noch nicht ausprobiert ob man aus einem Full HD nicht auch ein Nativ HD Ausgabe danke Dlss werden könnte.
Wobei ich brauche nur ein HD Fernsehr als 24 " dran stecken und schon habe ich ein Natives HD Bild.
Ich selbst zocke drauf PS3,Switch und Xbox One.Ich selbst vermisse aus rund 60-80 cm Sitzabstand im grunde genommen nix.
Ertappe mich also immer mehr selbst das ich im Irrglauben war ,immer höhere Auflösung zu benötigen.DIe Wirklichkeit ist also anderst. Beim richtigen Zocken konzentriert man sich ja eh mehr auf das Game als auf die Auflösung.Was es drauf an kommt ist wie gut ein Spiel Optisch Entwickelt worden ist.Wenn es gut aussieht,vermisst man auch keine hohe Auflösung.Wenn es keine Artefakte zeigt,dann ist das Game gut Entwickelt worden und dann kann man auch mit weniger Auflösung leben.

Auf dem Pc ist das meistens nicht der fall,darum wünscht man sich da immer höhere Auflösung.Würden sich die Spiele Entwickler mehr mühe machen,dann hätten wir damals auch kein Supersampling benötigt um das Bild ruhiger zu bekommen.Dlss mag zwar das etwas ausgleichen aber halt nicht alles.
 
Zuletzt bearbeitet:
Ernsthaft?

Der, nennen wir Nvidia mal den erfolgreichsten Anbieter von Upscaling-Technologie,
meint also DLSS sei "besser" als natives Rendering?

Also mal abgesehen davon, dass das sehr auf den Standpunkt und die Situation ankommt,
zuerst einmal: Nein! Definitiv falsch.

Performanter? Ja, sicher. Energiesparender? Eventuell... Aber "die bessere Lösung?" Ja, für Nvidia.

Fakt ist doch folgendes: Es geht kaum besser als mit nativer Auflösung.
Vielleicht mit SSAA oder Downsampling... Aber darum geht's nicht.

Sicherlich ist Upscaling a la DLSS eine nette "theoretische Idee" um die Lebensdauer der Grafikkarte zu verlängern,
oder einen Tradeoff zwischen Qualität und FPS zu ermöglichen.
In der Praxis ist das allerdings heute schon sinnlos, da selbst neue High-End Karten, selbst mit DLSS, oft Federn lassen
müssen. Aber so ist das nun mal. Kein Gamedevelloper der ein AAA Game entwickelt,
wird für die GPU von gestern entwickeln. Sondern für die von Morgen oder Übermorgen.

Nichts desto trotz scheint mir das eher eine Ausrede zu sein, um die für's Profi- und Industriesegment entwickelten
Features wie eben AI im Consumerbereich nutzbar zu machen und gleichzeitig ausufernde GPU-Kosten und
und stagnierende Real World Performance gewinne zu kaschieren.
Und oben drauf kommen natürlich die Ansprüche der Kunden, die auch eher steigen als fallen...

Also sorry Nvidia, DLSS is ne nette Sache, aber ganz sicher keine gleichwertige oder gar bessere
Alternative zu nativer Berechnung.

Die Frage ist nur ob es die Kunden am Ende wirklich interessiert?

Ich jedenfalls bin und bleibe ein Freund von HQ in jeglicher Form.
Und da sind weder Temporal AA noch DLSS, noch MSAA resistente Post Processing Effekte der optimale Weg...
Es ist einfach nur eine weitere kreative Option, die FPS auf Kosten von Qualität liefert. Nix weiter.

Nur ist mittlerweile eben ein Punkt erreicht, an dem es oft gar nicht mehr anders geht, gerade wenn's um RT geht.
 
Ja nur wenn einem so wie mir rt nicht interessiert, der hat es gut weil dann wird auch nicht so viel rohleistung benötigt. Ich habe halt nun eine Einstellung mehr wo ich auf off bzw ausschalten machen kann. Ich mache das selbst wenn ich genug fps habe dennoch. Damit spiele ich immer flüssig und die Hardware Anforderung sind immer etwas geringer. Mir egal das ich so nie auf maximale Details spiele.

Selbst mein bester Kumpel ist mehr oder weniger dankbar. Dennoch normalerweise könnte ja serious Sam 4 keine 70 fps auf einer rtx 3050 schaffen. Ich habe es hinbekommen und es läuft flüssig. Es bedarf etwas Tricks aber es geht. Die ist wesentlich besser als die wo nvidia so macht. Denke mal die 8 GB werden nicht ganz voll ausgelastet beim vram. Klar könnte ich da auch mehr fahren aber warum sollte ich das. Sieht man ja eh nicht mehr auf dem full hd Bildschirm.
Tya ein user wie wir kann es besser lösen als es nvidia könnte. Wenn ich Lust drauf hätte mehr als 70 fps und das Limit auf 100 fps erhöhen wollte, dann käme mein bester Kumpel nicht mehr drum rum ne etwas stärkere gpu zu nehmen müssen. Aber zum Glück ist dies nicht der Fall.
Ruckler gibt es keine mehr und damit komme ich wesentlich sparsamer rum.

Nur so eingestellt spielen echt die meisten nicht. Ich handhabe es bei mir auch immer so. Beschwert hat sich mein bester Kumpel nicht und scheint ihm auch egal zu sein, Hauptsache er kann ruckelfrei sein Game zocken. Optisch sieht es auch mit meiner Einstellung noch immer super aus. Dafür habe ich gesorgt.
Diese DLss und raytracing ist mir sowas von egal. Zudem blendet einem raytracing im Spiel auch noch. Das lenkt vom eigentlichen zocken voll ab. Konzentrieren ist so nicht möglich.
Also zurück zum wesentlichen.
 
Hui! Mit dieser News hat aber jemand ein Fass aufgemacht! :lol:
Lasst es einfach, ihr werdet euch eh nicht einig! Es soll jeder so zocken, wie er möchte!

Aber die Haltbarkeit der Karten erhöht es schon. Ohne FSR hätte ich Red Dead online nicht in WQHD mit meiner GTX 1070 spielen wollen. Schon nett!
 
Du meinst die deutsche Inflation? Oder die in Taiwan oder China?

Und selbst wenn wir in Deutschland bleiben, ist Inflation nicht gleich Inflation. Die Inflationsrate im IT-Bereich liegt im Moment bei -3,4%. Deflation ist bei Technik völlig normal. Wenn aber die Kurve des Mehr-pro-Euro so abflacht wie bei NVIDIA und gleichzeitig die Margen hochschnellen, dann brauchen wir glaube ich nicht von nennenswerter Inflation zu reden. Gilt teilweise auch für die Waferpreise.

Während der Corona Pandemie sind weltweit Kosten gestiegen. Transport, Lockdowns in China, all das hat einen Einfluß auf die Preise. Man sieht es ja nicht nur im IT-Bereich, ein kurzer Blick auf die Lebensmittelpreise reicht.

Seit wann ist der IT-Bereich denn in einer Deflation? Während Ampere und vor Ada war das garantiert nicht der Fall, da waren die Preise sehr hoch. TSMC hatte zu der Zeit auch die Preise pro Wafer angehoben, und da wurden die Verträge über die Ada Fertigung gemacht.


Beides sind Microchips, die auf Wafern belichtet werden, in zwei verschiedenen Hallen bei TSMC, Luftlinie wahrscheinlich ein paar hundert Meter entfernt.

Und du willst jetzt ernsthaft behaupten bei einem dieser Produkte wäre die Inflation viel schlimmer gewesen und der Waferpreis viel höher gestiegen als beim anderen? Meinst du das wirklich ernst?

Schön wie Du einfach nichts dazu sagst dass AMD die Preise ihrer GPUs auch angehoben hat. Du springst also zu einem anderen Hersteller UND einem anderen Produkt um deine Aussage zu stützen, und das funktioniert beim SELBEN Produkt des anderen Herstellers schon nicht mehr...

Wenn ein Hersteller eine CPU herstellt, dann muss er dazu kein AIB einkaufen, keine Lüfter, keine Kondensatoren, keinen VRAM, all das entfällt. Aber bleib ruhig bei Deinem unsinnigen Vergleich.

GPUs haben außerdem ein komplett anderes Ökosystem welches gepflegt und entwickelt werden muss. Die Treiber- und Feature-Teams sind sehr wahrscheinlich viel größer als die der CPU Abteilungen. R&D ist teurer, die Upscaler und Frame Generation Features erfinden sich ja nicht von allein.


Das habe ich auch nicht geschrieben. Ich habe hoch-KI'te Dinge geschrieben. Da steht nichts von erfunden.

DLSS 3.0 – So funktioniert die Grafik-Technologie
DLSS 3.0 setzt sich aus drei Kern-Elementen zusammen. Sie alle greifen auf eine künstliche Intelligenz zurück, die mittels deep learning mit hochauflösenden Bildern angelernt wird, um diese dann in Echtzeit in eine verbesserte Bildqualität umzumünzen. Quelle: https://www.connect-living.de/ratge...upscaling-nvidia-reflex-erklaert-3205815.html

Die hochauflösenden Bilder meines Körpers sollte NVidia allerdings nicht haben. Falls doch, wäre das eventuell ein Fall für ein Gericht.
Eine KI braucht keine hochauflösenden Bilder DEINES Körpers, es reicht wenn sie mit tausenden anderen Bildern trainiert wurde. Und wie kommst Du überhaupt darauf dass ein Arzt auf einen Bildschirm schaut wo ein hochskaliertes Bild dargestellt wird? Wir sprechen da von Kameras mit direkter Bildausgabe, da muss gar nichts berechnet werden. Die KI kann in solchen Fällen aber z.B. eine Live-Auswertung der Bilder vornehmen und dem Arzt auf dem Bildschirm Stellen markieren (mit Krebsbefall oder ähnliches).


Das habe ich genauso wenig geschrieben. In meinem Beispiel ging es um einen chirurgischen Eingriff. Keine Worte von KI-Modellen, Impfstoffherstellung oder Krebsfrüherkennung. Ich hab keine Ahnung, woher Du das ganze Zeug hast, ich wäre Dir aber dankbar beim Zitieren auch beim Inhalt des Zitats zu bleiben.
Aber in dem Zusammenhang kannst Du mir nochmal erklären, was DLSS genau mit Protein-Kombinationen zu tun hat.
DLSS nutzt einen KI-trainierten Algorithmus um Bilder hochzuskalieren. In der Protein-Kombinierung werden mittlerweile auch KI-trainierte Algorithmen genutzt. Das hat es miteinander zu tun.

Ich habe übrigens eine vollständige Maschinen-Operation hinter mir. Bereits vor über 10 Jahren habe ich mir die Augen lasern lassen, das Gerät hat ALLES automatisch gemacht, der Arzt saß nur daneben. Femto-Sekunden-Laser kann kein Mensch bedienen. Eine KI-gestützte Operation sehe ich überhaupt nicht als problematisch an. Menschen machen deutlich mehr Fehler als Maschinen. Siehe auch autonomes Fahren.


Aha ... das klingt nicht schlecht, aber meinst Du DLSS oder Deine selbst genannten KI-Modelle?
Deine Aussage war dass Du keine KI-hochskalierten Bilder während einer OP möchtest. Ich sprach davon dass KI-Anwendungen in der Medizin bereits eingesetzt werden. Mit DLSS an sich hat das aber wenig zu tun.

Glaubst Du, dass Du fehlerfrei bist?
Nein.

Edit: Nur so nebenbei: ich bin Brillenträger. Warum also sollte ich das glauben? Ich persönlich glaube, dass ein Mensch kein Roboter ist und das Fehler (oder in Deinem Fall Fehlinterpretationen, evtl. aus Gründen ungenügender Auflösung oder anderen Umständen) zu seiner Existenz gehören.
Ich Unterrichte meinen Schülern sogar gezielt einen positiven Umgang mit Fehlern, nicht nur aus einer auf die Lerneffizienz ausgerichteten Perspektive. Wir können alle unseren Fehlern mit Leichtigkeit begegnen. 100%ig Fehlerfrei? Nein Danke! Das wäre mir wohl eh viel zu langweilig. Klingt ja irgendwie nach der ersten Matrixversion.
Ich wollte damit nur ausdrücken dass bereits unsere Interpretation von Licht welches auf unsere Netzhaut trifft fehlerhaft ist. Ein KI-hochskaliertes Bild darf also auch ein paar kleine Fehler enthalten wenn die Vorteile überwiegen, meinst Du nicht?
 
Zurück