Leider hat AMD wieder einmal verschlafen, so das Nvidia auch diesem Bereich dominieren wird, aber es gibt ja noch Intel, die rüsten auch auf in Sachen KI wird spannend.
Die schlafen nicht, die verzetteln sich nur mit erschreckender Regelmäßigkeit durch Over-Engineering: Das sorgt dann für "Schüsse ins Blaue" die im Endeffekt Totalausfälle sind, weil nicht vom Markt angenommen(z.B. Vega Primitive Shaders) oder am Markt vorbei entwickelt(Bulldozer). Manchmal kommen aber auch echte Revolutionen für die ganze Halbleiterindustrie bei raus wie HBM(nutzen alle, ist nur zu teuer für den Normalo), Chiplets und Interposer(nutzen Intel und AMD), IMC(nutzen auch alle).
Die kommende FG von AMD sieht ja auch vielversprechend aus und die Verzögerung ist zumindest laut den jüngsten Informationen gerechtfertigt, wenn sie denn tatsächlich in dem Umfang kommt. Zumindest wirkt das nicht mit heißer Nadel gestrickt, auch wenn das viele Kommentatoren hier gerne sähen, weil die Konkurrenz mal wieder werbewirksam vorgeprescht ist.
Nvidia Technologien von denen wir profitieren:
- T&L (ja, ich meine die Revolution der 3D Grafikberechnung mit der Geforce256)
Ja NVidia waren die ersten, aber die ganze Grafikindustrie hatte damals das Problem des harten Prozessorlimits wegen Transformation gesehen. Damals gab es auch noch keine x86 Multikernprozessoren, wo man einen anderen kern dafür abstellen konnte. Spätestens mit der Voodoo2 war das extrem auffällig und wurde dann für DX7 Keyfeature. Wegen des GHz-Rennens hat man sich aber nicht sofort um das Problem gekümmert(und deshalb war die Geforce 256 SDR auch nicht sofort der Killer, da die anderen Karten mit den neuen schnellen Prozessoren zeitnah aufschließen konnten. Erst mit dem DDR Modell und der Geforce 2 und dem Wechsel der Software auf 32 Bit(wo 3dfx kein Land mehr gesehen hat), wurde NVidia groß. T&L alleine war man nur schneller, aber nicht der Revoluzzer wie dargestellt, da die ganze Industrie in die Richtung entwickelt hat.
Heute würde ich fast sogar behaupten, dass man T&L besser einstampft und wieder den Prozessor dafür abstellt, weil die Busbandbreite groß genug wird und man massig Kerne zur Verfügung hat. Wer den Mut hat das umzusetzen(auch wenn man dann vermutlich M$ vor das Schienbein tritt mit ihrer DX-Spezifikation) wird der nächste Performanceking(zumindest in allen Titeln, die heute im GPU-Limit hängen).
- G-Sync (es gab vorher keine Monitor Sync Technologie im Consumer Bereich soweit ich weiss)
Das ist richtig, bis auf eine Spezifikation der VESA die keinen Interessiert hat, gab es da nichts.
- PhysX (war vorher eine extra PCI Karte die man kaufen musste)
Und die dazugehörende API. Die Konkurrenz Havoc war ja Prozessor-only und da auch stark limitiert(viele noch mit hochgetaktetem Singlecore oder "geklebtem Dualcore" mit Schneckentakt unterwegs). Die Idee von Ageia, Physik auf einen separaten Chip auszulagern war gut, mit Prozessorfallback natürlich. Nvidia machte daraus eine reine Prozessorlösung mit Grafikkartencheck(und Handbremse falls NV nicht erkannt wurde). Mafia 2 z.B. zieht nach ca. 10 min die Bremse wenn man keine NV-Karte hat(aus heiterem Himmel). Safe&Load, NV-Dummytreiber oder Gammel-Geforce reichten zum überzeugen der Software. NV Treiber ohne Vendor-ID werfen einen auch raus
.
- Reflex (beste Latenzverbesserung wo gibt, vorher gab es da nichts)
- Upscaling (war vorher alles ziemlicher Schrott bis DLSS 2.0 kam)
Stimmt beides, da hat NVidia wirklich sinnvoll Neuland betreten.
- Real-Time-Raytracing / Pathtracing (dass das so schnell für Consumer erreichbar wird hätte vor 5 Jahren JEDER als unmöglich bezeichnet)
Ja sie waren die ersten und ich finde es super, dass sie da den ersten Schritt gemacht haben. Das Ganze wurde nur völlig falsch beworben in meinen Augen.
Echtzeit-Raytracing ist auch heute noch zu langsam: Mehr als ein paar Alibipfützen, stark vereinfachte Abtastung mit absurdem Denoising und Uralt-Titel mit gefühlten 10 Polygonen klappen auch heute noch nicht. Den Vorteil sehe ich aber in der Entwicklung von neuen Engines und Spielen: Man muss kein Genie mehr sein, um die Beleuchtung oder Schatten glaubhaft in Spielen darzustellen. Was Performance angeht ist Baked Lighting samt Shadowmaps nach wie vor der Optik- und FPS-King, aber es vereinfacht die Entwicklung enorm, wenn man mit Echtzeit Raytracing on-the-fly sieht, wie ein Level oder eine Szene aussieht ohne zunächst stundenlang rendern zu müssen, wie früher. Und Dinge wie Spiegel muss man nicht mehr mit Render-to-texture(was gerade auf Konsolen ohne brauchbaren BST schnell Performancekiller ist) teuer implementieren.
Insofern hat NVidia da in erster Linie viel für Spieleentwickler gemacht(zumindest aus meiner Sicht); für den Kunden ist das ganze noch Spielerei und nur bei den üblichen Verdächtigen(Pfützen und Co) sinnvoll. Deshalb auch die kritik an der erbung von Nvidia damals.
Sorry, aber ich muss zu Dir stellvertretend sagen: Mich kotzt eure Technik-Angst an. Wir sind hier in einem PC Games Hardware Extreme Forum, hier sollten sich technikbegeisterte Leute austauschen über den neuesten heißen Shice und was liest man stattdessen? "Früher war alles besser" - "Nativ oder GTFO" - "Keiner braucht Raytracing". Ewiggestrige trifft es wirklich gut. Warum etwas schlauer berechnen wenn man es mit drölfzig Watt auch brute forcen kann, gell?
Der Rant musste mal raus.
Ist doch eigentlich konsequent: Wir wollen hier Over-Engineering und neue Hard- und Softwarelösungen, statt Softwarelösungen, die mittelmäßige Hardware streckt. Sowas muss auch sein, aber bitte als eine Art Abwärtskompatibilität("hey mit unserer damals tollen, jetzt nicht mehr ganz frischen 1070 kannste auch heute noch alles machen... toll dass du uns treu bleibst!"), aber das nicht als den neuen heißen Scheiß bewerben. Neues per Software konkurrenzfähig machen und altes frühzeitig per Software auf die Resterampe ist genau das Gegenteil von Innovation.
NVidia bitte mehr T&L, Gsync, Reflex, DLSS(für alle noch treiberunterstützten Karten) so was, aber bitte keine als Neuerung verkauften Zwischenlösungen. Machts wie AMD, riskiert einfach mal was! Ihr habt das wirklich mal gekonnt(und könnt das heute bei dem Aktienkurs besser als je zuvor):
32bit-3d Rendering, das wart ihr; Unified Shader(eurer Ding), SLI(nicht neu aber macht das doch nochmal mit den neuen Algorithmen).
DLSS steigert die Bildqualität
Wenn sonst alles flimmert und die Pixel tanzen, dann nehme ich das gerne damit das Bild aufhört so unruhig zu sein(vor allem Gras, Zäune, Blätter etc.). Besser ist es aber nicht, nur billiger, als Downsamling zu nutzen.
Natives Rendering ist durch Upscaling schlicht und einfach nur noch ineffizient.
Ja bei FPS/Watt oder FPS/Euro sicherlich gerne auch bei Bildqualität, wenn die Ausgangsauflösung(für DLSS)>=Zielauflösung(Monitor) ist und dann DLSS zusätzlich genutzt wird(quasi als Downsampling für Arme). Aber wenn die Ausgangsauflösungauflösung für DLSS < Zielauflösung, also Upsamplin wie angedacht, ist , dann kann die Bildqualität gar nicht so gut sein wie nativ zumindest nicht vom Detailgrad. Weil Upscaling halt nichts dazuerfindet, wie
Weißt du was nativ bedeutet? Renderauflösung = Ausgabeauflösung.
Vor oder nach DLSS? Wenn man DLSS als eine Art Postprocessing sieht, dann rendert man in 1080p und bläst das ganze auf 1440p auf. Nativ? Ist ja 1440p gerendert oder doch nicht?
Konservative "nativ"-Verfechter sehen das eher so: 720p<720p+DLSS(Ziel ~1080p)<1080p<1080+DLSS(Ziel-/Monitorauflösung ~1440p)<1440p<1440p+DLSS(Ziel ~4k)<4k...
Um das mal zu verdeutlichen: Downsampling beispielsweise rechnet ja auch nicht nativ. Dabei wird intern eben eine höhere Auflösung berechnet, wodurch wiederum mehr Informationen im endgültigen Bild enthalten sind als mit der nativen Auflösung.
Besseres Bild bei nicht-nativer Auflösung
Ich denke jedem sollte klar sein, dass "nativ" impliziert, dass die Renderauflösung(vor Postprocessing) mindestens der technischen(halt "nativen") Auflösung seines (LCD-)Bildschirms entspricht, damit ein Pixel auch ein Pixel ist und es keine Unschärfe/Interpolationsartefakte wegen zu geringer Auflösung gibt. Klar die Grafikkarte spuckt ein 1440p Bild aus, wenn man 1080p hochrechnet, aber DLSS sieht halt nur 1080p(halt nicht nativ).
"Nativ" sagt nichts über die Qualität von irgendwas.
Stimmt. Nur die Korrelation Detailgrad zu Qualität besteht zweifellos: Beispeilsweise ist bei manchen Engines das Sichtfeld auflösungsabhängig. Auf 1440p Upgescaltes hat immer weniger auf dem Schirm, als Natives oder Downgesampeltes.
*vor und nach DLSS Auflösungen Beispielwerte. Die krummen Zahlen der Basisrenderauflösung merkt sich ja kein Schwein
software lässt sich eben besser verkaufen als teure 3nm Hardware, wo die marge nicht hoch ist.
Die Produktionskosten sind auch toll. Das Geschenk das nicht aufhört zu schenken. Der Sampo* der Technikindustrie.
*magisches Gerät des Kalevala, das Salz, Weizen und Gold produziert und seinem Besitzer unermesslichen Wohlstand verschafft