Die visuelle Qualität von Spielen steigert sich nahezu jährlich.
Gehen wir von 30% Leistungssteigerung pro Generation aus, sind wir in 30 Jahren so weit
WERBUNG!!
Errrm, wenn dann ist AMD die Technologiebremse.
Du solltest dich evtl damit beschäftigen welcher GPU Hersteller am meisten in Vulcan investiert und da am meisten mitmischt.
Spoiler: Es ist nicht AMD.
The impact of AMD's stepping forward and providing Mantle as a place to start was huge for the Vulkan working group. We probably would not be where we are today without them and we take off our hats to them (and their lawyers) for being willing to make that happen. The original proposal for Vulkan was basically a cleaned-up version of Mantle. AMD got the conversation really going, but over an 18-month period there have been contributions from a lot of the other members at Khronos as well. Some were small tweaks, and some really major features: render pass was never in Mantle, for example, yet it's a core part of Vulkan now. So there's an obvious heritage there, and if you have an experience with Mantle, I don't think you would have any trouble at all moving to Vulkan. Some of the API names are the same, and it's lived on there, but it is a significant update. There are some very significant differences and enhancements, and it's cross-vendor, cross-platform, so ... I think we've landed in a really good place. Overall Vulkan is truly a better API.
Ich finds halt nur cool dass ich jederzeit pausieren könnte, und das Bild aus nem Filmtrailer stammen könnte. Geht's nur mir so?
Dass NVIDIA daran mitarbeitet ist ja wohl klar und auch gut so. Aber hier hat AMD ganz klar die Innovation geleistet, von Technologiebremse kann man hier wohl kaum reden.
Naja, also ich denke mal nicht, dass die Anzahl der Farben linear zur Rechenleistung ansteigt. Ob jz SDR8 oder HDR10, man bekommt bei einer Anwendung mit 10bit sicherlich keine 25% mehr Leistung durch das Herabsetzen auf 8bit.HDR ist 10Bit dan auch nur eine zwischenstufe, aber mit 16Bit hätte man dann genügen Umfang um dunkle Schatten und blendene Sonne Darstellen zu können - wieder besser als das menschliche Auge sehen kann.
Also 16x Auflösung, 2x Bildrate, 2x Bittiefe, 2x Bilder - 128x Leistung nur dafür.
Und dann will man auch noch die Qualität der Berechnung steigern - also nach oben hin ist noch viiiel Luft.
Mit dem Faktor 40 ist das ja noch eine sehr optimistische Einschätzung.
Vllt kein Wunschdenken, aber die Zukunft. AMD und NVIDIA stellen Bibliotheken mit entsprechendem Hardware-Zugriff bereit, dass nimmt den Entwicklern schon mal viel Arbeit ab. Noch dazu ist der Vorteil von Vulkan, Mantle und DX12 längst nicht nur die nähere Ansprache der GPU Hardware - gerade die manuelle Memory Verwaltung dürfte hier für viele Entwickler eine Herausforderung sein - sondern auch eine effizientere CPU - GPU - Absprache. Das Ganze kennt man schon von Konsolen, dort funktioniert es ja auch wunderbar (siehe GTA V für PS3 und X360).AMD hat gepushed -die Anderen haben dann Resultate geliefert. Und das der Low-level Ansatz nichts als Marketing-Wunschdenken ist sollte doch jetzt mittlerweile jeder begriffen haben.
Der wohl größte Contributor zu Vulcan ist mit Abstand AMD, hier mal ein kleiner Ausschnitt aus dem offizilen Khronos-Github-FAQ:
Dass NVIDIA daran mitarbeitet ist ja wohl klar und auch gut so. Aber hier hat AMD ganz klar die Innovation geleistet, von Technologiebremse kann man hier wohl kaum reden.
Kommt darauf an was man genau betrachtet.Naja, also ich denke mal nicht, dass die Anzahl der Farben linear zur Rechenleistung ansteigt.
Ich kann dir hier nicht ganz folgen. Für 3D muss die selbe Szene 2 mal aus leicht unterschiedlichen WInkeln berechnet werden. Einige Sachen können hierbei wiederverwertet werden, wie zB LoD, Tesselierung, Texturefetch, die Bildberechnung an sich muss dennoch 2 mal durchgeführt werden.3D braucht auch keine doppelte Leistung, das kennen wir doch schon von VR: sich überschneidende Teile werden "einfach" nicht doppelt berechnet.
das ist eine Möglichkeit, die leider aber eben auch zu qualitätsverlust führt - man schaut nicht immer nur starr in die Mitte des Bildschirmes. Und wie gesagt spreche ich hier von den absoluten Limits - mehr ist nicht nötig, aber bis dorthin kann man es noch gewissermaßen Sinnvoll ausbauen.Du spricht von 16x-facher Auflösung, also 4x 4K. Für photorealistische Zocken ist ein Vollbildrendering in 16K mMn nicht nötig. An den Rändern kann man die Auflösung schrittweise herabsetzen (eine harte Kante wie sie aktuell noch umgesetzt ist halte ich dagegen für keine allzu gute Idee, das fällt schon stark auf).
Das von mir bisher genannte ist von der Software unabhängig - das sind reine physikalische Grenzen. Und Spiele werden sicher nicht simpler werden - ich kann dir sogar das Gegenteil garantieren.Da kommen wir von deinen 128x mal ganz schnell auf die Hälfte oder sogar auf ein Drittel - je nach dem wie man es sieht. Weitere Optimierung was die Software kommt wird es in Zukunft auch sicherlich noch geben. Faktor 40 klingt jetzt nicht allzu schlimm.
Lowlevel hat weit aus mehr nach als Vorteile. Das kann man auch gut bei Nvidia sehen. Deren Treiber ist wirklich gut und schafft es die Hardware beinahe vollständig auszulasten - gut sichtbar daran das viele Spiele unter Dx12 wo der Treiber weniger eingreifen kann schlechter laufen. Wenn man wirklich effizienten Code schreiben will dann ist es ein enormer Aufwand da nun der Entwickler jede Hardware berücksichtigen muss.Noch dazu ist der Vorteil von Vulkan, Mantle und DX12 längst nicht nur die nähere Ansprache der GPU Hardware - gerade die manuelle Memory Verwaltung dürfte hier für viele Entwickler eine Herausforderung sein - sondern auch eine effizientere CPU - GPU - Absprache.
Witzig - ist mein Beruf.Aber wenn du schon mal programmiert hast, weißt du sicher, dass es meistens einfach ist, Code an bestimmten Stellen abzuändern, als von Null zu beginnen.
Genau hier liegt der Trick. Bei VR werden Teile doppelt berechnet. Das ist ganz einfach nachzuvollziehen, halt dir einfach ein Auge zu, du sieht mit beiden einen gleichen Teil, der allerdings verschoben ist. Mit der richtigen Berechnung kann man hier das Rendern vom Bild extrem verkürzen. Bei 3D ist das im Grunde ziemlich ähnlich. Guck auch mal hier: NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - HardwareluxxIch kann dir hier nicht ganz folgen. Für 3D muss die selbe Szene 2 mal aus leicht unterschiedlichen WInkeln berechnet werden. Einige Sachen können hierbei wiederverwertet werden, wie zB LoD, Tesselierung, Texturefetch, die Bildberechnung an sich muss dennoch 2 mal durchgeführt werden.
Ja natürlich nicht, aber ziemlich oft. Überleg mal, wie oft du deine Augen wirklich weit bewegst im Alltag - meistens ist es doch eher das Zentrum, was im Fokus liegt, der Rest wird zwar wahrgenommen, allerdings nicht so stark vom Gehirn bearbeitet. Für "photorealistische" Immersion ist es nicht wirklich notwendig, alles in voller Auflösung zu rendern. Nur "4K" am Rand des Bildschirm ist auch noch zu ertragen - bzw man wird es nicht merken. Ein Qualitätsverlust ist das mMn nicht.das ist eine Möglichkeit, die leider aber eben auch zu qualitätsverlust führt - man schaut nicht immer nur starr in die Mitte des Bildschirmes. Und wie gesagt spreche ich hier von den absoluten Limits - mehr ist nicht nötig, aber bis dorthin kann man es noch gewissermaßen Sinnvoll ausbauen.
Richtig. Aber Software ist nun mal "die Lösung aller Probleme". Praktisches Beispiel: Star Wars Battlefront läuft auf meiner R9 380 butterweich (klar, nicht alles auf Max) und sieht dabei super schick aus. Guck dir jetzt mal Borderlands 2 an, mit hohen Settings droppt das regelmäßig unter 30 fps, und sieht weder besser aus noch ist es ein 64 Spieler Multiplayer - man bekommt ja nicht mal mehr als 30 NPCs auf einen Fleck.Das von mir bisher genannte ist von der Software unabhängig - das sind reine physikalische Grenzen. Und Spiele werden sicher nicht simpler werden - ich kann dir sogar das Gegenteil garantieren.
Richtig, Aufwand ist es. Allerdings ist es derzeit auch einfach von allen Seiten schlecht umgesetzt. Entsprechende HW-Optimierungen könnten schon direkt in die Engine programmiert werden, dass ist zwar Aufwand, allerdings ein einmaliger. Bei Compilern funktioniert das ja auch, ich sehe hier das Problem nicht.Lowlevel hat weit aus mehr nach als Vorteile. Das kann man auch gut bei Nvidia sehen. Deren Treiber ist wirklich gut und schafft es die Hardware beinahe vollständig auszulasten - gut sichtbar daran das viele Spiele unter Dx12 wo der Treiber weniger eingreifen kann schlechter laufen. Wenn man wirklich effizienten Code schreiben will dann ist es ein enormer Aufwand da nun der Entwickler jede Hardware berücksichtigen muss.
Aus dem Kontext gerissen. Von High Level auf Low Level poriteren ist quatsch, da kommt nur Müll raus (siehe derzeite LL Implementierungen). Ich meinte, dass es einfacher ist Vulkan mit Mantle als "Vorlage" zu entwickeln als ohne den Code. Es ist auch deutlich einfacher, eine GPU zu entwickeln, wenn du schon einen Bauplan von einer hast.Witzig - ist mein Beruf.
Von high auf Lowlevel Apis umzusteigen und dabei den Code nur umzuschaufeln funktioniert nicht - dann hat man am ende unleserlichen, fehleranfälligen und langsamen Code - da ist neu schreiben weitaus sinnvoller.
Anders rum ist es aber genau so Quatsch.Und ja, ich hatte nicht mit dem Offtopic begonnen.
Aber es ist nun mal falsch Nvidia als Innovationsbremse dahin zu stellen.