GPUs laut Nvidia-Manager noch weit von Echtzeit-Raytracing und photorealistischer VR entfernt

Die visuelle Qualität von Spielen steigert sich nahezu jährlich.

Ähm nein eher eben nicht mehr. Wenn ich mir die Grafiksprünge der Vergangenheit mit heute vergleichen haben wir eher eine Stagnation. Zumal solche Grafik die Entwicklungsprozesse explodieren lassen, überlegen sich immer mehr Studios ganz genau ob sie eine solche Grafik liefern wollen. De facto sind es nur noch sehr teure Produktionen die von grossen Hersteller oder hauseigenen Studios der Konsolenhersteller finanziert werden die solche Grafik liefern. Die Mehrheit bringt eher bescheide Grafik heraus und konzentriert sich aufs wesentliche.

Solche Sprünge wie zu Doom, Quake, Falcon 4.0, Ultima 9, UT2004, Doom 3, Crysis habe ich schon länger nicht mehr gesehen. Klar die Grafik von Dice spielen ist geil, aber vom Hocker haut es einem heutzutage auch nicht mehr. Es ist eher ein kontinuierlicher Verbesserungsprozess. Genau das ist aber eigentlich aus Marketinggründen eine schlechte Entwicklung. Wenn es keine eherblichen Unterschiede von Generation zu Generation gibt, oder wie oft in der Softwareentwicklung (Windows zum Beispiel) gar keine Generationen mehr, kommt es zu keinem WOW-Effekt mehr. Kunden stehen aber auf diesen vorher/nachher Vergleich der krasse Unterschiede zeigt.
 
Zuletzt bearbeitet:
Kann man mal sehen was Nvidia uns jetzt fürn Schrott andreht und jedes Jahr von der fantastisten Grafikkarte der Welt spricht. WERBUNG!!
 
Eigentlich hält man heute schon längst mögliche Technik nur noch so lange zurück, solange man die sehr teuer entwickelten, aber schon längst veralteten Techniken in möglichst sehr kleinen Schritten noch an den Mann bringen kann. Intel hat das kürzlich mit dem panischen Sprung von 4 auf 6 Kerne im Mainstream-Prozessormarkt bewiesen. Und der 6-Kerner ist auch nur der kleinste Schritt, denn man will sein Pulver ja nicht voreeilig verballern, solange man mit den kleinst möglichen Schritten noch das maximale an Profit herausholen kann. Marktwirtschaftlich macht das ja auch durchaus Sinn...hemmt den Fortschritt jedoch stark.
 
Errrm, wenn dann ist AMD die Technologiebremse.
Du solltest dich evtl damit beschäftigen welcher GPU Hersteller am meisten in Vulcan investiert und da am meisten mitmischt.
Spoiler: Es ist nicht AMD.

Abgesehen davon, dass das kompletter Offtopic ist, ist das schon wieder so ein Quatsch.
Der wohl größte Contributor zu Vulcan ist mit Abstand AMD, hier mal ein kleiner Ausschnitt aus dem offizilen Khronos-Github-FAQ:
The impact of AMD's stepping forward and providing Mantle as a place to start was huge for the Vulkan working group. We probably would not be where we are today without them and we take off our hats to them (and their lawyers) for being willing to make that happen. The original proposal for Vulkan was basically a cleaned-up version of Mantle. AMD got the conversation really going, but over an 18-month period there have been contributions from a lot of the other members at Khronos as well. Some were small tweaks, and some really major features: render pass was never in Mantle, for example, yet it's a core part of Vulkan now. So there's an obvious heritage there, and if you have an experience with Mantle, I don't think you would have any trouble at all moving to Vulkan. Some of the API names are the same, and it's lived on there, but it is a significant update. There are some very significant differences and enhancements, and it's cross-vendor, cross-platform, so ... I think we've landed in a really good place. Overall Vulkan is truly a better API.


Dass NVIDIA daran mitarbeitet ist ja wohl klar und auch gut so. Aber hier hat AMD ganz klar die Innovation geleistet, von Technologiebremse kann man hier wohl kaum reden.
 
Ich finds halt nur cool dass ich jederzeit pausieren könnte, und das Bild aus nem Filmtrailer stammen könnte. Geht's nur mir so?

"Filmisch" siehts auf jedenfall aus.
So 70er Jahre-Style.
*Wir bauen die ganzen Darstellungsfehler der Kameras nach, das Gehirn macht aus Gewohnheit den Rest* :D

Ist jetzt nicht so negativ gemeint, wie es vielleicht klingt ^^.
 
Hier ist aber mal wieder einiges an Unwissenheit unterwegs. Raytracing heißt ja nicht, dass man Polygonen abschwört, 3D Objekte werden weiterhin aus Dreiecken und Vierecken(die aus zwei Dreiecken bestehen) zusammengesetzt sein. Raytracing ist auch nicht immer das gleiche. Es wäre schön wenn es so wäre, aber wer schon mal mit Blender eine Animation gerendert hat, weiß genau, dass man da mit längeren Renderzeiten bessere Resultate erzielt. Auf Spiele bezogen heißt das also: Mehr Leistung ergibt bessere Bilder.

Dass der Grafikfortschritt in den letzten Jahren stagniert mag ja stimmen, ein Witcher 3 sieht definitiv nicht so schlecht aus, wie man es von einem 2 Jahre alten Spiel erwarten würde. Das liegt aber nicht daran, dass das Produzieren von Spielen mit besserer Grafik zu viel Aufwand ist, sondern daran, dass die Hardware stagniert. Es ist immer schwer jemandem zu erklären, wie Game Objects produziert werden, aber lass es mich mal so fassen: Man erstellt ein Objekt mit ganz vielen Polygonen(High Poly), dann erstellt man das gleiche Objekt mit ganz wenigen Polygonen(Low Poly), welches in Spielen verwendet werden könnte. Dann schnippelt man das niedrig aufgelöste Objekt auseinander um 2D Texturen anbringen zu können(UV Mapping). Dann "baked" man die Details vom High Poly Objekt aufs Low Poly Objekt, was übrigens auch mit Raytracing funktioniert. Vom Low Poly Objekt wird quasi ein Ray gegen das High Poly Objekt geschossen und speichert dann in einer RGB Textur den Normalenvektor der Ebene, auf die dieser Ray trifft. Natürlich gibts dann auch noch die tatsächliche Farbe, AO maps usw, das geht aber jetzt zu weit. Jedenfalls wird beim Rendern des Low Poly Objects im Spiel die Textur mit den Normalenvektoren(Normal map) herangezogen, um zu wissen, in welche Richtung Licht reflektiert werden muss usw. Dadurch sieht das Low Poly Objekt ähnlich aus wie das High Poly Objekt, braucht aber wesentlich weniger Leistung. Wie nah das Objekt an ein High Poly Objekt herankommt, ist davon abhängig, wie viele Polygone man einspart und wie hoch die Normal map Auflösung ist. Das heißt, schönere Objekte sind nicht mehr Arbeit, sondern eine Entscheidung die aktiv getroffen wird. Ob ein Character den ich erstelle 200k oder 30k Polygone hat, ändert an meinem Arbeitsaufwand nicht viel. Das High Poly Modell hat so oder so mehrere Millionen Polygone, und das muss ja sowieso vorher erstellt werden. Manch einer würde sogar sagen, ein 30k Character ist schwieriger zu erstellen als ein 200k Character. Bei dem Rendering selbst lässt sich auch nicht mehr viel machen. Wir sind nun mal jetzt in der PBR Ära angekommen und mit aktuellen Rendering Methoden ist es eben schwierig noch realistischer zu werden. Schließlich speichert eine Textur ja bereits Roughness, Occlusion, Metallic, Normal und Color data. Auch die Beleuchtung ist quasi an den aktuellen Hardware Grenzen angekommen. Klar, mehr Spiegelungen, mehr Transparency usw geht immer, lohnt aber den Rechenaufwand nicht. Das Fazit: Spiele sehen immer so gut aus, wie die aktuelle Technik es erlaubt. Und ja, die Konsolen spielen dabei eine wesentliche Rolle. Wenn ich heute anfange ein Spiel zu entwickeln, muss ich damit rechnen, dass es auf der lahmen Krücke von Xbox Scorpio laufen muss. Die Low Poly Objekte wiederum doppelt zu erstellen wäre viel Arbeit, also muss ich mich einschränken und die Topology auf die Xbox anpassen...
 
Mal abgesehen vom RayTracing wurden hier auch sehr merkwürdige Aussagen getroffen.
Auflösung und Bildraten können nur in einem gewissen Rahmen Sinnvoll erhöht werden. Bei 4K und normalen Bildschirmen ist man schon ziemlich an der grenze der Wahrnehmung, mit 8K braucht man schon einen riesen Bildschirm, bei 16K liegt man über dem physikalisch Wahrnehmbaren. Bei den FPS ist man mit 100 FPS schon gut bedient, mit guter Frame interpolation hat man bei ~150 FPS auch das maximum erreicht, bei 250 FPS ist dann auch Schluss.

HDR und später dann auch 3D werden da sinnvoller sein - ja, sogar das gute alte Gimik 3D.
HDR ist 10Bit dan auch nur eine zwischenstufe, aber mit 16Bit hätte man dann genügen Umfang um dunkle Schatten und blendene Sonne Darstellen zu können - wieder besser als das menschliche Auge sehen kann.

Also 16x Auflösung, 2x Bildrate, 2x Bittiefe, 2x Bilder - 128x Leistung nur dafür.
Und dann will man auch noch die Qualität der Berechnung steigern - also nach oben hin ist noch viiiel Luft.



Mit dem Faktor 40 ist das ja noch eine sehr optimistische Einschätzung.
Der derzeitige Weg Dreiecke direkt zu zeichnen wird deshalb eingesetzt weil es bei weitem das effektivste ist was man machen kann - ganz einfache Vektor Additionen/Multiplikationen, sehr einfaches vorsortieren, prefekt für Texturen etc.
damit das ganze besser aussieht wird schon herumgetrickst mit anderen Techniken, wie Volumetrisches Licht das Lichtreflektionen von normalen Gegenständen vortäuscht.

bei RayTracing wirds dann schon um einiges schwieriger zu tricksen - wenn man es denn dann eben für die Darstellung und nicht nur für einzelne Zwischenschritte von Effekten nutzen will.
Kann man ja einfach so sehen:
fullHD heisst man muss ~2 Millionen Strahlen durch den Raum schicken und auf Kollisionen mit Objekten prüfen - nur damit man jeden Pixel am Bildschirm einmal abgetastet hat. Dafür muß der Strahl mit infrage kommenden Objekten geschnitten werden, was dann mal eben zu 500 oder mehr Operationen führt.
Will man nun auch die Beleuchtung raytracen dann kann man die zahl gleich mit >100 Multiplizieren.
Und nicht vergessen das wir das ganze 60 mal die Sekunde machen müssen.
Allein so ein rudimentärer Raytracer würde also schon ~6 Teraflop brauchen, also ne GTX 1070 oder Rx 580.
Wenn man jetzt dann aber Charaktere mit 50k Polygonen daher kommt anstatt nur PS2 Grafik zu haben dann kann man die Anforderungen gleich mal 10 nehmen.


RayTracing kann sehr gut eingesetzt werden um Beleuchtungseffekte zu realisieren, aber fürs Rendern braucht es einfach gewaltige mengen an Rechenleistung.



Dass NVIDIA daran mitarbeitet ist ja wohl klar und auch gut so. Aber hier hat AMD ganz klar die Innovation geleistet, von Technologiebremse kann man hier wohl kaum reden.

AMD hat gepushed -die Anderen haben dann Resultate geliefert. Und das der Low-level Ansatz nichts als Marketing-Wunschdenken ist sollte doch jetzt mittlerweile jeder begriffen haben.
 
HDR ist 10Bit dan auch nur eine zwischenstufe, aber mit 16Bit hätte man dann genügen Umfang um dunkle Schatten und blendene Sonne Darstellen zu können - wieder besser als das menschliche Auge sehen kann.
Also 16x Auflösung, 2x Bildrate, 2x Bittiefe, 2x Bilder - 128x Leistung nur dafür.
Und dann will man auch noch die Qualität der Berechnung steigern - also nach oben hin ist noch viiiel Luft.
Mit dem Faktor 40 ist das ja noch eine sehr optimistische Einschätzung.
Naja, also ich denke mal nicht, dass die Anzahl der Farben linear zur Rechenleistung ansteigt. Ob jz SDR8 oder HDR10, man bekommt bei einer Anwendung mit 10bit sicherlich keine 25% mehr Leistung durch das Herabsetzen auf 8bit.
3D braucht auch keine doppelte Leistung, das kennen wir doch schon von VR: sich überschneidende Teile werden "einfach" nicht doppelt berechnet. Klar, da braucht es sicher noch etwas "Forschungsbedarf", aber in 5-6 Jahren könnte das schon guter Standard sein. Ebenso dynamische Auflösung. Du spricht von 16x-facher Auflösung, also 4x 4K. Für photorealistische Zocken ist ein Vollbildrendering in 16K mMn nicht nötig. An den Rändern kann man die Auflösung schrittweise herabsetzen (eine harte Kante wie sie aktuell noch umgesetzt ist halte ich dagegen für keine allzu gute Idee, das fällt schon stark auf).
Da kommen wir von deinen 128x mal ganz schnell auf die Hälfte oder sogar auf ein Drittel - je nach dem wie man es sieht. Weitere Optimierung was die Software kommt wird es in Zukunft auch sicherlich noch geben. Faktor 40 klingt jetzt nicht allzu schlimm.


AMD hat gepushed -die Anderen haben dann Resultate geliefert. Und das der Low-level Ansatz nichts als Marketing-Wunschdenken ist sollte doch jetzt mittlerweile jeder begriffen haben.
Vllt kein Wunschdenken, aber die Zukunft. AMD und NVIDIA stellen Bibliotheken mit entsprechendem Hardware-Zugriff bereit, dass nimmt den Entwicklern schon mal viel Arbeit ab. Noch dazu ist der Vorteil von Vulkan, Mantle und DX12 längst nicht nur die nähere Ansprache der GPU Hardware - gerade die manuelle Memory Verwaltung dürfte hier für viele Entwickler eine Herausforderung sein - sondern auch eine effizientere CPU - GPU - Absprache. Das Ganze kennt man schon von Konsolen, dort funktioniert es ja auch wunderbar (siehe GTA V für PS3 und X360).
AMD hat eine ganze API bereitgestellt. Selbst wenn sie sich danach zurückgelehnt haben sollten - was wohl niemand von uns genau wissen wird - ist das schon mal ein ordentliches Code-Gerüst. Natürlich muss dieses in Bezug auf Hardware Kompatibilität va von anderen Herstellern noch modifiziert werden, und natürlich haben auch andere Entwickler Vorschläge, die eine Besserung Lösung darstellen als die Lösung in Mantle. Aber wenn du schon mal programmiert hast, weißt du sicher, dass es meistens einfach ist, Code an bestimmten Stellen abzuändern, als von Null zu beginnen.
 
Der wohl größte Contributor zu Vulcan ist mit Abstand AMD, hier mal ein kleiner Ausschnitt aus dem offizilen Khronos-Github-FAQ:



Dass NVIDIA daran mitarbeitet ist ja wohl klar und auch gut so. Aber hier hat AMD ganz klar die Innovation geleistet, von Technologiebremse kann man hier wohl kaum reden.

Ja, AMD hat wie schon öfter Innovation geleistet, bzw das Grundgerüst gestellt.
Aber da pusht momentan Nvidia deutlich mehr bei den developers und bei der zusammenarbeit.
AMD redet wie immer nur darüber, hat aber Versprochen das sie mehr Entwicklern mit Personal (Wohl eine Kontakt person die bei Fragen um die Implementation hilft) und Geld helfen wollen. Muss man nur abwarten und hoffen dass das auch so eintritt.

Bei der Unterstützung für Entwicklern hapert es bei AMD nämlich genauso oft wie bei Treiber Optimierungen für viele beliebte Spiele. Man kann nicht ne API dahinstellen und dann hoffen und verlangen das sie jeder Entwickler nutzt, von sich aus geben die nur ungern Geld für etwas neues aus das erst einmal keinen oder nur einen geringen vorteil bringt.


Und ja, ich hatte nicht mit dem Offtopic begonnen. ;)
Aber es ist nun mal falsch Nvidia als Innovationsbremse dahin zu stellen.
 
Naja, also ich denke mal nicht, dass die Anzahl der Farben linear zur Rechenleistung ansteigt.
Kommt darauf an was man genau betrachtet.
Wenn man es effektiv direkt in Hardware umsetzen will dann braucht es auch entsprechend mehr Hardware/Leistung. Da die Berechnungen ja mittlerweile von general purpose Hardware durchgeführt werden wird sich der Aufwand nicht sonderlich steigern.
spezialisierte Hardware wie Texturspeicher, Mipmap generator, Textur Streaming/Komprimierung hingegen steigen linear bis sogar etwas stärker. Im schlimmsten Fall müssen 10bit wie 16 behandelt werden.


3D braucht auch keine doppelte Leistung, das kennen wir doch schon von VR: sich überschneidende Teile werden "einfach" nicht doppelt berechnet.
Ich kann dir hier nicht ganz folgen. Für 3D muss die selbe Szene 2 mal aus leicht unterschiedlichen WInkeln berechnet werden. Einige Sachen können hierbei wiederverwertet werden, wie zB LoD, Tesselierung, Texturefetch, die Bildberechnung an sich muss dennoch 2 mal durchgeführt werden.


Du spricht von 16x-facher Auflösung, also 4x 4K. Für photorealistische Zocken ist ein Vollbildrendering in 16K mMn nicht nötig. An den Rändern kann man die Auflösung schrittweise herabsetzen (eine harte Kante wie sie aktuell noch umgesetzt ist halte ich dagegen für keine allzu gute Idee, das fällt schon stark auf).
das ist eine Möglichkeit, die leider aber eben auch zu qualitätsverlust führt - man schaut nicht immer nur starr in die Mitte des Bildschirmes. Und wie gesagt spreche ich hier von den absoluten Limits - mehr ist nicht nötig, aber bis dorthin kann man es noch gewissermaßen Sinnvoll ausbauen.

Da kommen wir von deinen 128x mal ganz schnell auf die Hälfte oder sogar auf ein Drittel - je nach dem wie man es sieht. Weitere Optimierung was die Software kommt wird es in Zukunft auch sicherlich noch geben. Faktor 40 klingt jetzt nicht allzu schlimm.
Das von mir bisher genannte ist von der Software unabhängig - das sind reine physikalische Grenzen. Und Spiele werden sicher nicht simpler werden - ich kann dir sogar das Gegenteil garantieren.




Noch dazu ist der Vorteil von Vulkan, Mantle und DX12 längst nicht nur die nähere Ansprache der GPU Hardware - gerade die manuelle Memory Verwaltung dürfte hier für viele Entwickler eine Herausforderung sein - sondern auch eine effizientere CPU - GPU - Absprache.
Lowlevel hat weit aus mehr nach als Vorteile. Das kann man auch gut bei Nvidia sehen. Deren Treiber ist wirklich gut und schafft es die Hardware beinahe vollständig auszulasten - gut sichtbar daran das viele Spiele unter Dx12 wo der Treiber weniger eingreifen kann schlechter laufen. Wenn man wirklich effizienten Code schreiben will dann ist es ein enormer Aufwand da nun der Entwickler jede Hardware berücksichtigen muss.

Aber wenn du schon mal programmiert hast, weißt du sicher, dass es meistens einfach ist, Code an bestimmten Stellen abzuändern, als von Null zu beginnen.
Witzig - ist mein Beruf.
Von high auf Lowlevel Apis umzusteigen und dabei den Code nur umzuschaufeln funktioniert nicht - dann hat man am ende unleserlichen, fehleranfälligen und langsamen Code - da ist neu schreiben weitaus sinnvoller.
 
Bei den ganzen Überlegungen bzgl. Auflösung, Framerate etc. sollte man sich nochmal bewusst machen, dass Film und Fernsehen im wörtlichen Sinne fotorealistisch und weit entfernt von den genannten Anforderungen sind.
 
Ich kann dir hier nicht ganz folgen. Für 3D muss die selbe Szene 2 mal aus leicht unterschiedlichen WInkeln berechnet werden. Einige Sachen können hierbei wiederverwertet werden, wie zB LoD, Tesselierung, Texturefetch, die Bildberechnung an sich muss dennoch 2 mal durchgeführt werden.
Genau hier liegt der Trick. Bei VR werden Teile doppelt berechnet. Das ist ganz einfach nachzuvollziehen, halt dir einfach ein Auge zu, du sieht mit beiden einen gleichen Teil, der allerdings verschoben ist. Mit der richtigen Berechnung kann man hier das Rendern vom Bild extrem verkürzen. Bei 3D ist das im Grunde ziemlich ähnlich. Guck auch mal hier: NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx


das ist eine Möglichkeit, die leider aber eben auch zu qualitätsverlust führt - man schaut nicht immer nur starr in die Mitte des Bildschirmes. Und wie gesagt spreche ich hier von den absoluten Limits - mehr ist nicht nötig, aber bis dorthin kann man es noch gewissermaßen Sinnvoll ausbauen.
Ja natürlich nicht, aber ziemlich oft. Überleg mal, wie oft du deine Augen wirklich weit bewegst im Alltag - meistens ist es doch eher das Zentrum, was im Fokus liegt, der Rest wird zwar wahrgenommen, allerdings nicht so stark vom Gehirn bearbeitet. Für "photorealistische" Immersion ist es nicht wirklich notwendig, alles in voller Auflösung zu rendern. Nur "4K" am Rand des Bildschirm ist auch noch zu ertragen - bzw man wird es nicht merken. Ein Qualitätsverlust ist das mMn nicht.


Das von mir bisher genannte ist von der Software unabhängig - das sind reine physikalische Grenzen. Und Spiele werden sicher nicht simpler werden - ich kann dir sogar das Gegenteil garantieren.
Richtig. Aber Software ist nun mal "die Lösung aller Probleme". Praktisches Beispiel: Star Wars Battlefront läuft auf meiner R9 380 butterweich (klar, nicht alles auf Max) und sieht dabei super schick aus. Guck dir jetzt mal Borderlands 2 an, mit hohen Settings droppt das regelmäßig unter 30 fps, und sieht weder besser aus noch ist es ein 64 Spieler Multiplayer - man bekommt ja nicht mal mehr als 30 NPCs auf einen Fleck.
Spiele gehen "so langsam" Richtung Massenmarkt - da braucht es einfach auch Teams die sich um die Technik kümmern. Ein 50 Mann Team kann auch kein Hollywood Film drehen.


Lowlevel hat weit aus mehr nach als Vorteile. Das kann man auch gut bei Nvidia sehen. Deren Treiber ist wirklich gut und schafft es die Hardware beinahe vollständig auszulasten - gut sichtbar daran das viele Spiele unter Dx12 wo der Treiber weniger eingreifen kann schlechter laufen. Wenn man wirklich effizienten Code schreiben will dann ist es ein enormer Aufwand da nun der Entwickler jede Hardware berücksichtigen muss.
Richtig, Aufwand ist es. Allerdings ist es derzeit auch einfach von allen Seiten schlecht umgesetzt. Entsprechende HW-Optimierungen könnten schon direkt in die Engine programmiert werden, dass ist zwar Aufwand, allerdings ein einmaliger. Bei Compilern funktioniert das ja auch, ich sehe hier das Problem nicht.
Einen High Level Code irgendwie auf was Low Level runterzubrechen kann nur schief gehen. Das ist dann ungefähr so, wie wenn man versucht ein Code in Assembler umzuwandeln - das kann der Mensch so schlecht, dass er auch gleich ne Maschine machen lassen kann. Wenn dann von Grund auf neue - The Talos Principle, Wolfenstein 2 und AotS zeigen wie es geht.
Ja, gerade das Speichermanagement macht Riesenprobleme - mMn eher suboptimal, dass gerade das den Entwicklern überlassen wird - aber dafür gibt es aber auch die Bibliotheken von NV und AMD. Vergiss nicht - das ist alles noch relativ "neu". So lange gibts Vulkan noch nicht und die Bibliotheken erst recht nicht.
Mehr Nach- als Vorteile würde ich so nicht unterschreiben. Das ist im Moment so, liegt aber mMn einfach daran, dass es die Engine-Entwickler nicht gebacken bekommen, die APIs vernünftig umzusetzen (ja, das bedeutet große Teile der Engine neu schreiben). Gib dem ganzen noch 5 Jahre und dann sind es mehr Vor- als Nachteile.


Witzig - ist mein Beruf.
Von high auf Lowlevel Apis umzusteigen und dabei den Code nur umzuschaufeln funktioniert nicht - dann hat man am ende unleserlichen, fehleranfälligen und langsamen Code - da ist neu schreiben weitaus sinnvoller.
Aus dem Kontext gerissen. Von High Level auf Low Level poriteren ist quatsch, da kommt nur Müll raus (siehe derzeite LL Implementierungen). Ich meinte, dass es einfacher ist Vulkan mit Mantle als "Vorlage" zu entwickeln als ohne den Code. Es ist auch deutlich einfacher, eine GPU zu entwickeln, wenn du schon einen Bauplan von einer hast.


Und ja, ich hatte nicht mit dem Offtopic begonnen. ;)
Aber es ist nun mal falsch Nvidia als Innovationsbremse dahin zu stellen.
Anders rum ist es aber genau so Quatsch.
 
Zuletzt bearbeitet:
Zurück