Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Und das liegt nur daran, weil Nvidia eine größere State-Maschine hat was ihren Grafikkontext angeht und weniger flexibel bei der Ausführung ist?
Oder weil sie in anderen Hardwarebereichen vor AMD liegen und auch bessere Treiber schreiben?
Weil NVIDIA viel Zeit in das Frontend gesteckt hat, beginnend ab Fermi und der Parallelisierung der Geometrieverarbeitung - ein absolutes Novum im Grafikchipbereich, leider viel zu wenig gewürdigt.

NVIDIA hat eben immer daran gearbeitet, die Karte perfekt für den Grafikkontext auszulegen. Und somit auch keine Notwendig für AC.

Pascal hat dynamisches Scheduling implementiert und profitiert als erste GPU-Architektur von Nvidia, wenn zusätzlich eine Compute-Queue zum Einsatz kommt, ist das etwa ein Rückschritt?
Natürlich nicht und Volta wird vielleicht noch flexibler und möglicherweise landet man bei einer ähnlichen Lösung, wie sie AMD schon seit der ersten GCN Generation implementiert hat.
Man hat aber nicht die Shaderleistung massiv hochgeschraubt, ohne entsprechend gesteigerte Gamingleistung. Wie es bei AMD der Fall ist.

Das ist der Unterschied. Und auch mit Pascal ist die Skalierung von AC ziemlich - durchwachsen. Es stellt sich schlicht die Frage, ob der Aufwand, der in Hardware für das zusätzliche Sheduling anfällt, den Benefit wert ist.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Dafür gibt es aber in keinem Fall eine Garantie, vor allem da keine Informationen darüber vorliegen, was bei Wolfenstein 2 in der GFX-Queue und in der Compute-Queue gemeinsam verwaltet wird und wo FP16 überhaupt zum Einsatz kommt.
Ein Garantie hat man bei einem NICHT kausalen Zusammenhang ohnehin nicht. Schau dir doch nurmal die Multithreading Programmierung an, auch dort gibt es eben keine Garantie.

Bitte die entsprechenden Dokus lesen, FP16 bei AMD nutzt trotz der FP16-Berechnung immer das load/store in den Grafikspeicher ausschließlich FP32 ist, genauso wie viele Compileroperationen wie sin, cos & Co.
Das load u. store FP32 ist und bleibt ist doch logisch und gewollt. Was du aber unterschlägst ist, dass im falle von RPM ein Load/FP32 gleich 2 FP16 Werte bedeutet(!) man also bei jedem load oder store gleich 2 FP16 Werte adressiert, eben FP16_high u. FP16_low -Verpackt ;) (Rapid Packed Math) in FP32. (Und für dich noch 16Bit+16Bit=32Bit - Cool, gell ;) )
Ps: Die "entsprechenden Dokus lesen" ist schon ein guter Anfang, aber verstehen musst du sie dann auch noch.
 
Zuletzt bearbeitet:
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

So nach dem neusten Patch für das Spiel (Steam Overlay Patch) ist die gesamte Skybox zerschossen...
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Dein Text passt rein gar nicht zum kreativen und technisch sehr interessanten Werk Wolfenstein 2.

MfG,
Raff
bei dem technisch brillanten New Generation Vsync Tearing of Death, absolut richtig :)
Find es auch klasse, noch besser wäre es mit normalen Vsync verhalten.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Das load u. store FP32 ist und bleibt ist doch logisch und gewollt. Was du aber unterschlägst ist, dass im falle von RPM ein Load/FP32 gleich 2 FP16 Werte bedeutet(!) man also bei jedem load oder store gleich 2 FP16 Werte adressiert, eben FP16_high u. FP16_low -Verpackt ;) (Rapid Packed Math) in FP32. (Und für dich noch 16Bit+16Bit=32Bit - Cool, gell ;) )
Ps: Die "entsprechenden Dokus lesen" ist schon ein guter Anfang, aber verstehen musst du sie dann auch noch.
Verstanden habe ich sie, nur du offensichtlich nicht :)

Das Problem hatte ich ja nun schon erläutert, nur leider hast du wohl die Auswirkungen dessen, was ich geschrieben habe, nicht verstanden.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Verstanden habe ich sie, nur du offensichtlich nicht :)

Das Problem hatte ich ja nun schon erläutert, nur leider hast du wohl die Auswirkungen dessen, was ich geschrieben habe, nicht verstanden.
Du hast dich definitive auf den Grafikspeicher bezogen.

Bitte die entsprechenden Dokus lesen, FP16 bei AMD nutzt trotz der FP16-Berechnung immer das load/store in den Grafikspeicher ausschließlich FP32 ist, genauso wie viele Compileroperationen wie sin, cos & Co.
Dazu ist meine ausführung korrekt.
Also nochmal, lesen reicht nicht, du muss es auch verstehen.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Du hast dich definitive auf den Grafikspeicher bezogen.
Nein, das war ein Teilaspekt meiner Ausführungen.

Dazu ist meine ausführung korrekt.
Also nochmal, lesen reicht nicht, du muss es auch verstehen.
Nein, die Kombination zweier FP16-Werte in einem FP32-Load/Store Befehl ist eben NICHT möglich. Das ist genau dein Irrtum.

Es ist möglich zwei FP16-Werte in einer Ausführung zu berechnen, hinterher müssen die Werte aber getrennt, als zwei FP32-Werte abgespeichert werden!
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Es ist möglich zwei FP16-Werte in einer Ausführung zu berechnen, hinterher müssen die Werte aber getrennt, als zwei FP32-Werte abgespeichert werden!
Nein, du musst sie nur trennen wenn du sie auch wirklich als FP16 (Datentype) weiterverwenden musst. Was aber eher seltener der Fall sein wird.
Es ist echt erstaunlich woher kommt denn der Stuss man müsse dies hin und her "konvertieren". Sorry aber das ist das blödeste was ich in letzter zeit hören/lesen musste.
 
Zuletzt bearbeitet:
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Ist halt dann eine Frage der Resourcen und Designphilosophie ob mam gleich versucht akle Features und volle Flexibilität in eine Architektur zu "quetschen" oder das Schrittweise macht, wenn der Markt es braucht.

Ersteres hat den Vorteil, dass man bereits Jahrelang Erfahrungen sammeln und Softwaee dafür entwickeln kann aber den Nachteil, dass man vermutlich ein unglaublich komplexes Design wie GCN erst verstehen muss und wenn wo Performanceprobleme bestehen diese langsam gefunden und behoben werden, sowie es wohl teurer ist diese Architektur zu optimieren bzw schwieriger bei knappen personellen Resourcen. Vermutlich braucht es dann auch mehr Transistoren als ein weniger flexibler Ansatz. Das würde erklären, warum man bei AMD immer deutlich mehr Transistoren und größere Chips als die Konkurrenz braucht um in Spielen (!) aufs gleiche Ergebnis zu kommen

Ps entschuldigt die Tippfehler bin am Handy
Die Frage kann wohl auch nur ein Hardware-Ingenieur beantworten und jemand der bei einer der beiden Architekturen gearbeitet hat, um die Kosten und den Nutzen davon abschätzen zu können.
Ebenso, ob GCN überhaupt komplexer, als Nvidias design ausfällt, rein von der Programmierung fällt GCN für Anwendungsentwickler in vielerlei Hinsicht simpler bzw. nachvollziehbarer aus, eine Workgroup wird statisch in 4 Takten abgearbeitet, viele Operationen laufen generalisiert über die ALUs, Register-Pressure und Memory-Flow ist nachvollziehbar und die Entwickler haben darüber Kontrolle.
Für Compiler-Entwickler bei AMD setzt das auch gleich einen Rahmen für Optimierungen, Register-Bank-Conflicts gibt es bei GCN nicht.

Wenn man GCN mal mit Kepler vergleicht, merkt man wie schlecht Nvidias Architektur generell vor Maxwell war und Nvidia hat ab Maxwell bei den Features und der Flexibilität nur draufgelegt, was sich bei Pascal stellenweise fortgesetzt hat.
Entsprechend bin ich geneigt zu glauben, dass viele Design-Aspekte nicht unbedingt daran scheitern, weil man schwere Kompromisse treffen musste, sondern weil das Design objektiv einfach schlechter war und man es sukzessiv umgebaut und verbessert hat.

[...]
Das ist der Unterschied. Und auch mit Pascal ist die Skalierung von AC ziemlich - durchwachsen. Es stellt sich schlicht die Frage, ob der Aufwand, der in Hardware für das zusätzliche Sheduling anfällt, den Benefit wert ist.
Da es seit jeder Generation bei Nvidia nur nach vorne geht, augenscheinlich schon.

3D Mark schafft es bei Time Spy mit einer 1080 GTX 7% durch eine Compute-Queue heraus zu bekommen:
Time Spy: 19 Grafikkarten im 3DMark fur DirectX 12 im Vergleich (Seite 3) - ComputerBase

Und das mit den Einschränkungen, die bei Nvidia nach wie vor herrschen und das Unternehmen wird sicherlich auch versuchen, ihre Hardware mehr zu generalisieren und GFX und Compute günstiger zusammen zu verwalten, da Compute offensichtlich der Trend ist und der Profit steigen sollte und nicht sinken.


Ein Garantie hat man bei einem NICHT kausalen Zusammenhang ohnehin nicht.
[...]
Deswegen trat ich auch von Anfang an auf die Behauptung, dass ohne AC RPM gar nicht wirklich Sinn ergibt, weil das kann man so einfach nicht behaupten.

Nein, du musst sie nur trennen wenn du sie auch wirklich als FP16 (Datentype) weiterverwenden musst. Was aber eher seltener der Fall sein wird.
Es ist echt erstaunlich woher kommt denn der Stuss man müsse dies hin und her "konvertieren". Sorry aber das ist das blödeste was ich in letzter zeit hören/lesen musste.
Kommt direkt von einem Engine Programmierer bei id Software, der an Doom, Wolfenstein 2 und am Vulkan-Renderer gearbeitet hat:
gravitationsfeld schrieb:
FP16 ist weniger nuetzlich als ich noch vor ein paar Monaten geglaubt habe. Es ist extrem schwierig fuer einen Compiler es zu verwenden, weil Instruktionen immer beide Operanden im gleichen Register haben muessen und auch auf beiden die gleiche Operation ausgefuehrt werden muss.

Dazu kommt, dass vieles nur FP32 ist (loads/stores (!), sin, cos, etc.) und dann von FP16->FP32 und zurueck konvertiert werden muss, was wieder mehr Instruktionen und Register braucht. Und Registerdruck ist ein ziemliches Problem bei GPUs.

Es kann sein, dass zukuenftige GPUs FP16 effizienter unterstuetzen werden, im Moment sieht es so aus als haette man es vor allem fuer neuronale Netzwerke eingebaut, wo es trivial zu verwenden ist.
gravitationsfeld schrieb:
Die Xbox One (und Xbox One X) haben null Unterstuetzung fuer FP16 in den ALUs. Und ja, man muss konvertieren. Hin und zurueck zu FP32. Alle Textur-Operationen liefern nur FP32-Werte, alle Interpolation-Inputs sind nur FP32. Framebuffer-Output muss FP32 sein. Transcedentals sind nur FP32. Usw. usf.
3DCenter Forum - AMD/ATI - Radeon RX Vega 56/64: Review-Thread - Seite 178
3DCenter Forum - AMD/ATI - Radeon RX Vega 56/64: Review-Thread - Seite 194
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Da es seit jeder Generation bei Nvidia nur nach vorne geht, augenscheinlich schon.
Das hat aber wenig mit AC zu tun.

3D Mark schafft es bei Time Spy mit einer 1080 GTX 7% durch eine Compute-Queue heraus zu bekommen:
Ja. Trotzdem ist eine GTX1080 gegenüber dem Vorgänger durch andere Dinge deutlich schneller geworden, als dies AC geleistet hat. Und davon profitieren alle Spiele, nicht nur die 5, die ASync Compute nutzen (sind es überhaupt 5?). Das ist mein Punkt. Allgemeine Optimierung ist deutlich wichtiger/gewinnbringend, als das bisschen ASync Compute.

Und das mit den Einschränkungen, die bei Nvidia nach wie vor herrschen und das Unternehmen wird sicherlich auch versuchen, ihre Hardware mehr zu generalisieren und GFX und Compute günstiger zusammen zu verwalten, da Compute offensichtlich der Trend ist und der Profit steigen sollte und nicht sinken.
Hat nur leider null mit meiner Aussage zu tun. Auf die du nirgends eingehst, um es mal grad ganz ehrlich zu sagen.

Kommt direkt von einem Engine Programmierer bei id Software, der an Doom, Wolfenstein 2 und am Vulkan-Renderer gearbeitet hat:
Sehr gut, dann bin ich wohl doch nicht zu doof, die AMD Doku zu lesen :ugly:
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

[...]
Ja. Trotzdem ist eine GTX1080 gegenüber dem Vorgänger durch andere Dinge deutlich schneller geworden, als dies AC geleistet hat. Und davon profitieren alle Spiele, nicht nur die 5, die ASync Compute nutzen (sind es überhaupt 5?). Das ist mein Punkt. Allgemeine Optimierung ist deutlich wichtiger/gewinnbringend, als das bisschen ASync Compute.


Hat nur leider null mit meiner Aussage zu tun. Auf die du nirgends eingehst, um es mal grad ganz ehrlich zu sagen.
Weil die Aussagen etwas ausufern.
Was würde denn Nvidia verlieren, wenn sie Async Compute effizienter und flexibler unterstützen würden?
50% Perf/Watt Verlust? Funktionieren dann die anderen Hardwareblöcke plötzlich alle ineffizienter?
Das ist jetzt übertrieben gefragt, aber darauf läuft es ja am Ende hinaus, wo aber vermutlich niemand eine konkrete Beweisführung zur Hand hat.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Weil die Aussagen etwas ausufern.
Was würde denn Nvidia verlieren, wenn sie Async Compute effizienter und flexibler unterstützen würden?
50% Perf/Watt Verlust? Funktionieren dann die anderen Hardwareblöcke plötzlich alle ineffizienter?
Das ist jetzt übertrieben gefragt, aber darauf läuft es ja am Ende hinaus, wo aber vermutlich niemand eine konkrete Beweisführung zur Hand hat.
Einfach: NVIDIA stehen nur begrenzte Ressourcen zur Verfügung. Sei es auf Seiten der Entwicklung, wie auf Seiten der Hardware.

Warum es für NVIDIA wenig Sinn ergibt, ASync Compute effizienter und flexibler zu unterstützen, hatte ich hier schon dargelegt. Die Beweisführung ist abgeschlossen und schlüssig. Lies es gern noch mal nach.

Fakt ist: Der Support von ASync Compute hat wenig mit "fortschrittlich" oder "besser" zu tun. Es ist schlicht "ungenutzt Shaderperformance".
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Das ist kein Beweis zu behaupten, dass Async Compute nur eine Krücke ist und Nvidia es gar nicht nötig hat oder es die Kosten nicht Wert sei.
Dazu müsste man genau aufzeigen, dass Nvidias Shader-Auslastung hoch genug ist, dass ein erweitertes Scheduling mehr Kosten verursachen würde, als effektiv nützen.

Ich kann es dir gleich tun, Fakt ist: Nvidias Implementierung von Async Compute ist zu statisch und sie können Löcher in ihrer Pipeline nicht so effektiv füllen wie AMD.
Dabei kann ich auch völlig ausschließen, dass AMD in anderen Bereichen rückständig ist.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Das ist kein Beweis zu behaupten, dass Async Compute nur eine Krücke ist und Nvidia es gar nicht nötig hat oder es die Kosten nicht Wert sei.
Dazu müsste man genau aufzeigen, dass Nvidias Shader-Auslastung hoch genug ist, dass ein erweitertes Scheduling mehr Kosten verursachen würde, als effektiv nützen.
Strohmann-Argument, niemand hat das behauptet. Es ist nur ein Denkanstoß, warum NVIDIA relativ wenig tut, um ASync Compute besser zu unterstützen.

Ich kann es dir gleich tun, Fakt ist: Nvidias Implementierung von Async Compute ist zu statisch und sie können Löcher in ihrer Pipeline nicht so effektiv füllen wie AMD.
Auch hier wieder: Strohmann. Wenn NVIDIA keine/wenige Löcher in der Pipeline haben, können diese natürlich auch nicht gefüllt werden. Ziemlich logisch.

Dabei kann ich auch völlig ausschließen, dass AMD in anderen Bereichen rückständig ist.
Nicht? Siehe dein eigener Link von Computerbase:
Time Spy: 19 Grafikkarten im 3DMark fur DirectX 12 im Vergleich (Seite 3) - ComputerBase
FuryX und GTX1080 haben nahezu identische Rechenleistung auf dem Papier, 8,6 vs. 8,8 TFlops. Trotzdem ist die GTX1080 40-50% schneller, als die FuryX.

Das nennst du nicht "rückständig"? Na dann :lol:
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

:wall: Es geht aber darum, dass die Vega eher mit der 300mm² 1080 vergleichbar ist, wie oft denn noch.
Und wenn mans mit dem GP102 vergleicht, dann schon mit der Titan und diese müsste dann auch mit HBM2 statt mit GDDR5X stattfinden, was dazu führen würde, dass die Titan nochmal schneller wäre und weniger "Sprit" brauchen würde.

Meist find ich deine Kommentare ja brauchbar.. diesmal allerdings...

Weshalb ist Vega denn meist eher auf 1080, als auf TI Niveau?
An mangelnder Rechenpower kann es nicht liegen.
Ein prinzipielles Problem mit der Speicherbandbreite kann es auch nicht sein - sonst gäbe es keine Spiele, in denen Vega gut abschneidet.

Wenn du dir die Spiele mal genau ansiehst, bemerkst du, dass Vega deutlich andere Optimierungen braucht, als Pascal - war schon immer so im Vergleich zwischen GCN und allen Nvidia Architekturen.
Bei Spielen, in denen Vega wirklich mal die Rechenleistung "auf die Straße" bringt, hat das Studio offensichtlich mehr Arbeit in die Optimierungen für beide Zweige gesteckt.
Du siehst ja, dass sowohl in Wolfenstein 2, als auch in Doom alle Karten ziemlich gut abschneiden - sofern der VRAM reicht.

DX11 ist für AMD abgefahren. Da ist nix mehr zu retten.

Aktuell müssen die Studios auch noch sehr viel Arbeit in die Optimierung stecken, wenn sie DX12 und Vulkan verwenden.
Sobald die Entwickler der Engines davon einen Teil schon übernehmen und als USP ihrer Engine nutzen, sinkt der Aufwand auf ein erträglicheres Niveau.
Bis dahin müssen wir allerdings mit ein paar Ausnahmespielen leben, in denen Vega (und z.T. alle GCN GPUs) gut funktioniert.

Die meisten Spiele werden sicher weiter auf einfacher zu handhabende 3D Schnittstellen setzen.
Für den Großteil davon ist es auch vollkommen egal.
Auf Steam sind letztes Jahr über 4000 Spiele erschienen. Davon sind sicher gerade mal 10% in der Lage, aktuelle Grafikkarten wirklich zu fordern.


Früher waren Spiele der Hauptgrund, neue Hardware zu kaufen.
Inzwischen sind die AAA Titel aber eine zu große Investition. So traut sich da keiner mehr wirklich ran.
Ich bin gespannt, wann Star Citizen raus kommt, und ob es dann einen solchen Effekt auslöst. (Nein, ich hab es bisher nicht unterstützt. Obwohl ich das Genre mag, fehlt mir einfach die Zeit.)
Eventuell kann uns ja Egosoft noch überraschen. Der nächste X Teil kommt auch mit einer Vulkan basierten Engine raus.
Wahrscheinlich noch vor Star Citizen.
Ja, das Ding wird am Anfang wieder ohne Ende bugs haben, aber bisher haben mir alle Teile viel Spaß bereitet. (sofern meine Zeit es zuließ)

X Rebirth VR läuft mit einer ersten Version der Vulkan Engine.


@PCGH wäre vielleicht auch mal interessant, sich X Rebirth VR unter dem Technik Aspekt anzusehen. Das Spiel verlangt auch kein VR Headset und kann rein am Bildschirm gespielt werden.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

...

Die meisten Spiele werden sicher weiter auf einfacher zu handhabende 3D Schnittstellen setzen.
Für den Großteil davon ist es auch vollkommen egal.
Auf Steam sind letztes Jahr über 4000 Spiele erschienen. Davon sind sicher gerade mal 10% in der Lage, aktuelle Grafikkarten wirklich zu fordern.

...

Fordern ist allerdings bei GPUs relativ im Vergleich zur CPU oder zumindest der Falsche Begriff. Denn je nach verwendetem Monitor bzw. DSR/VSR ist es eigentlich ein leichtes (und der Standardfall), dass die Grafikkarte zu 99% ausgelastet wird.

Gesendet von meinem HTC 10 mit Tapatalk
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Grundsätzlich sollte es Ziel jeder Hardwareentwicklung sein, die vorhandenen Ressourcen zu 100% auszulasten. NVIDIA ist hier deutlich näher daran, die Shader zu 100% auszulasten, als AMD. Erkennt man daran, dass AMD-Karten deutliche Vorteile in Sachen Shaderleistung auf dem Papier haben, diese aber praktisch nie im Spiel zeigen können.


Ist es zum Glück nicht, denn das NVIDIA Design ist deutlich besser, weil es immer funktioniert, unabhängig davon, ob DX9, 10, 11, 12 oder auch Vulkan oder OpenGL. AMD benötigt dagegen mindestens DX12 für ASync und eben entsprechend angepasste Spiele.

Von weiteren Vorteilen wie z.B. der viel besseren Leistungsaufnahme von NVIDIA, sei da jetzt nur mal am Rande eingegangen.

Dir ist hoffentlich bewusst, dass Nvidia unglaublich viele Ressourcen in die Treiberentwicklung steckt und gerade spezielle Optimierungen direkt im Treiber abhandelt, anstelle sie bei den Spielestudios machen zu lassen.
Entsprechend der Größe des Treiber Teams können sie ihren Treiber auch so gestalten, dass sie für jede Schnittstelle in jedem Spiel passende Optimierungen einbauen, um ihre Shader Kerne auszulasten.
Das hat nur wenig mit dem Hardwaredesign zu tun.


Edit:
Ist halt dann eine Frage der Resourcen und Designphilosophie ob mam gleich versucht akle Features und volle Flexibilität in eine Architektur zu "quetschen" oder das Schrittweise macht, wenn der Markt es braucht.

Ersteres hat den Vorteil, dass man bereits Jahrelang Erfahrungen sammeln und Softwaee dafür entwickeln kann aber den Nachteil, dass man vermutlich ein unglaublich komplexes Design wie GCN erst verstehen muss und wenn wo Performanceprobleme bestehen diese langsam gefunden und behoben werden, sowie es wohl teurer ist diese Architektur zu optimieren bzw schwieriger bei knappen personellen Resourcen. Vermutlich braucht es dann auch mehr Transistoren als ein weniger flexibler Ansatz. Das würde erklären, warum man bei AMD immer deutlich mehr Transistoren und größere Chips als die Konkurrenz braucht um in Spielen (!) aufs gleiche Ergebnis zu kommen

Ps entschuldigt die Tippfehler bin am Handy

Der Markt "braucht" solche Flexibilität seit Jahren.
Allerdings hat DX11 sowas nicht zugelassen - entsprechend konnte es auch niemand in irgendeiner Form nutzen.
Erst mit GCN und dem recht mutigen Schritt, Mantle loszutreten, kam Bewegung in die Sache.

Genau wie Nvidia erst ihre Version der variablen Sync Implementierung bringen musste, bis der Rest der Banche mal reagiert hat und ein theoretisch schon existentes Feature in flexiblere Bahnen zu lenken udn als offiziellen VESA Standard zu veröffentlichen.
 
Zuletzt bearbeitet:
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Wenn du dir die Spiele mal genau ansiehst, bemerkst du, dass Vega deutlich andere Optimierungen braucht, als Pascal - war schon immer so im Vergleich zwischen GCN und allen Nvidia Architekturen.
Bei Spielen, in denen Vega wirklich mal die Rechenleistung "auf die Straße" bringt, hat das Studio offensichtlich mehr Arbeit in die Optimierungen für beide Zweige gesteckt.
Das ist auch genau meine Aussage. Wenn man die Wahl zwischen Optimierungen hat, die in 99,99% der Spielen Vorteilen bringt (wie es NVIDIA primär macht) oder andere Optimierungen, die nur in 0,01% der optimierten Spiele, dann fällt meine Wahl auch auf die erste Option.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Dir ist hoffentlich bewusst, dass Nvidia unglaublich viele Ressourcen in die Treiberentwicklung steckt und gerade spezielle Optimierungen direkt im Treiber abhandelt, anstelle sie bei den Spielestudios machen zu lassen.
Entsprechend der Größe des Treiber Teams können sie ihren Treiber auch so gestalten, dass sie für jede Schnittstelle in jedem Spiel passende Optimierungen einbauen, um ihre Shader Kerne auszulasten.
Das hat nur wenig mit dem Hardwaredesign zu tun.
Toll, was du NVIDIAs Treiberabteilung zutraust - aber dass sie 30% Rückstand in Sachen Rechenleistung aufholen, ohne, dass die Hardware da eine Rolle spielt, ist doch etwas übertrieben :)
 
Zurück