Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Das ist auch genau meine Aussage. Wenn man die Wahl zwischen Optimierungen hat, die in 99,99% der Spielen Vorteilen bringt (wie es NVIDIA primär macht) oder andere Optimierungen, die nur in 0,01% der optimierten Spiele, dann fällt meine Wahl auch auf die erste Option.

Du verallgemeinerst hier zu sehr.
Es gibt nicht die eine Optimierung, die in 99,99% der Spiele funktioniert.
Deshalb bringen AMD und Nvidia ja auch immer wieder Treiber mit neuen Optimierungen für Spiele raus.

Prinzipiell unterscheiden sich die eigentlichen Rechenwerke von AMD und modernen Nvidia GPUs auch nicht mehr so sehr.
AMD geht eher den Weg der generell nutzbaren Recheneinheiten, während Nvidia auf Spezialisten setzt, die für FP16, FP32, oder FP64 optimiert sind, die dann aber auch höher takten können.
Aus diesem Grund können Pascal GPUs auch nicht perfekt mit FP16 umgehen.

Aber:
Wie bei jeder Hardware gilt: Es kommt drauf an, wie man sie nutzt.
Wenn man als Entwickler stur ein und dieselbe Lösung für alle nutzen will, fährt man bei einem der beiden Hersteller gegen eine Wand.
Das hat ja nicht mal bei allen DX Versionen vor 12 geklappt.

Selbst Kepler, Maxwell und Pascal brauchen unterschiedliche Optimierungen um vernünftig zu funktionieren.

Es wird sehr interessant, in welcher Form Nvidia z.B. FP16 bei Volta unterstützt.
GV100 löst das ja mit der Brechstange, indem eigene Tensor Kerne eingebaut werden.
Wenn man dem Blockdiagramm für GV100 glauben schenken kann, werden dort dedizierte Rechenwerke für FP16, FP32 und FP64 verwendet. ( https://img.purch.com/o/aHR0cDovL21...yaWdpbmFsL3RlbnNvci1jb3Jlcy1vbi1jaGlwLmpwZw== )
Ich gehe mal davon aus, dass die FP32 Kerne wie bei Pascal auch FP16 in gleicher Geschwindigkeit wie FP32 verarbeiten können - nur eben nicht 2 FP16 Operationen, während andere 1 FP32 Operation ausführen.

Edit:
Toll, was du NVIDIAs Treiberabteilung zutraust - aber dass sie 30% Rückstand in Sachen Rechenleistung aufholen, ohne, dass die Hardware da eine Rolle spielt, ist doch etwas übertrieben :)

Ähm... die holen keinen Rückstand raus, AMD ist es nie gelungen, die eigentliche Rechenleistung der GPUs in spielen abzurufen.
Was zu gewissen Teilen am Treiber, zu anderen aber auch an den fehlenden Optimierungen in den Spielen liegt.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Was die Marktanteile zusätzlich ungünstig beeinflusst, grade weil die fürs Mining abgezweigten Karten dem Spielemarkt schmerzlich fehlen. Je geringer der Anteil von AMD, umso kleiner der Anreiz, spezifisch etwas zu berücksichtigen

Gesendet von meinem HTC 10 mit Tapatalk
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Du verallgemeinerst hier zu sehr.
Es gibt nicht die eine Optimierung, die in 99,99% der Spiele funktioniert.
In Hardware? Na aber logo!

Schau dir die Features in Maxwell/Pascal an, z.B. Texturkompression bringt in 100% aller Spiele etwas.

Deshalb bringen AMD und Nvidia ja auch immer wieder Treiber mit neuen Optimierungen für Spiele raus.
Wenn der Treiber bremst/limitiert und/oder das Spiel die Hardware ungeschickt nutzt, ist das natürlich auch notwendig.

Aus diesem Grund können Pascal GPUs auch nicht perfekt mit FP16 umgehen.
Blödsinn, Pascal kann perfekt mit FP16 umgehen. Siehe GP100. Nur weil NVIDIA ein Feature nicht umsetzt im Gamingchip, weil es einfach keinen ausreichenden Vorteil bringt, heißt das noch lange nicht, dass es die Architektur nicht könnte.

Es wird sehr interessant, in welcher Form Nvidia z.B. FP16 bei Volta unterstützt.
GV100 löst das ja mit der Brechstange, indem eigene Tensor Kerne eingebaut werden.
Ich glaube du solltest erstmal nachlesen/verstehen, was Tensor Cores sind. Mit der allgemeinen Berechnung von FP16-Werten wie in Vega hat das nämlich ziemlich wenig zu tun. Tatsächlich sind das nämlich Matrizenmultiplikationen.

Ähm... die holen keinen Rückstand raus, AMD ist es nie gelungen, die eigentliche Rechenleistung der GPUs in spielen abzurufen.
Was zu gewissen Teilen am Treiber, zu anderen aber auch an den fehlenden Optimierungen in den Spielen liegt.
Nein, das liegt primär am Hardwaredesign. Das plagt AMD jetzt schon seit Generationen. Fury hatte auch z.B. trotz brutaler Rechenleistung viele Bottlenecks im Frontend und so hat schlussendlich die GTX980Ti mit der Karte den Boden aufgewischt - obowhl die Fury locker mal 50% mehr Rechenleistung auf dem Papier hat.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

[...]
Auch hier wieder: Strohmann. Wenn NVIDIA keine/wenige Löcher in der Pipeline haben, können diese natürlich auch nicht gefüllt werden. Ziemlich logisch.
Ziemlich logisch, falls das der Fall wäre, was du nicht beweisen kannst, ebenso wenig ich, dass da im Gegenteil auch bei Nvidia noch eine Menge vorhanden ist.
Aber ein einfaches Zahlenbeispiel:

AMDs Shaderauslastung durch GFX-Operationen liegt im Schnitt bei 60%, dank ihrer Async Compute Implementierung, können Entwickler die Auslastung auf 80% im Schnitt erhöhen, wenn sie passende Compute-Jobs daneben einschicken.
Nvidias Shaderauslastung liegt bei 70% im Schnitt, relativ zu AMD wären das schon ganze ~17% besser, aber ihre Async Compute Implementierung erlaubt ihnen nur 5% herauszuholen und am Ende landet man bei 75%.
Würde Nvidia ihre Architektur in dem Bereich ähnlich designen wie AMD, könnte es auch möglich sein das Nvidias Auslastung im Schnitt bei 70% bleibt und mit Async Compute auf 90% steigen könnte.

Ein anderes Zahlenspiel, welches deinem argumentativen Strang eher folgt, ist so etwas wie, AMDs Auslastung liegt bei z.B. 70% mit Async Compute bei 90% und Nvidias Auslastung liegt bei 95%, weswegen dort die letzten 5% rauszuquetschen sich nicht lohnt.

Nicht? Siehe dein eigener Link von Computerbase:
Time Spy: 19 Grafikkarten im 3DMark fur DirectX 12 im Vergleich (Seite 3) - ComputerBase
FuryX und GTX1080 haben nahezu identische Rechenleistung auf dem Papier, 8,6 vs. 8,8 TFlops. Trotzdem ist die GTX1080 40-50% schneller, als die FuryX.

Das nennst du nicht "rückständig"? Na dann :lol:
Meine Aussage bezog sich isoliert auf die Async Compute Implementierung, wo ich gleich gesagt habe, dass AMD in anderen Bereichen natürlich rückständig sein kann, was aber bei der Betrachtung auch egal ist.

Meist find ich deine Kommentare ja brauchbar.. diesmal allerdings...

Weshalb ist Vega denn meist eher auf 1080, als auf TI Niveau?
An mangelnder Rechenpower kann es nicht liegen.
Ein prinzipielles Problem mit der Speicherbandbreite kann es auch nicht sein - sonst gäbe es keine Spiele, in denen Vega gut abschneidet.

Wenn du dir die Spiele mal genau ansiehst, bemerkst du, dass Vega deutlich andere Optimierungen braucht, als Pascal - war schon immer so im Vergleich zwischen GCN und allen Nvidia Architekturen.
Bei Spielen, in denen Vega wirklich mal die Rechenleistung "auf die Straße" bringt, hat das Studio offensichtlich mehr Arbeit in die Optimierungen für beide Zweige gesteckt.
Du siehst ja, dass sowohl in Wolfenstein 2, als auch in Doom alle Karten ziemlich gut abschneiden - sofern der VRAM reicht.

DX11 ist für AMD abgefahren. Da ist nix mehr zu retten.
[...]
Die Ergebnisse sind aber schon miserabel.
AMD lebt in dem Aspekt einen Best-Case aus, von dem man nur träumen könnte.
Seit 2013 gibt es zwei GCN Gen 2 Konsolen auf dem Markt, mittlerweile sind 4 Jahre vergangen, grob die Zeit die man für Optimierungen und große Umstrukturierungen bei den Engines und Spielen benötigt.
Das Konsolenmonopol hat viele Optimierungen GCN zentrisch gemacht und AMDs Produkte schaffen es weiterhin nicht sich durchgängig abzusetzen und dabei fährt Wolfenstein 2 schon die großen Kanonen aus.
Vulkan, Async Compute, RPM, Shader Intrinsics, GCN Fokus von den Konsolen und der Partnerschaft mit AMD.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Die Ergebnisse sind aber schon miserabel.
AMD lebt in dem Aspekt einen Best-Case aus, von dem man nur träumen könnte.
Seit 2013 gibt es zwei GCN Gen 2 Konsolen auf dem Markt, mittlerweile sind 4 Jahre vergangen, grob die Zeit die man für Optimierungen und große Umstrukturierungen bei den Engines und Spielen benötigt.
Das Konsolenmonopol hat viele Optimierungen GCN zentrisch gemacht und AMDs Produkte schaffen es weiterhin nicht sich durchgängig abzusetzen und dabei fährt Wolfenstein 2 schon die großen Kanonen aus.
Vulkan, Async Compute, RPM, Shader Intrinsics, GCN Fokus von den Konsolen und der Partnerschaft mit AMD.

Das stimmt schon.

Gerade Wolfenstein 2 zeigt, dass viel Optimierung notwendig ist, um GCN wirklich auszunutzen.
Kaum einer kann sich diesen Zusatzaufwand leisten.
Aktuell gibt es auch nur mehr oder minder Flickwerk Implementierungen in den Engines.
Die Teams kennen die neuen APIs einfach noch nicht genug, um wirklich alles rauszuholen - besonders wenn man bedenkt, dass erste Berichte davon sprechen, wie viel Aufwand es momentan noch ist, die gleiche Leistung wie in DX11 rauszuholen.

Edit:

Sorry, aber den Satzkrieg mach ich nicht mit.

Zusammengefasst:
1) Jepp, Tensor Cores werden meist für Matritzenoperationen benutzt, sind aber auch FP16 fähig. - Nachlesen hilft auch hier
2) GP100 hat nicht viel mit GP102 oder GP104 zu tun. Wenn Du schon eine allgemeine Aussage zu FP16 und Pascal machen willst, finde bitte ein Beispiel in einer Gamer GPU.
3) Dein Beispiel für ein 99,99% Feature hat aber so absolut nichts mit deiner vorherigen Behauptung zu tun. Denn Texturkompression kann AMD auch seit diversen Generationen.
 
Zuletzt bearbeitet:
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Ziemlich logisch, falls das der Fall wäre, was du nicht beweisen kannst, ebenso wenig ich, dass da im Gegenteil auch bei Nvidia noch eine Menge vorhanden ist.
Der Beweis ist da und gültig. Wäre bei NVIDIA massig Luft auf den Shadern, würden die Karten nicht so schnell im Gaming sein. Ganz simpel.

Meine Aussage bezog sich isoliert auf die Async Compute Implementierung, wo ich gleich gesagt habe, dass AMD in anderen Bereichen natürlich rückständig sein kann, was aber bei der Betrachtung auch egal ist.
Ist ja eben nicht egal, weil sich beides beißt. Welchen Aufwand an Engineering (unabhängig davon ob Soft- oder Hardware) ich stecke, desto weniger kann ich in andere Bereich stecken. Und da viel Zeit in eine Technik für 0,001% der Spiele zu stecken lohnt sich nicht, wenn man mit genau diesem Aufwand etwas für die anderen 99,999% tun kann - wobei dabei auch häufig die anderen 0,001% profitieren. Win-Win nennt man das.

Sorry, aber den Satzkrieg mach ich nicht mit.
Würde ich auch an deiner Stelle :)

1) Jepp, Tensor Cores werden meist für Matritzenoperationen benutzt, sind aber auch FP16 fähig. - Nachlesen hilft auch hier
Nochmal: Tensorcores haben - außer der Nutzung von FP16-Datenformaten - NICHTS mit den üblichen FP16-ALUs zu tun. Das sind spezielle Recheneinheiten für spezielle Matrixmultiplikationen.

2) GP100 hat nicht viel mit GP102 oder GP104 zu tun. Wenn Du schon eine allgemeine Aussage zu FP16 und Pascal machen willst, finde bitte ein Beispiel in einer Gamer GPU.
Blödsinn, GP100 = GP10x, nur mit zusätzlichen Features (FP64/FP16 FullSpeed, NVLink, etc.).

Von der Architektur her (in diesem Falle speziell FP32) sind die Chips identisch.

3) Dein Beispiel für ein 99,99% Feature hat aber so absolut nichts mit deiner vorherigen Behauptung zu tun. Denn Texturkompression kann AMD auch seit diversen Generationen.
Doch, denn Texturkompression ist genauso ein Beispiel dafür, wie NVIDIA über die Hardware optimiert, wie die parallelisierte Geometrie mit Fermi. Und AMD hinkt NVIDIA ziemlich hinterher, was die Texturkompression, deren Effekt und deren Effektivität angeht.

Hier gilt eben: Hardwareoptimierungen bei NVIDIA = Profit in 100% der Spiele. Verglichen mit Optimierungen bei Async Compute = Profit in 0,00001% der Spiele (wenn überhaupt).
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Klasse! :daumen:

Endlich kann Vega mal zeigen was sie kann. Und meine 1080 Ti wird sich nach Monaten von Overwatch und CS:GO sicherlich auch mal auf was anspruchsvolleres freuen. Hoffentlich wird das Spiel auch der tollen Technik gerecht, wobei ich mir da dank Old Blood und New Order keine Sorgen mache.

Ich freue mich schon wahnsinnig auf das Spiel, werde aber denke ich noch ein paar Wochen warten. Beim Vorgänger wurde nach kurzer Zeit der Region Lock entfernt, vielleicht passiert das hier ja auch und man kann auch in DE die Originalversion spielen - mit Hakenkreuzen, und viel wichtiger, auch englischer Tonspur.

Und die nächsten vier Wochen habe ich eh keine Zeit, von daher...
Ich mach genau das Selbe ;). Und denn Fanboy War mal bei Seite, warum schneidet speziell die
Gigabyte GTX 1080 Ti Aorus Xtreme so stark ab, sieht ein bischen komisch aus oder ?!
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Der Beweis ist da und gültig. Wäre bei NVIDIA massig Luft auf den Shadern, würden die Karten nicht so schnell im Gaming sein. Ganz simpel.
Das ist kein Beweis, dass ist eine einfache Behauptung ohne konkrete Substanz dahinter.

Ist ja eben nicht egal, weil sich beides beißt. Welchen Aufwand an Engineering (unabhängig davon ob Soft- oder Hardware) ich stecke, desto weniger kann ich in andere Bereich stecken.
Und da viel Zeit in eine Technik für 0,001% der Spiele zu stecken lohnt sich nicht, wenn man mit genau diesem Aufwand etwas für die anderen 99,999% tun kann - wobei dabei auch häufig die anderen 0,001% profitieren. Win-Win nennt man das.
[...]
Was universal für jeden Hersteller gilt.
Wenn es sich allgemein nicht lohnen würde, hätte Nvidia auch nicht jedes mal an der Stelle optimiert.
Wieso hat man nicht bei Maxwell den Schlussstrich gezogen oder schon davor?
Wieso investiert Nvidia in Bereiche die nur 0,001% der aktuellen Anwendungen tangieren?

Hat Nvidia etwa auch die "Krücke" notwendig? Wenn nein, wieso haben sie es dann mit Pascal dann doch umgesetzt?
Wenn du meinst, jaa die Implementierung bei Pascal hat ja noch Sinn ergeben, aber mehr ist nicht notwendig, dann kann man mit Volta auch keine Veränderungen bzw. Verbesserungen in der Hinsicht erwarten, richtig?
Und wenn sich mit Volta doch noch etwas tut, ist der Weihnachtsmann dann real?
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Da ist doch wo der Wurm drin... Es ist einfach völlig unnormal das die 280x aka 7970 fast gleichauf mit der Fury X ist...da ist im Treiber ordentlich was kaputt.
Da müsste mehr als 100% dazwischen sein...
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Huh...
Bei gleicher Taktung hätte ich ja eigentlich erwartet, dass die Ti auf dem Weg zwischen der 1070 und der 1080 deutlich dichter an der 1080 liegt.

Scheint aber nicht der Fall zu sein... sie liegt dichter an der 1070.

Macht sie bei den aktuellen Marktpreisen irgendwie noch unattraktiver, als ohnehin schon erwartet.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Huh...
Bei gleicher Taktung hätte ich ja eigentlich erwartet, dass die Ti auf dem Weg zwischen der 1070 und der 1080 deutlich dichter an der 1080 liegt.

Scheint aber nicht der Fall zu sein... sie liegt dichter an der 1070.

Macht sie bei den aktuellen Marktpreisen irgendwie noch unattraktiver, als ohnehin schon erwartet.

Es gibt einige Spiele, wo die Ti massiv von der Speichertransferrate zurückgehalten wird, welche 1:1 der GTX 1070 entspricht.

MfG,
Raff
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Das ist kein Beweis, dass ist eine einfache Behauptung ohne konkrete Substanz dahinter.
Nur weil du den Beleg nicht akzeptieren willst, heißt das noch lange nicht, dass er nicht existiert.

Was universal für jeden Hersteller gilt.
Wenn es sich allgemein nicht lohnen würde, hätte Nvidia auch nicht jedes mal an der Stelle optimiert.
Wieso hat man nicht bei Maxwell den Schlussstrich gezogen oder schon davor?
Wieso investiert Nvidia in Bereiche die nur 0,001% der aktuellen Anwendungen tangieren?
Weil ASync Compute kein eigentliches "Feature" ist, sondern eine Programmiertechnik, die gewisse Features wie Compute Queue nutzt.

Und da NVIDIA natürlich Interesse daran hat, ihre Architektur zu verbessern und eben auch z.B. eben jene Compute Queue zu verbessern, fallen Verbesserungen für ASync Compute hinten automatisch bei raus.

Der Punkt ist eben nur, dass die Fortschritte durch ASync bei NVIDIA längst nicht so hoch sein können, wie bei AMD. Warum habe ich ausreichend erläutert und belegt.

Hat Nvidia etwa auch die "Krücke" notwendig? Wenn nein, wieso haben sie es dann mit Pascal dann doch umgesetzt?
Wenn du meinst, jaa die Implementierung bei Pascal hat ja noch Sinn ergeben, aber mehr ist nicht notwendig, dann kann man mit Volta auch keine Veränderungen bzw. Verbesserungen in der Hinsicht erwarten, richtig?
Und wenn sich mit Volta doch noch etwas tut, ist der Weihnachtsmann dann real?
Nein, NVIDIA hat die Krücke eben nicht notwendig. Siehst du auch daran, dass selbst ohne ASync die NVIDIA-Karten schneller sind als die Karten von AMD mit ASync.

Ziemlich simpel, oder?
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Es gibt einige Spiele, wo die Ti massiv von der Speichertransferrate zurückgehalten wird, welche 1:1 der GTX 1070 entspricht.

MfG,
Raff
Wenn das hier auch der Fall wäre, was ist der Grund für das schlechtere Abschneiden der 980Ti, die mehr Speichertransferrate hat?
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Huh...
Bei gleicher Taktung hätte ich ja eigentlich erwartet, dass die Ti auf dem Weg zwischen der 1070 und der 1080 deutlich dichter an der 1080 liegt.

Scheint aber nicht der Fall zu sein... sie liegt dichter an der 1070.

Macht sie bei den aktuellen Marktpreisen irgendwie noch unattraktiver, als ohnehin schon erwartet.
Da wird sie bestimmt durch die Speicheranbindung gebremst.

Finde es aber sehr interessant, wie dicht die Vega 56 dahinter ist. Teilweise ist es schon ein harter Kampf. Wenn die Vega hier noch optimiert wird durch OC dann ist die Vega 56 über einer 1070TI ohne OC
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Nur weil du den Beleg nicht akzeptieren willst, heißt das noch lange nicht, dass er nicht existiert.
Ja, ein Beleg aus dem Bauchgefühl, grotesk wenn das jemand nicht einfach so als "Beweis" automatisch hinnimmt.

Weil ASync Compute kein eigentliches "Feature" ist, sondern eine Programmiertechnik, die gewisse Features wie Compute Queue nutzt.
Es ist absolut ein Hardwarefeature, wenn die Hardware darüber entscheidet, wie die Unterstützung und Funktionsweise davon aussieht.

Der Punkt ist eben nur, dass die Fortschritte durch ASync bei NVIDIA längst nicht so hoch sein können, wie bei AMD. Warum habe ich ausreichend erläutert und belegt.
Halte ich auch für ausgeschlossen für Nvidia, da ihre GPUs weniger Shader besitzen, weniger Threads verwenden, kleinere Threadgroups verwalten und ihre 3D-IP-Blocks besser sind, aber wie groß die Blasen sind bzw. sein können ist unbestimmt, außer man arbeitet bei Nvidia und kennt die Analysedaten von mehreren Anwendungen und um wie viel, eine bessere Async Compute Implementierung helfen könnte.
Das war mein Hauptpunkt eigentlich.

Und da NVIDIA natürlich Interesse daran hat, ihre Architektur zu verbessern und eben auch z.B. eben jene Compute Queue zu verbessern, fallen Verbesserungen für ASync Compute hinten automatisch bei raus.
Weil es sich natürlich auch direkt überschneidet, so auch bei AMD, deren Architektur aber von Anfang so ausgerichtet war.

Nein, NVIDIA hat die Krücke eben nicht notwendig. Siehst du auch daran, dass selbst ohne ASync die NVIDIA-Karten schneller sind als die Karten von AMD mit ASync.

Ziemlich simpel, oder?
Dafür das sie es nicht notwendig haben, haben sie es aber bei Pascal implementiert, merkwürdig.
Und was definiert man als notwendig?
Hat AMD es etwa notwendig? Kennst du ein Spiel, wo AMD dank Async Compute alleine meilenweit aufholt?
Bis zu DX12 hat AMD auch mit Nvidia konkurriert, weit besser als aktuell und da gab es nur DX11 mit einer Universal-Queue.
Da war das alles noch gar kein Thema.

Von Anfang an war das Thema für mich auch kein AMD vs. Nvidia Punkt, sondern nur fokussiert auf die Async Compute Implementierung.
Das Nvidia mit oder ohne Async Compute bei vielen Anwendungen der Führer ist und bleibt, war für den Kontext unwichtig, außer Nvidia ist es nur deswegen, weil eine Implementierung ähnlich wie bei AMD mit deutlichen Nachteilen verbunden wäre.
Du kannst hier wieder einwerfen, ja die Ressourcen sind nicht unendlich, aber dann kann man jede Investition und Designentscheidung hinterfragen, wo ganz gewiss kein Hersteller überall optimal entschieden und investiert hat.
Und dann entscheidet man natürlich noch aus der Hüfte, welche Funktionalität nicht als fortschrittlich angesehen werden kann und was man einfach gleich lieber als Krücke bezeichnet.
Dabei will ich gar nicht wissen, was man alles als Krücke bezeichnen könnte, wenn soviele Designaspekte ein legitimes Hilfsmittel darstellen, um ein gewisses Ziel zu erreichen.
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Also nach Schiebung des Regler Image Streaming auf Mittel und rest auf Ultra und Hoch TXAA8 läufts butterweich mit weit über 60 Fps, kein Drops mehr. R9 290 i7 3820
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Ja, ein Beleg aus dem Bauchgefühl, grotesk wenn das jemand nicht einfach so als "Beweis" automatisch hinnimmt.
Es ist also ein Bauchgefühl, dass NVIDIA mit deutlich weniger Shaderleistung auf dem Papier gleich schnell oder schneller als AMD ist?

Na dann :)

Es ist absolut ein Hardwarefeature, wenn die Hardware darüber entscheidet, wie die Unterstützung und Funktionsweise davon aussieht.
Nein. Es gibt kein Hardwarefeature "ASync Compute". Es ist eine Programmiertechnik wie es z.B. Threads in einem Programm sind.

Halte ich auch für ausgeschlossen für Nvidia, da ihre GPUs weniger Shader besitzen, weniger Threads verwenden, kleinere Threadgroups verwalten und ihre 3D-IP-Blocks besser sind, aber wie groß die Blasen sind bzw. sein können ist unbestimmt, außer man arbeitet bei Nvidia und kennt die Analysedaten von mehreren Anwendungen und um wie viel, eine bessere Async Compute Implementierung helfen könnte.
Das war mein Hauptpunkt eigentlich.
Nein, braucht man nicht. Es reicht die Papierleistung mit der Realleistung in Spielen zu vergleichen.

Interessant ist ja auch, dass z.B. in manchen Computebenches AMD kein Problem hat seine Shader auszulasten. Was wiederum für meine Aussage spricht.

Dafür das sie es nicht notwendig haben, haben sie es aber bei Pascal implementiert, merkwürdig.
Und was definiert man als notwendig?
Wie gesagt: Sie haben es nicht implementiert. Sie haben Techniken für Compute implementiert, die man für ASync Compute nutzen kann. Das ist nur ein Beiwerk, aber niemand bei NVIDIA hat beschlossen "Lass und jetzt mal ASync Compute implementieren". Du hast offensichtlich nicht verstanden, was ASync Compute ist, das erklärt natürlich deine wirren Aussagen.

Hat AMD es etwa notwendig? Kennst du ein Spiel, wo AMD dank Async Compute alleine meilenweit aufholt?
Ich denke AMD hat es sehr stark notwendig. Immerhin schafft es ihr >500mm² Chip mit HBM gerade mal gegen einen 300er Chip mit GDDR5 von NVIDIA zu konkurrieren. AMD hätte es massiv nötig, endlich auf NVIDIA aufzuholen. Aktuell wird der Abstand eher größer.

Von Anfang an war das Thema für mich auch kein AMD vs. Nvidia Punkt, sondern nur fokussiert auf die Async Compute Implementierung.
Also für etwas, das es gar nicht gibt :)
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Kann mir jetzt mal jemand sagen, welcher Schalter die Texturen betrifft?
 
AW: Wolfenstein 2 im ersten Technik-Test: Shooterfest, Technik-Granate, Vega-Stärke, Vulkan only!

Es ist also ein Bauchgefühl, dass NVIDIA mit deutlich weniger Shaderleistung auf dem Papier gleich schnell oder schneller als AMD ist?

Na dann :)
Das ist von der theoretischen Rechenleistung eine Tatsache, ist es auch damit automatisch ein Beweis, dass bei Nvidia deswegen gar keine nennenswerten Idle-Times beim Rendering vorliegen und eine flexiblere Implementierung die Mühe nicht wert ist?
Wäre es nicht so, hätte man bei Pascal auch nichts in der Richtung verbessert.

Nein. Es gibt kein Hardwarefeature "ASync Compute". Es ist eine Programmiertechnik wie es z.B. Threads in einem Programm sind.
Ja, ob es dedizierte Scheduler gibt, wie flexibel die arbeiten können und wie schnell auch der Context-Switch in diesem Zusammenhang stattfindet, dass hat nichts mit der Hardware zu tun, richtig?
Es ist wohl auch kein Hardwarefeature, wenn es dedizierte DMA-Engines gibt, um eine Copy-Queue abzuarbeiten, anstatt die Shader für solche Operationen zu verwenden.
Verschiedene Queue-Typen zu verwalten ist ein Programmiermodell, welches man explizit in DX12 und Vulkan verwenden kann, wie das auf der Hardware ausgeführt und umgesetzt wird, entscheidet aber das Hardwaredesign.

Ansonsten könnte man jedes Feature nicht direkt als Hardwarefeature ansehen, z.B. Tessellation nicht, da ARM es über Compute-Shader laufen lässt (laufen lies), ohne dedizierte Hardware zu haben.
Was definiert man dann überhaupt als Hardwarefeature?

Wie gesagt: Sie haben es nicht implementiert. Sie haben Techniken für Compute implementiert, die man für ASync Compute nutzen kann. Das ist nur ein Beiwerk, aber niemand bei NVIDIA hat beschlossen "Lass und jetzt mal ASync Compute implementieren". Du hast offensichtlich nicht verstanden, was ASync Compute ist, das erklärt natürlich deine wirren Aussagen.
Dynamic Load-Balancing für GFX-Queues zusammen mit Compute-Queues stellt keine Async Compute Implementierung dar?
Pascal ist die erste GPU-Architektur von Nvidia, welche explizit Compute-Queues zusammen mit 3D-Queues verwaltet und nicht wie bei Kepler und Maxwell alles in eine Universal-Queue steckt, bevor es zur Ausführung kommt.
Schnelleres Context-Switching ist auch ein wichtiger Bestandteil für Async Compute, da man als Entwickler nun Operationen zeitlich genauer einteilen kann und es wichtig ist, wenn latenzkritische Operationen schneller nach vorne gezogen werden können.
Async Compute bzw. das Fundament dafür existiert ja in keinem isoliertem Vakuum.

Nvidia hat mit Pascal in dem Zusammenhang grundlegende Dinge verbessert und erweitert und einen ganzen Abschnitt dazu im 1080 GTX Whitepaper stehen, was sie als "Async Compute" betiteln (Seite14):
https://international.download.nvid...al/pdfs/GeForce_GTX_1080_Whitepaper_FINAL.pdf

Nvidia hat ebenso auf der GDC ihre Flex Middleware für DX11/12 präsentiert und im Abschnitt "Async Compute" dargestellt, wie man davon profitieren kann, wenn man zusätzlich die Operationen in eine Compute-Queue eingliedert(Seite 13):
http://developer2.download.nvidia.c...fj4Hi1jtBF9u7lt8scJ0J7Sp7PLkDnVMhr_6KY8NKJpIA

Gefällt dir Nvidias Bezeichnung Async Compute in dem Zusammenhang nicht? Wie willst du es denn nennen?
Wirf mir aber nicht vor wirres Zeug zu reden, wenn ich mich an Nvidias eigene Eingliederung orientiere.

Ich denke AMD hat es sehr stark notwendig. Immerhin schafft es ihr >500mm² Chip mit HBM gerade mal gegen einen 300er Chip mit GDDR5 von NVIDIA zu konkurrieren. AMD hätte es massiv nötig, endlich auf NVIDIA aufzuholen. Aktuell wird der Abstand eher größer.
Wenn Async Compute in Spielen 5-10% herausholt, dann ist es nett für AMD, aber den Braten macht das bei dem aktuellen Abstand überhaupt nicht fett.
Und der Abstand ist größer geworden, unabhängig davon, wie Async Compute bei AMD abläuft und auch das Nvidia bei Pascal mehr in der Richtung investiert hat.
 
Zuletzt bearbeitet:
Zurück