3DMark Time Spy: Weltrekord mit GTX 1080 bei 2.594 MHz

Ich denke was er meint ist das Nvidia Karten in 3dmark Benchmarks in der Regel viel mehr Punkte produzieren als AMD Karten die in der Leistung in Spielen eigentlich (+/-) gleichauf oder sogar besser sind.
Da das eigentlich immer so ist könnte man vermuten 3dmark bevorzugt Nvidia. das ist nicht bewiesen, das Gegenteil ist aber soweit ich weiss auch nicht bewiesen.
3dmarks sind ein schlechter Indikator für die Leistung in Spielen, sind halt ein Balkenvergleich. Heisst ja nicht umsonst Schwanzmark
 
Das ganze Thema wurde ausführlich schon in diesem Thread besprochen:
3DMark Time Spy wegen angeblicher Nvidia-Bevorzugung in der Kritik

Noch einmal eine kurze Wiederholung, DX12 spezifiziert nur ein Software-Konstrukt (Multiengine), welches keine Vorschriften darüber macht wie die Hardware es genau umzusetzen hat, es muss lediglich funktionieren.
Es gibt unter der API Multiengine keine Software-Abfrage die eine Anwendung einbauen könnte, um die Fähigkeiten der Hardware in diesem Bezug herauszufinden, entsprechend kann der Time Spy Benchmark auch nicht so etwas wie "AC not supported" zurückgeben.
Time Spy verwendet Multiengine (Async Compute), wenn die Hardware "AC" unterstützt wird sie es parallel ausführen, wenn nicht dann nicht.
Das ist alles "legal" aus der Sicht der ganzen Spezifikation.

Aber natürlich gibt DX12 vor, wie AC umzusetzen ist, das ist ja Sinn und Zweck von Standards bzw. Normierungen. So wie DX12 die AC-Verarbeitung anfordert, können nVidia-GPU's diese nicht bzw. nur unter Leistungseinbußen (da nicht in HW möglich, somit SW-Workaround) realisieren. nVidia möchte natürlich nicht schlecht dastehen, somit brät nVidia mal wieder seine Extrawurst und gaukelt dem User vor, die Karten wären AC-fähig. Dazu fehlen diesen allerdings schlichtweg die HW-Einheiten. nVidia versucht mit Ihrer eigenen (von der Norm abweichenden) Methode die Tatsache zu vertuschen, dass sie eben kein DX12-standardisiertes AS/AC beherrschen und einen Umweg über speziell angepasste Renderpfade gehen müssen um, nicht an Leistung zu verlieren... Außerdem nennt sich TimeSpy "State of the art DX12-Benchmark", benutzt allerdings nur DX Feature Level 11_0...
 
Zuletzt bearbeitet:
Locuza,



natühlich, lasse doch mal bitte die volle leistung der hardware ausspielen durch ordentliche programierung für die hardware ! huh?

wie du merkst ohne ordentliche optimierungen bzw programierung, wird die hardware nicht ordentlich ausgespielt.

was ich damit sagen will, ist also ein klares beweis das nv hier ganz klar und deutlich die finger in den 3dmark und in vielen spielen hat.

aber her woran liegt das, das ihr es nicht sieht bzw begreifen wollt wie ich, das ihr auf solche antworten eingeht ?
 
ich weis net, was soll uns dieser test eigentlich sagen, bzw, was soll uns der test über die Leistungsfähigkeit von dx12 sagen,? wenn das featurelevel der programmierung grade mal auf dem d3d11_0 läuft, ok er kann ac, setzt diese feature aber bei der 900 serie aus, wenn ich das richtig verstanden habe. ich habe iwie das gefühl, dass mir hier versucht wird zu erzählen, was die karten alles unter dx 12 schaffen kann, am ende aber eigentlich kein fundierter dx12 test da ist um es zu erfassen.
Hier wird wieder nur die penisverlänerung gemessen, und das schlimmste daran ist, wenn man das den fanboys sagt das nvidia ja garkein ac kann wird man sonnst wie versucht niederzureden, immer nach dem motto nv die grünen sind die weltretter.
p.s. was nun eigentlich mit pascale, können die wirklich ac oder emulieren diese das auch weider nur über die cpu, das ging etwas an mir vorbei, da ja nen pascale "nur" ein aufgebohrert maxwell ist.
 
Zuletzt bearbeitet:
Aber natürlich gibt DX12 vor, wie AC umzusetzen ist, das ist ja Sinn und Zweck von Standards bzw. Normierungen. So wie DX12 die AC-Verarbeitung anfordert, können nVidia-GPU's diese nicht bzw. nur unter Leistungseinbußen (da nicht in HW möglich, somit SW-Workaround) realisieren. nVidia möchte natürlich nicht schlecht dastehen, somit brät nVidia mal wieder seine Extrawurst und gaukelt dem User vor, die Karten wären AC-Fähig. Dazu fehlen diesen allerdings schlichtweg die HW-Einheiten. nVidia versucht mit Ihrer eigenen (von der Norm abweichenden) Methode die Tatsache zu vertuschen, dass sie eben kein DX12-standardisiertes AS/AC beherrschen und einen Umweg über speziell angepasste Renderpfade gehen müssen um, nicht an Leistung zu verlieren... Außerdem nennt sich TimeSpy "State of the art DX12-Benchmark", benutzt allerdings nur DX Feature Level 11_0...
Nein, gibt DX12 eben nicht vor, genauso wie DX allgemein in vielen Bereichen nicht genau vorgibt wie die Hardware es umzusetzen hat.
Die Funktionen müssen funktionieren, auf welchem Weg ist in vielen Bereichen aber offen.

Die DX Spec setzt z.B. nicht voraus, dass Tessellation über Fixed-Hardware umgesetzt werden muss, ARM setzt Tessellation nur über Shader um.
Die DX12 Spec Multiengine (Im "Volksmund" Async Compute) spezifiziert auch nicht das die unterschiedlichen Queue-Typen parallel abgearbeitet werden müssen, das gleiche gilt für Async Copy.
Intel führt die Copy-Queue je nach Fall auch über die ALUs durch und nicht über die DMA-Engine, dass läuft dann natürlich auch nicht "parallel".

Bei Multiengine gibt es keine AC-Anforderung, man verwendet das Konstrukt und fertig, wie es unter der Haube abläuft wird nicht vorgeschrieben.
Soll ich am besten den ganzen Inhalt vom verlinkten Thread hier rüber kopieren, weil lesen wird es anscheinend niemand?
Ich meine jeder kann sich die Multiengine Spec durchlesen, genauso wie die Time Spy Demo dokumentiert ist, Futurmark hat auch ein GPUView Screenshot von Time Spy veröffentlicht.

Es gibt keinen speziellen Renderpfad für Nvidia, alles ist DX12 konform.
Time Spy verwendet DX12 FL11.0 um so viel Hardware wie möglich anzusprechen, dass kann man kritisieren, ist aber auch eine Businessentscheidung.
Alle Möglichkeiten bzw. das technische Limit von DX12 kann man deswegen aber natürlich nicht demonstrieren.

Locuza,

natühlich, lasse doch mal bitte die volle leistung der hardware ausspielen durch ordentliche programierung für die hardware ! huh?

wie du merkst ohne ordentliche optimierungen bzw programierung, wird die hardware nicht ordentlich ausgespielt.

was ich damit sagen will, ist also ein klares beweis das nv hier ganz klar und deutlich die finger in den 3dmark und in vielen spielen hat.

aber her woran liegt das, das ihr es nicht sieht bzw begreifen wollt wie ich, das ihr auf solche antworten eingeht ?
Die volle Leistung der Hardware kannst du gar nicht realisieren, ohne für jeden einzelnen Hersteller einen super spezifischen Pfad zu schreiben.
Das ist praktisch nicht realisierbar.
Das ist überhaupt gar kein klarer Beweis das NV hier ihre Finger im Spiel hat.
Einige scheinen so blind zu sein das es ständig nur um AMD vs. Nvidai geht, Intel wird dann immer in den Hintergrund gerückt, als ob die Hardware von dem Unternehmen gar nicht existiert.
Hat sich dort jemand einmal gefragt wie die Sachen ablaufen und wie man dafür am besten optimiert?
 
ich weis net, was soll uns dieser test eigentlich sagen, bzw, was soll uns der test über die Leistungsfähigkeit von dx12 sagen,? wenn das featurelevel der programmierung grade mal auf dem d3d11_0 läuft, ok er kann ac, setzt diese feature aber bei der 900 serie aus, wenn ich das richtig verstanden habe. ich habe iwie das gefühl, dass mir hier versucht wird zu erzählen, was die karten alles unter dx 12 schaffen kann, am ende aber eigentlich kein fundierter dx12 test da ist um es zu erfassen.
Hier wird wieder nur die penisverlänerung gemessen, und das schlimmste daran ist, wenn man das den fanboys sagt das nvidia ja garkein ac kann wird man sonnst wie versucht niederzureden, immer nach dem motto nv die grünen sind die weltretter.
p.s. was nun eigentlich mit pascale, können die wirklich ac oder emulieren diese das auch weider nur über die cpu, das ging etwas an mir vorbei, da ja nen pascale "nur" ein aufgebohrert maxwell ist.

Problem bei den Maxwell Karten ist ja, dass die Karte kurz komplett anhalten muss um eine Computeberechnung einzuschieben. Daher die Einbußungen in Sachen Leistung.
Pascal kann soweit ich weiß das etwas besser. Es waren glaube 4? Teile in denen die GPU unterteilt ist welche dann unabhängig voneinander gestoppt werden wenn ein Computebefehl anliegt.

Ihr dürft mich gerne korrigieren aber das hatte ich in der Form so mal gelesen zu dem Thema.

Zum TimeSpy Benchmark... Ich möchte nicht unterstellen das nVidia gar Geld bezahlt hat oder irgendwas "optimiert" für den Benchmark etc. aber aktuell finde ich den Benchmark selbst als synthetischen Benchmark schwachsinnig. Die Entwickler haben ja gesagt das bei den nVidia Karten kein AC verwendet wird oder ein speziell zugeschnittener Pfad verwendet wird. Das macht für mich die Aussagekraft zunichte. Es sollten ja schon möglichst gleiche Bedingungen für alle GPUs sein ansonsten kann man den Vergleich in die Tonne klopfen.
 
Es gibt keinen speziellen Renderpfad für Nvidia, alles ist DX12 konform.
Time Spy verwendet DX12 FL11.0 um so viel Hardware wie möglich anzusprechen, dass kann man kritisieren, ist aber auch eine Businessentscheidung.

Für "betagte" Karten gibt es doch die älteren Benchmarks, eine Kompatibilität zu älteren Karten hätte man also nicht umsetzen müssen, dass Sie es doch getan haben, spricht Bände. Besonders der Umstand, dass nur FL11_0 benutzt wird, hinterlässt einen faden Beigeschmack, denn AMD-Karten profitieren ungemein von FL12_0. Ein Schelm, wer Böses dabei denkt... ;)

Hier nochmal der Unterschied von "Async Computing" (DX/AMD), zu "Concurrent Computing" (nVidia). Darin wird sehr gut aufgezeigt, dass es sich eben nicht um ein- und dasselbe handelt...

[computerbase.de] DOOM + Vulkan Benchmarked. - Page 23
 
Problem bei den Maxwell Karten ist ja, dass die Karte kurz komplett anhalten muss um eine Computeberechnung einzuschieben. Daher die Einbußungen in Sachen Leistung.
Pascal kann soweit ich weiß das etwas besser. Es waren glaube 4? Teile in denen die GPU unterteilt ist welche dann unabhängig voneinander gestoppt werden wenn ein Computebefehl anliegt.

Ihr dürft mich gerne korrigieren aber das hatte ich in der Form so mal gelesen zu dem Thema.

Zum TimeSpy Benchmark... Ich möchte nicht unterstellen das nVidia gar Geld bezahlt hat oder irgendwas "optimiert" für den Benchmark etc. aber aktuell finde ich den Benchmark selbst als synthetischen Benchmark schwachsinnig. Die Entwickler haben ja gesagt das bei den nVidia Karten kein AC verwendet wird oder ein speziell zugeschnittener Pfad verwendet wird. Das macht für mich die Aussagekraft zunichte. Es sollten ja schon möglichst gleiche Bedingungen für alle GPUs sein ansonsten kann man den Vergleich in die Tonne klopfen.
Das ist ein ziemlich intransparentes Thema, welche Hardware welche Shader "parallel" ausführen kann und welche sie vorziehen muss und wann und wie schnell das geht.
Pascal hat auf jeden Fall die Pre-Emption wesentlich verbessert und teilt die Ressourcen nicht mehr statisch zwischen GFX/Compute ein, über die Granularität weiß ich aber nichts.
GPC-Level wäre sehr grob.

Und noch einmal, der Benchmark verwendet keinen herstellerspezifischen Pfad, dass hat der Entwickler explizit gesagt.
Die Bedingungen sind für alle Hersteller die gleichen, die Sache ist einfach das Kepler/Maxwell den Multiengine Befehl anders ausführt als Pascal oder AMDs GCN-GPUs, darüber hat der Entwickler aber keine Kontrolle.
Das ist dann Treiber-Sache oder Runtime oder OS, wer auch immer da beim letztendlichen Scheduling beteiligt ist.

Für "betagte" Karten gibt es doch die älteren Benchmarks, eine Kompatibilität zu älteren Karten hätte man also nicht umsetzen müssen, dass Sie es doch getan haben, spricht Bände. Besonders der Umstand, dass nur FL11_0 benutzt wird, hinterlässt einen faden Beigeschmack, denn AMD-Karten profitieren ungemein von FL12_0. Ein Schelm, wer Böses dabei denkt... ;)
Und Nvidia kann FL12.1, ein Schelm wer böses denkt, AMD hat Futurmark bestochen um neue Features wie Conservative Rasterization und Rasterizer Ordered Views gar nicht zu verwenden. :schief:
Mit FL12.0 hätte man GCN Gen 1, Kepler, Maxwell v1 und Intel Gen 7.5/8 ausgeschlossen.
Und mehrere Feature-Levels gleichzeitig zu verwenden macht das ganze natürlich nicht direkt vergleichbar und stellt zusätzlichen Aufwand dar.
Man könnte den Benchmark natürlich in Levels unterteilen und dann wird eben je nach Hardware ein Level gar nicht ausgeführt, aber again, Aufwand und Business-Sache und kein Bestechungsthema.

Edit:

Hier nochmal der Unterschied von "Async Computing" (DX/AMD), zu "Concurrent Computing" (nVidia). Darin wird sehr gut aufgezeigt, dass es sich eben nicht um ein- und dasselbe handelt...

[computerbase.de] DOOM + Vulkan Benchmarked. - Page 23
Hier noch einmal die falsche Ausführung von Mahigan.
Lies dir lieber den Beitrag bzw. den ganzen Thread durch:
3DMark Time Spy wegen angeblicher Nvidia-Bevorzugung in der Kritik
 
Zuletzt bearbeitet:
Naja es gibt doch schon Titan X Einzel Benches mit 10k +, kann also kaum Weltrekord sein außer vom Takt her vllt.

Das Ergebnis war ein SLI System

1677620.jpg

Hier ist eine mit 2040MHZ Takt

3DCenter Forum - Einzelnen Beitrag anzeigen - nVidia - Titan X (P)Review-Thread (Zusammenfassung in Post 1)

Generic VGA video card benchmark result - Intel Core i7-4820K,ASUSTeK COMPUTER INC. RAMPAGE IV FORMULA
 
Zuletzt bearbeitet:
Nein, gibt DX12 eben nicht vor, genauso wie DX allgemein in vielen Bereichen nicht genau vorgibt wie die Hardware es umzusetzen hat.
Die Funktionen müssen funktionieren, auf welchem Weg ist in vielen Bereichen aber offen.

Die DX Spec setzt z.B. nicht voraus, dass Tessellation über Fixed-Hardware umgesetzt werden muss, ARM setzt Tessellation nur über Shader um.
Die DX12 Spec Multiengine (Im "Volksmund" Async Compute) spezifiziert auch nicht das die unterschiedlichen Queue-Typen parallel abgearbeitet werden müssen, das gleiche gilt für Async Copy.
Intel führt die Copy-Queue je nach Fall auch über die ALUs durch und nicht über die DMA-Engine, dass läuft dann natürlich auch nicht "parallel".

Bei Multiengine gibt es keine AC-Anforderung, man verwendet das Konstrukt und fertig, wie es unter der Haube abläuft wird nicht vorgeschrieben.
Soll ich am besten den ganzen Inhalt vom verlinkten Thread hier rüber kopieren, weil lesen wird es anscheinend niemand?
Ich meine jeder kann sich die Multiengine Spec durchlesen, genauso wie die Time Spy Demo dokumentiert ist, Futurmark hat auch ein GPUView Screenshot von Time Spy veröffentlicht.

Es gibt keinen speziellen Renderpfad für Nvidia, alles ist DX12 konform.
Time Spy verwendet DX12 FL11.0 um so viel Hardware wie möglich anzusprechen, dass kann man kritisieren, ist aber auch eine Businessentscheidung.
Alle Möglichkeiten bzw. das technische Limit von DX12 kann man deswegen aber natürlich nicht demonstrieren.


Die volle Leistung der Hardware kannst du gar nicht realisieren, ohne für jeden einzelnen Hersteller einen super spezifischen Pfad zu schreiben.
Das ist praktisch nicht realisierbar.
Das ist überhaupt gar kein klarer Beweis das NV hier ihre Finger im Spiel hat.
Einige scheinen so blind zu sein das es ständig nur um AMD vs. Nvidai geht, Intel wird dann immer in den Hintergrund gerückt, als ob die Hardware von dem Unternehmen gar nicht existiert.
Hat sich dort jemand einmal gefragt wie die Sachen ablaufen und wie man dafür am besten optimiert?

Intel betrügt genauso seit Jahren... Bestes Beispiel die Intel-Compiler bzw. CPU-Dispatcher: Ein Compiler kann verschiedene Varianten eines Codes erzeugen, je nach dem, auf welcher CPU (Intel/AMD/VIA etc.) die Software läuft. Einerseits werden die Capabilities der CPU abgefragt, aber auch, um welchen CPU-Hersteller es geht (Vendor ID-String). Wird "GenuineIntel" als Ergebnis zurückgegeben, erzeugt der Compiler den maximalst schnellsten Code, wird etwas anderes gemeldet, wird der der langsamste Code verwendet, auch wenn die CPU die selben Capabilities hat, wie die Intel-CPU. Somit wird für nicht-Intel-CPU's ein wesentlich langsamerer Code erzeugt, sprich : Das Programm läuft auf AMD's wesentlich langsamer. Bewiesen hat man dies, indem man einer AMD-CPU eine Intel Vendor-ID verpasst und dann nochmals compiliert und getestet hat. Ergebnis: Plötzlich lief das Programm auf genau der selben AMD-CPU wie zuvor wesentlich performanter. Bloß weil Intel das auch macht, relativiert dies doch nicht ähnliches Gebaren seitens nVidia... ;)
 
Hier betrügt aber niemand.
Jedes Unternehmen hat einmal hier getrickst, da gesponsert, dort zurecht gebogen und was noch, aber das ist nicht Grund genug um jetzt bei jedem Fall, egal wie unterschiedlich er auch sein mag, Bestechungen und Bevorzugungen als Fakt zu verkaufen, ohne etwas handfestes auf der Kralle haben zu müssen, dabei sprechen die Ergebnisse doch für sich.
Ich weiß gar nicht was es hier (Time Spy) wirklich zu kritisieren gibt?
Und mit wirklich meine ich wirklich, wirklich und keine eigene personifizierte Herstelleragenda der etwas nicht passt und wo etwas nicht so sein darf, wie man meint.
 
Hier betrügt aber niemand.
Jedes Unternehmen hat einmal hier getrickst, da gesponsert, dort zurecht gebogen und was noch, aber das ist nicht Grund genug um jetzt bei jedem Fall, egal wie unterschiedlich er auch sein mag, Bestechungen und Bevorzugungen als Fakt zu verkaufen, ohne etwas handfestes auf der Kralle haben zu müssen, dabei sprechen die Ergebnisse doch für sich.
Ich weiß gar nicht was es hier (Time Spy) wirklich zu kritisieren gibt?

Die Kritik ist folgende: TimeSpy benutzt auf nVidia-Karten anderen Code, als auf AMD-Karten. Somit ist keine Vergleichbarkeit mehr gegeben, da der Code nicht mehr identisch ist. Somit ist dieser "Benchmark" auch nicht geeignet um Vergleiche bzw. Aussagen über die Leistungsfähigkeit in Relation zu setzen. Ist analog dazu wie in der Wissenschaft: Experimente sind nur vergleichbar, wenn sie unter exakt denselben Bedingungen (Temperatur, Luftfeuchtigkeit, Luftdruck, etc pp.) durchgeführt werden. Ist eigentlich ganz simpel... ;)
 
Der Code ist aber identisch, Futurmark hat explizit verlauten lassen das es keinen herstellerspezifischen Pfad gibt.
Die Vergleichbarkeit ist unter den Gegebenheiten der DX12-API völlig existent.
Für den Time Spy Benchmark kann man natürlich auch die Leistungsfähigkeit in Relation setzen, aber nicht diese Ergebnisse für alle Anwendungen allgemein übertragen, dass kann man bei keiner einzigen Anwendung.
Das ist auch eigentlich ganz simpel.
 
Ist doch immer wieder das selbe in der letzten Zeit ,mit Verschwoerungstheorien geht's halt leichter von der Hand, und man muss sich nicht das Offensichtliche eingestehen, zumindestens fuer einen limitierten Zeitraum, bis das Kartenhaus wieder zusammenfaellt
 
Ich in schon auf den Tag gespannt an dem ich mir denke: "Meine Güte, wieso hast Du Idiot Dir ne 1080 bestellt... ich brauch doch UNBEDINGT AC!"

Dieser Tag wird nie kommen hab ich so im Gefühl.

Für mich als 3DMark-nicht-User findet der Kauf einer Grafikkarte so statt:

Ich schau mir Benchmarks von "echten" Spielen an und kauf dann das was am schnellsten ist und ins Budget passt.
Was zum Geier interessieren mich irgendwelche synthetischen Benchmarks?

Und bis AC vielleicht mal AMD nen Vorteil bringt läuft noch viel Wasser die Isar runter. Und sollte AMD dann wirklich um 14858747475% schneller sein als Nvidia... dann kauf ich mir dann halt ne AMD Karte. Fertig.

Dieses Fanboy-Rumgeheule immer... Furchtbar ;)
 
Zuletzt bearbeitet von einem Moderator:
Ist doch immer wieder das selbe in der letzten Zeit ,mit Verschwoerungstheorien geht's halt leichter von der Hand, und man muss sich nicht das Offensichtliche eingestehen, zumindestens fuer einen limitierten Zeitraum, bis das Kartenhaus wieder zusammenfaellt

Anders herum wird ein Schuh' daraus: Bloß weil man (einem persönlich, da Fanboy von XY) unangenehme Sachverhalte nicht versteht oder verstehen will, schwingt man sofort die Verschwörungstheoretiker-Keule und versucht den Kritik übenden dadurch zu diskreditieren bzw lächerlich und unglaubhaft zu machen. Fällt in irgendeiner Antwort, Bezug nehmend auf einen von mir vorgetragenen, faktisch belegten Sachverhalt, das Wort "Verschwörungstheorie", dann ist das für mich die beste Bestätigung, dass ich mit meiner Ansicht genau richtig liege. :)
 
Und bis AC vielleicht mal AMD nen Vorteil bringt läuft noch viel Wasser die Isar runter. Und sollte AMD dann wirklich um 14858747475% schneller sein als Nvidia... dann kauf ich mir dann halt ne AMD Karte. Fertig.

Willkommen in der Realität: Heute ist der 04.08.2016 und AMD profitiert schon länger von AC, da muss man nicht warten, bis irgendwo in einem unbedeutenden Bundesland in irgend einem Rinnsal viel Wasser runter gelaufen ist... ;)
 
Zurück