• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

3DMark Time Spy: Weltrekord mit GTX 1080 bei 2.594 MHz

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu 3DMark Time Spy: Weltrekord mit GTX 1080 bei 2.594 MHz

Der für EVGA tätige Extrem-Übertakter Kingpin hat eine Geforce GTX 1080 Classified auf 2.594/6.180 MHz (GPU/Speicher) übertakten und zusammen mit einem Core i7-6950X im 3DMark Time Spy 9.973 Punkte erzielen können. Das ist bislang Weltrekord - wirklich ernst genommen wurde der Benchmark in der Szene bisher aber noch nicht.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: 3DMark Time Spy: Weltrekord mit GTX 1080 bei 2.594 MHz
 

MfDoom

Volt-Modder(in)
TimeSpy scheint auch noch den einen oder anderen Bug zu haben, er stürzt bei mir teilweise ab und ich glaube das liegt nicht an der Übertaktung
 

enero

Komplett-PC-Aufrüster(in)
Gab es nicht etwas, dass in Time Spy kein echtes DX12/ asynchronous compute genutzt wird.
Sondern irgend ein Workaround und somit eines der wichtigsten DX12 Features gar nicht wirklich bewertet wird?
Hat das jetzt schon mal ein HW Mag ein bisschen gründlicher untersucht?

enero
 

htpzt

Kabelverknoter(in)
Wenn 3DMark eine Grafikkarte nach Release noch nicht erkennt ist das auch schwer mit einem offiziellen Rekord.
 

gecan

Software-Overclocker(in)
seht nur her was möglich ist mit einen nicht realen oc benchmarkwerten.

seit time spy ist der benchmark für mich geschichte und werde kein wert mehr drauflegen, solange nv die finger drin hat.

also leute lasst euch nicht verblenden von solchen oc werten die im altauglichen spielen nicht existieren, den damit unterstüzt ihr umsomehr den nv's marketingstrategie.

ansonsten mir ist ganz klar was die mit solchen oc benchwerte damit bezwecken wollen.

und ihr ?
 

Locuza

Lötkolbengott/-göttin
seit time spy ist der benchmark für mich geschichte und werde kein wert mehr drauflegen, solange nv die finger drin hat.

also leute lasst euch nicht verblenden von solchen oc werten die im altauglichen spielen nicht existieren, den damit unterstüzt ihr umsomehr den nv's marketingstrategie.
Da hat kein Hersteller seine manipulativen Finger im Spiel.
Lass dich doch bitte selber nicht verblenden, von falschen Anschuldigungen und Spekulationen.
 

BiJay

Freizeitschrauber(in)
seht nur her was möglich ist mit einen nicht realen oc benchmarkwerten.

seit time spy ist der benchmark für mich geschichte und werde kein wert mehr drauflegen, solange nv die finger drin hat.

also leute lasst euch nicht verblenden von solchen oc werten die im altauglichen spielen nicht existieren, den damit unterstüzt ihr umsomehr den nv's marketingstrategie.

ansonsten mir ist ganz klar was die mit solchen oc benchwerte damit bezwecken wollen.

und ihr ?
Wer behauptet denn, dass diese Konfiguration oder Benchmarks mit Spielen zu tun hat? Hier geht es doch nur darum das mögliche Limit zu testen - das hat mit alltäglichen Sachen doch gar nichts zu tun und sagt auch niemand.
 

Rollora

Kokü-Junkie (m/w)
Da hat kein Hersteller seine manipulativen Finger im Spiel.
Lass dich doch bitte selber nicht verblenden, von falschen Anschuldigungen und Spekulationen.
:D ich muss doch sehr bitten, du zitierst hier gecan.
Er war schon immer für solche Verschwörungstheorien und Aussagen die völlig absolutistisch sind (Vega wird Nvidia völlig zerstören).
Interessant ist der Meinungswandel, als er angeblich noch bei Nvidia gearbeitet hat, hieß es immer andersrum.
 

MySound

Freizeitschrauber(in)
Ich frag mich immer was dieser realitätsferne Unsinn soll... Ist als würde man bei nem Auto sagen das hat voll die MegaPS, aber mehr als 5Sec anlassen unter Laborbedingungen ist nicht.

Ich kühle mein Auto auch immer, ganz Normverbraucherfreundlich, mit Flüssigstickstoff :D

Ist doch ganz normal ;)
 

DKK007

PCGH-Community-Veteran(in)
Allerdings verwendet der Benchmark ja unterschiedliche Pfade, je nach Verfügbarkeit von AsyncCompute.
Das ist bei einem Spiel zwar sinnvoll, auch wenn es mehr Arbeit für den Entwickler bedeutet. Ein Benchmark sollte aber nachvollziehbar und gleich arbeiten.
 

Spam-a-lot

Komplett-PC-Aufrüster(in)
Tut der Benchmark nicht, es gibt nur einen Pfad für alle Hersteller.
Die Verfügbarkeit von "Async Compute" kann man nicht abfragen, darüber hat die Anwendung keine Kontrolle.

Aber natürlich hat nVidia da manipulativ seine Finger im Spiel: Kepler/Maxwell/Pascal beherrschen kein DX12 AS/AC in Hardware, deshalb benutzt TimeSpy einen eigens für nVidia-Karten angelegten Sonderpfad. Wäre TimeSpy seriös, müsste es eigentlich lauten: "AC not supported, Benchmark not possible, aborting...". Damit disqualifiziert sich dieser DX11-Benchmark im Pseudo-DX12-Gewand für seriöse Aussagen, da eine Vergleichbarkeit keinesfalls mehr gegeben ist!
 

Locuza

Lötkolbengott/-göttin
Aber natürlich hat nVidia da manipulativ seine Finger im Spiel: Kepler/Maxwell/Pascal beherrschen kein DX12 AS/AC in Hardware, deshalb benutzt TimeSpy einen eigens für nVidia-Karten angelegten Sonderpfad. Wäre TimeSpy seriös, müsste es eigentlich lauten: "AC not supported, Benchmark not possible, aborting...". Damit disqualifiziert sich dieser DX11-Benchmark im Pseudo-DX12-Gewand für seriöse Aussagen, da eine Vergleichbarkeit keinesfalls mehr gegeben ist!
Das ganze Thema wurde ausführlich schon in diesem Thread besprochen:
3DMark Time Spy wegen angeblicher Nvidia-Bevorzugung in der Kritik

Noch einmal eine kurze Wiederholung, DX12 spezifiziert nur ein Software-Konstrukt (Multiengine), welches keine Vorschriften darüber macht wie die Hardware es genau umzusetzen hat, es muss lediglich funktionieren.
Es gibt unter der API Multiengine keine Software-Abfrage die eine Anwendung einbauen könnte, um die Fähigkeiten der Hardware in diesem Bezug herauszufinden, entsprechend kann der Time Spy Benchmark auch nicht so etwas wie "AC not supported" zurückgeben.
Time Spy verwendet Multiengine (Async Compute), wenn die Hardware "AC" unterstützt wird sie es parallel ausführen, wenn nicht dann nicht.
Das ist alles "legal" aus der Sicht der ganzen Spezifikation.
 

gecan

Software-Overclocker(in)
und trozdem ist der benchmark mehr auf nv shader optimiert da wiegesagt nv dahiter steckt, ganz einfach das ganze.
 

Locuza

Lötkolbengott/-göttin
und trozdem ist der benchmark mehr auf nv shader optimiert da wiegesagt nv dahiter steckt, ganz einfach das ganze.
Gecan hast du auch vor Anhaltspunkte oder Gott behüte, gar Beweise hervorzubringen?
Wenn nicht, fallen deine Behauptungen unter das Schlagwort Propaganda.
 

MfDoom

Volt-Modder(in)
Ich denke was er meint ist das Nvidia Karten in 3dmark Benchmarks in der Regel viel mehr Punkte produzieren als AMD Karten die in der Leistung in Spielen eigentlich (+/-) gleichauf oder sogar besser sind.
Da das eigentlich immer so ist könnte man vermuten 3dmark bevorzugt Nvidia. das ist nicht bewiesen, das Gegenteil ist aber soweit ich weiss auch nicht bewiesen.
3dmarks sind ein schlechter Indikator für die Leistung in Spielen, sind halt ein Balkenvergleich. Heisst ja nicht umsonst Schwanzmark
 

Spam-a-lot

Komplett-PC-Aufrüster(in)
Das ganze Thema wurde ausführlich schon in diesem Thread besprochen:
3DMark Time Spy wegen angeblicher Nvidia-Bevorzugung in der Kritik

Noch einmal eine kurze Wiederholung, DX12 spezifiziert nur ein Software-Konstrukt (Multiengine), welches keine Vorschriften darüber macht wie die Hardware es genau umzusetzen hat, es muss lediglich funktionieren.
Es gibt unter der API Multiengine keine Software-Abfrage die eine Anwendung einbauen könnte, um die Fähigkeiten der Hardware in diesem Bezug herauszufinden, entsprechend kann der Time Spy Benchmark auch nicht so etwas wie "AC not supported" zurückgeben.
Time Spy verwendet Multiengine (Async Compute), wenn die Hardware "AC" unterstützt wird sie es parallel ausführen, wenn nicht dann nicht.
Das ist alles "legal" aus der Sicht der ganzen Spezifikation.

Aber natürlich gibt DX12 vor, wie AC umzusetzen ist, das ist ja Sinn und Zweck von Standards bzw. Normierungen. So wie DX12 die AC-Verarbeitung anfordert, können nVidia-GPU's diese nicht bzw. nur unter Leistungseinbußen (da nicht in HW möglich, somit SW-Workaround) realisieren. nVidia möchte natürlich nicht schlecht dastehen, somit brät nVidia mal wieder seine Extrawurst und gaukelt dem User vor, die Karten wären AC-fähig. Dazu fehlen diesen allerdings schlichtweg die HW-Einheiten. nVidia versucht mit Ihrer eigenen (von der Norm abweichenden) Methode die Tatsache zu vertuschen, dass sie eben kein DX12-standardisiertes AS/AC beherrschen und einen Umweg über speziell angepasste Renderpfade gehen müssen um, nicht an Leistung zu verlieren... Außerdem nennt sich TimeSpy "State of the art DX12-Benchmark", benutzt allerdings nur DX Feature Level 11_0...
 
Zuletzt bearbeitet:

gecan

Software-Overclocker(in)
Locuza,



natühlich, lasse doch mal bitte die volle leistung der hardware ausspielen durch ordentliche programierung für die hardware ! huh?

wie du merkst ohne ordentliche optimierungen bzw programierung, wird die hardware nicht ordentlich ausgespielt.

was ich damit sagen will, ist also ein klares beweis das nv hier ganz klar und deutlich die finger in den 3dmark und in vielen spielen hat.

aber her woran liegt das, das ihr es nicht sieht bzw begreifen wollt wie ich, das ihr auf solche antworten eingeht ?
 

ChrisMSI

Komplett-PC-Aufrüster(in)
ich weis net, was soll uns dieser test eigentlich sagen, bzw, was soll uns der test über die Leistungsfähigkeit von dx12 sagen,? wenn das featurelevel der programmierung grade mal auf dem d3d11_0 läuft, ok er kann ac, setzt diese feature aber bei der 900 serie aus, wenn ich das richtig verstanden habe. ich habe iwie das gefühl, dass mir hier versucht wird zu erzählen, was die karten alles unter dx 12 schaffen kann, am ende aber eigentlich kein fundierter dx12 test da ist um es zu erfassen.
Hier wird wieder nur die penisverlänerung gemessen, und das schlimmste daran ist, wenn man das den fanboys sagt das nvidia ja garkein ac kann wird man sonnst wie versucht niederzureden, immer nach dem motto nv die grünen sind die weltretter.
p.s. was nun eigentlich mit pascale, können die wirklich ac oder emulieren diese das auch weider nur über die cpu, das ging etwas an mir vorbei, da ja nen pascale "nur" ein aufgebohrert maxwell ist.
 
Zuletzt bearbeitet:

Locuza

Lötkolbengott/-göttin
Aber natürlich gibt DX12 vor, wie AC umzusetzen ist, das ist ja Sinn und Zweck von Standards bzw. Normierungen. So wie DX12 die AC-Verarbeitung anfordert, können nVidia-GPU's diese nicht bzw. nur unter Leistungseinbußen (da nicht in HW möglich, somit SW-Workaround) realisieren. nVidia möchte natürlich nicht schlecht dastehen, somit brät nVidia mal wieder seine Extrawurst und gaukelt dem User vor, die Karten wären AC-Fähig. Dazu fehlen diesen allerdings schlichtweg die HW-Einheiten. nVidia versucht mit Ihrer eigenen (von der Norm abweichenden) Methode die Tatsache zu vertuschen, dass sie eben kein DX12-standardisiertes AS/AC beherrschen und einen Umweg über speziell angepasste Renderpfade gehen müssen um, nicht an Leistung zu verlieren... Außerdem nennt sich TimeSpy "State of the art DX12-Benchmark", benutzt allerdings nur DX Feature Level 11_0...
Nein, gibt DX12 eben nicht vor, genauso wie DX allgemein in vielen Bereichen nicht genau vorgibt wie die Hardware es umzusetzen hat.
Die Funktionen müssen funktionieren, auf welchem Weg ist in vielen Bereichen aber offen.

Die DX Spec setzt z.B. nicht voraus, dass Tessellation über Fixed-Hardware umgesetzt werden muss, ARM setzt Tessellation nur über Shader um.
Die DX12 Spec Multiengine (Im "Volksmund" Async Compute) spezifiziert auch nicht das die unterschiedlichen Queue-Typen parallel abgearbeitet werden müssen, das gleiche gilt für Async Copy.
Intel führt die Copy-Queue je nach Fall auch über die ALUs durch und nicht über die DMA-Engine, dass läuft dann natürlich auch nicht "parallel".

Bei Multiengine gibt es keine AC-Anforderung, man verwendet das Konstrukt und fertig, wie es unter der Haube abläuft wird nicht vorgeschrieben.
Soll ich am besten den ganzen Inhalt vom verlinkten Thread hier rüber kopieren, weil lesen wird es anscheinend niemand?
Ich meine jeder kann sich die Multiengine Spec durchlesen, genauso wie die Time Spy Demo dokumentiert ist, Futurmark hat auch ein GPUView Screenshot von Time Spy veröffentlicht.

Es gibt keinen speziellen Renderpfad für Nvidia, alles ist DX12 konform.
Time Spy verwendet DX12 FL11.0 um so viel Hardware wie möglich anzusprechen, dass kann man kritisieren, ist aber auch eine Businessentscheidung.
Alle Möglichkeiten bzw. das technische Limit von DX12 kann man deswegen aber natürlich nicht demonstrieren.

Locuza,

natühlich, lasse doch mal bitte die volle leistung der hardware ausspielen durch ordentliche programierung für die hardware ! huh?

wie du merkst ohne ordentliche optimierungen bzw programierung, wird die hardware nicht ordentlich ausgespielt.

was ich damit sagen will, ist also ein klares beweis das nv hier ganz klar und deutlich die finger in den 3dmark und in vielen spielen hat.

aber her woran liegt das, das ihr es nicht sieht bzw begreifen wollt wie ich, das ihr auf solche antworten eingeht ?
Die volle Leistung der Hardware kannst du gar nicht realisieren, ohne für jeden einzelnen Hersteller einen super spezifischen Pfad zu schreiben.
Das ist praktisch nicht realisierbar.
Das ist überhaupt gar kein klarer Beweis das NV hier ihre Finger im Spiel hat.
Einige scheinen so blind zu sein das es ständig nur um AMD vs. Nvidai geht, Intel wird dann immer in den Hintergrund gerückt, als ob die Hardware von dem Unternehmen gar nicht existiert.
Hat sich dort jemand einmal gefragt wie die Sachen ablaufen und wie man dafür am besten optimiert?
 

scorplord

Software-Overclocker(in)
ich weis net, was soll uns dieser test eigentlich sagen, bzw, was soll uns der test über die Leistungsfähigkeit von dx12 sagen,? wenn das featurelevel der programmierung grade mal auf dem d3d11_0 läuft, ok er kann ac, setzt diese feature aber bei der 900 serie aus, wenn ich das richtig verstanden habe. ich habe iwie das gefühl, dass mir hier versucht wird zu erzählen, was die karten alles unter dx 12 schaffen kann, am ende aber eigentlich kein fundierter dx12 test da ist um es zu erfassen.
Hier wird wieder nur die penisverlänerung gemessen, und das schlimmste daran ist, wenn man das den fanboys sagt das nvidia ja garkein ac kann wird man sonnst wie versucht niederzureden, immer nach dem motto nv die grünen sind die weltretter.
p.s. was nun eigentlich mit pascale, können die wirklich ac oder emulieren diese das auch weider nur über die cpu, das ging etwas an mir vorbei, da ja nen pascale "nur" ein aufgebohrert maxwell ist.

Problem bei den Maxwell Karten ist ja, dass die Karte kurz komplett anhalten muss um eine Computeberechnung einzuschieben. Daher die Einbußungen in Sachen Leistung.
Pascal kann soweit ich weiß das etwas besser. Es waren glaube 4? Teile in denen die GPU unterteilt ist welche dann unabhängig voneinander gestoppt werden wenn ein Computebefehl anliegt.

Ihr dürft mich gerne korrigieren aber das hatte ich in der Form so mal gelesen zu dem Thema.

Zum TimeSpy Benchmark... Ich möchte nicht unterstellen das nVidia gar Geld bezahlt hat oder irgendwas "optimiert" für den Benchmark etc. aber aktuell finde ich den Benchmark selbst als synthetischen Benchmark schwachsinnig. Die Entwickler haben ja gesagt das bei den nVidia Karten kein AC verwendet wird oder ein speziell zugeschnittener Pfad verwendet wird. Das macht für mich die Aussagekraft zunichte. Es sollten ja schon möglichst gleiche Bedingungen für alle GPUs sein ansonsten kann man den Vergleich in die Tonne klopfen.
 

Spam-a-lot

Komplett-PC-Aufrüster(in)
Es gibt keinen speziellen Renderpfad für Nvidia, alles ist DX12 konform.
Time Spy verwendet DX12 FL11.0 um so viel Hardware wie möglich anzusprechen, dass kann man kritisieren, ist aber auch eine Businessentscheidung.

Für "betagte" Karten gibt es doch die älteren Benchmarks, eine Kompatibilität zu älteren Karten hätte man also nicht umsetzen müssen, dass Sie es doch getan haben, spricht Bände. Besonders der Umstand, dass nur FL11_0 benutzt wird, hinterlässt einen faden Beigeschmack, denn AMD-Karten profitieren ungemein von FL12_0. Ein Schelm, wer Böses dabei denkt... ;)

Hier nochmal der Unterschied von "Async Computing" (DX/AMD), zu "Concurrent Computing" (nVidia). Darin wird sehr gut aufgezeigt, dass es sich eben nicht um ein- und dasselbe handelt...

[computerbase.de] DOOM + Vulkan Benchmarked. - Page 23
 

Locuza

Lötkolbengott/-göttin
Problem bei den Maxwell Karten ist ja, dass die Karte kurz komplett anhalten muss um eine Computeberechnung einzuschieben. Daher die Einbußungen in Sachen Leistung.
Pascal kann soweit ich weiß das etwas besser. Es waren glaube 4? Teile in denen die GPU unterteilt ist welche dann unabhängig voneinander gestoppt werden wenn ein Computebefehl anliegt.

Ihr dürft mich gerne korrigieren aber das hatte ich in der Form so mal gelesen zu dem Thema.

Zum TimeSpy Benchmark... Ich möchte nicht unterstellen das nVidia gar Geld bezahlt hat oder irgendwas "optimiert" für den Benchmark etc. aber aktuell finde ich den Benchmark selbst als synthetischen Benchmark schwachsinnig. Die Entwickler haben ja gesagt das bei den nVidia Karten kein AC verwendet wird oder ein speziell zugeschnittener Pfad verwendet wird. Das macht für mich die Aussagekraft zunichte. Es sollten ja schon möglichst gleiche Bedingungen für alle GPUs sein ansonsten kann man den Vergleich in die Tonne klopfen.
Das ist ein ziemlich intransparentes Thema, welche Hardware welche Shader "parallel" ausführen kann und welche sie vorziehen muss und wann und wie schnell das geht.
Pascal hat auf jeden Fall die Pre-Emption wesentlich verbessert und teilt die Ressourcen nicht mehr statisch zwischen GFX/Compute ein, über die Granularität weiß ich aber nichts.
GPC-Level wäre sehr grob.

Und noch einmal, der Benchmark verwendet keinen herstellerspezifischen Pfad, dass hat der Entwickler explizit gesagt.
Die Bedingungen sind für alle Hersteller die gleichen, die Sache ist einfach das Kepler/Maxwell den Multiengine Befehl anders ausführt als Pascal oder AMDs GCN-GPUs, darüber hat der Entwickler aber keine Kontrolle.
Das ist dann Treiber-Sache oder Runtime oder OS, wer auch immer da beim letztendlichen Scheduling beteiligt ist.

Für "betagte" Karten gibt es doch die älteren Benchmarks, eine Kompatibilität zu älteren Karten hätte man also nicht umsetzen müssen, dass Sie es doch getan haben, spricht Bände. Besonders der Umstand, dass nur FL11_0 benutzt wird, hinterlässt einen faden Beigeschmack, denn AMD-Karten profitieren ungemein von FL12_0. Ein Schelm, wer Böses dabei denkt... ;)
Und Nvidia kann FL12.1, ein Schelm wer böses denkt, AMD hat Futurmark bestochen um neue Features wie Conservative Rasterization und Rasterizer Ordered Views gar nicht zu verwenden. :schief:
Mit FL12.0 hätte man GCN Gen 1, Kepler, Maxwell v1 und Intel Gen 7.5/8 ausgeschlossen.
Und mehrere Feature-Levels gleichzeitig zu verwenden macht das ganze natürlich nicht direkt vergleichbar und stellt zusätzlichen Aufwand dar.
Man könnte den Benchmark natürlich in Levels unterteilen und dann wird eben je nach Hardware ein Level gar nicht ausgeführt, aber again, Aufwand und Business-Sache und kein Bestechungsthema.

Edit:

Hier nochmal der Unterschied von "Async Computing" (DX/AMD), zu "Concurrent Computing" (nVidia). Darin wird sehr gut aufgezeigt, dass es sich eben nicht um ein- und dasselbe handelt...

[computerbase.de] DOOM + Vulkan Benchmarked. - Page 23
Hier noch einmal die falsche Ausführung von Mahigan.
Lies dir lieber den Beitrag bzw. den ganzen Thread durch:
3DMark Time Spy wegen angeblicher Nvidia-Bevorzugung in der Kritik
 
Zuletzt bearbeitet:

scully1234

Gesperrt
Zuletzt bearbeitet:

Spam-a-lot

Komplett-PC-Aufrüster(in)
Nein, gibt DX12 eben nicht vor, genauso wie DX allgemein in vielen Bereichen nicht genau vorgibt wie die Hardware es umzusetzen hat.
Die Funktionen müssen funktionieren, auf welchem Weg ist in vielen Bereichen aber offen.

Die DX Spec setzt z.B. nicht voraus, dass Tessellation über Fixed-Hardware umgesetzt werden muss, ARM setzt Tessellation nur über Shader um.
Die DX12 Spec Multiengine (Im "Volksmund" Async Compute) spezifiziert auch nicht das die unterschiedlichen Queue-Typen parallel abgearbeitet werden müssen, das gleiche gilt für Async Copy.
Intel führt die Copy-Queue je nach Fall auch über die ALUs durch und nicht über die DMA-Engine, dass läuft dann natürlich auch nicht "parallel".

Bei Multiengine gibt es keine AC-Anforderung, man verwendet das Konstrukt und fertig, wie es unter der Haube abläuft wird nicht vorgeschrieben.
Soll ich am besten den ganzen Inhalt vom verlinkten Thread hier rüber kopieren, weil lesen wird es anscheinend niemand?
Ich meine jeder kann sich die Multiengine Spec durchlesen, genauso wie die Time Spy Demo dokumentiert ist, Futurmark hat auch ein GPUView Screenshot von Time Spy veröffentlicht.

Es gibt keinen speziellen Renderpfad für Nvidia, alles ist DX12 konform.
Time Spy verwendet DX12 FL11.0 um so viel Hardware wie möglich anzusprechen, dass kann man kritisieren, ist aber auch eine Businessentscheidung.
Alle Möglichkeiten bzw. das technische Limit von DX12 kann man deswegen aber natürlich nicht demonstrieren.


Die volle Leistung der Hardware kannst du gar nicht realisieren, ohne für jeden einzelnen Hersteller einen super spezifischen Pfad zu schreiben.
Das ist praktisch nicht realisierbar.
Das ist überhaupt gar kein klarer Beweis das NV hier ihre Finger im Spiel hat.
Einige scheinen so blind zu sein das es ständig nur um AMD vs. Nvidai geht, Intel wird dann immer in den Hintergrund gerückt, als ob die Hardware von dem Unternehmen gar nicht existiert.
Hat sich dort jemand einmal gefragt wie die Sachen ablaufen und wie man dafür am besten optimiert?

Intel betrügt genauso seit Jahren... Bestes Beispiel die Intel-Compiler bzw. CPU-Dispatcher: Ein Compiler kann verschiedene Varianten eines Codes erzeugen, je nach dem, auf welcher CPU (Intel/AMD/VIA etc.) die Software läuft. Einerseits werden die Capabilities der CPU abgefragt, aber auch, um welchen CPU-Hersteller es geht (Vendor ID-String). Wird "GenuineIntel" als Ergebnis zurückgegeben, erzeugt der Compiler den maximalst schnellsten Code, wird etwas anderes gemeldet, wird der der langsamste Code verwendet, auch wenn die CPU die selben Capabilities hat, wie die Intel-CPU. Somit wird für nicht-Intel-CPU's ein wesentlich langsamerer Code erzeugt, sprich : Das Programm läuft auf AMD's wesentlich langsamer. Bewiesen hat man dies, indem man einer AMD-CPU eine Intel Vendor-ID verpasst und dann nochmals compiliert und getestet hat. Ergebnis: Plötzlich lief das Programm auf genau der selben AMD-CPU wie zuvor wesentlich performanter. Bloß weil Intel das auch macht, relativiert dies doch nicht ähnliches Gebaren seitens nVidia... ;)
 

Locuza

Lötkolbengott/-göttin
Hier betrügt aber niemand.
Jedes Unternehmen hat einmal hier getrickst, da gesponsert, dort zurecht gebogen und was noch, aber das ist nicht Grund genug um jetzt bei jedem Fall, egal wie unterschiedlich er auch sein mag, Bestechungen und Bevorzugungen als Fakt zu verkaufen, ohne etwas handfestes auf der Kralle haben zu müssen, dabei sprechen die Ergebnisse doch für sich.
Ich weiß gar nicht was es hier (Time Spy) wirklich zu kritisieren gibt?
Und mit wirklich meine ich wirklich, wirklich und keine eigene personifizierte Herstelleragenda der etwas nicht passt und wo etwas nicht so sein darf, wie man meint.
 

Spam-a-lot

Komplett-PC-Aufrüster(in)
Hier betrügt aber niemand.
Jedes Unternehmen hat einmal hier getrickst, da gesponsert, dort zurecht gebogen und was noch, aber das ist nicht Grund genug um jetzt bei jedem Fall, egal wie unterschiedlich er auch sein mag, Bestechungen und Bevorzugungen als Fakt zu verkaufen, ohne etwas handfestes auf der Kralle haben zu müssen, dabei sprechen die Ergebnisse doch für sich.
Ich weiß gar nicht was es hier (Time Spy) wirklich zu kritisieren gibt?

Die Kritik ist folgende: TimeSpy benutzt auf nVidia-Karten anderen Code, als auf AMD-Karten. Somit ist keine Vergleichbarkeit mehr gegeben, da der Code nicht mehr identisch ist. Somit ist dieser "Benchmark" auch nicht geeignet um Vergleiche bzw. Aussagen über die Leistungsfähigkeit in Relation zu setzen. Ist analog dazu wie in der Wissenschaft: Experimente sind nur vergleichbar, wenn sie unter exakt denselben Bedingungen (Temperatur, Luftfeuchtigkeit, Luftdruck, etc pp.) durchgeführt werden. Ist eigentlich ganz simpel... ;)
 

Locuza

Lötkolbengott/-göttin
Der Code ist aber identisch, Futurmark hat explizit verlauten lassen das es keinen herstellerspezifischen Pfad gibt.
Die Vergleichbarkeit ist unter den Gegebenheiten der DX12-API völlig existent.
Für den Time Spy Benchmark kann man natürlich auch die Leistungsfähigkeit in Relation setzen, aber nicht diese Ergebnisse für alle Anwendungen allgemein übertragen, dass kann man bei keiner einzigen Anwendung.
Das ist auch eigentlich ganz simpel.
 

scully1234

Gesperrt
Ist doch immer wieder das selbe in der letzten Zeit ,mit Verschwoerungstheorien geht's halt leichter von der Hand, und man muss sich nicht das Offensichtliche eingestehen, zumindestens fuer einen limitierten Zeitraum, bis das Kartenhaus wieder zusammenfaellt
 

MySound

Freizeitschrauber(in)
Ich in schon auf den Tag gespannt an dem ich mir denke: "Meine Güte, wieso hast Du Idiot Dir ne 1080 bestellt... ich brauch doch UNBEDINGT AC!"

Dieser Tag wird nie kommen hab ich so im Gefühl.

Für mich als 3DMark-nicht-User findet der Kauf einer Grafikkarte so statt:

Ich schau mir Benchmarks von "echten" Spielen an und kauf dann das was am schnellsten ist und ins Budget passt.
Was zum Geier interessieren mich irgendwelche synthetischen Benchmarks?

Und bis AC vielleicht mal AMD nen Vorteil bringt läuft noch viel Wasser die Isar runter. Und sollte AMD dann wirklich um 14858747475% schneller sein als Nvidia... dann kauf ich mir dann halt ne AMD Karte. Fertig.

Dieses Fanboy-Rumgeheule immer... Furchtbar ;)
 
Zuletzt bearbeitet:

Spam-a-lot

Komplett-PC-Aufrüster(in)
Ist doch immer wieder das selbe in der letzten Zeit ,mit Verschwoerungstheorien geht's halt leichter von der Hand, und man muss sich nicht das Offensichtliche eingestehen, zumindestens fuer einen limitierten Zeitraum, bis das Kartenhaus wieder zusammenfaellt

Anders herum wird ein Schuh' daraus: Bloß weil man (einem persönlich, da Fanboy von XY) unangenehme Sachverhalte nicht versteht oder verstehen will, schwingt man sofort die Verschwörungstheoretiker-Keule und versucht den Kritik übenden dadurch zu diskreditieren bzw lächerlich und unglaubhaft zu machen. Fällt in irgendeiner Antwort, Bezug nehmend auf einen von mir vorgetragenen, faktisch belegten Sachverhalt, das Wort "Verschwörungstheorie", dann ist das für mich die beste Bestätigung, dass ich mit meiner Ansicht genau richtig liege. :)
 

Spam-a-lot

Komplett-PC-Aufrüster(in)
Und bis AC vielleicht mal AMD nen Vorteil bringt läuft noch viel Wasser die Isar runter. Und sollte AMD dann wirklich um 14858747475% schneller sein als Nvidia... dann kauf ich mir dann halt ne AMD Karte. Fertig.

Willkommen in der Realität: Heute ist der 04.08.2016 und AMD profitiert schon länger von AC, da muss man nicht warten, bis irgendwo in einem unbedeutenden Bundesland in irgend einem Rinnsal viel Wasser runter gelaufen ist... ;)
 
Oben Unten