3DMark Time Spy wegen angeblicher Nvidia-Bevorzugung in der Kritik

@ Rollora

Ashes of the Singularity ist immer noch kein Benchmark D:
Inwiefern?
AOS ist ein Spiel mit integriertem Benchmark, welches von AMD überall beworben wird weil es so toll AC und andere DX12/Mantle Dinge implementiert.
Es ist wie jedes andere Spiel also als Benchmark möglich, zumal es vorab ja extra den Benchmark gab (der unter anderem ach mixed GPUs erlaubt hat).

Ja es ist kein REINER Benchmark, aber kann ja sehr wohl als Benchmark verwendet werden. So wie früher die Quake Spiele.
Oder worauf willst du hinaus :( ?
 
Ich werde morgen jedenfalls bei Steam eine Erstattung beantragen und die u.a. mit diesem PCGH-Artikel begründen.
Aha, du willst etwas erstattet bekommen haben, weil die Werbeaussage das blaue vom Himmel versprochen hat und es sich nicht ganz bewahrheitet hat?

Willkommen in der realen Welt :D
"Der weiße Riese, wäscht weißer als weiß"
 
Gewöhnlicherweise verliert Maxwell sogar durch AC.
"Gewöhnlicher Weise" ist nur ein einziges Spiel. Bei dem man nicht weiß, was es genau macht, wenn man AC aktiviert. Da die Performance leicht sinkt, obwohl AC im Treiber eigentlich blockiert wird und keine Auswirkung haben dürfte, muss man eher davon ausgehen, dass die Renderingpipeline selbst einfach generell etwas ineffizienter ist, wenn sie die Daten für AC aufbereitet. Sprich: Wenn man bei AMD ebenfalls AC im Treiber deaktivieren würde, könnte es gut sein, dass man die selben Verluste sieht. Die dann einfach die Engine verursacht.
 
Wegen einer unwahren Produktbeschreibung, und deswegen refund.

Was den technischen Aspekt angeht, ist mittlerweile alles durchgekaut:

Maxwell versagt in dem Bereich.
 
Zuletzt bearbeitet:
Kann mir nicht vorstellen das sowas beim 3dmark passiert !
Denn sollte sowas wirklich sein ist der 3Dmark dahin !
Das wird Futuremark nicht mit sich machen lassen !
 

Sprich: Du bist beleidigt, weil der Benchmark einen nicht ganz so deutlichen Nachteil für nVidia Karten zeigt, wie Du es Dir erhofft hast.

/edit Zu Deinem Edit:

Maxwell versagt in dem Bereich.

Juhuu. Endlich. nVidia versagt. Auf ganzer Linie. Lasst die Sektkorken knallen!!!!

(Phew. Wenn man das schon als schlimmes Versagen hochstilisieren muss, kann mir als nVidia Kunde mit einer Maxwell Karte ja recht wenig passieren)
 
Zuletzt bearbeitet:
Also wenn ich Hardware wie neue GPUs vergleiche, kaufe ich mir das PCGH-Heft. Dann such ich mir das für mich interessante Spiel(e) in den Benchmarks. Nebenbei les ich noch auf der Seite und anderen.

Und treffe danach eine Entscheidung. Diese Benchsoftware hier interessiert mich dann doch recht wenig. Wichtig ist doch auf dem Platz. Mal Hand auf's Herz, wie viele Poster hier spielen eigentlich dieses "Ashes of the Singularity" wirklich? Und wird AC von in der restlichen Spielebibliothek auf so gut genutzt?

Ich suche jetzt 'ne Karte, die schnell, leise und sparsam ist. Meine Wahl fällt hierbei auf die 1070, auch wenn sie eigentlich zu teuer ist (Nachteil). Aber die Vorteile wiegen es auf.

Und selbst wenn die Karte AC überhaupt nicht unterstützt, bringt sie auch so gute Leistung auf'm Platz. Nvidia ist leider deutlicher Marktführer. Dann wird's wohl so sein, dass auch in der nahen Zukunft die neuen Games auf die Masse der Karten optimiert wird. Und wenn die Roten ( (eigentlich meine Lieblingsfarbe) trotzdem immer wieder Leistungsgewinne durch innovative Technik haben, is doch auch prima.

Ich freu mich schon auf das neue Heft. Steht schon fest, welche Costums noch verglichen werden?
 
Das tut mir leid für dich.
So funktioniert die Marketingwelt. Sonst würde auch so gut wie niemand Apple kaufen.
Jeder hat immer den besten Prozessor, die beste Grafikkarte, den besten Staubsauger.
Mercedes verkauft überhaupt "das Beste oder nichts". Hast du einen Mercedes?

Wenn sie es nicht angegeben hätten, wärs dir gar nicht aufgefallen. Kaufst du es dir nochmal wenn der Pfad nachgepatcht wird?
 
Weil das Gebotene nicht meinen Erwartungen entspricht, siehe Zitat in meinem obigen Beitrag.
Was würde denn deinen Erwartungen entsprechen?

Inwiefern?
AOS ist ein Spiel mit integriertem Benchmark, welches von AMD überall beworben wird weil es so toll AC und andere DX12/Mantle Dinge implementiert.
Es ist wie jedes andere Spiel also als Benchmark möglich, zumal es vorab ja extra den Benchmark gab (der unter anderem ach mixed GPUs erlaubt hat).

Ja es ist kein REINER Benchmark, aber kann ja sehr wohl als Benchmark verwendet werden. So wie früher die Quake Spiele.
Oder worauf willst du hinaus :( ?
Vielleicht sehe ich es nur wie ich es möchte, aber es klingt für mich meist so, als ob der Begriff Benchmark impliziert, dass dies gar kein echtes Spiel sei und nur für das Marketing entwickelt worden wäre.
Das Spiel ist für die Hardwarehersteller so transparent wie vermutlich kein zweites in der Industrie.
Der Source-Code steht allen Hardwareherstellern offen.
Das AMD da mit finanziert bedeutet auch nicht, dass Oxide nur mit AMD-Ingenieuren arbeitet und alle möglichen Performance-Tipps für GCN umsetzt und jede andere Hardware ignoriert.

Auch wieder keine direkte Unterstellung von mir, aber manchmal habe ich den Eindruck, als ob in die Richtung argumentiert wird.
 
Kann mir nicht vorstellen das sowas beim 3dmark passiert !
Denn sollte sowas wirklich sein ist der 3Dmark dahin !
Das wird Futuremark nicht mit sich machen lassen !
Um seine gewichtige Aussage weiter hervorzuheben empfehle ich neben dem Rufzeichen auch Fettschrift, GROSSSCHREIBUNG, Farbe, unterstrichene Worte und, ganz wild, kursive Schrift.

Ganz wichtig ist aber, dass man semantisch wenig Sinn ergibt, dann müssen die Leser länger über die kryptische Bedeutung des Posts nachdenken.
Vielleicht sehe ich es nur wie ich es möchte, aber es klingt für mich meist so, als ob der Begriff Benchmark impliziert, dass dies gar kein echtes Spiel sei und nur für das Marketing entwickelt worden wäre.
Naja da hast du natürlich recht. Ich unterscheide halt zwischen rein theoretischen Benchmarks, also welche die irgendwelche Werte ausspucken aber kein Praxisbeispiel liefern (Synthetische Benchmarks) und halt "Real World Benchmarks", in dem Fall ein Spiel mit integriertem Benchmark.
Das Spiel ist für die Hardwarehersteller so transparent wie vermutlich kein zweites in der Industrie.
Der Source-Code steht allen Hardwareherstellern offen.
Das AMD da mit finanziert bedeutet auch nicht, dass Oxide nur mit AMD-Ingenieuren arbeitet und alle möglichen Performance-Tipps für GCN umsetzt und jede andere Hardware ignoriert.
Das mag durchaus so sein, aber nur weil etwas "offen" ist, kann man es trotzdem in manche Richtung gezielter optimieren.
Ist ja bei Open Source nunmal auch so. Ressourcenfrage.
AMD hat das Spiel sicher nicht umsonst so lange herumgewedelt ;)
 
"Gewöhnlicher Weise" ist nur ein einziges Spiel. Bei dem man nicht weiß, was es genau macht, wenn man AC aktiviert. Da die Performance leicht sinkt, obwohl AC im Treiber eigentlich blockiert wird und keine Auswirkung haben dürfte, muss man eher davon ausgehen, dass die Renderingpipeline selbst einfach generell etwas ineffizienter ist, wenn sie die Daten für AC aufbereitet. Sprich: Wenn man bei AMD ebenfalls AC im Treiber deaktivieren würde, könnte es gut sein, dass man die selben Verluste sieht. Die dann einfach die Engine verursacht.
Ashes of the Singularity ist ein Fall für sich selber.
Laut Oxide sperren sie Async Compute für Nvidia Karten per Hardware-ID, also der Schalter Async Compute on/off sollte gar nichts bewirken, weil es für Nvidia-Karten immer deaktiviert wird und wenn der Treiber es auch immer sequentiell ausführt, ist es ja dann praktisch doppelt auf off. :ugly:
Ich weiß nicht ob sie den Lock mittlerweile aufgehoben haben, aber zu Beginn war es noch so und man hat in der Tendenz dennoch einen Verlust messen können, wenn auch nur ein paar %.
Die Messschwankungen sind leider recht groß, ich weiß nicht ob das am Ende nur die Messschwankungen sind die zu den Ergebnissen führen, wenn ja wäre das arg krass.

Man kann sich glaube ich einigen das es leider nicht genügend Vergleichsmaterial gibt.
 
Danke für dein Mitgefühl, aber ich werde trotzdem einen refund beantragen. Mal schauen, was draus wird.

Wenn Maxwell doch schon so klasse ist, dass er gar nicht mehr zulegen kann, wieso legt dann eigentlich Pascal zu?

Ist Maxwell soviel besser optimiert, dass er selbst nVidias neueste Architektur in dem Bereich in den Schatten stellt?
 
Du hast immer noch nicht beantwortet was denn deinen Erwartungen entsprechen würde?

Maxwell ist natürlich schlechter als Pascal und hat einige Einschränkungen was den Compute- und GFX-Workload angeht, immer dann wenn man gerne wechseln möchte oder von beidem gleichzeitig profitieren.
 
Wenn Maxwell doch schon so klasse ist, dass er gar nicht mehr zulegen kann, wieso legt dann eigentlich Pascal zu?
Es hat kein Mensch behauptet, dass bei Maxwell kein Raum für bessere Auslastung wäre. Und natürlich ist es schade, dass Maxwell AC nicht nutzen kann, die Auslastung noch weiter zu verbessern.

Und nochmal: Es ist doch gut, dass AMD AC nutzen kann, um die Lücke zu verkleinern oder sogar ganz zu schließen, ja womöglich sogar eine bessere Auslastung als Maxwell zu erreichen. Ich gönne das AMD durchaus. Muss ich jetzt aber deswegen in Tränen ausbrechen, weil eine andere Architektur nun hier besser ist als Maxwell? Ich verstehe den Ansatz nicht, wieso jetzt daraus folgt, das Maxwell offenbar nur noch Müll ist, nur weil es dieses Feature zur Auslastungsverbesserung nicht nutzen kann. Sei mal ehrlich zu Dir selbst: Musst Du nicht selbst ein wenig grinsen wenn Du Dir überlegst, welchen Monsterelefant Du aus der Sache machst?

Ist Maxwell soviel besser optimiert, dass er selbst nVidias neueste Architektur in dem Bereich in den Schatten stellt?
Pascal kann AC nutzen und die ohnehin schon gute Auslastung damit noch weiter verbessern. Ganz einfach.
 
Oben habe ich aus dem PCGH-Artikel zitiert, aber kurz gesagt: Der Bench besitzt nicht die Qualität, als echter DX12-Bench bezeichnet und verkauft zu werden.

Pascal kann AC nutzen und die ohnehin schon gute Auslastung damit noch weiter verbessern. Ganz einfach.

So, jetzt kommen wir der Sache näher: Maxwell kann es nicht, zumindest nicht so wie erwartet und von nVidia kommuniziert.
 
Wieso? Er nutzt die DX 12 API. Er nutzt einige DX 12-exklusive Features. Speziell auch die Features, die das Potential für einen deutlichen Effizienzgewinn im Vergleich zu DX11 haben.

Er nutzt aber nicht ALLE DX12 Features. Täte er das, würde er auf AMD gar nicht laufen.

Könnte er mehr DX12 Features nutzen? Ja, klar. Na und?
 
Oben habe ich aus dem PCGH-Artikel zitiert, aber kurz gesagt: Der Bench besitzt nicht die Qualität, als echter DX12-Bench bezeichnet und verkauft zu werden.
Er verwendet die DX12 API mit Feature-Level 11.0.
Das kleinste Feature-Level, aber alles darüber würde viele GPUs ausschließen.

Die Frage ist, was erwartet man denn von einem DX12 Benchmark und was sollte er testen und ultimativ, was sollte einen zum kaufen bewegen gegenüber jetzt?
Ich meine wieso hast du dir ihn überhaupt gekauft, bevor du wusstest das er nur FL11.0 verwendet?
 
Soweit ich es bisher verstanden habe - und ich habe mich zugegebenermaßen mit dem 3DMark erst eine halbe Stunde oder so beschäftigt - gibt es genau einen Renderpfad, den Futuremark den Grafikkarten vorsetzt. Der nutzt die DirectX-12-API, begnügt sich - vielleicht aus Kompatibilitätsgründen - mit Feature-Level 11_0 (Maxwell v1, Kepler, theoretisch auch Fermi; aber auch HD 7000/R9 280(X)/ bis hinauf zur R7 370, die lediglich 11_1 beherrschen. DX12 FL12_0 können erst Bonaire, Hawaii und natürlich Tonga, Fiji und Polaris, s. PCGH 05/2016, S. 49).

Was nun bei Maxwell passiert ist, dass - laut Nvidia - im Treiber Concurrent Execution/Async Compute nicht aktiviert ist. Ob das jemals aktiviert wird (und ob die Hardware es tatsächlich abseits von Static Partitioning der SMs unterstützt... glaub ich nicht. Jedenfalls tut der Treiber mit dem Futuremark-Code nun genau das, was er immer getan hat: Er integriert die Compute-Shader, die asynchron laufen dürften, in die Graphics Queue (und darf das laut DX12 auch, es bringt nur halt keine Vorteile) sodass alle Operationen seriell abgearbeitet werden. Dadurch entsteht natürlich kein Gewinn.

Bei Pascal scheint das anders zu sein.

Daher gilt hier noch mehr als in anderen 3D-Märkern: Sinnvolle Vergleiche gibt es nur innerhalb einer Chipfamilie und -generation. Bei Fire Strike ließen sich ja zumindest noch die Geforce- und die Radeon-Karten jeweils untereinander vergleichen. Damit scheint hier wohl auch Schluss.

Danke Carsten, für die gute Erklärung :gruebel:

Maxwell Berechnet AC nicht Asynchron sondern Synchron weiter ohne Vorteil (nicht Variabel) also ON = ON
Pascal Berechnet AC nicht Asynchron sondern Synchron, hat aber Vorteile durch dynamische Pixel (Laufende Berechnungen werden angehalten und andere Vorgezogen) also ON = ON
AMD setzt sowieso auf AC und berechnet Asynchron (größter Vorteil) ON = ON


Puh, schwere Lecktüre ;)
 
Zuletzt bearbeitet:
So, jetzt kommen wir der Sache näher: Maxwell kann es nicht, zumindest nicht so wie erwartet und von nVidia kommuniziert.

Hast Du den Rest meines Postings überhaupt gelesen?

Ja, lass es Dir auf Deiner Zunge nochmal zergehen: MAXWELL KANN ES NICHT. MAXWELL IST DESWEGEN ABSOLUTE ********. ICH WERDEN MEINE TITAN X SOFORT AUF DEN MÜLL SCHMEISSEN!!!! Vielleicht aber auch nicht...

Wo nVidia das offiziell kommuniziert (also versprochen) hat, musst Du mir mal zeigen.
 
Zuletzt bearbeitet:
Ich meine wieso hast du dir ihn überhaupt gekauft, bevor du wusstest das er nur FL11.0 verwendet?

Weil genau das nicht mitgeteilt wurde. Wenn er flexibler programmiert wäre, bspw. durch Anpassung an die HW-ID (ältere Hardware bliebe trotzdem verwendbar), wäre das für mich auch kein Thema.

Aber so? Nee, danke.

Wo nVidia das offiziell kommuniziert (also versprochen) hat, musst Du mir mal zeigen.

Ich bitte dich.

Was deine Titan X angeht: Du kannst es ja nun auch nicht mehr ändern. Für DX11 und darunter ist sie ja durchaus noch brauchbar.
 
Zuletzt bearbeitet:
Zurück