Geforce GTX 1080: Boardpartner bringen sich in Stellung, erstes Custom-Design geteasert

Schwupps haben AMD Anhänger immer die selben 2 Ausreden, AS und 8 GB. Da das 8 GB Argument jetzt wegfällt wird weiter auf AS rumgeritten. Laut Leaks ist die GTX 1080 is AoS so schnell wie eine Radeon Pro Duo, schwupps was sagt ihr dann ? Das ist natürlich nur ein Leak und keiner weiß ob es wirklich so ist, man wird sehen.
Naja, das Argument "fällt" ja nicht einfach so weg. Du musst in den Laden gehen und dir eine neue GKarte kaufen, erst dann hat der Nvidia User auch 8GB. ;)
Zudem hat auch die GTX 1080 KEIN Asynchronous Shader, schau dir dazu doch mal die Benchmarks der GTX 1080 DX12 vs DX11 an. Zudem ist es doch eigentlich schon lange bekannt das da von Nvidia nichts kommt.
 
Naja, das Argument "fällt" ja nicht einfach so weg. Du musst in den Laden gehen und dir eine neue GKarte kaufen, erst dann hat der Nvidia User auch 8GB. ;)
Zudem hat auch die GTX 1080 KEIN Asynchronous Shader, schau dir dazu doch mal die Benchmarks der GTX 1080 DX12 vs DX11 an. Zudem ist es doch eigentlich schon lange bekannt das da von Nvidia nichts kommt.

Wo hat die GTX 1080 kein Asynchronous Shader ? Zeig mir das mal bitte.
 
Naja, das Argument "fällt" ja nicht einfach so weg. Du musst in den Laden gehen und dir eine neue GKarte kaufen, erst dann hat der Nvidia User auch 8GB. ;)
Zudem hat auch die GTX 1080 KEIN Asynchronous Shader, schau dir dazu doch mal die Benchmarks der GTX 1080 DX12 vs DX11 an. Zudem ist es doch eigentlich schon lange bekannt das da von Nvidia nichts kommt.

Aha und Radeon Karten haben quasi über Nacht auf einmal 8 GB gehabt ? Wenn du von einer älteren Radeon umsteigst hattest du vorher auch keine 8 GB ;)
Hast du auch eine Quelle für deine Behauptung das die 1080 kein AS hat, oder vermutest du das einfach nur ?
 
Wenn die Pascal-Architektur dieses Feature gut beherrschen würde hätte es Huang groß und breit erwähnt.

Es gibt natürlich (noch) keinen Beweis dafür aber da erstens AS zu spät am Markt erscheinen ist dass NV noch hätte können in Hardware reagieren / es in Pascal einbauen und Maxwell als basierende Architektur es nicht kann und zweitens nichts dergleichen von NV erwähnt wurde bei der Präsentation ist es nahezu sicher dass Pascal hinsichtlich AS genauso da steht wie Maxwell davor.

Das soll (ums gleich abzuwürgen) keine Wertung sein, das ist nur eine Einschätzung auf Grundlage der aktuellen Geschehnisse.
 
Erstens, der Benchmark kam von einem Nvidia Mitarbeiter, also muss was dran sein oder nicht.? Zweitens, hat der User (DaHell63) deine Theorie wiederlegt. :)
ne hat er nicht, nur das die Flops Anzahl nur einen gewisse Ausdruckskraft hat kann aber nicht alles erklären kann und weil man ja ziemlich alles in Internet stellen kann hat er es ja widerlegt, ich mach auch mal schnell ein Bild von einem Benchmark in Internet stellen. Nur wenn es unabhängige Zeitschriften schreiben dann glaube ich es alles andere wäre unseriös.
 
Aha und Radeon Karten haben quasi über Nacht auf einmal 8 GB gehabt ? Wenn du von einer älteren Radeon umsteigst hattest du vorher auch keine 8 GB ;)
Hast du auch eine Quelle für deine Behauptung das die 1080 kein AS hat, oder vermutest du das einfach nur ?

RAM einbauen oder nicht benötigt sicherlich weniger Aufwand als eine Architektur zu entwickeln, nur weil es einen Zusammenhang gibt bedeutet nicht dass der Schluss deiner Aussage korrekt ist.
 
Muss wohl an mir vorbei gegangen sein, aber wo ist die Masse an DX12 Titeln?

Hallo??? wir hätten da ein fail Just Cause 3 und ein Fail Rise of the Tomb Raider mit halblebigen DX12 das nie geht und dann wäre da noch AoS und natürlich der megahammer Hitman nicht zu vergessen. Außerdem gibt es Quantum Break und Forza 6 Apex als Beta die DX12 unterstützen. Damit sollten wir am Ende sein.. das sind knapp 10 Spiele ist das nicht ne Masse :lol:

Wer allen ernstes hier DX12 als Argument bringt hat eindeutig den Schuss nicht gehört.
 
Wenn die Pascal-Architektur dieses Feature gut beherrschen würde hätte es Huang groß und breit erwähnt.

Es gibt natürlich (noch) keinen Beweis dafür aber da erstens AS zu spät am Markt erscheinen ist dass NV noch hätte können in Hardware reagieren / es in Pascal einbauen und Maxwell als basierende Architektur es nicht kann und zweitens nichts dergleichen von NV erwähnt wurde bei der Präsentation ist es nahezu sicher dass Pascal hinsichtlich AS genauso da steht wie Maxwell davor.

Das soll (ums gleich abzuwürgen) keine Wertung sein, das ist nur eine Einschätzung auf Grundlage der aktuellen Geschehnisse.

Stimmt Huang hat es nicht erwähnt, auf der Nvidia Seite steht nur kurz und knapp "New asynchronous compute advances improve efficiency and gaming performance". Was das genau heißt werden wir noch sehen.
Hardwareluxx ist sich aber anscheint ziemlich sicher das Pascal AS beherrscht. GeForce GTX 1: Asynchronous Compute plus AoS-Benchmarks, kein VGA und Verwirrung um Founders Edition - Hardwareluxx
 
Wenn die Pascal-Architektur dieses Feature gut beherrschen würde hätte es Huang groß und breit erwähnt.

Es gibt natürlich (noch) keinen Beweis dafür aber da erstens AS zu spät am Markt erscheinen ist dass NV noch hätte können in Hardware reagieren / es in Pascal einbauen und Maxwell als basierende Architektur es nicht kann und zweitens nichts dergleichen von NV erwähnt wurde bei der Präsentation ist es nahezu sicher dass Pascal hinsichtlich AS genauso da steht wie Maxwell davor.

Das soll (ums gleich abzuwürgen) keine Wertung sein, das ist nur eine Einschätzung auf Grundlage der aktuellen Geschehnisse.


Du kannst recht haben,keine frage aber das sind auch nur Vermutungen. Ich denke Nvidia wird sich in der Sache schon verbessert haben,ist aber auch nur eine Vermutung.
 
Stimmt Huang hat es nicht erwähnt, auf der Nvidia Seite steht nur kurz und knapp "New asynchronous compute advances improve efficiency and gaming performance". Was das genau heißt werden wir noch sehen.
Hardwareluxx ist sich aber anscheint ziemlich sicher das Pascal AS beherrscht. GeForce GTX 18: Asynchronous Compute plus AoS-Benchmarks, kein VGA und Verwirrung um Founders Edition - Hardwareluxx


"New asynchronous compute advances improve efficiency and gaming performance."

mit Google Translator bekommt man Neue asynchrone Rechen Fortschritte zur Verbesserung der Effizienz und Gaming-Performance, da steht aber sicherlich nicht dass Pascal AS beherrscht wie AMD, das hätte ich dir auch so sagen können nur das das Verhalten wurde verbessert wo AS gefordert sind.


"Ausgeführt wurde der Benchmark in 1080p in den Presets High, Extreme und Crazy. Im High-Preset ist dabei eine Radeon Pro Duo leicht schneller (bei relativ geringem Abstand von einem FPS im Durchschnitt), eine GeForce GTX 980 Ti in etwa 11 % langsamer und eine Radeon R9 Fury X um fast 14 %. Dabei ist aber nicht bekannt, mit welchen Taktraten die Karten jeweils betrieben wurden. Im Extreme-Preset ist die GeForce GTX 1080 dann 12 % schneller als eine GeForce GTX 980 Ti und 15 % schneller als eine Radeon R9 Fury. Im Crazy-Preset dominieren dann mehr und mehr Multi-GPU-Systeme die Rangliste."

Ok die Pro Duo wird geschlagen nur ist der der Unterschied zwischen Fury X und 1080 minimal, daher glaube ich eher an mangelnde Treiber Unterstützung als das beide Karten gleich schneller wären (...GeForce GTX 1080 dann 12 % schneller als eine GeForce GTX 980 Ti und 15 % schneller als eine Radeon R9 Fury...). also kein Wunderkracher
 
"New asynchronous compute advances improve efficiency and gaming performance."

mit Google Translator bekommt man Neue asynchrone Rechen Fortschritte zur Verbesserung der Effizienz und Gaming-Performance, da steht aber sicherlich nicht dass Pascal AS beherrscht wie AMD, das hätte ich dir auch so sagen können nur das das Verhalten wurde verbessert wo AS gefordert sind.


"Ausgeführt wurde der Benchmark in 1080p in den Presets High, Extreme und Crazy. Im High-Preset ist dabei eine Radeon Pro Duo leicht schneller (bei relativ geringem Abstand von einem FPS im Durchschnitt), eine GeForce GTX 980 Ti in etwa 11 % langsamer und eine Radeon R9 Fury X um fast 14 %. Dabei ist aber nicht bekannt, mit welchen Taktraten die Karten jeweils betrieben wurden. Im Extreme-Preset ist die GeForce GTX 1080 dann 12 % schneller als eine GeForce GTX 980 Ti und 15 % schneller als eine Radeon R9 Fury. Im Crazy-Preset dominieren dann mehr und mehr Multi-GPU-Systeme die Rangliste."

Ok die Pro Duo wird geschlagen nur ist der der Unterschied zwischen Fury X und 1080 minimal, daher glaube ich eher an mangelnde Treiber Unterstützung als das beide Karten gleich schneller wären (...GeForce GTX 1080 dann 12 % schneller als eine GeForce GTX 980 Ti und 15 % schneller als eine Radeon R9 Fury...). also kein Wunderkracher

Da brauche ich keinen Google Translator für, danke aber mein English ist sehr gut ;)
Schön das du den Text von Hardwareluxx rauskopiert hast, aber anscheind hast du darin was wichtiges überlesen "Dabei ist aber nicht bekannt, mit welchen Taktraten die Karten jeweils betrieben wurden".
Auch das hier hast du anscheind bewusst weggelassen "In wieweit der Benchmark von Ashes of the Singularity unter DirectX 12 nun eine generelle Aussagekraft auf die Leistung der GeForce GTX 1080 hat, lässt sich derzeit nicht abschätzen. Offen ist die Frage, ob dabei die Asynchronous Shaders, so sie denn in der GP104-GPU aktiv sind, verwendet wurden"
Da es sich sowieso um unseriöse Benchmarks handelt, kann man die eh nicht 100 % ernst nehmen, das wird sich erst ändern wenn z.b. PCGH die Dinger testet.
 
Aha und Radeon Karten haben quasi über Nacht auf einmal 8 GB gehabt ? Wenn du von einer älteren Radeon umsteigst hattest du vorher auch keine 8 GB ;)
Hast du auch eine Quelle für deine Behauptung das die 1080 kein AS hat, oder vermutest du das einfach nur ?
Nein, ging bei AMD auch nicht über Nacht. :O
Nur werden 8GB Karten bei AMD ja schon etwas länger verkauft, da gab es bei den anderen nur 4GB -UPS, Sorry. Ich meine natürlich 3,5 GB. ;)

Bezüglich AS: Die Unzufriedenheit von Oculus VR wegen dem Nvidia DX12 Desaster zwang Nvidia vor kurzem doch selbst die "Neuerungen" von Pascal in Bezug auf AS offen zu legen.
Und was war Nvidia Antwort?
Genau! Kein AS sondern ein etwas besseres Compute Preemption, das ist alles. Schau es dir selbst an, Nvidia bezeichnet das Pamphlet als "Inside Pascal"
 
Du kannst es drehen und wenden wie du willst AS konnte selbst Maxwell schon, nur eben hat der Kontext Switch massiv Performance gekostet
Und wozu ist wohl das Compute Preemption da na?
Und wenn das stimmt das die 1080er den Fitschi Doppel Wopper keult , dann ist es sowas von egal wie die Herangehensweise von AMD diesbezueglich ist, wenn es Pascal auf seine Weise perfekt meistert;)
 
Zuletzt bearbeitet:
Du kannst es drehen und wenden wie du willst AS konnte selbst Pascal schon, nur eben hat der Kontext Switch massiv Performance gekostet

Und wozu ist wohl das Compute Preemption da na?

Und wenn das stimmt das die 1080er den Fitschi Doppel Wopper keult , dann ist es sowas von egal wie die Herangehensweise von AMD diesbezueglich ist, wenn es Pascal auf seine Weise perfekt meistert;)

Preemption unterbricht die Berechnung für eine andere Berechnung, dabei wird nicht unterschieden zwischen Compute oder Graphikberechnungen bei AS wird auch noch möglichst ein Switch vermieden wenn ein Block schon spezifische Berechnungen ausführt

mal das hier lesen, dass beide Karten gleich ziehen hängt eher mit den Treiber bzw. Implemtierung zusammen als mit der Leistung weil sonst wäre nicht die GTX 1080 15% vor der Fury
"Ausgeführt wurde der Benchmark in 1080p in den Presets High, Extreme und Crazy. Im High-Preset ist dabei eine Radeon Pro Duo leicht schneller (bei relativ geringem Abstand von einem FPS im Durchschnitt), eine GeForce GTX 980 Ti in etwa 11 % langsamer und eine Radeon R9 Fury X um fast 14 %. Dabei ist aber nicht bekannt, mit welchen Taktraten die Karten jeweils betrieben wurden. Im Extreme-Preset ist die GeForce GTX 1080 dann 12 % schneller als eine GeForce GTX 980 Ti und 15 % schneller als eine Radeon R9 Fury. Im Crazy-Preset dominieren dann mehr und mehr Multi-GPU-Systeme die Rangliste."
 
Du kannst es drehen und wenden wie du willst AS konnte selbst Pascal schon, nur eben hat der Kontext Switch massiv Performance gekostet
...
Aber genau wegen dem Kontextwechsel sollte doch eigentlich jedem klar sein, das es sich nicht um Asynchronous Shader ja noch nicht einmal um Asynchronous Compute handeln kann. Denn genau der Kontextwechsel verhindert doch ein simultanes und unabhängiges abarbeiten von Shading/Compute.

Beispiel: Multitasking (unter Windows) macht aus einer SingelCoreCPU keine Multicore fähige CPU, es ist bei einer SingelCoreCPU auch nur eine Form von Preemption. --Hat aber mir parallel, simultan usw nichts zu tun. Das haupt Problem ist eben der Kontextwechsel. ;)
 
Mich langweilen Beiträge die irgendwelche Vor und Nachteile hervor heben die in der Praxis selbst mittelfristig kaum Effekt haben.
Hätte,wäre,wenn...

DX12 ist bisher eine Lachnunmer und was hier in das Thema AS Unterstützung interpretiert wird interessiert doch noch nur in einzelnen Szenarien.

Genauso könnten wir wieder über HBM, DP, Rohleistung, Anzahl Shader, breite des Interface,etc. philosophieren.

Was zählt ist die Leistung auf dem Platz - heute,hier und jetzt!
 
Aber genau wegen dem Kontextwechsel sollte doch eigentlich jedem klar sein, das es sich nicht um Asynchronous Shader ja noch nicht einmal um Asynchronous Compute handeln kann. Denn genau der Kontextwechsel verhindert doch ein simultanes und unabhängiges abarbeiten von Shading/Compute.

Beispiel: Multitasking (unter Windows) macht aus einer SingelCoreCPU keine Multicore fähige CPU, es ist bei einer SingelCoreCPU auch nur eine Form von Preemption. --Hat aber mir parallel, simultan usw nichts zu tun. Das haupt Problem ist eben der Kontextwechsel. ;)

Aha :hmm: ".... weiterhin mit dem Thema DirectX 12 Asynchronous Shader beziehungsweise Compute auf Maxwell-basierten Geforce-Grafikkarten."
" Maxwell soll Asynchronous Compute via CPU emulieren" DirectX 12: Maxwell soll Asynchronous Compute via CPU emulieren
Und jetzt lese nochmal die Zeile von der Nvidia Seite "New asynchronous compute advances improve efficiency and gaming performance"
Wenn du jetzt beide Aussagen miteinander vergleichst, was fällt dir dann auf ?
Es scheint als müssten die Berechnungen nicht mehr auf die CPU ausgelagert werden, werden also von der GPU hardwareseitig berechnet. Ob das jetzt heißt das Asynchronous Shader vorhanden sind oder nicht, weiß nur der liebe Huang.
Oder statt es per CPU zu emulieren es nun auf der GPU zu emulieren weiß keiner. Wir können uns nur auf wage Aussagen von irgendwelchen Seiten beziehen, die selber nicht wissen was Sache ist.
 
Aha :hmm: ".... weiterhin mit dem Thema DirectX 12 Asynchronous Shader beziehungsweise Compute auf Maxwell-basierten Geforce-Grafikkarten."
" Maxwell soll Asynchronous Compute via CPU emulieren" DirectX 12: Maxwell soll Asynchronous Compute via CPU emulieren
Und jetzt lese nochmal die Zeile von der Nvidia Seite "New asynchronous compute advances improve efficiency and gaming performance"
Wenn du jetzt beide Aussagen miteinander vergleichst, was fällt dir dann auf ?
Es scheint als müssten die Berechnungen nicht mehr auf die CPU ausgelagert werden, werden also von der GPU hardwareseitig berechnet. Ob das jetzt heißt das Asynchronous Shader vorhanden sind oder nicht, weiß nur der liebe Huang.
Oder statt es per CPU zu emulieren es nun auf der GPU zu emulieren weiß keiner. Wir können uns nur auf wage Aussagen von irgendwelchen Seiten beziehen, die selber nicht wissen was Sache ist.
Ich schrieb nie dass Nvidia Compute Aufgaben auf die CPU auslagert. Das wäre sowieso total unperformant und sogar schlimmer als hier und da ein Kontextwechsel. Was sie machen ist, per Treiber zwischen Shading/Compute "hart" um zu schalten (=Kontextwechsel)

Zudem schreibt Nvidia selbst im "Inside Pascal":
Compute Preemption is another important new hardware and software feature added to GP100 that
allows compute tasks to be preempted at instruction-level granularity, rather than thread block
granularity as in prior Maxwell and Kepler GPU architectures. Compute Preemption prevents long-running
applications from either monopolizing the system (preventing other applications from running) or timing
out. Programmers no longer need to modify their long-running applications to play nicely with other GPU
applications. With Compute Preemption in GP100, applications can run as long as needed to process large
datasets or wait for various conditions to occur, while scheduled alongside other tasks. For example, both
interactive graphics tasks and interactive debuggers can run in concert with long-running compute tasks.
Also immer noch nix mit Asynchronous Shader ja noch nicht einmal Asynchronous Compute.

Das was wir bei dem Benchmark sehen ist das "verstecken" des Kontextwechsel durch die hohe Taktrate der GPU.
 
"Was interessiert mich AC oder DX12, die paar Spiele, die das nutzen"... Wenn die 1080/70 nun wirklich besser geworden sind in DX12, wäre doch alles super. Aber sich hier hinzustellen und so einen Quatsch wie "Braucht doch eh keiner, kaum Spiele da..." schreiben, da kann ich mir nur an den Kopf fassen. Ihr kauft ne Grafikkarte für 700€ (!), die die allermeisten ja wohl 2-3 Jahre nutzen werden und sagt im Gegenzug: "Wen interessiert DX12?!". Das DX12 in immer mehr Spielen kommen wird, sollte jeden noch so realitätsfernen Foristen hier klar sein. Einige haben anscheinend echt zu lange an ihrem grünen Grafikkartenkarton geleckt...

Wenn die neuen Karten das vernünftig können, ist alles top. Wenn nicht, ist das für mich nicht einfach mit "braucht eh keiner jetzt" wegzureden.
 
Man darf ja auch die Xbox nicht vergessen, die stark auf dx12 setzt und diesen Weg wird Microsoft für den PC weiter verfolgen.
 
Zurück