Geforce RTX 2060 Super und Geforce RTX 2070 Super im Moment kaum lieferbar

In wiefern hat AMD die Möglichkeiten GW zu nutzen also wo genau benachteiligen die sich da selber?
Sie benachteiligen sich selbst durch nicht ausreichend schnelle HW bei hohen Tessellationstufen.

Das ist wohl was anderes
Natürlich, primär, weil es da um AMD geht und wenn AMD ein Spiel speziell supportet, dann ist das völlig in Ordnung. Und wenn da die Konkurrenz langsamer wird, ist das deren Problem :-P

1. Hat Nvidia behauptet sie können es, war wohl gelogen
Sie konnten es auch, denn das Spiel ist nicht gecrasht. Es gab keinen Performanceboost, korrekt. Aber das steht in der Implementierung nicht drin. Funktionalität != Performance.

2. hat das Vorteile gebracht, wenn du mir jetzt Zeigst welche Vorteile Factor 64 bei hairworks gegenüber factor 32 bei Witcher bringt, dann halte ich meinen Mund
Welchen Vorteil denn? Welchen optischen Vorteil hattest du denn bei ASync?

Siehst du, gar keinen. Dennoch wurde es in einem von AMD speziell geförderten Spiel eingebaut und hat NVIDIA ausgebremst. Eigentlich exakt da Gleiche. Bei Witcher ist nur NVIDIA doof - und bei AotS ist auch NVIDIA doof. Eigentlich ist NVIDIA immer doof, egal was sie machen.
 
Sie benachteiligen sich selbst durch nicht ausreichend schnelle HW bei hohen Tessellationstufen.


Natürlich, primär, weil es da um AMD geht und wenn AMD ein Spiel speziell supportet, dann ist das völlig in Ordnung. Und wenn da die Konkurrenz langsamer wird, ist das deren Problem :-P


Sie konnten es auch, denn das Spiel ist nicht gecrasht. Es gab keinen Performanceboost, korrekt. Aber das steht in der Implementierung nicht drin. Funktionalität != Performance.


Welchen Vorteil denn? Welchen optischen Vorteil hattest du denn bei ASync?

Siehst du, gar keinen. Dennoch wurde es in einem von AMD speziell geförderten Spiel eingebaut und hat NVIDIA ausgebremst. Eigentlich exakt da Gleiche. Bei Witcher ist nur NVIDIA doof - und bei AotS ist auch NVIDIA doof. Eigentlich ist NVIDIA immer doof, egal was sie machen.

Sie konnten es nicht... es wurde in Software gelöst und seriell abgearbeitet..
Das ist nicht die Funktionalität wie directx das definiert..
Sie haben einen softwarestack geschrieben um zu verschleiern das Ihre Karten das nicht können
 
Sie benachteiligen sich selbst durch nicht ausreichend schnelle HW bei hohen Tessellationstufen.


Natürlich, primär, weil es da um AMD geht und wenn AMD ein Spiel speziell supportet, dann ist das völlig in Ordnung. Und wenn da die Konkurrenz langsamer wird, ist das deren Problem :-P


Sie konnten es auch, denn das Spiel ist nicht gecrasht. Es gab keinen Performanceboost, korrekt. Aber das steht in der Implementierung nicht drin. Funktionalität != Performance.


Welchen Vorteil denn? Welchen optischen Vorteil hattest du denn bei ASync?

Siehst du, gar keinen. Dennoch wurde es in einem von AMD speziell geförderten Spiel eingebaut und hat NVIDIA ausgebremst. Eigentlich exakt da Gleiche. Bei Witcher ist nur NVIDIA doof - und bei AotS ist auch NVIDIA doof. Eigentlich ist NVIDIA immer doof, egal was sie machen.
Es hat keine optischen Vorteile, korrekt, aber wenn es richtig implementiert ist wie bei den neuen Nvidia Karten gibt es einen Geschwindigkeitsvorteil..

Nein es gab nicht nur keinen Performance boost, die Performance ist zusammengebrochen weil nvidia das nicht in hardware konnte, dann kann ich genauso sagen anch dieser Logic AMD kann RT, wenn die es in Software freischalten...
 
Aha, sie benachteiligen sich bei Nvidias GW Effekten also selber.
Nein. Sie benachteiligen sich bei hohen Tessellation-Levels. Das ist nicht auf NVIDIA Gameworks beschränkt. Daher ist der Vorwurf ja auch Unsinn.

Sie konnten es nicht... es wurde in Software gelöst und seriell abgearbeitet..
Erstmal müsstest du belegen, dass es tatsächlich in Software gelöst war und dann, dass das die Definition von "können" verletzt. Die APIs-Befehle wurden korrekt abgearbeitet, es fehlt nur der Perf-Vorteil. Genauso wie AMD bei höheren Tessellationstufen eingebrochen ist.

Das ist nicht die Funktionalität wie directx das definiert..
DirectX definiert überhaupt kein "ASync Compute". ASync Compute ist keine DX-Funktion, sondern ein Konzept wie man ein Programm umsetzt basierend auf der DX-API.

Dass das schneller laufen muss, als ohne, heißt das auch nicht.

Sie haben einen softwarestack geschrieben um zu verschleiern das Ihre Karten das nicht können
Beleg?

Eigentlich war es ja nur die Unfähigkeit von Maxwell, ohne einen Flush zwischen Graphcis- und Compute-Kontext umzuschalten. Bei der paralleln Abarbeitung von Graphics und Compute gleichzeitig natürlich schlecht.

Aber beherrscht hat Maxwell die ganzen Konzepte schon. Es war nur langsamer, als ohne.

Es hat keine optischen Vorteile, korrekt, aber wenn es richtig implementiert ist wie bei den neuen Nvidia Karten gibt es einen Geschwindigkeitsvorteil..
Genauso wie bei Hairworks. Keine optischen Vorteile und bei NVIDIA auch keine Performanceprobleme.

Nein es gab nicht nur keinen Performance boost, die Performance ist zusammengebrochen
Genauso wie bei Hairworks auf AMD, weil die nicht die volle Range an Tessellation-Levels konnten :daumen:

Siehst du, exakt das Gleiche.

dann kann ich genauso sagen anch dieser Logic AMD kann RT, wenn die es in Software freischalten...
Mit einer DXR-Implementierung könnte AMD natürlich RT. Sie liefern nur keine :-)
 
Nein. Sie benachteiligen sich bei hohen Tessellation-Levels. Das ist nicht auf NVIDIA Gameworks beschränkt. Daher ist der Vorwurf ja auch Unsinn.


Erstmal müsstest du belegen, dass es tatsächlich in Software gelöst war und dann, dass das die Definition von "können" verletzt. Die APIs-Befehle wurden korrekt abgearbeitet, es fehlt nur der Perf-Vorteil. Genauso wie AMD bei höheren Tessellationstufen eingebrochen ist.


DirectX definiert überhaupt kein "ASync Compute". ASync Compute ist keine DX-Funktion, sondern ein Konzept wie man ein Programm umsetzt basierend auf der DX-API.

Dass das schneller laufen muss, als ohne, heißt das auch nicht.


Beleg?

Eigentlich war es ja nur die Unfähigkeit von Maxwell, ohne einen Flush zwischen Graphcis- und Compute-Kontext umzuschalten. Bei der paralleln Abarbeitung von Graphics und Compute gleichzeitig natürlich schlecht.

Aber beherrscht hat Maxwell die ganzen Konzepte schon. Es war nur langsamer, als ohne.


Genauso wie bei Hairworks. Keine optischen Vorteile und bei NVIDIA auch keine Performanceprobleme.


Genauso wie bei Hairworks auf AMD, weil die nicht die volle Range an Tessellation-Levels konnten :daumen:

Siehst du, exakt das Gleiche.


Mit einer DXR-Implementierung könnte AMD natürlich RT. Sie liefern nur keine :-)


Gern:

Async Shaders: Fehlende DirectX-12-Funktion auf Nvidia-Grafikkarten "ein vollkommenes Desaster" | heise online
 
Soll ich wirklich einen Artikel kommentieren, der behauptet es gäbe eine DirectX12-Funkion "ASync Shaders"?

Hier ist die DirectX12 Referenz. Kannst du mir kurz die relevanten Funktionen nennen, die NVIDIA nicht hat?

Direct3D 12 reference - Windows applications | Microsoft Docs

Lies dir mal das Dokument genau durch...
Ist async Computer ein Teil von directx12 oder nicht?
Konnte das NVIDIA in Hardware oder nicht..
So bin draussen.. mit dir zu diskutieren ist sinnlos

Mit Schaffe auch, der hat immer noch nicht seine Behauptung mit 20 rt Spielen bis Ende des Jahres belegt. 2 neue auf ignor liste
 
Lies dir mal das Dokument genau durch...
Ist async Computer ein Teil von directx12 oder nicht?
Willst du mir nicht einfach die entsprechenden Funktionen zeigen, wenn das so einfach ist? :-)

Konnte das NVIDIA in Hardware oder nicht..
Ja, NVIDIA konnte alle Funktionen, sonst wäre das Spiel oder der Treiber gecrasht. Ganz einfach.

So bin draussen.. mit dir zu diskutieren ist sinnlos
Ja, es ist wirklich sinnlos mit mir zu diskutieren, wenn man seine Behauptungen nicht belegen kann :daumen:

Hab ich dich wohl auf dem falschen Fuß erwischt :stupid:
 
Willst du mir nicht einfach die entsprechenden Funktionen zeigen, wenn das so einfach ist? :-)


Ja, NVIDIA konnte alle Funktionen, sonst wäre das Spiel oder der Treiber gecrasht. Ganz einfach.


Ja, es ist wirklich sinnlos mit mir zu diskutieren, wenn man seine Behauptungen nicht belegen kann :daumen:

Hab ich dich wohl auf dem falschen Fuß erwischt :stupid:

Du weichst mir aus, konnte Nvidia das in hardware oder nicht. Du hast es nicht beantwortet
 
Du weichst mir aus, konnte Nvidia das in hardware oder nicht. Du hast es nicht beantwortet
Nö, habe ich dir beantwortet.

Ich warte noch auf die konkreten DX12-Funktionen für "ASync Shaders". Ich kenne die nämlich nicht und du kennst sie ja offensichtlich. Weiß daher gar nicht, warum du meine Frage nicht beantwortest.

PS: Ignoreliste war dann wohl nix? :-P
 
Die Zahl ist ziemlich nichtssagend. Von den 6000 Spielen haben 5000 eh eine völlig irrevelvante Grafik. 500 dann so mittelmäßig, 250 ganz ok, 50 ziemlich gut- tja un d dann kommen die letzten paar AAA-Titel, von denen dann gerade die hoch karätigen RT-Support bieten.

Mitnichten völlig irrelevant.

Naja, die original Quake Grafik ist auch bei weitem nicht mehr AAA würdig und doch klappt es erst über 20 Jahre nach Launch diesen Titel komplett in RT umzusetzen.
Und dabei finde ich zwar das Ergebnis an sich beeindruckend, aber es macht aus Quake jetzt nicht gleich ein high poly Spiel.
 
Naja, die original Quake Grafik ist auch bei weitem nicht mehr AAA würdig und doch klappt es erst über 20 Jahre nach Launch diesen Titel komplett in RT umzusetzen.
Und dabei finde ich zwar das Ergebnis an sich beeindruckend, aber es macht aus Quake jetzt nicht gleich ein high poly Spiel.
QuakeII ist ja auch einfach nur ein kleiner ShowCase, ne Demo.

Ist doch ziemlich cool, dass NVIDIA dieses Communityspiel nimmt und zusammen mit den Entwicklern verbessert.
 
QuakeII ist ja auch einfach nur ein kleiner ShowCase, ne Demo.

Ist doch ziemlich cool, dass NVIDIA dieses Communityspiel nimmt und zusammen mit den Entwicklern verbessert.

Ich hab es früher gespielt und gemocht, heut geht es mir am A.... vorbei.
Nur wegen RT wird es nicht wieder interessanter.
Es ist vielleicht für 100 - 200 Leute interessant, die es dann auch wirklich nochmal spielen.
Aber für den Rest ist es eher ein Show Case dafür, wie weit RT noch vom vollstänsigen Gebrauch entfernt ist.
Versuch mal Cyberpunk 2077 100% in RT umzusetzen.
Dann kommst du auf 0,2 FPS mit einer RTX Titan.
 
Nö, habe ich dir beantwortet.

Ich warte noch auf die konkreten DX12-Funktionen für "ASync Shaders". Ich kenne die nämlich nicht und du kennst sie ja offensichtlich. Weiß daher gar nicht, warum du meine Frage nicht beantwortest.

PS: Ignoreliste war dann wohl nix? :-P

Stell dich nicht so dum an, Async Shader ist ein Teil von Async computer, heißt nur.. ach warum erklär ich es dir.. benutz Google

Nein hast du nciht, ich Frage noch einmal, kann Nvidia das iN Hardware oder nicht..

Deine Antwort war, es führt es aus, zwar extrem langsam, aber.... ALso letztes mal, kann es diese Funktion in hardware, die Antwort muss Ja oder Nein heißen
 
Die hohe Tesselation im Hairworks im Witcher hat alle benachteiligt. Bei NV kostet höhere Tesselation auch, gut für sie dass es auf AMD mehr kostet und ihre Karten daher besser da stehen. Kleiner ber feiner Nebeneffekt: die Mittelklasse Karten von NV szinken dann auch ab und die Spieler werden genötigt aufzurüsten. Also loose loose Situation für 98% der Spieler. Die 2% Titanuser dürfen sich 12 Monate freuen bevor sie dann wieder 1-2k abdrücken dürfen.
Wenigstens konnte man als AMD user den Wahnsinn per Treiber eindämmen.
Die NV Mittelklasse user leider nicht. Aber die werden eh regelmäßig mit zuwenig RAM, Spezifikationslügen drangsaliert. Trotzdem wird jeder Release wieder der gleiche Rotz zu höheren Preisen gekauft.
Mit Turing scheint NV jetzt wohl den Bogen überspannt zu haben. Hab aber irgendwie kein Mitleid mit dem Laden und hoffe dass sie jetzt mal abgestraft werden.
 
Versuch mal Cyberpunk 2077 100% in RT umzusetzen.
Dann kommst du auf 0,2 FPS mit einer RTX Titan.
Was ist denn bitte "100% in RT"?

Stell dich nicht so dum an, Async Shader ist ein Teil von Async computer, heißt nur.. ach warum erklär ich es dir.. benutz Google
Warum sollte ich Google nutzen? Du hast behauptet das seien DX12-Funktionen und ich habe dir sogar - netterweise - die DX12-Referenz verlinkt und warte nun immer noch auf deine Antwort, welche spezifischen Funktionen denn bitte in DX12 das ominöse "ASync Shader" sein sollen. Ich finde da nämlich schlicht keine solche Funktionen.

Nein hast du nciht, ich Frage noch einmal, kann Nvidia das iN Hardware oder nicht..
Ich habe dir die Frage beantwortet, du im Gegenzug meine nicht. Daher werde ich weitere Spam-Postings von dir ignorieren, bis du o.g. Frage endlich beantwortet hast.
 
Was ist denn bitte "100% in RT"?


Warum sollte ich Google nutzen? Du hast behauptet das seien DX12-Funktionen und ich habe dir sogar - netterweise - die DX12-Referenz verlinkt und warte nun immer noch auf deine Antwort, welche spezifischen Funktionen denn bitte in DX12 das ominöse "ASync Shader" sein sollen. Ich finde da nämlich schlicht keine solche Funktionen.


Ich habe dir die Frage beantwortet, du im Gegenzug meine nicht. Daher werde ich weitere Spam-Postings von dir ignorieren, bis du o.g. Frage endlich beantwortet hast.

1. habe ich deine Frage beantwortet, Sie meinen Async Co. und das ist sehr wohl ein teil von DirectX
2. Nein, ich habe alle deine Antworten durchgelsen, wo steht es das die das in hardware gelöst haben, ich habe dir dagegen einen Link von heise.de geschickt, die wohl eine seriöse Computer fachzeitschrift ist, dass die es eben nicht in hardware sondern per Software gelöst ahben...


Also dann antworte einfach hier mit ja oder nein, was ist da so schwierig daran.
Haben die diese Funktion von DirectX12, AC in hardware glöst oder nicht?

JA?
NEIN?
 
Sie benachteiligen sich selbst durch nicht ausreichend schnelle HW bei hohen Tessellationstufen.


Natürlich, primär, weil es da um AMD geht und wenn AMD ein Spiel speziell supportet, dann ist das völlig in Ordnung. Und wenn da die Konkurrenz langsamer wird, ist das deren Problem :-P


Sie konnten es auch, denn das Spiel ist nicht gecrasht. Es gab keinen Performanceboost, korrekt. Aber das steht in der Implementierung nicht drin. Funktionalität != Performance.


Welchen Vorteil denn? Welchen optischen Vorteil hattest du denn bei ASync?

Siehst du, gar keinen. Dennoch wurde es in einem von AMD speziell geförderten Spiel eingebaut und hat NVIDIA ausgebremst. Eigentlich exakt da Gleiche. Bei Witcher ist nur NVIDIA doof - und bei AotS ist auch NVIDIA doof. Eigentlich ist NVIDIA immer doof, egal was sie machen.

Doch bei AC hat man den Vorteil von einer höheren geschwindigkeit wenn es in der Hardware richtig implementiert ist, siehe auch neuste Generation von Nvidia, bei Hairworks mit Teslationsfaktor 64 hat man gar keine Vorteile.
AC ist eine DirectX12 Funktion, keine AMD Funktion, wo hast du diese Lüge her?
 
Zurück