Quake 2 RTX: Port für offizielles Vulkan-Raytracing und somit RDNA-2-Support, erste Benchmarks

Mir ist nicht bekannt, ob die Nutzung der Extensions automatisch dazu führt, dass die Beschleunigungsstruktur etc. von der "richtigen" Hardware bearbeitet wird. Angesichts der Performance gehe ich davon aus, allerdings ist das Stand jetzt nur eine Vermutung. Pascal kann Quake 2 RTX nämlich auch darstellen (Software-Fallback -> ALU-seitige Berechnung), allerdings mit im Vergleich katastrophalen Bildraten. Wir versuchen das zusammen mit AMD aufzuklären.
Selbstervständlich läuft das bei Big Navi mittels derer RT- Beschleunigung.
Die Vulkan Extension übergibt ja eben entsprechende RT- Befehle an die Treiberabteilung von AMD.

Das einzige was verhindern könnte, dass Big Navi da seine Spezialeinheiten nutzt ist, wenn der AMD treiber ihn explizit dazu zwingt, einen anderen, als den vorgesehenen Pfad zu nehmen und das ganze z.B in Software zu emulieren.

Das wiederum würde bedeuten, dass AMDs Treiber noch nicht Vulkan RT konform wäre, was ich arg bezweifeln möchte, da AMD letztendlich die Vulkan- Mutter ist.

Nur mal so zur Erinnerung:
Sag mal bitte ehrlich, was du meinst, woran das liegt. Am Treiber? An der Hardware? Das ist vernichtend für AMD.

Danke für den Test @PCGH_Raff!
Das liegt an der Ausrichtung. Während bei AMD sich alle Gewerke die Ressourcen teilen müssen, können die Einheiten von nvidia munter concurrent, async und in erster Instanz erstmal abseits jeglicher Shader ihre Arbeit verrichten.

Und während AMD als zur Ray- Verarbeitung maximal 5120 Andockstellen hat, die kurzfristig die Intersectionergebnisse in Shaderprogrammen verwerten/umsetzen können, hat nvidia da einfach je nach Int- Last, die sich mit steigendem Anteil tatsächlicher RT im verhältnis niedriger verhält, dann doch die doppelte Anzahl an Einheiten, die die Schredderanfragen der RT- Cores entgegennehmen können.

Die theoretische Peak- Leistung, wenn die Karte sonst nichts tun muss als traversieren ist bei Big Navi sogar höher als die bei nvidia, nur nützt das nichts, wenn die Karte einbricht, wenn sonstige Berechnungen dazukommen.

Da hat nvidia deutlich mehr Luft geschaffen. Natürlich auch durch solche Dinge wie DLSS.

Ich frage mich schon länger, wann sie den Tensor- Core gestützten RT Denoiser bringen.
Das läuft immernoch auf den Shadern und nimmt da 60% der Rendertime in Anspruch. Wenn man das damit noch "aufbrechen" könnte, dann ist zumindest Ampere in Regionen, die man dann durchweg als spielbar bezeichnen kann. Auch in den niedrig- klassigen Karten. Das wäre nach DLSS der nächste Paukenschlag, der hohes Beschleunigungspotenzial verspräche.

Ampere ist also deutlich, deutlich darauf ausgelegt, den Konkurrenten in Sachen Raytracing die Butter vom Brot zu ziehen, wohingegen Big Navi rastertechnisch überlegen ist.
Ist so. Aber RT ist die Zukunft und wird herkömmlichen Technologien über lang oder kurz vollkommen verdrängen.
...das nicht. Aber das Prinzip wird sich umkehren. Das heisst das RT der Primärweg wird und dann ergänzend Rastereffekte "angeflanscht" werden.
 
Zuletzt bearbeitet:
Die theoretische Peak- Leistung, wenn die Karte sonst nichts tun muss als traversieren ist bei Big Navi sogar höher als die bei nvidia, nur nützt das nichts, wenn die Karte einbricht, wenn sonstige Berechnungen dazukommen.
Das ist interessant. Hast du das mal konkret getestet mittlerweile? Wie viele Millionen Rays pro Sekunde kann man verschießen?
 
das spiel gibt es auch für linux. falls ihr etwas zeit habt könntet ihr es auch dort benchmarken? mich würde interessieren, wie RT auf linux performt
 
Das ist interessant. Hast du das mal konkret getestet mittlerweile? Wie viele Millionen Rays pro Sekunde kann man verschießen?
Ist das denn wirklich so? Sicher, 80 @ ~2.300 MHz ist fast ein Viertel mehr als 82 @ ~1.800 MHz. Aber laut Nvidia können die RT-Kerne in Ampere mehr als in Turing. Wenn man das wirklich isoliert messen kann, würde mich der Test (am besten mehrere unterschiedliche) brennend interessieren. =)

MfG
Raff
 
Das ist interessant. Hast du das mal konkret getestet mittlerweile? Wie viele Millionen Rays pro Sekunde kann man verschießen?
Wenn Du rein auf die Dispatch Funktion gehst, waren es bei Turing ca. 20Grays/Sek, bei Ampere tatsächlich das doppelte, also 40Grays/Sek und bei Big Navi liegt es leicht drüber.

Das ist aber nur der Abschuss... Spätestens dann, wenn das Ding ein tri oder ne Box zum traversieren dahinter findet, ändert sich die Lage deutlich, also wenn Du die Zeit nimmst, bis tatsächlich mit Payload am Shader mit den Daten angeklopft wird.

Da war zu Turings Zeiten die Angabe von NVIDIA von 10Gigarays/s tatsächlich konservativ geschätzt, da Du auch solch ein Idealszenario, wo Du gegen eine Box oder ein Dreieck schiesst niemals haben wirst.

Du kannst die max- Werte also mindestens halbieren. Kommen dann Vertex und sonstige Berechnungen dazu ordnet sich bis jetzt, was ich so gesehen habe, Big Navi leicht oberhalb der 2080TI ein, was durchaus respektabel ist und für viele Situationen schon gut spielbare Szenarien ermöglicht.

Ich hatte Dir mal den Link zum VB- Projekt geschickt, welches ich modifiziert als Basis für diverse Messungen genommen hatte. Soweit ich mich aber erninnern kann, wirft die inzwischen einen Fehler.
Meine Aussagen jetzt, sützen sich auf das Profiling des sich in Arbeit befindenden Titels.

Ich habs mir noch nicht angesehen, vielleicht mach ich das vproj aber wieder gangbar, so dass sich diverse Rohmetriken der Karten von jedem einfach testen lassen. Das räumt dann vielleicht auch mal mit einigen Vorurteilen, Erwartungen und Mythen auf.

p.S. Die Menge der Rays die verschossen werden können, war schon bei Turing nicht der Flaschenhals.
Es ist der Speicherdurchsatz bzw. das Schreddern der Caches (schwache Kohärenz) und die Anzahl der Shadercores, die das ganze beschränken.
 
Zuletzt bearbeitet:
@ZeroZerp Hab die Solution nicht mehr zum laufen bekommen mit VS2019. Ich würde halt gerne eine normierte Testbedingung aufbauen. Sagen wir, die BVH enthält 1 Mio Dreiecke. Das Ding sollte nicht homogen sein und entweder importiert oder identisch konstruiert werden können.

Dann würde ich nicht bloß die Rays verschießen, sondern mindest. dafür sorgen, dass ein Shader den IP entgegen nimmt uns sagen wir den Betrag des Punktes ausrechnet, damit irgendwas damit gemacht wird.

Das wäre für mich ein guter synthetischer Test. Spricht was dagegen?
 
Ampere einfach mal 86-114% schneller in RT als BigNavi und dann kommt noch oben drauf, dass DLSS2.0 in den entscheidenden RT-Titeln existiert.

--> Grob über den Daumen 3-4-fache Leistung bei Nvidia in vielen Spielen mit RT.

Hätte ich auch nicht gedacht, aber DLSS ermöglicht mir in CP77 tatsächlich gut spielbare fps, mit RT alles auf Anschlag maxed out.

Bisher war ich wirklich noch sehr skeptisch und zurückhaltend, der Sache gegenüber(DLSS+RT), selbst als Nvidia Käufer(allein schon wegen meinem G-sync Monitor), aber Cyberpunk77 is das erste Game, wo mich diese Techniken echt überzeugen konnten.

Hoffe auf mehr Top-Titel in dieser Art, in Zukunft.

Und die Story von CP(spoilere nix) is echt hammer gut gemacht. :daumen:
Allein für das Game hat sich meine 3080 bereits gelohnt.
Selbst mit 10GB .... NEIN

Für mich in WQHD: Ja!

CP77 braucht bei mir mit allem ultra/maxed+RT Psycho um 7GB.

Was soll ich mit 24GB ? Ganz ehrlich !
 
Hätte ich auch nicht gedacht, aber DLSS ermöglicht mir in CP77 tatsächlich gut spielvare fps, mit RT alles auf Anschlag maxed out.

Bisher war ichvwirklich noch sehr skeptisch und zurückhaltend, der Sache gegenüber(DLSS+RT), selbst als Nvidia Käufer(allein schon wegen meinem G-sync Monitor), aber Cyberpunk77 is das erste Game, wo mich diese Techniken echt überzeugen konnten.

Hoffe auf mehr Top-Titel in dieser Art, in Zukunft.

Und die Story von CP(spoilere nix) is echt hammer gut gemacht. :daumen:
Allein für das Game hat sich meine 3080 bereits gelohnt.


Für mich in WQHD: Ja!

CP77 braucht bei mir mit allem ultra/maxed+RT Psycho um 7GB.

Was soll ich mit 24GB ? Ganz ehrlich !
Wenn es für deine bescheidenen Zwecke ausreicht, dann ist es doch ok.
Ich hab gehört der Speicherbedarf sinkt immer weiter je mehr die Zeit vorranschreitet,..................................................
 
Wenn es für deine bescheidenen Zwecke ausreicht, dann ist es doch ok.
Ich hab gehört der Speicherbedarf sinkt immer weiter je mehr die Zeit vorranschreitet,.................................................

Ich kaufe meine Karten nicht, um irgendwie, irgendwas in voranschreitender Zeit zu zocken, sondern jetzt. :cool:

z.B. ganz konkret jetzt CP77.
Nicht irgendein imaginäres Skyrim 2027, inkl. 8k Mods.
 
Na ja, mit dem DX12 Ultimate Sampler feedback Streaming soll sich der VRAM Bedarf drastisch reduzieren.

Microsoft hats ja schon in einem Series S Teaser Trailer eingeblendet.
Wenn das hält, was es verspricht, dann wäre die Speicherdiskussion hinfällig. Das ganze Thema mit GPU direkt an die SSD anbinden wird ja auch noch nicht verwendet.

Aber die Zeit wird's zeigen. Potenzial für die ein oder andere Überraschung ist auf jeden Fall vorhanden.
Und dass Microsoft mit der Series S eine low spec console die ganze Gen mitschleppt ist auch schonmal was.

Zumindest dürfte das die Entwickler eher dazu zwingen, die genannten Features auszunutzen und einfach gut zu optimieren und nicht verschwenderisch mit Speicher und Ressourcen umzugehen. Auch die Skalierbarkeit der Spiele auf schwache bis starke Hardware dürfte das begünstigen.

Wie gesagt, könnte noch alles ziemlich interessant werden.


Man darf auch nicht vergessen, dass die Cross Gen Spiele nie so wirklich gut auf neue Hardware optimiert sind, obwohl sie auch auf der last-gen Hardware schlecht laufen. Kann mich noch damals an AC Black Flag erinnern. Mit den PhysX Raucheffekten hat das selbst HighEnd Karten in 1080p auf 30 FPS gedrückt. Dann kamen Unity und Syndicate und hatten eine um Welten bessere Grafik. Ja, Unity lief anfangs nicht so gut, aber immerhin deutlich besser, als BlackFlag mit den Raucheffekten.

Wird wohl aktuell ähnlich sein. Cyberpunk läuft relativ schlecht und in ein zwei Jahren haben wir Games, die auf der gleichen Hardware besser aussehen und besser laufen. Die Entwickler müssen halt die neuen Features die jetzt mit DX12 Ultimate gekommen sind erstmal nutzen und die Engines an aktuelle Hardware anpassen, auch generell den Umgang mit Raytracing lernen.
Aktuelle Games sind primär für GCN aus dem Jahre 2012 und dessen Featureset optimiert. Das darf man nicht vergessen.

Was theoretisch möglich ist hat ja die UE5 demo bereits gezeigt. Stichwort Mesh Shader (vermutlich).
Die UE4 Demo damals war auch beeindruckend und innerhalb von ein paar Jahren war die Grafik dann auch in Spielen zu sehen. Geht ja erstmal nur darum, was möglich sein wird. Und angesichts dessen braucht man sich da auch jetzt keinen Kopf machen, wie zukünftige Spiele laufen werden, wenn aktuelle Spiele auf der eigenen Hardware "schon so schlecht" laufen. Sobald die Entwickler sich auf next-gen konzentrieren, sieht alles schon wieder ganz anders aus. Erst dann wird unsere aktuelle Hardware wirklich sinnvoll ausgenutzt.

Das einzig "traurige" ist nur, dass die meisten Leute hier ihre Hardware schon wieder ausgetauscht haben, bevor die Entwickler überhaupt so weit sind, die gebotenen Features auszunutzen. :ugly:
 
Zuletzt bearbeitet von einem Moderator:
Für mich in WQHD: Ja!

CP77 braucht bei mir mit allem ultra/maxed+RT Psycho um 7GB.

Was soll ich mit 24GB ? Ganz ehrlich !
Und ich wette mit dir, dass du auch noch die nächsten 4 Jahre damit viel Spaß haben wirst ohne dass dir der VRam ausgeht.

Vor 4 Jahren wurde auch gesagt, dass man für 1080p ne 8gb Karte brauch. Und heute? Brauch man fur 1080p mind. 8GB VRam? Nicht wirklich.
 
Das ist doch prima, genau ideales Clientele für Jensens halbgaren Auflauf aus dem Backofen.

Ich übersetze deine Aussage mal in pragmatisch: Die Karte passt zu meinen Anforderungen. Ja. :)

Aber da drehen wir uns im Kreis. Von daher genug von mir dazu.

Ich find das RT maxed in CP77 jedenfalls toll und in 4-5 Jahren hol' ich mir eh n komplett neues System.

So lange hab ich jedenfalls Spaß am Zocken.
Das weiß ich jetzt schon.

Die RT-Leistung is für den Moment ganz nett, aber in ein paar Jahren brauchen wir sowieso Karten mit einem Vielfachen der aktuellen RT-Leistung, falls das Thema weiter ausgebaut werden soll in Spielen, was ich sehr hoffe.

So gesehen sind alle aktuellen Karten auch nur Übergangskarten, zu den jeweils stärkeren.

Ein ewiges Aufrüsten.

Hauptsache fun ! :daumen:
 
Zuletzt bearbeitet:
Letzteres gilt laut meinem laienhaften Verständnis immer, Fixed-Function-Einheiten für eine einzige Aufgabe sind immer schneller und sparsamer als Allzweckwerke. Und trotzdem gibt es - soweit ich weiß - nicht ein PC-Spiel, das die TCs heranzieht. Die betreiben nur DLSS. Dafür gibt es gewiss Gründe abseits von Kompatibilität, aber die erfährt man nicht. Abseits des Gamings kann man die Tensorkerne hingegen produktiv nutzen (Stichwort "Studio").

MfG
Raff
Tensorcores machen ja sogar den überteuerten Apfel in seinen Paradedisziplin platt.
Da sieht man gut was sowas ausmacht und genau sowas wird immer wichtiger.

Die Zeiten mit puren Hardware Angaben sind vorbei, Software und Spezialisierte Einheiten sind
heute die Zukunft.
 
Ich übersetze deine Aussage mal in pragmatisch: Die Karte passt zu meinen Anforderungen. Ja. :)
Hauptsache fun ! :daumen:
So schauts aus. Was sich die Leute immer Sorgen um die zukuntsfähigkeit der Grafikkarten anderer Leute
machen...echt zum schießen :lol:.
Steht Ihnen doch frei es anders zu machen. Ich hab einen Heidenspass in CP durch die Strassen zu schlendern
und mir alles anzuschauen. Und das sogar mit einer ollen RTX 2070 super in 3440x1440p.
Ich denk mir dann immer...spielt Ihr schon, oder heult Ihr noch. Ich hab jedenfalls jetzt Fun.
 

Anhänge

  • 1-.png
    1-.png
    3,4 MB · Aufrufe: 38
  • 2-.png
    2-.png
    3,2 MB · Aufrufe: 38
  • 3-.png
    3-.png
    3,1 MB · Aufrufe: 36
  • 4-.png
    4-.png
    3 MB · Aufrufe: 40
Zurück