3DMark Port Royal: RTX 2080 Ti mit 2.640 MHz schafft 51 Fps im Raytracing-Benchmark

Mein Beileid an jeden der sich so eine Karte zugelegt hat.
Raytracing ist noch neu und noch nicht gut genug weiter entwickelt.
Zudem wird mit Benchmark eine Hardware so stark ausgelastet das es nie der Realität nahe kommen wird.

Mit BF5 kann Raytracing schon gut genutzt werden, auch wenn sich die FPS dabei nicht all so gut bewegen, was jedoch noch zum spielen ausreicht. Zudem bieten die Grafikkarten mehr Leistung und Raytracing ist nun auch kein muss haben, sondern ohne hat man Leistung pure. In Raytracing sehe ich jetzt auch nicht an das es vorhanden sein muss. Klar wenn es gut läuft wieso nicht, aber das wird mit Sicherheit noch eine weile dauern. DX12 lief zu Anfangszeiten auch nicht gut an und hat das System sehr stark belastet. Heute kann ich in BF5 mit und ohne DX12 fast kein Unterschied merken so das ich DX12 heute mit dabei habe. Vor einigen Jahren habe ich darauf verzichtet da mir gute FPS wichtiger waren.
 
Der letzte Satz in der Einleitung ("Der Benchmark nutzt die Raytracing-Effekte dafür vergleichsweise exzessiv.") und der komplette letzte Absatz sollten das Ganze eigentlich relativieren. Mit leichter Abänderung von "nicht einmal 60 Fps" zu "keine 60 Fps" und "recht schlecht abschneiden" zu "traditionell keine allzu hohen Werte erreichen":

"Für Aufsehen sorgt das Ergebnis, weil keine 60 Fps mit einer auf Anschlag übertakteten Geforce RTX 2080 Ti in 1440p natürlich nicht gerade viel sind. Generell möchte 3DMark seine Benchmarks aber auf eine längere Zukunftsfähigkeit auslegen, sodass aktuelle Grafikkarten zum Erscheinen neuer Versionen traditionell keine allzu hohen Werte erreichen. In Port Royal werden die Reflexionen und Schatten per Raytracing berechnet - mit spiegelnden Oberflächen gehen die Schöpfer nicht gerade sparsam um. Erwähnenswert ist außerdem, dass 3DMark zwar Microsofts DirectX-Raytracing-API in DX12 nutzt, nicht aber Nvidias RTX-Back-End. Mit Letzterem wäre womöglich noch der eine oder andere Frame herauszuholen. Herstellerspezifische Optimierungen, um zum Beispiel die Tensor-Kerne zur Glättung auszunutzen, scheint es nicht zu geben."

Ich habe den Satz "Für Aufsehen sorgt zurzeit die Performance." noch zu "Für Aufsehen auf internationalen Webseiten sorgt zurzeit die Performance, bei der man jedoch die Rahmenbedingungen betrachten sollte." geändert. Das wurde anderenorts geradezu zerissen. Ich hoffe, das kommt jetzt besser rüber.
Ja aber da habe ich jetzt eine blöde Frage Mark.

Wenn ihr einen neuen Benchmark bekommt. DX8, 9, 10 oder 11. Egal welcher Futuremark es war, lief der dann schon jemals flüsig @ durchgehend 60 fps bei Release? Ich tippe jetzt mal auf nein. Deshalb verstehe ich eure internationalen Kollegen nicht ganz. Sind die nun vom Fach oder haben sie das erste Mal im Leben einen BenchMark gesehen

Mein Beileid an jeden der sich so eine Karte zugelegt hat.
Mein Beileid gilt all jenen, die solche Ergüsse immer lesen müssen. Warum kannst du nicht nachdenken bevor du schreibst?
 
Mein Beileid an jeden der sich so eine Karte zugelegt hat.

Raytracing ist noch neu und noch nicht gut genug weiter entwickelt.
Zudem wird mit Benchmark eine Hardware so stark ausgelastet das es nie der Realität nahe kommen wird.

Mit BF5 kann Raytracing schon gut genutzt werden, auch wenn sich die FPS dabei nicht all so gut bewegen, was jedoch noch zum spielen ausreicht. Zudem bieten die Grafikkarten mehr Leistung und Raytracing ist nun auch kein muss haben, sondern ohne hat man Leistung pure. In Raytracing sehe ich jetzt auch nicht an das es vorhanden sein muss. Klar wenn es gut läuft wieso nicht, aber das wird mit Sicherheit noch eine weile dauern. DX12 lief zu Anfangszeiten auch nicht gut an und hat das System sehr stark belastet. Heute kann ich in BF5 mit und ohne DX12 fast kein Unterschied merken so das ich DX12 heute mit dabei habe. Vor einigen Jahren habe ich darauf verzichtet da mir gute FPS wichtiger waren.

macht doch keinen sinn auf solche aussagen we die von herrn erdnuss zu antworten, die haben zum einen nicht verstanden wofür benchmarks gut sind und wieso sie nicht direkt auf 60 fps laufen, zum anderen wollen sie nur ein bisschen trollen und provozieren.
 
Aus wirtschaftlicher und Ingenieurmäßiger Sicht sind 2 mittelgroße Chips mit 0,8V deutlich besser als ein BigOne mit 1,0V.
TR ist ja nicht Zufall sondern wirtschaftlich.

Und Du möchtest TR (sprich die CPU-Entwicklung) mit der GPU-Entwicklung vergleichen? Oh man... :wall: Vernachlässige ruhig die tatsächlichen Faktoren, die Multi-GPU immens erschweren und sondere weiter soetwas ab. :schief:
 
Interessant wird das erst, wenn die GPU-Entwickler (Nvidia, AMD, Intel) auf ein Multichip-Design setzen "müssen" um die Leistung im Vergleich zum Preis und dem Markt deutlich zu verbessern. Allerdings sind wir dann vielleicht auch schon längst beim reinen Streaming angekommen. ;)

AMD hat ja mal behauptet, dass sie deshalb ihre GPUs nicht wie Zen bauen, weil die Spieleentwickler sich nicht ausreichend mit MPGU auseinandersetzen. (Ob das jetzt stimmt mal so neben angestellt, kann auch einfach ne Ausrede sein, klingt zumindest stark wie eine) Aber zumindest in naher Zukunft wird das neben dem Pro-Bereich nicht mehr wirklich interessant fürchte ich.
 
AMD hat ja mal behauptet, dass sie deshalb ihre GPUs nicht wie Zen bauen, weil die Spieleentwickler sich nicht ausreichend mit MPGU auseinandersetzen. (Ob das jetzt stimmt mal so neben angestellt, kann auch einfach ne Ausrede sein, klingt zumindest stark wie eine) Aber zumindest in naher Zukunft wird das neben dem Pro-Bereich nicht mehr wirklich interessant fürchte ich.

Also dazu, dass AMD das selbst genau so gesagt hätte, würde ich gerne einen Link sehen.
Die Probleme, die man schon bei CPUs in diesem Design hat (Latenzen z.B.) sind im GPU-Bereich um ein unfassbar vielfaches ausgeprägter. Selbst bei den Zen-CPUs bekommt AMD das mit ihrer IF nicht zu 100% in den Griff, bei GPUs ist das so noch schwerer zu realisieren. Daher wären im Moment eben die Studios gefragt, die müssten jede GPU einzeln ansprechen und das für unterschiedliche Bereiche im Spiel, dabei müssen noch die unzähligen verschiedenen GPUs bedacht werden. Das kostet immens viel Aufwand (und damit Geld) und bringt nichts (außer Verlust), wenn man dadurch nur drei Kopien mehr verkauft.
 
Der letzte Satz in der Einleitung ("Der Benchmark nutzt die Raytracing-Effekte dafür vergleichsweise exzessiv.") und der komplette letzte Absatz sollten das Ganze eigentlich relativieren. Mit leichter Abänderung von "nicht einmal 60 Fps" zu "keine 60 Fps" und "recht schlecht abschneiden" zu "traditionell keine allzu hohen Werte erreichen":

"Für Aufsehen sorgt das Ergebnis, weil keine 60 Fps mit einer auf Anschlag übertakteten Geforce RTX 2080 Ti in 1440p natürlich nicht gerade viel sind. Generell möchte 3DMark seine Benchmarks aber auf eine längere Zukunftsfähigkeit auslegen, sodass aktuelle Grafikkarten zum Erscheinen neuer Versionen traditionell keine allzu hohen Werte erreichen. In Port Royal werden die Reflexionen und Schatten per Raytracing berechnet - mit spiegelnden Oberflächen gehen die Schöpfer nicht gerade sparsam um. Erwähnenswert ist außerdem, dass 3DMark zwar Microsofts DirectX-Raytracing-API in DX12 nutzt, nicht aber Nvidias RTX-Back-End. Mit Letzterem wäre womöglich noch der eine oder andere Frame herauszuholen. Herstellerspezifische Optimierungen, um zum Beispiel die Tensor-Kerne zur Glättung auszunutzen, scheint es nicht zu geben."

Ich habe den Satz "Für Aufsehen sorgt zurzeit die Performance." noch zu "Für Aufsehen auf internationalen Webseiten sorgt zurzeit die Performance, bei der man jedoch die Rahmenbedingungen betrachten sollte." geändert. Das wurde anderenorts geradezu zerissen. Ich hoffe, das kommt jetzt besser rüber.

Spiegelnde Flächen sind zahlreich, aber das ist für einen Raytraycer eigentlich von Vorteil – ein auf einem perfekt spiegelnden Pixel endender Ray generiert einen Sekundärstrahl und keinerlei Shaderlast. Die korrekte Beleuchtung diffus streuender Flächen ist viel aufwendiger und im Video konnte ich keine Spuren indirekter Beleuchtung entdecken, dafür mehrere Lücken bei der Schattendarstellung. Da geht noch viel mehr Raytraycing, mal gucken ob es verschiedene Qualitätseinstellungen geben wird. :-)
 
Also dazu, dass AMD das selbst genau so gesagt hätte, würde ich gerne einen Link sehen.
Die Probleme, die man schon bei CPUs in diesem Design hat (Latenzen z.B.) sind im GPU-Bereich um ein unfassbar vielfaches ausgeprägter. Selbst bei den Zen-CPUs bekommt AMD das mit ihrer IF nicht zu 100% in den Griff, bei GPUs ist das so noch schwerer zu realisieren. Daher wären im Moment eben die Studios gefragt, die müssten jede GPU einzeln ansprechen und das für unterschiedliche Bereiche im Spiel, dabei müssen noch die unzähligen verschiedenen GPUs bedacht werden. Das kostet immens viel Aufwand (und damit Geld) und bringt nichts (außer Verlust), wenn man dadurch nur drei Kopien mehr verkauft.

AMD not ready for MCM on Radeon, will skip Navi GPU arch

Im Endeffekt hat Wang gesagt, solange wir ein MCM-Design nicht unsichtbar für den Entwickler machen, wird das nix. (sehr frei gesagt). Damit hat er glaube ich recht.

"To some extent you're talking about doing CrossFire on a single package. The challenge is that unless we make it invisible to the ISVs [independent software vendors] you're going to see the same sort of reluctance"

 
AMD not ready for MCM on Radeon, will skip Navi GPU arch

Im Endeffekt hat Wang gesagt, solange wir ein MCM-Design nicht unsichtbar für den Entwickler machen, wird das nix. (sehr frei gesagt). Damit hat er glaube ich recht.

"To some extent you're talking about doing CrossFire on a single package. The challenge is that unless we make it invisible to the ISVs [independent software vendors] you're going to see the same sort of reluctance"



Das als Kritik an den Entwicklern zu sehen, finde ich aber schon sehr abwegig. AMD weiß selbst, was es für ein immenser Aufwand für die Entwickler ist und genau daher wollen sie ja möglichst das Gegenteil erreichen: Ein Multi-GPU-Design, in dem die Latenzen kaum noch eine Rolle spielen und welches wie eine einzelne GPU angesprochen werden kann. Wie gesagt, für mich ist das keine Kritik an den Spieleentwicklern, eher im Gegenteil.
 
Ich seh da jetzt kein Problem in dem Artikel. Die Raytracingleistung der Karten ist nun mal bescheiden aktuell, das brauch man ja nicht kaschieren.

War ja klar dass du mit dem Blödsinn daherkommst.
Das ist ein Benchmark in dem RT exzessiv genutzt wird, genauso soll das auch sein.

Ansonsten wäre es wohl auch kein vernünftiger Benchmark.

Die Leistung ist für seichten RT Einsatz völlig ausreichend, aber es braucht schlicht und ergreifend einfach mehr Zeit das richtig einzusetzen und zu dosieren.
 
Spiegelnde Flächen sind zahlreich, aber das ist für einen Raytraycer eigentlich von Vorteil – ein auf einem perfekt spiegelnden Pixel endender Ray generiert einen Sekundärstrahl und keinerlei Shaderlast.
Im Endeffekt geht es darum im Hybridmode die verfügbare Leistung so intelligent wie möglich zu verteilen, leider entsteht dabei auch viel Shaderlast. Immer dann wenn viel gefakt werden muss. Die Reflektionen sind daher nicht immer ein Problem.

Wenn man bedenkt, dass der 3dMark für eine lange Zeit als Referenzbenchmark dient, was in Spielen möglich sein kann, sollte man das Ergebnis in fps nicht zu skeptisch sehen. Stark übertaktete Karten droop'en wegen Powerlimits schon viel weiter als erwünscht und mit maßvollem Overclock. Hier scheint sich nVidia auch AMDs Strategie anzunähern, weniger kann mehr sein.

Pascal und Turing zeigen, dass ab bestimmten Frequenzen überhaupt kein großer fps-Zuwachs zu verzeichnen ist, 1-3fps für die sich das definitiv nicht lohnt. Jeder sollte wissen wie lange eine Karte lebt, auf die so eingeprügelt wird. Referenzen sehen anders aus.
 
Also bei einem BF5 kann ich's ja verstehen wenn man auf die 60 FPS Grenze hin weist, aber bei so einem Benchmark? Fänd's eigentlich noch besser wenn der 3DMark noch anspruchsvoller wäre, dann könnte man den auch für die 2019er Grafikkarten noch gut zum Testen einsetzen. Aber ich schätze dann wird noch mal ein Upgrade fällig :D
 
Ähm, also 2640 MHz?
Das sind ausgehend von den besten Boost Karten (Zotac Gaming GeForce RTX 2080 Ti AMP Extreme, 1800 MHz ) schlappe 840 MHz mehr.
Also umgerechnet knapp 50%, ohne die Speicher Übertaktung, wohlgemerkt!

Was kommt da bei 51 FPS (und ja die 3D Marks, sind "extrem") mit einer "normalen Karte heraus?
Etwa 34FPS, minus (extreme) Speicherübertaktung dürften es dann wohl ~30FPS sein...oder weniger ;)
Und das ist eigentlich keine Überraschung, wenn für 1080p meist 60FPS veranschlagt wird.
So gesehen ist der Benchmark vielleicht gar nicht soweit von der Realität entfernt...

mfg
 
Das als Kritik an den Entwicklern zu sehen, finde ich aber schon sehr abwegig. AMD weiß selbst, was es für ein immenser Aufwand für die Entwickler ist und genau daher wollen sie ja möglichst das Gegenteil erreichen: Ein Multi-GPU-Design, in dem die Latenzen kaum noch eine Rolle spielen und welches wie eine einzelne GPU angesprochen werden kann. Wie gesagt, für mich ist das keine Kritik an den Spieleentwicklern, eher im Gegenteil.

Du missverstehst mich, kritisch hatte ich das auch nicht gemeint (oder aufgefasst). Aber den Spiele-Entwicklern den Support zu überlassen funktioniert halt nicht. Ist ja auch nicht deren Aufgabe. Aber MGPU ist eben ein schwieriges Thema. Bei Pro-Software läuft das besser weil die Ansprüche einfach andere sind und sowas leichter zu parallelisieren ist wie ein Spiel. Spiele sind ja sehr dynamisch, da ist sowas nicht so einfach.
 
Ich hatte mit deutlich niedrigeren FPS gerechnet. Da fehlt eindeutig Refraktion! :D

Herstellerspezifische Optimierungen, um zum Beispiel die Tensor-Kerne zur Glättung auszunutzen, scheint es nicht zu geben.

Woran erkennt man das?
 
Du missverstehst mich, kritisch hatte ich das auch nicht gemeint (oder aufgefasst). Aber den Spiele-Entwicklern den Support zu überlassen funktioniert halt nicht. Ist ja auch nicht deren Aufgabe. Aber MGPU ist eben ein schwieriges Thema. Bei Pro-Software läuft das besser weil die Ansprüche einfach andere sind und sowas leichter zu parallelisieren ist wie ein Spiel. Spiele sind ja sehr dynamisch, da ist sowas nicht so einfach.
Ich halte es sogar für sinnig, dass den Entwicklern zu überlassen. Denn dann könnte man jede GPU einbinden, auch die einfache iGPU die die GPU Hersteller treiberseitig kaum unterstützen. Es kann jede beliebige GPU sein. Der Code ändert sich auch nicht und kann fester Bestandteil sein, der Programmierungsaufwand ist damit vorhersehbar. Die Frage ist, ob Entwickler dabei nur auf die Zielgruppe der Enthusiasten oder Poweruser setzen sollen, dafür allein lohnt es nicht.

Man könnte hardwareseitig alles einbinden was das System zu bieten hat. Bezahlt hat man es, wenn man eine CPU mit integrierter GPU sein Eigen nennt. Völlig umsonst vom Entwickler eingebunden (wer sollte es direkter oder besser können?). UE4 konnte so bis 11% bei der fps Rate zulegen. GPU A oder GPU B ist der größte Anteil der Renderlast frei zuweisbar (je nach Hardwareressource).

Woran erkennt man das?
Kein DLSS Support geplant. Kein Denoising (Tensor Cores). Vermutlich liefert nVidia einen 3dMark ready Treiber nach. Soll reines DXR sein (ohne auf RTX zu setzen), was auch Compute fähig daher kommt (Fallback).
 
Zuletzt bearbeitet:
War ja klar dass du mit dem Blödsinn daherkommst.
Das ist ein Benchmark in dem RT exzessiv genutzt wird, genauso soll das auch sein.

Ansonsten wäre es wohl auch kein vernünftiger Benchmark.

Die Leistung ist für seichten RT Einsatz völlig ausreichend, aber es braucht schlicht und ergreifend einfach mehr Zeit das richtig einzusetzen und zu dosieren.

Ja klar, für ein paar Pfützen degradier ich meine Grafikkarte einfach mal 3 Modelle runter. Völlig ausreichend, läuft Top......
 
Kein DLSS Support geplant. Kein Denoising (Tensor Cores). Vermutlich liefert nVidia einen 3dMark ready Treiber nach. Soll reines DXR sein (ohne auf RTX zu setzen), was auch Compute fähig daher kommt (Fallback).

Ok, ich war gedanklich beim Entrauschen und habe DLSS vergessen. Das wird dann darauf bezogen sein, Entrauschen muss eigentlich drin sein.
 
Man könnte hardwareseitig alles einbinden was das System zu bieten hat. ...

Man stelle sich vor, Intel gibt Freesync für die iGPU frei. Dann übernimmt die iGPU das FXAA und die Ausgabe für die MainGPU.
Und das am preiswerten FS-Moni. Da reichen dann auch 50fps an nem neuen FS+HDR-TV dicke aus.

btw.
Habe letztens auch bei AMD sowas ähnliches wie den NV-Link gesehen.
(eine Gemeinsame GPU ala TR ist tatsächlich unwahrscheinlich, muss aber auch net sein. Im Prinzip muss oft nur TAA+Defered als Option im Game off)
 
Ok, ich war gedanklich beim Entrauschen und habe DLSS vergessen. Das wird dann darauf bezogen sein, Entrauschen muss eigentlich drin sein.
Das ginge nur übers GameWorks SDK. Ich glaube nicht das UL soetwas unterstützt. Das gäbe nVidia genug Möglichkeiten, die Werte mit Rauschunterdrückungsverfahren zu verfälschen. Ich bin mal gespannt was da jetzt noch kommt.

Das AI basierende Denoising würde ja die Renderzeiten positiv beeinflussen. Siehe OptiX AI Denoising. Der Cebas finalRenderer würde 20-fach schnellere Ausgabezeiten ermöglichen.

Glaube genau das hat Mark gemeint. Es ist reines DXR auf RT fähigen HLSL Shadertypen (Raycores). Und schon sieht man wo nVidia steht. 51fps im Schnitt unter 1440p auf einer extrem übertakteten 2080ti.

Man stelle sich vor, Intel gibt Freesync für die iGPU frei.
Tada: Intel Graphics auf Twitter: "Yes. We are supporting Adaptive Sync. @gfxlisa explains more.… "

Wie das dann heißen wird, werden wir sehen.
 
Zuletzt bearbeitet:
Zurück