3DMark Port Royal: RTX 2080 Ti mit 2.640 MHz schafft 51 Fps im Raytracing-Benchmark

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu 3DMark Port Royal: RTX 2080 Ti mit 2.640 MHz schafft 51 Fps im Raytracing-Benchmark

Vom Extrem-OC-Event Galax GOC 2018 stammen die ersten Ergebnisse in 3DMarks Raytracing-Benchmark Port Royal. Dabei darf man als Nutzer erst einmal schlucken: Selbst eine auf 2.640 MHz übertaktete Geforce RTX 2080 Ti erreicht in 1440p nur durchschnittlich 51,25 Fps. Der Benchmark nutzt die Raytracing-Effekte dafür vergleichsweise exzessiv.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: 3DMark Port Royal: RTX 2080 Ti mit 2.640 MHz schafft 51 Fps im Raytracing-Benchmark
 
Das ist jetzt nicht überraschend?! Der 3DMark lief eigentlich nie gut auf aktuellen Generationen. So lief Firestrike in UHD auch erst später mit mehr als 30 FPS soweit ich mich erinnere.
Es soll ja auch getestet werden und der Benchmark soll noch ein paar Jahre herhalten würde ich sagen.
 
3DMark Port Royal: RTX 2080 Ti mit 2.640 MHz schafft 51 Fps im Raytracing-Benchmark

Für Aufsehen sorgt das Ergebnis, weil nicht einmal 60 Fps mit einer auf Anschlag übertakteten Geforce RTX 2080 Ti in 1440p natürlich nicht gerade viel sind

Selbst eine auf 2.640 MHz übertaktete Geforce RTX 2080 Ti erreicht in 1440p nur durchschnittlich 51,25 Fps

Ernsthaft jetzt ?

Die News klingt eher nach einer Hetze auf Raytracing und NVIDIA als auf einer Bericht Erstattung.


Das ist jetzt nicht überraschend?! Der 3DMark lief eigentlich nie gut auf aktuellen Generationen. So lief Firestrike in UHD auch erst später mit mehr als 30 FPS soweit ich mich erinnere.
Es soll ja auch getestet werden und der Benchmark soll noch ein paar Jahre herhalten würde ich sagen.

Du hättest die News mal schreiben sollten klingt deutlich neutraler, als das was von PCGH da zusammen getragen wurde.
 
Wissen wir eigentlich, wie sich die Taktraten der Shader Einheiten auf die RT- und Tensorkernfrequenzen auswirken?
 
3D Mark ist ja gerade im Humble Store im Angebot - kann man den Raytracing Benchmark dann mit der Vollversion ab dem 08.01.19 nutzen oder ist das dann nochmal ein separates DLC?

Edit: hab mal die alte News gelesen, kostet 2,99 € Extra wenn man eine Bezahlversion von 3D Mark hat. (Basic geht nicht)
 
Zuletzt bearbeitet:
ich verstehe die negativ eingefärbte darstellungsweise des artikels auch nicht.
neue benchmarks sidn doch dafür da neue hardware an die grenzen zu bringen, wann lief denn mal ein 3dmark bench von anfang an easy durch?
es geht doch gerade darum das man auch in zukunft noch genug zu berechnen hat um die nächste und übernächste generation ins schwitzen zu bringen.
aber offensichtlich beugt man sich selbst in hardwareredaktionen dem allgemeinen ton der community gegenüber rtx karten anstatt sich neutral mit neuer technik auseinanderzusetzen.
 
Der letzte Satz in der Einleitung ("Der Benchmark nutzt die Raytracing-Effekte dafür vergleichsweise exzessiv.") und der komplette letzte Absatz sollten das Ganze eigentlich relativieren. Mit leichter Abänderung von "nicht einmal 60 Fps" zu "keine 60 Fps" und "recht schlecht abschneiden" zu "traditionell keine allzu hohen Werte erreichen":

"Für Aufsehen sorgt das Ergebnis, weil keine 60 Fps mit einer auf Anschlag übertakteten Geforce RTX 2080 Ti in 1440p natürlich nicht gerade viel sind. Generell möchte 3DMark seine Benchmarks aber auf eine längere Zukunftsfähigkeit auslegen, sodass aktuelle Grafikkarten zum Erscheinen neuer Versionen traditionell keine allzu hohen Werte erreichen. In Port Royal werden die Reflexionen und Schatten per Raytracing berechnet - mit spiegelnden Oberflächen gehen die Schöpfer nicht gerade sparsam um. Erwähnenswert ist außerdem, dass 3DMark zwar Microsofts DirectX-Raytracing-API in DX12 nutzt, nicht aber Nvidias RTX-Back-End. Mit Letzterem wäre womöglich noch der eine oder andere Frame herauszuholen. Herstellerspezifische Optimierungen, um zum Beispiel die Tensor-Kerne zur Glättung auszunutzen, scheint es nicht zu geben."

Ich habe den Satz "Für Aufsehen sorgt zurzeit die Performance." noch zu "Für Aufsehen auf internationalen Webseiten sorgt zurzeit die Performance, bei der man jedoch die Rahmenbedingungen betrachten sollte." geändert. Das wurde anderenorts geradezu zerissen. Ich hoffe, das kommt jetzt besser rüber.
 
Ich seh da jetzt kein Problem in dem Artikel. Die Raytracingleistung der Karten ist nun mal bescheiden aktuell, das brauch man ja nicht kaschieren.
 
das klingt dann doch etwas besser.
ich habe ja verständnis dafür ein BF5 zu zereissen was bei der ersten implementierung tatsächlich unspielbar war, ein benchmark ist allerdings ein neutral von der performance zu sehendes messtool was keinen mehrwert bietet wenn es die "magische" 60 fps grenze überschreitet.
es geht doch rein darum verschiedene produkte und ihre leistungsfähigkeit zu vergleichen, ob das bei 20 oder 140 fps passiert macht kaum einen unterschied, allerdings ist es natürlich sinnvoll den benchmark so auszulegen das auch zukünftige generationen nicht direkt ins CPU limit laufen weil das ganze ein kinderspiel ist.
vielen dank für die änderungen!
 
@Gurdi: bescheiden in Bezug zu irgendwas (wie zB deinen Wünschen?) oder allgemein bescheiden? versteh ich nicht, keine Karte außer der Titan hat mehr RT-Leistung.
 
Der letzte Satz in der Einleitung ("Der Benchmark nutzt die Raytracing-Effekte dafür vergleichsweise exzessiv.") und der komplette letzte Absatz sollten das Ganze eigentlich relativieren. Mit leichter Abänderung von "nicht einmal 60 Fps" zu "keine 60 Fps" und "recht schlecht abschneiden" zu "traditionell keine allzu hohen Werte erreichen":

"Für Aufsehen sorgt das Ergebnis, weil keine 60 Fps mit einer auf Anschlag übertakteten Geforce RTX 2080 Ti in 1440p natürlich nicht gerade viel sind. Generell möchte 3DMark seine Benchmarks aber auf eine längere Zukunftsfähigkeit auslegen, sodass aktuelle Grafikkarten zum Erscheinen neuer Versionen traditionell keine allzu hohen Werte erreichen. In Port Royal werden die Reflexionen und Schatten per Raytracing berechnet - mit spiegelnden Oberflächen gehen die Schöpfer nicht gerade sparsam um. Erwähnenswert ist außerdem, dass 3DMark zwar Microsofts DirectX-Raytracing-API in DX12 nutzt, nicht aber Nvidias RTX-Back-End. Mit Letzterem wäre womöglich noch der eine oder andere Frame herauszuholen. Herstellerspezifische Optimierungen, um zum Beispiel die Tensor-Kerne zur Glättung auszunutzen, scheint es nicht zu geben."

Ich habe den Satz "Für Aufsehen sorgt zurzeit die Performance." noch zu "Für Aufsehen auf internationalen Webseiten sorgt zurzeit die Performance, bei der man jedoch die Rahmenbedingungen betrachten sollte." geändert. Das wurde anderenorts geradezu zerissen. Ich hoffe, das kommt jetzt besser rüber.


Sehr schön!

So ganz recht machen könnt Ihr es aber sowieso nie allen. Wenn Ihr etwas positiver zur Performance geschrieben hättet, wären die AMD-Fanboys auf die Barrikaden gegangen. Vermeintlich zu negativ: die Nvidia-Fanboys werden mächtig sauer. Wenn Ihr nun komplett neutral schreibt, dann ist es einigen wahrscheinlich zu trocken und für Euch selbst generiert es weniger Klicks (ist also schlecht für Euer Medium per se). :streit: :stick: :pcghrockt:
 
Geht doch voran!
Entweder Kleingeld für die Titan zurücklegen oder ne 2. Ti anschaffen.

Prinzipiell sollte doch durch den NV-Link jetzt größeres Interesse+Support für mGPU kommen.
Außerdem ist RT ein guter Schub für DX12+Vulkan.

btw.
Wenn dann nächstes Jahr die Boards mit XGMI kommen kann man dann auch die Vegas wieder besser mit Cf einsetzen.
 
Geht doch voran!
Entweder Kleingeld für die Titan zurücklegen oder ne 2. Ti anschaffen.

Prinzipiell sollte doch durch den NV-Link jetzt größeres Interesse+Support für mGPU kommen.
Außerdem ist RT ein guter Schub für DX12+Vulkan.

btw.
Wenn dann nächstes Jahr die Boards mit XGMI kommen kann man dann auch die Vegas wieder besser mit Cf einsetzen.


Naja, Nvidia und AMD haben SLI sowie CF doch schon bei der treiberseitigen Unterstützung aufs Abstellgleis geschoben. NV-Link und xGMI sind doch eher für den professionellen Einsatz gedacht und kommen sicher vor allem dadurch auch mit in die Consumer-Karten. Mittlerweile ist das aber auch ein Enthusiasten-Feature und die Mikroruckler z.B. sind auch mit NV-Link nicht beseitigt (und werden es mit xGMI sicher ebenfalls nicht).
Abhilfe würde DX12-Unterstützung und der unbedingte Wille der Spieleentwickler plus eine einwandfreie Treiberweiterentwicklung schaffen, aber da habe ich starke Zweifel (Gerade wegen der Kosten der Entwicklung für die Spieleentwickler).
 
Das ist mal ein OC. Not bad.

Naja, Nvidia und AMD haben SLI sowie CF doch schon bei der treiberseitigen Unterstützung eher aufs Abstellgleis geschoben. NV-Link und xGMI sind doch eher für den professionellen Einsatz gedacht und kommen sicher vor allem dadurch auch mit in die Consumer-Karten. Mittlerweile ist das aber auchein Enthusiasten-Feature und die Mikroruckler z.B. sind auch mit NV-Link nicht beseitigt (und werden es mit xGMI sicher ebenfalls nicht).
Abhilfe würde DX12-Unterstützung und der unbedingte Wille der Spieleentwickler plus eine einwandfreie Treiberweiterentwicklung schaffen, aber da habe ich starke Zweifel (Gerade wegen der Kosten der Entwicklung für die Spieleentwickler).

Multi-GPU-Support ist denke ich auch einfach nicht wirtschaftlich sinnvoll auf einen richtigen Stand zu bringen. Die Spieleentwickler werden das vermutlich nicht großflächig machen einfach weil das so ein kleiner Prozentsatz der Spieler ist, sprich deine Zweifel werden schon zutreffend sein. Selbst mit Explicit MGPU ist das nicht so simpel, auch wenn das zumindest eine Basis wäre auf der man aufbauen kann.

Ich denke du hast recht und das wird zumindest auf kurze Sicht nicht mehr passieren.
 
Das ist mal ein OC. Not bad.



Multi-GPU-Support ist denke ich auch einfach nicht wirtschaftlich sinnvoll auf einen richtigen Stand zu bringen. Die Spieleentwickler werden das vermutlich nicht großflächig machen einfach weil das so ein kleiner Prozentsatz der Spieler ist, sprich deine Zweifel werden schon zutreffend sein. Selbst mit Explicit MGPU ist das nicht so simpel, auch wenn das zumindest eine Basis wäre auf der man aufbauen kann.

Ich denke du hast recht und das wird zumindest auf kurze Sicht nicht mehr passieren.

Eben, selbst in Enthusiasten-Foren nutzen relativ wenige Spieler zwei oder mehr GPUs nebeneinander. Wenn man das dann auf die große Masse der Spieler umlegt, ergibt sich ein extrem geringer Prozentsatz. Dem gegenüber stehen dann die zusätzlichen Kosten für die Spieleentwickler (und da muss man die potenziellen Käufer mit SLI/CF-Systemen noch weiter teilen, denn schließlich spielt nicht jeder jedes Spiel/Genre) -> 1 Million Euro Mehrausgabe für ein kurzzeitig verbessertes Image plus 5000 Euro Mehreinnahmen durch die Multi-GPU-User (Zahlen hypothetisch und nur zur Verdeutlichung ;) )? Das macht doch niemand.

Interessant wird das erst, wenn die GPU-Entwickler (Nvidia, AMD, Intel) auf ein Multichip-Design setzen "müssen" um die Leistung im Vergleich zum Preis und dem Markt deutlich zu verbessern. Allerdings sind wir dann vielleicht auch schon längst beim reinen Streaming angekommen. ;)
 
Zuletzt bearbeitet von einem Moderator:
Multi-GPU-Support ist denke ich auch einfach nicht wirtschaftlich sinnvoll auf einen richtigen Stand zu bringen. Die Spieleentwickler werden ...

Aus wirtschaftlicher und Ingenieurmäßiger Sicht sind 2 mittelgroße Chips mit 0,8V deutlich besser als ein BigOne mit 1,0V.
TR ist ja nicht Zufall sondern wirtschaftlich.
Nur weil einige bequeme alte fette Studios den Hintern nicht hochkriegen und nicht auf eine ordentliche lowLevel-Engine umstellen, hat das Nichts zu sagen.
Die Konsolen und frische Studios wie Rebellion werden den Durchbruch für lowLevel schon einleiten.

btw.
Kann Nicht + Will Nicht
Bei UE wird es wohl sogar Absicht sein, weil die älteren Games wie Thief noch ordentlich mit SLi/Cf laufen.
Und Frostbite ist eh nur noch ein Krampf. Bei SoTR mal abwarten, SLI funzt ja schon.
I.d.R. ist meistens SLI leichter an Start zu bekommen mit dem Inspektor.
Oft ist nur TAA der Störenfried.
Da haben sich viele Reviewer auch net mit Ruhm bekleckert, um nicht zu sagen Keine Lust (Ahnung).
(und ich kann gern auf BBB-Games verzichten)
 
Zuletzt bearbeitet:
Zurück