Geforce RTX 3080 Spezialtests: Raytracing-Leistungsindex, Pro-Takt-Leistung, PCI-Express-Durchsatz

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3080 Spezialtests: Raytracing-Leistungsindex, Pro-Takt-Leistung, PCI-Express-Durchsatz

Nvidias neue High-End-Grafikkarte Geforce RTX 3080 stellte im ausführlichen PCGH-Test ihre Stärken und Schwächen unter Beweis. In diesem Artikel gehen wir einen Schritt weiter und beleuchten die Leistung abseits ausgetretener Pfade. Was leistet die Geforce RTX 3080 beim Raytracing, wie steht's um den PCI-Express-(4.0-)Durchsatz und wie gut kann Ampere gegenüber Turing wirklich rechnen?

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 3080 Spezialtests: Raytracing-Leistungsindex, Pro-Takt-Leistung, PCI-Express-Durchsatz
 
Warum man jetzt hier die Bandbreite gleich setzt versteh ich nicht. Der GA102 hat ja auch mehr Transistoren, klar braucht der im Verhältnis mehr Bandbreite.

Ich kann ja auch kein Mofa Auspuff an einen Ferrari schrauben und erwarten das der Ferrari seine volle Leistung bringt.
 
Also ist die RTX3080 ab 4k jetzt schon ein Speicherkrübel xD was wird erst mit der 3070...jaja sie soll nicht für 4k sein..Unverständlich das auch eine 2 Generation ältere GPU schon 11GB hat und das nicht mal da genommen wird.
LOL Speicherkrüppel wegen einer Path Tracing Beta die nur in einer spezifischen Map überhaupt irgendwelche Probleme mit VRAM hat und sonst nur 2-3 GB belegt... Und Wolfenstein ist ein Einzelfall, weil das eine sehr seltsame VRAM Allocation hat, die Texturenqualität ist ab High identisch mit Über (was mehr als 10 GB benötigt)

Also mal die Pferde im Stall lassen :)
 
LOL Speicherkrüppel wegen einer Path Tracing Beta die nur in einer spezifischen Map überhaupt irgendwelche Probleme mit VRAM hat und sonst nur 2-3 GB belegt... Und Wolfenstein ist ein Einzelfall, weil das eine sehr seltsame VRAM Allocation hat, die Texturenqualität ist ab High identisch mit Über (was mehr als 10 GB benötigt)

Also mal die Pferde im Stall lassen :)


Naja zeigt sich doch langsam das einfach 10gb zu wenig ist. Besonders in 4k.

Watch dogs hat ja auch schon anforderungen von 11gb vram. Die neueren spiele werden sicher nicht alle soviel brauchen aber es wird wohl immer mehr werden die nächsten jahre.

Nvidia hat hier einfach gut geplant jetz die mit zuviel kohle abmelken später werden die dann eh wieder kaufen weil es doch zu wenig war ;D
 
LOL Speicherkrüppel wegen einer Path Tracing Beta die nur in einer spezifischen Map überhaupt irgendwelche Probleme mit VRAM hat und sonst nur 2-3 GB belegt... Und Wolfenstein ist ein Einzelfall, weil das eine sehr seltsame VRAM Allocation hat, die Texturenqualität ist ab High identisch mit Über (was mehr als 10 GB benötigt)

Also mal die Pferde im Stall lassen :)
Also Minecraft RTX braucht mehr und RDR2 frisst direkt 11GB VRAM zum Frühstück.
 
Sehr schöner Test, gute Ergänzung zum Haupttest. :daumen:
Was ich gerade beim Pro-Takt-Duell kritisch sehe, ist, dass da die mWn einzige 2080ti verwendet wird, die über deutlich schnelleren GDDR6 verfügt (und die kaum einer in Verwendung hat). Normalerweise machen die 2080tis je nach Speicher und Glück zwischen 15,4? und 17 GT/s zu, meine schaffen 16400 komplett stabil; da dann mit 18 GT/s heranzugehen, ist etwas fragwürdig. Hat euer Testsample der 3080 beim Vram auch nur 19,8GT/s geschafft, der bei CB konnte knapp 21?
So unbedeutend war Vram bei Turing ja nicht, bei Ampere ist er auch nicht völlig unbedeutend, meiner Ansicht nach wurde hier doch ein bisschen zum (geringfügigen) Vorteil Turings getestet.
 
LOL Speicherkrüppel wegen einer Path Tracing Beta die nur in einer spezifischen Map überhaupt irgendwelche Probleme mit VRAM hat und sonst nur 2-3 GB belegt... Und Wolfenstein ist ein Einzelfall, weil das eine sehr seltsame VRAM Allocation hat, die Texturenqualität ist ab High identisch mit Über (was mehr als 10 GB benötigt)

Also mal die Pferde im Stall lassen :)

Nix LOL. Moderne engines füllen den Vram nicht bis zum Überlaufen. Sobald X Prozent voll sind, werden Texturen bzw. Details verringert. Da kannst du dir einen ablolen wie du magst. Du freust dich das dein Vram "reicht" weil du gar nicht mitbekommst wie es "richtig" aussehen könnte. Dann würdest du deine Pferde im Stall kotzen sehen...
 
Was bringt mir VRAM, wenn die Leistung nicht vorhanden ist?
Die Gpu kann grob gesagt nur so viel an Daten verarbeiten, wie der Vram reinschiebt. Deshalb bringt es oft einen Zugewinn an Leistung, den Vram hochzutakten, was sogar mehrere 100 MHz Gputakt ausgleichen kann. Wie genau sich das bei Ampere verhält, kann man in einem ausführlichem Oc-Test dann nachsehen, aber Nvidia hat schon seinen Grund, schnelleren Ram zu verbauen.
Selbes Thema übrigens auch bei Prozessoren, da hat schnellerer Ram auch signifikanten Einfluss auf die Leistung.
 
Was soll mir ein Standbild über Streaming verraten?
Dann guck halt auf den Hintergrund. So ein Screenshot ist ja auch nur eine Momentaufnahme.

Image Streaming stellt nur ein, wie viel fixer Speicher die Engine für die Texturen reserviert. Ab High gibt es null Unterschiede zu höheren Einstellungen und es spart massiv an VRAM. Ist bei Doom Eternal auch so.
 
Du hast deinen Post ja editiert, dagegen ist ja jetzt nichts mehr einzuwenden. Die Engine von Doom und Wolfenstein ist so ziemlich das beste auf dem Markt.
 
Zurück