• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3080 Spezialtests: Raytracing-Leistungsindex, Pro-Takt-Leistung, PCI-Express-Durchsatz

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3080 Spezialtests: Raytracing-Leistungsindex, Pro-Takt-Leistung, PCI-Express-Durchsatz

Nvidias neue High-End-Grafikkarte Geforce RTX 3080 stellte im ausführlichen PCGH-Test ihre Stärken und Schwächen unter Beweis. In diesem Artikel gehen wir einen Schritt weiter und beleuchten die Leistung abseits ausgetretener Pfade. Was leistet die Geforce RTX 3080 beim Raytracing, wie steht's um den PCI-Express-(4.0-)Durchsatz und wie gut kann Ampere gegenüber Turing wirklich rechnen?

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 3080 Spezialtests: Raytracing-Leistungsindex, Pro-Takt-Leistung, PCI-Express-Durchsatz
 

Pumpi

Software-Overclocker(in)
Warum man jetzt hier die Bandbreite gleich setzt versteh ich nicht. Der GA102 hat ja auch mehr Transistoren, klar braucht der im Verhältnis mehr Bandbreite.

Ich kann ja auch kein Mofa Auspuff an einen Ferrari schrauben und erwarten das der Ferrari seine volle Leistung bringt.
 

dampflokfreund

Freizeitschrauber(in)
Also ist die RTX3080 ab 4k jetzt schon ein Speicherkrübel xD was wird erst mit der 3070...jaja sie soll nicht für 4k sein..Unverständlich das auch eine 2 Generation ältere GPU schon 11GB hat und das nicht mal da genommen wird.
LOL Speicherkrüppel wegen einer Path Tracing Beta die nur in einer spezifischen Map überhaupt irgendwelche Probleme mit VRAM hat und sonst nur 2-3 GB belegt... Und Wolfenstein ist ein Einzelfall, weil das eine sehr seltsame VRAM Allocation hat, die Texturenqualität ist ab High identisch mit Über (was mehr als 10 GB benötigt)

Also mal die Pferde im Stall lassen :)
 

Arzila

PC-Selbstbauer(in)
LOL Speicherkrüppel wegen einer Path Tracing Beta die nur in einer spezifischen Map überhaupt irgendwelche Probleme mit VRAM hat und sonst nur 2-3 GB belegt... Und Wolfenstein ist ein Einzelfall, weil das eine sehr seltsame VRAM Allocation hat, die Texturenqualität ist ab High identisch mit Über (was mehr als 10 GB benötigt)

Also mal die Pferde im Stall lassen :)


Naja zeigt sich doch langsam das einfach 10gb zu wenig ist. Besonders in 4k.

Watch dogs hat ja auch schon anforderungen von 11gb vram. Die neueren spiele werden sicher nicht alle soviel brauchen aber es wird wohl immer mehr werden die nächsten jahre.

Nvidia hat hier einfach gut geplant jetz die mit zuviel kohle abmelken später werden die dann eh wieder kaufen weil es doch zu wenig war ;D
 

P4TriX206

PC-Selbstbauer(in)
LOL Speicherkrüppel wegen einer Path Tracing Beta die nur in einer spezifischen Map überhaupt irgendwelche Probleme mit VRAM hat und sonst nur 2-3 GB belegt... Und Wolfenstein ist ein Einzelfall, weil das eine sehr seltsame VRAM Allocation hat, die Texturenqualität ist ab High identisch mit Über (was mehr als 10 GB benötigt)

Also mal die Pferde im Stall lassen :)
Also Minecraft RTX braucht mehr und RDR2 frisst direkt 11GB VRAM zum Frühstück.
 

Sinusspass

BIOS-Overclocker(in)
Sehr schöner Test, gute Ergänzung zum Haupttest. :daumen:
Was ich gerade beim Pro-Takt-Duell kritisch sehe, ist, dass da die mWn einzige 2080ti verwendet wird, die über deutlich schnelleren GDDR6 verfügt (und die kaum einer in Verwendung hat). Normalerweise machen die 2080tis je nach Speicher und Glück zwischen 15,4? und 17 GT/s zu, meine schaffen 16400 komplett stabil; da dann mit 18 GT/s heranzugehen, ist etwas fragwürdig. Hat euer Testsample der 3080 beim Vram auch nur 19,8GT/s geschafft, der bei CB konnte knapp 21?
So unbedeutend war Vram bei Turing ja nicht, bei Ampere ist er auch nicht völlig unbedeutend, meiner Ansicht nach wurde hier doch ein bisschen zum (geringfügigen) Vorteil Turings getestet.
 

SFT-GSG

Software-Overclocker(in)
LOL Speicherkrüppel wegen einer Path Tracing Beta die nur in einer spezifischen Map überhaupt irgendwelche Probleme mit VRAM hat und sonst nur 2-3 GB belegt... Und Wolfenstein ist ein Einzelfall, weil das eine sehr seltsame VRAM Allocation hat, die Texturenqualität ist ab High identisch mit Über (was mehr als 10 GB benötigt)

Also mal die Pferde im Stall lassen :)

Nix LOL. Moderne engines füllen den Vram nicht bis zum Überlaufen. Sobald X Prozent voll sind, werden Texturen bzw. Details verringert. Da kannst du dir einen ablolen wie du magst. Du freust dich das dein Vram "reicht" weil du gar nicht mitbekommst wie es "richtig" aussehen könnte. Dann würdest du deine Pferde im Stall kotzen sehen...
 

Sinusspass

BIOS-Overclocker(in)
Was bringt mir VRAM, wenn die Leistung nicht vorhanden ist?
Die Gpu kann grob gesagt nur so viel an Daten verarbeiten, wie der Vram reinschiebt. Deshalb bringt es oft einen Zugewinn an Leistung, den Vram hochzutakten, was sogar mehrere 100 MHz Gputakt ausgleichen kann. Wie genau sich das bei Ampere verhält, kann man in einem ausführlichem Oc-Test dann nachsehen, aber Nvidia hat schon seinen Grund, schnelleren Ram zu verbauen.
Selbes Thema übrigens auch bei Prozessoren, da hat schnellerer Ram auch signifikanten Einfluss auf die Leistung.
 

dampflokfreund

Freizeitschrauber(in)
Was soll mir ein Standbild über Streaming verraten?
Dann guck halt auf den Hintergrund. So ein Screenshot ist ja auch nur eine Momentaufnahme.

Image Streaming stellt nur ein, wie viel fixer Speicher die Engine für die Texturen reserviert. Ab High gibt es null Unterschiede zu höheren Einstellungen und es spart massiv an VRAM. Ist bei Doom Eternal auch so.
 

Gurdi

Kokü-Junkie (m/w)
Du hast deinen Post ja editiert, dagegen ist ja jetzt nichts mehr einzuwenden. Die Engine von Doom und Wolfenstein ist so ziemlich das beste auf dem Markt.
 

dampflokfreund

Freizeitschrauber(in)
Du hast deinen Post ja editiert, dagegen ist ja jetzt nichts mehr einzuwenden. Die Engine von Doom und Wolfenstein ist so ziemlich das beste auf dem Markt.
Ja, dagegen hab ich auch nichts gesagt. Es ist nur falsch, auf die Engine zu zeigen und dann zu sagen, "seht das ist der Beweis, dass der Speicher nicht ausreicht." Man muss halt wissen, wie die Engine funktioniert.

Der liebe Raff hat diese schon benutzt um der RTX 2060 ihre Daseinsberechtigung in Sachen Raytracing abzusprechen, obwohl Wolfenstein mit RTX fantastisch läuft wenn man dieses eine Setting auf Hoch runterdreht und das ohne irgendwelche Abstriche in der Bildqualität!
 

DaHell63

Volt-Modder(in)
Du freust dich das dein Vram "reicht" weil du gar nicht mitbekommst wie es "richtig" aussehen könnte. Dann würdest du deine Pferde im Stall kotzen sehen...
Natürlich sind alle blind die weniger V-Ram haben............aber anscheinend ist meine GTX 1080Ti kaputt.
Zumindest hatte ich noch kein Spiel, in dem mir die 11GB gezeigt hätten wie es richtig aussehen
könnte. Das selbe Bild wie auf meiner RTX 2070 super mit 8GB V-Ram.
 

Gurdi

Kokü-Junkie (m/w)
Ich seh das etwas anders und ich seh auch noch andere Titel. Die beiden Spiele erlauben kein Texturschummeln und sind damit ehrliche benches, das ist was zählt.
 

DaHell63

Volt-Modder(in)
Dann zeigt doch mal ein laufendes Spiel, daß mit 11GB in 1440p so anders aussieht als auf einer 8GB Karte.
Auf ausgesuchte Screens, dann vielleicht noch auf 3-400% vergrößert, damit man auf einen Unterschied zeigen kann
habe ich aber keine Lust.

Kommischerweise fällt RT, was wirklich offensichtlich ist, einem RT Gegner nicht auf.
 

Gurdi

Kokü-Junkie (m/w)
Hab ich irgendwas behauptet mit QHD und irgendwelchen Vram Zahlen? Ich denke nicht,mich sehe die 10GB als ausreichend an für QHD von der Karte, man muss aber auch keine quatsch über die idtech erzählen nur um seine Aussage zu untermauern. Ich hatte bis vor kurzem ne 16GB Karte und sehe jetzt bei meiner 8GB die PopUps in den spielen. Das stört sich 99% nicht, mich aber sehr wohl.
 

dampflokfreund

Freizeitschrauber(in)
Hab ich irgendwas behauptet mit QHD und irgendwelchen Vram Zahlen? Ich denke nicht,mich sehe die 10GB als ausreichend an für QHD von der Karte, man muss aber auch keine quatsch über die idtech erzählen nur um seine Aussage zu untermauern. Ich hatte bis vor kurzem ne 16GB Karte und sehe jetzt bei meiner 8GB die PopUps in den spielen. Das stört sich 99% nicht, mich aber sehr wohl.
Das ist kein Quatsch! Es ist in der Tat so, dass die ID Tech Engine mit einem fixen Memory Budget arbeitet und das kann man auch ganz einfach nachprüfen, indem man den VRAM artifiziell limitiert. Dann stürzt das Ding nämlich schon beim Starten ab, weil es nicht die gewünschte Menge an VRAM für sich beanspruchen kann. Sowas gibts bei anderen Engines nicht, da die Zuweisung dort dynamisch erfolgt.

Deine Erfahrung hört sich für mich nach Placebo-Effekt an. Ich an deiner Stelle hätte ein Video auf den beiden Systemen aufgenommen. Das hätte einen interessanten Vergleich geboten. Wer weiß, vielleicht hast du ja doch recht und auf Über mit 16 GB VRAM gibt es signifikant weniger Pop-In. Wenn du mir Beweise lieferst, bin ich bereit meine Sichtweise zu überdenken :)
 

Gurdi

Kokü-Junkie (m/w)
Behalt deine Sichtweise und gut ist,mich hab weder Zeit noch Nerven hier die 500x Debatte über Vram zu führen.
 
D

DAU_0815

Guest
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3080 Spezialtests: Raytracing-Leistungsindex, Pro-Takt-Leistung, PCI-Express-Durchsatz

"... Bei einem derart vielseitigen Produkt reicht ein Artikel aber nicht ansatzweise aus, um alle Facetten abzubilden. ..."
Danke für den Test. Ich kaufte mir keine der letzten Generation Nvidia-Karten, weil mir Raytracing nicht fett genug war. Das sieht jetzt ganz anders aus.

Quetscht ihr alle Test zu den Grafikkarten in eine Zeitung oder gibt es nächsten Monat zwei Hefte, um alles unterzubringen? Ein RTX 3000 Spezialheft fände ist lohnend!
 
Zuletzt bearbeitet von einem Moderator:
H

Hornissentreiber

Guest
Kann/Wird PCIe4 da eine Vorteil bieten?
Eher nicht. Der VRAM hat ja eigentlich die Aufgabe, das Nachladen von Daten über den PCIe-Bus so weit wie irgend möglich überflüssig zu machen. Das Nachladen erfolgt natürlich schneller, aber ob der Geschwindigkeitszuwachs gegenüber PCIe3 ausreicht, matschige Texturen, z. B. bei schnellen Schwenks, zu vermeiden, wage ich zu bezweifeln.

Die verbesserte Texturkompression könnte vielleicht einen Unterschied machen, aber dazu habe ich noch nirgends einen Test gesehen. Wie hier zuvor schon angemerkt wurde, wird dieser Themenkomplex dadurch noch verkompliziert, dass moderne Spiele, beim Volllaufen des VRAM nicht wie frühere Spiele ruckeln, sondern die Auflösung der Texturen schon vorher reduzieren. Je nach Spiel kann das dann massiv schlechter aussehen, während die Frameraten und -times mehr oder weniger stabil bleiben.
 
G

Grestorn

Guest
Wird der im Fall der Fälle nicht durch PCIe definiert?
Kann/Wird PCIe4 da eine Vorteil bieten?

Es kann einen Unterschied machen, ja.

Wenn viel VRAM da ist, kann theoretisch mehr dort verbleiben, falls man es später wieder braucht, und man muss es dann nicht nachladen. Also wie ein großer Cache. Mit weniger Speicher muss öfter nachgeladen werden, was den PCIe Bus belastet. Ein schnellerer Bus kann also einen Unterschied machen.

In der Praxis bringt Speicher immer weniger Vorteil je mehr man überhalb des Notwendigen hat. Der Unterschied zwischen "0,5 GB mehr verfügbar als notwendig (für volle Texturen)" und "1GB mehr" wird man wohl merken. Den Unterschied zwischen "1 GB mehr" und "3 GB mehr" dann aber kaum noch.

Also wird man bei Frametime Messungen immer seltener kurze Ausbrüche haben, je weiter man von der Minimalgrenze weg ist. Und die Ausbrüche werden weniger heftig, wenn man einen schnellen PCIe Bus hat.

Aber der Unterschied ist, wie man schon gezeigt hat, wirklich nur dann spürbar, wenn man tatsächlich wirklich zu wenig VRAM hat. Moiderne Engines kompensieren das dann aber automatisch mit niedriger aufgelösten Texturen.
 

I3uschi

Software-Overclocker(in)
Ein kleiner Schritt für den Einbau, aber ein großer Schritt für die Strahlen. xD

Finde ich gut, so kommen wir dann doch von spielbar ins angenehm spielbare.
Aber DLSS wird wohl noch einige Zeit benötigt werden. (Was ja nicht schlimm ist)
 
H

Hornissentreiber

Guest
Aufpoppende Texturen incoming.
Da hatten wird doch schon das Beispiel mit Rage.
Stimmt, in Wolfenstein auch, das war eine Krankheit der id-Engine (heißt die überhaupt so?). Das lag allerdings nicht am mangelnden VRAM sondern dem Texturstreaming, das bei Drehungen nicht hinterher kam.
 

RedDragon20

BIOS-Overclocker(in)
Finde ich gut, so kommen wir dann doch von spielbar ins angenehm spielbare.
Aber DLSS wird wohl noch einige Zeit benötigt werden. (Was ja nicht schlimm ist)
Da DLSS mit der neusten Version mittlerweile ein sehr sauberes Ergebnis zu liefern scheint, sehe ich daran nichts verwerfliches. Im Gegenteil. Wenn die Bildqualität stimmt und man dabei eine deutlich bessere Performance haben kann, wäre das für mich erste Wahl.
 

4thVariety

Software-Overclocker(in)

6,5% haben einen 1440p Monitor -> CPU Limit mit 3080
2,25% haben einen 4k Monitor -> Speicherlimit schon bei alten Spielen.
Das ist was Flagschiff-Kunden sehen und mit den Zähnen knirschen

Dazu das Marketing auf Impulskauf ausgerichtet.
Wenn die 3080 so gut ist wie sie jetzt tut, dann ist sie das auch noch, wenn Valhalla und Godfall 4k Benchmarks mit 10GB mehr Texturdetails und mehr Frames als die Konsolen liefern.

Auch die Sache mit den 12 RAM Slots von denen immer zwei frei bleiben weil der Chip ja seine Fehler hat und daher nicht die vollen 12GB adressieren kann hat einen faden Beigeschmack.

So gut die Karte ist, ein Stück weit wirkt sie hastig auf den Markt geworfen.
 

Tolotos66

Volt-Modder(in)
Die 3080 ist da, wo ich sie erwartet habe. Schaut man sich diese Vergleiche mit der 2080Ti an, weiß man auch, wo die 3070 landen wird. Nämlich meistenteils hinter der Turing. Ob da eine 3070 Ti oder "s" mit 16GB wirklich was dran ändert, wage ich zu bezweifeln.
In jedem Fall ist die 80 eine gute Karte und bringt AMD nichts vergleichbares, könnte ich mich nach 10 Jahren "Rot" zu einer NV überreden lassen. Vllt mal wieder eine Gainward GS GLH?
Gruß T.
 
G

Grestorn

Guest

6,5% haben einen 1440p Monitor -> CPU Limit mit 3080
2,25% haben einen 4k Monitor -> Speicherlimit schon bei alten Spielen.
Das ist was Flagschiff-Kunden sehen und mit den Zähnen knirschen

Du sagst also, wir können uns starke GPUs sparen, weil die Spiele alle CPU limitiert sind?!

Ich gehe mit Dir, das man mit einem FHD Monitor momentan auch mit einer 3070 (oder 2070S) gut bedient ist. D.h. aber noch lange nicht, dass es nicht auch Spiele gibt, die selbst in FHD mit maximalen Einstellungen klar GPU limitiert wären.

Und außerdem: Die 3080 richtet sich nicht an die Kundschaft, die mit FHD spielt. Jemand, der eine solche Karte in Erwägung zieht, hat vermutlich auch mindestens WQHL im Sinn. Auch wenn das nur < 10% der Spielerschaft sind (was übrigens eine Menge ist!), reicht das locker für einen großen potentiellen Kundenkreis.

Ich kann also Dein Posting nicht verstehen. Was genau willst Du uns damit eigentlich sagen?
 

4thVariety

Software-Overclocker(in)
Ich kann also Dein Posting nicht verstehen. Was genau willst Du uns damit eigentlich sagen?
bei allem Hype um die 3080 fehlt da etwas. Bei 1080p der Sinn, bei 1440p wirklich die CPU die alles austreiben kann, bei 4k wird es vermutlich der Speicher sein. Da ist immer irgendwo ein Haar in der Suppe und die Karte richtet sich an den kleinen Teil, der kein Haar sehen will.

Die Karte ist ohne Frage gut, aber es gibt so diese Art von gut bei der gezielt Lücken gelassen werden, damit das Nachfolgeprodukt als "besser" bezeichnet werden kann und die 3080 ist genau das.

In zwei Jahren werden wir über die 3080 sagen, dass Nvidia die verfrüht auf den Markt geworfen hat um vor AMD und den Konsolen auf dem Markt zu sein und bevor die DDR6X-2GB Module ready waren. vgl. GTX-770
 
Oben Unten