Geforce RTX 3080 Spezialtests: Raytracing-Leistungsindex, Pro-Takt-Leistung, PCI-Express-Durchsatz

Du hast deinen Post ja editiert, dagegen ist ja jetzt nichts mehr einzuwenden. Die Engine von Doom und Wolfenstein ist so ziemlich das beste auf dem Markt.
Ja, dagegen hab ich auch nichts gesagt. Es ist nur falsch, auf die Engine zu zeigen und dann zu sagen, "seht das ist der Beweis, dass der Speicher nicht ausreicht." Man muss halt wissen, wie die Engine funktioniert.

Der liebe Raff hat diese schon benutzt um der RTX 2060 ihre Daseinsberechtigung in Sachen Raytracing abzusprechen, obwohl Wolfenstein mit RTX fantastisch läuft wenn man dieses eine Setting auf Hoch runterdreht und das ohne irgendwelche Abstriche in der Bildqualität!
 
Du freust dich das dein Vram "reicht" weil du gar nicht mitbekommst wie es "richtig" aussehen könnte. Dann würdest du deine Pferde im Stall kotzen sehen...
Natürlich sind alle blind die weniger V-Ram haben............aber anscheinend ist meine GTX 1080Ti kaputt.
Zumindest hatte ich noch kein Spiel, in dem mir die 11GB gezeigt hätten wie es richtig aussehen
könnte. Das selbe Bild wie auf meiner RTX 2070 super mit 8GB V-Ram.
 
Ich seh das etwas anders und ich seh auch noch andere Titel. Die beiden Spiele erlauben kein Texturschummeln und sind damit ehrliche benches, das ist was zählt.
 
Dann zeigt doch mal ein laufendes Spiel, daß mit 11GB in 1440p so anders aussieht als auf einer 8GB Karte.
Auf ausgesuchte Screens, dann vielleicht noch auf 3-400% vergrößert, damit man auf einen Unterschied zeigen kann
habe ich aber keine Lust.

Kommischerweise fällt RT, was wirklich offensichtlich ist, einem RT Gegner nicht auf.
 
Hab ich irgendwas behauptet mit QHD und irgendwelchen Vram Zahlen? Ich denke nicht,mich sehe die 10GB als ausreichend an für QHD von der Karte, man muss aber auch keine quatsch über die idtech erzählen nur um seine Aussage zu untermauern. Ich hatte bis vor kurzem ne 16GB Karte und sehe jetzt bei meiner 8GB die PopUps in den spielen. Das stört sich 99% nicht, mich aber sehr wohl.
 
Hab ich irgendwas behauptet mit QHD und irgendwelchen Vram Zahlen? Ich denke nicht,mich sehe die 10GB als ausreichend an für QHD von der Karte, man muss aber auch keine quatsch über die idtech erzählen nur um seine Aussage zu untermauern. Ich hatte bis vor kurzem ne 16GB Karte und sehe jetzt bei meiner 8GB die PopUps in den spielen. Das stört sich 99% nicht, mich aber sehr wohl.
Das ist kein Quatsch! Es ist in der Tat so, dass die ID Tech Engine mit einem fixen Memory Budget arbeitet und das kann man auch ganz einfach nachprüfen, indem man den VRAM artifiziell limitiert. Dann stürzt das Ding nämlich schon beim Starten ab, weil es nicht die gewünschte Menge an VRAM für sich beanspruchen kann. Sowas gibts bei anderen Engines nicht, da die Zuweisung dort dynamisch erfolgt.

Deine Erfahrung hört sich für mich nach Placebo-Effekt an. Ich an deiner Stelle hätte ein Video auf den beiden Systemen aufgenommen. Das hätte einen interessanten Vergleich geboten. Wer weiß, vielleicht hast du ja doch recht und auf Über mit 16 GB VRAM gibt es signifikant weniger Pop-In. Wenn du mir Beweise lieferst, bin ich bereit meine Sichtweise zu überdenken :)
 
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3080 Spezialtests: Raytracing-Leistungsindex, Pro-Takt-Leistung, PCI-Express-Durchsatz

"... Bei einem derart vielseitigen Produkt reicht ein Artikel aber nicht ansatzweise aus, um alle Facetten abzubilden. ..."
Danke für den Test. Ich kaufte mir keine der letzten Generation Nvidia-Karten, weil mir Raytracing nicht fett genug war. Das sieht jetzt ganz anders aus.

Quetscht ihr alle Test zu den Grafikkarten in eine Zeitung oder gibt es nächsten Monat zwei Hefte, um alles unterzubringen? Ein RTX 3000 Spezialheft fände ist lohnend!
 
Zuletzt bearbeitet von einem Moderator:
Kann/Wird PCIe4 da eine Vorteil bieten?
Eher nicht. Der VRAM hat ja eigentlich die Aufgabe, das Nachladen von Daten über den PCIe-Bus so weit wie irgend möglich überflüssig zu machen. Das Nachladen erfolgt natürlich schneller, aber ob der Geschwindigkeitszuwachs gegenüber PCIe3 ausreicht, matschige Texturen, z. B. bei schnellen Schwenks, zu vermeiden, wage ich zu bezweifeln.

Die verbesserte Texturkompression könnte vielleicht einen Unterschied machen, aber dazu habe ich noch nirgends einen Test gesehen. Wie hier zuvor schon angemerkt wurde, wird dieser Themenkomplex dadurch noch verkompliziert, dass moderne Spiele, beim Volllaufen des VRAM nicht wie frühere Spiele ruckeln, sondern die Auflösung der Texturen schon vorher reduzieren. Je nach Spiel kann das dann massiv schlechter aussehen, während die Frameraten und -times mehr oder weniger stabil bleiben.
 
Wird der im Fall der Fälle nicht durch PCIe definiert?
Kann/Wird PCIe4 da eine Vorteil bieten?

Es kann einen Unterschied machen, ja.

Wenn viel VRAM da ist, kann theoretisch mehr dort verbleiben, falls man es später wieder braucht, und man muss es dann nicht nachladen. Also wie ein großer Cache. Mit weniger Speicher muss öfter nachgeladen werden, was den PCIe Bus belastet. Ein schnellerer Bus kann also einen Unterschied machen.

In der Praxis bringt Speicher immer weniger Vorteil je mehr man überhalb des Notwendigen hat. Der Unterschied zwischen "0,5 GB mehr verfügbar als notwendig (für volle Texturen)" und "1GB mehr" wird man wohl merken. Den Unterschied zwischen "1 GB mehr" und "3 GB mehr" dann aber kaum noch.

Also wird man bei Frametime Messungen immer seltener kurze Ausbrüche haben, je weiter man von der Minimalgrenze weg ist. Und die Ausbrüche werden weniger heftig, wenn man einen schnellen PCIe Bus hat.

Aber der Unterschied ist, wie man schon gezeigt hat, wirklich nur dann spürbar, wenn man tatsächlich wirklich zu wenig VRAM hat. Moiderne Engines kompensieren das dann aber automatisch mit niedriger aufgelösten Texturen.
 
Ein kleiner Schritt für den Einbau, aber ein großer Schritt für die Strahlen. xD

Finde ich gut, so kommen wir dann doch von spielbar ins angenehm spielbare.
Aber DLSS wird wohl noch einige Zeit benötigt werden. (Was ja nicht schlimm ist)
 
Aufpoppende Texturen incoming.
Da hatten wird doch schon das Beispiel mit Rage.
Stimmt, in Wolfenstein auch, das war eine Krankheit der id-Engine (heißt die überhaupt so?). Das lag allerdings nicht am mangelnden VRAM sondern dem Texturstreaming, das bei Drehungen nicht hinterher kam.
 
Finde ich gut, so kommen wir dann doch von spielbar ins angenehm spielbare.
Aber DLSS wird wohl noch einige Zeit benötigt werden. (Was ja nicht schlimm ist)
Da DLSS mit der neusten Version mittlerweile ein sehr sauberes Ergebnis zu liefern scheint, sehe ich daran nichts verwerfliches. Im Gegenteil. Wenn die Bildqualität stimmt und man dabei eine deutlich bessere Performance haben kann, wäre das für mich erste Wahl.
 

6,5% haben einen 1440p Monitor -> CPU Limit mit 3080
2,25% haben einen 4k Monitor -> Speicherlimit schon bei alten Spielen.
Das ist was Flagschiff-Kunden sehen und mit den Zähnen knirschen

Dazu das Marketing auf Impulskauf ausgerichtet.
Wenn die 3080 so gut ist wie sie jetzt tut, dann ist sie das auch noch, wenn Valhalla und Godfall 4k Benchmarks mit 10GB mehr Texturdetails und mehr Frames als die Konsolen liefern.

Auch die Sache mit den 12 RAM Slots von denen immer zwei frei bleiben weil der Chip ja seine Fehler hat und daher nicht die vollen 12GB adressieren kann hat einen faden Beigeschmack.

So gut die Karte ist, ein Stück weit wirkt sie hastig auf den Markt geworfen.
 
Die 3080 ist da, wo ich sie erwartet habe. Schaut man sich diese Vergleiche mit der 2080Ti an, weiß man auch, wo die 3070 landen wird. Nämlich meistenteils hinter der Turing. Ob da eine 3070 Ti oder "s" mit 16GB wirklich was dran ändert, wage ich zu bezweifeln.
In jedem Fall ist die 80 eine gute Karte und bringt AMD nichts vergleichbares, könnte ich mich nach 10 Jahren "Rot" zu einer NV überreden lassen. Vllt mal wieder eine Gainward GS GLH?
Gruß T.
 

6,5% haben einen 1440p Monitor -> CPU Limit mit 3080
2,25% haben einen 4k Monitor -> Speicherlimit schon bei alten Spielen.
Das ist was Flagschiff-Kunden sehen und mit den Zähnen knirschen

Du sagst also, wir können uns starke GPUs sparen, weil die Spiele alle CPU limitiert sind?!

Ich gehe mit Dir, das man mit einem FHD Monitor momentan auch mit einer 3070 (oder 2070S) gut bedient ist. D.h. aber noch lange nicht, dass es nicht auch Spiele gibt, die selbst in FHD mit maximalen Einstellungen klar GPU limitiert wären.

Und außerdem: Die 3080 richtet sich nicht an die Kundschaft, die mit FHD spielt. Jemand, der eine solche Karte in Erwägung zieht, hat vermutlich auch mindestens WQHL im Sinn. Auch wenn das nur < 10% der Spielerschaft sind (was übrigens eine Menge ist!), reicht das locker für einen großen potentiellen Kundenkreis.

Ich kann also Dein Posting nicht verstehen. Was genau willst Du uns damit eigentlich sagen?
 
Ich kann also Dein Posting nicht verstehen. Was genau willst Du uns damit eigentlich sagen?
bei allem Hype um die 3080 fehlt da etwas. Bei 1080p der Sinn, bei 1440p wirklich die CPU die alles austreiben kann, bei 4k wird es vermutlich der Speicher sein. Da ist immer irgendwo ein Haar in der Suppe und die Karte richtet sich an den kleinen Teil, der kein Haar sehen will.

Die Karte ist ohne Frage gut, aber es gibt so diese Art von gut bei der gezielt Lücken gelassen werden, damit das Nachfolgeprodukt als "besser" bezeichnet werden kann und die 3080 ist genau das.

In zwei Jahren werden wir über die 3080 sagen, dass Nvidia die verfrüht auf den Markt geworfen hat um vor AMD und den Konsolen auf dem Markt zu sein und bevor die DDR6X-2GB Module ready waren. vgl. GTX-770
 
Zurück