Geforce RTX 3060 vs. RTX 3060 Ti vs. RTX 2060: Was bringen 12 GiByte wirklich?

Was bringen 12 GiByte wirklich?​

Nix. Die Karte ist so underpowered, dass sie eh nicht für mehr als WQHD taugt und dort hat man dann eher das Problem einer niedrigeren Framerate, als Nachladeruckler, falls man tatsächlich ein Spiel gefunden hat, welches mehr als 8-9GB benötigt. So viel Speicher ist eher Marketing, genau wie bei BigNavi und bei der RTX3090... Man braucht nur in seltensten Fällen mehr als 10GB und wie gesagt, eine Möhre mit 12GB bleibt immer noch eine Möhre.

Dabei aktivieren wir alle Details und testen die beiden sehr verbreiteten Auflösungen Full HD (1080p) sowie WQHD (1440p) - das optimale und offizielle Spielfeld für die RTX 3060. Der Spielbarkeit zuliebe testen wir zwar Full HD nativ, aktivieren in WQHD jedoch DLSS 2.0 im Quality-Modus. Damit wird die interne Renderauflösung unter Full HD herabgesetzt auf 1.706 × 960 Pixel, um genau zu sein, allerdings clever sowohl räumlich als auch zeitlich aufgewertet. Das Ergebnis sieht über weite Bildteile besser aus als natives Full HD, läuft jedoch etwas besser.
Das ist eine schöne Feststellung, die man nicht oft genug betonen kann. DLSS2.0 macht aus einer relativ schwachen Karte dann doch noch eine Karte, die Raytracing je nach Preset brauchbar nutzen kann.
 
Zuletzt bearbeitet:
Aber für die nicht Enthusiasten und Käufer einer Midrange Karte sind die Extreme Beispiele hier bei dem PCGH Test
dann gaaaanz wichtig und ausschlaggebend.
Wolfenstein RT+Texturstreaming extreme
Minecraft full RT
Aber da zählt es natürlich...beweist ja den Speichermangel.
Man darf sogar mit einer RTX 3070 ganz ohne RT spielen...auch wenn RTX dransteht :daumen:.
Es ist lediglich eine Veranschaulichung, ein versuchter Blick in die Zukunft wie der Autor es selbst beschreibt. Ich brauche keine Benchmarks oder Glaskugeln um zu wissen dass die 8GB nicht gut altern werden nach der heutigen Kenntnislage.

Maßstab für solche Systeme ist schlicht möglichst lange eine gute Leistung abzuliefern, ich begreife nicht was manche daran nicht verstehen wollen.

Auch das Argument das man nach 1-2 Jahren eine neue GPU hat trifft auf mich nicht zu, zwar verbaue ich im Main stets eine neue aber im HTPC war bis vor kurzem noch eine V56 verbaut und die wäre auch immer noch da drin wenn mir die 6800 nicht so gut gefallen hätte für den HTPC. Danach geht die GPU normalerweise ins eDock oder bei nem Bekannten in den Rechner, dem kann ich dann meist noch mit gutem Gewissen eine ordentliche GPU verbauen die immer noch gute Dienste leistet für genügsame Ansprüche. Das könnte eine 2060 mit 6GB z.B. heute nicht mehr erfüllen.
 
Eher lassen sich alle Mitglieder einer Religionssekte von ihrem absurden Glauben bekehren, als die Fanboys von Krüppelramkarten.
Deine Karte hat ja auch 8GB. Erzählst wohl deinen nicht so versierten Kumpels, die ist so schnell wie ne 3070. Die hat ja schließlich auch blos 8GB VRam.
CP GTX 1080.PNG

Auch das Argument das man nach 1-2 Jahren eine neue GPU hat trifft auf mich nicht zu,
Du baust nach deinen Erwartungen/Vorstellungen, was vollkommen in Ordnung ist.
Ich mach es eben anders und da nerven solche Labertaschen Sprüche wie wie oben gewaltig.
Leider kommt es dann, auch von meiner Seite aus, zum eigentlich sinnlosen Schlagabtausch mit den falschen Leuten.
So wie mit Dir :bier:.
 
Zuletzt bearbeitet:
Raytracing interessiert den normalen User abseits der Enthusiasten nicht die Bohne, es gibt keine kaufbare und zukunftsfähige RT Karte, weder gestern noch heute.
:rollen:

Jede Karte, die DLSS2.0 beherrscht ist schon mal per se relativ zukunftssicher - zumindest zukunftssicherer als BigNavi, denn bei denen kann man RT tatsächlich knicken. Turing kann DLSS2.0, Ampere kann es auch. Beide Generationen kann man schon länger kaufen, nur weil es jetzt ein Angebotsloch gibt, heißt das nicht, dass es keine lohnenden RT-Karten gibt.

Das Problem bei dir ist, dass du DLSS immer komplett ausblendest, weil du es kacke findest. Deiner Meinung nach müssen erst Karten entwickelt werden, die RT in nativer Auflösung stämmen können. AI-Upscaling ist aber die Zukunft und daher wird es dazu niemals kommen, außer man zockt in einigen Jahren die alten Spiele von vor 5 Jahren, etc.
 
Du baust nach deinen Erwartungen, was vollkommen in Ordnung ist.
Na dann sind wir uns doch einig. Ich kann eben nicht davon ausgehen dass eine unbedarfte Person sich alle zwei Jahre eine GPU kauft die er sich nicht mal traut selbst zu verbauen.

Wichtig ist da am Ende dass es stabil läuft und wenn einer mal jammert dann weil er Spikes hat und nicht weil RT_On sein System überfordert.
 
Ich habe viele Jahre lang die Auflösung angepasst (reduziert von 2160p auf 1800p) mit reshade aufgehübscht etc und fand es grafisch hübscher als nativ und hatte dabei deutlich mehr FPS als nativ. Man kann bei allen aktuellen GPUs dies noch immer tun und AMDs DLSS Konter kommt ja demnächst auch, verstehe nicht warum DLSS als der heilige Gral angesehen wird... Ich bin happy mit Big Navi, kann mehr als 500MHz oben drauf packen beim Core verglichen mit den Taktraten die CB genutzt hat in ihren Reviews, was will man mehr, gepaart mit saftigen 16GB VRAM :D
 
Das Problem bei dir ist, dass du DLSS immer komplett ausblendest, weil du es kacke findest.
Ich blende es aus weil es nicht breit verfügbar ist und es unklar ist wie sich das Entwickelt, sowohl technisch wie auch in der Verbreitung. Durch die Konsolen muss ich annehmen dass es keine große Rolle spielen wird abseits finanzierter Titel. Ich lege ein System nach heutigen Leistungsmaßstäben auf und hoffe nicht für die Zukunft dass man sich das zurecht modeln kann. Häufig spielen Leute auch wirklich nur ein oder zwei Spiele und das teils über Jahre, da bringt denen DLSS absolut gar nichts.

Ich verbaue in dem neuen Rechner morgen auch für den Übergang erstmal ne alte NV GPU, derzeit kann man niemanden was seriös anraten derzeit zu kaufen,
 
verstehe nicht warum DLSS als der heilige Gral angesehen wird...
Weil es die Performance um im Schnitt 60% verbessert und die Bildqualität im Gro gleich ist. Positive und negative Beispiele gleichen sich hier aus. Der eine sagt das Bild sei schlechter, der andere zeigt Screenshots, wo es besser aussieht. Am Ende ist es ein No-Brainer. Die Konsolenhersteller wären dämlich, wenn sie ein ähnliches Feature bei der Next-Gen nicht verwenden. Die Gratisperformance ermöglicht ja erst Raytracing. Ohne DLSS sind die meisten RT-Titel unspielbar, siehe Cyberpunk, etc.
AMDs DLSS Konter kommt ja demnächst auch
Ja mal gucken. So wie die das verzögern und nix durchsickern lassen, glaube ich das wird ne fette Enttäuschung. Es fehlt auch der AI-Ansatz. :ka: Bin aber hochgespannt auf die Qualitäts- und Performancevergleiche --> Hier muss man natürlich beides betrachten!
 
Und wie viele Games supporten DLSS 2.0+ und wie lange ist DLSS schon auf dem Markt?
Keine Ahnung ob das vollständig ist:
Ray tracing games you can play right now:

Amid Evil
Battlefield V
Bright Memory Infinite
Call Of Duty: Black Ops Cold War
Call of Duty: Modern Warfare (2019)
Control
Cyberpunk 2077
Crysis Remastered
Deliver Us The Moon
Dirt 5
Fortnite
Ghostrunner
Justice
Mechwarrior V: Mercenaries
Metro Exodus
Minecraft
Moonlight Blade
Observer: System Redux
Pumpkin Jack
Quake II RTX
Ring Of Elysium
Shadow of the Tomb Raider
Stay in the Light
The Medium
Watch Dogs Legion
Wolfenstein: Youngblood
World Of Warcraft: Shadowlands
Xuan-Yuan Sword VII

Ray tracing games on the way:

Atomic Heart
Boundary
Dying Light 2
Doom Eternal
Enlisted
Far Cry 6
FIST: Forged In Shadow Torch
Five Nights At Freddy's Security Breach
Godfall
Hitman 3
Justice Online
JX Online 3
Mortal Shell
Ready Or Not
Synced: Off-Planet
The Riftbreaker
The Witcher III: Complete Edition
Vampire: The Masquerade - Bloodlines 2

DLSS games you can play right now:

Amid Evil
Anthem
Battlefield V
Bright Memory
Call Of Duty: Black Ops Cold War
Control
Cyberpunk 2077
Death Stranding
Deliver Us The Moon
F1 2020
Final Fantasy XV
Fortnite
Ghostrunner
Iron Conflict
Justice
Marvel's Avengers
Mechwarrior V: Mercenaries
Metro Exodus
Minecraft
Monster Hunter: World
Mount & Blade II Bannerlord
Nioh 2: The Complete Edition
Shadow of the Tomb Raider
The Medium
Watch Dogs Legion
Wolfenstein Youngblood

DLSS games on the way:

Atomic Heart
Boundary
Call Of Duty: Warzone
Edge Of Eternity
FIST: Forged In Shadow Torch
Five Nights At Freddy's Security Breach
JX3
Mortal Shell
Outriders
Ready Or Not (early access launch)
Scavengers
Vampire: The Masquerade - Bloodlines 2
Xuan-Yuan Sword VII

Es sind halt die neusten (AAA-)Spiele. Weitere neue folgen ständig. Außerdem unterstützt die Unreal Engine 4 jetzt DLSS2.1 und das kann auch in sehr viele VR-Spiele NACHTRÄGLICH hereingepatcht werden, sprich für VR ist es ebenfalls ein Gamechanger.

 
Sind nicht grad viel seit dem DLSS Debut.
Dahell ich sage net DLSS ist schrott, müsst net direkt auf defmode gehen, hoffe das setzt sich in allen Games durch und auch der AMD Version wünsche ich das, nur seit Jahren hört man von den Leuten als sei es der heilige Gral und wenn man dann schaut, wie wenige Games das überhaupt supporten und das trotz Nvidias Einfluss auf den Markt, dann ist es mMn teilweise eine Enttäuschung. Wie gesagt Auflösung anpassen und mit reshade etc aufpolieren kann man mit allen Karten tun als Alternative bei Karten die kein DLSS supporten.
 
Sind nicht grad viel seit dem DLSS Debut.
Ich bin kein Spieleentwickler, aber ich würde mal sagen, nach Veröffentlichung einer Technologie braucht es auch ein paar Jahre bis es Einzug in die meisten Titel findet. Jetzt sind zum einen die DLSS-fähigen Karten, als auch die technologischen Werkzeuge länger verfügbar (wie gesagt auch Unreal Engine 4, die komplett offen mit DLSS2.1 klarkommt). Es wird demnächst viele DLSS-Titel regnen, gerade für VR, weil es einfach kostenlos die Performance erheblich boostet oder auf Wunsch auch die Optik verbessert (neuer DLSS2.1 Ultra-Quality-Mode).
 
HUB hatte es ja getestet ggü DLSS 1.0 ist die Methode von der ich schrieb mindestens auf Augenhöhe und die FPS relativ gleich. Ich hoffe, dass da endlich mal mehr Games kommen, seit Jahren hört man, jetzt kommt dies und das, aber wo, man kann die Games fast mit einer Hand abzählen übertrieben ausgedrückt.
 
Und genau hier fehlt der visionäre, vorausschauende Blick (ist nicht böse gemeint, soll nur aufzeigen, was ich meine): Spiele entwickeln sich weiter, nicht zurück, was wir alle wollen. Was passiert also künftig bei besserer Grafik = mehr Daten? Aus diesem Grund schauen wir doch für euch ständig über die Kante der Gegenwart, unterstützt durch "grenzgängerische" Spiele. Das bedeutet nicht, dass diese Blicke nach vorn mit Sicherheit die Zukunft voraussagen, sie skizzieren aber ein mögliches Szenario.

MfG
Raff

Den habe ich durchaus, mir ist klar, dass sich das in Zukunft ziemlich sicher ändern wird, nur wann?
Schaut man zurück sieht man, dass eine 390X heute besser als der NVIDIA Pedant abschneidet.
Nur wie sieht es mit der Leistung selbst aus? Die ist im Vergleich mit aktuell verbreiteten Karten mittlerweile so niedrig, dass es schon fraglich ist ob ein neues Game selbst mit sehr niedrigen Einstellungen noch passabel läuft.
Im Endeffekt stimmt es natürlich dass man VRAM nicht ersetzen kann, nur GPU Leistung genauso wenig und lieber habe ich 4 Jahre lange höhere FPS, als nach 4 Jahren mehr FPS die dann nicht mehr für meine Ansprüche genügen.
 
Die Grafik vonn CP ist wie das Spiel sowieso völlig overhyped. Vor allem Tagsüber sieht das Spiel dermaßen schlicht aus. Auffällig auch wie sehr dort nur mit Kantigen Strukturen gearbeitet wird, das wirkt manchmal wie Minecraft zusammengebaut aus Klötzchen. Die Texturqualität ist teils auch einfach manchmal 10 Jahre zurück, in manchen Szenen habe ich mich an HalfLife erinnert gefühlt.

Mal ein kleiner Abriss zum Vergleich:
Cyberschrott
Screenshot (493).jpg

Godfall
Screenshot (476).jpg

WatchDogs
Screenshot (317).jpg
 
Oooh waaaaas? Werhätte ahnen können, dass mit der Zeit der Speicherbedarf steigt? 8GB sind doch erst seit, na sagen wir mal 4 Jahren Standard, da kann man echt nicht mit rechnen.

Ich freue mich über den Test, da sieht man wirklich wo die Reise hingeht und dass PCGH alles richtig gemacht hat, als sie teilweise die Zukunftsfähigkeit von 8GB Karten anzweifeln.

Was mich mehr freuen würde wäre ein Ende von (aggressiven) Streamingsystemen. Ich möchte selbst entscheiden ob mir die Sichtweite, das höhere LoD die 10fps weniger wert sind.
 
Es ist letztendlich auch abhängig davon wie lange man seine Karte behält, bei mehr als 5 Jahren macht es sicher Sinn mehr Vram zu haben. Ich wechsle meine Karte in 2-3 Jahren (Lovelace), daher werden mir die 10GB für UWQHD wohl locker ausreichen.

Ich kann AMD Grafikkarten aber aufgrund der fehlenden DLSS Alternative derzeit niemanden empfehlen. Selbst eine RTX 3070 schlägt die 6900XT dank DLSS sehr oft, und die RT Leistung ist einfach ziemlich niedrig im Vergleich zu Nvidia.
RT und/oder DLSS wird aber fast jedes Spiel unterstützen, und ich würde keine GPU kaufen die das alles nicht oder kaum kann.
 
Sehr guter Test. Die meisten greifen die Informationen direkt für die Grafikkarten auf die Raff in diesem Test benutzt hat, was natürlich nicht falsch ist. Ich betrachte den Test aber eher als Sinnbild und als bigger Picture warum man auf mehr Speicher setzen sollte wenn man eine "zukunftssichere" Graka kauft. Klar, wenn Ihr sowieso jedes Jahr eine neue Karte holt ist das nicht so schlimm und euch betrifft das nicht wirklich. Aber wir werden wahrscheinlich in den nächsten Jahren sehen wie schlecht die RTX 3080 10GB im Vergleich zur RX 6800/6800XT 16GB altert.

Ich bin von der GTX 1000 Reihe (1070) auf die RTX 3000 Reihe umgestiegen. Hatte erst ne 3080 aber war mir unsicher wegen den 10GB, ich spiele in 4K. Habe die jetzt durch eine 3090 ersetzt und bin zufrieden (hab die 3080 aber auch noch und kann somit gut vergleichen). Es geht einfach nicht mit ner High End Karte ne Warnung in zb. RDR2 zu bekommen das man nicht genug VRAM für maxed out Settings in 4K hat. Cyberpunk war in 4K auch nicht wirklich spielbar auf der 3080. Aber selbst ältere Spiele sind problematisch in 8K auf der 3080, von gar nicht laufen bis Ruckelei ohne Ende war alles dabei. Mit der 3090 kein Problem. Ne gutes Beispiel warum die 10GB ein Problem werden können ist auch der 3DMark DLSS Feature Test in 8K. Ergebnis ca. 0,4-1 FPS auf der 3080 und 8-16 FPS auf der 3090. Da die Core Performance der 3080 und 3090 so nah beieinander liegen sind 10GB eine deutliche Verkrüppelung der Karte und das zeigt sich auch in diesen Tests. Es geht hier nicht darum das ihr niemlas in 8K spielen werdet oder sonstiges, diese Tests zeigen aber ganz deutlich das die Core Performance der 3080 stark genug ist und nur durch den Speicher ausgebremst wird! Man kann diese Erkenntnisse quasi auf kommende Next Gen Spiele in 4K übertragen.

Nochmal zusammgefasst, momentan sind das alles Extrembeispiele die aber mit den neuen Spielen in den nächsten Jahren Alltag werden könnten. Es ist einfach Fakt das 10GB auf der 3080 zu wenig sind da die Karte von der Core Performance stark genug ist und dann teilweise durch die Speichergröße limitiert wird. Bei der 3060 machen 12GB natürlich nicht wirklich Sinn, da die Core Performance sowieso nicht die Beste ist und die Karte oft dadurch limitiert wird und nicht vom Speicher. Der Grund warum Nvidia mit der RTX 3000der Reihe so ein Speicher hin und her veranstaltet ist völlig egal (Speicherbandbreite, PCB Aufbau ->dadurch bedingte Bestückung), momentan ist tatsächlich nur die 3090 und die 3060 (eingeschränkt da Core selbst limitiert) sinnvoll bestückt.
 
Die Grafik vonn CP ist wie das Spiel sowieso völlig overhyped. Vor allem Tagsüber sieht das Spiel dermaßen schlicht aus. Auffällig auch wie sehr dort nur mit Kantigen Strukturen gearbeitet wird, das wirkt manchmal wie Minecraft zusammengebaut aus Klötzchen. Die Texturqualität ist teils auch einfach manchmal 10 Jahre zurück, in manchen Szenen habe ich mich an HalfLife erinnert gefühlt.

Mal ein kleiner Abriss zum Vergleich:
Cyberschrott
Anhang anzeigen 1355874
Krass sieht das Spiel schlecht aus ohne Raytracing Psycho. :haha:

Cyberpunk2077_2021_02_27_17_49_13_666.jpg

vs deins:

Screenshot (493).jpg

 
Zuletzt bearbeitet:
Zurück