Geforce RTX 3060 vs. RTX 3060 Ti vs. RTX 2060: Was bringen 12 GiByte wirklich?

Kannst Du ja gegenrechnen. Bis auf kleine Abweichungen ist das Verhältnis eigentlich immer gleich.

Nur ein paar Beispiele:

4864 / 256bit * 192bit = 3648 Cudas (3060Ti->3060)

4864 / 8GB * 6GB = 3648 Cudas (3060Ti->3060)

152 /8GB*6GB = 114 Tensors (3060Ti -> 3060)

38 / 8GB * 6GB = 28,5 RT-Cores (3060Ti->3060)

Komisch ist aber, dass das Verhältnis aufzeigen würde, dass die 3060Ti weniger in die GA104-Riege passt, sondern theoretisch eher in die GA106. Die 3070 passt wiederum mit 3080 und 3090 überein. Entweder Nvidia hat wirklich eine Möglichkeit gefunden die Einheiten von einander zu trennen oder die 3060Ti ist falsch eingeordnet worden. Ggf. ist auch die 3070 falsch eingeordnet und gehört doch noch zu den GA102.
 
Weil es von der notwendigen Bandbreite her Sinn macht. Nur hat NV halt "vergessen" dass die Kapazität auch hinkommen sollte.
 
Das Schlusswort ist schön neutral gehalten. ;)
Interessanter Artikel wie ich finde.
Nvidia schaffts wirklich das komplette Portfolio irgendwie uninteressant zu machen. Die 3060ti, 3070 und 3080 leiden am Speichermangel, die 3090 ist zu teuer und die 3060 hat zu wenig Leistung und eine (vergleichsweise) geringe Effizienz. Und bei AMD wäre vermutlich die 6700XT die eierlegende Wollmilchsau, aber da fehlts dann an Zukunftssicherer Raytracing Leistung...
Genau so siehts aus. Du hast noch vergessen das bei der 6800XT / 6900XT viel Speicher da ist aber dafür die Bandbreite zu schlecht. Momentan gibt es daher für mich nirgends einen wirklichen Preis- Leistungskönig.
Komisch, die selben die keinen Unterschied zu Nativ erkennen gegenüber DLSS sehen auch keinerlei Unterschied bei der Texturqualität. Frametimes und Mins brauch auch keiner.
Ich bekomme Kopfschmerzen bei 2k Auflösung und DLSS (auch auf Qualität) zumindest in Cyberpunk. Allerdings ist es in Cyberpunk wohl auch nicht sehr gut umgesetzt. Aber dort ist es für mich keine Option. Hatte es mit einer RTX 3080 getestet.
 
Zuletzt bearbeitet:
Genau so siehts aus. Du hast noch vergessen das bei der 6800XT / 6900XT viel Speicher da ist aber dafür die Bandbreite zu schlecht. Momentan gibt es daher für mich nirgends einen wirklichen Preis- Leistungskönig.
Die Bandbreite bei den AMD Karten sieht zwar auf dem Papier niedrig aus, ist aber dank des Infinity Caches kein Problem, sieht man ja an der Performance. Im Gegenteil, das ermöglicht AMD erst die guten Speichergrößen, da sie nicht durch die Interfacegröße beschränkt sind wie Nvidia.

Wenn man sich anguckt welchen Material/Strom Aufwand Nvidia bei der 3080 in den Grafikspeicher stecken muss um mit AMDs 256bit mithalten zu können und trotzdem bei der Speichergröße hinten liegt ist mein Fazit das der Infinity Cache die interessanteste Hardware-Neuerung dieser Generation ist. AMD hat vorher immer mehr Bandbreite als Nvidia benötigt, jetzt ists auf einmal weniger.
 
Netter Artikel, danke für die Extrem-Tests. ^^ Am Ende ist es wie beschrieben erstmal nur ein mögliches Zukunfts - Szenario. Aber kann man als Überlegung, wenn man plant die Grafikkarte länger zu behalten und nicht zur nächsten Gen wieder aufzurüsten, mit einfließen lassen. Man wird sehen, ob der Bedarf in den nächsten Jahren ebenfalls nochmal so explodieren wird, wie am Anfang der letzten Gen (2014/15).
 
Die Performance bricht bei höheren Auflösungen massiv ein durch die zu geringe Bandbreite.
Das Nvidia da schwächer einbricht liegt aber genauso wahrscheinlich an den extrem vielen Shadern die bei kleineren Auflösungen nicht wirklich ausgelastet werden können. Ist schwer das nur auf die Bandbreite zu schieben.
 
Ich bekomme Kopfschmerzen bei 2k Auflösung und DLSS (auch auf Qualität) zumindest in Cyberpunk. Allerdings ist es in Cyberpunk wohl auch nicht sehr gut umgesetzt. Aber dort ist es für mich keine Option. Hatte es mit einer RTX 3080 getestet.
Mit dem Inspector LOD- Bias richtig eingestellt? Eventuell im Treiber noch nachgeschärft?
Warum auch immer ist bei nativ TAA ein Schärfefilter vorhanden, der bei Nutzung von DLSS deaktiviert wird.
Es liegt also nicht perse an DLSS, sondern an der schlampigen Umsetzung.
 
Mit meiner GTX 670 2GB muß ich bei vielen neueren Titeln auf niedrig runter gehen. Einige, wenige, Spiele packt die Karte dafür auch mit 4K. Wie gesagt, es kommt auf dás jeweilige Spiel an.
Viele Leute betrachten das Problem von "oben", also wenn es noch gar nicht existiert oder in Szenarien, wo die Rechenleistung ganz einfach nicht reicht. Wenn man gezwungen wird, mit relativ alter Hardware aktuellere Titel zu spielen, wird man schnell feststellen, dass die maßgebliche und fast unumgehbare Einschränkung der Grafikspeicher ist. Die 670-770 Karten hätten noch genügend Rohleistung für die meisten Spiele, aber Spiele wie CoD Warzone oder The Division zwei, laufen mit 2GB Vram einfach unrund. Da hilft auch 1280x720 nicht.
Außerdem gibt es bessere Texturen "leistungsfrei" und gleichzeitig verschlechtern niedrig aufgelöste Texturen die Optik deutlich.

Du machst ein Denkfehler.
Du redest davon, das du bei 2GB runterschrauben musst. Aber wenn du 720p spielst, dafür aber mit 4k Texturen, welche dir den VRAM vollballern, dann natürlich passt das nicht mehr. Es gibt auch Spiele die keine kleineren Texturen mehr haben, die sind dann nicht mehr gut spielbar. Es gibt wie du erwähntest auch gegenteilige Spiele.
Antwort, s.o..

Zweiter Denkfehler: Warum sollte der VRAM verbraucht stark steigen? Grafikspeicher-Verbrauch wächst nicht einfach so unendlich in die Höhe.
Für den Verbrauch gibt es bestimmte Faktoren, aber diese Faktoren ändern sich aktuell noch kaum.
Das nächste wäre sowas wie 8k Texturen...aber dann würde ein Spiel 250GB+ einnehmen und 4 mal soviel Arbeit. Davor drücken sich noch die Entwickler weil, ohne das 8k Mainstram ist, es sich wenig lohnt.
8k Auflösung ist ein anderer Faktor, welcher schon Experimentell da ist. Aber wegen fehlender Leistung auf einer 3080 keinen Sinn macht.
Möglicherweise könnte man auch eine Transition des genutzten Speichers von RAM zum VRAM erleben, dann bräuchte man aber mehr als 16GB VRAM :P
Ich wüsste jetzt nicht was neben Raytracing und dem oben erwähnten zusätzlich mehr VRAM verbraucht...HDR vielleicht? Ist aber beides schon da.
1. Texturen liegen normalerweise in höherer Auflösung vor, als sie im Spiel verwendet werden. 2. Verbrauchen Assets mit zunehmender Komplexität auch mehr Speicher. 3. HDR und RT benötigen mehr Speicher, weil beide techniken eben grundlegend mehr Informationen/ Daten benötigen um zu funktionieren.


Und ja 10GB ist nicht genug, zumindest nicht für 4k. Für mich ist 4k aber eh noch 1-2 Generationen entfernt, da ich neben mind 120fps auch einen 32" 4k OLED (oder vergleichbares. TN/VA/IPS bieten es nicht) haben will, bevor ich upgrade.
Selbst stabil 60Fps in allen Spielen ist noch Utopie...zumindest mit allem auf MAX. Es gibt immer einen limitierenden Faktor.
Was meinste wie habe ich Cyberpunk mit einer 3080 gespielt? 35-70fps...aber zumindest flüssig auf 1440p mit RT-Max und DLSS Quality.

Mit einem 27" 4k Monitor ist man sehr nahe an der Grenze der Augen. 8k Spiele wären schon ein Stück über diese Grenze hinaus.

Das alles ist meine Meinung. Sollte etwas falsch sein... naja man lernt aus Fehlern, aber nur wenn man die richtige Antwort bekommt XD
Das sehe ich ähnlich, obwohl ich den von dir beschriebenen Schritt bereits vollzogen habe. Das Mehr an Pixeln ist bei modernen Spielen mehr wert als die letzte Detailstufe, mMn.
 
Ixh konnte
Früher hatte ich einen 1280x1024 Monitor und 2GB VRAM, damals gab es keine Probleme.

..................

Und ja 10GB ist nicht genug, zumindest nicht für 4k.

2GB VRAM, das habe ich in 2880x1620 mit Downsampling genutzt. Damals lief Metro Last Light damit sehr gut auf meinem Full-HD und der genutzen GTX 670. Als ich in 1280x1024 lief alles mit 256 MB butterweich (z.B. auf der Geforce 6600GT).

10GB reichen mir als UHD-Gamer bisher. Ich spiele einige Games in UHD max. Details und nur bei den wenigsten muss ich die Details runterstellen. Meistens reicht es auf Kantenglättung zu verzichten um die 100 Fps zu knacken. Ausnahme sind die RTX-Spiele, CP 2077 in UHD Ultra läuft halt nur mit DLSS Performance um spürbar über 70 Fps zu erreichen. Speicher ist dann bei ~ 7,5GB.

Achso...es ist Speicher-Gebrauch nicht -Verbrauch. Oder ist der Speicher dann weg?....:-P
 
mal ehrlich - 3090 und nächstes Jahr ist vollkommen irrelevant was Speicherbedarf angeht. Ich möchte spielen aber kann mir nicht leisten eine 3090 zu kaufen sollte auch nicht anfangen zu jammern. Hersteller verlangen immer Geld für die Leistung und das wird sich seit der Geforce3 nicht mehr ändern, zumindest nicht was preis angeht.
 
Nein, daß Probleim ist einfach, ihr geht immer davon aus was Ihr machen würdet. Andere haben vielleicht ein anderes Kaufverhalten. Was soll ich mit ener 5 Jahre alten GPU. Die Leistung wäre mir viel zu gering. Einzig die GTX 1080Ti hat jetzt mal 3 Jahre gehalten. Trotzdem habe ich zwischendurch drei andere Karten gekauft. Jetzt werkeln eben eine RTX 3070 und eine RX 6800 in den PCs. Wer weiß schon sicher was in 1-2 Jahren ist.
Wenn jemand längerfristig denkt/kauft...bitte jeder wie er will.
Auch zu deinem Post davor...
Die 5700XT wurde einfach empfohlen weil sie günstiger als der Vergleich von Nvidia war...
Ich habe aber gleichzeitig immer gesagt das die 1080TI > 5700XT > 2070 ist.

die 1080TI ist ja quasi die 3060 von jetzt.. +/- etwas Differenz in der GPU Leistung

Und ja die 50-100€ Aufpreis zur 2070 haben auch mehr Leistung gebracht, aber beide Karten waren nicht wirklich Top da greift man dann doch ehr zu dem Übel was am wenigsten kostet...

Gleiche Schema hab ich auch jetzt angewendet:

Brauche ich mehr als 8GB VRAM Ja/Nein= Ja
Reichen mir 10GB bei der Leistung einer 3080 Ja/Nein = Nein
Müssen schon jetzt 24GB sein? Ja/Nein = Nein


Was erfüllt das Schema und kostet am wenigsten bei halbwegs guter Raytracing Leistung über Turing?
 
Auch zu deinem Post davor...
Die 5700XT wurde einfach empfohlen weil sie günstiger als der Vergleich von Nvidia war...
Ich habe aber gleichzeitig immer gesagt das die 1080TI > 5700XT > 2070 ist.

Naja, ganz ehrlich die 2070 war die wesentlich bessere Wahl. DLSS ist einfach ein Game Changer.
Ganz unabhängig von RT.
8 GB VRAM sind genug solange man unter 4k bleibt.
 
Naja, ganz ehrlich die 2070 war die wesentlich bessere Wahl. DLSS ist einfach ein Game Changer.
Ganz unabhängig von RT.
8 GB VRAM sind genug solange man unter 4k bleibt.
Sehe ich nicht so zeigt auch dieser Test hier das WQHD schon ordentlich zu langen kann, macht automatisch jede Auflösung zwischen WQHD und 4k kritisch...

Dazu war die erste Version von DLSS auch nicht wirklich... also da haste schon so einige Fehler im Bild gesehen, ein paar sind jetzt noch da bei DLSS 2.0 aber es ist deutlich besser geworden. Version 1.0 ist echt :ugly:
 
(...)
8 GB VRAM sind genug solange man unter 4k bleibt.
Nein. Nicht immer, deshalb Nein.

Der Artikel unter den du hier kommentiert belegt das auch.

Und den nächsten Satz muss ich mir mal als Template speichern:
In C:S verfüge ich über einige Spielstände, die in FHD bereits die 8 GB voll belegen.

Andere Spiele aber ebenso, in WQHD sogar einige mehr.

Und bevor mir jemand sagt: "Das sind ja Ausnahmen! "
1. Nicht für mich. Extrem komplexe, riesige 4X und Aufbauspiele sind meine tägliche Kost.
2. Ausnahmen sind Gegenbeispiele. Man kann keine absoluten Aussagen treffen wie "unter 4K reichts", dann aber Belege für das Gegenteil als Ausnahmen abtun. Dann muss man sich eben mal mit einschränkenden Formulierungen abfinden wie:
Für die Mehrheit reichen zur Zeit 8GB VRAMunterhalb der 4K Auflösung aus. Zu Einschränkungen bei einigen aktuellen wie insbesondere künftigen Spielen kann es aber kommen.
Dem kann ich dann auch problemlos zustimmen.
 
Zuletzt bearbeitet:
Zurück