• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3060 vs. RTX 3060 Ti vs. RTX 2060: Was bringen 12 GiByte wirklich?

Cohen

Freizeitschrauber(in)
alle Entwicklungen nehmen derzeit noch Rücksicht auf die vorherige Konsolengeneration. In den kommenden Monaten wird sich das sukzessive ändern, mit neuen Grafik-Sphären und entsprechenden Anforderungen.

Mit welchen Spielen können wir denn in den nächsten Monaten am PC rechnen, die keine Rücksicht auf die vorherige Konsolengeneration nehmen?

Returnal und R&C Rift Apart werden von einer 16 - 24 GB-Grafikkarte ja voraussichtlich nicht profitieren.
Deathloop sieht mit seinem leichten Comic-Look jetzt auch nicht sonderlich grafikspeicherfordernd aus.
Far Cry 6 und Resident Evil VIII erscheinen auch für PS4 + Xbox One S.

Erscheint sonst noch ein grafisch aufwendiger AAA-Titel im nächsten halben Jahr?
 

Gurdi

Kokü-Junkie (m/w)
Krass sieht das Spiel schlecht aus ohne Raytracing Psycho. :haha:

Anhang anzeigen 1355892

vs deins:

Anhang anzeigen 1355894

Du hast mal wieder nicht verstanden worum es geht offenbar. Es geht um Texturqualität und Vram, immer noch. Die wird sich wohl kaum ändern mit deinem RTX Psycho gefasel. Meine Bilder sind immer überbelichtet wegen HDR du Profi. Wie du jetzt schon wieder auf RT und DLSS kommst ist mir schleierhaft.
Screenshot (486).jpg


Das hier ist einfach Mäh, von nem Screenshot aus der Nähe von manchen Texturen habe ich ja schon verzichtet da wirds noch gruseliger. Abseits der Neonbanner und der (Haup) Characktere ist das einfach sehr schwach in dem Spiel.
 

Pu244

Lötkolbengott/-göttin
An den Test wunder mich nicht viel. Ich wusse bereits vorher wie man den VRAM grob ausrechnen kann.
720p =2GB
1080p=2-6GB
1440p=4-8GB
4k=8GB-24GB
Dazu kommen aber noch mind 2GB VRAM für Raytracing obendrauf.
Also 6GB KANN auch unter 1080p nicht ausreichen mit Raytracing.
8GB ist für 1440p ohne RT oder 1080p mit RT ausreichend.
10GB ist für 1440p mit RT ausreichend.
Für 4k ist nur die 3090 (oder AMD) ausreichend im Extremfall, allerdings reicht die Leistung immernoch nicht für hohe FPS aus in grafisch starken Titeln.
Wie ging die Rechnung? Etwa 2,5GB pro Mille Pixel oder so...

Tut mir leid, aber deine Tabelle ist einfach nur Blödsinn. Das hängt stark vom Spiel ab. Außerdem ist es mit Nichten so, dass ein Spiel, das auf 1440p 8GB benötigt, sich bei 720p mit 2GB zufrieden gibt. da kann man glücklich sein, wenn es mit etwas über 5GB läuft.

Mit meiner GTX 670 2GB muß ich bei vielen neueren Titeln auf niedrig runter gehen. Einige, wenige, Spiele packt die Karte dafür auch mit 4K. Wie gesagt, es kommt auf dás jeweilige Spiel an.

Wer sich jetzt, bei einem Neukauf, mit 8 oder 10GB zufrieden gibt, der sollte eben wissen, dass er wohl bald die Details runterschrauben muß, auch mit 12GB ist man nicht vollkommen sicher, wenn verstärkt Karten mit 16GB oder mehr in den Handel kommen sollten (z.B. die RTX 4000er Serie).
 

Olstyle

Moderator
Teammitglied
Man muss ja noch nicht einmal neue Spiele nehmen. Gerade mal spaßeshalber wieder FFXV angeschmissen (das ist ein paar Minuten nach dem Laden also bei weitem noch kein Streaming maximum)
FFXV.jpg
von Resolution Scale brauchen wir gar nicht erst zu reden
FFXVresScale.jpg
 

Gurdi

Kokü-Junkie (m/w)
Ja FFXV war wirklich ein Ram Fresser. Aber auch da gab es ja immer Leute die meinten das man dort mit mehr Vram nichts anfangen könnte.
 

Daggy82

PC-Selbstbauer(in)
Man muss ja noch nicht einmal neue Spiele nehmen. Gerade mal spaßeshalber wieder FFXV angeschmissen (das ist ein paar Minuten nach dem Laden also bei weitem noch kein Streaming maximum)
Anhang anzeigen 1355939
von Resolution Scale brauchen wir gar nicht erst zu reden
Anhang anzeigen 1355940
Um Gottes willen, mach doch nicht den Leuten ihre Vorstellung kaputt das 8 und 10 GB Karten ja noch soooooo lange reichen.
Da gibt es mittlerweile und zukünftig noch eine ganze Menge mehr Spiele die enorm von den 12GB Ram der 3060 profitieren was die smoothness angeht.
Ich finde die 3060 eine rundherum gelungene Karte und in meinem Bekanntenkreis scharren die Leute die noch 1060er, 1070/80er oder 2060er z. B. besitzen schon mit den Hufen eine 30600 12GB oder evtl. eine RX 6700XT 12GB zu kaufen.
Ich versuche ja immer noch krampfhaft ne RX 6800XT zu bekommen, ich würde aber auch erstmal ne 6700XT kaufen wenn den einigermaßen verfügbar.
Wie meine Kumpels und ich sagen, unter 12GB wird nix gekauft in 2021 und wenn es halt noch bissl dauert nich schlimm, so langsam kommt eh wieder das Motorrad und Cabrio Wetter und das halten wir schon locker aus.
Ich selbst hab ne Übergangs RX 580 drin und hebe mir bewusst das ein oder andere Spiel auf was ich nicht kaufen werde bis ne neue Karte drin is, alles andere stemmt Sie überraschen gut bis jetzt.
 

Olstyle

Moderator
Teammitglied
Ja FFXV war wirklich ein Ram Fresser. Aber auch da gab es ja immer Leute die meinten das man dort mit mehr Vram nichts anfangen könnte.
Es kombiniert am PC halt Modelle mit z.T. eher wenigen Polygonen mit z.T. schon fast übertrieben großen Texturen.
Ich kann jedenfalls sagen mit 980, 16GB RAM und HDD war es richtig matschig, mit 1080, 16GB RAM und SSD bei 75% mit ein paar weiteren Reduzierungen gut spielbar und jetzt wo ich die 2080Ti und 32GB RAM drin habe fühlt sich UHD@Max halbwegs ok an.

Man darf sicher darüber streiten ob die 3060 gleich 12GB braucht (aber andere Speicherchips wären halt direkt 6GB...), aber das was sich dann zwischen der und der 3090 abspielt ist schon eher schade.
 

deady1000

Volt-Modder(in)

Gurdi

Kokü-Junkie (m/w)
Naja Cyberschrott bezieht sich ja auf die Bugs in dem Game und davon hat es immer noch genug.
Die Story ist dafür großartig. Trotzdem sehen manche Stellen im Spiel einfach unterirdisch aus, mit mehr Vram Bedarf hätte man sich das sparen können und müsste nicht so rum knausern,darum ging es eigentlich.
 

Gurdi

Kokü-Junkie (m/w)
Spätestens bei 9GB zieht er eigentlich die Reißleine in QHD, dafür muss der dann auch auch schon ordentlich schaufeln, ich kann mir nur schwer vorstellen das 8GB in dem Game sauber laufen.

Wobei die Psycoreflexionen schon krank Leistung fressen. Das zieht mir 100Fps auf 70 runter....
 

theGucky

PC-Selbstbauer(in)
Tut mir leid, aber deine Tabelle ist einfach nur Blödsinn. Das hängt stark vom Spiel ab. Außerdem ist es mit Nichten so, dass ein Spiel, das auf 1440p 8GB benötigt, sich bei 720p mit 2GB zufrieden gibt. da kann man glücklich sein, wenn es mit etwas über 5GB läuft.

Mit meiner GTX 670 2GB muß ich bei vielen neueren Titeln auf niedrig runter gehen. Einige, wenige, Spiele packt die Karte dafür auch mit 4K. Wie gesagt, es kommt auf dás jeweilige Spiel an.

Wer sich jetzt, bei einem Neukauf, mit 8 oder 10GB zufrieden gibt, der sollte eben wissen, dass er wohl bald die Details runterschrauben muß, auch mit 12GB ist man nicht vollkommen sicher, wenn verstärkt Karten mit 16GB oder mehr in den Handel kommen sollten (z.B. die RTX 4000er Serie).
Du machst ein Denkfehler.
Du redest davon, das du bei 2GB runterschrauben musst. Aber wenn du 720p spielst, dafür aber mit 4k Texturen, welche dir den VRAM vollballern, dann natürlich passt das nicht mehr. Es gibt auch Spiele die keine kleineren Texturen mehr haben, die sind dann nicht mehr gut spielbar. Es gibt wie du erwähntest auch gegenteilige Spiele.
Früher hatte ich einen 1280x1024 Monitor und 2GB VRAM, damals gab es keine Probleme.

Zweiter Denkfehler: Warum sollte der VRAM verbraucht stark steigen? Grafikspeicher-Verbrauch wächst nicht einfach so unendlich in die Höhe.
Für den Verbrauch gibt es bestimmte Faktoren, aber diese Faktoren ändern sich aktuell noch kaum.
Das nächste wäre sowas wie 8k Texturen...aber dann würde ein Spiel 250GB+ einnehmen und 4 mal soviel Arbeit. Davor drücken sich noch die Entwickler weil, ohne das 8k Mainstram ist, es sich wenig lohnt.
8k Auflösung ist ein anderer Faktor, welcher schon Experimentell da ist. Aber wegen fehlender Leistung auf einer 3080 keinen Sinn macht.
Möglicherweise könnte man auch eine Transition des genutzten Speichers von RAM zum VRAM erleben, dann bräuchte man aber mehr als 16GB VRAM :P
Ich wüsste jetzt nicht was neben Raytracing und dem oben erwähnten zusätzlich mehr VRAM verbraucht...HDR vielleicht? Ist aber beides schon da.

Und ja 10GB ist nicht genug, zumindest nicht für 4k. Für mich ist 4k aber eh noch 1-2 Generationen entfernt, da ich neben mind 120fps auch einen 32" 4k OLED (oder vergleichbares. TN/VA/IPS bieten es nicht) haben will, bevor ich upgrade.
Selbst stabil 60Fps in allen Spielen ist noch Utopie...zumindest mit allem auf MAX. Es gibt immer einen limitierenden Faktor.
Was meinste wie habe ich Cyberpunk mit einer 3080 gespielt? 35-70fps...aber zumindest flüssig auf 1440p mit RT-Max und DLSS Quality.

Mit einem 27" 4k Monitor ist man sehr nahe an der Grenze der Augen. 8k Spiele wären schon ein Stück über diese Grenze hinaus.

Das alles ist meine Meinung. Sollte etwas falsch sein... naja man lernt aus Fehlern, aber nur wenn man die richtige Antwort bekommt XD
 

plusminus

BIOS-Overclocker(in)
Und bezogen auf die 12 Gb der Nvidia RTX 3060 hat es Amd vor nicht einnmal 1Jahr noch geschafft , dem einen oder anderen Fan tasächlich eine Amd RX 5600 XT mit 6GB für ca. 335,- Euro zu verkaufen :lol:

Und das obwohl es die viel schnellere RX 5700 mit 8GB für ca. 10 -20 Euro mehr schon gab :devil:

Sicher kann man auch mit 6GB noch Zocken , aber richtig Freude fürs Auge macht das schon jetzt und zukünftig nicht mehr :D
 

sethdiabolos

Volt-Modder(in)
Das bestätigt das eine 3060ti mit 12Gb mehr Sinn ergeben hätte und das bei der 3000er Serie nichts so richtig passt.
Doch lieber auf die 4000er warten oder später eine günstige 3090 schiesen.

Eine 3060Ti mit 12GB hast Du doch, aber sie nennt sich nur RTX 3060. Man kann nicht einfach den Speicher auf 12 GB aufbohren ohne dadurch gleichzeitig das das Speicherinterface, sie CUDA-Cores, RT-Cores und Tensor-Cores zu reduzieren. Mit der 3060Ti und 16GB hätten sie die 3080 ad absurdum geführt, 20GB konnten sie in der Zeit bei der 3080 nicht verbauen außer sie hätten die Karte doppelseitig bestückt und zeitgleich hätten sie die 3090 kannibalisiert. Nvidia hatte einfach keine Chance gehabt. OK, sie hätten die 3090 gleich mit 48 GB bauen können, aber dann hätte sie vermutlich mehr als 3000€ UVP gekostet. Hätte den Leuten dann vermutlich auch nicht gepasst.
 

Olstyle

Moderator
Teammitglied
Wenn ich bei Raffs Test richtig aufgepasst habe ist bei der Ampere Architektur die Größe des Speicherinterface nicht mehr hart an die ALUs gekoppelt.
 

sethdiabolos

Volt-Modder(in)
Kannst Du ja gegenrechnen. Bis auf kleine Abweichungen ist das Verhältnis eigentlich immer gleich.

Nur ein paar Beispiele:

4864 / 256bit * 192bit = 3648 Cudas (3060Ti->3060)

4864 / 8GB * 6GB = 3648 Cudas (3060Ti->3060)

152 /8GB*6GB = 114 Tensors (3060Ti -> 3060)

38 / 8GB * 6GB = 28,5 RT-Cores (3060Ti->3060)

Komisch ist aber, dass das Verhältnis aufzeigen würde, dass die 3060Ti weniger in die GA104-Riege passt, sondern theoretisch eher in die GA106. Die 3070 passt wiederum mit 3080 und 3090 überein. Entweder Nvidia hat wirklich eine Möglichkeit gefunden die Einheiten von einander zu trennen oder die 3060Ti ist falsch eingeordnet worden. Ggf. ist auch die 3070 falsch eingeordnet und gehört doch noch zu den GA102.
 

Olstyle

Moderator
Teammitglied
Weil es von der notwendigen Bandbreite her Sinn macht. Nur hat NV halt "vergessen" dass die Kapazität auch hinkommen sollte.
 

Ganjafield

Freizeitschrauber(in)
Das Schlusswort ist schön neutral gehalten. ;)
Interessanter Artikel wie ich finde.
Nvidia schaffts wirklich das komplette Portfolio irgendwie uninteressant zu machen. Die 3060ti, 3070 und 3080 leiden am Speichermangel, die 3090 ist zu teuer und die 3060 hat zu wenig Leistung und eine (vergleichsweise) geringe Effizienz. Und bei AMD wäre vermutlich die 6700XT die eierlegende Wollmilchsau, aber da fehlts dann an Zukunftssicherer Raytracing Leistung...
Genau so siehts aus. Du hast noch vergessen das bei der 6800XT / 6900XT viel Speicher da ist aber dafür die Bandbreite zu schlecht. Momentan gibt es daher für mich nirgends einen wirklichen Preis- Leistungskönig.
Komisch, die selben die keinen Unterschied zu Nativ erkennen gegenüber DLSS sehen auch keinerlei Unterschied bei der Texturqualität. Frametimes und Mins brauch auch keiner.
Ich bekomme Kopfschmerzen bei 2k Auflösung und DLSS (auch auf Qualität) zumindest in Cyberpunk. Allerdings ist es in Cyberpunk wohl auch nicht sehr gut umgesetzt. Aber dort ist es für mich keine Option. Hatte es mit einer RTX 3080 getestet.
 
Zuletzt bearbeitet:

Elthy

Freizeitschrauber(in)
Genau so siehts aus. Du hast noch vergessen das bei der 6800XT / 6900XT viel Speicher da ist aber dafür die Bandbreite zu schlecht. Momentan gibt es daher für mich nirgends einen wirklichen Preis- Leistungskönig.
Die Bandbreite bei den AMD Karten sieht zwar auf dem Papier niedrig aus, ist aber dank des Infinity Caches kein Problem, sieht man ja an der Performance. Im Gegenteil, das ermöglicht AMD erst die guten Speichergrößen, da sie nicht durch die Interfacegröße beschränkt sind wie Nvidia.

Wenn man sich anguckt welchen Material/Strom Aufwand Nvidia bei der 3080 in den Grafikspeicher stecken muss um mit AMDs 256bit mithalten zu können und trotzdem bei der Speichergröße hinten liegt ist mein Fazit das der Infinity Cache die interessanteste Hardware-Neuerung dieser Generation ist. AMD hat vorher immer mehr Bandbreite als Nvidia benötigt, jetzt ists auf einmal weniger.
 

Rivellon

Kabelverknoter(in)
Netter Artikel, danke für die Extrem-Tests. ^^ Am Ende ist es wie beschrieben erstmal nur ein mögliches Zukunfts - Szenario. Aber kann man als Überlegung, wenn man plant die Grafikkarte länger zu behalten und nicht zur nächsten Gen wieder aufzurüsten, mit einfließen lassen. Man wird sehen, ob der Bedarf in den nächsten Jahren ebenfalls nochmal so explodieren wird, wie am Anfang der letzten Gen (2014/15).
 

Elthy

Freizeitschrauber(in)
Die Performance bricht bei höheren Auflösungen massiv ein durch die zu geringe Bandbreite.
Das Nvidia da schwächer einbricht liegt aber genauso wahrscheinlich an den extrem vielen Shadern die bei kleineren Auflösungen nicht wirklich ausgelastet werden können. Ist schwer das nur auf die Bandbreite zu schieben.
 

DaHell63

Volt-Modder(in)
Ich bekomme Kopfschmerzen bei 2k Auflösung und DLSS (auch auf Qualität) zumindest in Cyberpunk. Allerdings ist es in Cyberpunk wohl auch nicht sehr gut umgesetzt. Aber dort ist es für mich keine Option. Hatte es mit einer RTX 3080 getestet.
Mit dem Inspector LOD- Bias richtig eingestellt? Eventuell im Treiber noch nachgeschärft?
Warum auch immer ist bei nativ TAA ein Schärfefilter vorhanden, der bei Nutzung von DLSS deaktiviert wird.
Es liegt also nicht perse an DLSS, sondern an der schlampigen Umsetzung.
 

Birdy84

Volt-Modder(in)
Mit meiner GTX 670 2GB muß ich bei vielen neueren Titeln auf niedrig runter gehen. Einige, wenige, Spiele packt die Karte dafür auch mit 4K. Wie gesagt, es kommt auf dás jeweilige Spiel an.
Viele Leute betrachten das Problem von "oben", also wenn es noch gar nicht existiert oder in Szenarien, wo die Rechenleistung ganz einfach nicht reicht. Wenn man gezwungen wird, mit relativ alter Hardware aktuellere Titel zu spielen, wird man schnell feststellen, dass die maßgebliche und fast unumgehbare Einschränkung der Grafikspeicher ist. Die 670-770 Karten hätten noch genügend Rohleistung für die meisten Spiele, aber Spiele wie CoD Warzone oder The Division zwei, laufen mit 2GB Vram einfach unrund. Da hilft auch 1280x720 nicht.
Außerdem gibt es bessere Texturen "leistungsfrei" und gleichzeitig verschlechtern niedrig aufgelöste Texturen die Optik deutlich.

Du machst ein Denkfehler.
Du redest davon, das du bei 2GB runterschrauben musst. Aber wenn du 720p spielst, dafür aber mit 4k Texturen, welche dir den VRAM vollballern, dann natürlich passt das nicht mehr. Es gibt auch Spiele die keine kleineren Texturen mehr haben, die sind dann nicht mehr gut spielbar. Es gibt wie du erwähntest auch gegenteilige Spiele.
Antwort, s.o..

Zweiter Denkfehler: Warum sollte der VRAM verbraucht stark steigen? Grafikspeicher-Verbrauch wächst nicht einfach so unendlich in die Höhe.
Für den Verbrauch gibt es bestimmte Faktoren, aber diese Faktoren ändern sich aktuell noch kaum.
Das nächste wäre sowas wie 8k Texturen...aber dann würde ein Spiel 250GB+ einnehmen und 4 mal soviel Arbeit. Davor drücken sich noch die Entwickler weil, ohne das 8k Mainstram ist, es sich wenig lohnt.
8k Auflösung ist ein anderer Faktor, welcher schon Experimentell da ist. Aber wegen fehlender Leistung auf einer 3080 keinen Sinn macht.
Möglicherweise könnte man auch eine Transition des genutzten Speichers von RAM zum VRAM erleben, dann bräuchte man aber mehr als 16GB VRAM :P
Ich wüsste jetzt nicht was neben Raytracing und dem oben erwähnten zusätzlich mehr VRAM verbraucht...HDR vielleicht? Ist aber beides schon da.
1. Texturen liegen normalerweise in höherer Auflösung vor, als sie im Spiel verwendet werden. 2. Verbrauchen Assets mit zunehmender Komplexität auch mehr Speicher. 3. HDR und RT benötigen mehr Speicher, weil beide techniken eben grundlegend mehr Informationen/ Daten benötigen um zu funktionieren.


Und ja 10GB ist nicht genug, zumindest nicht für 4k. Für mich ist 4k aber eh noch 1-2 Generationen entfernt, da ich neben mind 120fps auch einen 32" 4k OLED (oder vergleichbares. TN/VA/IPS bieten es nicht) haben will, bevor ich upgrade.
Selbst stabil 60Fps in allen Spielen ist noch Utopie...zumindest mit allem auf MAX. Es gibt immer einen limitierenden Faktor.
Was meinste wie habe ich Cyberpunk mit einer 3080 gespielt? 35-70fps...aber zumindest flüssig auf 1440p mit RT-Max und DLSS Quality.

Mit einem 27" 4k Monitor ist man sehr nahe an der Grenze der Augen. 8k Spiele wären schon ein Stück über diese Grenze hinaus.

Das alles ist meine Meinung. Sollte etwas falsch sein... naja man lernt aus Fehlern, aber nur wenn man die richtige Antwort bekommt XD
Das sehe ich ähnlich, obwohl ich den von dir beschriebenen Schritt bereits vollzogen habe. Das Mehr an Pixeln ist bei modernen Spielen mehr wert als die letzte Detailstufe, mMn.
 

sethdiabolos

Volt-Modder(in)
Ixh konnte
Früher hatte ich einen 1280x1024 Monitor und 2GB VRAM, damals gab es keine Probleme.

..................

Und ja 10GB ist nicht genug, zumindest nicht für 4k.

2GB VRAM, das habe ich in 2880x1620 mit Downsampling genutzt. Damals lief Metro Last Light damit sehr gut auf meinem Full-HD und der genutzen GTX 670. Als ich in 1280x1024 lief alles mit 256 MB butterweich (z.B. auf der Geforce 6600GT).

10GB reichen mir als UHD-Gamer bisher. Ich spiele einige Games in UHD max. Details und nur bei den wenigsten muss ich die Details runterstellen. Meistens reicht es auf Kantenglättung zu verzichten um die 100 Fps zu knacken. Ausnahme sind die RTX-Spiele, CP 2077 in UHD Ultra läuft halt nur mit DLSS Performance um spürbar über 70 Fps zu erreichen. Speicher ist dann bei ~ 7,5GB.

Achso...es ist Speicher-Gebrauch nicht -Verbrauch. Oder ist der Speicher dann weg?....:-P
 

Rasputin468

PCGHX-HWbot-Member (m/w)
mal ehrlich - 3090 und nächstes Jahr ist vollkommen irrelevant was Speicherbedarf angeht. Ich möchte spielen aber kann mir nicht leisten eine 3090 zu kaufen sollte auch nicht anfangen zu jammern. Hersteller verlangen immer Geld für die Leistung und das wird sich seit der Geforce3 nicht mehr ändern, zumindest nicht was preis angeht.
 

GEChun

BIOS-Overclocker(in)
Nein, daß Probleim ist einfach, ihr geht immer davon aus was Ihr machen würdet. Andere haben vielleicht ein anderes Kaufverhalten. Was soll ich mit ener 5 Jahre alten GPU. Die Leistung wäre mir viel zu gering. Einzig die GTX 1080Ti hat jetzt mal 3 Jahre gehalten. Trotzdem habe ich zwischendurch drei andere Karten gekauft. Jetzt werkeln eben eine RTX 3070 und eine RX 6800 in den PCs. Wer weiß schon sicher was in 1-2 Jahren ist.
Wenn jemand längerfristig denkt/kauft...bitte jeder wie er will.
Auch zu deinem Post davor...
Die 5700XT wurde einfach empfohlen weil sie günstiger als der Vergleich von Nvidia war...
Ich habe aber gleichzeitig immer gesagt das die 1080TI > 5700XT > 2070 ist.

die 1080TI ist ja quasi die 3060 von jetzt.. +/- etwas Differenz in der GPU Leistung

Und ja die 50-100€ Aufpreis zur 2070 haben auch mehr Leistung gebracht, aber beide Karten waren nicht wirklich Top da greift man dann doch ehr zu dem Übel was am wenigsten kostet...

Gleiche Schema hab ich auch jetzt angewendet:

Brauche ich mehr als 8GB VRAM Ja/Nein= Ja
Reichen mir 10GB bei der Leistung einer 3080 Ja/Nein = Nein
Müssen schon jetzt 24GB sein? Ja/Nein = Nein


Was erfüllt das Schema und kostet am wenigsten bei halbwegs guter Raytracing Leistung über Turing?
 

RtZk

Lötkolbengott/-göttin
Auch zu deinem Post davor...
Die 5700XT wurde einfach empfohlen weil sie günstiger als der Vergleich von Nvidia war...
Ich habe aber gleichzeitig immer gesagt das die 1080TI > 5700XT > 2070 ist.

Naja, ganz ehrlich die 2070 war die wesentlich bessere Wahl. DLSS ist einfach ein Game Changer.
Ganz unabhängig von RT.
8 GB VRAM sind genug solange man unter 4k bleibt.
 

GEChun

BIOS-Overclocker(in)
Naja, ganz ehrlich die 2070 war die wesentlich bessere Wahl. DLSS ist einfach ein Game Changer.
Ganz unabhängig von RT.
8 GB VRAM sind genug solange man unter 4k bleibt.
Sehe ich nicht so zeigt auch dieser Test hier das WQHD schon ordentlich zu langen kann, macht automatisch jede Auflösung zwischen WQHD und 4k kritisch...

Dazu war die erste Version von DLSS auch nicht wirklich... also da haste schon so einige Fehler im Bild gesehen, ein paar sind jetzt noch da bei DLSS 2.0 aber es ist deutlich besser geworden. Version 1.0 ist echt :ugly:
 

Schinken

Software-Overclocker(in)
(...)
8 GB VRAM sind genug solange man unter 4k bleibt.
Nein. Nicht immer, deshalb Nein.

Der Artikel unter den du hier kommentiert belegt das auch.

Und den nächsten Satz muss ich mir mal als Template speichern:
In C:S verfüge ich über einige Spielstände, die in FHD bereits die 8 GB voll belegen.

Andere Spiele aber ebenso, in WQHD sogar einige mehr.

Und bevor mir jemand sagt: "Das sind ja Ausnahmen! "
1. Nicht für mich. Extrem komplexe, riesige 4X und Aufbauspiele sind meine tägliche Kost.
2. Ausnahmen sind Gegenbeispiele. Man kann keine absoluten Aussagen treffen wie "unter 4K reichts", dann aber Belege für das Gegenteil als Ausnahmen abtun. Dann muss man sich eben mal mit einschränkenden Formulierungen abfinden wie:
Für die Mehrheit reichen zur Zeit 8GB VRAMunterhalb der 4K Auflösung aus. Zu Einschränkungen bei einigen aktuellen wie insbesondere künftigen Spielen kann es aber kommen.
Dem kann ich dann auch problemlos zustimmen.
 
Zuletzt bearbeitet:
Oben Unten