Die Geforce RTX 3060 12GB ... - Das sagen die PCGH-Redakteure dazu

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Die Geforce RTX 3060 12GB ... - Das sagen die PCGH-Redakteure dazu

Die Redakteure der PC Games Hardware kommentieren aktuelle Ereignisse oder Entwicklungen aus der Welt der PC-Hardware, IT-Branche, Spiele, Technik oder Unterhaltung. Lesen Sie die wirklich persönlichen Meinungen der PCGH-Redakteure, heute zum Thema "Die Geforce RTX 3060 12GB ..."

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Die Geforce RTX 3060 12GB ... - Das sagen die PCGH-Redakteure dazu
 
Auch die 3060Ti und 3070 mit 8GB haben genug RAM für kommende Spiele. Dieses Märchen von wegen 8GB RAM reichen nicht sollte endlich mal aufhören erzählt zu werden. Ich spiele viele aktuelle Shooter inkl RT und alles auf Ultra Settings und habe es noch nie geschafft die 8gb voll zu bekommen und daran wird sich auch nichts so schnell ändern.
 
Wir erzählen keine Märchen, sondern zeigen anhand von Vorboten auf, wohin die Reise gehen könnte. Bisschen Material dazu, das auch auf Texture Streaming eingeht (die Balken sind nur Beiwerk):


MfG
Raff
 
Eben könnte. Dennoch reichen 8GB für 95% der User aus. Vor allem bei FullHD was noch immer die Mehrheit nutzt und wqhd ebenfalls. 4K was geschätzt 5% nutzen kann es vielleicht mal knapp werden. Dann stellt man halt von dutzenden optionen in denn Grafiksettings je nach Spiel 1 oder 2 Schalter von Ultra auf high oder mittel und es passt wieder. Im übrigen nur weil ein Spiel 12GB vielleicht belegt heißt das nicht das diese genutzt werden denn das werden die nicht. Die Anzeige zeigt nur das der Platz reserviert wurde. Und reserviert heißt nicht gleich genutzt das ist ein großer Irrtum.
 
Interessante Erkenntnis bezüglich "zu viel" Vram, seitdem ich meine RTX3090 nutze, stürzte "Lords of the Fallen" nie ab.
Kann auch Zufall sein, weil der Treiber für das Spiel repariert wurde, aber nach so vielen Jahren scheint das eher sehr zufällig.
Die Version des Spiels und alles andere sind dabei gleich geblieben, an Hardware hat sich nur die Karte verändert, bei Software eigentlich nur Treiber und die üblichen Win10 Halbjährlichen Versionen, aber die gab es davor auch.
 
Die Leistung einer 2070 zum selbigen Verbrauch. Wo ist der Fortschritt?
Ok, die 4 Gb mehr vRam genehmigen sich etwas, ober sonst?
Ich bin underwhelmed.
 
Auch die 3060Ti und 3070 mit 8GB haben genug RAM für kommende Spiele. Dieses Märchen von wegen 8GB RAM reichen nicht sollte endlich mal aufhören erzählt zu werden. Ich spiele viele aktuelle Shooter inkl RT und alles auf Ultra Settings und habe es noch nie geschafft die 8gb voll zu bekommen und daran wird sich auch nichts so schnell ändern.
Dann Spiel mal Doom Eternal, Shadow of the Tomb Raider, oder das neue Serious Sam. Doom hat bei mir mit 8GB an einigen Stellen schon arg geruckelt, da mir der Speicher selbst in Full HD ausgegangen war, Die 2060 Super hat für dieses Spiel auch in 1440p mehr als genug Rohleistung. Shadow of the Tomb Raider knallt dir den Speicher auch schon auf niedrigen Auflösungen ordentlich voll. Resident Evil 2 und 3 Remake können auch mehr als 8GB an Vram schlucken, wenn man bestimmte Regler auf Anschlag dreht.
 
Bei der 3060 über Zukunftssicherheit zu sprechen ist eine Farce... unabhängig von der aktuellen Marktlage und den dafür schon aufgerufenen UVPs. Die Karte wäre - hätte nVIDIA sich beim Speicherinterface nicht verkalkuliert - mit 8 GB und zu 250-300 Euro Liste ein durchaus solides Angebot.

Die 12GB sind aber zu schmal angebunden um im Zusammenspiel mit der unzureichenden Leistung in Zukunft wirklich einen Vorteil zu bieten. Das zeigt schon exemplarisch die aktuelle AMD-Generation: Trotz Infinitycache ist das 256bit-Speicherinterface für 16GB und die eigentliche Leistungsfähigkeit der RDNA2-Chips zu klein und die Leistung der Karten bricht in höheren Auflösungen im Gegensatz zu Ampere unverhältnismäßig stark ein.

Lange Rede kurzer Sinn: "Zukunftssicherheit" und 12GB sind nur eine Marketingmasche. Ist in jeder neuen Generation immer wieder das selbe. Anstatt auf derart leere Floskeln zu hören sollte man Hardware nach aktuellem Bedarf anschaffen - wenn sie dann in 2, 3 oder sogar 4 Jahren immer noch ihren Zweck erfüllt um so besser.
 
"zukunftssicher" kann ich langsam nicht mehr hören(lesen).

Zockt man mittlerweile 10-15 Jahre mit der gleichen GPU, weil sie 12 GB hat ?

Man tauscht die doch eh in 2, spätestens 3 Generationen aus.
Also "zukunftssicher" is da nix.

Als wenn man unter 12, 16, oder 24GB bereits im Sommer 21 nicht mehr zocken kann. So ein Quark.

Wahrscheinlich würdet ihr, wenn ihr wählen könntet, eher eine 3060 12 GB nehmen, da "zukunftssicher", als ne 3080 10GB.
Würd' ich euch zukunfssicher-Fans glatt zutrauen. ;)

Oder glaubt ihr, ein 3090 24 GB Käufer zockt mit dem Teil noch in 15 Jahren, weil die "zukunfssicheren Speicher" hat ?

Nope.
Es wird alle 2-3 Generationen fleissig gewechselt, ganz egal was der Speicher sagt.
 
2-3 Generationen auf maximalen Grafiksettings (@mid braucht es den Speicher echt nicht) in 1440p (@720p braucht es den Speicher echt nicht) sind für eine xx60 eine mutige Ansage. Übertaktete 80 Tis sehen häufiger solche Einsatzzeiten (zweiten oder dritten Eigentümer), aber in den Gaming-Modi, in denen die 3060 mit den 12 GiB richtig punkten kann, ist sie schon heute an der Grenze zu Unspielbarkeit.

Siehe heutige Extrembenchmarks. Doppelt so viel Fps wie eine 3060 Ti mit ihren mickrigen 8 GiB klingen erst einmal nach gnadenloser Überlegenheit des Speicherwunders. Bis man realisiert, dass ein forderndes Minecraft-RTX-Level dann auch so nur mit mäßiger Sichtweite und nur knapp über 30 Fps läuft und geradezu drängt, auf die Raytraycing-freie Variante zu Wechseln, die 100 mal mehr Inhalte butterweich mit einem Bruchteil des VRAM darstellen kann.
 
Mehr VRAM ist generell nicht schlecht. Damals bei der 1060 haben auch alle gesagt "3GB reichen dicke, was willste mit 6GB viel zu langsam die Karte". Im Nachhinein dummes Geschwätz. Wenn der VRAM Bedarf steigt isses gut Polster zu haben.

Ärger mich auch ein bisschen das meine 3070 die gleiche VRAM Menge hat wie meine letzte Graka die 3+ Jahre alt war. Aber gab keine wirkliche Alternative und aktuell ist es ne Top Karte.
 
Naja, die Alternative bei der GPU wären 6GB gewesen, und da wären dann wieder alle zurecht am schreien, dass das einfach zu wenig ist. Mit ner mobilen 2060 mit 6GB hab ich jetzt schon Probleme in 1440p, auch wenn mit anderweitig reduzierten Einstellungen (die aber eben kaum Einfluss auf den Speicher haben) die Performance an sich völlig in Ordnung ist.
 
Mehr VRAM ist generell nicht schlecht. Damals bei der 1060 haben auch alle gesagt "3GB reichen dicke, was willste mit 6GB viel zu langsam die Karte". Im Nachhinein dummes Geschwätz. Wenn der VRAM Bedarf steigt isses gut Polster zu haben.
Kann mich nicht erinnern dass jemand damals behauptet hat die 3GB GTX 1060 sei ausreichend, die Karte wurde doch vielmehr belächelt.
 
Eben könnte. Dennoch reichen 8GB für 95% der User aus. Vor allem bei FullHD was noch immer die Mehrheit nutzt und wqhd ebenfalls.
Beim Bedarf für > 8 GB geht's nicht um FHD und um das Jetzt, sondern um höhere Auflösungen und um die Zukunft. Sollte einleuchten, dass es dazwischen einen Riesenunterschied gibt.

Und die Mehrheit nutzt FHD ja nicht, weil sie eine unerklärliche Abneigung gegen höhere Auflösungen hat, sondern weil die dafür nötigen Karten und Monitore preislich noch nicht voll im Mainstream angekommen sind. Und wenn alle so wie du denken, dass es vollkommen ausreicht, wenn bezahlbare Karten für nicht mehr als FHD taugen, dann wird sich daran auch niemals etwas ändern.
Naja, die Alternative bei der GPU wären 6GB gewesen, und da wären dann wieder alle zurecht am schreien, dass das einfach zu wenig ist. Mit ner mobilen 2060 mit 6GB hab ich jetzt schon Probleme in 1440p, auch wenn mit anderweitig reduzierten Einstellungen (die aber eben kaum Einfluss auf den Speicher haben) die Performance an sich völlig in Ordnung ist.
Als ob's nur die eine Alternative gegeben hätte. Prinzipiell wäre es vielleicht auch 'ne Idee gewesen, die Speicherinterfaces bei Ampere so zu designen, dass der Speicherausbau wenigstens ungefähr zur jeweiligen Leistung passt.
 
"zukunftssicher" kann ich langsam nicht mehr hören(lesen).

Zockt man mittlerweile 10-15 Jahre mit der gleichen GPU, weil sie 12 GB hat ?

Als wenn man unter 12, 16, oder 24GB bereits im Sommer 21 nicht mehr zocken kann. So ein Quark.
Wenn man derart extrem überzeichnet, sehen andere natürlich immer wie Idioten aus. Es geht nicht um 10-15, sondern um 4-5 Jahre, und es geht auch nicht um Sommer 21, sondern um Sommer 23 oder 24. Und es geht auch nicht um "nicht mehr zocken können", sondern um auf einem Niveau zocken können, das für eine 1000-Euro-Karte - auch nach zwei, drei oder vier Jahren - noch angemessen ist. Bleib einfach mal auf dem Teppich.
Wahrscheinlich würdet ihr, wenn ihr wählen könntet, eher eine 3060 12 GB nehmen, da "zukunftssicher", als ne 3080 10GB.
Würd' ich euch zukunfssicher-Fans glatt zutrauen. ;)
Quatsch, nur weil einem Speicher wichtig ist, heißt das noch lange nicht, dass einem Leistung egal ist. Wem die Leistung der 3060 tatsächlich ausreicht, der nimmt deren - gemessen an der Leistung - großzügigen Speicher natürlich gerne mit. Wer hingegen die Leistung einer 3080 will oder braucht, kauft natürlich keine 3060, egal wie viel Speicher die hat.

Tatsache ist nun mal, dass es der - Intel jetzt mal außen vor gelassen - größte Hersteller von Grafikchips derzeit nicht auf die Reihe bekommt, seine Karten vernünftig mit Speicher zu bestücken. Turing mag insgesamt auch über etwas zu wenig Speicher verfügt haben, aber immerhin konnte man sich da noch darauf verlassen - von der 2060 mit 6 GB bis zur 2080Ti mit 11 GB - für mehr Kohle immer auch mehr Speicher zu bekommen, und es gab da auch keine Riesensprünge. Das Chaos, das Nvidia hingegen derzeit bei Ampere veranstaltet, ist doch total Banane.
 
Der Grafikkartenmarkt ist tot. Mitte Dezember 2020 begannen die Todesglocken zu läuten.

Hersteller von Graikkarten und Shopbetreiber sollten für die nächsten Monate aufhören auf Gamingseiten Werbung für Gamingrafikkarten zu machen, sonst könnte man annehmen, dass sie ihre Kunden bewusst in die Arme von Scalpern treiben wollen oder das äußerst glücklich darüber sind, dass man das doppelte bis dreifache von der UVP verlangt.

Die Preise zeigen ganz eindeutig dass nicht die Gamer als Kunden angesprochen sind, sondern das derzeit nur Miner und Miningfarmen als Kunden zählen. Wäre ich Blizzard, würd ich zu den Herstellern und Shopbetreibern sagen: Habt ihr keine Miningseiten gefunden?
 
Zurück