News Neue 8-GiByte-Grafikkarten im Jahr 2023 ... - Das sagen die PCGH-Redakteure dazu

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Neue 8-GiByte-Grafikkarten im Jahr 2023 ... - Das sagen die PCGH-Redakteure dazu

Die Redakteure der PC Games Hardware kommentieren aktuelle Ereignisse oder Entwicklungen aus der Welt der PC-Hardware, IT-Branche, Spiele, Technik oder Unterhaltung. Lesen Sie die wirklich persönlichen Meinungen der PCGH-Redakteure, heute zum Thema "Neue 8-GiByte-Grafikkarten im Jahr 2023 ..."

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Neue 8-GiByte-Grafikkarten im Jahr 2023 ... - Das sagen die PCGH-Redakteure dazu
 
Ich hab nix gegen 8GB-Karten - nur gehören die eben im Jahre 2023 nicht mehr in den Mittelklassebereich und darüber. Eine imaginäre RTX4050 oder eine RX7500 und sowas wären mit 8GB passend betucht. Aber doch nicht Karten, die 500€ und mehr kosten...?!

Das schlimme daran ist, dass die Strategie ja funktioniert. Meine Frau braucht irgendwann demnächst mal ne neue Karte weil die 1660Ti (6 GB!) spätestens bei Hogwarts oder dem kommenden Diablo4 aus dem letzten Loch pfeift in WQHD. Und ich bemerke schon wie ich mir denke "ne 4060(Ti) ist wegen den 8GB schon ein no-go, du musst eigentlich ne 12 GB-4070 kaufen wenn die Karte wieder 4-5 Jahre rennen soll" (bevor das kommt: nein, ich kaufe so schnell keine AMD-Karte mehr). Ziel erreicht... den Kunden durch verschlechtern eines Produktes dazu gezwungen das nächstteurere zu kaufen. :-/
 
Die 4070 gibts doch schon im Angebot für 599€,

@Hannesjooo
Aber warum wird überhaupt die 4070 hier in dem Thread wo es um 8GB Karten geht überhaupt erwähnt, der VRAM an sich ist mit 12GB doch völlig ok.

Keine Ahnung ob viele glauben das die 4070 nur 8GB hat.
 
Ich hab nix gegen 8GB-Karten - nur gehören die eben im Jahre 2023 nicht mehr in den Mittelklassebereich und darüber. Eine imaginäre RTX4050 oder eine RX7500 und sowas wären mit 8GB passend betucht. Aber doch nicht Karten, die 500€ und mehr kosten...?!
Das ist was dem wo ich eigentlich nur ne Like lassen wollte, aber im Endeffekt finde ich man kann sowas nicht oft genug wiederholen.
 
8 GB Videospeicher sind für sich alleinstehend kein Kritikpunkt. Es wird erst zu einem echten Kritikpunkt, wenn Videospeicher und Leistung nicht in einem gesunden Verhältnis zueinander stehen. In einem zweiten Schritt kommt dann der Preis zu tragen.

So eine RTX 3050 empfinde ich z.B. als ausgewogen mit 8 GB Videospeicher. Ich empfinde auch eine RTX 3060 mit 12 GB Videospeicher noch als ausgewogen. Wo es dann richtig absurd wird sind die 3070 und insbesondere die 3070 Ti, deren Rohleistung ohne Probleme mit 12 GB oder gar 16 GB gepaart hätte ausreichen können. Man muss sich nur die 2080 Ti dagegen halten, die mit ihren 11GB Videospeicher beide Karten wegputzt, wenn 8 GB Videospeicher eben nicht mehr ausreichen, während die Rohleistung an sich weiter performen könnte. Das gilt umso mehr für die 3080 10 GB. Dass es auch anders geht, zeigt Nvidia ja bei den Laptops. Da gibt es eine 3080 mit der Leistung einer Desktop 3070 mit 16 GB (!) Videospeicher.

Und das Spiel wiederholt sich nun bei der 4070 bzw. 4070 Ti.

Irgendwie hat man auch total vergessen, dass der Hauptkonkurrent in dem Bereich jemand ganz anderes ist, nämlich die Konsolen. Wie peinlich kann es denn für die "PC-Master-Race" sein, wenn der kombinierte VIdeospeicher einer Konsole bessere Texturen erlaubt, als ein Gaming-PC, in dem eine Grafikkarte steckt, die genauso viel kostet wie eine ganze Konsole?
 
Ich komm immer noch gut mit meinen 6 GB klar, aber es steht außer Frage, dass neue Karten ab einem Preis von 350€ mindestens 12 GB haben sollten. Bei GPUs zwischen 190 und 280€ sind 8 GB ok.
 
So lange der Kunde die 8 GByte Karten kauft, warum nicht? Nvidia wäre ja blöd ihren Kunden mehr zu geben als der Markt verlangt. Und solange der große Teil des Marktes sich dennoch für Nvidia entscheidet….sorry…selbst schuld.

AMD ist da schon weiter, aber AMD ist ja für die Meisten nicht kaufbar. :rollen:

PS Auch bei Intel gibt es bei der Arc 770 16 GByte lieferbar für 379€ bei Caseking
 
Zuletzt bearbeitet:
ich kaufe so schnell keine AMD-Karte mehr
Was ist der Grund dazu? Treiberprobleme oder sogar minderwertige Technik die schnell hopps geht?

Frag aus interesse da ich noch nie eine AMD Karte hatte.

Zum Thema selbst sag ich nur pfui...Meine 1070 hatte schon 8 GB und die ist jetzt wie alt? 7 Jahre?

Meine nächste darf gerne doppelt soviel haben :ugly:
 
Ich komme noch Prima klar mit 8GB.

Ich bin aber auch gefühlt der einzige hier im Forum der in FHD mit reduzierten Details irgendwelches Esports Gelumpe daddelt auf ´nen 240Hz Monitor.

Und solange die 8GB für mich reichen - warum nicht ?
Die 3070Ti ist schnell genug.

Allerdings gucke ich mir natürlich immer mal wieder - allein aus technischen Interesse - neuere Tripple A Games an und da kann´s dann auch schnell mal knapp werden mit 8GB.
Selbst in FHD.

Eigentlich wäre die 4060Ti eine super Karte für mich.
Wenn die 8GB nicht wären...
...daher wird es dann mindestens eine 4070 sein müssen, weil Nvidia am Speicher rumgeiert.
Und somit ist man wieder direkt gezwungen eine Preisklasse höher kaufen zu müssen.

Oder die nächste wird eine AMD Karte :devil:
 
Wie schön von den Vorrednern erwähnt hängt es rein an der damit gepaarten GPU.
Arc A770 8GB ist mittlerweile unter 300€ gefallen, so sind es 80€ oder 27% Aufpreis für mehr Speicher. Da kann das P/L Verhältnis schon mal zum kleineren Modell ausschlagen.
Ich bin bei @PCGH_Raff dass eine Speicherwahl für den Endnutzer auch bei anderen Karten schick wäre, in der Vergangenheit (z.B. 6800-512MB, 7970-6GB)hat das aber eigentlich immer nur als Werbemaßnahme für das schlechter bestückte Modell gewirkt.
 
Zuletzt bearbeitet:
Was ist der Grund dazu? Treiberprobleme oder sogar minderwertige Technik die schnell hopps geht?

Frag aus interesse da ich noch nie eine AMD Karte hatte.

Zum Thema selbst sag ich nur pfui...Meine 1070 hatte schon 8 GB und die ist jetzt wie alt? 7 Jahre?

Meine nächste darf gerne doppelt soviel haben :ugly:
Ich kaufe seit über 20 Jahren beide Hersteller, je nachdem wer mir gerade das bessere Angebot macht. Die einzige Karte, die mir mal abgeraucht ist war eine Geforce 6800 Gt aus dem Jahr 2004/2005 (?) und da war ich als unbedarfter Schüler zu doof zu erkennen, dass das Gehäuse schlicht unterbelüftet war für das Teil.

Probleme generell gibts bei beiden Herstellern regelmäßig, da schenken die sich nichts. Ob Vaporchamber bei AMD, Spaceinvaders bei Nvidia oder sonstwas.

Im Endeffekt kommts für mich drauf an, was mir der jeweilige Hersteller für das Geld bietet und wo die Prioritäten und preislichen Grenzen liegen. Montagsmodelle und Schrottdesigns findet man bei beiden. Anekdotische Denkweise ala "ich hatte mal ein Problem mit Karte X und deswegen kaufe ich nie wieder AMD/Nvidia" halte ich jedenfalls für unsinnig.
 
8 GiB sind allerhöchstens unter 200€ sinnvoll, eher unter 150€. Das Letzte, was man runterstellen sollte, sind die Texturen. Die RX 480/580 hatte schon 8 GiB und war im Abverkauf für um die 170€ zu haben und das ist schon einige Jahre her. Wo bleibt denn da der Fortschritt? Ja schön, heutzutage ist der Speicher schneller, aber bei der 3060ti GDDR6 vs GDDR6X hat man ja gesehen, wie viel das bringt. Dann lieber langsameren Speicher aber dafür mehr Kapazität (besser natürlich beides). Dann können die Entwickler die Texturen auch weiter verbessern, wenn die Hardware nicht "mitwächst" sind ihnen da nämlich sonst auch die Hände gebunden.
 

... mal schauen, was sich dann in Dtl. mit den 8GB-Monstern so ergibt (x)
(der fette Steam-Gutschein könnte in dem Segment sicher auch Hier helfen)

(x) Warum fällt eigentlich net die 3070<400€ ???
(und bekommt zusätzlich nen Gutschein)
 
Zuletzt bearbeitet:
Was ist der Grund dazu?
Jede AMD-Karte die ich die letzten Jahre verbaut habe hat Probleme gemacht. JEDE.
Bei der einen waren es sehr hohe Temperaturen (was nachher auch durch die Presse ging als Kühlerbug), andere hatten seltsame Probleme mit Treiber und Spielabstürzen, AMD schaffts seit 10 Jahren nicht ihren Idle-Verbrauch in den Griff zu bekommen (es sei denn man hat irgendwie "Glück") und vieles mehr. All das habe ich bei verbauten NV Karten eben nicht - die baust du ein und es funktioniert alles.

Ich will damit keinesfalls sagen dss AMD schlchte Karten baut. Nur habe ich persönlich auf das Gefrickel das ich erfahren musste keine Lust mehr, was auch der Grund ist warum mein nächstes System kein Ryzen mehr sein wird - da hab ich nämlich die letzten Jahre den gleichen Bums mit Bugs, BIOS-Updates, Instabilitäten, Kuriositäten und so weiter erlebt während die Inteldinger die ich gebaut habe absolut "wartungsfrei" waren. Ach hier: Ryzen CPUs sind nicht schlecht, nur das drumherum ist einfach zu "unsicher" wenn ich nie weiß, ob beim nächsten Booten beispielsweise noch alle meine Laufwerke da sind (eine der Kuriositäten).

Das Argbument "aber AMD hat fürs gleiche Geld mehr vRAM" stimmt zwar, wiegt aber den ganzen Rest da nicht ansatzweise auf.
 
Für FHD reichen 8GB Vram in den meisten Fällen noch aus.
Ab WQHD wird es dann enger. Besonders wenn die Grafikeinstellungen auf "hoch" sind und HD-Texturen verwendet werden.
 
Zurück