News Neue 8-GiByte-Grafikkarten im Jahr 2023 ... - Das sagen die PCGH-Redakteure dazu

was auch der Grund ist warum mein nächstes System kein Ryzen mehr sein wird
Bei CPU's habe ich leider auch nur schlechtes erlebt, angefangen mit FX und später Ryzen der ersten Gen. Ziehe daher seit 2017 ab Skylake-X, ja war tatsächlich meine erste Intel CPU, auch nur Intels vor da es einfach läuft :ugly:

Hab AMD lange unterstützt aber irgendwann hatte ich die Schnauzte voll von Problemen die man teils nicht mal gelöst bekommt.
 
Ich habe es da fast wie Du, Thilo.
In der Vergangenheit war bei mir eigentlich jeder Grafikkartenwechsel mit einer Verdopplung des Speichers verbunden.
Radeon 9700 -> Radeon X1950Pro: 128 MiB -> 256 MiB
Radeon X1950Pro -> HD4670: 256 MiB -> 512 MiB
HD4670 -> HD4850: 512 MiB -> 1 GiB
HD4850 -> HD7850: 1 GiB -> 2 GiB
HD7850 -> R9 390: 2 GiB -> 8 GiB
Durch die großzügige Bestückung der 390 gabs erstmals eine Vervierfachung. Da tat es auch nicht weh, dass die Geforce 1070 dann gleich viel hatte.
R9 390 -> Geforce 1070: 8 GiB -> 8 GiB
Geforce 1070 -> Geforce 2070: 8 GiB -> 8 GiB
Mit der aktuellen 2070 ist es aber wieder gleich geblieben. Zwischendurch hatte ich noch über die 3070 (Ti) nachgedacht, aber mich (auch) wegen des Speichers dagegen entschieden. Und jetzt ist bei einer wohl ähnlich flotten 4060 Ti wieder mit 8 GiB zu rechnen?

Die 390 hatte ich im Jahr 2015 geholt.
8 Jahre lang die gleiche Menge VRAM.
Es wird langsam Zeit für mehr.
 
btw.
Mal abwarten wie die PCB´s bei den 4060 so bestückt sind.
Falls tatsächlich 8x 1GB Vram verbaut sind, könnte doch auch mal ein AIB auf 8x 2GB aufrüsten.
also
Quasi der umgedrehte Weg, den AsRock bei den A770-16GB --> 8GB beschritten hat.

Die Vrampreise sollten derzeit eigentlich im freien Fall sein und mehr Vram net die Welt kosten.
Das wäre bestimmt den Käufern mehr wert als tolle 25MHz-mehr OC-Modelle mit prima Fantasienamen.
 
Jede AMD-Karte die ich die letzten Jahre verbaut habe hat Probleme gemacht. JEDE.
Bei der einen waren es sehr hohe Temperaturen (was nachher auch durch die Presse ging als Kühlerbug), andere hatten seltsame Probleme mit Treiber und Spielabstürzen, AMD schaffts seit 10 Jahren nicht ihren Idle-Verbrauch in den Griff zu bekommen (es sei denn man hat irgendwie "Glück") und vieles mehr. All das habe ich bei verbauten NV Karten eben nicht - die baust du ein und es funktioniert alles.

Ich will damit keinesfalls sagen dss AMD schlchte Karten baut. Nur habe ich persönlich auf das Gefrickel das ich erfahren musste keine Lust mehr, was auch der Grund ist warum mein nächstes System kein Ryzen mehr sein wird - da hab ich nämlich die letzten Jahre den gleichen Bums mit Bugs, BIOS-Updates, Instabilitäten, Kuriositäten und so weiter erlebt während die Inteldinger die ich gebaut habe absolut "wartungsfrei" waren. Ach hier: Ryzen CPUs sind nicht schlecht, nur das drumherum ist einfach zu "unsicher" wenn ich nie weiß, ob beim nächsten Booten beispielsweise noch alle meine Laufwerke da sind (eine der Kuriositäten).

Das Argbument "aber AMD hat fürs gleiche Geld mehr vRAM" stimmt zwar, wiegt aber den ganzen Rest da nicht ansatzweise auf.

Total komisch: Ich bau seit über 20 Jahren meine PCs selbst mit allerleih bunten Mischungen aus AMD & nVidia für die GPUs und AMD & Intel für die CPUs.
Wenn man es genau nimmt hatte ich mit jedem System irgendwelche Probleme: das waren aber zu 99% irgendwelche Kleinigkeiten.
Größere Probleme gab es nur wenig, und die bei allen Herstellern wild verteilt.

Zum Idle Verbrauch:
RTX3080 ~15W

6800XT: ~10W
 
Vielleicht hatte ich auch einfach Pech (was aber schon statistisch signifikant war da wir hier doch von einigen Systemen reden) - was aber trotzdem dazu führt dass ich AMD jetzt wieder ein paar Jahre meide.

...und dann kuckste mal was passieren kann je nachdem welche Monitore man wie anschließt:
1682161588203.png


Mein 4K 144Hz TFT an einer 7900XTX waren tatsächlich auch hier 100W (!!) beim nichtstun - man spart Strom wenn man Youtube anwirft weil die Karte unter kleiner Last WENIGER braucht als beim nichtstun! Das ist aber nicht jedesmal so sondern völlig random (bei einer Karte ists so, bei ner anderen nicht). Dann kommen Treiberupdates dies manchmal fixen, manchmal so halb (dass es "nur" noch 40W sind was immer noch viel zu viel ist) und manchmal nicht. Und genau diese "Unsicherheit" ist es, die ich nicht mehr will. Es geht nicht um 10W mehr oder weniger, es geht darum, dass der Hersteller offenbar grundlegende Dinge die seit Jahrzehnten Stand der Technik sind nicht gebacken bekommt.

NVidia kann sich solche Preistreibereien und Speicherknappheiten auch deswegen erlauben weil sie eine extreme Marktdurchdringung haben - und die haben sie auch deswegen, weil AMD noch immer weitläufig als minderwertig empfunden wird... solche Dinge wie das hier beschriebene sind in der Summe und über viele viele Jahre hinweg der Grund für dieses Image.
 
Zuletzt bearbeitet:
Ich bin da Raffs Meinung, wenn 8 Gib oder weniger Karten released werden ist es schon in Ordnung, auch zu Wucherpreisen, sofern sie von Nvidia sind versteht sich. :daumen:
 
Vielleicht hatte ich auch einfach Pech (was aber schon statistisch signifikant war da wir hier doch von einigen Systemen reden) - was aber trotzdem dazu führt dass ich AMD jetzt wieder ein paar Jahre meide.
Wenn man Probleme hat meidet man den Hersteller, ist doch komplett normal.
Tut auch nichts zur Sache ob das Zufälle sind oder nicht, selbst wenn man sich nur sicherer fühlt ist das schon was wert.

Aber eine Kleinigkeit viel mir bei dem Post wieder auf, die normalerweise irgendwie nie angesprochen wird, immer sind die alten FHD 60hz Monitore etwas von dem man weg "muss", aber damit ist immerhin der Stromverbrauch im idle gut ;-)
 
immer sind die alten FHD 60hz Monitore etwas von dem man weg "muss", aber damit ist immerhin der Stromverbrauch im idle gut ;-)
Das geht auch in 4K und 144Hz.
7W im Idle ausgelesen. Real ists etwas mehr (10-15 rum) aber ganz sicher keine 40 oder gar 100. :haha:
1682162474533.png



Falls tatsächlich 8x 1GB Vram verbaut sind, könnte doch auch mal ein AIB auf 8x 2GB aufrüsten.
Wenn sie es denn dürfen. Es gab da iirc sogar schon mal Vorgaben seitens NV dass sowas verboten wurde.
 
... Ich hoffe, dass wir hier endlich die Rückkehr der Wahl sehen, also Modelle mit 16 GiByte gegen Aufpreis. Alternativ kommt endlich mal einer der Speicherhersteller aus dem Quark und fertigt 1,5-GiByte-Chips in großem Stil. Wenn die Interfaces stagnieren, muss eben die Kapazität steigen. Das ist eine Mega-Marktlücke und mich wundert sehr, dass niemand einspringt. (Raffael Vötter)

+1, aber nicht gewollt.

GA104-875-A1, 16GB GDDR6 mit ECC-Modus, 256bit, 16Gbps, 2000MHz, 512GB/s


GA102, 20GB GDDR6 mit ECC-Modus, 320bit, 16Gbps, 2000MHz, 640GB/s

 
8gb sind für low end hartz rechner ok, aber dann dürfte so eine 4060 8gb eben auch nur 250 oder 300 euro kosten. ist doch logisch. wer garnicht zocken will und nur desktop arbeiten erledigt, für den reicht es dann wohl auch, vieleicht. ich persönlich habe da dann halt das problem das ich weiss das ich mindestens 16gb brauche und eine nvidia karte mit 16gb oder mehr halt ziemlich teuer ist. so teuer das ich auch gerne bereit bin auf nächstes jahr zu warten, vieleicht wird bei der ces ja eine 5000er vorgestellt und die preise für eine 4080 sind dann besser, bzw es gibt ja dann vieleicht eine 5000er karte die reizvoll wird. bin gespannt. sollange gebe ich dann eben geld für autos, boot und garten aus. ist auch cool^^
 
Wer wirklich ernsthaft in Betracht zieht, am PC zu spielen, sollte ein Bogen um 8GB Karten machen. Damit wird man nicht glücklich. Die 8GB Graka Ära ist langsam vorbei.
Ich bleibe dabei, 12GB sollten es schon sein inzwischen. Besser 16GB. Optimal 24GB.
Letzten Endes ist es natürlich auch eine Geldfrage. Grafikkarten sind nicht günstig. Aber wie sagt man so schön, wer billig kauft, kauft zweimal.
 
Ich hätte mir zumindest ab der 4060 >=12GB gewünscht, darunter von mir aus auch noch 8GB, da der alleine VRAM dann eh nicht viel hilft.
 
Das geht auch in 4K und 144Hz.
7W im Idle ausgelesen. Real ists etwas mehr (10-15 rum) aber ganz sicher keine 40 oder gar 100. :haha:
Sorry hatte vergessen zu sagen das ich mich auf meine 6600 beziehe :S
Kann nicht sicher was zu einer 7000er sagen da ich die nicht habe.

War btw auch einer der gründe warum ich vorher ne 1060 hatte aber bei der 6000er gegen Nvidia 3000er war für mich AMD halt interessanter.

Und ka wieviel die echt zieht ich kann es nur an der Steckdose messen für den ganzen PC aber da sehe ich keinen unterschied ob 1 FHD 60hz oder 2 FHD 60hz .
 
8gb sind für low end hartz rechner ok, aber dann dürfte so eine 4060 8gb eben auch nur 250 oder 300 euro kosten.
Die Radeon 6600 zum Beispiel, gibt es für 219€ im Bundle mit Last of us. Das ist schon fair.

Ich verstehe auch nicht, warum 8GiB auf einmal so niedergemacht werden. Es mag sein, dass aktuellste Spiele Probleme bekommen aber was ist mit den Spielen, die schon erschienen sind?

Forza Horizon 5 läuft mit 8GIB noch hervorragend. Mir fielen noch viele weitere Spiele ein....
 
Ich verstehe auch nicht, warum 8GiB auf einmal so niedergemacht werden.
Es geht dabei weniger um die Technik an sich, sondern darum, dass im Produktbereich Hardware wo es seit 50 Jahren üblich ist nach vergleichsweise kurzer Zeit mehr Leistung/Speicher/Flops/etc. für weniger Geld zu bekommen es auf einmal so ist, dass man Jahre nachdem 8GB-Grafikkarten Standard sind immer noch 8GB-Karten kaufen soll... nur für mehr Geld. ;-)

Nach dem Schema der letzten 20 Jahre müssten wir heute eigentlich Grafikkarten mit 32 GB vRAM für 500€ haben - was wir hauptsächlich nicht haben weil es marktstrategisch und bilanz/margentechnisch für NVidia nicht angebracht ist - nicht weil es technisch ein Problem wäre.
 
Die 4070 gibts doch schon im Angebot für 599€,

@Hannesjooo
Aber warum wird überhaupt die 4070 hier in dem Thread wo es um 8GB Karten geht überhaupt erwähnt, der VRAM an sich ist mit 12GB doch völlig ok.
Die 4070 ist eine 4060 zum Preis einer 4080, ein erhobener Mittelfinger von Nvidia an die Midrange Community
Keine Ahnung ob viele glauben das die 4070 nur 8GB hat.
Das glaubt keiner, aber alle die wegen so "kinkerlitzchen" nie wieder Nvidia wollen kann man ja so
als dumm dastehen lassen. Hast Recht wir sind das Problem...
Konsumiere einfach weiter, Nestlé Tütensuppen-Totalitarismus 4 ever...
Die RTX 4070 ist Alternativlos :devil::devil::devil:
 
Zuletzt bearbeitet:
Jede AMD-Karte die ich die letzten Jahre verbaut habe hat Probleme gemacht. JEDE.
Bei der einen waren es sehr hohe Temperaturen (was nachher auch durch die Presse ging als Kühlerbug), andere hatten seltsame Probleme mit Treiber und Spielabstürzen, AMD schaffts seit 10 Jahren nicht ihren Idle-Verbrauch in den Griff zu bekommen (es sei denn man hat irgendwie "Glück") und vieles mehr. All das habe ich bei verbauten NV Karten eben nicht - die baust du ein und es funktioniert alles.

Ich will damit keinesfalls sagen dss AMD schlchte Karten baut. Nur habe ich persönlich auf das Gefrickel das ich erfahren musste keine Lust mehr, was auch der Grund ist warum mein nächstes System kein Ryzen mehr sein wird - da hab ich nämlich die letzten Jahre den gleichen Bums mit Bugs, BIOS-Updates, Instabilitäten, Kuriositäten und so weiter erlebt während die Inteldinger die ich gebaut habe absolut "wartungsfrei" waren. Ach hier: Ryzen CPUs sind nicht schlecht, nur das drumherum ist einfach zu "unsicher" wenn ich nie weiß, ob beim nächsten Booten beispielsweise noch alle meine Laufwerke da sind (eine der Kuriositäten).

Das Argbument "aber AMD hat fürs gleiche Geld mehr vRAM" stimmt zwar, wiegt aber den ganzen Rest da nicht ansatzweise auf.
Mit den Leuten mit denen ich PUBG spiele haben auch alle Ryzen Systeme und ständig Spiele Abstürze etc.
Ich komischerweise nicht.

Allerdings empfehle ich und verbaue für andere auch Ryzen Systeme und AMD Karten.

Vieles macht AMD ja auch gut.
So das ich selber ja auch immer mal wieder zu AMD Hardware tendiere für mein eigenes System.
 
Zuletzt bearbeitet:
Zurück