News Neue 8-GiByte-Grafikkarten im Jahr 2023 ... - Das sagen die PCGH-Redakteure dazu

Sind Sie eben nicht. Nur aus Sicht der absoluten High End Gamer, die aber insgesamt eher in der Minderheit sind.
Es wird aber von Vielen der Eindruck erweckt, das Jeder 16 GIG bei einer Graka braucht.
Manchmal, aber immer öfters, vermisse ich die ersten Jahre von PCGH. Da wurde noch richtig diskutiert und andere Meinungen akzeptiert . Es gab zwar auch schon Fanboys, aber Sie taten nicht so, die absolute Durchsicht zu haben. Die Redakteure schauten auch mal mehr nach rechts und links und vereinten ALLE Gamer unter einen Dach. Aber ich schweife ab.
 
Schon wieder dieses starre einseitige denken, du hast dir meinen Beitrag offenbar gar nicht überlegt, du denkst zu sehr in deiner Blase.
Das es mit der 3060 6gb und der 3060 12gb und auch mit anderen karten zeigt das ohne genug Vram die Leistung nicht genutzt werden kann scheinst du nicht verstehen zu wollen.
Und der Spieler der nicht das beste haben will und nun eine 1060 hat wird irgendwann auch aufrüsten wollen und dann denkt der sich unter Umständen das eine 4060 wohl eine gute alternative ist, ist ja immerhin 3 Generationen weiter, nur das die Leistung deutlich mehr als der Ram angestiegen ist und im Vergleich zur 1060 ist die chance groß das er da nicht so lange so viel freude mit haben wird.
Die Zeiten ändern sich auch für die die nun nur spiel x spielen, glaubst du die ganze welt steht still und keiner wird je etwas neueres spielen wollen?
Genau so ist es, die Firmen entwickeln natürlich ausschließlich Produkte die dir nicht gefallen, ist doch logisch, sehr Wirtschaftlich *Hust Sarkasmus*. Natürlich kostet mehr Vram auch mehr Geld, außerdem ist Nvidia nicht die einzige Firma die Grafikkarten anbietet, die Teils auch mehr Vram fürs gleiche Geld bieten, also wo soll hier ein Problem sein.
Ich sehe mich nicht gezwungen aufzurüsten es geht mir ums Prinizip also kannst deinen Sarkasmus behalten ;P
Ich kann es nicht bestätigen aber habe schon öfters gelesen das das mehr Geld wohl im bereich von 20€ wäre und das es auch Karten mit mehr Ram gibt darum geht es doch gar nicht .....
Es geht mir nur darum das es nicht wie auch schon bei der 3070ti eine Sollbruchstelle bei einer Grafikkarte gibt die Leistung reicht aber der ram ist zu wenig.
Ich sehe du hast keine eigene Firma, auch arbeitest du nicht in einer Führungsposition, es ist für dich also sinnvoll nur teurere Karten zu bauen die sich die ärmeren erst gar nicht leisten können, schon mal überlegt das beides, also viel Vram und Preisgünstig, einfach nicht möglich ist... ich glaube nicht. Wie bereits gesagt, Spiele die nicht so Leistungshungrig sind bedeuten nicht das sie alt sein müssen, du hast scheinbar noch immer nicht die Liste der beliebten Spiele auf twitch gesehen. Du spielst zu viele Grafikblender.
Ich finde es mitunter sehr unterhaltsam was man mir unterstellt.
Das viel Vram und günstig nicht möglich ist wenn die Mehrkosten 20€ sind trifft wohl nur bei 100€ karten zu.
Aber zur Korrektur die "Grafikkblender" die ich gespielt habe waren Forspoken und Saint Row Reboot (beide bei der karte dabei) oder so imba Spiele wie Skyrim oder Subnautica oder Raft oder Anno....

Ich habe bedeutend mehr als du :D
Ja hat recht den Satz hatte irgendwie falsch gelesen.

Eigentlich sollte es mir egal sein, bis ich eine Neue Karte kaufen will / muss wird alles was nun da ist schon altes Eisen sein, aber trotz allem denke ich einen Trend den man nicht mag, sollte man nicht stillschweigend hinnehmen.
 
wenig vram ist einfach fürn arsch. ja ich habe ein fhd display mit 60hz und deshalb keinerlei probleme mit meinen 6gb. das problem ist aber das der monitor schon echt alt ist und ich für besseres arbeiten mal ein neuen brauche. meine wahl fällt da auf einen 49zoll 32:9, mit der 1440er auflösung. wenn man das ausrechnet ist das fast 4k. ergo muss ich bei der wahl der karte eine nehmen die 4k in ordentlich schaft, schliesslich hat der monitor 120hz dann. was soll ich also mit einer lächerlichen 4070ti? die gpu würde das wohl ganbz gut machen, aber der vram macht sicherlich schnell probleme. insofern ist es doch klar das jeder der mehr als ein display oder mehr als fhd hat ein problem bekommt wenn er so ein scheiss kauft. klar könnte man jede generation mitnehmen und ist dann auch save. aber ehrlich gesagt stehe ich da nicht so sehr darauf, zumal es extreme resourcenverschwendung ist, wo sind da eigentlich die grünen? ach ja, die scheissen ja auf die umwelt....
 
meine wahl fällt da auf einen 49zoll 32:9, mit der 1440er auflösung. wenn man das ausrechnet ist das fast 4k. ergo muss ich bei der wahl der karte eine nehmen die 4k in ordentlich schaft
Nun ja, zur Sicherheit würde ich dir da ausschließlich eine 5090 empfehlen, denn eine 4090 wo man mitunter auf Frame Generation angewiesen ist, ist nicht ganz das wahre.

Und zum Glück interessieren mich XX60er Karten mit 8GB nicht, denn selbst für einen zweit PC mit schwächerer Grafikkarte erwarte ich mindestens 10GB im Jahre 2023 für FullHD.
 
Die Zeiten ändern sich auch für die die nun nur spiel x spielen, glaubst du die ganze welt steht still und keiner wird je etwas neueres spielen wollen?
Warum ist nVidia verpflichtet dir eine genehme Grafikkarte zu bauen ? Es gibt noch zwei weitere Anbieter bei denen du kaufen kannst und mehr Vram bekommst. Nvidia legt somit nicht den "Enthusiasten-Einsteigermarkt" lahm !

Das selbst PCGH "Redakteure" Unfug schreiben wie "Kann man es nicht einfach lassen solchen E-Schrott zu produzieren" ist natürlich ein soziales Armutszeugnis. Es werden heute noch alle 6GB Karten auf eBay für normale Preise verkauft. Selbst für eine 8 Jahre alte 1060 mit 3GB werden noch über 50€ gezahlt. Weil es eben für eine gewisse Käuferschicht Verwendung dafür gibt.

Sollte also ein Käufer einer 4060Ti doch noch zum Premiumspieler avancieren und dringend mehr Vram brauchen, dann muss er sich halt eine entsprechende Grafikkarte kaufen und sein Eigen wieder veräußern. Da ist nichts mit Elektroschrott. Und man braucht Leute die nur "8GB Karten" kaufen nicht in eine Ecke stellen mit Almosenempfängern.

Elektroschrott wird es wenn von 24GB Speicher in der gesamten Nutzungszeit der Grafikkarte nie mehr als 12GB Speicher nützlich zum Einsatz kommen.
 
Zuletzt bearbeitet:
Vielleicht hatte ich auch einfach Pech (was aber schon statistisch signifikant war da wir hier doch von einigen Systemen reden) - was aber trotzdem dazu führt dass ich AMD jetzt wieder ein paar Jahre meide.


...und dann kuckste mal was passieren kann je nachdem welche Monitore man wie anschließt:
Anhang anzeigen 1424462

Mein 4K 144Hz TFT an einer 7900XTX waren tatsächlich auch hier 100W (!!) beim nichtstun - man spart Strom wenn man Youtube anwirft weil die Karte unter kleiner Last WENIGER braucht als beim nichtstun! Das ist aber nicht jedesmal so sondern völlig random (bei einer Karte ists so, bei ner anderen nicht). Dann kommen Treiberupdates dies manchmal fixen, manchmal so halb (dass es "nur" noch 40W sind was immer noch viel zu viel ist) und manchmal nicht. Und genau diese "Unsicherheit" ist es, die ich nicht mehr will. Es geht nicht um 10W mehr oder weniger, es geht darum, dass der Hersteller offenbar grundlegende Dinge die seit Jahrzehnten Stand der Technik sind nicht gebacken bekommt.

NVidia kann sich solche Preistreibereien und Speicherknappheiten auch deswegen erlauben weil sie eine extreme Marktdurchdringung haben - und die haben sie auch deswegen, weil AMD noch immer weitläufig als minderwertig empfunden wird... solche Dinge wie das hier beschriebene sind in der Summe und über viele viele Jahre hinweg der Grund für dieses Image.
Ja, 100 Watt, die einfach im Idle auf dem Desktop weggelutscht werden, finde ich auch komplett daneben. Aber to be fair, genau das hab ich vor gar nicht langer Zeit auch mal nachgemessen (da ging's um Spieleverbrauch, bzw. wie man den ein bisschen eingefangen bekommt, aber da ist eine gewisse Grundlinie ja durchaus auch interessant - ist nicht superpenibel gemessen und gerundet und stuff, aber: )

Das ist allerdings Gesamtverbrauch des PCs (ohne Display) und die Vorgänger-Generation:

Sparsam ist unser Testunterbau unter diesen Bedingungen nicht direkt: Schon auf dem Desktop stehen ohne Display nach 5 Minuten Ruhezeit wenigstens 95 Watt (RTX 3070), über 110 W (RX 6700 XT, RTX 4080) und 120 W (RTX 3090 Ti) bis hin zu 130 W (RX 6950) am Stromzähler. Zum Vergleich: Die aktuellen Konsolen genehmigen sich unter Volllast rund 200 (Xbox Series X) und 220 Watt (Playstation 5). Nicht inkludiert ist in allen Fällen das Display, in unserem Fall kommt eine weitere Leistungsaufnahme von maximal 40 Watt für das 4K-144-Hz-Display hinzu. Die 64-Bit-Version von Windows 11 (21H2) nutzt für unser Unterfangen den Energiesparplan "Ausgewogen". HDR, Gsync oder Freesync sind wie Vsync in den Spielen und Treibern deaktiviert. Los geht's, lassen Sie uns gemeinsam sparen!

Das ist MIT "Energiesparplan Ausgewogen" - das sollte sich also alles ordentlich runtertakten. Aber sowohl (Intel-)CPU als auch AMD & Nvidia-Karten saufen fröhlich vor sich hin.

PCGH 01/2023 Framelimits bzw. [PLUS]Artikel

Gruß,
Phil
 
Zuletzt bearbeitet:
Nun ja, zur Sicherheit würde ich dir da ausschließlich eine 5090 empfehlen, denn eine 4090 wo man mitunter auf Frame Generation angewiesen ist, ist nicht ganz das wahre.

Und zum Glück interessieren mich XX60er Karten mit 8GB nicht, denn selbst für einen zweit PC mit schwächerer Grafikkarte erwarte ich mindestens 10GB im Jahre 2023 für FullHD.
daran habe ich auch schon gedacht, gut das ich erst nächstes jahr das teil kaufen will. vieleicht habe ich ja glück und die 5080 oder 5090 ist da schon draussen. zum einen könnte die 4090 dann günstiger werden oder eben die 5000er karten interessant. aber das schrieb ich ja bereits. leider weiss ich noch nicht was da auf uns zu kommt. man wird es sehen, ich hoffe nicht wieder so eine ***.
 
Warum ist nVidia verpflichtet dir eine genehme Grafikkarte zu bauen ?
Nvidia verpflichtet sich nur den Aktionären mehr gewinn zu machen, aber man muss nicht alles schlucken was die machen ohne sich darüber zu äußern.
Es gibt noch zwei weitere Anbieter bei denen du kaufen kannst und mehr Vram bekommst.
Wie schon erwähnt ich plane in den nächsten Jahren keinen Kauf also außer um darüber zu diskutieren könnte mir das eigentlich erstmal egal sein und was in ein paar Jahren ist das wird sich zeigen.
Selbst für eine 8 Jahre alte 1060 mit 3GB werden noch über 50€ gezahlt.
Ich hab letztes Jahr auch mich gezwungen gesehen eine 1030 zu kaufen da meine CPU keine IGP hat ich weiß das auch die alten karten noch sinn haben und für den ein oder anderen brauchbar sind, aber es ist ein unterschied für unter 100€ zu wenig Ram zu kaufen oder für über 500€.
Sollte also ein Käufer einer 4060Ti doch noch zum Premiumspieler avancieren und dringend mehr Vram brauchen, dann muss er sich halt eine entsprechende Grafikkarte kaufen und sein Eigen wieder veräußern. Da ist nichts mit Elektroschrott.
Ich glaube nicht das da was mit Premiumspieler ist, wenn man bedenkt wie die 3070er momentan stehen da dürfte der Trend deutlich sichtbar sein das in Zukunft immer mehr Spiele probleme machen werden.
Und wenn man keinen Elektroschrott haben will sollte man immer nur Gebraucht kaufen und danach weiter Verkaufen ;)
Und man braucht Leute die nur "8GB Karten" kaufen nicht in eine Ecke stellen mit Almosenempfängern.
Also wenn ein Almosenempfänger sich eine Grafikkarte von 500€ leisten kann dann will ich auch Almosen.

Ne Spaß beiseite es geht mir darum das ich finde bei dem Preis und der GPU Leistung sind 8gb einfach nicht angemessen.
 
Der finanzielle Punkt ist ja das es heute schon eine 3060Ti in guter Ausführung für 399€ gibt. Leistungstechnisch wird die 4060Ti nicht wirklich mehr reißen. Man darf daher davon ausgehen das die 4060Ti maximal 349€ kosten wird. Das kann man sich heute schlecht vorstellen aber bis dahin ist noch viel Zeit und der Sommer wird die Preise schon nach unten rütteln. Eine 4060 kann bei 280€ liegen und eine 4050 bei 200€. Das ist dann alles irgendwo im Rahmen (wenn auch preislich nichts tolles).
 
Man darf daher davon ausgehen das die 4060Ti maximal 349€ kosten wird. Das kann man sich heute schlecht vorstellen aber bis dahin ist noch viel Zeit und der Sommer wird die Preise schon nach unten rütteln. Eine 4060 kann bei 280€ liegen und eine 4050 bei 200€
Wenn ich die Preise bei den 70er sehe bezweifel ich das stark aber hey da wären dann die 8gb schon erträglicher vom Preis her.
 
Der finanzielle Punkt ist ja das es heute schon eine 3060Ti in guter Ausführung für 399€ gibt. Leistungstechnisch wird die 4060Ti nicht wirklich mehr reißen. Man darf daher davon ausgehen das die 4060Ti maximal 349€ kosten wird. Das kann man sich heute schlecht vorstellen aber bis dahin ist noch viel Zeit und der Sommer wird die Preise schon nach unten rütteln. Eine 4060 kann bei 280€ liegen und eine 4050 bei 200€. Das ist dann alles irgendwo im Rahmen (wenn auch preislich nichts tolles).
Aber die 4060 12 GB kostet doch schon 700 EUR. :ugly:
 
Aber die 4060 12 GB kostet doch schon 700 EUR. :ugly:
Die 4070 12GB wird auch im Sommer, nach dem der 50$ Rabatt greift, immer noch 550€ kosten. Das geht natürlich nur weil AMD und Intel keine Konkurrenz sind. Würde nVidia die Preise massiv senken, was sie könnten, hätten sie bald gar keine Gegner mehr. Das sinnvollste für nVidia wäre wenn sie einfach an jede GPU zusätzlich 50% Fakesilizium anshiften würden. Dann gäbe es überhaupt keine Preisdiskussion. Dann würden alle glauben das FG so viel Platz braucht...
 
Natürlich kann nVidia nicht ewig die Preise pro Leistung gleich hoch halten, sowas funktioniert nur kurzfristig. Das hat nichts mit Wunschvorstellungen zu tun.
 
Wenn man die UVP der 30er Generation und die aktuellen Preise sieht, wage ich da zu behaupten du glaubst auch noch an den Weihnachtsmann.
Du meinst zum Beispiel die RTX 3070, die eine UVP von 500$ hat und bei 489€ beginnt? :ugly:

Wir hoffen natürlich auf sinkende Preise, aber nur die Zeit wird das zeigen.
 
Diese GA104 Karten sind überhaupt nicht mehr relevant. Da tröpfeln noch ein paar Karten aus den Lägern, von der Hochproduktion ist man da weit entfernt. Da stehen genau so nichtssagende Preise dran wie an den GA102 Karten. Die "MSI GeForce RTX 3070 GAMING TRIO PLUS LHR " wurde in 1,5 Jahren 150x bei Mindfactory verkauft, während die "MSI Geforce RTX 4070 GAMING X TRIO" in 1,5 Wochen 230x verkauft wurde. NewsUpdate: Die 4070 verkauft sich wie geschnitten Brot :-P
 
Wie schön von den Vorrednern erwähnt hängt es rein an der damit gepaarten GPU.
Arc A770 8GB ist mittlerweile unter 300€ gefallen, so sind es 80€ oder 27% Aufpreis für mehr Speicher. Da kann das P/L Verhältnis schon mal zum kleineren Modell ausschlagen.
Ich bin bei @PCGH_Raff dass eine Speicherwahl für den Endnutzer auch bei anderen Karten schick wäre, in der Vergangenheit (z.B. 6800-512MB, 7970-6GB)hat das aber eigentlich immer nur als Werbemaßnahme für das schlechter bestückte Modell gewirkt.

Wenn du dir deswegen eine kleine ARC holst, versuche aber keine der von Raff getesteten RAM-Killerspiele zu spielen.
Die ARC frisst Speicher.
Halo udn Co. lassen grüßen.
 
Wenn du dir deswegen eine kleine ARC holst, versuche aber keine der von Raff getesteten RAM-Killerspiele zu spielen.
Die ARC frisst Speicher.
Halo udn Co. lassen grüßen.
Ich hol mir garkeine Arc weil sie langsamer ist als meine alte Karte. Aber trotzdem finde ich das P/L Verhältnis der A770-8GB bei 284€ aktuell ziemlich gut.
 
Überlege grade eine RX 6800 für 425 Tacken in der Bucht zu kaufen...
Mal schauen wie viel meine 3060 einbringen wird.
Dann entweder Arc770 SE oder diese....
 
Zurück