News Geforce RTX 4070 und 4060: 12 und 8 GiByte Grafikspeicher sind bestätigt

Naja, wer kauft sich diese Karten? Das sind nicht mehr die WQHD-Gamer, sondern die, die mit 1080p unterwegs sind und dort sind 8GB ausreichend und 12GB recht üppig. Zukunftssicherheit kauft man sich in dieser Leistungsklasse eh nicht und für den Moment und die kommenden Jahre reicht das der Zielgruppe aus.

Nvidia hatte bei der 4060 die Wahl zwischen 4, 8 und 16GB und bei der 4070 zwischen 6, 12 und 24GB. Was man dort als Hersteller nimmt sollte eigentlich für jedem verständlich sein. 12GB bei der 4060 hätten eine Mischbestückung erzwungen, wo 4GB mit schmalem Bus angebunden wären und das will ja auch niemand haben. Bei der 4070 wäre bei 16GB nur eine bessere 4060 bei rum gekommen.
 
Das Schlimme ist allerdings, dass die Leute es trotz der zahlreichen Skandale kaufen.
Man muss sich immer vor Augen führen, was man von der Konkurrenz in diesem Preisbereich bekommt.

Von AMD bekommt man eine alte RX 6700XT mit viel höherem Verbrauch, keinem aktuellen Featureset, aber dafür 12GB Speicher.
Intel hängt mit seiner ARC auch in den Seilen, insofern ists von Nvidia ein schlauer Schachzug erst einmal 8GB Karten auf die Leute loszulassen und die Gewinne zu optimieren, später möglich ein Upgrade auf 16GB anzubieten.

Die Karten von AMD sollen erst Q3 23 kommen. Ich verstehe diese Aufregung nicht. Dann kauft man eben nicht.
 
Naja, wer kauft sich diese Karten? Das sind nicht mehr die WQHD-Gamer, sondern die, die mit 1080p unterwegs sind und dort sind 8GB ausreichend und 12GB recht üppig. Zukunftssicherheit kauft man sich in dieser Leistungsklasse eh nicht und für den Moment und die kommenden Jahre reicht das der Zielgruppe aus.

Nvidia hatte bei der 4060 die Wahl zwischen 4, 8 und 16GB und bei der 4070 zwischen 6, 12 und 24GB. Was man dort als Hersteller nimmt sollte eigentlich für jedem verständlich sein. 12GB bei der 4060 hätten eine Mischbestückung erzwungen, wo 4GB mit schmalem Bus angebunden wären und das will ja auch niemand haben. Bei der 4070 wäre bei 16GB nur eine bessere 4060 bei rum gekommen.
Das ist schon verständlich, aber resultiert bei der gewählten Architektur und Modellen nun mal dennoch in einer Fehlplanung für die aktuellen Anforderungen im Jahr 2023+. Für den Moment reicht es nach meiner Kenntnis eben nicht (mehr) aus wenn man in die Anfoderungen von RE4 oder Hogwarts Legacy schaut. Eine 4060 im Jahr 2023 zu kaufen um in in erster Linie in FHD zu spielen ist schon irgendwie am Ziel vorbei würde ich sagen.

Ich denke viel mehr muss man eigentlich nicht mehr zu Nvidias Vorgehen sagen, die haben sich verkalkuliert. Evtl. können sie über den Preis locken oder mit oversiztem VRAM der kommenden Revisionen nachbessern.
 
Zuletzt bearbeitet:
Naja, wer kauft sich diese Karten? Das sind nicht mehr die WQHD-Gamer, sondern die, die mit 1080p unterwegs sind und dort sind 8GB ausreichend und 12GB recht üppig. Zukunftssicherheit kauft man sich in dieser Leistungsklasse eh nicht und für den Moment und die kommenden Jahre reicht das der Zielgruppe aus.

Nvidia hatte bei der 4060 die Wahl zwischen 4, 8 und 16GB und bei der 4070 zwischen 6, 12 und 24GB. Was man dort als Hersteller nimmt sollte eigentlich für jedem verständlich sein. 12GB bei der 4060 hätten eine Mischbestückung erzwungen, wo 4GB mit schmalem Bus angebunden wären und das will ja auch niemand haben. Bei der 4070 wäre bei 16GB nur eine bessere 4060 bei rum gekommen.
Die einfachste Lösung dafür wäre, wie früher, auch die doppelte Speichermenge anzubieten. Wenn man auf den VRAM, aber nicht so sehr auf die Leistung angewiesen ist, bleibt einem nur der Griff zu einem höherpreisigen Modell. Ist aber schon länger aus der Mode, wahrscheinlich weil man damit wunderbar upsellen kann.
 
Sieh Dir doch die Kaufberatungen an...In FHD wird immer noch eine beschnittene RX 6600/XT vor der RTX 3060 empfohlen. Da jucken die 8GB nicht...bei Nvidia sind 8GB der Tod.
Die Argumente gelten meist nur dann, wenn man seine eigenen Bedürfnisse auf verhasste Unternehmen projiziert. Reale Kaufberatungen arbeiten mit dem was da ist. Und da gilt immer noch: Geiz ist geil.
Hier wird ja auch nicht verstanden, dass Unternehmen in erster Linie nur auf Produkte der Konkurrenz reagieren, insofern muss Nvidia erst einmal gar keine Karte mit mehr als 8GB bringen um gegen AMD´s alte Generation zu konkurrieren. Dafür bringen die Karten trotz Speichermangel zu viel Performance und Effizienz.
 
Habe ich das irgendwo geschrieben?
Im direkten Vergleich (2560x1440p mit Raytracing) ist die RTX 4070Ti nun mal vor der RX 7900 XT und das bei weniger Verbrauch. Das ist alles...das bedeuted ja nicht, dass die RX 7900 XT für Raytracing nicht geeignet ist.
Ausserdem ist FG für mich ein gehöriger Punkt bei knappen Entscheidungen...FG hilft ja nicht nur der GPU auf die Sprünge. Der nicht mehr taufrische R9 3900X ist da dankbar für jede Hilfe :daumen:
Das Problem ist halt, dass FG nicht gerade wenig VRAM frisst. In Hogwarts Legacy hat FG bei mir allein auf FHD bis zu 3 GB VRAM gefressen. 4070 (Ti) sind da schon hart an der Grenze - auch, was sicherlich noch kommende Spiele angeht. Bin mir unsicher, ob die 7900XT da nicht die bessere Wahl ist.
Das ist relativ. Bei einem günstigen Preis wird man sich das Ding für Full HD und WQHD eventuell schon antun.
Maximal FHD. Für 200 Tacken wäre das dann ok, anderenfalls -> :kotz:
 
Man muss sich immer vor Augen führen, was man von der Konkurrenz in diesem Preisbereich bekommt.

Von AMD bekommt man eine alte RX 6700XT mit viel höherem Verbrauch, keinem aktuellen Featureset, aber dafür 12GB Speicher.
Intel hängt mit seiner ARC auch in den Seilen, insofern ists von Nvidia ein schlauer Schachzug erst einmal 8GB Karten auf die Leute loszulassen und die Gewinne zu optimieren, später möglich ein Upgrade auf 16GB anzubieten.

Die Karten von AMD sollen erst Q3 23 kommen. Ich verstehe diese Aufregung nicht. Dann kauft man eben nicht.
Für 400€ (aktueller Markpreis für brauchbare Customs) erhält man eine 6700XT mit 12 GB VRAM.
Die 3060 (ti) mit 8 GB VRAM liegt preislich gleichauf.

Es ist davon auszugehen, dass die 4060 (ti) nicht den Preis der 3060 (ti) annimmt und diese ersetzt, sondern sich eher 100€ darüber positioniert. Die Leistungs- und Preislücke zur 4070ti, welche die 4070 schließen wird, wäre sonst selbst für Nvidia-Verhältnisse total unplausibel.

Und, dass Nvidia erstmal die Akzeptanz von 8GB bei der 4060(ti) testet, um später ggf. zu verdoppeln (!) und damit mehr als die 4070(ti) anbietet ... kann ich mir nicht wirklich vorstellen.
 
Es ist davon auszugehen, dass die 4060 (ti) nicht den Preis der 3060 (ti) annimmt und diese ersetzt, sondern sich eher 100€ darüber positioniert. Die Leistungs- und Preislücke zur 4070ti, welche die 4070 schließen wird, wäre sonst selbst für Nvidia-Verhältnisse total unplausibel.
Da Nvidia diesen Chip für die 4050 und 4050Ti vorgesehen hat, kann ich mir durchaus vorstellen, dass man die 8GB Varianten für 299 Dollar (4060) und 399 Dollar (4060Ti) feilbietet und eine 16GB Variante dann 449 Dollar kostet, während eine 4070 10GB für 549 und die 12GB Variante für 629 Dollar angeboten wird.

So in etwa meine Erwartungen. Ich denke Nvidia wird ein ganz gutes Angebot machen und AMD sanft unter Druck setzen. Die 8GB Varianten sind dann was für Sparfüchse und ins Fettnäpfchen Treter, wenn man damit 4K anpeilt.
 
Naja da der Preis ja auch jenseits allen Gutes sein soll kann sich Nvidia die Karten sonst wo hin sch... .Wär die 4070 mit 16GB ausgestattet könnte man ja noch darüber nachdenken aber so fällt für mich die Karte durch.
 
Habe ich das irgendwo geschrieben?
Im direkten Vergleich (2560x1440p mit Raytracing) ist die RTX 4070Ti nun mal vor der RX 7900 XT und das bei weniger Verbrauch. Das ist alles...das bedeuted ja nicht, dass die RX 7900 XT für Raytracing nicht geeignet ist.
Ausserdem ist FG für mich ein gehöriger Punkt bei knappen Entscheidungen...FG hilft ja nicht nur der GPU auf die Sprünge. Der nicht mehr taufrische R9 3900X ist da dankbar für jede Hilfe :daumen:
Es geht mir halt um die Aussage, wer Raytracing will greift zu Nvidia oder wie du es geschrieben hast nicht zu AMD.

Okay es ist ein gewisser Zeitlicher unterschied mit drin aber mit den aktuellen AMD Karten ist sogar in 5k noch ein wenig Luft für Raytracing, unter WQHD und UWQHD ist also ab einer RTX 3080 und RX 7900XT meiner Meinung nach Raytracing schon uneingeschränkt machbar.


Sofern man die Messlatte nicht bei Cyberpunk ansetzt.
Bei Cyberpunk sehe ich da ehr eine 3090 bzw 7900XTX als minimum für Raytracing in WQHD.

Ebenfalls ist die 4070Ti in Raster der direkte Konkurrent zur 7900XT ja.

Mit Raytracing sehe ich aber ehr die 4070TI vs 7900XTX vs RTX 3090.
Auffällig hier ist nur das die 4070TI mangels Speichermangel fast immer den kürzeren zieht obwohl die Raytracing GPU Rohleistung eigentlich sogar besser ist als als beide anderen Karten.
Gibt wirklich wenige die genau diese 3 Karten mit einander Vergleichen...

Die zweite AMD Raytracing Generation macht es aber wesentlich angenehmer und ich nehme meinen direkten Vergleich von der 6900XT aus gesehen, würde gerne mal ein Raytracing Special von PCGH sehen.
Was wenn AMD auch mit 8GB ankommt?

Unterhalb der 7800XTX/4070ti dürften sich beide nämlich gar nichts tun.
Ist die Frage wie gut die Raytracing Leistung überhaupt ist.
Wenn sie sich nur auf dem Niveau einer 6900XT oder 3070 bewegt spielt das eh keine große Rolle.
Da kann man Raytracing ja nur in 1080p uneingeschränkt an machen und benötigt teilweise noch upscaler.
 
Man muss sich immer vor Augen führen, was man von der Konkurrenz in diesem Preisbereich bekommt.

Von AMD bekommt man eine alte RX 6700XT mit viel höherem Verbrauch, keinem aktuellen Featureset, aber dafür 12GB Speicher.
Intel hängt mit seiner ARC auch in den Seilen, insofern ists von Nvidia ein schlauer Schachzug erst einmal 8GB Karten auf die Leute loszulassen und die Gewinne zu optimieren, später möglich ein Upgrade auf 16GB anzubieten.

Die Karten von AMD sollen erst Q3 23 kommen. Ich verstehe diese Aufregung nicht. Dann kauft man eben nicht.
Wenn du mit Preisbereich die Rtx4070 meinst dann dazu folgendes: die Rtx4070ti kostet aktuell ca. ab 880€. Dafür gibt es die Rx7900xt mit 20gb die rtx4070 wir sicher bei ca 700-750€ liegen. Dafür gibt es die Rx6950xt mit 16gb.
NV wird es schwer haben wobei es einfach zu viele Fans sind die NV kaufen egal wie.
Eine rtx4070 ist definitiv die 4k Zielgruppe und da sind 8 oder 12 gb definitiv zu wenig
 
Naja, wer kauft sich diese Karten? Das sind nicht mehr die WQHD-Gamer, sondern die, die mit 1080p unterwegs sind und dort sind 8GB ausreichend und 12GB recht üppig. Zukunftssicherheit kauft man sich in dieser Leistungsklasse eh nicht und für den Moment und die kommenden Jahre reicht das der Zielgruppe aus.

Nvidia hatte bei der 4060 die Wahl zwischen 4, 8 und 16GB und bei der 4070 zwischen 6, 12 und 24GB. Was man dort als Hersteller nimmt sollte eigentlich für jedem verständlich sein. 12GB bei der 4060 hätten eine Mischbestückung erzwungen, wo 4GB mit schmalem Bus angebunden wären und das will ja auch niemand haben. Bei der 4070 wäre bei 16GB nur eine bessere 4060 bei rum gekommen.

Ich wäre einfach dafür bei der 60er Karte aufm 192 Bit SI zu bleiben, 12GB als Standard zu nutzen und die 70er Karten mit 256er SI sowie 16GB zu setzen. Dann kann die 4080 entweder ebenfalls als Verschnitt auf 16GB setzen oder man gleicht es AMD an und nimmt ein 320er Interface mit 20GB und um sich von de 90er Karte mit 384 Bit und 24 zu differenzieren, fertig ist das bedeutend rundere Portfolio...

Mangelnder VRAM kann nichtmal eben "gefixt" werden, mehr RAM war schon immer besser. Hat man bei Tahiti vs Kepler gesehen, bei Hawaii vs Kepler, bei Polaris vs Pascal, die AMD Karten unterlagen am Anfang immer und mit der Zeit zogen sie vorbei oder haben die nVidia Pendants teilweise überrundet... Denn wenn man hier auch auf den unwissenden Otto Normalo schaut und als Argument benutzt, statt auf unser Forum mit Enthusiasten, sollte man wissen das Karten dort gerne 3-6+ Jahre genutzt werden.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Selbst bei oft unseriösen Youtube Tests sieht man es stark...

Dann können potentielle 50er und 40er Karten auf 8/6 und 4GB setzen, fertig. Aber das wäre ja zu sinnvoll und dem Preis angemessen... Außerdem würde es ja positiv für den Kunden sein, sowie RT, DLSS und FG entgegenkommen, da man für jede Technik ebenfalls teils ordentlich VRAM braucht... Aber entweder scheinen das bestimmte User nicht zu wissen oder aktiv zu ignorieren, weil man so verblendet vom Marketing ist.

Aber hey, es ist nVidia also Geiz ist Geil, aber nur fürs Unternehmen, der Kunde bekommt quasi schlechtere Produkte als in der Vorgänger Generation zum höheren Preis, welcher mit Software Features argumentiert wird, welcher bei älteren Generationen (teils) künstlich beschnitten wird... Ganz großes Kino und das wird hier im Forum verteidigt und teils gefeiert.
 
Zuletzt bearbeitet:
NV wird es schwer haben wobei es einfach zu viele Fans sind die NV kaufen egal wie.
Ich verstehe absolut nicht, wie man der Meinung sein kann, Nvidia würde es schwer haben. Wenn Nvidia nur wollte könnte man jedes AMD Produkt im Preis deutlich unterbieten und dabei noch mit mehr Gewinn rausgehen.

Nvidia verkauft eine RTX 4060Ti 16GB für 1199 Dollar, mehr ist die 4080 nicht, da außerdem noch beschnitten. (Abgesehen von den höheren Produktionskosten und mehr Speicher)Der Chip hat nicht mal 60% der SM eines AD 102.

Grundsätzlich hat Nvidia selbst AMD unter Druck gesetzt und die 4070Ti für 799 Dollar gebracht und AMD gezwungen die 7900XT auf den gleichen Preis zu senken und das mit dem drittgrößten Chip.

Nvidia ist diese Generation fein raus und kann sich nur selbst Steine in den Weg legen.
 
Mangelnder VRAM kann nichtmal eben "gefixt" werden, mehr RAM war schon immer besser. Hat man bei Tahiti vs Kepler gesehen, bei Hawaii vs Kepler, bei Polaris vs Pascal, die AMD Karten unterlagen am Anfang immer und mit der Zeit zogen sie vorbei oder haben die nVidia Pendants teilweise überrundet... Denn wenn man hier auch auf den unwissenden Otto Normalo schaut und als Argument benutzt, statt auf unser Forum mit Enthusiasten, sollte man wissen das Karten dort gerne 3-6+ Jahre genutzt werden.
Das sollte jeder auch wissen.
Man sollte dann eben auch mit der Konsequenz leben können / müssen entweder eine neue Karte zu kaufen oder
mit weniger FPS / Details zocken zu müssen.

Bin daher gespannt was meine RTX 2080 ersetzen wird.
(im Moment liebäugle ich wieder mit ner RX 67x0 XT / RX 6800 (XT) )
 
Die Specs der RTX4060 wirken aber sehr schwachbrüstig. Was soll man da den Freunden und Bekannten 2023 nur empfehlen können? :(
 
Versionen mit 8GB VRAM, einfach nur *lol*...
8GB VRAM werden inzwischen selbst in FullHD zunehmend unzureichend, auch 10GB viel zu knapp und auch 12GB schon zunhemend grenzwertig, aber Nvidia kommt allen ernstes auf denn Trichter mit RTX 4060 / 4070 Grafikkarten für 500 Euro plus anzubieten, die mit 8GB VRAM ausgestattet sind.
Ohne Worte, man könnte langsam meinen bei Nvidia sitzen, sorry, aber so ist es doch, nur "Schwachköpfe" im Management...
 
Zuletzt bearbeitet:
Bin daher gespannt was meine RTX 2080 ersetzen wird.
(im Moment liebäugle ich wieder mit ner RX 67x0 XT / RX 6800 (XT) )
Von einer 2080 aus gesehen bei Raytracing hast du es aktuell echt nicht leicht.
Aber ich würde nicht zu einer RX 67x0XT oder 6800XT greifen, das enttäuscht dich nur in Sachen Raytracing.

Heißer Kandidat wäre eine RX 7800XT oder 3080 12GB sofern die Preise stimmen.
Wäre in meinen Augen die bessere Wahl als 67X0XT oder 6800XT.
 
Sieh Dir doch die Kaufberatungen an...In FHD wird immer noch eine beschnittene RX 6600/XT vor der RTX 3060 empfohlen. Da jucken die 8GB nicht...bei Nvidia sind 8GB der Tod.
Wer empfiehlt das denn? Die aktuelle standard Empfehlung ist 6700 mit oder ohne XT oder eine ARC mit 16GB. Aus der alten Gen ist keine NV derzeit eine Empfehlung wert weil absurd überteuert und mit zu wenig Vram.

Die neue 60er ist Müll. Die 70er sieht nicht übel aus, kommt auf den Preis an. Wird sich wohl mit der 7700XT Kabbeln. Die 7800 ist derzeit schwer einzuschätze, die sieht nach ner Drehorgel aus.
 
Zurück