News Nvidia Geforce RTX 4070: Erste GPU-Z-Validierung aufgetaucht

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Geforce RTX 4070: Erste GPU-Z-Validierung aufgetaucht

Nvidias Geforce RTX 4070 wurde mit GPU-Z validiert und die vermuteten, technischen Daten konnten bestätigt werden. Die RTX 4070 muss sich demnach deutlich unter der RTX 4070 Ti einordnen und bietet eine um 27 Prozent geringere Rechenleistung als diese. Lesen Sie im Folgenden, welche Einschnitte es noch gibt und ab welchem Preis die RTX 4070 ein faires Geschäft werden könnte.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia Geforce RTX 4070: Erste GPU-Z-Validierung aufgetaucht
 
600+€ für eine 70er Karte mit zu wenig VRAM (die 1070 hatte bei release vor bald 7 Jahren schon 8gb VRAM). Wer sowas noch kauft ist selbst schuld. Die wird man dann so wie bei der 3070 in ein paar Jahren in den Steam Rezensionen finden, wie schlecht denn die Spiele optimiert seien und dass sie viel zu VRAM hungrig wären :ugly:
 
Dazu noch zahlreiche Problematiken wie fehlerhafte Treiber, Brandskandal, usw., die Liste ist bekanntlich sehr lang.
Und AMD soll da besser sein? Beide Hersteller nehmen sich da nicht viel!
Anbei Brandskandal: Die 4070er sollen auch auf den 8 Pin Stecker setzen.

600+€ für eine 70er Karte mit zu wenig VRAM (die 1070 hatte bei release vor bald 7 Jahren schon 8gb VRAM).
Was? Die 4070 hat 12GiB VRAM. Bei dir liest sich das so als hätte sie 8GiB.

Ob die Redaktion schon das Päckchen für die Karte bekommen hat? Sie machen ja sonst immer ein Unboxing, aber ohne offizielle Vorstellung von Saiten Nvidias gibt es sowas natürlich nicht. Nvidia ist schon fieß, die 4070TI gab es über Sylvester und die 4070 über Ostern. Der arme Raff.
 
Was? Die 4070 hat 12GiB VRAM. Bei dir liest sich das so als hätte sie 8GiB.

12GB sind die neuen 6GB der 1060 damals. Was ich damit sagen will ist, dass es eher mehr VRAM sein sollte bei der oberen Mittelklasse so wie damals bei Pascal oder teilweise bei AMD (16gb bei der RX 6800 z.B.). Kann ja nicht sein, dass man nach 7 Jahren warten, bei einem upgrade z.B. von der 1070 auf die 4070, nur zusätzlich 4gb VRAM zu deutlich höheren Preisen bekommt. Wird NVIDIA aber wahrscheinlich nie wieder machen. Schadet halt der mittlerweile extrem hohen Marge (mining boom sei dank).
 
Zuletzt bearbeitet:
Zur Not wird die 30er Serien sukzessive künstlich per Treiber gedrosselt um die 40er Serie attraktiver zum machen. Macht euch keine Sorgen. Nvidia wird seine 40er schon los. ;)
Glaube ich dir sogar, ich müsste noch mal schauen, aber ich glaube das ist jetzt schon so, wenn auch nur minimal zu sehen beim 3DMark. Glaube es macht so bei "TimeSpy" ca. 300 Punkte aus.
 
ich frag mich ja wieviel vram die neuen Konsolen in 2-3 Jahren haben werden, danach richten sich dann natürlich auch viele entwickler(-studios). ob die 16gb dann schon anfangen obsolet zu werden?
 
600+€ für eine 70er Karte mit zu wenig VRAM (die 1070 hatte bei release vor bald 7 Jahren schon 8gb VRAM). Wer sowas noch kauft ist selbst schuld. Die wird man dann so wie bei der 3070 in ein paar Jahren in den Steam Rezensionen finden, wie schlecht denn die Spiele optimiert seien und dass sie viel zu VRAM hungrig wären :ugly:
Ja, da muss man ehrlich sein. Der VRAM von 12 GB ist ein echter Mangel. Nach 2 Jahren wird eine RTX 4070 (ti) im Preis signifikant fallen, da Raytracing und DLSS Techniken den knappen Speicher sprengen. Diese Karte wird in 18 Monaten genau so verschmäht, wie heute eine 3070ti mit 8GB Speicher.

Ich würde heute keine 4070 (ti) mehr kaufen. Vermutlich ist dies nur eine Übergangskarte für 2 Jahre. Eine sehr teure Übergangskarte...
Quasi ne 3080 für mehr Geld.

Gut gemacht Nvidia!
Das Preisleistungsverhältnis der aktuellen Nvidia Generation ist mies. Ada Love hätte leistungstechnisch mehr bieten können, für weniger Geld. Doch Nvidia bremst die Generation aus.

Die RTX 4080 mit ihren 16GB VRAM gehört in die 70er Kategorie.

Kauft euch lieber eine AMD Karte. Die ist aber leider für VR und Videobearbeitungs-Enthusiasten nicht wirklich attraktiv.
 
Zuletzt bearbeitet:
Die vram Diskussion ist echt langsam ?.

Da wo 12 net reichen wird 16 auch keine Bäume mehr rausreißen . Die rohleistung wird zu wenig sein egal ob mit 12 16 oder 20gb.

Damals bei der gtx780 3GB die gleiche Diskussion da, und bis heute war die Anwendungsdauer absolut ok der 780gtx . Da hat die 3GB keinen Abbruch getan. Und so wird das bei der auch.

Was mich eher nervt ist der 192 Bit Speicherinterface !! Für eine 70(ti) ein nogo
 
Was mich eher nervt ist der 192 Bit Speicherinterface !! Für eine 70(ti) ein nogo
Das Speicherinterface isoliert zu betrachten ist wenig sinnvoll, muss man immer im Zusammenhang mit dem verbauten Speichermodulen sehen, denn nur so kommt man ja auf die effektive Speicherbandbreite. Sobald Gddr7 mit noch mal deutlich höheren Taktraten kommt wird Nvidia das Interface wohl auch noch weiter reduzieren, einfach weil es auf dem Chip Platz spart und durch den schnellen Speicher nicht notwendig ist.
Für den Nutzer macht es keinen Unterschied, ob eine 4070 mit 192 Bit und 21Gbps Gddr6 kommt oder halt 256 bit und beispielsweise 16 Gbps Gddr6, beides läuft auf ~500GB/s Bandbreite hinaus. Mag sein, dass es Spezialanwendungen gibt wo sich Unterschiede ergeben können, ich kenne allerdings keine und im Gaming ist es egal.
Davon ab ist die Speicherbandbreite der 4070 ausreichend bemessen, in 4k wird sie minimal schwächeln (wissen wir ja aus dem Test der 4070ti), aber das ist sowieso nicht die Zielauflösung dieser Karte.

Nachhaltigkeit ist für Nvidia ein Fremdwort: es werden nicht zukunftsfähige Grafikkarten mit Sollbruchstelle und eiskalt kalkuliertem Ablaufdatum zu Wucherpreisen angeboten.
Grundsätzlich nicht falsch, Nvidia betreibt definitiv Gewinnoptimierung über den verbauten Vram, aber "Sollbruchstelle" und "Ablaufdatum" ist einfach nicht korrekt und völlig überzogen. Man wird alles problemlos Spielen können, dagegen sind die 4Gb einer 6500XT eine "Sollbruchstelle", weil hier wirklich die Gefahr besteht, das aktuelle Titel einfach gar nicht mehr gestartet werden können. Nur weil ich die Texturen ggf. eine Stufe runterstellen muss, ist das kein vorprogrammiertes Ablaufdatum.
12GB sind die neuen 6GB der 1060 damals. Was ich damit sagen will ist, dass es eher mehr VRAM sein sollte bei der oberen Mittelklasse so wie damals bei Pascal oder teilweise bei AMD (16gb bei der RX 6800 z.B.).
Wenn dann sind 8Gb die neuen 6Gb der 1060. Wobei auch das nicht wirklich passt, denn die 1060 6Gb war während seiner Lebenszeit durchaus empfehlenswert (ganz anders natürlich als die 3Gb Version, auch eine 8Gb 4070 wäre heute nicht zu empfehlen), die Karte hat immerhin fast 7 Jahre auf dem Buckel und ist für ihren Einsatzzweck FHD auch immer noch geeignet, wenn auch sicherlich nicht bei Ultra-Settings in aktuellsten Spielen.

Es liest sich hier oft so, als wäre eine 12Gb 4070 spätestens in nem Jahr absolut unbrauchbar/obsolet und das ist einfach nicht wahr. Mag sein, dass in WQHD nicht immer Ultra-Texturen möglich sind (was man für 650€ auch kritisieren kann), aber genau dafür gibt es ja solche Einstellungen auf dem PC. Auch besagte 6Gb einer 1060 reichen noch in so gut wie jedem Spiel, muss man halt bei FHD bleiben und Texturen ggf. auf Mittel runterschrauben.
Ich beobachte die 7900xt schon seit Wochen mit Adleraugen. Die paar Treiberprobleme werde ich schlucken müssen. Eine XFX Speedster, vielleicht zum späten Sommer hin oder so.
Wobei das auch alles hören sagen ist und in deinem konkreten Fall nicht zutreffen muss. Das einzige was für mich problematisch wäre ist der Verbrauch im Idle, besonders bei mehreren Monitoren. Ich werde ganz sicher nicht ständig die Bildwiederholfrequenz meiner Monitore ändern, um den 100W im Leerlauf zu entgehen. Ansonsten eine sehr gute Karte, erst recht für deutlich unter 800€, wo sie im Sommer ankommen sollte.
 
Was mich eher nervt ist der 192 Bit Speicherinterface !! Für eine 70(ti) ein nogo
Das Bus ist zwar nicht sehr breit aber dafür schnell.
Die 504GB/s werden am Ende nicht das Problem sein.
Das Speicherinterface isoliert zu betrachten ist wenig sinnvoll, muss man immer im Zusammenhang mit dem verbauten Speichermodulen sehen, denn nur so kommt man ja auf die effektive Speicherbandbreite. Sobald Gddr7 mit noch mal deutlich höheren Taktraten kommt wird Nvidia das Interface wohl auch noch weiter reduzieren, einfach weil es auf dem Chip Platz spart und durch den schnellen Speicher nicht notwendig ist.
Für den Nutzer macht es keinen Unterschied, ob eine 4070 mit 192 Bit und 21Gbps Gddr6 kommt oder halt 256 bit und beispielsweise 16 Gbps Gddr6, beides läuft auf ~500GB/s Bandbreite hinaus. Mag sein, dass es Spezialanwendungen gibt wo sich Unterschiede ergeben können, ich kenne allerdings keine und im Gaming ist es egal.
Davon ab ist die Speicherbandbreite der 4070 ausreichend bemessen, in 4k wird sie minimal schwächeln (wissen wir ja aus dem Test der 4070ti), aber das ist sowieso nicht die Zielauflösung dieser Karte.


Grundsätzlich nicht falsch, Nvidia betreibt definitiv Gewinnoptimierung über den verbauten Vram, aber "Sollbruchstelle" und "Ablaufdatum" ist einfach nicht korrekt und völlig überzogen. Man wird alles problemlos Spielen können, dagegen sind die 4Gb einer 6500XT eine "Sollbruchstelle", weil hier wirklich die Gefahr besteht, das aktuelle Titel einfach gar nicht mehr gestartet werden können. Nur weil ich die Texturen ggf. eine Stufe runterstellen muss, ist das kein vorprogrammiertes Ablaufdatum.

Wenn dann sind 8Gb die neuen 6Gb der 1060. Wobei auch das nicht wirklich passt, denn die 1060 6Gb war während seiner Lebenszeit durchaus empfehlenswert (ganz anders natürlich als die 3Gb Version, auch eine 8Gb 4070 wäre heute nicht zu empfehlen), die Karte hat immerhin fast 7 Jahre auf dem Buckel und ist für ihren Einsatzzweck FHD auch immer noch geeignet, wenn auch sicherlich nicht bei Ultra-Settings in aktuellsten Spielen.

Es liest sich hier oft so, als wäre eine 12Gb 4070 spätestens in nem Jahr absolut unbrauchbar/obsolet und das ist einfach nicht wahr. Mag sein, dass in WQHD nicht immer Ultra-Texturen möglich sind (was man für 650€ auch kritisieren kann), aber genau dafür gibt es ja solche Einstellungen auf dem PC. Auch besagte 6Gb einer 1060 reichen noch in so gut wie jedem Spiel, muss man halt bei FHD bleiben und Texturen ggf. auf Mittel runterschrauben.

Wobei das auch alles hören sagen ist und in deinem konkreten Fall nicht zutreffen muss. Das einzige was für mich problematisch wäre ist der Verbrauch im Idle, besonders bei mehreren Monitoren. Ich werde ganz sicher nicht ständig die Bildwiederholfrequenz meiner Monitore ändern, um den 100W im Leerlauf zu entgehen. Ansonsten eine sehr gute Karte, erst recht für deutlich unter 800€, wo sie im Sommer ankommen sollte.
Der idle Bug wurde doch längst gefixt.
Nur der altbekannte höhere Verbrauch ist noch vorhanden.
 
Warum hört man von AMD's Konkurrenzprodukt absolut nichts?
Was soll man denn hören? Das ist ne 6800 XT, die jetzt noch teurer als die 6800 XT sein wird und nur bei RT und FG einen Mehrwert bietet. Damit AMD darauf antwortet, ohne uns Kunden dabei hops zu nehmen, müssten sie einen 6800 XT Refresh rausbringen.

Preislich hingegen gibt es seitens AMD genug Konkurrenzprodukte: Da greift man lieber zur 6900 XT oder 6950 XT, hat VRAM satt und selbst auch mit diesem bescheuerten Leistungsfresser RT so viel Performance, wie der presliche NV Konkurrent.

Zur Not wird die 30er Serien sukzessive künstlich per Treiber gedrosselt um die 40er Serie attraktiver zum machen. Macht euch keine Sorgen. Nvidia wird seine 40er schon los. ;)
Warum zur Not? Mit Frame Generation wird doch bereits genau das erreicht.
 
Kauft euch lieber eine AMD Karte. Die ist aber leider für VR und Videobearbeitungs-Enthusiasten nicht wirklich attraktiv.
Genau dies tut mir momentan richtig weh.
Ich spiel zu ca. 40-50% heutzutage VR und die Probleme der 7000er Serie sind jetzt schon einige Monate bekannt... Aber nicht behoben. Und dann auch noch so unterschiedlich.
Zudem gibt es nur sehr wenige Tester....
Ich denke erstmal auf den 7800x3d aufrüsten zieht mir wenigstens die Frametimes glatt. (Nischen VR Spiel, was aber vom Cache extremst Profitiert).

@Topic: Machen wir uns hier nichts vor. Dies ist eigendlich eine 4060 non Ti....
 
Screenshot_63.jpg
 
Zurück