News Geforce RTX 4070 und 4060: 12 und 8 GiByte Grafikspeicher sind bestätigt

8-GiB-Karten marschieren bei uns schon lange nicht mehr ohne eine Warnung durch. Die Frage ist: Wann passiert das auf breiter Ebene? Ich sehe immer noch genug Tester, die nichts von Speichermangel zu wissen scheinen.
Aggressives Streaming(z.B. bei Texturen) rettet den Karten da seit Jahren den A****. Die meisten "Tester" gucken doch alle nur auf die FPS Zahl, nicht auf das was die Karten noch anzeigen. Als Referenzbild dienen dann die Konsolenversionen oder Upscalingmatsch. Da finde ich das schon löblich, dass du da fast einsam die Fahne hochhälst für mehr Speicher.
Zum Glück scheint mittlerweile die gläserne Decke näher zu kommen, gerade durch RT und Precaching bei Ultrasettings, das gibt den Karten dann den Rest. Bei Frametimes aus der Hölle fällt dann irgendwann auf, das was nicht stimmt.

Gerade den Leuten mit schmalem Budget sollte man doch nicht diese Kategorie empfehlen, damit sie in 1 oder 2 Jahren zwingend wieder neu kaufen müssen. Wie Gurdi schon schieb: Die aktuelle Minimalempfehlung ist Arc oder 6700(XT). Darunter lohnt nichts, denn wer die Plattform für Lanezahl-reduzierte Karten hat, der kann Budgettechnisch auch zur echten Mittelklasse greifen. Das ist wie mit 300€ Waschmaschinen: Auf die Nutzungszeit gerechnet das teuerste Angebot.
Alles unter der 6600, lanebeschnittene oder mit 8Gb ausgestattete ist als Neukauf(!) mMn. nur als Monitoranschluss zu gebrauchen, wenn die iGPU fehlt.
 
Zuletzt bearbeitet:
Da bestätigt sich der 3060 12gb kauf von vor 2 wochen für 349,- rückwirkend grad nochmal ??
Jo, hab meine vor 3 Wochen für 314€ gekauft.
Letztes Jahr hab ich mir die 3060 bestellt und bin ziemlich entäuscht davon. Freitag hab ich ne 4080 geordert. Hoffe die liefert wenigstens ab. Alles bis zur 60er Serie ist einfach nicht zu gebrauchen......Schade um das Geld.
Wie kann man von einer GPU über die es zig Tests und Benchmarks gibt enttäuscht sein? In der Regel kennt man sein System seine Anforderungen womit man in die Benchmarks gegen kann und genau sieht welche GPU man braucht!
 
Zuletzt bearbeitet:
2023, 8GB, 500€.... oh man.
Wird bestimmt trotzdem genug Spezis geben, die da Geld hinterher werfen.
Das Problem ist halt es geben immer GPUs denn Geist auf (nach 2 Jahren plus), es gibt immer Leute die mit steinalter Hardware Zuhause sitzen und für Spiel X dann doch mal nach Jahren aufrüsten möchten und viele davon haben halt von Hardware soviel Ahnung wie der Laie von der realfachlichen Tiefe im Maurerhandwerk, die halt auch mehr ist als zwei Steine mit "Fugenmasse" aufeinander zu setzen.

Man kann diesen Leuten auch irgendwo nicht immer verübeln dann doch solchen speichertechnischen Schrott zu kaufen, vor allen dann wenn die angemessenen Alternativen halt noch absurd viel teurer im Preis sind, als diese Krücken.

Wer auf seinen Geldbeutel achten muss und sich eben keinen Grafikkarte für 899 Euro aufwärts leisten kann und für denn selbst 699 Euro noch zuviel Kies sind, wird halt im Zweifel dann in denn günstigsten (sauren) Apfel beißen und zur 599 Euro Karte mit nur 8GB VRAM greifen, selbst wenn er vielleicht als Laie sogar noch kurz in irgend einen Test schaut, dort ihm aber eben ggf. keiner sagt das 8GB VRAM absolut nicht mehr zeitgemäß sind, für ein Gamingsystem.

Nvidia wird so seinen Schnitt machen, vielleicht nicht genau das an Schnitt was sie gerne haben würden, aber immer noch vorraussichtlich ausreichend um damit über die Runden zu kommen, halt auf Kosten derer die am Ende immer vor der Wahl "friss oder strib" stehen.
 
Zuletzt bearbeitet:
Zum Glück scheint mittlerweile die gläserne Decke näher zu kommen, gerade durch RT und Precaching bei Ultrasettings, das gibt den Karten dann den Rest. Bei Frametimes aus der Hölle fällt dann irgendwann auf, das was nicht stimmt.

Gerade den Leuten mit schmalem Budget sollte man doch nicht diese Kategorie empfehlen, damit sie in 1 oder 2 Jahren zwingend wieder neu kaufen müssen. Wie Gurdi schon schieb: Die aktuelle Minimalempfehlung ist Arc oder 6700(XT). Darunter lohnt nichts, denn wer die Plattform für Lanezahl-reduzierte Karten hat, der kann Budgettechnisch auch zur echten Mittelklasse greifen. Das ist wie mit 300€ Waschmaschinen: Auf die Nutzungszeit gerechnet das teuerste Angebot.
Alles unter der 6600, lanebeschnittene oder mit 8Gb ausgestattete ist als Neukauf(!) mMn. nur als Monitoranschluss zu gebrauchen, wenn die iGPU fehlt.
Und genau da liegt der Denkfehler. Sich ne kleine "Budget" Karte holen und Raytracing mit Ultrasettings erwarten? Ich meine....wtf? Vielleicht einfach mal die Ansprüche überarbeiten. Klar könnte man sagen "Kostet ja soviel wie damals bei Opa ne Titan",aber es ist 2023. Die Preise sind auch deshalb so hoch weil WIR alle den 3000er Serie Scheiß mitgemacht haben. Auch ich habe diese Preise bezahlt.,

Ne 60er wird auch bei 5000 Euro ne maximal WQHD in High sein bei 60FPS. Ohne RT. Für den Durchschnittszocker. Für den Farming Simulatorspieler (obwohl Giants es gehörig verkackt hat und das Game weiterhin selbst ne 4080er hochtreibt)

Die 4070 genauso. An Ultra, dicke FPS kannste bei der 4080 anfangen. Und Raytracing, die überflüssigste Grütze überhaupt, eben nur mit ner 4090. Surprise. Fun Fact: Amd kann das trotz zigtausend Speicher gar nicht weil die RT Performance weiterhin lachhaft ist.

Das war doch schon immer so: Aktuelle Games in maximalen Einstellungen: Mindestens das erste Highend Modell. Wann sind wir denn dazu gekommen das das jetzt mit "Papas Officerechner" Karten wie der 4060 gehen soll?
 
Die Preise sind auch deshalb so hoch weil WIR alle den 3000er Serie Scheiß mitgemacht haben. Auch ich habe diese Preise bezahlt.,
Du meinst den 2000er-Scheiß. Mit Turing ist alles eskaliert. Raytracing-HW für alle Pflicht, ohne einen einzigen Titel zum oder nach dem Launch, zu horrenden Preisen (639€ für die 2070, 849€ für die 2080 und 1.259€ für die 2080 Ti).

Und ja, Raytracing ist überflüssige Grütze. Auf dem Papier klingt es gut, aber das tun DLC auch. Nach 5 Jahren kann man immer noch an 1-2 Händen abzählen, in welchen Spielen es einen wirklichen Mehrwert bietet. Vorausgesetzt natürlich man löhnt vierstellig für eine Graka, die das auch packt.

Meist wird es nur lieblos reingerotzt um damit zu werben, wie z.B. bei Forspoken, und letztlich zahlen auch Käufer kleinerer Karten den Dreck mit, obwohl sie es kaum nutzen können. Was eine unfassbare Verschwendung, in jeder Hinsicht. Anfangs gab es noch einen Aufschrei, weshlab Nvidia die 1660 & Co. gebracht hat. Aber ziemlich schnell ist das verstummt. Die Gamer-Schafe von heute fressen alles. Wirklich alles.
 
Geforce RTX 3060 (2/2021)
GA106-300-A1, 3584 Cuda Cores, 12GB GDDR6, 192bit, PCIe4.0 16x, 170W, 329€ UVP

Geforce RTX 4060 (?/2023)
AD107-400-??, 3072 Cuda Cores, 8GB GDDR6, 128bit, PCIe4.0 8x, 115W, ~400-500€ ??? UVP

Da hat man sich wohl in der Modellnummer geirrt oder wie? Schon wieder???
Is noch n' bissl' hin bis zum 1. April...:lol:

Aber da bei Nvidia neuerdings die Preise scheinbar von ChatGPT festgelegt werden... :ugly:
 
Zuletzt bearbeitet:
Was nvidia bringt hängt stark davon ab was amd als rx7700xt bringt
Aktuell ist es so das amd n33 2048 alu bei etwa derselben Leistung wäre wie der n22 mit 2560 alu
das bestätigen erste benchmarks von rx7600m xt
Also durfte die rx7700xt den n32 haben mit maxed 48cu was 3072alu wären. und somit etwa 18,8tf und das für maxed 449€/399$

Das bringt den n33 auf etwa 339€ /299$ als rx7600xtx folgend mit xt mit 1792 alu für 279€/249$
Diese haben etwa 14 und 12tf

Welche sku passt da rein
Die rtx4060 wird definitiv bei maxed Takt was 2,8ghz wären bei 11,8tf sein also mehr als 319€/279$ könnte nvidia nicht verlangen
Folgend die rtx4060ti mit derselben vram Bestückung wäre bei 16,7tf und dürfte die 369€ nicht übersteigen
Sofern amd sich an die 8gb vram Begrenzung hält und genau das erwarte ich nicht.
Amd könnte diese sku auch als rx7500xt/x bringen was preislich drin wäre und sogar unter 229€/199$ gehen und bis 279€/249$ für den ganzen chip oder mit 16gb dann 379€/349$ und 449€/399$ gehen.

Wenn das zutrifft wird nvidia nicht lange danach nen refresh mit schnelleren und doppelten Speicher geben. bspw gddr6 20gbs statt 18gbps.
Das würde die sku zumindest attraktiv machen für Wechsler der rtx3060 12gb jetzt ist die rtx4060 ein totaler Reinfall
maxed +25% und sogar die Gefahr durch die Bandbreite langsamer zu sein.
Nun da stellt sich die frage wann amd n33 kommt und wie diese konfig wird.

n33 frühestens q2 2023 was ab april ist aber eher sogar juli vermutlich zur e3 mit 7600xtx 7500xt drei sku
n32 frühestens q4 also spätestens dez mit rx7700xt und rx7800xt/x drei sku

Nvidia hat dann nix gegenzusetzen bei der rx7700xt

Nun zu meiner Einschätzung von n32 da diese wie n31 auf mcd gcd basiert kommen nur 2,34 Operationen pro cu was min eine sku mit 48cu erfordert und dann 52 und zuletzt 60cu
das wäre dann
rx7700xt 12gb ~18tf = rx6800 /rtx3070ti 449€
rx7800xt 16gb 20,2tf =rx6800xt /rtx3080 1,6ghz) 549€
rx7800xtx 16gb 23,3tf =rx6900xt/rtx3080 12gb 649€

Das tolle diesmal ist das amd dxr Leistung deutlich gestiegen ist und quasi identisch zu nvidia ampere gen ist
folglich ist die rx7700xt die gpu mit 48rt cores deutlich schneller als nvidia mit denselben preis der rtx4060ti und nur 34rt cores
Erst die rtx4070 (749-829€) mit 46rt cores zieht davon.

also ich würde sagen das meine nächste gpu unbedingt nvidia heißen wird ist unsicher amd Angebot mit rx7700xt könnte mich überzeugen
Zumal amd Treiber aktuell besser dastehen als die von nvidia aber das ist primär Os abhängig
 
Naja, wer kauft sich diese Karten? Das sind nicht mehr die WQHD-Gamer, sondern die, die mit 1080p unterwegs sind und dort sind 8GB ausreichend und 12GB recht üppig. Zukunftssicherheit kauft man sich in dieser Leistungsklasse eh nicht und für den Moment und die kommenden Jahre reicht das der Zielgruppe aus.
Ich weiß zwar nicht zu welchen Preis Nvidia die Karte anbietet. Aber das wird anfangs sicher nicht günstig. Unter 500 Euro sehe ich da momentan nichts. Aber für 500 Euro in eine Full HD Karte zu invenstieren ist massiv fahrlässig.

Ich werde meine jetzige Karte solange nutzen wie es nur geht. Dann irgendwann in den Sauren Apfel beißen und das nötige Geld zahlen. Scheinbar muß man seine Karten mittlerweile 6 - 8 Jahre nutzen.:)
 
Zuletzt bearbeitet:
Ich weiß zwar nicht zu welchen Preis Nvidia die Karte anbietet. Aber das wird anfangs sicher nicht günstig. Unter 500 Euro sehe ich da momentan nichts. Aber für 500 Euro in eine Full HD Karte zu invenstieren ist massiv fall lässig.

Ich werde meine jetzige Karte solange nutzen wie es nur geht. Dann irgendwann in den Sauren Apfel beißen und das nötige Geld zahlen. Scheinbar muß man seine Karten mittlerweile 6 - 8 Jahre nutzen.:)

Vor 20 Jahren hat Strom auch 1/3-1/4 vom aktuellen Preis gekostet, das ist auch kacke und trotzdem nehme ich es hin. Preise ändern sich halt, in den vergangenen Jahren mal wieder ein wenig schneller als früher. Gegenüber den 90ern ist Computer-Hardware immer noch billig und viele jammern hier einfach gerne auf einem hohen Niveau. Eine Grafikkarte von 500€ auf eine Nutzungszeit von 2 Jahren gerechnet sind keine 25€ im Monat (4 Jahre <11€, 6 Jahre <7€, da bezahlen einige mehr für ihren Handyvertrag mit <5GB (Hallo Telekom). Wenn man nicht bereit ist das zu zahlen sollte man überlegen, ob es das richtige Hobby für jemanden ist und ob man sich nicht lieber eine Konsole zum daddeln holen sollte.
Klar könnte man sagen "Kostet ja soviel wie damals bei Opa ne Titan",aber es ist 2023. Die Preise sind auch deshalb so hoch weil WIR alle den 3000er Serie Scheiß mitgemacht haben. Auch ich habe diese Preise bezahlt.,

Naja, ganz so einfach ist es dann doch nicht. Nvidia hatte gute Preise bei den 3000ern (bis auf die 3090) und die Scalper und Miner haben die Preise nach oben getrieben. Die 4000er haben jetzt die Auswirkungen von Corona, den verknappten Lieferketten, Preiserhöhungen bei den Zulieferern, der Inflation und nicht zuletzt unserer Mehrwertsteuer inkludiert. Erhöhte Energiepreise kommen in der nächsten Generation noch oben drauf inkl. bis dahin gestiegenen Allgemeinkosten. Mit ein wenig Glück greifen dann die Corona-Auswirkungen nicht mehr so rein, aber Trend ist klar, dass die nächste Generation nochmals (geschätzt) 25+% teurer wird.
 
Zuletzt bearbeitet:
Vor 20 Jahren hat Strom auch 1/3-1/4 vom aktuellen Preis gekostet, das ist auch kacke und trotzdem nehme ich es hin. Preise ändern sich halt, in den vergangenen Jahren mal wieder ein wenig schneller als früher. Gegenüber den 90ern ist Computer-Hardware immer noch billig und viele jammern hier einfach gerne auf einem hohen Niveau. Eine Grafikkarte von 500€ auf eine Nutzungszeit von 2 Jahren gerechnet sind keine 25€ im Monat (4 Jahre <11€, 6 Jahre <7€, da bezahlen einige mehr für ihren Handyvertrag mit <5GB (Hallo Telekom). Wenn man nicht bereit ist das zu zahlen sollte man überlegen, ob es das richtige Hobby für jemanden ist und ob man sich nicht lieber eine Konsole zum daddeln holen sollte.


Naja, ganz so einfach ist es dann doch nicht. Nvidia hatte gute Preise bei den 3000ern (bis auf die 3090) und die Scalper und Miner haben die Preise nach oben getrieben. Die 4000er haben jetzt die Auswirkungen von Corona, den verknappten Lieferketten, Preiserhöhungen bei den Zulieferern, der Inflation und nicht zuletzt unserer Mehrwertsteuer inkludiert. Erhöhte Energiepreise kommen in der nächsten Generation noch oben drauf inkl. bis dahin gestiegenen Allgemeinkosten. Mit ein wenig Glück greifen dann die Corona-Auswirkungen nicht mehr so rein, aber Trend ist klar, dass die nächste Generation nochmals (geschätzt) 25+% teurer wird.
Wirst Du von NVidia bezahlt oder bevorzugt behandelt, oder kommst Du von ganz Allein auf den Quatsch den Du da erzählst? Ich Rede hier von Deiner Meinung was die Preise betrifft. Wie kann man so etwas noch verteidigen und Gut finden? 2023 eine 4060 mit nur 8gb VRam zu bringen, ist ja wohl an Blödsinn kaum zu überbieten. Ach was Rege ich mich auf. Du scheinst eh in Deiner NVidia Blase zu leben.
 
wem 8 gb zu wenig sind, dem empfehle ich eine karte mit mehr als 8 gb zu kaufen. so einfach ist das.....
und ich wette, auch wenn ihr hier so abfällig über nvidia redet kauft ihr trotzdem immer wieder eine. konsequent ist das nicht.
 
die Kurzversion wird sein, dass sich Nvidia zu 100% in DLSSS3 reinlehnt, weil das "die fps verdoppelt". Da macht es dann nix, wenn die 4060 ohne DLSS nicht schneller ist wie eine 3060.

Ansonsten dreht man halt an der Preisschraube so hart man kann, während die Chips immer kleiner und billiger werden. Wir kennen die TSMC Preise, wenn wir das fertige Produkt kennen, lässt sich auch ausrechnen wieviel Chips auf einen Wafer passen und welche Stückkosten Nvidia hat. Klar, TSMC hat die Preise verdoppelt, aber wenn der Chip nur 55% so groß ist wie der direkte Vorgänger, dann verdoppelt das eben nicht die Herstellungskosten.
 
Es ist schon dreist, dass sich die RTX 4060 Ti mit einem AD106 und die 4060 mit AD107 überhaupt so nennen dürfen. 8 GiB VRAM werden spätestens jetzt lächerlich, vor allem nach der 3060 12 GiB.
:kaffee:
Da kann man nur hoffen, dass viele Nutzer auch wirklich zum Konkurrenten greifen. Ich denke man wird dennoch jammernd eine 4070 12 GiB kaufen.
Nvidia möchte schließlich, dass ihr die 4070 statt der 4060 Ti kauft.
 
Zuletzt bearbeitet:
Sicher ?
Nach dem es von NV schon die 2060 und 3060 mit 12 GB und die 2070 sowie die 3070 mit 8 GB gab, könnt ich es mir ebenso bei den 40´ern vorstellen.
 
und ich wette, auch wenn ihr hier so abfällig über nvidia redet kauft ihr trotzdem immer wieder eine. konsequent ist das nicht.
Stimme ich dir zu.
Viele meckern über NVs VRAM Geiz auf breiter Front, kaufen dann aber Schlussendlich doch NV und greifen dann halt lieber im Regal eine Etage höher. Man dankt es NV quasi mit mehr Geld anstatt sich mal bei der Konkurrenz umzusehen....Hauptsache kein AMD.
 
Da bestätigt sich der 3060 12gb kauf von vor 2 wochen für 349,- rückwirkend grad nochmal ??
Ein Kumpel hat letzten Monat die 6700 für 350 € gekauft und ist voll happy damit.
Jene ist über 20 % schneller als die 3060. Sowie selbst die Intel GPUs.
 

Anhänge

  • GPU Benchmark 20 Games.jpg
    GPU Benchmark 20 Games.jpg
    261,4 KB · Aufrufe: 14
  • 6700 für 350 €.jpg
    6700 für 350 €.jpg
    400 KB · Aufrufe: 14
Zurück