News Grafikkartenmarkt in Deutschland: Geforce RTX 4070 auf dem Vormarsch

Ja immer schön die 4070 kaufen, bei 12GB VRAM ist dann schon mal klar das man bei der nächsten Generation wieder aufrüsten muss, das freut Nvidia ???
 
für WQHD ne anständige GPU . viel mehr braucht man in dem bereich nicht. min. 90% der Spiele über 100 FPS+
 
Ja immer schön die 4070 kaufen, bei 12GB VRAM ist dann schon mal klar das man bei der nächsten Generation wieder aufrüsten muss, das freut Nvidia ???
Kauf du dir einfach eine GPU für über 800-900€ nur um direkt die Details zu reduzieren.

2027 kommt die neue Gen Konsolen. Danach werden vermutlich VRam Bedarf und RT Leistungsbedarf wohl wieder flächendeckend ansteigen.

Da ist egal, was von beidem nicht reicht.

Soll ja in 2024 eine PS5 Pro kommen, mit weiter "nur" 16GB Gesamtspeicher. Demnach werden die 12GB bei Nvidia wohl erstmal noch kein zu großes Problem.

Aber wäre ja interessant wenn die PS5 Pro dafür sorgen würde, das die RT Effekte mehr werden, in einem nicht unwesentlichen Anteil der Spiele.


Aber Rational geht das Thema hier sowieso nicht.
 
Es macht ehrlich gesagt kein Sinn GPU mit dlss oder fsr zu testen da die Ausgangslage dieser Techniken unterschiedliche Auflösungen haben und was wichtiger ist die Bildqualität sich unterscheidet
Anders sieht es aus wenn dieselbe gpu bzw Gpu Hersteller verglichen wird bsp amd vs amd gpu egal welche gen.
das macht abr ehrlich gesagt nur in retroperspektive und bei genauen Test Sinn
Etwa bei Generationen vergleich seit 2006 oder wenn eine sku etwa der rtx xx70er klasse verglichen wird
Dabei spielt die Auswahl der spiele eine wichtig Rolle und spiele die angefangen einfach Eindellungen anhand der gpu Fertigkeiten die Bildqualität Anzupassen sind ungeeignet. leider zählt vermutlich alan wake 2 dazu wie auch forza motorsports.
Dieses verhalten hat auch ubisoft in ihren spielen oft enthalten ist aber deaktivierbar. Bei Ea spielen wie etwa was mit der frostbyte engine muss man genau in den Einstellungen aufpassen den das ist primär aktiv.
Alan wake 2 interessiert mich inhaltlich da dafür aber dlss vorausgesetzt wird ist mehr ein armutszeugnis wie schlecht man das Speichersystem verwaltet. Das gleiche problem hat auch bethesda bei starfield
natürlich frisst pathtracing ordentlich an Leistung da man nicht mehr die rop belastete sondern mehr die shader die bei der Strahlenverfolgung die Arbeit der rop übernehmen.
Dafür wurden die raster gpu die wir seit 1996 nutzen nicht designt
Das überhaupt raytracing mit ner raster basierten gpu funktioniert ist allein dem zuzuschreiben das man hardware Beschleunigten bvh hat ohne diese Beschleuniger würde pathracing und selbst das einfache mit ein strahl raytracing auf raster gpu nicht funktionieren.
Der Sinn ist bei so wenig Strahlenverfolgung das dies per algo denoised wird. Und genau das funktioniert aktuell noch nicht in echtzeit.
Das was wir haben ist quasi ein upscaling vom raster einer kleineren Auflösung zu einer größeren Auflösung. Dabei muss erwähnt werden das erst dlss3,5 die tensor cores überhaupt erst denoisen quasi das funktioniert aber nut mit mehr cache und das können nur die neuen chips ab der rtx40 gen.
Das dies aber in Framegen versteckt wird und zudem zusätzlich Bilder generiert ist schade. Da dies das portenzial von denoising zunichte macht

Ich denke das nvidia mit der Übernächsten generation die tensor kerne vermehren wird und deutlich beschleunigen wird für denoising das dies endlich in Echtzeit geht.
Dafür braucht es zwingend mehr cache und RT cores.
Das bedingt aber das man dxr nur nativ testen kann da die denoising bei allen gpu gen unterschiedliche Bildqualitäten haben. Bzw die Auflösung deutlich geringer wird bis nicht nutzbar.
Was mich ziemlich sicher macht das dass Klassische denoising wie wir es von blender kennen bei dxr erstellten Bildern nur für die nächste gen der gpu Serie gehen wird mit maximal der vorherigen gen.
Die nächste gen ist im übrigen rtx60 vorher wird das nix.

Zurück zu aktuellen Lage die preise sind zu hoch und das gewaltig.
Ein ad107 chip dürfte maximal als 50er klasse mit maxed 200$ kosten Ein ad106 maxed 300$ mit doppelten vram
Und gerade diese chips sind mein Fokus man kann noch den ad104 mitzählen da dieser chip besser geeignet ist um sinnvolle sku zu bauen.
Ab dem n2x Node ändert sich vieles da man das SI und Sram deutlich vergrößern kann und bis dahin schon gddr7 40gbps gibt
Dieser Speichergeiz bei nvidia ist leider erforderlich da nvidia vom vram preis mitverdient. Und nvidia etwas gegen Margenküzungen hat.
Mehr vram dürfte sku unter 400$ unmöglich machen aber von der chip vram bundle will nvidia nicht weg
darum wird es selbst bei gddr7 mit 24gbit nicht mehr als 9gb geben in low end das betrifft gb207 gb206 und gb205 wo das letzte noch 12gb hat
Die frage ist welche sku das werden nach den chipkosten die wahrscheinlich sein werden ist das
gb207 50er klasse 35-40$
gb206 60er klasse (9gb) 50-60$
gb205 70er klasse 70-80$
Mit n3p wäre dieselbe preis Situation wie jetzt mit kaum Mehrleistung +5% wenn gut geht
Mit n2p womit der Takt explodiert +25% sehe ich daher ne chance aber die alu menge würde stagnieren und das si müsste halbiert werden.
Das ist im übrigen schon 2026 soweit in Massenproduktion zu gehen erst gaa also n2x wird die chipdichte verdoppeln und somit die kosten halbieren . Das kommt in serie ab 2027
darum sehe ich keine chance das die nächste gen eije neu arch ist sondern lediglich ein redesign von ada mit etwas mehr Takt. Und auf einen günstigeren node.
Demzufolge n4x womit der launch schon 2024 sein kann.
Der einzige grudn warum das sich auf 2025 verschiebt wäre gddr7 den das ist erforderlich um überhaupt merklich perf Differenzen zu haben je sku sofern die Aufteilung wie jetzt bleibt.
Nur der node unterschied macht hier +10-15% mit mehr Bandbreite und mehr vram maximal +25%
Design Ideen habe ich schon öfters angedeutet aber ich weiß nicht was nvidia bei pathtraycing plant den dafür braucht es zwingend mehr cache sowie mehr rt cores
Nur bekommt man diese nicht unter 400mm² gepackt ohne gaa das maxed sind die kommende 12 gpc mit je 16sm
bei etwa 550mm² in n3p auf n4x sind es grob 750mm²
preislich macht das kaum nen unterschied aus pro chip aber die Kapazitäten sagen ganz klar n4x
Ein direkter port macht kein Sinn da man die chips in klare gpc cluster aufteilt
geplant dürfte sein
07 1 gpc (16sm) 4,3ghz
06 2 gpc (32sm)
05 4 gpc (64sm)
03 8 gpc (144sm)
02 12 gpc (192sm)
Das dürfte das ziel sein ab n2 sofern nvidia auf den node releasen wird. hypothetisch sofern das sm design sich nicht ändert
leider spricht dagegen dxr den wie es scheint skalieren rt cores nicht mit dem Takt.
aber ich schweife ab am ende zählt das wir von rtx50 nicht viel erwarten können .
Es wird keine vram Verdoppelung geben. Es wird keine 60%+ geben eher sind es maximal 10-20%+
Und die preise werden möglichst gleich bleiben was wie wir wissen alle zu hoch empfinden .
 
Weckt mich wenn es eine RX 7800 XT oder ein vernünftiges Custom Design einer RTX 4070 für knapp 500 Euro gibt. Die meisten billigen Geforce Karten haben laute Lüfter, zu wenig Kühlfläche und zuviel Spulenfiepen. Konnte da noch kein Modell finden was vielversprechend ist. Nichts für mich.
 
@Prozessorarchitektur
Ja, Nvidia wird vom VRAM-Bundle nicht abrücken, die Preise werden in kommenden Generationen in den entsprechenden Klassen kaum sinken und die VRAM-Menge wird sich kaum verbessern.
Da kann man froh sein, wenn die 3060 12 GB kein Einzelfall bleibt. 12 GB reichen durchaus, nur 8 GB könnten in Zukunft eng werden.
 
Zitat :

"Wie immer reflektiert Mindfactory den DIY-Markt der PC-Bauer in Deutschland"

Wieso repräsentiert Mindfactory bei PCGH den Grafikarten Markt in Deutschland ?!

Ist Mindfactory der einzige Hardware Händler in Deutschland ?!

Ist Mindfactory wenigstens der grösste Hardware Händler in Deutschland ?!

Der Artikel sagt nur etwas über die Verkaufszahlen von Mindfactory aus und nicht über die Hardware Verkäufe im gesamten Deutschen Markt .

Ist PCGH nicht mehr dazu fähig Faktisch zu berichten ??!! :nene:
 
@Prozessorarchitektur
Ja, Nvidia wird vom VRAM-Bundle nicht abrücken, die Preise werden in kommenden Generationen in den entsprechenden Klassen kaum sinken und die VRAM-Menge wird sich kaum verbessern.
Da kann man froh sein, wenn die 3060 12 GB kein Einzelfall bleibt. 12 GB reichen durchaus, nur 8 GB könnten in Zukunft eng werden.
Das 8GB mehr als eng geworden sind, das hat sich in der Zeit seit den aktuellen Konsolen deutlich gezeigt. Meiner Meinung nach ist anzunehmen, das sich in der Masse der Spiele der nächste größere VRam- Bedarfssprung mit den 2027/2028 erscheinden Konsolen einstellen wird.

Auch bei den Texturen, ist es für mich wie bei allen anderen Details. Die Unterschiede von 8 zu 6 GB waren deutlicher zu sehen, als von 10 zu 8, oder 12 zu 10GB. Auch der theoreitsche optische Unterschied von 16 zu 12GB ist für mich nicht so unfassbar groß. Also selbst wenn vereinzelte neue Spiele nicht mehr mit 12GB maximale Texturen können, dann reicht ein Einstellungsmix der den VRam nicht überlaufen lässt und man hat dennoch eine Optik die dem Maximum sehr nahe kommt.

Gerade jüngere Spiele mit RT zeigen das RT den Szenen einen doch für mich sehr merkbaren optischen Zugewinn bietet.

Also entweder 4090 kaufen, oder entscheiden RT oder VRam, oder VR oder VRam, oder Verbrauch oder VRam.
 
Was denn, 10€ unter 1600.
4090 1455.jpg

Nicht unbedingt. War teilweise auch mal ~150 Euro +/- unter 1600 je nach Modell. Im Ganzen betrachtet sind die Grafikkartenpreise etwas gefallen. Ziehen im Moment aber wieder gut an. Zuletzt im Miningzeitalter wissen wir ja auch alle wie schnell und drastisch die Preise angezogen hatten.

Man weiß ja, dass die Welt momentan verrückt spielt und wir alle hoffen müssen das sich ein paar große Machthaber hoffentlich auch mal wieder mal am Riemen reißen und sich das Ganze nicht noch schlimmer entwickelt bis hin zum 3...., ja, ich will gar nicht daran denken. Von unserer Politik ganz zu schweigen, aber dass sind andere Themen und Probleme. Aber Kriege, Inflation, usw usw beeinflussen eben auch die Preise egal ob Gas, Benzin, Lebensmittel oder eben auch Hardware wie Grafikkarten.

Die Shaderanzahl alleine ist irrelevant.

Was denn, 10€ unter 1600.

Man wird wohl wissen, das die 4090 ihr Alleinstellungsmerkmal behalten wird.

Weil man eine über 1000€ teure GPU auch kauft um direkt die Details zu reduzieren. Aber im Grunde hast du Recht, wenn man ohne maximale Details spielen möchte (ohne RT in 2023/2024) dann ist die 7900XTX der bessere Kauf.

Ich habe die Tage da auch nochmal drüber nachgedacht, ob ich einfach auf RT Pfeifen sollte, bis zur nächsten Gen, oder besser bis 2030.
4080 :
76SM (9728 ALUs / 304 TMUs / 112 ROPs), 76 RT Cores, 304 Tensor Cores, 64MB L2-Cache, 16GB GDDR6X, 256bit
4090:
128SM (16384 ALUs / 512 TMUs / 176 ROPs), 128 RT Cores, 512 Tensor Cores, 96MB L2-Cache, 24GB GDDR6X, 384bit

Sieh dir doch die Daten mal genauer an, nicht nur die Shaderzahl ist deutlich geringer bei der 4080! Von Cache bis Tensor/RT Cores, usw wurde bei der kleineren 4080 schon ordentlich die Schere angelegt. Da würde ich vor allem in UHD insofern mir Raytracing auch noch wichtig ist, lieber gleich zur 4090 greifen. Denn selbst diese Karte kann man je nach Spiel problemlos in die Knie zwingen. Alles eine Frage der Grafik-Regler.

Die 4090 ist aber trotzdem nun mal Konkurrenzlos und wie wir alle wissen kostet das natürlich einen Sonderaufschlag, vor allem bei Nvidia.

Oder mittlerweile sorgen dafür so manche Spiele Entwickler auch selber. Dank DLSS oder auch FSR werden viele anscheinend etwas faul in Sachen Optimierung. Alan Wake 2 wird ja jetzt schon gefürchtet als Beispiel. Remnant II zum Beispiel ist da auch so ein Fall. Ich finde für die Grafik was es bietet, dürfte das eigentlich nicht so fordernd sein, aber Spielen ohne Upscaling ist laut Entwickler ja hier nicht vorgesehen.
 
Zuletzt bearbeitet:
Nicht unbedingt. War teilweise auch mal ~150 Euro +/- unter 1600 je nach Modell.
Alles unter etwa 1590€ zog tatsächlich dann an mir vorbei.
Im Ganzen betrachtet sind die Grafikkartenpreise etwas gefallen. Ziehen im Moment aber wieder gut an. Zuletzt im Miningzeitalter wissen wir ja auch alle wie schnell und drastisch die Preise angezogen hatten.

Man weiß ja, dass die Welt momentan verrückt spielt und wir alle hoffen müssen das sich ein paar große Machthaber hoffentlich auch mal wieder mal am Riemen reißen und sich das Ganze nicht noch schlimmer entwickelt bis hin zum 3...., ja, ich will gar nicht daran denken.
Der aktuelle Kurs ist schon besorgniserregend.
Von unserer Politik ganz zu schweigen, aber dass sind andere Themen und Probleme. Aber Kriege, Inflation, usw usw beeinflussen eben auch die Preise egal ob Gas, Benzin, Lebensmittel oder eben auch Hardware wie Grafikkarten.

4080 :
76SM (9728 ALUs / 304 TMUs / 112 ROPs), 76 RT Cores, 304 Tensor Cores, 64MB L2-Cache, 16GB GDDR6X, 256bit
4090:
128SM (16384 ALUs / 512 TMUs / 176 ROPs), 128 RT Cores, 512 Tensor Cores, 96MB L2-Cache, 24GB GDDR6X, 384bit

Sieh dir doch die Daten mal genauer an, nicht nur die Shaderzahl ist deutlich geringer bei der 4080! Von Cache bis Tensor/RT Cores, usw wurde bei der kleineren 4080 schon ordentlich die Schere angelegt.
Sehr stark sogar, das alles sagt aber ohne bezug zur möglichen Energieaufnahme, nicht viel aus.
Ein 4090 ohne Undervolting auf 320W ist zwar weiter etwas schneller, als die 4080, aber nicht mehr wesentlich.
Da würde ich vor allem in UHD insofern mir Raytracing auch noch wichtig ist, lieber gleich zur 4090 greifen.
Ich nicht. DLSS (FSR) ist für mich ein mächtiges Werkzeug mit dem eine 4080 schon meistens sehr gut auch mit RT zurecht kommt.
Für wen nur das beste gut genug ist, der sollte natürlich eh zur 4090 greifen.
Denn selbst diese Karte kann man je nach Spiel problemlos in die Knie zwingen. Alles eine Frage der Grafik-Regler.
Das ist immer so und war immer so.
Die 4090 ist aber trotzdem nun mal Konkurrenzlos und wie wir alle wissen kostet das natürlich einen Sonderaufschlag, vor allem bei Nvidia.
Vor allem bei Nvidia ist leider seit X Jahren ein Witz. AMD und Nvida nehmen sich nichts mehr. Es ist mehr nur eine Frage der persönlichen Ausrichtung, zum Beispiel mehr Wert auf RT, oder eben nicht.
Oder mittlerweile sorgen dafür so manche Spiele Entwickler auch selber. Dank DLSS oder auch FSR werden viele anscheinend etwas faul in Sachen Optimierung.
Ist das wirklich so, oder scheint uns das nur so. (Helden am Rand und so, ich meine jeder kann sich da von Zeit zu Zeit dazu zählen)
Alan Wake 2 wird ja jetzt schon gefürchtet als Beispiel.
ERstmal abwarten wie das wirklich aussieht.
Remnant II zum Beispiel ist da auch so ein Fall. Ich finde für die Grafik was es bietet, dürfte das eigentlich nicht so fordernd sein, aber Spielen ohne Upscaling ist laut Entwickler ja hier nicht vorgesehen.
Ja, das ist für mich ein generelles Problem der Spiele Releases der letzten Jahre. Alles immer unfertig und halbgar.
 
diese ewige vram-Diskussion ist doch langsam mal müßig.

Was nützt es, wenn ich in 2 Jahren genug vram habe, aber eh nicht mehr genug Leistung, sodass ich auch da an den Reglern spielen muss. Sei es alleine RT abschalten, damit die AMD-Karte klar kommt. Im Falle eine nvidia-Karte muss man halt die Texturen etwas reduzieren.

Wenn man nicht gerade auf 4090 oder 7900XTX (Wobei, bei dieser sicherlich auch) gesetzt hat, dann muss sich jeder damit abfinden, dass man an irgendwelchen Settings drehen muss, damit man die Karte noch weiter nutzen kann. Auch beim vram wirds die Möglichkeiten geben. Genauso wie es jetzt AMD nutzer beim RT machen müssen.

Also hört mit dem ewigen Streit auf. Man sollte vorrangig das kaufen, was einem jetzt das bietet, was man braucht. Wer RT will, geht lieber zu nvidia, wer mehr Rasterleistung fürs Geld will zu AMD.

Ich würde denken dass 12 GB ne Weile der Standard sein werden. So wie 8Gb auch ne Weile der Standard waren. 2 Jahre kommt man locker noch damit hin, ohne große Abstriche machen zu müssen. Ab dann wird man vermutlich das erste mal wirklich am Regler drehen müssen, um die vram Auslastung im Zaum zu halten. Aber Spiele werden nicht plötzlich unspielbar werden.

Hingegen steht ja auch in den Sternen, inwiefern klassische Beleuchtungstechniken noch in den Spielen vorhanden sein werden. Kann mir durchaus vorstellen, dass es auch Titel geben wird, welche "Raytracing only" haben. Vielelicht nicht in dem Umfang wie in CP, aber evtl krass genug, dass es für AMD eng wird.

Letztenendes weiß man es aber jetzt absolut nicht, wie sich die vram-Auslastung oder RT-Implementierung entwickeln wird. Nehmt das, was ihr jetzt braucht und nicht, was in 2-3 Jahren evtl sein könnte.
 
Zuletzt bearbeitet:
@Prozessorarchitektur
Ja, Nvidia wird vom VRAM-Bundle nicht abrücken, die Preise werden in kommenden Generationen in den entsprechenden Klassen kaum sinken und die VRAM-Menge wird sich kaum verbessern.
Da kann man froh sein, wenn die 3060 12 GB kein Einzelfall bleibt. 12 GB reichen durchaus, nur 8 GB könnten in Zukunft eng werden.
Die Tech Firmen erzeugen absichtlich einen Flaschenhals, um die Preisgestaltung attraktiv zu halten. Nvidia will, dass die Grafikkarten schnell wieder durch neue Produkte ersetzt werden. Da Nvidia die einzigen Grafikkarten anbieten, die auch wirklich für alle Lebenslagen (Creator; KI Features, VR) genügen, kann dieser Flaschenhals angewendet werden. Das macht sie ein Stück weit frei von der Konkurrenz. Zudem ist Nvidia auf den Umsatz in der Gaming Szene nicht so sehr angewiesen, wie AMD.

Solange AMD nur eine Nischengruppe bedienen kann (Gamer), wird sich an der Flaschenhalsproblematik auch nicht viel ändern.

AMD würde dasselbe tun, wenn sie an Nvidias Stelle wären.
 
natürlich würde man das
ich sehe nur ne chance das die rtx4060 super entweder ein ad106 mit 30sm wird oder der ad104 auf 42sm kommt was aber unwahrscheinlich ist eher sehe ich hier den ad106 mit 36sm und 20gbps samsung Speicher
Alle diese Konfigs wären umsetzbar glaube aber auch eher an weiterhin micron 18gbps und einem ad104 38sm das würde die rx7700xt knapp schlagen und man könnte den 449$ platz behaupten den amd wird zeitnah bald die preise der rx7700xt auf 399$ senken. und die rtx4060ti 16gb 18gbps muss min 419$ kosten

heute gab es test zu alan wake 2 das ist mal ein benchmark 10fps mit ner rtx3060 sind vernichtend in 1080p und das mit upscaler.
Alle sku die ich beschrieben habe sind die einzigen die vom belang sind da sich das verkaufen würde nachdem die low end deutlich im preis fallen

ne rtx4060 wird auf 200$ fallen da hat nvidia keine andere Wahl
ne rtx4060ti wird EOL

Marktsituation ist so
Ich nehme eher die us preise
rx6600 160-180$ (1080p maximal nutzbar)
rx6600xt 220$
rtx3050 180$ (720p nutzbar)
rtx3060 8gb 200$ (720p Nutzbar)
rtx3060 12gb 250$ (1080p bedingt mit dxr nutzbar)
rx6700 250$ (1080p nutzbar)
rx6700xt 270$ (1080p nutzbar)
rtx4060 280$ (liegt wie blei im regal 1080p nutzbar)
rtx3060ti 270$ (1080p nutzbar)
rx6750xt 300$ (1080p nutzbar)
rtx4060ti 350$ (1080p nutzbar)
rx 6800 360$ (1440p nutzbar)
rtx4060ti 16gb 449$ (1080p ideal)
rx7700xt 449$ (1440p nutzbar)
rx6800xt 499$ (1440p ideal)
rx7800xt 499$ (1440p ideal)
rtx4070 549$ (1440p ideal mit dxr)

Ersetzt wird rtx4060 und rtx4060ti 16gb da beide sich kaum bis gar nicht verkaufen
Steam survey
60% 1080p
16% 1440p
24% Rest davon 2160p 3%

Das repräsentiert nicht den gesamten markt viele office Kisten mit Sim spielen ohne steam kommen da nochmal 20% für 1080p dazu.
Darum ist 1080p die primäre Auflösung am PC mit grob 80% Markanteil

Im übrigen dxr immer mit dlss quality effektiv 1497-842 bzw 1996-1123
dlss q 0,78
dlss b 0,66
dlss p 0,5

amd fsr
amd immer fsr ultra q effektiv 1670-939 oder 2207-122
fsr uq 0,87
fsr q 0,78
fsr b 0,66
fsr p 0,5
fsr up 0,4

Darum kann man die beiden Techniken nicht vergleichen da unterschiedliche basis also Bildqualität
Nvidia ist aber durch das Filtering besser (mehr details und weniger flimmern) dafür ist amd bei fsr schärfer
Am ende ist dlss q immer überlegen vs amd fsr uq
 
Das überrascht mich, dass AMD bei den Grafikkarten auf annähernd 50 % Marktanteil kommt, dies jedoch mit den Ryzen CPUs nicht schafft.
Ich hätte jetzt vermutet, dass sich die CPUs bei AMD noch besser verkaufen als die GPUs.

Intel ist im Grafikkartenmarkt ein ähnliches Lichtlein wie es Microsoft im Smartphone-Markt gewesen ist. Ich bin gespannt, ob Intel die Arc-Modelle weiterhin ausbauen wird oder hier in ein paar Jahren auch das Handtuch wirft, wie es Microsoft bei Windows Mobile gemacht hat.
 
Zurück