News Hoffnung auf sinkende Preise: Geforce RTX 4090 unter 1.900 Euro

Man brauch die 4090 nicht UV.
Man kann in 2min ein Afterburner Profil anlegen und gut ist.

Ich lasse meine bei 80% PT laufen und sie zieht max. 360W (sind eher 370W peak)
+ OC und du hast bei weniger W deutlich mehr Leistung.
4090 können so extrem effizient laufen.

So habe ich meine 24/7 laufen, in Games hat sie 2940MHz permanent (wenn Last anliegt) und Temps + Watt sind "traumhaft".
Anhang anzeigen 1449567
Weil untervolten mehr bringt, noch weniger verbrauch, noch niedrigere Temperaturen, noch geringere Lautstärke, aber mit demselben Ergebnis.
Dies habe ich schon am Anfang gemerkt als ich mit dem untervoltet angefangen habe, ~100Watt weniger bei TimeSpy Extreme (Extrembeispiel was verbrauch angeht) aber fast dieselben Punkte.
Das PowerTarget senken ist die einfachere und schnellere Variante, aber eher der Vorschlaghammer unter den Methoden, untervolten ist mehr das Skalpell.
 
Die Preise sinken nicht wirklich. Es ist lediglich eine Reaktion auf die nachlassende Nachfrage der völlig überteuerten Teile auch aufgrund der neuen SUPER-Karten. Nicht jeder legt für eine Grafikkarte mal schnell 2000 € und mehr auf den Tisch. Die Preise gehen steil nach oben und kaum einer kauft noch für so viel Geld.

Auf die 5000er zu warten wird die Situation vermutlich nicht viel ändern. Ich denke, die 4000er werden noch lange am Markt bleiben und vielleicht mal 10-20% günstiger werden. Die 5000er werden dann als neue Spitze zu Preisen von 2500-3000 € verkauft werden.

Und dann ist da ja auch noch die Möglichkeit Ende 2024 statt der 5000er eine neue 4090 TI und/oder SUPER in den markt zu werfen.

Alles sehr schlecht für Konsumenten mit beschränktem Geldbeutel.

Dann spart mal schön ne 5090 wir definitiv 2000+€ kosten :-)

Alles sehr schlimm, und es wird immer schlimmer! :rolleyes:

So viel Schwarzmalerei hier. Meine Prognose für die 5090 liegt bei <2000€. Aber macht ruhig weiter, am Ende ist das alles Glaskugel und keinesfalls "definitiv".
 
Man brauch die 4090 nicht UV.
Man kann in 2min ein Afterburner Profil anlegen und gut ist.

Ich lasse meine bei 80% PT laufen und sie zieht max. 360W (sind eher 370W peak)
+ OC und du hast bei weniger W deutlich mehr Leistung.
4090 können so extrem effizient laufen.

So habe ich meine 24/7 laufen, in Games hat sie 2940MHz permanent (wenn Last anliegt) und Temps + Watt sind "traumhaft".
Ich würde das so nicht machen, geh lieber über den curve editor und lote ein gutes uv setting aus. Ich habe damit bei meiner Karte 80W rausgeholt und das Spulenfiepen elimiert.
 
Meine Prognose für die 5090 liegt bei <2000€. Aber macht ruhig weiter, am Ende ist das alles Glaskugel und keinesfalls "definitiv".

3090 -> 1499$ Release USD exkl. Tax
4090 -> 1599$ Release USD exkl. Tax
5090 -> selbst bei 1799$ USD netto (aktuell 1648€) + 19% Steuern wären wir bei 1961€.

FE/Standardkarten in EUR dann im schlechtesten Fall bei 1999€ (Customs zu Release wie immer mit Aufschlag, also ca. 2.2K).

/glaskugel off :D
 
Die Preise sollen ruhig oben bleiben bei der 4090. Hätte meine 1399 gern spät Sommer/ Anfang Herbst gern wieder zurück :-)

Und Powertarget einfach runtersetzen, nimmt bei der Karte sehr viel Potenzial, UV ist da deutlich besser :)
 
Zuletzt bearbeitet:
3090 -> 1499$ Release USD exkl. Tax
4090 -> 1599$ Release USD exkl. Tax
5090 -> selbst bei 1799$ USD netto (aktuell 1648€) + 19% Steuern wären wir bei 1961€.

FE/Standardkarten in EUR dann im schlechtesten Fall bei 1999€ (Customs zu Release wie immer mit Aufschlag, also ca. 2.2K).

/glaskugel off :D
1080ti 699 USD
2080ti 999 USD
Ja ist ne Ecke teurer geworden.
Der nächste Sprung wird schon noch kommen.
 
Wenn man Benzinpreise mit denen vor 20 Jahren verlgeicht, dann ist Benzin teurer geworden auf den Liter gerechnet. Wenn wir GPU Preise ansehen, dann ist es schon noch so, dass man mit jeder Generation mehr Frames pro Euro kriegt GPU fallen da in die gleiche Kategorie wie Fernseher, die auch immer hochauflösender und Größer werden, glichzeitig immer billiger auf die Leistung gerechnet.

Was wird hatten waren diese Generationen der Stagnation (RTX30, RTX40), bei denen mit der Leistung auch die Preise gestiegen sind, das war in dem Ausmaß eher ungewöhnlich. Eine 400€ UVP Karte (3060Ti) kann nicht nennenswert viel weniger als eine 400€ 4060Ti. Ich bin nicht sicher, ob die RTX50 Serie diesen Trend fortsetzen kann. Nvidia ist jedoch alles zuzutrauen, sogar eine 5060Ti mit 12GB die kein Frame schneller ist als die 3060Ti, oder 4060Ti und das gesamte Marketing sich nur darum dreht wie stromsparend die doch ist. Derweil bei der 5090 alle Kabel im PC schmelzen vor lauter TDP.

Wir haben es diese Generation gesehen. Der UVP der RTX30 wurde von Minern zerstört, Nvidia hat gemerkt, dass auch Gamer mehr zahlen. Also hat man die Preis/Leistung der RTX30 bei der RTX40 Serie beibehalten und hat gesagt, was wollt ihr denn, FrameGeneration verdoppelt doch eure fps.
 
Ich bin nicht sicher, ob die RTX50 Serie diesen Trend fortsetzen kann. Nvidia ist jedoch alles zuzutrauen, sogar eine 5060Ti mit 12GB die kein Frame schneller ist als die 3060Ti, oder 4060Ti und das gesamte Marketing sich nur darum dreht wie stromsparend die doch ist.

Letzte Gen war Effizienz doch total wichtig? :schief:

Derweil bei der 5090 alle Kabel im PC schmelzen vor lauter TDP.

Jaja, lass die Propaganda stecken. Ist ja lächerlich.

Wir haben es diese Generation gesehen. Der UVP der RTX30 wurde von Minern zerstört, Nvidia hat gemerkt, dass auch Gamer mehr zahlen. Also hat man die Preis/Leistung der RTX30 bei der RTX40 Serie beibehalten und hat gesagt, was wollt ihr denn, FrameGeneration verdoppelt doch eure fps.

Und noch mehr Propaganda. Gestiegene Herstellungskosten führen nunmal zu höheren Endkundenpreisen. Die Waferkosten haben sich von Samsung 8nm zu TSMC 4N (5nm) ca. verdoppelt. Aber wenn Du ein Unternehmen führen würdest, dann wärst Du garantiert der gute Samariter der seine High-Tech Produkte verschenkt! @4thVariety der Heilsbringer!
 
1080ti 699 USD
2080ti 999 USD
Ja ist ne Ecke teurer geworden.
Der nächste Sprung wird schon noch kommen.

3080 -> 799 USD (2020)
3080 Ti -> 1199 USD (2021)
4080 -> 1199 USD (2022)
4080 super -> 999 USD (2024)

Ich sehe die 1080 Ti/2080 Ti eher als Vorgänger des 80er Lineup, die 90er Serie als einen Mix Richtung "Pseudo-Titan" Nachfolger. Sollte die 5090 eine "echte" Titan werden, sind wir bei 3K aufwärts und der Spagat, dass die Karte auch für Gaming PCs herhält, hätte sich bis auf wenige Exemplare damit weitestgehend erledigt. Das wird Nvidia m.E. nicht machen, sondern die Preise werden sich im Rahmen der 40er Reihe bewegen.
 
Nunja, die Super Karten kommen und RTX 5000 rückt näher.
Die 4000er Generation war so krass überteuert wie keine Karte zuvor.
Mainstream Karten zum Titan Preis wohin man guckte.

Man muss den Preis reduziert, wenn man jetzt noch jemanden zu einer 4090 überreden möchte....

Ich habe eine 6900 xt und warte garantiert auf die 5090.
Wenn der Preis passt okay, wenn nicht, dann nicht.
 
Wann Nvidia eine neue Generation in den Handel bringt ist doch auch nicht so wirklich klar. Derzeit sind sie doch gerade im oberen Bereich ohne Konkurrenz und haben überhaupt keinen Druck, etwas Neues zu bringen. Dazu kommt noch, dass sie Riesengewinne mit KI generieren, also auch finanziell keinen Druck haben.
Daher ist meine Vermutung, dass man eine hyphotetische 5000er Generation in sehr kleinen Dosen für sehr viel mehr Geld als bisher auf den Markt bringen wird und parallel die 4000er sweiterhin laufen lässt.
Das ist auch keine Schwarzmalerei sondern lediglich meine Sicht. Das einzige was dagegen helfen könnte wären leistungsfähigere Karten der Konkurrenz und / oder ein Einbrechen des KI Booms. Zumindest letzteres scheint nicht so realistisch. :huh:
 
Der Aufpreis der 4090 zur 3090 war recht moderat. Wir werden sehen.
Ich habs 2023 anders gesehn. Der Aufpreis von 4080 zur 4090 erschien mir damals recht gering. Deswegen hab ich zur 4090 gegriffen und es keinen einzzzigen Tag bereut. Die 4080 hingegen schien mir in der Tat überteuert, vor allem wenn man bedenkt was Nvidia für die 3080 aufgerufen hat (Corona/Lieferschwierigkeiten/Verteuerungen etc.pp) jetzt mal außen vor...

Zudem, was andere für ihre Ausgaben bezahlen oder was irgendetwas (Auto`s/Handy`s/Uhren/Klamotten/Urlaube) irgendwem wert ist, war mir persönlich schon immer sowas von Rille...

Gruß
 
Zuletzt bearbeitet:
Und noch mehr Propaganda. Gestiegene Herstellungskosten führen nunmal zu höheren Endkundenpreisen. Die Waferkosten haben sich von Samsung 8nm zu TSMC 4N (5nm) ca. verdoppelt. Aber wenn Du ein Unternehmen führen würdest, dann wärst Du garantiert der gute Samariter der seine High-Tech Produkte verschenkt! @4thVariety der Heilsbringer!

Ein 5nm Wafer von TSMC liegt bei ca. $16.000.

Mit einem Programm, kann man ausrechnen wievielen Ada 103 auf so einen Waver passen.

Dann sind wir bei 156 Chips die vom Wafer fallen. Macht $102 an Kosten bei TSMC für einen Chip der in einer 3080 4080 stecken wird. Sagen wir 20% der Chips sind nicht zu retten, dann sind es immer noch 124 Stück, also $129 pro Chip. Bei manchen gehen alle Cuda Cores, das wird unsere 4080S später, mancher Chips sind teildefekt aber da kann man Cuda Kerne abschalten und den Chip problemlos als 4070Tis verkaufen.

Spätestens jetzt sollten wir uns die Frage stellen, warum eine 4080 im UVP $1.200 kostet, wo eine 3080 noch $700 kosten hätte sollen. Denn der TSMC Chip kostet bestimmt keine $500 mehr, den Preis hat man aus einer anderen Nase gezogen.

Das Argument, dass ein TSMC Wafer mehr kostet als vorher bei Samsung können wir uns auch schenken, denn ddie Oberfläche der 3080 waren sagenhafte 628mm². Da kann TSMC pro Waver 40% teurer sein und die Chips haben in Relation imme rnoch den gleichen Preis.
 
Zuletzt bearbeitet:
Nunja, die Super Karten kommen und RTX 5000 rückt näher.
Die 4000er Generation war so krass überteuert wie keine Karte zuvor.
Mainstream Karten zum Titan Preis wohin man guckte.

Man muss den Preis reduziert, wenn man jetzt noch jemanden zu einer 4090 überreden möchte....

Ich habe eine 6900 xt und warte garantiert auf die 5090.
Wenn der Preis passt okay, wenn nicht, dann nicht.

Ich glaube Du hast keine Ahnung was die Titans gekostet haben. Hier die UVPs:

GTX Titan (2013) - 950€
GTX Titan Black (2014) - 940€
GTX Titan Z (2014) - 3000$, später 1500$
GTX Titan X (2015) - 1150€
Titan X (2016) - 1300€
Titan Xp (2017) - 1350€
Titan V (2017) - 3500€
Titan V CEO (2018) - 3100€
Titan RTX - 2900€

Dann kam 2020 die 3090 für 1500€ und 2022 die 4090 für zuerst 1950€, später 1800€.

Die 90er sind übrigens kein Mainstream. Das sind Enthusiasten Karten und beide sind günstiger als die letzten Titans.


Ein 5nm Wafer von TSMC liegt bei ca. $16.000.

Mit einem Programm, kann man ausrechnen wievielen Ada 103 auf so einen Waver passen.

Dann sind wir bei 156 Chips die vom Wafer fallen. Macht $102 an Kosten bei TSMC für einen Chip der in einer 3080 stecken wird. Sagen wir 20% der Chips sind nicht zu retten, dann sind es immer noch 124 Stück, also $129 pro Chip. Bei manchen gehen alle Cuda Cores, das wird unsere 4080S später, mancher Chips sind teildefekt aber da kann man Cuda Kerne abschalten und den Chip problemlos als 4070Tis verkaufen.

Spätestens jetzt sollten wir uns die Frage stellen, warum eine 4080 im UVP $1.200 kostet, wo eine 3080 noch $700 kosten hätte sollen. Denn der TSMC Chip kostet bestimmt keine $500 mehr, den Preis hat man aus einer anderen Nase gezogen.

Das Argument, dass ein TSMC Wafer mehr kostet als vorher bei Samsung können wir uns auch schenken, denn ddie Oberfläche der 3080 waren sagenhafte 628mm². Da kann TSMC pro Waver 40% teurer sein und die Chips haben in Relation imme rnoch den gleichen Preis.

Die TSMC 5nm Wafer sind aber nicht nur 40% teurer als die Samsung 8nm Wafer, sondern eher 200%.

1705829966142.png


Samsung 8nm ist ein 10nm Prozess. Nvidia hat bei Samsung garantiert weniger pro Wafer bezahlt als TSMC verlangt hätte, sagen wir einfach mal 5000$ pro "8"nm Wafer.

TSMC N5 (4N ist ja ein 5nm Node) kostet dagegen 16000$ pro Wafer.

Außerdem nimmst Du einfach nur Chips/Wafer als Kostenpunkt her für Deine Argumentation, alle anderen Kosten sind egal? PCBs, GDDR, und vorallem R&D. Neue RT- und Tensor Cores designen sich nicht selbst, und die Software muss auch jemand schreiben...

https://www.tomshardware.com/news/tsmc-will-charge-20000-per-3nm-wafer

Chip developers who use TSMC's services are expected to pass the costs of new chips on to downstream customers, which will make smartphones and graphics cards more expensive. Even now, Apple's iPhone 14 Pro starts at $999, whereas Nvidia's flagship GeForce RTX 4090 is priced at $1,599. Once companies like Apple and Nvidia adopt TSMC's N3 node, we can expect their products to get even more expensive.

Of course the actual chip cost can still be relatively small compared to all the other parts that go into a modern smartphone or graphics card. Take Nvidia's AD102, which measures 608mm^2. Dies per wafer calculators estimate Nvidia can get about 90 chips from an N5 wafer, or a base cost of $178 per chip. Packaging, PCB costs, components, cooling, etc. all contribute probably at least twice that much, but the real cost is in the R&D aspects of modern chip design.
 
Die TSMC 5nm Wafer sind aber nicht nur 40% teurer als die Samsung 8nm Wafer, sondern eher 200%.

Gut, dafür passen auf ein Samsung Wafer auch nur 89 Stück von der 3080. Geben wir denen den gleichen 20% Wegwerfrate, dann sind es 71 Chips pro Samsung Wafer, macht umgerechnet $112 pro 3080 Chip für Nvidia. Damit ist der neue TSMC Prozess für Nvidia pro Chip nur $17 teurer geworden. Ich glaube es ist sicher zu sagen, dass die typische 80er Serie mehr als $17 teurer geworden ist. Berechnet man mit ein, dass die Fehllerrate bei Smsung richtig schlecht gewesen sein soll, ist sogar davon auszugehen, dass Nvidia aktuell bei TSMC weniger zahlt. Also ja, ein 4080 Chip von TSMC ist höchstwahrscheinlich billiger in der Herstellung als ein 3080 Chip es war. Es reicht nicht, nur die Schlagzeile (WAFER BEI TSMC KOSTET DAS DOPPELTE) zu lesen, man muss die Mathematik dahinter durchrechnen, denn Nvidia macht das auch. Da sehen wir vor allem dass RTX40 schon in der Herstellung viel mehr SInn macht bei TSMC als bei Samsung.



Außerdem nimmst Du einfach nur Chips/Wafer als Kostenpunkt her für Deine Argumentation, alle anderen Kosten sind egal? PCBs, GDDR, und vorallem R&D. Neue RT- und Tensor Cores designen sich nicht selbst, und die Software muss auch jemand schreiben...

Die Kosten für ein 4060 PCB unterscheiden sich nicht groß von einem 4090 PCB und die zusätzlichn 6GB RAM eines leicht anderen Typus den eine 4080 kosten auch nicht hunderte Euros mehr. Ich empfehle eine Lektürde der Nvidia Quartalsberichte, da werden auch Personal, Forschung und andere Kosten aufgeschlüsselt (Leider nicht nach Bereich), aber auch da sind die Kosten sehr stabil. Kurz gesagt, Nvidia bietet zweistellige Milliardenbeträge um Firmen aufzukaufen, deren Gewinnspanne ist entsprechend enorm und damit meine ich Gewinn nach Abzug aller Kosten wie Herstellung, R&D, Personal, Marketing, Software und Hausmeister.
 
Ich denke es ist klar, dass Nvidia die RTX 4080 problemlos auch für 799 Dollar hätte verkauft werden können.
Wahrscheinlich war sie auch genau so ursprünglich geplant, weil man die 4080 Ti hätte zwischen 4080 und 4090 für 999 oder mehr Dollar anbieten hätte können.

Der einzige Chip der wirklich teuer ist und auch nicht kostendeckend für diese Summen angeboten werden kann ist Ad102.
TSMC N5 (4N ist ja ein 5nm Node) kostet dagegen 16000$ pro Wafer.
Selbst wenn, der Chip der 4080 ist damit nicht viel teurer und ganz klar ein <1000 Dollar Produkt.
Warum der Chip so teurer angeboten wird liegt alleine an AMD´s schlechter Gen.
 
Zurück