News Schlechtes Zeichen für Nvidia? RTX 4070 auch an Tag 2 problemlos zur UVP verfügbar

what. 400-500€ fandest du zu teuer?
Rechne das mal für die heutige Kaufkraft um. Willst du also damit sagen, dass 650€ für die 4070 OK sind?( Mittelklasse)

Wer entscheidet denn, was zu teuer ist und was nicht?
Jetzt komm mir hier nicht mit der künstlichen Inflation. Es herrscht Instabilität und Krieg.
Puh.. du springst aber echt von einer Aussage zu einer komplett anderen Schlussfolgerung....
Die 4070 sollte nicht mehr als €350 kosten. Das wäre für ne 70er Karte aktuell angemessen.
Bis einschließlich der 2000er Reihe waren die 70er Karten Rang 2 nach den 80er... es gab keine 90er.
Dann gab es eine Namensverschiebung und Top End sind jetzt die 90er.... was die 70er nach Tier 3 verschiebt, der sonst den 60er Karten vorbehalten war.
Und all das, weil zu viele einfach kaufen...
Immerhin bleibt das Zeug aktuell in den Lagern liegen.

Edit:
Das hat übrigens auch nichts mit Kaufkraft etc. zu tun... vor Allem nicht mit dem Scheinargument "Es ist doch Krieg".
Das interessiert TMSC herzlich wenig. die lassen noch immer so viele Wafer durchlaufen, wie davor.
Sie haben sogar noch freie Kapazitäten, wenn man den letzten Berichten glaubt.

Grundsatz der Elektronikentwicklung:
Leistung wird mit jeder Generation billiger.
Sonst würdest du für eine aktuelle PCIE 4 NVME SSD mit 2TB auch nicht um die €100 zahlen, sondern einen sechsstelligen Betrag.
Als ich mit dem ersten Computer in Berührung kam, war es ein 286DX. Die 20MB Festplatte kostete damals ein paar hundert D-Mark. Da passt aktuell nicht mal ein halbes RAW Bild meiner Kamera drauf.
 
Für ein paar Euronen mehr, kriegt man schon ne 7900xt. Mehr ist dazu nicht zu sagen.
Naja, momentan sind das 210 Euro mehr. Für 10% mehr RT und 35% mehr Rasterleistung, mit schäbigem Upscaler und keinem Frame Generation.
Habe letzteres gerade auf der 4070 gerade eben in Cyberpunk genossen. Absolutes Killerfeature.
 
Naja, momentan sind das 210 Euro mehr. Für 10% mehr RT und 35% mehr Rasterleistung, mit schäbigem Upscaler und keinem Frame Generation.
Habe letzteres gerade auf der 4070 gerade eben in Cyberpunk genossen. Absolutes Killerfeature.
Was mach ich in den 99,9% der Spiele, die kein DLSS3 unterstützen?
Oder in den 98% der Spiele ohne DLSS?
 
Zukünftig wird es wohl kein Spiel mehr geben, dass FSR/DLSS nicht unterstützt.
Indiespiele mal ausgenommen.
Da wäre ich nicht so sicher.
4X Spiele, wie Civilization kommen bestens ohne diese Techniken aus. Da geht die meiste Performance an der CPU verloren.
Die Grafikkarte braucht nur genug RAM, um die Texturen zu laden. Meine R9 290 hatte bei Civ 6 schon schwer zu kämpfen - auch Civ 5 war nicht mehr so genial mit 4GB.
 
dann guck das Video, DLSS ist besser als nativ
Wenn du immer die neueste DLL benutzt und als Maximum DLSS Quality in WQHD anstrebst, dann würde ich mit der Aussage weitgehend übereinstimmen, wobei es natürlich Ausnahmefälle gibt, in denen DLSS nur auf dem Niveau, bzw. schlechter ist.

Ich bevorzuge Leistung ohne Upscaling.
Amish bevorzugen auch ein Leben ohne Elektrizität.

Die 4070 sollte nicht mehr als €350 kosten. Das wäre für ne 70er Karte aktuell angemessen.
Interessant, dann hätte vor 10 Jahren eine GTX 970 nur 200 Euro kosten dürfen und eine Intel A750 8GB wohl heute 150? :-)
Bei den Preisen können die Mitarbeiter dieser Unternehmen gleich zu den Amish gehen.
Argumentationsbasis warum eine RTX 4070 heute 350 Euro kosten muss: Weil ich es so will!! :crazy:

Achtung Wasserstandsmeldung: Über 1000 Karten bei Mindfactory verkauft.
 
Zuletzt bearbeitet:
Amish bevorzugen auch ein Leben ohne Elektrizität.

Immer wieder schön zu sehen, was für Antworten kommen, wenn die argumente fehlen.
Interessant, dann hätte vor 10 Jahren eine GTX 970 nur 200 Euro kosten dürfen und eine Intel A750 8GB wohl heute 150? :-)
Bei den Preisen können die Mitarbeiter dieser Unternehmen gleich zu den Amish gehen.
Argumentationsbasis warum eine RTX 4070 heute 350 Euro kosten muss: Weil ich es so will!! :crazy:
Süß...... dabei kostete die 970 als damals zweitschnellste Karte $330 in der Referenzversion und unter $400 bei den meisten anderen Versionen.

Hier ein Release Test der 970 Gaming mit Preis der 970 Referenzkarte:

Oder hier auch von PCGH... Preis der 970: Ab €325

Der Preis von €200 war lange nach Release.
Die 970 kam übrigens im September 2014 raus.. also vor ca. 8,5 Jahren.

Wenn du schon herablassend sein willst, dann versuch es beim nächsten Mal mit korrekten Daten.

Die heutige 4070 ist bei Release ja gerade mal die Nummer 4 im Nvidia Lineup...
Beim Speicher kratzt die 4070 ja auch eher am unteren Rand der Mittelklasse.
Was rechtfertigt da einen Preis oberhalb der $350?
Dass Nvidia eine Marge über 60% haben will?
Mit 30% Gewinnmarge können sie auch super überleben... auch mit weniger... aber die Kunden rechtfertigen das ja...

Achtung Wasserstandsmeldung: Über 1000 Karten bei Mindfactory verkauft.
Nur 1000 Karten in 4 Tagen? Puh... da lassen sich die Kunden aber echt Zeit.

Die GTX 970er und 980er waren im ersten Monat nach Release nicht wirklich gut verfügbar...
 
Immer wieder schön zu sehen, was für Antworten kommen, wenn die argumente fehlen.
Ich bevorzuge eben Qualität und Leistung, deshalb aktiviere ich DLSS.
Und nein ich will nicht wieder in die Steinzeit ohne diese Features zurück.
Süß...... dabei kostete die 970 als damals zweitschnellste Karte $330 in der Referenzversion und unter $400 bei den meisten anderen Versionen.
Konjunktiv. Damalige Kaufkraft, vs heutige.
Mir ist durchaus bewusst, dass die 970 nicht 200 Euro kostete.

Was rechtfertigt da einen Preis oberhalb der $350?
Die Marktlage und die Produkte der anderen Anbieter, sowie Fertigungskosten.
Mit 350 Dollar und 300mm³ 5nm Chip verdient man kein Geld.
Warum kann man das nicht einsehen? Wieso meint man 10 Jahre nach einer GTX 970 für den gleichen Preis eine neue 70er zu bekommen?
 
Ich bevorzuge eben Qualität und Leistung, deshalb aktiviere ich DLSS.
Und nein ich will nicht wieder in die Steinzeit ohne diese Features zurück.
Danke, ich möchte nicht in die Steinzeit des Upscalings zurück... die hatten wir schonmal und da wurde sie belächelt.


Konjunktiv. Damalige Kaufkraft, vs heutige.
Mir ist durchaus bewusst, dass die 970 nicht 200 Euro kostete.
Dein Argument bleibt hirnrissig, weil die 4070 eher einer 960 von damals entspricht - der Name ändert leider so gar nichts dran, dass die 70 nichts mehr wert ist.
Seit die 90er auf dem Markt sind, haben die 70er ihre Position als "Vernunftkarte" im Vergleich zur großen Schwester verloren.
Erst recht, seit jeder 5% Performance Punkt mit einer neuen "GPU" belegt wird...

Und jetzt kommt die 4070 auch noch nach der TI Version raus... Hätte nur noch gefehlt, dass Nvidia noch eben eine 4080 TI vor dem 4070er Launch einschiebt. Genug Pletz zur 4090 wäre ja da.

Die Marktlage und die Produkte der anderen Anbieter, sowie Fertigungskosten.
Mit 350 Dollar und 300mm³ 5nm Chip verdient man kein Geld.
Der $350 Rahmen war schon immer mit geringen Margen gesegnet... Allerdings können sich die meisten halt nicht mehr leisten - und vor allem ist diese 4070 halt schlicht nicht mehr wert.
Bei 95% Yield dürften die Chipkosten nach Wafer Calculator bei um $104 liegen
Und da es sowieso ein um 24% beschnittener Chip ist, dürfte der Yield eher bei 99,5% liegen.

Warum kann man das nicht einsehen? Wieso meint man 10 Jahre nach einer GTX 970 für den gleichen Preis eine neue 70er zu bekommen?
Weil in der Elektronik der Grundsatz gilt, dass Leistung immer billiger wird.
Nach deiner Argumentation müsste ich für nen einfachen Vierkerner inzwischen $600 zahlen.
Kann ja nicht sein, dass man heutzutage die gleiche Leistungsklasse noch immer fürs gleiche Geld bekommt...
Ich bekomme aktuell fast die zehnfache Speichermenge fürs gleiche Geld, wie 2013.
Meine alte Canon DSLR von vor 13 Jahren sieht heute auch kein Land mehr gegen Kameras, die aktuell zu ähnlichen Preisen zu haben sind... wie die Nikon Z30, oder die Sony ZV-E10. Dazwischen liegen Welten.
Meine alte Kamera konnte FHD gerade mal mit 20 Bildern pro Sekunde als Video aufnehmen. Die beiden neuen schaffen da 120 fps... und UHD in 30 fps. Die Liste der besseren Features ist so unglaublich lang...

Warum soll ich ausgerechnet in dem Bereich, in dem das ganze Anfing, jetzt davon ausgehen, dass mehr Leistung mehr kostet?
Die ersten Computer füllten ganze Räume.. teilweise ganze Gebäude. Meine Uhr hat die tausendfache Rechenleistung und doch muss ich sie nicht 30 Jahre abbezahlen.

Fortschritt durch Entwicklung.

Leider hat sich Nvidia in den letzten 10 Jahren entschlossen, dass 40% Marge nicht reichen, sondern mindestens 60% rumkommen müssen.
Das ist der dicke Preistreiber hier.
Das und Jensens Meinung, die AIBs würden Nvidia nur aussaugen und nichts leisten, um selbst an den Karten verdienen zu dürfen.
Das ist leider ne Asusage von ihm...
Genau wie dass er die Marktpreise stabilisieren will...
 
Zuletzt bearbeitet:
Danke, ich möchte nicht in die Steinzeit des Upscalings zurück... die hatten wir schonmal und da wurde sie belächelt.
Wir hatten vorher noch nie ein Upscaling mit temporaler Verrechnung von Bildinformationen aus 3 Frames.
Das alte spatiale Upscaling inkl. Flimmerorgie kann gerne in die Mottenkiste zurück, weil das einfach schei*e ist.
Dein Argument bleibt hirnrissig, weil die 4070 eher einer 960 von damals entspricht - der Name ändert leider so gar nichts dran, dass die 70 nichts mehr wert ist.
Die 4070 setzt auf den AD104, vergleichbare Chips wurden als GTX 680 vermarktet.
Die wäre dann ja nach deiner Logik auch nur eine GTX 660 gewesen, obwohl sie die 7970 schlug.
Hirnrissig ist es irgendwelche Chips zu vergleichen deren Designs Faktoren teurer sind.

Screenshot 2023-04-20 030125.png


Und jetzt kommt die 4070 auch noch nach der TI Version raus...
Nvidia kann da ja in Reihenfolge bringen was sie wollen, solange AMD ihre Mittelklasse nicht auf den Markt bringt und über die 4080 kein Modell anbietet.

Der $350 Rahmen war schon immer mit geringen Margen gesegnet...
Und diese Segnung existiert nicht, auch wenn sie der Papst persönlich vornimmt.
Deswegen kann man 300mm² 5nm Chips auch nicht zu dem Preis von damals produzieren.
Das entspräche etwa der Größe eines 900mm² Chips mit 8nm Samsung und den verkaufst du auch nicht auf einer Grafikkarte für 350 Dollar, das sollte jeder einsehen können. Die Preise für den Chip steigen exponentiell.

1x 5nm FinFET Wafer$17,000 USD
1x 7nm FinFET Wafer$10,000 USD
Und 3nm steigt nochmal 30% im Preis und die Chipgrößen werden nicht kleiner.
Bei 95% Yield dürften die Chipkosten nach Wafer Calculator bei um $104 liegen
Eine komplett Karte dürfte daher rein von den Materialkosten inkl. 12GB GDDR6x bei rund 220 bis 250 $ liegen, die RTX 4080 wird auf 300$ geschätzt.
Dann musst du davon noch Forschung, Entwicklung, Fertigung, Versand, Werbung,. RMA und Co bezahlen.
https://www.tomshardware.com/news/why-nvidias-4080-4090-cost-so-damn-much

Heißt unter dem Strich, die Karte ist niemals eine 350 Dollar Karte oder war je als solche konzipiert.
Weil in der Elektronik der Grundsatz gilt, dass Leistung immer billiger wird.
Moores Law gilt schon lange nicht mehr. Ein exponentielles Wachstum der Transistoren lässt sich nicht mehr länger fortsetzen, da die Fertigungsprozesse immer teurer werden.
Nach deiner Argumentation müsste ich für nen einfachen Vierkerner inzwischen $600 zahlen.
Dann hast du meine Argumentation einfach nicht verstanden, da ich nie behauptet habe, man bekomme nicht mehr für sein Geld. Bei Prozessoren sind die Dies klein und wirken sich nicht so stark auf die Produktkosten aus.
Ich bekomme aktuell fast die zehnfache Speichermenge fürs gleiche Geld, wie 2013.
Und auch etwa die 10 fache Grafikleistung (TFLOPs), für den Preis, wo ist ergo das Problem?

Leider hat sich Nvidia in den letzten 10 Jahren entschlossen, dass 40% Marge nicht reichen, sondern mindestens 60% rumkommen müssen.
Und auch mit 40% Bruttomarge sind 350 Dollar nicht realisierbar.
 
Dein Argument bleibt hirnrissig, weil die 4070 eher einer 960 von damals entspricht - der Name ändert leider so gar nichts dran, dass die 70 nichts mehr wert ist.
Das ist aber ne ganze Weile her, das ne xx60 Karte nen 04er Chip hatte.
Müssten so 10 Jahre sein.
Die 960 hatte ebenfalls einen 06er Chip.
 
Zurück