Eilmeldung: Nvidia stellt Geforce RTX 4090 und RTX 4080 mit 12 und 16 GB vor

Dir ist schon klar, dass die 4080 16GB mit der hochgezüchteten 3090Ti verglichen wird?
Gegenüber der 3080 10G sind es, wenn die 4080 16G 20% über der 3090Ti liegt, ziemlich genau 50%.
Liegt sie 30% vorne, sind es >60%. Rechnet es doch mal durch, ist doch nicht so schwer.
Da ist der Blick wohl einfach tiefrot?^^
Schön, dass du meine Kommentare so toll liest... immerhin schrieb ich nur ein paar Kommentare davor, dass es im Vergleich zur 3090 TI ist... das wiederhole ich nicht in jedem Kommentar, wenn ich mit den gleichen Leuten schreibe bzw. sie zitiere
 
Dir ist schon klar, dass die 4080 16GB mit der hochgezüchteten 3090Ti verglichen wird?
Gegenüber der 3080 10G sind es, wenn die 4080 16G 20% über der 3090Ti liegt, ziemlich genau 50%.
Liegt sie 30% vorne, sind es >60%. Rechnet es doch mal durch, ist doch nicht so schwer.
Da ist der Blick wohl einfach tiefrot?^^
Die 3090Ti liegt aber keine 30 % vor einer 3080 ( ausgenommen VRAM mangel ) sondern eher so 18-25%
1663926107151.png


16% sind es zur 3090 (in 4k) die 3090Ti ist ca 7% schneller=23%.
Das heißt eine 4080 die ca 20% über eine 3090ti liegt wäre 43% Schneller bei einer UVP die ca 41% mehr kosten.
Also bekomme ich zwei jahr nach Lauch mehr für mehr Geld WOW.
Mega Deal.
Fortschritt bei GPUS war sonst immer mehr für Gleich viel.
Nicht mehr für mehr.
 
Naja, es wird auch ne 4090Ti geben. Die Preissteigerung ist schon real. Allerdings ist auch der Aufwand der HW größer und ziemlich sicher auch die Produktionskosten.

Die Zeit in der HW immer billiger wird bei steigender Leistung ist zumindest in der bisherigen Form ziemlich sicher vorbei.
Produktionskosten als Argument zu nehmen ist nicht sinnvoll, denn die reinen Produktionskosten sind für Highend-Modelle fast genauso hoch, wie die der Midrange-Karten etc. (also reine Produktion! nicht Material). Das sollte man differenzieren. Die Mehrkosten des im Bezug zusätzlichen Materials stehen hier aber nicht in einem noch erträglichen Verhältnis. Da kann man schon von "abmelken" sprechen.

Ich hab früher mal in der Autobranche gearbeitet und da ist es vergleichbar. Die Produktionskosten eines 1er BMW z. B. sind in etwa genauso hoch, wie die eines 5er BMWs. Auch hier zahlt der 5er-Käufer die niedrige Marge des 1er quasi mit.

So auch bei Grafikkarten. So rein hypothetisch kostet die Produktion einer xx60 sagen wir mal 50 € und die einer xx90 dann so 60 €... Mit allen Kosten würde man dann für die 60er vielleicht 1€ Gewinn machen, weil der Preis nicht zu hoch sein kann, bei der 90er macht man aber 300€ Gewinn, so macht man dann im Mittel bei jeder Karte guten Gewinn (WIE GESAGT REIN HYPOTHETISCHES RECHENBEISPIEL, fern ab der realen Zahlen).

Im Prinzip könnte auch jeder "Normal-Käufer" froh sein, dass es so "Verrückte" gibt, die massig Geld für die Topmodelle hinlegen. Sonst wären die "schlechteren" Modelle sicher etwas teurer.

ich finde die Preise aber dennoch übertrieben! Von der Marge von NV können selbst Traditionsunternehmen (Henkel, VW, Kraft... was weiß ich) nur träumen.
 
Ich mecker nicht, das passt schon so. Nur brauch ich ehrlich gesagt bisher keine Mehrleistung in 98% der Spiele weil 99% davon keine großen Anforderungen an die GPU haben.

Sidescroller, Taktik, Manager, Top Down, Hack&Slay, Du scherst alles über einen Kamm. Für diese (und viele andere) Typen an Spielen braucht man keine 4090/4080 um 4K mit ordentlich FPS zu erreichen.

Wo braucht man denn gerade viel mehr Leistung? Etwa bei den AAA-Games die fast ausnahmslos mit RT (und DLSS) kommen? :schief:
Es soll Leute geben, die mehr als nur ein Genre an Spielen mögen...
Und nebenbei: es gibt viele Space Spiele, die deutlich von mehr Grafikpower profitieren - auch wenn sie keine AAA Spiele sind.
Wie z.B. X4
Das Spiel zerlegt dir mit Genuss eine 3090 TI in Einzelbilder, wenn du die Grafikoptionen voll ausschöpfst und mal in eine große Schlacht gehst.
Vor allem nah an den riesigen Raumstationen.

Spiel Modding... Extreme Texturpakete und Shadereffekte in Spielen. Oder auch high Poly mods - Das nutzen ungefähr genauso viele, wie es AAA Gamer gibt, die eine 4090 ausfahren würden.
 
Es gibt keinen "Preis pro entwickeltem Chip". Oder meinst Du wie hoch die Entwicklungskosten für Lovelace und die Reference Boards insgesamt sind?

Die kann man indirekt im Jahresbericht (R&D Kosten) ablesen, leider wohl nicht unterschieden nach Aufwänden für die Architektur, Boards, Techniken wie DLSS, Treiber usw.

Aber das ist jedenfalls der größte Ausgabenposten bei NVidia. Mehrere 100 Millionen.

Auf den einzelnen verkauften Chip umgelegt kann man das nicht berechnen, das hängt halt davon ab, wie viele von den jeweiligen Chips verkauft werden und ist immer eine Mischkalkulation. Mit den HighEnd Chips wird man versuchen einen größeren Anteil zu erreichen (weil man ja auch weniger Exemplare davon verkauft), bei den kleineren Chips weniger, aber dafür verkauft man auch mehr.
Damit lässt sich dann absolut keine Aussage darüber treffen, wie viel teurer die Produktion wirklich geworden ist, pro verkaufte GPU.
 
Quelle ? ;) Nur so aus Prinzip
Naja... schau dir allein an, was so im Jahr mit Bürocomputern umgesetzt wird...

Die drei größten - wobei Lenovo vor ein paar Jahren halt IBM war - sind nicht primär für die Gaming PCs bekannt.
Und Apple erst recht nicht^^
Es gibt keinen "Preis pro entwickeltem Chip". Oder meinst Du wie hoch die Entwicklungskosten für Lovelace und die Reference Boards insgesamt sind?

Die kann man indirekt im Jahresbericht (R&D Kosten) ablesen, leider wohl nicht unterschieden nach Aufwänden für die Architektur, Boards, Techniken wie DLSS, Treiber usw.

Aber das ist jedenfalls der größte Ausgabenposten bei NVidia. Mehrere 100 Millionen.

Auf den einzelnen verkauften Chip umgelegt kann man das nicht berechnen, das hängt halt davon ab, wie viele von den jeweiligen Chips verkauft werden und ist immer eine Mischkalkulation. Mit den HighEnd Chips wird man versuchen einen größeren Anteil zu erreichen (weil man ja auch weniger Exemplare davon verkauft), bei den kleineren Chips weniger, aber dafür verkauft man auch mehr.
Das kann man leider auch nicht so genau sagen, da AMD, Intel und Nvidia jedes Jahr deutlich mehr als ein Projekt laufen haben.
Lovelace ist da sicher nur eines unter einem Dutzend, oder mehr.
Allein wenn man annimmt, dass AMD und Nvidia es ähnlich handhaben:
Laut AMD laufen immer drei Projektteams parallel, die drei Generationen entwickeln - und das sowohl bei GPUs, als auch bei CPUs.
Also allein dafür schon 6 Teams mit je ähnlichen Budgets.
Dann noch die Projekte in anderen Bereichen, wie Server.. interconnect... custom Designs und, und, und...

So wird für ein großes Chipprojekt maximal 5% des Gesamtbudgets für R&D pro Jahr drin sein. Viele Projekte werden noch weniger bekommen.
 
Zuletzt bearbeitet:
Es soll Leute geben, die mehr als nur ein Genre an Spielen mögen...
Und nebenbei: es gibt viele Space Spiele, die deutlich von mehr Grafikpower profitieren - auch wenn sie keine AAA Spiele sind.
Wie z.B. X4
Das Spiel zerlegt dir mit Genuss eine 3090 TI in Einzelbilder, wenn du die Grafikoptionen voll ausschöpfst und mal in eine große Schlacht gehst.
Vor allem nah an den riesigen Raumstationen.

Spiel Modding... Extreme Texturpakete und Shadereffekte in Spielen. Oder auch high Poly mods - Das nutzen ungefähr genauso viele, wie es AAA Gamer gibt, die eine 4090 ausfahren würden.

Du bleibst bei Deinen Nischen Beispielen. Spiele Mods, extreme Texturpakete, all das nutzen 99% der Gamer doch nicht. Oder hast Du dazu eine eine Statistik die mich widerlegt?

Das Problem ist ja: wenn ich eine NV Karte kaufe, dann habe ich "ausreichend" Leistung in alten Titeln und kann in RT Titeln trotzdem alle Regler nach rechts schieben. Kaufe ich eine AMD Karte, dann habe ich "mehr" Leistung in alten Titeln, muss dafür aber auf den RT Regler nach rechts verzichten. Was einem nun wichtiger ist muss jeder für sich selbst entscheiden.
 
Das was dann auf dem Bildschirm passieren würde, würde aber interpolierend bereits auf das neue "echte" generierte Frame unter Berücksichtigung der Spielereingabe "hinmorphen" können....
Es wird im allgemeinen überschätzt, was die Augen- Gehirnkombi an Details bzw. Pixelfehlern im Milisekunden- Bereich erkennen kann...
Zumindest SteamVR rendert an den Rändern jedes Frames mehr als zu sehen ist, damit die Interpolation eben Bewegungen noch "abfedern" kann. Wenn das nicht klappt, kann man am Rand in Blickrichtung eben den Bildrand in VR sehen. Am Bildschirm müsste sich das doch in schwarzen Rändern aus bei DLSS3 äußern, oder?

Meine Meinung ist immer noch !

RTX 4090 / Technisch & Preislich OK zum Vorgänger gerade mal 2,5% teuerer geworden.
Genau, weil der Nachfolger vom bereits überproportional teurem Vorgänger, nun nicht krass im Preis gesteigert wurde, wird der Preis als "OK" eingestuft. Marketing für Reingefallene, würde ich sagen.
 
Zuletzt bearbeitet:
Du bleibst bei Deinen Nischen Beispielen. Spiele Mods, extreme Texturpakete, all das nutzen 99% der Gamer doch nicht. Oder hast Du dazu eine eine Statistik die mich widerlegt?

Das Problem ist ja: wenn ich eine NV Karte kaufe, dann habe ich "ausreichend" Leistung in alten Titeln und kann in RT Titeln trotzdem alle Regler nach rechts schieben. Kaufe ich eine AMD Karte, dann habe ich "mehr" Leistung in alten Titeln, muss dafür aber auf den RT Regler nach rechts verzichten. Was einem nun wichtiger ist muss jeder für sich selbst entscheiden.
99% der Gamer spielen keine AAA Spiele...

Die verteilen sich sehr gut auf all die "Nischen".
Genau deshalb ist das "Aber RT ist bei dem Hersteller viel besser" Argument noch immer ein sehr hinkendes.
RT in Spielen ist aktuell selbst noch eine extreme Nische.

Da helfen auch lächerliche Spielereien, wie RT Schatten in World of Warcraft nichts, denn das ist so ziemlich das letzte Feature, was einen juckt, wenn man wegen zu vielen Effekten eh schon in den FPS Keller sinkt. RT da noch draufzuklatschen macht es nicht besser.
Oder gar RT für Fortnite... Kompetitiver Online Shooter, bei dem man auf jeden Fall FPS für RT Effekte opfern möchte, die man nicht mal wirklich zu sehen bekommt, weil alles zu hektisch ist.
Gleiches gilt für so ziemlich jeden AAA Shooter - die werden meist im Multiplayer gespielt.
Da sinf hohe FPS und niedrige lags King - und damit weder RT, noch DLSS3 Zusatzframes.
 
99% der Gamer spielen keine AAA Spiele...

Die verteilen sich sehr gut auf all die "Nischen".
Genau deshalb ist das "Aber RT ist bei dem Hersteller viel besser" Argument noch immer ein sehr hinkendes.
RT in Spielen ist aktuell selbst noch eine extreme Nische.

Da helfen auch lächerliche Spielereien, wie RT Schatten in World of Warcraft nichts, denn das ist so ziemlich das letzte Feature, was einen juckt, wenn man wegen zu vielen Effekten eh schon in den FPS Keller sinkt. RT da noch draufzuklatschen macht es nicht besser.
Oder gar RT für Fortnite... Kompetitiver Online Shooter, bei dem man auf jeden Fall FPS für RT Effekte opfern möchte, die man nicht mal wirklich zu sehen bekommt, weil alles zu hektisch ist.
Gleiches gilt für so ziemlich jeden AAA Shooter - die werden meist im Multiplayer gespielt.
Da sinf hohe FPS und niedrige lags King - und damit weder RT, noch DLSS3 Zusatzframes.

Schön umschifft, was ist mit Texture Packs und extremen Mods? Wie viele nutzen das? War doch vorher Dein Argument.

Auch auf mein Argument: "Kauf NV und Du kannst alle Regler nach rechts schieben - Kauf AMD und Du musst Abstriche machen" gehst Du natürlich nicht ein sondern konterst mit "ja aber RT ist auch eine Nische". :schief:

Also Deine Nische passt in die Argumentation, aber die RT Nische nicht oder wie? :lol:
 
Wer gelegentlich mal Nachrichten schaut, wird den schwachen Euro wohl mitbekommen haben. "Absichtlich unter den Tisch fallen gelassen" klingt schon wieder so nach Verschwörungstheorie. Klar hätte man das erwähnen können, aber einen zwingenden Grund dafür gibt's nicht. Ändert ja nichts.
Der zwingende Grund ist jener, das es einen gravierenden Unterschied zu den Preisen der Vorgänger Generation ausgemacht hat im Vergleich. Gerade im Bezug auf 3090 vs 4090 und die Euro Preise eben nicht allein durch nVidia so hoch sind bei der 40er Gen.
 
Schön umschifft, was ist mit Texture Packs und extremen Mods? Wie viele nutzen das? War doch vorher Dein Argument.
Es war ein Beispiel, nicht als DAS Argument gedacht.

Auch auf mein Argument: "Kauf NV und Du kannst alle Regler nach rechts schieben - Kauf AMD und Du musst Abstriche machen" gehst Du natürlich nicht ein sondern konterst mit "ja aber RT ist auch eine Nische". :schief:
Kann ich das denn wirklich?
Wenn ich mir jetzt eine 4090 kaufen würde, könnte ich dann alle Regler nach rechts drehen, wenn ich z.B. Star Citizen spiele?
Könnte ich es bei X4?
Heck, könnte ich es bei Cyberpunk?
Werde ich es bei Starfield können?

Alle Regler nach rechts bedeutet aber auch: Kein FSR, kein DLSS.
 
Kann ich das denn wirklich?
Wenn ich mir jetzt eine 4090 kaufen würde, könnte ich dann alle Regler nach rechts drehen, wenn ich z.B. Star Citizen spiele?
Könnte ich es bei X4?
Heck, könnte ich es bei Cyberpunk?
Werde ich es bei Starfield können?

Alle Regler nach rechts bedeutet aber auch: Kein FSR, kein DLSS.

Kannst Du es denn mit einer RDNA3 Karte? Vermutlich wird das auch nicht so sein. Nur dass Du bei RDNA3 wahrscheinlich einen zusätzlichen Regler nicht nach rechts schieben kannst: RT. Aber dreh es Dir ruhig zurecht.
 
Der zwingende Grund ist jener, das es einen gravierenden Unterschied zu den Preisen der Vorgänger Generation ausgemacht hat im Vergleich. Gerade im Bezug auf 3090 vs 4090.
Aha... also der schwache Euro ist Schuld an 71% Preisanstieg (in USD) von der 3080 zur 4080?
Wäre mir neu.
Oder der krasse Anstieg von der 3070 zur 4070? ... ach nein... das Ding heißt ja 4080 12GB... (80%)

Edit:
kaum einer beschwert sich über den Preisanstieg, der durch die Wechselkurse kommt.
Es geht eher darum, dass die 3000er schon überteuert waren und Nvidia bei nahezu allen Karten nochmal sehr ordentlich draufgepackt hat.
Nur beim Topmodell mit dem teuersten Chip und der teuersten RAM Ausstattung, sowie den teuersten Komponenten auf der Platine reichen plötzlich 0,6% im Vergleich zur 3090...
Die deutlich kleineren Chips (AD103 ist 62% der Fläche des 102ers... und der 104er gerade mal 48% der Größe des 102ers) verursachen dann auch noch solche Kostenexplosionen, obwohl sie eine deutlich bessere Ausbeute haben müssten.
Edit2:
Techpowerup hat die Chipgrößen schön übersichtlich gelistet:

Kannst Du es denn mit einer RDNA3 Karte? Vermutlich wird das auch nicht so sein. Nur dass Du bei RDNA3 wahrscheinlich einen zusätzlichen Regler nicht nach rechts schieben kannst: RT. Aber dreh es Dir ruhig zurecht.
Weiß ich nicht.
Aber du meinst ja, ich könnte es mit einer Nvidia Karte.
 
Zuletzt bearbeitet:
Zurück