Geforce RTX 4090 angeblich im Oktober, RTX 4080 mit 12 und 16 GiB [Gerücht]

R

raPid-81

Guest
Ich meinte im gesamten Portfolio. Bis zur GTX 680 waren die 80ern Karten die besten. Nun sind aber auch noch die 80Ti, 90 und 90Ti hinzugekommen. Damit sind die 60er relativ gesehen abgerutscht. Zumal die 40er Karten quasi eingestellt wurden.

Das zu leugnen hat halt eben keinen Sinn. Wenn ich mich recht erinnre, dann kreidest du den AMDlern immer an, sie würden denken, ihre Lieblingsfirma sei die Wohlfahrt. Das ist völlig richtig, nur denkst du genauso über Nvidia. Nvidia nimmt halt eben was geht, direkt oder indirekt.

Die 60er Karten hatten übrigens auch mal den zweitbesten Chip und nicht den dritt oder viertbesten. Die heutigen 60er sind eigentlich 50er.

Ich hab mal die relevanten Teile zusammen gepackt, genau das ist der Punkt: das Portfolio lässt sich nicht vergleichen mit dem von vor 10 Jahren! Und das machst Du, auch wenn es überhaupt keinen Sinn ergibt. In diesen Zeiträumen hat sich zu viel verändert, sowohl was die Technik, Herstellung und Features angeht, als auch was der Markt hergibt. Maximal lässt sich ein Vergleich zu 2 Generationen vorher ziehen.

Karten von vor 10 Jahren haben keine 4+ Jahre "gehalten". Da war nach 2 Jahren spätestens Ende. Und jetzt schau Dir die 1080ti an, die ist für vieles heute immer noch ausreichend, eine Karte die 2017 raus kam. Auch sowas muss eingepreist werden, die Entwicklungskosten verschwinden ja nicht plötzlich nur weil die Leute ihre Karten länger behalten können.

Meine Sicht der Dinge: man kann Ampere zurück bis Pascal vergleichen. Bei Pascal wusste Nvidia sehr genau wie gut die Karten waren und haben entsprechend die Preise erhöht (aber nicht so viel wie Du versuchst zu vermitteln).

Turing danach wurde teuer aufgrund der RT + DLSS Feature Entwicklung und den deutlich größeren Chipflächen.

Mit Ampere wurden die Preise über das gesamte Portfolio im Schnitt wieder runter geschraubt (ACHTUNG - MEINE MEINUNG!).

Dein Top-Modell Vergleich hinkt für mich in der Hinsicht, dass man die Top Modelle von vor 10 Jahren einfach nicht mit denen von heute oder gestern sinnvoll vergleichen kann. Die Inflation, Herstellungs- und Entwicklungskosten lässt Du auch komplett außen vor, das macht alles überhaupt keinen Sinn.
 
Zuletzt bearbeitet von einem Moderator:

4thVariety

BIOS-Overclocker(in)
Keine neue Architektur? Woher nimmst Du die Info? Gibt es News die ich übersehen habe? War nicht eins der Gerüchte dass die entweder INT oder FP32 Aufteilung ggf. aufgegeben wird?
Das ist alles eher Evolution als Revolution. Wir werden allerdings zum ersten mal Cuda 9.X in Konsumerkarten haben und nicht nur in GH-100 Karten für zehntausende Euros (bislang 8.x). Das ist wie der 10 Skylake Aufguss, man muss nix ändern wenn man immer noch optimieren kann, aber in Unkosten stürzt man sich bei der Entwicklung damit nicht.


Außerdem lässt Du in Deiner ganzen Rechnung einen wesentlichen Kostenfaktor völlig außen vor: Feature Entwicklung. Raytracing Cores und DLSS waren (und sind weiterhin) nicht umsonst.
DLSS würde ich als Gaming orientiertes Anwendugsszenario für Tensorkerne bezeichnen die eher wegen dem professionellen Sektor Einzug in die Architektur gehalten haben. Forschung und Entwicklung sind im letzten jahresbericht auf Seite 35 mit 20% des Umsatzes angegeben, das ist also nicht so schlimm. Besonders wenn man betrachtet, dass 36% des Umsatzes Reingewinne sind bei Nvidia.
 
R

raPid-81

Guest
DLSS würde ich als Gaming orientiertes Anwendugsszenario für Tensorkerne bezeichnen die eher wegen dem professionellen Sektor Einzug in die Architektur gehalten haben. Forschung und Entwicklung sind im letzten jahresbericht auf Seite 35 mit 20% des Umsatzes angegeben, das ist also nicht so schlimm. Besonders wenn man betrachtet, dass 36% des Umsatzes Reingewinne sind bei Nvidia.
Und DLSS fürs Gaming zu entwickeln war deswegen umsonst? Das trainieren kostet nichts? Da müssen keine Entwickler dran arbeiten? Ich denke doch, einfach Tensor Cores verbauen bringt ja nicht magisch irgendeine Funktionalität mit sich.

Stimmt, im letzten Jahresbericht lag "Research and Development" bei ca. 20%. Die Jahre davor (habe bis 2014 alle Berichte durchgeschaut) lag es meist zwischen 25-30% vom Umsatz. Der Umsatz ist gestiegen, gleichzeitig (da % vom Umsatz) sind auch die Investitionen in die Forschung und Entwicklung gestiegen.
 
Oben Unten