NVIDIA Ada Lovelace: 4080 = 4060?

Krathak

Komplett-PC-Aufrüster(in)
Hello.

In diversen Foren und Beiträgen häufen sich Interpretationen darüber, dass das neue "Namensschema" bei NVIDIA darüber hinwegtäuschen soll, dass die entwickelten Chips nicht mehr zu den bisherigen Kategorien passen.

Zusammengefasst entspräche, rein hardwareseitig, die 4080 16 GB von ihrer Infrastruktur her eher der bisherigen 70er Variante/Logik, während die 4080 12 GB sogar in den Bereich der bisherigen 3060 fiele.

Woran machen die Schreiberlinge diese Behauptung fest? Es soll dabei weniger um die effektive "Leistung" gehen, sondern um die Architektur, die Die-Größe, CUDA-Cores und den Memory Bus.

Es stellt sich die Frage, ob NVIDIA es geschafft hat, die "kleinen" Karten einfach umzulabeln, um sie teurer zu verkaufen, oder ob die 4090 so brachial viel besser ist, dass selbst die Architektur der bisher "kleinen" Karten eher nach Leistung bepreist werden muss, auch im Vergleich zur 3000er Serie.
 
Ganz einfach: Die gehen von den Chipklassen aus.

Soll heißen: 4080, 4090, 4090Ti (Titan) müssen den "größten" Chip beherbergen (in unterschiedlichen Ausbaustufen).

4070 / 4070ti den Zweitgrößten

4060 / 4060ti den Drittgrößten usw...


Dazu gab es hier Forum auch schonmal Diskussionen z.B. bezüglich der GTX 980, weil sie nicht den selben Chip verbaut hat wie die Titan ihrer Generation.

Ich halte das Ganze für Nonsens, weil die Chipklassen über die verschiedenen Generationen hinweg nicht 1:1 vergleichbar sind. Diese Monsterchips der Highend-Klasse gab es früher einfach nicht. Zu Geforce 500 Zeiten hatte eine GTX 580 den dicksten Chip im dicksten Ausbau. Die 590 wurde über ein Dual-Chip Design gelöst.

Wenn die 4080 16GB der gennaten Logik nach der Nachfolger der 3070 sein soll, wäre das aber ein ganz gewaltiger Leistungssprung, falls es stimmt, dass die Karte mehr als 3090ti-Leistung erreicht. Außerdem hätten wir dann auch eine Verdopplung des VRAMs in nur einer Generation, während NVidia da über viele Jahre sehr sparsam war bzw. oft überhaupt nicht erhöht hat.

Meiner Meinung nach passen 4090 und 4080 16 GB in ihre jeweiligen Klassen. Anders sieht es bei der 4080 12 GB aus, die ist meiner Meinung nach wirklich nur eine umettikettierte 4070.
 
Zuletzt bearbeitet:
Wie erwähnt liegt der haken bei den chipklassen
Der ad102 ist high end zweifelsfrei
Der ad103 ist relativ neu gab es in den vorherigen gen nicht (abseits laptop)
Der ad104 ist klar zur oberen einstieg zu sehen also ne rtx4070
Die große frage die sich stellt ist nur, wieso nvidia solche sku plant
Erster Grund man hat noch dgpu fürn ganzes Jahr das abverkauft werden muss. Und man will die preise solang wie möglich stabil bleiben.
Anhand des whitepapers und den sm pro sku wird auch klar wieso

Die rtx4080 12gb afaik rtx4070 ~20tf
Die gpu würde maximal einer rtx3080 12gb entsprechen wenn nicht darunter.
Die rtx4080 16gb anderer chip etwa 26,6tf was genau auf die rtx3080ti trifft
Und das ist noch die optimistische Prognose
Einzig die rtx4090 wird mit +53% vs rtx3090ti hervorstechen

Nun stellt sich aber die frage wieso nvidia die Effizienz aufgibt

Es liegt an den chipkosten
ein ad102 kostet 200$
das board akä bom min 200$
vram ab 240$

und es scheint so als ob nvidia hier diesmal keine costum pcb erlaubt folglich verkauft nvidia pcb vram und chip als bundle
rechne (200+50+240)*1,7+150*1,2*1,1+10*1,1=1439$ *1,22= 1759€
Das wäre die Untergrenze
Wir wissen das die uvp bei 1599$ liegt und ist quasi ein Geschenk an die aib wegen der überbestände der rtx30 gen.
Ein ad103 chip kostet etwa 120$ bom ab etwa 150$ vram etwa 160$ macht Untergrenze ab 970$ und in D dann 1189€

Man muss dazu sagen das nvidia hier deutlich die preise diktieren kann
Die aktuellen 1469€ einer rtx4080 16gb kann auf 1199€ fallen und nvidia macht sogar nochmal mehr gewinn 90% marge statt nur 70%
Und kann diese sogar unterbieten um die gpu bei 999€ ankommt also effektiv 739$
Den ewig wird der preis des gddr6 24gbps nicht bei 20$ pro 16gbit bleiben
ich sah schon module bei 14$

Ein ad104 chip kostet nvidia 90$ vram ~120$ pcb 30$ Endkunden preis also bei 719$ machbar in D dann 869€.
Das kann aber nvidia jederzeit auf unter 599$ senken


Jetzt stellt sich nur die frage Wann?
Solange nvidia so eine hohen bestand an ga102 ga104 chips hat werden die preise der neuen gen nicht ansatzweise in diese Regionen kommen.
Die us preise der ga102 chips sind mittlerweile unter 1000$ gefallen Tendenz fallend.

Zur Leistung wie gesagt aktuell ist nur die rtx4090 als einzige gpu brauchbar trotz 2000€
Die rtx4080 12gb unterliegt der rtx3080 12gb die billiger ist
Die rtx4080 16gb erreicht mit ach und krach die rtx3080ti die auch noch billiger ist

Die einzige pros wären
weniger strombedarf
rtx4080 12gb~260w 1099€ vs rtx3080 12gb 300w 829€
rtx4080 16gb 320w 1469€ vs rtx3080ti 375w 999€

Siehste den Grund warum ada so teuer ist.

ich bin ziemlich sicher das bei den reviews auf die dlss3 und upscaler Fokus gelegt werden soll.
Bzw auf dxr den da wird ada gut sein bis auf wenig bis kein fps drop vs raster

Das wird ein fest bei den kommenden review
nvidia könnte die preise der rtx4080 ändern selbst die Namen könnte man schnell ändern
Man wird sehen was amd vorstellt am 3.11

Der wahre Kampf kommt sowieso erst nach der ces im Januar.
n33 akä rx7700xt ~24tf vermute ab 599$ dann wirds eng mit nvidia rtx4080 12gb
Umsetzbar ist das, real sehe ich aber 699$ =849€ vs 1099€ und amd ist deutlich schneller.

Wie schafft man es komplett am markt vorbei zu planen, Kurz GIER

Da seht ihr wieso evga den gpu markt verlassen hat
keine Planbarkeit
So führt man sein unternehmen in die pleite.
ich frage mich wie nvidia das rechtfertigen will, aktueller plan ist es das niveau der preise über 600$ zu hieven
Um die marge zu halten das wird aber nicht funktionieren amd wird aber danken da man deutlich mehr gewinn macht als geplant.
Wie mining unser hobby vernichtet hat.
Mal sehen wie blackwell wird. Ableger vom hopper design
nvidia Zukunft sieht düster aus.
 
Ich denke mal es liegt einfach daran, dass das Produktspektrum nach oben hin immer größer wird. Selbst Die 4090 ist mit ihren 16384 Shadern noch ziemlich weit vom Vollausbau (18432) entfernt. Das war in der letzten Generation noch ganz anders, die 3090 besaß 10496 von maximal möglichen 10752 Shadern.

Ich gehe davon aus, dass wir in dieser Generation sogar noch 2 "dickere Dinger" als die 4090 sehen werden:

Eine 4090ti mit ca. 17.400 Shadern und 24 oder 28 GB VRAM

und eine 4095 / TItan mit Vollausbau / nahezu Vollausbau und 32 oder 36 GB VRAM
 
In diversen Foren und Beiträgen häufen sich Interpretationen darüber, dass das neue "Namensschema" bei NVIDIA darüber hinwegtäuschen soll, dass die entwickelten Chips nicht mehr zu den bisherigen Kategorien passen.
Das ist nichts neues und wird seit zig Generationen durchgezogen um immer kleinere Chips zu immer höheren Preisen zu verkaufen (da die Namen größer werden).

Ich hatte es in einem anderen Thread schonmal runtergebrochen im Vergleich was wir heute für welche Karte rein technisch gesehen zahlen:

Man vergleiche mal mit vor rund 10 Jahren.
GTX590 --> zwei Vollaktive High-End Chips (!!!), das wäre heute eine imaginäre "RTX Titan Ada Dual" oder so
GTX580 --> vollaktiver Highend-Chip, heute wenn überhaupt vollaktiv geplant eine 4090Ti. DIe kostete übrigens 480€.
GTX570 --> teildeaktiver Highend-Chip, also das, was heute die 4090 ist. Damals 350€.
GTX560Ti --> vollaktiver Oberklasse-Chip, wäre heute eine 4080Ti. Damals 220€.
GTX560 --> teildeaktiver Oberklasse-Chip, wäre heute eine 4080. Damals 165€.
...soll ich noch weiter machen oder ist klar geworden wie inflationä die Namensgebung gegenüber der Technik geworden ist? Die 4090 von heute war vor 10 Jahren die x70er karte und die 4080 von heute die x60er non-Ti. :rolleyes:
Und jetzt als Fun-Fact aus einem Test der RTX4080 äähhh dem technischen Pendant GTX560:

1668971377846.png


Die Karte kostete ein Zehntel von heute und war in den Augen der Tester ZU TEUER!. :lol:

Beantwortet das deine Frage?
Eine 4080 ist technisch das, was vor 10 Jahren eine 560 für 170€ war.

Warum sollte das der Fall sein?
Wegen des 384er Speicherinterfaces. Da können nur Vielfache von 12 dranhängen (ohne so nen Mist zu machen wie bei der GTX970 damals...) und da das kleinste was man an GDDR6(X) kaufen kann 1 GB/Stein ist ist 12GB das Minimum. Oder eben 24 oder 48GB.
 
Zurück