Vor AMD Navi: Wie gut kommen Geforce RTX 2060S und RTX 2070S an?

Haha, willst du wirklich transparante Zahlen und dadurch wissen, wie krass man als Endkunde evtl. über den Tisch gezogen wird? :-p

Naja, sowohl Nvidia als auch AMD sind Aktiengesellschaften. Das heißt die Geschäftszahlen sind öffentlich, und der über-den-Tisch-zieh-Koeffizient ist daraus recht einfach abzuleiten. Es ist halt nur in einem Hardware-Forum verpönt, das Pferd von der BWL-Seite her aufzuzäumen, statt über Wafer-Yields zu debattieren. ;)

Im Klartext hat Nvidias Geforce-Sparte Margen von ~60%. "Normale" Unternehmen (also nicht-Monopolisten) operieren in der Regel mit Margen von 0-20%, je nach Branche.

Wombatz-Faustregel: Die Preise für Geforce Karten durch 1.5 dividieren ergibt den Preis, den die Teile kosten würden in einem Paralleluniversum ohne grünes Monopol.

@Topic: Ich warte die Tests für Navi ab um zu sehen ob sich ein Upgrade lohnt. Super-Turing kaufe ich aber definitiv nicht. Ich habe mir nämlich fest geschworen, dass die nächste Karte keine Nvidia wird, und zwar in dem Moment wo die mich gezwungen haben, einen Account zu erstellen um Treiber-Updates herunterladen zu dürfen. Preise und Leistung waren mir in dem Moment egal.
 
Eigentlich sogar die vierfache Menge. Aber nur weil man mehr Chips aus dem Wafer bekommt, heißt das nicht, dass die Produktion günstiger wird. Die immer präziseren Anlagen zu entwickeln, herzustellen und zu betreiben kostet wohl einfach ab einem bestimmten Punkt viel mehr und da könnte so ein Faktor vier schnell mal untergehen.

Zahlen? Und komm jetzt nicht mit den Preisen der RTX. Entweder du findest irgendwo im Netz die Waferpreise und Yieldraten des aktuellen 7nm Prozesses von TSMC und die Marge, die Nvidia draufkloppt oder du ersparst uns Mutmaßungen. ;-)
Irgendwelche Folien aus Präsentationen von OEMs kannst auch knicken. Die erzählen dir viel, wenn die Expo lang ist. Irgendwie müssen sie ihre dickeren Margen ja begründen...
 
Aber nur weil man mehr Chips aus dem Wafer bekommt, heißt das nicht, dass die Produktion günstiger wird.
Man darf eben nicht vergessen, dass die Chips zwar kleiner werden, aber auch gleichzeitig komplexer.

Hier mal die x80 Karten, jeweils Anzahl Transistoren in Milliarden:

580 - 3,04
680 - 3,54
780 - 7,08
980 - 5,20
1080 - 7,20
2080 - 13,6

Mal in die Grafik alle Karten eingetragen:
TSMCKosten.png

40nm also Faktor 0,4 der Kosten pro Transistor, 28nm mit Faktor knapp oberhalb von 0,2 und 16nm mit knapp unterhalb von 0,2. Natürlich werden die Karten dann teurer, wenn die Fertigungskosten so explodieren.
 
Zuletzt bearbeitet:
Ich habe auf:" kommt nicht in Frage gestimmt", weil meine Hardware nach wie vor genügt. Für 1440p Gaming allemal ausreichend. Und 4K kommt für mich der 21:9 Format zu lieben gelernt hat nicht in Frage, daher wäre es für mich 5K. Da muss die Leistung und das Angebot noch besser werden. Allen voran weil ich kein Monitor ohne HDR Premium Standard kaufen werde, sprich 1000nits sind ein Muss, und das passiv gekühlt. Da hat die Industrie noch etwas zu tun!
 
Zahlen? Und komm jetzt nicht mit den Preisen der RTX. Entweder du findest irgendwo im Netz die Waferpreise und Yieldraten des aktuellen 7nm Prozesses von TSMC und die Marge, die Nvidia draufkloppt oder du ersparst uns Mutmaßungen. ;-)

Jaja, ich hör ja schon auf... Nvidia ist böse, AMD wird uns retten und dann gibt es in einem Jahr die dreifache 2080-Ti-Leistung mit 64GB VRAM für 400€ von AMD.
 
Man darf eben nicht vergessen, dass die Chips zwar kleiner werden, aber auch gleichzeitig komplexer.

Hier mal die x80 Karten, jeweils Anzahl Transistoren in Milliarden:

580 - 3,04
680 - 3,54
780 - 7,08
980 - 5,20
1080 - 7,20
2080 - 13,6

Mal in die Grafik alle Karten eingetragen:
Anhang anzeigen 1050901

40nm also Faktor 0,4 der Kosten pro Transistor, 28nm mit Faktor knapp oberhalb von 0,2 und 16nm mit knapp unterhalb von 0,2. Natürlich werden die Karten dann teurer, wenn die Fertigungskosten so explodieren.

Also.. wow.. was ne Steigerung zwischen 1080 und 2080. Toll! nur. öhm..in games kommt quasi nicht viel rüber..achja.. das dolle RT.. was aber auch nix bringt... tote Chipfläche, darf mal bei ner handvoll Games die Pfützen schöner machen .. also nvidia ist da echt aufm falschen Fuß erwischt worden... in nicht weiter Zeit werden die kleinen, schönen, schnellen navi Chips, ohne diesen Ballast, die weltweit verbreitesten gpus sein...klein und günstig und schnell x-box.. PS... PC tja, ich denke Linda Su hat alles richtig gemacht
 
Für mich kommen beide Karten nicht in Frage: Weil einfach hoffnungslos überteuerter Abfall von nV, die ihre dämlichen Kunden dermaßen verarschen, dass es nicht mehr feierlich ist und die Trottel merken es einfach nicht...

Aber auch AMD ist zu teuer, hier habe ich aber noch gewisse Hoffnungen, dass sie bald etwas günstiger und somit angemessen bepreist sind, was bei nV eben niemals passieren wird, denn Jensen und die Aktionäre sind einfach zu gierig.
Auch habe ich keine Hoffnung darauf, dass sich mit Intel irgendwas an den aktuellen Zuständen ändern wird, wenn sie auch nur halbwegs konkurrenzfähig sind, werden sie vermutlich sogar noch nVidia toppen...
 
Zu teuer und halt Nvidia, damit kann ich FreeSync knicken.

Nvidia Hate ohne Inhalt und sogar noch falsch informiert. Respekt. Wundert mich das du keine "gefällt mir" klicks bekommen hast.

@Topic: Im Mainsystem hab ich günstig ne 2080 ti geschossen und da wird erstmal nix geändert sonst hätte ich mir eine 2080 Super gekauft, im System das ich für meinen Bruder grad baue wird ne 2070 Super platz finden.
 
Also ich kaufe, sobald eine Rote oder Grüne Neuvorstellung in mein Budget passt! Nur hoffentlich gibt´s die Dinger in 5 Jahren noch!
Gruß Yojinbo, Der wo vor Jahren eine 254-Euro-1060 als teuerste Graka-anschaffung getätigt hat und never/ever für ne 60-iger 400Euro latzt. Ne 60-ziger!
Aber die ganzen tollen Spiegelungen, die du dann verpasst. Erst recht in Bewegung...:D

Aber stimmt schon, für ne 60ger ist das ein exorbitanter Preis:ugly: Ich hab damals schon Schnappatmung bei meiner 8800 GTX für 499€ bekommen. Aber das Teil hat damals einfach alles weggehämmert für`s Geld. Da gab es (ne kurze Zeit lang) nix drüber. Bis die 8800 Ultra kam.

PS: Achso, wenn man sich keine RTX-Karte kaufen will, dann ist man hier bei manchen gleich ein armer Schlucker. Leute, kommt mal klar!

Gruß
 
Zuletzt bearbeitet:
Noch gibt es kein Spiel welches Ray-Tracing nutzt, das mich hinterm Ofen hervor lockt - als gibt es auch keinen Bedarf für eine Grafikkarte die sowas kann. Vieleicht ändert sich das mit einem Spiel das am 16.04.2020 erscheint - aber bis dahin muss man also warten - auch bis man Metro Exodus auf Steam bekommt ist es noch eine Weile hin. (noch länger) Also kann jemand wie ich eigentlich noch gar nichts testen - wofür man die neue Technik bräuchte - ja - und Battlefield ist von EA und um EA mache grundsätzlich einen weiten Bogen...

Aber bei Fallen Order denk ich wieder drüber nach... Wenn das mit dem Lichtschwert nicht zu kindgerecht aufbereitet wird und nur als Kinderzimmer-Dekoration tauglich ist.
 
Dritte Grafik sind die Kosten pro Transistor. Man vergleiche die Steilheit der Kurve in den Bereich 65-28nm mal mit der ab 16 nm. Es gibt mehr Transistoren im Chip, die Transistoren werden nicht mehr deutlich günstiger -> Chips teurer.
Wie kommst du auf den Quatsch, dass die Kosten anhand der Transistorzahl betechnet werden? Du bezahlst den Wafer! Und in einem kleinen Fertigungsprozess bekommst du mehr Chips aus einem Wafer heraus. Dem gegenläufig ist die Fehleranfälligkeit kleinerer Fertigungen, wenn sie noch neu sind. Die Kombination aus diesen beiden gegenläufigen Faktoren bestimmt den Preis.

32nm Chips sind heutzutage billiger als 45nm Chips, weil beide Verfahren nahezu 100% Ausbeute haben, du aber wesentlich mehr 32nm Chips mit gleicher Transistorzahl aus dem Wafer herausbekommst. TU102 ist so teuer, weil a) nur wenige Chips auf den Wafer passen und b) dann selbst bei geringer Fehleranfälligkeit des Prozesses aufgrund der geringen Chipzahl auf dem Wafer garantiert ein großer Teil des Wafers weggeschmissen werden kann - wohingegen du bei einem Wafer voller 200qmm GPUs viel weniger Substanzverluste hast.

Nach deiner Logik hätten Chips trotz geringerer Strukturbreiten über die Jahre immer teurer werden müssen, weil die Transistorzahl steigt. Das ist aber kompletter Käse, weil es komplett den technischen Fortschritt in der Massenfertigung ignoriert. Würde die Welt so funktionieren, wären wir in der Industrialisierung des 19 Jahrhunderts hängen geblieben.

Wenn Transistoren nicht mehr günstiger werden, dann ist das schlicht Gewinnmaximierung. Das hat mit dem was möglich und kundenorientiert wäre nichts zu tun.
 
...
Im Klartext hat Nvidias Geforce-Sparte Margen von ~60%. "Normale" Unternehmen (also nicht-Monopolisten) operieren in der Regel mit Margen von 0-20%, je nach Branche.

Wombatz-Faustregel: Die Preise für Geforce Karten durch 1.5 dividieren ergibt den Preis, den die Teile kosten würden in einem Paralleluniversum ohne grünes Monopol.

@Topic: Ich warte die Tests für Navi ab um zu sehen ob sich ein Upgrade lohnt. Super-Turing kaufe ich aber definitiv nicht. Ich habe mir nämlich fest geschworen, dass die nächste Karte keine Nvidia wird, und zwar in dem Moment wo die mich gezwungen haben, einen Account zu erstellen um Treiber-Updates herunterladen zu dürfen. Preise und Leistung waren mir in dem Moment egal.

Ich möchte Deine Wombatz Regel ja nicht madig machen, aber Ryzen hat lt. AMDs eigenen Angaben ne Marge von 50% und hatte bisher 36% Unternehmensweit. Fällt AMD dann auch raus?

Das ist genauso unwahrscheinlich wie eine Heiligsprechung von Lisa Su als barmherzige Mutter, denn AMD hat kürzlich während eines Empfangs zum 50-jährigen Jubiläum auch sehr stolz erklärt, dass die 7nm-Produkte alle eine Marge von 50% oder mehr aufweisen (werden).
AMD Ryzen 3000 im Fakten-Check – Was wir bereits wissen (und was wir nur vermuten) – igor sLAB

Ergänzung: Man musste sich zu keinem Zeitpunkt registrieren für reine Treiber.

@topic
Man sollte sich nicht wirklich an den tatsächlichen Herstellungskosten aufhängen, denn die sind nur die absolut unterste Basis (und können in Ausnahmefällen sogar unterschritten werden); Preisfindung ist eine Wissenschaft für sich und man versucht genau DEN Preis zu verlangen, der am besten im Markt ankommt und dabei noch die größte Marge abwirft. Allerdings hat dieses Konstrukt sehr viele Stellschrauben wie Konkurrenzsituation, Angebotszeit, Produktzyklus etc. pp.

Hier schwingt sehr viel Religion mit, was allerdings außerhalb von Nerd-Foren kaum von Belang ist. Man muss nur wissen, dass man bei vielen nicht mit objektiven Argumenten kommen braucht, weil deren Kaufabsicht aus Grund XYZ eben AMD ist, selbst wenn man deren GPU Entwicklung nicht wirklich unterstützen sollte. Ryzen hingegen hat kaum Marketing gebraucht, da das Produkt an sich für sich stand und warb. Die Grafikkarten hatten immer einen Makel weg (Referenz ggf. zu laut im Test, Customs massiv verzögert, höherer Stromverbrauch durch Sweet-Spot Überschreitung, Fummelei beim Kunden notwendig dass es halbwegs passte, technisch hinterher da seit Jahren schlechtere Effizienz), im Gegenzug wächst die Software-Ökonomie von Nvidia und durch den Anteil von knapp 80% der Fokus von Entwickler auf eben jene Verbreitung. Wenn also nicht AMD explizit Geld in die Hand nimmt, ist die Unterstützung abseits der top Titel bei Nvidia besser. Wenn dann noch 80% der User sagen, sie waren grundsätzlich zufrieden mit ihrer Grafikkarte (wohlgemerkt außerhalb von Nerd-Foren), weshalb also zu etwas anderem wechseln?

Diejenigen, die sich nun über die Super "Refreshes" ggf. veräppelt fühlen haben eh den Schuss nicht mehr gehört, denn Hardware ist immer zum Kaufzeitpunkt veraltet. :wall:
 
Zurück