Preissenkung bei Geforce RTX 2060: Vorbereitung auf Radeon RX 5600 XT?

Dann mal als Gegenfrage, was du welche Deals nVidia, mit den Chip Fertiger ausgehandelt hat?
Ich weiß es nicht, von mir war das nur eine circa Rechnung, es kann auch teuer sein, aber die Margen von nVidia sind gigantisch.

Gesendet von meinem G8141 mit Tapatalk
Gegenfrage zur Gegenfrage, wie viel Sagen hat Nvidia am Tisch mit Apple, Qualcomm und Mediatek zusammen, wenn sie nur Grafikchips in einem der vielen Prozesse produzieren? Ich denke, sie halten am 12nm bei TSMC noch fest, weil einerseits der Prozess ausgereift ist und andererseits die anderen schon abgewandert sind, daher bessere Ausgangsposition für Preisverhandlungen.
Sagen wir, sie kriegen magischerweise viel Rabatt, unter 50$/pro Chip kommen sie trotzdem nicht. Wie es zur Endmarge kommt, weiß nur Nvidia selbst. Da kann man viel spekulieren, die Chips selbst sind keinesfalls billig, genauso wie GDDR6.
Ich bin gespannt, was AMDs Big Navi an GDDR6 Chips verbauen wird, denn die billigen, die sie jetzt verbauen, würde den Chip an Bandbreite verhungern lassen. Der Spaß wird teuer, bei 16GB Vram noch teurer.
 
Eine ordentliche Variante der RTX 2060, und das ist ja die Pfuschserie mit 6Gig Vram, kostet immer noch um 380 Euro. Das ist halt absolute Mittelklasse, die Mittelklasse der Mittelklasse sozusagen. Und das kann nicht sein. Für den Preis gab es vor ein paar Jahren Highend, oder später dann wenigstens obere Mittelklasse in guter Ausführung (siehe 970), welche das Fenster dazu schloß. Und nein, es gibt KEINE Rechtfertigung, warum das so sein soll, das ist alles Geschwätz.

Das sind halt mindestens satte 80Euronen zuviel, wenn nicht 100€. Das Hardwarekartell ist ein Parasit am Leib des Gamers, daß es knallt.

Wir sprechen schon gar nicht von den Mondpreisen der Karten darüber.
 
Irgendwie glaube ich da eher dran das sie jetzt noch eine RTX 2060 Ti nachschieben.

Allerdings mit 2 GB = 25% Speicher weniger als die GTX 1080 bereits im Mai 2016 hatte.

Wer jetzt tatsächlich noch zu einer normalen 2060 statt zur Super-Variante (oder eben auch zur 5700/5700XT) greift, der spart definitiv am falschen Ende. Für eine 6GB-Karte sind sowohl 349 als auch 319 Euro ein totaler Witz, völlig unabhängig von der Rohleistung der Karte.

Warum?
Also "Mehr ist besser" - außer natürlich wenns um die wirklich erbrachte Leistung geht oder wie?
AMD bietet auch noch munter 4GB karten an, RX 5600 hat auch "nur" 6GB - und? Wenn der speicher reicht dann reicht er. Haben die Leute früher bei der GTX 970 gegen R9 290 auch behauptet - und was ist passiert? genau - nichts.
Es ist zwar schön mehr Speicher zu haben aber so lange er reicht bringt es wenig auch wenn man dann 24GB hätte.
 
Und nein, es gibt KEINE Rechtfertigung, warum das so sein soll, das ist alles Geschwätz.
Das sind halt mindestens satte 80Euronen zuviel, wenn nicht 100€. Das Hardwarekartell ist ein Parasit am Leib des Gamers, daß es knallt.
Wir sprechen schon gar nicht von den Mondpreisen der Karten darüber.
Wenn eine vernünftige Konkurrenz vorhanden wäre dann würde sich der Preis auch angleichen, was ja aktuell bei der RTX2060 schonmal vorab passiert.
Im High-End Bereich wird sich daran aber nichts ändern wenn Nvidia mit der RTX3080 kommt.
Keine Ahnung warum man ständig auf Nvidia rumhacken muss.
Glaubst du AMD würde sich hier anders verhalten?
 
GDDR6 kostet 10$ pro Chip. Da nVidia Millionen Stück kauft, wird einer nicht mehr als 4$ Stück kosten. Die GPU kostet nicht mehr als 10$ und der Rest 20$.

Ahso, der Speicher auf einer 2060 kostet also sechs mal so viel wie die GPU, aber dank guten Deals zahlt Nvidia "nur" das zweineinhalbfache. Ich weiß nicht warum, aber irgendwie fällt es mir schwer, das zu glauben. Du hast sicher eine Quelle?
 
Ich sehe das eher als Reaktion auf den preis der RX 5700 dies ja inzwischen für 309€ gibt warum soll man da noch eine rtx 2060 für 300€+ kaufen.
 
Eine ordentliche Variante der RTX 2060, und das ist ja die Pfuschserie mit 6Gig Vram, kostet immer noch um 380 Euro. Das ist halt absolute Mittelklasse, die Mittelklasse der Mittelklasse sozusagen. Und das kann nicht sein. Für den Preis gab es vor ein paar Jahren Highend, oder später dann wenigstens obere Mittelklasse in guter Ausführung (siehe 970), welche das Fenster dazu schloß. Und nein, es gibt KEINE Rechtfertigung, warum das so sein soll, das ist alles Geschwätz.

Das sind halt mindestens satte 80Euronen zuviel, wenn nicht 100€. Das Hardwarekartell ist ein Parasit am Leib des Gamers, daß es knallt.

Wir sprechen schon gar nicht von den Mondpreisen der Karten darüber.

Der gute AMD produziert Navi XT im 7nm Verfahren mit 251mm² Silikonfläche. Unrealistisch angenommen, 7nm würde doppelt so viel Kosten als die üblichen 6050$ bei TSMC in 2018 pro Wafer. Mit dem Wafercalculator bekommt man bei sehr guten Defekt pro Fläche=0,001, 221 DIEs, wovon nur einer Defekt und 12 Teilchips an den Rändern sind, also 207 heile Chips.
Preis pro Chip = 6050$ *1,2*2/207 = 70,14$
In der Realität ist es weit weniger als 70$, AMD verbaut 2GB mehr GDDR6, die aber von der billigeren Sorte ist. Die Kosten insgesamt sind sehr vergleichbar mit der RTX 2060. Eine anständige 5700XT fängt auch bei 360€ an, ohne RTX ist sie bisschen billiger als die Konkurrenz aber einen Schnapper würde ich die AMD-Karten nicht nennen.
 
Für den Preis gab es vor ein paar Jahren Highend
Ja, dann schau Dir mal bitte die PCBs und die Fertigungsverfahren an. Für 380€ gab es schon sehr, sehr lange kein Highend mehr.
Selbst eine GTX 470 hat seinerzeit 350€ gekostet. Auf der anderen Seite ist die Abstufung der Leistungsklassen auch sehr viel vielschichtiger geworden.
Damals gab es halt nur 4 oder 5 Varianten. Heute sind quasi doppelt soviele gleichzeitig auf dem Markt, was - so sehe ich es- jedem erlaubt nach seinen Verhältnissen die Hardware zu kaufen.
Hinzu kommt im konkreten Bsp. Turing. Early Adopter haben immer draufgezahlt - ich finde den Kompromiss den man gemacht hat, RTX auf breiter Masse anstatt nur bei einem Prestige-Produkt an den Markt zu bringen ziemlich riskant aber auch gut. Parallel kann man sich als Kunde auch ganz gezielt gegen RTX entscheiden und halt weiterhin Pascal oder Turing -GTX kaufen.
Naja, lange Rede kurzer Sinn...Briefmarken sammeln soll wohl auch ein interessantes Hobby sein, Autos schrauben, oder Kaninchen züchten ;) kann aber auch ins Geld gehen....
 
Die GPU kostet sicherlich mehr als 10$, wo hast du die Preise her?
Intel hat mal 40$ Herstellungskosten für einen i7 angegeben.

Seine Angaben kann man da getrost ignorieren. 10$ entspricht noch den Materialkosten von Wafern - wenn man keine hohe Qualität (wie für moderne CPUs benötigt) braucht. Fertigungskosten hängen stark vom verwendeten Node und dem Aufbau ab, sind aber generell os irgendwo zwischen 5000€ und 10000€ pro Wafer.
 
Warum?
Also "Mehr ist besser" - außer natürlich wenns um die wirklich erbrachte Leistung geht oder wie?
AMD bietet auch noch munter 4GB karten an, RX 5600 hat auch "nur" 6GB - und? Wenn der speicher reicht dann reicht er. Haben die Leute früher bei der GTX 970 gegen R9 290 auch behauptet - und was ist passiert? genau - nichts.
Es ist zwar schön mehr Speicher zu haben aber so lange er reicht bringt es wenig auch wenn man dann 24GB hätte.
Mittlerweile sollte sich nun wirklich bis unter den allerletzten Stein herumgesprochen haben, welche Speicherausstattung bei den Ende des Jahres erscheinenden Konsolen zu erwarten ist und dass diese die Anforderungen an Grafikspeicher entsprechend nach oben treiben werden. Demgegenüber ist die Speicherausstattung bei Nvidia seit Jahren völlig unverändert und das passt halt einfach irgendwann nicht mehr zusammen.

Zu jedem "Wenn der Speicher reicht, dann reicht er." gibt's nun mal den Punkt, an dem er irgendwann dann doch nicht mehr reicht. Wer jetzt eine Karte kauft und damit erstens auch in zwei, drei Jahren noch spielen möchte und zweitens insbesondere auch Multiplattformtitel und Konsolenports, der wird ja sehen, wie glücklich er dann mit 6GB noch werden wird. Für 100 oder 200 Euro wäre das ja okay, aber bei 300 oder (für gute Customs) 350 bis 400 Euro ist das einfach nicht angemessen.

Vor allem aber kommen ja in einem halben Jahr schon die neuen Karten von AMD und Nvidia, und da insbesondere bei den 7nm-Nvidias mit einem deutlicheren Fortschritt zu rechnen ist als zwischen 10xx und 20xx, warten halbwegs intelligente und geduldige Menschen die sowieso ab, anstatt sich jetzt noch einen dieser Early-adopter-RT-Speicherkrüppel in den Rechner zu stecken.
 
Gegenfrage zur Gegenfrage, wie viel Sagen hat Nvidia am Tisch mit Apple, Qualcomm und Mediatek zusammen, wenn sie nur Grafikchips in einem der vielen Prozesse produzieren? Ich denke, sie halten am 12nm bei TSMC noch fest, weil einerseits der Prozess ausgereift ist und andererseits die anderen schon abgewandert sind, daher bessere Ausgangsposition für Preisverhandlungen.
Sagen wir, sie kriegen magischerweise viel Rabatt, unter 50$/pro Chip kommen sie trotzdem nicht. Wie es zur Endmarge kommt, weiß nur Nvidia selbst. Da kann man viel spekulieren, die Chips selbst sind keinesfalls billig, genauso wie GDDR6.
Ich bin gespannt, was AMDs Big Navi an GDDR6 Chips verbauen wird, denn die billigen, die sie jetzt verbauen, würde den Chip an Bandbreite verhungern lassen. Der Spaß wird teuer, bei 16GB Vram noch teurer.
Absolut deiner Meinung. Aber mal schauen was sich bei 7nm, mit den nVidia-Karten auf den Preis nieder schlägt.
Normalerweise um die exorbitante Marge zu halt, eine gute Preiserhöhung.
Zum Glück ich habe meine 1080ti und wenn die nicht mehr ausreicht, wird es wieder AMD.
nVidia ist mir zu überteuert und deren Treiber sind :wall:

Ahso, der Speicher auf einer 2060 kostet also sechs mal so viel wie die GPU, aber dank guten Deals zahlt Nvidia "nur" das zweineinhalbfache. Ich weiß nicht warum, aber irgendwie fällt es mir schwer, das zu glauben. Du hast sicher eine Quelle?
Post 19 lesen.

Die GPU kostet sicherlich mehr als 10$, wo hast du die Preise her?
Intel hat mal 40$ Herstellungskosten für einen i7 angegeben.
Post 19 lesen.
 
Die Radeon RX 5600 XT wird durch ein UEFI-Update etwas schneller.


GPU-Takt (Game): 1.560 MHz statt 1.375 MHz

GPU-Takt (Boost): 1.750 MHz statt 1.560 MHz
Speichertakt: 1.750 MHz statt 1.500 MHz
Speicherdurchsatz: 336 GB/s statt 288 GB/s
 
Mittlerweile sollte sich nun wirklich bis unter den allerletzten Stein herumgesprochen haben, welche Speicherausstattung bei den Ende des Jahres erscheinenden Konsolen zu erwarten ist und dass diese die Anforderungen an Grafikspeicher entsprechend nach oben treiben werden. Demgegenüber ist die Speicherausstattung bei Nvidia seit Jahren völlig unverändert und das passt halt einfach irgendwann nicht mehr zusammen.
jaja - genauso wie die 8Kerne schon längst dank Konsolen pflicht sind - oh warte.............

Zu jedem "Wenn der Speicher reicht, dann reicht er." gibt's nun mal den Punkt, an dem er irgendwann dann doch nicht mehr reicht. Wer jetzt eine Karte kauft und damit erstens auch in zwei, drei Jahren noch spielen möchte und zweitens insbesondere auch Multiplattformtitel und Konsolenports, der wird ja sehen, wie glücklich er dann mit 6GB noch werden wird. Für 100 oder 200 Euro wäre das ja okay, aber bei 300 oder (für gute Customs) 350 bis 400 Euro ist das einfach nicht angemessen.
Wie gesagt - hat man schon bei Pascal gesagt - ist nichts draus geworden.
 
Wie gesagt - hat man schon bei Pascal gesagt - ist nichts draus geworden.
Es ist auch wirklich müßig, darüber zu diskutieren. Am Ende wird nur die Zeit zeigen, wer mit seinen Prognosen richtig lag. Lassen wir einfach mal die neuen Konsolen ein Jahr lang auf dem Markt sein und dann Ende 2021 schauen, zu was eine anderthalb oder zwei Jahre alte 6GB-Karte in einem PC dann noch taugt.

Unabhängig davon gilt trotzdem: Mit jedem Tag, jeder Woche, jedem Monat, der ins Land geht, wird die Zeit bis zum Erscheinen der diesjährigen Nvidias und AMDs kürzer und das Warten lohnt sich immer mehr.
 
Selbstkostenpreis Lol

Erstmal tsmc vergangenes quartalsbericht
Jahresumsatz 34,6 Milliarden
Quartal wafer insgesamt 300mm 10,07 Millionen stück

Quartal wafer 7nm wafer 35%
Quartal wafer 16/12nm 20%

kosten pro wafer für nvidia 16nm 12nm 2749$
kosten für amd 7nm wafer 4811$

TSMC macht 35%/20% Umsatz bei 7nm und 16nm = kosten pro wafer für amd und nvidia

Umsatz ist der Wirtschaftliche Eingangsbetrag vom unternehmen. Nicht der Gewinn

nvidia macht echt den Reibach mit diesen GPU preisen ihre marge liegt zwischen 300-500%
Das kann man einfach nicht unterstützen. Wer nicht muss sollte warten bis die Konsolen kommen und bald danach die neue gpu gen mit deutlich mehr vram und leider zu denselben Preisen.
7nm+ wird mit den Konsolenrelease einiges am markt ändern. Spätestens bei ersten games wo 12gb vram Notwenig werden. 2021
aber vorher ist es einfach irrsinnig das zu unterstützen.
 
Selbstkostenpreis Lol

Erstmal tsmc vergangenes quartalsbericht
Jahresumsatz 34,6 Milliarden
Quartal wafer insgesamt 300mm 10,07 Millionen stück

Quartal wafer 7nm wafer 35%
Quartal wafer 16/12nm 20%

kosten pro wafer für nvidia 16nm 12nm 2749$
kosten für amd 7nm wafer 4811$

TSMC macht 35%/20% Umsatz bei 7nm und 16nm = kosten pro wafer für amd und nvidia

Umsatz ist der Wirtschaftliche Eingangsbetrag vom unternehmen. Nicht der Gewinn

nvidia macht echt den Reibach mit diesen GPU preisen ihre marge liegt zwischen 300-500%
Das kann man einfach nicht unterstützen. Wer nicht muss sollte warten bis die Konsolen kommen und bald danach die neue gpu gen mit deutlich mehr vram und leider zu denselben Preisen.
7nm+ wird mit den Konsolenrelease einiges am markt ändern. Spätestens bei ersten games wo 12gb vram Notwenig werden. 2021
aber vorher ist es einfach irrsinnig das zu unterstützen.
Quelle?
 
amd hat die leistung der karte erhöht mit biosupdate gerade bei cb gelesen. als antwort auf die preissenkung liebe konkurrenzkampf der uns nur gut tuhen kann
 
Zurück