Special RTX 4060 Ti und RX 7600 verkaufen sich schlecht: Wenn ich bei Nvidia und AMD etwas zu sagen hätte ... Ein Kommentar von Raffael Vötter

Interessant.
Ich hab Preise für 1GB GDDR6 14Gbps für etwa 12$ gefunden, das war vor 4 Jahren.
Dazu vor 2 Jahren für schnellen GDDR6 etwa 15$ pro GB.
Heisst wir reden hier nicht mal von GDDR6X.
Was hast du so an Preisen gefunden?

Wenn man keine Ahnung hat, einfach mal...
Mouser regelt:
Also in den frei verfügbaren Preisen nicht günstiger geworden.
Aber Mouser Preise fast halbieren wenn man ordentlich Stückzahl beim Hersteller anfragt hab ich bei anderen Bauteilen durchaus schon erlebt.
 
Versuchst du witzig zu sein? Ich meinte das ernst. Und so unrealistisch ist das ja nicht.
Du hast doch angefangen, das Leben ist halt kein Wunschkonzert.


Selbst wenn Nvidia durch Massenabnahmen nur einen Cent pro GB bezahlt, warum sollten sie diesen Vorteil den sie durch Verhandlungen etc. gewonne Einsparung an den Endkunden weitergeben? :lol:

Jede neue Gen kostet Nvidia mehr wie phys. Fertigungskosten.
 
Zuletzt bearbeitet:
Interessant.
Ich hab Preise für 1GB GDDR6 14Gbps für etwa 12$ gefunden, das war vor 4 Jahren.
Dazu vor 2 Jahren für schnellen GDDR6 etwa 15$ pro GB.
Heisst wir reden hier nicht mal von GDDR6X.
Was hast du so an Preisen gefunden?

Wenn man keine Ahnung hat, einfach mal...

Wenn man Sarkasmus nicht lesen kann (sogar mit Smiley dahinter), einfach mal... :D
 
Das ist der Bereich den Nvidia für Gaming HW auf der Computex 2023 Präsentation angeboten hat, hoffe damit wachen die letzten Träumer auf, Nvidia ist längst weitergezogen und sieht das Geld in anderen Bereichen.


nvidiastand.jpg
 
Das ist der Bereich den Nvidia für Gaming HW auf der Computex 2023 Präsentation angeboten hat, hoffe damit wachen die letzten Träumer auf, Nvidia ist längst weitergezogen und sieht das Geld in anderen Bereichen.

Anhang anzeigen 1427770
Jein, die wollen schon noch weiter die Gamer als Kunden, aber eben nicht als Käufer von GPUs mit kleiner Marge, sondern entweder als Premium-Käufer oder als Abonnenten von GeForce Now, wo sie die selbe GPU auf mehrere Streamer aufteilen können...
 
Richtig, "buy or die" halt.

GeForce Now hat ihren Schub verloren, bei der 30er haben sie ja noch das schön Werbewirksam "kostenlos" mit draufgelegt beim Kauf.

Ich glaube nicht das es dort eine große Nutzerzahl gibt, zumindest bin ich in meinem Bekanntenkreis der einzige der das mal getestet hat und das auch nur weils eine kostenlose Beilage war.
 
Selbst wenn Nvidia durch Massenabnahmen nur einen Cent pro GB bezahlt, warum sollten sie diesen Vorteil den sie durch Verhandlungen etc. gewonne Einsparung an den Endkunden weitergeben? :lol:
Das weiß sogar mein Lieblingsbäcker.
Konkurrenz? Bin ich zu teuer, bleiben viele Kunden weg.
Kundenzufriedenheit? Sind die Kunden zu unzufrieden, bleiben sie weg.

Aber es gibt anscheinend einen Zusammenhang zwischen Marktanteil und der Art, wie ich meine Kunden behandle. Der Kunde ist NVIDIA anscheinend ziemlich egal. Die Kundenzufriedenheit sowieso. Und Konkurrenz haben sie nicht zu befürchten.

Das ist der Bereich den Nvidia für Gaming HW auf der Computex 2023 Präsentation angeboten hat, hoffe damit wachen die letzten Träumer auf, Nvidia ist längst weitergezogen und sieht das Geld in anderen Bereichen.
Noch ein Punkt. Ein gesunder Markt. Ist NVIDIA beim Gaming wohl auch egal. Die sind zumindest gedanklich tatsächlich schon wo ganz anders.

Keine Ahnung, wie das ausgehen wird. Weil der ganze K.I.-Kram vermutlich nicht gleichmäßig stark wachsen wird. Da wird es Schübe geben, wie wahrscheinlich jetzt und in der nächsten absehbaren Zeit. Und wenn die dicken Investionen erstmal getätigt sind, wird es auch Flauten geben. Weil Datacenter anderen Upgrade-Regeln folgt als Gaming.

Also wird Gaming noch mal von größerem Interesse für NVIDIA?
 
Ich finde man kann ganz gut erkennen wie schnell und einfach man vor 20 Jahren noch neue Chips entwickeln konnte, der Aufwand der Entwicklung ist im Gegensatz zu heute nicht zu vergleichen. Man hat damals gesagt ab 7nm ist Ende und es wäre einfach nicht möglich kleinere Transistoren zu entwickeln.
Es ist doch möglich wie man sieht, die Technik und der Aufwand sind zwar immens, da die Entwicklung deutlich länger dauert. Man sollte auch immer berücksichtigen das die Entwicklung am teuersten ist und nicht der reine Stückpreis der Teile was den Endpreisangeht.
An der Weltwirtschaft kann man das gut erkennen, da diese seit vielen Jahren immer langsamer wächst. Das ist in allen Wirtschaftsbereichen das selber Prinzip. Der CEO von NVIDI hat selber gesagt, dass man irgendwann an einen Punkt kommt, an denen es immer langsamer vorwärts geht. "Das Das Mooresche Gesetz (englisch Moore’s law; deutsch „Gesetz“ im Sinne von „Gesetzmäßigkeit“) besagt, dass sich die Komplexität integrierter Schaltkreise mit minimalen Komponentenkosten regelmäßig verdoppelt" (WIKI) wir sind jetzt aber an dem Punkt angelangt wo es immer kleiner wird und dann ist auch irgendwann die Physik am Ende, weil es einen festen Punkt in der Physik gibt an dem es kleiner nicht mehr geht. "Die Planck-Länge beträgt ungefähr 1,6 mal 10-35 Metergröße" (Google).
Die Technologien werden seit der Dampfmaschine Wirtschaftlich ausgebeutet.
Heute sind wir aber bei den Transistoren und irgendwann ist immer Ende der Technologischen Ära in Sicht. Das gute an der Geschichte ist, das es neue innovative Technologien gibt, die die alte ersetzen und neue Maßstäbe ermöglichen. TSMC ist das mit Abstands wichtigste Unternehmen auf der Welt, was die Halbleiterindustrie angeht.
An der Preispolitik kann NVIDA noch arbeiten, gerade weil die Konkurrenz nicht schläft aber wir dürfen keine Wunder mehr wie vor 15 Jahren erwarten.
 
Die nm Angaben sind ohnehin nichts als Marketing mittlerweile und haben kaum noch realen Bezug.


This is not a new position for Wong. He co-authored an IEEE paper published April 2020:

  1. -S. P. Wong et al, “A Density Metric for Semiconductor Technology [Point of View],” in Proceedings of the IEEE, vol. 108, no. 4, pp. 478-482, April 2020, doi: 10.1109/JPROC.2020.2981715.
Abstract: Since its inception, the semiconductor industry has used a physical dimension (the minimum gate length of a transistor) as a means to gauge continuous technology advancement. This metric is all but obsolete today. As a replacement, we propose a density metric, which aims to capture how advances in semiconductor device technologies enable system-level benefits. The proposed metric can be used to gauge advances in future generations of semiconductor technologies in a holistic way, by accounting for the progress in logic, memory, and packaging/integration technologies simultaneously.
 

Jensen Huang auf der GTC 2017 = Moore's Law is dead
Jensen Huang auf der CES 2019 = Moore's Law is dead
Jensen Huang auf der GTC 2022 = Moore's Law is dead
Jensen Huang auf der CES 2023 = Moore's Law is probably currently running at about 2 times

Hatte teilweise einen anderen Kontext, z.B. dass GPUs CPUs ablösen werden uvm. - aber er war sich doch soooo sicher, dass Moores Law nun endlich tot ist.

Es gibt Grenzen, aber abseits von Huang sind andere Branchenteilnehmer der Meinung, dass das noch eine Weile weitergehen wird. Und dass man vielleicht an der etwas eingeschränkten Definition arbeiten sollte, gemeint ist Cloud Computing. Man wird Auswege und Workarounds finden.
 
Du hast aber schon mitbekommen, dass es da noch mehr Möglichkeiten gibt mehr Leistung aus einem Prozessor zu holen, als nur das Fertigungsverfahren zu verkleinern, oder? Multi-Chip-Module ist ja nun nicht neues. Chip-Stacking kommt auch so langsam ins Rollen. Und selbst wenn die CPU an ihren Grenzen sein sollte, gäbe es immer noch weiter Möglichkeiten Last zu verteilen. Auf der Computex jetzt hat NVIDIA eine Netzwerkkarte präsentiert, welche mehrere Prozessoren auf sich vereint, welche die ganze Datenverschlüsselung, Datenkompression, Speicherverwaltung usw. übernehmen, sodass das die CPU nicht leisten muss und so dann mehr Freiraum für andere Operationen hat. Gerade ARM und RISC-V bieten da immenses Potenzial für viele spezialisierte Prozessoren die Last von der CPU nehmen können. Daher ist in Sachen Leistungssteigerung noch so einiges möglich.
 
Du hast aber schon mitbekommen, dass es da noch mehr Möglichkeiten gibt mehr Leistung aus einem Prozessor zu holen, als nur das Fertigungsverfahren zu verkleinern, oder? Multi-Chip-Module ist ja nun nicht neues. Chip-Stacking kommt auch so langsam ins Rollen. Und selbst wenn die CPU an ihren Grenzen sein sollte, gäbe es immer noch weiter Möglichkeiten Last zu verteilen. Auf der Computex jetzt hat NVIDIA eine Netzwerkkarte präsentiert, welche mehrere Prozessoren auf sich vereint, welche die ganze Datenverschlüsselung, Datenkompression, Speicherverwaltung usw. übernehmen, sodass das die CPU nicht leisten muss und so dann mehr Freiraum für andere Operationen hat. Gerade ARM und RISC-V bieten da immenses Potenzial für viele spezialisierte Prozessoren die Last von der CPU nehmen können. Daher ist in Sachen Leistungssteigerung noch so einiges möglich.
Guter Punkt und dazu kommt das man diese Rechnenleistung nicht mehr auf den VMs über CPU Kerne regeln muss, d.h. Ressourcen als auch Lizenzenkosten für die VMs sinken.
 
Die guten alten Zeiten...
die gab es wenn entsprechende fesselnde Spiele für den PC erschienen sind.

Stalker 2, HL 3 hätten das Zeug dazu, dann wird zügellos um Hardware gekämpft, den Scalpern wir der Nacken massiert.

Wie wäre eine 8900 X-RAY mit Stalker2 und HL3 im Bundle für 2k€?

Zu teuer, ja, vielleicht für deine Socken :banane:.
 
Zuletzt bearbeitet:
Die guten alten Zeiten...
die gab es wenn entsprechende fesselnde Spiele für den PC erschienen sind.

Stalker 2, HL 3 hätten das Zeug dazu, dann wird zügellos um Hardware gekämpft, den Scalpern wir der Nacken massiert.

Wie wäre eine 8900 X-RAY mit Stalker2 und HL3 im Bundle für 2k€?

Zu teuer, ja, vielleicht für deine Socken :banane:.
Stalker 2 SOLL noch dieses Jahr kommen... mit Glück kommt es im Bundle mit der 4090Ti für 2500€
:banane::banane::banane:
 
Nvidia verkauft nun Grafikkarten zum doppelten Preis, aber dafür mit halber Leistung. Der Rest wird simuliert.
Wie nennt man das eigentlich, wenn man dann mit sowas auch noch ausdrücklich wirbt?

Schon gut, war nur ein Witz. Ich will nicht wieder polarisieren. Sind sicher alles ehrliche und hart arbeitende Nvidianer. Die wollen nur unser Bestes. Der technologische Fortschritt ist eine Illusion. Natürlich wird es immer teurer, was meint ihr wer all die Transistoren da in die Chips reinstopft? Wie soll das sonst funktionieren?

Und dann noch mehr Speicher? Wann gabs den sowas, jetzt wo die Wafer so b.. teuer sind, bauen wir lieber Cache. Viel wirtschaftlicher. Und gut für die Umwelt, stellt euch die Berge an Speicherchips vor. Das musste irgendwann aufhören.
 
Zuletzt bearbeitet:
Die Preise, vor allem bei NVidia-Karten sind schon heftig. Ich würde sagen, dass 500.- Euro für eine Karte wie die 4070 mit 12GB Speicher noch akzeptabel wären. Eine 4080 mit 16GB würde ich in der Preisklasse um € 700.- sehen.
Ich sehe ein Problem darin, dass AMD mit Ray-Tracing NVidia arg hinterherhinkt. Dadurch nimmt sich NVidia die Freiheit überhöhte Preise zu verlangen, und bekommt sie auch.
Ich finde aber auch, dass Spiele-Programmierer nicht wirklich effizient arbeiten.
 
Welche Karte von Nvidia mit weniger als 11GB war denn teurer als die 999$ der 2080ti?
Die 3080 mit ihren mehr als ausreichenden 10 GB war über ein Jahr lang mit 1300 - 1600 € teurer als die 2080Ti !
Bitte komm jetzt nicht mit der ach so tollen UVP daher ! "Interessant" ist lediglich der Fakt wieviel ich auf den Tisch legen muss/darf !!
 
Bravo, mit Pandemie und Mining Preisen kommen.
Perfekte Grundlage für eine sinnvolle Preisdiskussion.
Du hast gefragt und so lautete die Antwort.
Bravo, mit Pandemie und Mining Preisen kommen.
Perfekte Grundlage für eine sinnvolle Preisdiskussion.
 
Zurück