News Nvidia: Die KI-Beschleuniger haben den Geforce-GPUs bereits den Rang abgelaufen

Da nVidia ein Börsen notiertes, kapitalistisches Unternehmen ist, können sie nur Umsatz.

Solange die wir, und die Industrie deren Chips kauft, treiben sie die Preise. Zum Glück muss man nicht immer das neuste, oder nVidia haben.
 
Die Spieleanforderungen steigen einfach zu langsam. Deshalb kommen die Leute auch nicht aus ihrer Komfortzone raus und investieren in eine neue Grafikkarte.
Nvidia muss Druck auf die Spieleentwickler machen, damit die höhere Anforderungen für die Spiele machen.
 
Da wird sich bedauerlicherweise erst einmal nichts ändern. Für Nvidia besteht ja leider auch kein Druck aufgrund der Absatzzahlen, da sie ohnehin erst einmal den HPC-/KI-Sektor bedienen wollen.

Nvidia wird zukünftig noch weniger über Stückzahl und mehr über hohe Preise gehen.
Nvidia wird durch den AI-Hype zu einem der wertvollsten Unternehmen aller Zeiten, wenn nicht sogar zum wertvollsten überhaupt. Die Gaming-Sparte wird dadurch immer unwichtiger. Ob Gamer Grafikkarten als erschwinglich erachten, wird dem Konzern periphär am Poppes vorbeigehen. Ob einem das passt oder nicht, ist völlig uninteressant. Das ist kein Wunschkonzert, wirtschaftliche Interessen gehen über alles.

Vielleicht wird die Gaming-Sparte irgendwann wieder etwas wichtiger, wenn im AI-Bereich die Konkurrenz stärker wird. Darauf hoffen würde ich nicht. Was schade wäre, wenn Nvidia sich allmählich davon zurückziehen würde, Innovationen zu pushen, weil der Markt immer unwichtiger wird.

Auf AMD würde ich da nicht hoffen, die rennen Nvidia immer nur hinterher. Ich sehe da keine Vorreiterrolle.
 
Richtig, 2x RTX 4090 um satte 60 FPS bei Cyberpunk 2 in 720p zu bekommen, sollte doch durchaus machbar sein.
Oder halt mal den ein oder anderen User dazu zwingen seine Organe für ne neue Karte zu verkaufen!

Da geht bestimmt noch mehr ;D
 
Hinsichtlich nvidia ja, aber durch mehr Konkurrenz (jetzt auch Intel) könnte die Käuferschaft einfach mit dem Geldbeutel wählen und eine entsprechende Entwicklung erzwingen.
Nur tun das die meisten auch und kaufen dennoch Nvidia, weil sie da mehr für ihr Geld bekommen...

Ist aktuell aber überhaupt nicht der Fall, muss man ja nur so die Signaturen durchstöbern, was für überteuerte Karten alles so gekauft werden. Insofern gibt es, aufgrund des Kaufverhaltens, für die Firmen gar keinen Grund, etwas zu verändern.
Es gibt kein irgendwie geartetes Kollektiv, welches seine Kaufentscheidung nach fragwürdigen moralischen Grundsätzen trifft.
Wieso soll es moralisch hochwertiger sein eine AMD oder Intel GPU zu kaufen?
 
Nur tun das die meisten auch und kaufen dennoch Nvidia, weil sie da mehr für ihr Geld bekommen...
Ist doch dann auch top. Ich glaub du missverstehst mich. :) siehe gleich
Es gibt kein irgendwie geartetes Kollektiv, welches seine Kaufentscheidung nach fragwürdigen moralischen Grundsätzen trifft.
Wieso soll es moralisch hochwertiger sein eine AMD oder Intel GPU zu kaufen
Ich spreche gar nicht von Moral, sondern von Angebot und Nachfrage. Für mich (!) sind es überteuerte Karten (nvidia & AMD), daher kaufe ich keine (seit Jahren). Würden das mehr machen, die sich über die Preise ärgern, wären die Preise schon nicht mehr so hoch. Es sind aber genügend bereit, die Karten so wie sie angeboten werden zu kaufen. Wieso sollte man da als Unternehmen etwas ändern. Dann hab ich persönlich halt Pech, diejenigen die kaufen und jammern aber Angebot und Nachfrage nicht verstanden. Mehr is nicht.
Nix mit Moral. ;)
 
Zuletzt bearbeitet:
Ich spreche gar nicht von Moral, sondern von Angebot und Nachfrage. Für mich (!) sind es überteuerte Karten, daher kaufe ich keine (seit Jahren).
Warum dann nicht hinsichtlich AMD? AMD ist dafür genauso verantwortlich wie Nvidia.
Und die Karten sind für meinen Geschmack auch etwas zu teuer, aber eben nicht so viel.
Eine RTX 4070 für ~600 Tacken würde ich dann schon für das was die Karte bietet als ziemlich günstig erachten.
Die Karte kann sogar an AMD´s 7900XTX mit Frame Generation easy vorbeiziehen und im Blindvergleich trotz "böser Fake Frames" das bessere, flüssigere Spielgefühl bieten.
 
Hier braucht Nvidia gute Produkte zu fairen Preisen, um zusätzlichen Umsatz zu machen
Das mit "fairen Preisen" ist halt ein sehr relativer Wert. Rein funktional-technisch bieten im Bereich GPU die NV-Chips aktuell auf breiter Front das Meiste. Ob man (v.a. als Gamer) das alles (z.B. CUDA) unbedingt braucht, aber freiwillig mitbezahlen muss, sei dabei dahin gestellt. Ich halte selbst RT sowie DLSS (was quasi zwingend ist, um noch halbwegs brauchbare FPS jenseits FHD mit High-End Karten zu bekommen) abseits eines "nice to have - nice to see" nach wie vor zwar für nicht Markt-entscheidend, aber viele NV-Käufer sehen das offenbar als sehr wichtig an und sind bereit den entsprechenden Aufpreis zu zahlen. Rein gemessen am Rasterizing z.B. stünde nämlich selbst die letzte AMD-Generation und sogar Intel nicht so schlecht im Preis-Leistungsverhältnis da.
Nicht umsonst verkaufen CPU-Hersteller seit Jahr und Tag Modelle mit dem gleichen Silizium wie beim Top-Dog zur Hälfte von dessen Preis: Auch wenn man die Hälfte deaktiviert, lohnt es sich immer noch, das Geld von denen die nur halb so viel haben, mitzunehmen.
Ich dachte bislang immer, dass die nur teil-aktivierten Chips quasi der Abfall der komplett funktionsfähigen Teile sind. Mit zunehmender Prozessreife sollten dann sogar meist die teuersten voll-ausgestatteten Chips die Oberhand gewinnen bzw. müssen ggf. sogar künstlich beschnitten werden, um die Produkte und den Markt mit daraus abgeleiteten Bauteilen zu bedienen. Und offenbar hat man bei NV und TSMC den Prozess etwa für die Top-Tier-Chips der 4090-Serie so gut im Griff, dass man es sich leisten kann, für das 80er Modell darunter einen komplett eigenen Chip zu fahren, und bekommt sogar mehr als genug der unbeschnittenen Chips für die KI/HPC Profi-Modelle raus, dass man sogar Produktionslose dahin verlagern kann, um bei entsprechendem Marktbedarf den Umsatz zusätzlich zu steigern. Insofern könnten "Gaming-GPUs" (oder auch Bauteile für die zunehmend Chip-hungrige Automotive-Industrie) zunehmend zum reinen Zugewinn-Geschäft werden, das man mitnimmt, um teil-defekte Chips zu verwerten, aber ohne großartig Kostendruck zu haben, da die Basis sauber aus-entwickelt ist. AMD oder Intel stehen hierbei m.E. viel deutlicher unter Umsatzdruck, da ihre GPUs primär und fast ausschließlich für den Gamingbereich stehen. Hier wird eher über das CPU und sonstige Chip-Geschäft quer-subventioniert (etwa durch Zweitverwertung von GPU-Entwicklungen als iGPU für kostengünstige All-in-One-Lösungen)
Was schade wäre, wenn Nvidia sich allmählich davon zurückziehen würde, Innovationen zu pushen, weil der Markt immer unwichtiger wird.
Solange man in diesem Kanal gewinnbringend teil-defekte Chips vermarkten kann, wird man sicherlich so ein Segment einfach mitnehmen. Außerdem sollte der Marketingeffekt nicht unterschätzt werden. Wer z.B. als jugendlicher Gamer bevorzugt NV wegen der Funktionalität., Performance usw. eingesetzt hat, wird ggf. später beruflich auch solchen Systemen bzw. dessen Hersteller positiv gegenüber stehen. Man sollte nie unterschätzen wieviel die Psychologie nach wie vor bei vielen Geschäftsentscheidungen den Ausschlag gibt.
 
@schmiefel:
Teildefekte Chips sind in der Regel nur ein kleiner Teil der Rechnung. CPUs sind zwar wegen der größeren, komplexeren Funktioniseinheiten anfälliger als hochparallele GPUs, weswegen man bei Ryzen und Core mehr Salvage-Modelle braucht. Aber da umgekehrt die kleineren Modelle in viel größeren Stückzahlen verkauft werden, wird der Ausschuss selten reichen, um den Marktbedarf zu decken. Genaue Zahlen zur Produktionsausbeute hüten Intel und TSMC wie Staatsgeheimnisse, aber es gibt immer wieder Indizien. Legendär war seinerzeit die zweiten Pentium-II-Generation, bei der eine italienische Firma sogar systematisch 333er aufgekauft hat, den dort verbauten Billig-Cache (L2 noch extern) ausgetauscht und sie meiner Erinnerung nach alle als 500er oder sogar 550er wieder verkauft hat, während sogar Intel selbst den Chip nur als 350/400/450 anbot. Bei AMD haben OC-Interessierte die Athlon XP eine zeitlang nur nach Stepping und nicht nach Takt-/Modellnummer gekauft, weil bekannt war, welches Potenzial in allen Mitgliedern späterer Produktchargen steckt. Genauso wurden beliebte Core 2 Quad Q6600 von fast allen, die es versucht haben, ohne Aufwand auf oder über das Niveau des Topmodell QX6700 getrieben und der einzige praktisch feststellbare Unterschied zwischen Sockel-1150- oder -1151-Core-i5 und -i7 war das deaktivierte SMT. Die explizit dafür benötigten Einheiten sind aber winzig; da gibt es kaum etwas, das kaputt sein könnte.

Seitdem pimär über aktive/inaktive Kerne differenziert wird, kann man die reale Produktqualität zu Hause weniger leicht nachvollziehen. (Das OC-Potential der Ryzens liegt aber eigentlich immer auf Top-Dog-Niveau oder darüber und von Intel hieß es, dass sie z.B. für einen "11900KS" selektiert haben, diese Chips müssen dann aber als normale 11900K verkauft worden sein.) Allerdings gibt es auch hier offensichtliche Hinweise. So gab es unter den i5-12000-non-K zum Beispiel genau ein Modell, dass auch das Silizium der i7 und i9 nutzte, während die anderen auf einem von vorne herein kleineren, E-Core-freien Chip setzten. Es hätte für Intels Kunden keinen Unterschied gemacht, alle i5 in zwei Steppings je nach Ausbeute anzubieten, aber offensichtlich kamen bei der Produktion der gesamten oberen Mittelklasse, der gesamten Oberklasse und des gesamten High-End-Segments insgesamt nur so wenig Exemplare zusammen, die Defekte in beiden E-Core-Clustern hatten, dass man daraus lediglich einen Teil einer von vielen Produktilinien der unteren Mittelkasse (einer der unattraktivsten zudem) bestreiten konnte/musste. Der Rest war so fehlerarm, dass er als i5-K oder i7 oder gar als komplett fehlerfreier i9 verkauft wurde, obwohl die E-Core-Cluster über 10 Prozent der Chipfläche ausmachen und entsprechen über 10 Prozent der Fehler abbekommen sollten. Auch AMD hat so wenig Zen-4-CCDs, auf denen mehr als zwei Kerne defekt sind, dass sie nur eine Hand voll recht exotischer Epyc-Modelle damit bestücken, aber beispielsweise keinen Ryzen 3 7300 anbieten müssen, um sie in großer Masse loszuschlagen. Und für Zen-4-I/O-Chips mit defekter Grafikeinheit gibt es derzeit überhaupt kein passendes Modell; Verkaufsmöglichkeiten für schadhafte Speichercontroller wurden seit Jahren nicht mehr gesichtet. Da hat man also so wenig Ausschuss, dass es offensichtlich zu teuer wäre, für diesen "Müll", der aus Sicht von 95 Prozent der Kunden ein gutes Produkt wäre (im Falle einer fehlenden IGP), überhaupt einen zusätzlichen Vertriebskanal einzuführen.

Da die Position eines Fehlers aber weitestgehend zufallsbedingt ist, kann man aus solchen Beobachtungen auch die Wahrscheinlichkeit beispielsweise defekter Kerne überschlagen und kommt schnell zu dem Schluss: Es ist extrem unwahrscheinlich, dass die anderen, teildeaktivierten Desktop-CPUs tatsächlich alle teildefektes Silizium tragen. Auch hier fehlt ein Zugriff auf exakte Zahlen, aber ich würde mich nicht wundern, wenn über 90 Prozent der Ryzen 9 7900 auch als 7950X hätten verkauft werden können – wenn denn so viele Kunden bereit gewesen wären, den Mehrpreis zu zahlen. Waren sie aber nicht und den Preis für alle 7950X-Käufer zu senken, hätte Einnahmeverluste bedeutet. Also hat man lieber einen Teil der CPUs künstlich zum nicht-ganz-7950X alias 7900X gemacht, um in der Preisklasse des 13900K mitzuverdienen.
 
Jede der Chip Firmen/Hersteller (Intel/Amd/Nvidia) wird, wenn sie in der Lage sind und auch die Möglichkeit haben, dass beste Geschäftsergebnis aus ihrem Produkt heraus holen wollen.

Was am Ende bedeutet, dass sie dem Kunden ihr neues Produkt zu dem ihrer Meinung höchstmöglichen Preis der noch beim Absatz funktionieren könnte verkaufen oder auch verstärkt in andere Absatzmärkte (KI-Beschleuniger) vorstoßen werden!

Oder sie gehen, was die Sparte PC Gaming angeht, ganz frech an die Sache heran und machen Preise mit der Brechstange und warten bis sich die Leute daran gewöhnt haben oder einfach nachgeben und die hohen Preise einfach zahlen, weil die Leute Ihr Hobby einfach weiter betreiben wollen.

Der Kunde wiederum hat die Wahl, ob er dieses Spiel mitmacht bzw. bis zu welcher Grenze er mit geht, da er eventuell ja auch das fortbestehen seines Hobbys riskiert und dieses irgendwann aufgeben muss, wenn seine Hardware zu lahm geworden ist oder er verändert z.B. seinen Gaming Fokus bei den Hardware Anschaffungskosten vom teuren PC Gaming zu den Konsolen.

Ich hatte mir auch eine gute Rücklage gebildet und eigentlich vor gehabt, mir eine neue GPU zu kaufen und den PC weiter aufzurüsten aber mich am Ende dazu entschieden, dass mir die Preispolitik (Miner / Corona und Co) einfach zu verrückt geworden ist und habe am Ende, dass Geld in andere Hobby gesteckt und mir vom Rest das SteamDeck gekauft mit dem ich unterwegs oder gemütlich auf der Couch zocken kann.

Vielleicht rüste ich irgend wann noch mal auf oder das Hobby PC Gaming verschwindet bei mir in der Bedeutungslosigkeit und der Fokus wechselt auf andere Dinge die es im Leben ja zuhauf gibt!
 
Zuletzt bearbeitet:
Genau darauf pokert doch Nvidia. Es gab vor ein paar Wochen die Nachricht, dass dafür selbst horrende Lagerkosten in Kauf nehmen.
Wieviel m³ nimmt ne Grafikkarte in OVP weg? Was kostet Lagerraum?
Genau, einen Scheißdreck. Pardon, es trifft aber so schön zu.

Grafikkarten sind zu klein und zu wertvoll, als das Lagerkosten groß ins Gewicht fallen könnten.

Ganz einfach nachzuvollziehen, auch ganz ohne Ahnung von Lagerkosten:

Stell dir eine Einraumwohnung für 500€ im Monat vor. 40m².
Darin kann man locker 1000 Grafikkarten unterbringen, in UVP, so dass man rankommt (wie im Lager halt, einfach nur die m³ vergleichen wäre nicht fair, auch wenn dann viel mehr reinpassen würden).

1000 Grafikkarten a sagen wir 500€?
Müssen ja nicht die teuersten Modelle sein.
Nun, der Wert der Ware beträgt also im Verkauf ne schlappe halbe Million, sagen wir 50% Marge, ergeben 250000€ Gewinn.

Ob die Karten jetzt 1 Monat oder ein Jahr im Lager liegen, macht gerade einmal 5500€ Unterschied. 6000€ im Jahr. Die könnten die Karten 10 Jahre liegen lassen und würden immer noch 190000€ Gewinn machen.

Die Rechnung ist sehr platt, Lagerkosten sind sehr viel niedriger als Wohnungsmieten, aber das Prinzip wird klar.

Stell dir vor, wie verschwindend gering der Anteil der Lagerkosten ist, wenn höhere Margen, teurere Grafikkarten und und die echten Lagerkosten in die Rechnung eingehen.
 
Wenn nvidia sagt der Umsatz ist mit den GPU's nicht mehr das Zugpferd, trotz der exessiven Preiserhöhung seit der 4000er Gen, dann gute Nacht bei den Preisen für den Nachfolger...
 
Schön wäre es.

Doch leider geht die Rechnung so nicht auf.

Nvidia sieht das aktuell so, dass die Spieler froh sein können, ein Stück vom Wafer abzubekommen.

Die nächste Generation wird genauso aufgestellt sein.

5070 = 650 bis 700 Euro
5070 ti = 850 bis 900 Euro
5080 = 1.050 bis 1.200 Euro
5090 = 1.800 bis 2.200 Euro

Da wird sich bedauerlicherweise erst einmal nichts ändern. Für Nvidia besteht ja leider auch kein Druck aufgrund der Absatzzahlen, da sie ohnehin erst einmal den HPC-/KI-Sektor bedienen wollen.

Nvidia wird zukünftig noch weniger über Stückzahl und mehr über hohe Preise gehen.

Für uns Spieler bleibt es noch ziemlich lange bei diesem absurden Niveau.

Liebe Grüße
Sven
Eventuell wird Intel und AMD im HPC, KI usw Sektor nicht so gut Fuß fassen und sie sind froh, wenn sie die bestellten Stückzahlen loswerden... zu eimen besseren Preis.
Selbst bei der Hälfte der Preise würden die Hersteller sich noch die Taschen vollfüllen.
 
Wieviel m³ nimmt ne Grafikkarte in OVP weg? Was kostet Lagerraum?
Genau, einen Scheißdreck. Pardon, es trifft aber so schön zu.

Grafikkarten sind zu klein und zu wertvoll, als das Lagerkosten groß ins Gewicht fallen könnten.

Ganz einfach nachzuvollziehen, auch ganz ohne Ahnung von Lagerkosten:

Stell dir eine Einraumwohnung für 500€ im Monat vor. 40m².
Darin kann man locker 1000 Grafikkarten unterbringen, in UVP, so dass man rankommt (wie im Lager halt, einfach nur die m³ vergleichen wäre nicht fair, auch wenn dann viel mehr reinpassen würden).

1000 Grafikkarten a sagen wir 500€?
Müssen ja nicht die teuersten Modelle sein.
Nun, der Wert der Ware beträgt also im Verkauf ne schlappe halbe Million, sagen wir 50% Marge, ergeben 250000€ Gewinn.

Ob die Karten jetzt 1 Monat oder ein Jahr im Lager liegen, macht gerade einmal 5500€ Unterschied. 6000€ im Jahr. Die könnten die Karten 10 Jahre liegen lassen und würden immer noch 190000€ Gewinn machen.

Die Rechnung ist sehr platt, Lagerkosten sind sehr viel niedriger als Wohnungsmieten, aber das Prinzip wird klar.

Stell dir vor, wie verschwindend gering der Anteil der Lagerkosten ist, wenn höhere Margen, teurere Grafikkarten und und die echten Lagerkosten in die Rechnung eingehen.
Ob 2,17 Mrd. USD ein "Scheißdreck" ist, ist wohl Ansichtssache. https://www.pcgameshardware.de/Nvid...n-Umsatzprognose-Aufwaertstrend-GPUs-1414112/
 
Zurück