News Nvidia mit Umsatzrekord: Geforce legt zu und ist dennoch chancenlos gegen künstliche Intelligenz

Die Frage ist wie viel Energie Nvidia überhaupt noch ins Gamergeschäft investieren wird, wenn man im KI-Bereich für eine Grafikkarte extrem viel mehr Gewinn machen kann.
Natürlich ist auch damit (temporär? je nachdem wie lange man solche Umsätze mit AI fahren kann) das Gaminggeschäft weniger wichtig.
Aber nicht unwichtig. Man nimmt die Milliarden gerne mit, man wird auch nicht etwas, was fix dauerhaft umsatz bringt vernachlässigen und man darf nicht vergessen: Synergieeffekte: die Architektur und viel Software dazu muss sowieso entwickelt werden. Die Kosten müssen halt irgendwo getragen werden und landen zu einem nicht kleinen Teil im Gamingsegment.
 
Bisher hat das Gaming enorm von der KI-Schiene profitiert.
Nvidia macht mehr Einnahmen, sie können mehr investieren, davon sollten auch Gamer profitieren.
Also wenn Du die Gewinne aus einer hochprofitablen Pionier-Sparte in eine andere steckst, wo Du schon Marktführer bist und eigentlich Gewinn verloren geht, wenn Du das Silizium für die Chips dort ausgibst, nur um Gamer glücklich zu machen, dann würde ich Dich ungern ein Unternehmen leiten lassen :)

Die Realität sieht so aus, dass das Geld dort investiert wird, wo das Return of Investment am höchsten ist, und das ist natürlich in der Sparte, die die größte Marge und das größte Wachstumspotenzial hat. Man investiert nur dann in andere Sparten, um sein Portfolio zu diversifizieren und noch mehr Gewinn zu erwirtschaften, also nicht da, wo man sich selbst die Fertigungskapazitäten mit billigeren Produkten wegnimmt. Und erst recht investiert man nicht in Sparten, wo man sowieso Chipleader ist. Da melkt man schön ab, solange es geht und steckt nur was rein, wenn die Führung in Gefahr ist.
 
Also wenn Du die Gewinne aus einer hochprofitablen Pionier-Sparte in eine andere steckst, wo Du schon Marktführer bist und eigentlich Gewinn verloren geht, wenn Du das Silizium für die Chips dort ausgibst, nur um Gamer glücklich zu machen, dann würde ich Dich ungern ein Unternehmen leiten lassen :)

Die Realität sieht so aus, dass das Geld dort investiert wird, wo das Return of Investment am höchsten ist, und das ist natürlich in der Sparte, die die größte Marge und das größte Wachstumspotenzial hat. Man investiert nur dann in andere Sparten, um sein Portfolio zu diversifizieren und noch mehr Gewinn zu erwirtschaften, also nicht da, wo man sich selbst die Fertigungskapazitäten mit billigeren Produkten wegnimmt. Und erst recht investiert man nicht in Sparten, wo man sowieso Chipleader ist. Da melkt man schön ab, solange es geht und steckt nur was rein, wenn die Führung in Gefahr ist.

Die Gamer verlierst Du mit Deinem Ansatz schneller als gedacht, und dann bricht Dir ein Teil Deiner sicheren Einnahmen weg. Alles auf eine Karte (KI) zu setzen kann schnell zum Ruin des Unternehmens führen. Warum sollte das jemand tun?

Aktuelle Gegenbeispiele:
- Intel - Die starten schon den 2. Versuch ins Gaming-GPU Geschäft einzusteigen.
- Amazon - Vom Marketplace zum Hosting. Versuchen sich in diversen Geschäftsfeldern zu erweitern.
- Apple - Die bauen auch so ziemlich alles und gucken ob was draus wird.
- Facebook - Stichwort Metaverse.
- Google - Eine Krake unter den Unternehmen mit so vielen Armen dass man gar nicht mehr genau weiss was die alles machen.
- Microsoft - Macht schon lange nicht nur Windows.

Laut Deiner Theorie liegen anscheinend die CEOs der am höchsten bewerteten Konzerne der Welt alle falsch. Oder Du liegst falsch. :schief:
 
Zuletzt bearbeitet von einem Moderator:
Ne, das denke ich absolut nicht. Wenn ich mir die Kommentare hier so durchlese, bin ich sicher, dass NV die Gamingsparte komplett dicht machen könnte. Dann würden zwar einige - auch Du - Stress schieben, aber so wie ich das einsetze, in 5 Jahren wieder Beifall klatschen und sich freuen, wenn das grüne Auge wieder zurück kommt. Nachtragend wird da kaum jemand sein. Ich denke, dass da viele Kommentare in etwa so aussehen würden: "Schade, dass ich 5 Jahre keine NV-Karte mehr kaufen konnte, aber ich gönne ihnen den Gewinn."
Wenn es dann noch länger würde, müsste man sich doch Gedanken machen, ob man das IP vergammeln lassen oder verkaufen möchte.
 
Ne, das denke ich absolut nicht. Wenn ich mir die Kommentare hier so durchlese, bin ich sicher, dass NV die Gamingsparte komplett dicht machen könnte. Dann würden zwar einige - auch Du - Stress schieben, aber so wie ich das einsetze, in 5 Jahren wieder Beifall klatschen und sich freuen, wenn das grüne Auge wieder zurück kommt. Nachtragend wird da kaum jemand sein. Ich denke, dass da viele Kommentare in etwa so aussehen würden: "Schade, dass ich 5 Jahre keine NV-Karte mehr kaufen konnte, aber ich gönne ihnen den Gewinn."
Wenn es dann noch länger würde, müsste man sich doch Gedanken machen, ob man das IP vergammeln lassen oder verkaufen möchte.

Du tust so als wäre Nvidia das böse Auge Mordors und wir wären alle seinem Bann verfallen. So ist es aber nicht.
Ich kann mir den "geilen" Gaming Scheiß halt leisten, weil ich arbeiten gehe und gut verdiene. Ich hab aktuell eine 3080 drin für ~950€ kurz nach Release. Die nächste Karte wird vermutlich eine 5090 wenn die so abliefert wie die 4090, ich bleibe also meinem Motto "jede 2. Gen wird aufgerüstet" treu, trotz genügend Geldmitteln.

Warum ich seit der Riva TNT (1998, ja ich bin 40+) nur Nvidia kaufe hat einen ganz einfachen Grund: es sind nun mal die besten Karten. Es gab Ausnahmen in denen AMD mal besser war, 2-3 Mal im Laufe meines PC-Lebens, da hätte ich sie gekauft wenn ich gerade eine neue GPU gebraucht hätte. War aber nicht so und AMD liefert seitdem einfach nicht mehr ab. Pech für Rot, nicht mein Problem wenn sie keine Innovationen bringen.
 
@raPid-81
@Schnitzelnator hat im Grunde nicht unrecht. Ich hätte es an seiner Stelle nur anders Formuliert. gaming bleibt das kleine Butter und Brot Geschäft aus dessen Gewinne man profitablere Sparten füttert und aufbaut. Die Investitionen in Gaming werden ja nicht gestoppt, sondern soweit bedient, damit es Fortschritte gibt. Andersherum, wenn die Investitionen in den KI Bereich sinnvolles für den Gamingbereich abgibt, dann hat es ja für beide Geschäftsfelder Sinn ergeben.
Allerdings ist es schon richtig, das Nvidia, und das machen auch Amazon und deine weiteren Beispiele so, en Großteil der Gewinne aus dem Butter und Brot Geschäft nimmt um weitere Geschäftsfelder aufzubauen.
Bezo sagte selbst, dass das klassische Amazon endlich ist und untergehen wird. Geschäftsfelder kommen und gehen.
 
Ist doch klar, zu RDNA1 Zeiten war die 5700XT auch eindeutig der Gegner der 2080 Ti und schau dir mal an wie viel günstiger die 5700XT war :haha:

Dieses Forum schafft es immer wieder mich zu überraschen :ugly:
Du schaffst es immerhin mich hier des Öfteren zu überraschen, obwohl, wait ...
Von Gegner war nie die Rede, lediglich der jeweiligen Speerspitze.
5700XT vs. 2080Ti :stupid::wall::klatsch:
Dein Scheuklappen Fehlinterpretationsspektrum hätte ich auch mal gerne !
Allerdings nur geborgt für kurze Zeit (für ein Blick unter den Kochtopfdeckel), dann wieder Retoure in the Real World.
Auch ein "Fachidiot ist irgendwie ein Idiot".
Diese Aussage kommt selbstverständlich wieder von einem AMD only Nutzer :lol:
Diese Aussage kommt selbstverständlich von the realy only One :nicken:
beim 13900k(s) kann ich dir für reine Gaming PC´s noch Recht geben, aber bei der 7900XTX muss man auch einfach sagen, das die nicht Ansatzweise in der selben Liga spielen.
Halt so wie der 13900 KS mit der AMD CPU nicht ansatzweise in der selben Liga (FPS/Watt) spielt ?
 
Zuletzt bearbeitet von einem Moderator:
Du schaffst es immerhin mich hier des Öfteren zu überraschen, obwohl, wait ...
Von Gegner war nie die Rede, lediglich der jeweiligen Speerspitze.
5700XT vs. 2080Ti :stupid::wall::klatsch:
Dein Scheuklappen Fehlinterpretationsspektrum hätte ich auch mal gerne !
Allerdings nur geborgt für kurze Zeit (für ein Blick unter den Kochtopfdeckel), dann wieder Retoure in the Real World.
Auch ein "Fachidiot ist irgendwie ein Idiot".
Ich dachte wir vergleichen einfach Random irgendwelche Karten völlig verschiedener Leistungsklassen?
 
Ich dachte wir vergleichen einfach Random irgendwelche Karten völlig verschiedener Leistungsklassen?

Kennen wir doch. Es wird zufällig das verglichen was gerade irgendwie in die Argumentation passt.

Turing vs RDNA1 - Der Preis der Speerspitze, 2080ti vs 5700XT, aber nicht die Leistung der Karten! Auch kein RT oder DLSS!

Ampere vs RDNA2 - FPS/Watt, aber nur Rasterleistung!

Ada vs RDNA3 - Technologie, Monolith vs MCM, aber hier auch bloß nicht die Leistung und wenn dann auch nur Rasterleistung! Und auch nicht die ganzen Features (DLSS, FG, Reflex), die zählen nicht! Und auch hier der Preis der Speerspitze, unabhängig davon dass diese leistungsmäßig in unterschiedlichen Ligen spielen.

So viel Realitätsverlust hier im Forum... :stupid:
 
Ähnlich aber es wird bestimmt deutliche Unterschiede geben. Und wenn ich das Gefühl habe abgezockt zu werden, schränkt man sich ein oder kauft garnicht.
Um uns Kleinen Fliegen geht es da leider nicht.

Wenn einer einen abzockt und der abgezockte trotzdem geld verdient drückt er gerne 3 augen zu solange es keine alternativen gibt. Solang lässt man sich auch abzocken^^
 
Datacenter GPUs lassen sich nicht in Heimrechnern einsetzen. Das ist Äpfel und Birnen, Architektur, Schnittstellen, Treiber, Stromverbrauch, alles für zuhause nicht geeignet.
Architektur und Stromverbrauch lassen sich ziemlich sicher mit den passenden Treibern auch auf Heim PCs gefügig machen. Fraglich ob die verbauten Kerne für die Beschleunigung von Spielen oder Grafik im allgemeinen von ausreichendem Nutzen sind. Meines Wissens nach gibt es auch für Datacenter PCIe Beschleuniger. Und selbst alle anderen Steckerformate lassen sich per Adapter lösen. Am schwierigsten wird es wohl bzgl mangelnder Video-Ausgänge werden, aber gab es da nicht auch mal die Möglichkeit den Video Ausgang des Mainboards zu nutzen, so lange man eine integrierte Grafiklösung auf der CPU hatte und die Berechnung des Bildes über die „große“ dGPU im PCIe Slot laufen zu lassen?
 
Du schaffst es immerhin mich hier des Öfteren zu überraschen, obwohl, wait ...
Von Gegner war nie die Rede, lediglich der jeweiligen Speerspitze.
5700XT vs. 2080Ti :stupid::wall::klatsch:
Dein Scheuklappen Fehlinterpretationsspektrum hätte ich auch mal gerne !
Allerdings nur geborgt für kurze Zeit (für ein Blick unter den Kochtopfdeckel), dann wieder Retoure in the Real World.
Auch ein "Fachidiot ist irgendwie ein Idiot".

Diese Aussage kommt selbstverständlich von the realy only One :nicken:

Halt so wie der 13900 KS mit der AMD CPU nicht ansatzweise in der selben Liga (FPS/Watt) spielt ?
Leistung schon, nur bei der Effizienz harpert es enorm. Jedoch in Teillast / GPU Limit wieder ähnlich, aber mit der Zeit rückt das GPU Limit immer weiter weg. Wenn ich nicht der Überzeugung wäre, das mein undervolteter 13400f mit DDR5 6000 CL30 Speicher bestückter Rechenzwerg schnell genug wäre, dann wäre kein Weg an AMD vorbei zu finden für mich.

PS: Für mich als Bastler kann natürlich auch ein stark Effizienzgetweakter Intel eine Option sein. Aber eigentlich ist der 7800X3d das Mittel der Wahl.

Bei den GPUs ist es halt eindeutig. Leistung kann AMD der 4090 nicht entgegensetzen und auch Effizienz nicht.
 
Architektur und Stromverbrauch lassen sich ziemlich sicher mit den passenden Treibern auch auf Heim PCs gefügig machen.

Äh, nein. Wie soll das gehen?

GH200 ("Grace Hopper") Platform
  • Hopper-Architektur in N4 bei TSMC
  • 2 × GH200 ("Grace Hopper") Superchips
  • 2 × ARM Neoverse V2 mit 144 ARM-Prozessorkernen
  • 960 GiByte LPDDR5X mit ECC-Support und 512 GB/s
  • 288 GiByte HBM3e-Grafikspeicher (2 × 144 GiByte)*
  • 264 Compute Units (2 × 132 Compute Units)
  • 528 Tensor Cores (2 × 264 Tensor Cores)
  • 1,2 TiByte Speicher (CPU + GPU)
  • 8 PetaFLOPS AI-Leistung
  • 450 - 1.000 Watt TDP
Das Teil wird man niemals in einen Heimrechner bauen können. Das ist jetzt zwar das "Prime-Example", aber auch der H100 ist nicht für Spiele geeignet:

https://www.pcgameshardware.de/Graf...100-in-Spielen-getestet-ernuechternd-1422417/

Konkret bietet Nvidia mit der H100 die Flaggschiff-Datacenter-GPU für einen Preis jenseits von 30.000 Euro an. Auf dem Papier wird dafür einiges geboten: Es gibt im Vergleich zur RTX 4090 zwar "nur" 14.592 statt 16.384 Shader, diese basieren aber auf der Hopper-Architektur und bieten bei FP16-Anwendungen deutlich mehr Leistung. Zudem liegt das Modell beim Speicher deutlich vorne - 80 GB HBM3 bekommt man im Desktop-Markt nirgends.

Nicht für Spiele geeignet​

Für exzentrische Spieler mit Grafikspeicher-Fetisch ist Nvidias Hopper H100 aber trotzdem keine gute Wahl. Denn während die Grafikkarte für viele Datacenter-Anwendungen derzeit das Maß aller Dinge ist, ist die Leistung in Spielen enttäuschend. Dafür spricht zumindest ein Test des chinesischen Youtubers Geekerwan, der sich ein entsprechendes Modell zugelegt und in einigen Titeln getestet hat.
Ein erstes Problem war dabei die Kühlung. Die H100 wird zwar auch als PCIe-Variante angebunden, ist aber für eine externe Belüftung in einem Servergehäuse vorgesehen. Ein Lüfter mit 3D-gedrucktem Luftkanal löste das Problem, sodass die Grafikkarte theoretisch bei Volllast laufen konnte. Montiert man nun noch eine zweite Grafikkarte, die die fehlenden Display-Anschlüsse der H100 kompensiert, kann man eigentlich loslegen.
Das Video von Geekerwan zeigt aber, dass sich der ganze Aufwand nicht wirklich lohnt. Im 3DMark Time Spy erreichte das Modell beispielsweise gerade einmal die Leistung einer Radeon RX 680M, die in einigen APUs verbaut ist. Hintergrund dürften dabei, neben fehlendem Treibersupport, mangelnde Recheneinheiten sein. Die Compute-Leistung des Modells ist zwar hoch, die H100 verfügt aber über deutlich weniger ROPs (Raster Operating Units) und TPCs (Texture Processing Cluster) als beispielsweise eine RTX 4090. Spieler erhalten durch die GPU also keinen Mehrgewinn.

Die Architektur ist anders, heißt der ganze Chip-Aufbau, da lässt sich mit Treibern gar nichts machen.
 
Sollen sie halt ganz aus dem GPU Geschäft verschwinden. Dann können Intel und AMD den Preiskampf unter sich ausmachen.
Das wird nicht passieren, da die Consumer Sparte nach wie vor 18% ausmacht. Das ist immer noch relevant.
Bei den GPUs ist es halt eindeutig. Leistung kann AMD der 4090 nicht entgegensetzen und auch Effizienz nicht.
Die Nvidia Grafikkarten, abgesehen vom Preis, sind die runderen Produkte.

Ich habe mir eine RTX 4080 von MSI (Ventus) für 1200€ bei Amazon gekauft. AMD ist leider keine Option für mich, da ich Grafikkarten auch zum Videobearbeiten einsetze.

Wahrscheinlich wird es meine letzte High End Grafikkarte, die ich jemals kaufen werde. Mit dem Alter schwindet das Interesse am High End Gaming 4K Bla Bla Bla, doch erheblich.
 
Ich habe mir eine RTX 4080 von MSI (Ventus) für 1200€ bei Amazon gekauft. AMD ist leider keine Option für mich, da ich Grafikkarten auch zum Videobearbeiten einsetze.

Wahrscheinlich wird es meine letzte High End Grafikkarte, die ich jemals kaufen werde. Mit dem Alter schwindet das Interesse am High End Gaming 4K Bla Bla Bla, doch erheblich.
Naja, wie alt ist alt ;) Liegt im Auge des Betrachters... Ich glaube ich lege erst ab RTX5000 und RX8000 nochmal los und fange da an Highend zu kaufen. Ist bei mir eigentlich immer eher so die 70 Reihe, oder vergleichbar gewesen.

GTX470, GTX570 HD7950, R9 290X (war Zufall, konnte ich zum Preis der non X bekommen), GTX970, R9 390, dann lange Zeit GTX1070, kurzes Intermezzo mit der 3060ti und jetzt erstmal die 4070ti...

Mir persönlich erschient aktuell der Aufpreis von der 4070ti zur 4080, bzw. der 4090 zu hoch, für meine spielerischen Bedürfnisse.

Aber man weiß ja nie. Soll ja noch ewig bis zur RTX5000 und RX8000 dauern.
 
Zurück