News Nvidia mit Umsatzrekord: Geforce legt zu und ist dennoch chancenlos gegen künstliche Intelligenz

Und hier wundert sich noch irgendein" Gamer" warum Nvidia immer auch weiterhin die hohe Preise (selbst für technisch stark beschnitte Produkte) für ihre Consumer GPUs aufruft, für eine hohe Gewinnmarge.
Trotz solchen Karten wie einer 4060/TI/16GB oder den hohen Preisen den Highendmodellen.

Trotz negativem Aufschrei der Creatoren, Medien, Tech Bubble, geneigten Kunden...
Sie werden trotzdem immer weiter gekauft, wie man sieht, und das in Massen.

Und deshalb wird sich an Nvidias Markt und Preiss sowie Produktstrategie nichts ändern und es eher noch schlimmer/teuerer werden für geneigte Kunden in Zukunft und neuen Generationen. Einfach weil Nvidia sieht, das es erfolgreich ist. Alleine schon während dem Miningboom und Corona haben Kunden gezeigt was Sie alles mit sich machen lassen.

Weiterhin orientieren sich auch Konkurrenz Unternehmen zu großen Teile Preisgefüge des Marktführers und dessen Produkten.

Zudem wird in Zukunft immer mehr negativ hineinspielen das auch Consumer GPU für den KI Bereich aufgekauft werden und damit die Preise noch weiter oben halten, wegen erhöhter Nachfrage.
 
Mein Bauchgefühl sagt mir, dass das Geld in ein gescheites Fahrrad besser investiert ist...
Ist alles Ansichtssache und das ist auch gut so. Denn wer bin ich, daß ich anderen vorschreiben möchte, wofür sie ihr sauer verdientes Geld ausgeben oder ob dieses oder jenes "Sinn" macht?

Und ja, die schnellste Graka Ende 2006 hat 500€ gekostet:P

Gruß
 
Der trotzdem alles in Grund und Boden stampft. Beschnitten oder nicht ist relativ egal, entscheidend ist nur das, was tatsächlich herumkommt.
Geht hier im Thread ja um das betriebswirtschaftliche. Und wenn ich weniger bekomme, für mehr Geld mache ich mir über die Entwicklung trotzdem Sorgen entgegen der Botschaft in der News sich keine Sorgen machen zu müssen.

Vielleicht bekommen Spieler die großen 102er Chips dann bald gar nicht mehr und müssen dennoch noch mehr zahlen als bisher.
 
Ich denke nicht, das man da eine bisher funktionierende Sparte dicht macht. Da hängen auch einige Arbeitsplätze dran usw.

Natürlich nicht, denn es ist auch quasi eine Einstiegsdroge (CUDA & Co.) und es gibt unglaublich viel Software außerhalb des Gamings, die eine (Nvidia-)GPU voraussetzt.

Guuder Mann ! (1. Video)

Bei ChatGPD gibt es keinerlei Garantie auf eine richtige Antwort und darauf wird beim Einstieg auch mehrmals hingewiesen bzw. steht es auch in der Fußzeile. Rechnen und korrekte Antworten kann es nur z.B. über Plugin-Zugriff auf Wolfram Alpha liefern https://www.wolframalpha.com/
Mit Intelligenz hat ChatGPD in seiner aktuellen Form eigentlich nicht viel am Hut.
 
Der trotzdem alles in Grund und Boden stampft. Beschnitten oder nicht ist relativ egal, entscheidend ist nur das, was tatsächlich herumkommt.
Wenn Du in einer neuen Generation nur noch 20% mehr Leistung für das gleiche Geld bekommst, obwohl auf jeden mm² doppelt so viele Shader passen, und eine neue Generation nur noch alle 3 Jahre kommt, gleichzeitig das Topmodell 1.000€ teurer ist als bei der letzten Gen, dann wirst Du vermutlich kapieren, was das Problem ist. Ob das Topmodell dann trotzdem 20% schneller ist, als die Konkurrenz, wird nicht die größte Sorge sein.
 
Die KI-Blase wird früh genug platzen und außer DLSS und diesem nutzlosen Raytracing hört man von NVIDIA keinerlei Zugpferde, als wenn alles darauf basieren würde. In eigenen Benchmark Folien stehen damit plötzlich alle anderen Karten aus dem eigenen Haus schlecht da - komisch... Mit 70% Marge - toll wie die alle abzocken...
 
Naja Samariter sei jetzt mal dahin gestellt.
Nur wenn jeweils die "Spitzenmodelle" vergleichst 7900XTX (900 €) vs. 4090 (1600 €) bzw. 13900KS (800 €) vs. 7950X3D (600 €) kann sich der ein oder andere "Gamer" schon drüber freuen.

Nur ist das Spitzenmodell 7900XTX gerade mal so schnell wie die zweite Garde (4080), somit sollte man diesen Preisvergleich ansetzen. Die 4090 ist diese Gen außer Konkurrenz und kostet quasi so viel wie die 3090 der letzten Gen bei massiv mehr Performance und Effizienz.

Die 90er sind die Titans von früher, die haben auch mal über 2k Euro gekostet (was heute noch viel mehr wäre durch die Inflation)...

Ist alles Ansichtssache und das ist auch gut so. Denn wer bin ich, daß ich anderen vorschreiben möchte, wofür sie ihr sauer verdientes Geld ausgeben oder ob dieses oder jenes "Sinn" macht?

Und ja, die schnellste Graka Ende 2006 hat 500€ gekostet:P

Gruß

Die 500€ von 2006 sind nach 17 Jahren Inflation heute ca. 800€.


Wenn Du in einer neuen Generation nur noch 20% mehr Leistung für das gleiche Geld bekommst, obwohl auf jeden mm² doppelt so viele Shader passen, und eine neue Generation nur noch alle 3 Jahre kommt, gleichzeitig das Topmodell 1.000€ teurer ist als bei der letzten Gen, dann wirst Du vermutlich kapieren, was das Problem ist. Ob das Topmodell dann trotzdem 20% schneller ist, als die Konkurrenz, wird nicht die größte Sorge sein.

So viel Unfug...

1692869850557.png


Die 4090 ist deutlich schneller als "20%" des vorherigen Topmodells.

Dass Blackwell ggf. erst 2025 erscheint liegt wohl eher daran dass Apple exklusiv den TSMC 3nm Prozess für 2024 komplett gebucht hat. Dass das die Regel wird ist nur eine Vermutung von Dir.

Und wo kostet die 4090 1000€ mehr als die 3090 zu Release? Bitte verlinken, ist nämlich gelogen...
 
Naja Samariter sei jetzt mal dahin gestellt.
Nur wenn jeweils die "Spitzenmodelle" vergleichst 7900XTX (900 €) vs. 4090 (1600 €) bzw. 13900KS (800 €) vs. 7950X3D (600 €) kann sich der ein oder andere "Gamer" schon drüber freuen.
Es gab hier mal einige "Experten", die vor gar nicht so langer Zeit behaupteten, AMD würde (selbst wenn sie an Stelle von Intel/Nvidia stünden) nie, niemals soviel Kohle für ihre Produkte nehmen.

Und das ist einfach Quatsch. Wenn du oben bist, nimmste natürlich deinen Obulus. Egal welche Marke/Hersteller/Label. Einige wollen/können anscheinend nicht begreifen, daß es gerade Firmen immer nur um unser bestes geht. Unser sauer verdientes Geld...

Gruß
 
Zuletzt bearbeitet:
Ich kann schon eine Durststrecke über mehrere Jahre aushalten. Evtl. sieht es in ein paar Jahren wieder besser aus. Leidensfähigkeit ist man ja mittlerweile bei Hardware gewöhnt.
Aushalten kann ich auch, meiner GTX1080 bin ich damals fast 5 Jahre treu geblieben. Auch dank ihrer 8GB VRAM.

Allerdings gönne ich mir hin und wieder auch mal was, wofür gehe ich sonst arbeiten;) Und mir ist es dann auch schietegal, was andere davon halten...

Gruß
 
Es ist schade, dass man die heutigen Fakten schon fast damit verwechseln kann... Mir war bis gerade auch nicht bewusst, dass es auf dem Papier fast so aussieht, als wäre die aktuelle Generation eine 1:1-Kopie der alten mit etwas mehr Takt durch ein etwas kleineres Fertigungsverfahren.

Ich habe das tatsächlich nur auf die Zukunft bezogen und es war nur eine Schätzung.
 
Es ist schade, dass man die heutigen Fakten schon fast damit verwechseln kann... Mir war bis gerade auch nicht bewusst, dass es auf dem Papier fast so aussieht, als wäre die aktuelle Generation eine 1:1-Kopie der alten mit etwas mehr Takt durch ein etwas kleineres Fertigungsverfahren.

Ich habe das tatsächlich nur auf die Zukunft bezogen und es war nur eine Schätzung.

Bitte wie? Ada soll eine fast 1:1 Kopie von Ampere sein oder wovon sprichst Du?

Mehr Cache, verbesserte RT- und Tensor-Cores, das ist alles "fast gleich"?
Am Streaming Multiprocessor / Shader Design hat sich seit längerer Zeit bei keinem Hersteller groß was verändert.

Eine komplett neue Architektur heißt auch nicht dass diese unbedingt besser wird als die vorherige. Dazu gibt es genügend Beispiele (AMD Bulldozer CPUs, Intel Netburst Architektur, Fermi GPU, usw usw).

Laut Gerüchten hat RDNA4 aufgrund der neuen Architektur auch große Probleme. Da bin ich gespannt was am Ende an den Gerüchten stimmt.
 
Die KI-Blase wird früh genug platzen und außer DLSS und diesem nutzlosen Raytracing hört man von NVIDIA keinerlei Zugpferde, als wenn alles darauf basieren würde. In eigenen Benchmark Folien stehen damit plötzlich alle anderen Karten aus dem eigenen Haus schlecht da - komisch... Mit 70% Marge - toll wie die alle abzocken...
Nutzloses Raytracing? Martin, geh woanders spielen:P

Gruß
 
Kommt immer auf den Zeitpunkt deines Kaufs an, wärst du auch bei 2€ eingestiegen, wäre es mehr wie nur Weihnachtsgeld ;-)

Es wird dieses Jahr interessant, ob nvidia intel auch beim jahresumsatz überholen wird.
Ich tröste mich damit, das die Prognose bei AMD bei 29% liegt un dbei Nvidia bei 16,x%.

Außerdem bin ich weit von Verlust entfernt ;)
Naja Samariter sei jetzt mal dahin gestellt.
Nur wenn jeweils die "Spitzenmodelle" vergleichst 7900XTX (900 €) vs. 4090 (1600 €) bzw. 13900KS (800 €) vs. 7950X3D (600 €) kann sich der ein oder andere "Gamer" schon drüber freuen.
Hmm

beim 13900k(s) kann ich dir für reine Gaming PC´s noch Recht geben, aber bei der 7900XTX muss man auch einfach sagen, das die nicht Ansatzweise in der selben Liga spielen.

Außerdem sind es mindestens 950€ im Angebot (das zugegebenermaßen, quasi fast ständig zu bekommen ist).

Gute Modelle kosten auch eher 1050 aufwärts.

Eine 7900XTX ist eher als Konkurrenz zur 4080 zu sehen und zieht selbst da, im Schnitt über alle Eigenschaften den Kürzeren.

Weswegen auch die 4080 auch schon zu Recht etwas teurer ist.
Nein ich fahre kein Auto, ich fahre BMW:lol:
Lass stehen den Schinken, wurdest ja verarscht ;)
 
Zuletzt bearbeitet:
Außerdem sind es mindestens 950€ im Angebot (das zugegebenermaßen, quasi fast ständig zu bekommen ist).

Gute Modelle kosten auch eher 1050 aufwärts.

Eine 7900XTX ist eher als Konkurrenz zur 4080 zu sehen und zieht selbst da, im Schnitt über alle Eigenschaften den Kürzeren.

Weswegen auch die 4080 auch schon zu Recht etwas teurer ist.
Im Angebot hat diese Woche die 7900XTX 899 € gekostet.

Und ja, der "Gegenspieler" ist die 200 € teurere 4080. Mein Vergleich galt allerdings der jeweiligen "Speerspitze".
 
Zurück