News Nvidia mit neuen Rekorden bei Gewinn und Umsatz: Datacenter dominiert Geforce Gaming

Da sind die Kunden aber dann selbst schuld.

AMD bietet aktuell bei begrenztem Budget wirklich sehr gute Karten an (Intel k.A. wie die sich schlagen).
Für den normalen Spieler brauchts die ganzen zusätzlichen Features nicht wirklich.
Aber muss ja immer unbedingt sein und dafür zahlt man dann auch noch kräftig Aufpreis.

Beim Kumpel musste es wegen CUDA auch unbedingt eine Nvidia sein.
Hat dann ohne Rücksprache einen FertigPC mit einer 970 mit 3,5+0,5GB VRAM gekauft.
Mehr als Chrome, Discord, Word, Excel und AoE ist auf der Kiste aber wegen Playstation wohl noch nie gelaufen ...

Stimmt.
Es wird idR. nur nach dem schnellsten Produkt gesehen und dann müssen die anderen ja auch verdammt gut sein.
(also deulich besser als das Konkurrenzprodukt).
Oder auch ~Markentreue bzw. falsche Versprechen. Im Bekanntenkreis will ein Sohn unbedingt ein Fertig-PC
von Asus weil ROG. Sein O-Ton :" Wer ROG-Qualität will muss eben ROG kaufen". Das man den selben PC
mit Retail Ware und ggf. anderen Hersteller / ohne ROG besser hinkriegt interessiert ihm dabei nicht.
 
Also ist Nvidia Schuld daran dass die Mitbewerber ihre Preise anheben? Bitte erläutere das mal Betriebswirtschaftlich betrachtet.

Gerade als Mitbewerber bietet Nvidia mit hohen Preisen einem doch DIE CHANCE über niedrige Preise Marktanteile zu gewinnen. Vorallem die Radeon Abteilung benötigt dringend Marktanteile. Warum also steigen die Preise nun bei allen Herstellern und Produkten? Könnte es DOCH damit zu tun haben dass die Herstellung und R&D immer teurer wird?
Nein.
Bei den Gewinnzahlen ist die Herstellung und Forschung schon lange mit inkludiert.
Wenn NV (wie oben im Thread jemand andeutete) bei der nächsten Gen. die Preise ~50% anhebt.
Warum sollte AMD dann auch nicht die Preise anheben. Die sind dann immer noch deutlich günstiger.
AMD muss anscheinend noch mehr Geld in die Forschung stecken um gleich zu ziehen oder?


Nvidia hat Ampere in Samsung 8nm fertigen lassen. Da war ein Wafer garantiert günstiger als ein TSMC 7nm Wafer. Sagen wir einfach mal Nvidia hat 8.000$ pro Wafer an Samsung gezahlt, dann haben sie ihre Kosten pro Wafer hin zu ADA in TSMC 5nm verdoppelt!

Ok, nicht ganz da die Chips von der Fläche her etwas kleiner geworden sind, aber bei weitem nicht so viel kleiner um den Preisaufschlag zu kompensieren.

Dazu kommt die Inflation die in den letzten Jahren nicht gerade wenig ausgemacht hat.

völlig uninteressant. Der Kunde hat alles gezahlt...und sogar deutlich mehr.
Siehe Gewinn von NV.

Nvidia optimiert doch ständig die Treiber und bringt für fast jedes Spiel Day-One-Treiber raus? Ich weiss echt nicht was Du hier versuchst uns zu vermitteln. Die Spieleentwickler optimieren doch die Treiber von Nvidia (oder sonst wem) nicht.
Man kann als Spieleentwickler sein Titel für eine "Plattform" deutlich mehr hin optimieren.
Wie hoch ist der Marktanteil von AMD & Intel zusammen vs NV? 20% vs 80%.
Abgesehen davon ist ein "damit sinkt der Druck" ganz was anders als haben das eingestellt.

Wie gut Intel mit Battlemage an den Start geht werden wir sehen, ich hoffe auf eine Überraschung!

Das sollte sich jeder wünschen. Für mich wäre es schon eine positive Überraschung wenn die dann
im oberen Mittelfeld mitschwimmen würden.
 
Nein.
Bei den Gewinnzahlen ist die Herstellung und Forschung schon lange mit inkludiert.
Äh wie? Die Preise der GPUs werden jede Gen neu berechnet aufgrund der aktuellen Kosten und einer angestrebten Marge pro GPU. Wenn nun die Herstellungskosten (Wafer Preise steigen exponentiell) und das nötige R&D (oder glaubst Du DLSS, RT Cores, Tensor Cores, etc, erfinden sich von allein?) steigen, dann steigen auch die Endprodukt-Preise.

Wenn NV (wie oben im Thread jemand andeutete) bei der nächsten Gen. die Preise ~50% anhebt.
Hätte hätte Fahrradkette. Jede Gen hört man dasselbe von den AMD Fans. Und es tritt einfach nicht ein...

Warum sollte AMD dann auch nicht die Preise anheben. Die sind dann immer noch deutlich günstiger.
Weil sie damit MARKTANTEILE erobern könnten wenn sie DEUTLICH günstiger wären. Aber AMD ist jetzt schon nicht besonders profitabel, deswegen MÜSSEN sie die Preise anheben weil DIE KOSTEN auch für sie steigen. Herrgott, das ist wirklich einfachstes BWL...

AMD muss anscheinend noch mehr Geld in die Forschung stecken um gleich zu ziehen oder?
Das sollten sie wenn sie wirklich ernsthaft mit Nvidia konkurrieren wollen. Man sieht aber jeder Gen und jedem Feature an dass Nvidia vorne weg zieht. Seit langer Zeit.

Ich mache AMD da auch keinen Vorwurf, woher sollen sie das Geld nehmen? Da sie komplett Fabless sind müssen sie sowohl für jede CPU als auch GPU die hohen Waferkosten bezahlen. Den "Nachteil" hat Intel im CPU Bereich nicht. Und Nvidia macht die höheren Herstellungskosten wett mit ihrem Marktanteil und Premium Produkten die sich zu höheren Margen verkaufen lassen. Auch einfachstes BWL.

völlig uninteressant. Der Kunde hat alles gezahlt...und sogar deutlich mehr.
Siehe Gewinn von NV.
Dir ist schon klar dass der hohe Gewinn zum größten Teil durch das Datacenter Geschäft entstanden ist? Hast Du den Artikel überhaupt gelesen? Da hat kein "Normal-Kunde" irgendwas von bezahlt.

Und wenn für Dich die Hintergründe und Fakten "völlig uninteressant" sind, dann lassen wir die Diskussion besser. Auf "gefühlte Fakten" lege ich keinen Wert.

Man kann als Spieleentwickler sein Titel für eine "Plattform" deutlich mehr hin optimieren.
Bist Du Spieleentwickler?

Wie hoch ist der Marktanteil von AMD & Intel zusammen vs NV? 20% vs 80%.
Abgesehen davon ist ein "damit sinkt der Druck" ganz was anders als haben das eingestellt.
Und was ändert das daran dass Nvidia für fast jedes Triple-A-Game Day-One Treiber rausbringt?

Wenn man den Spieleentwicklern etwas vorwerfen kann, dann dass sie in "AMD-Exklusiv Titeln" Nvidia häufig ausbremsen. Farcry 6 und Starfield zum Beispiel.

Das sollte sich jeder wünschen. Für mich wäre es schon eine positive Überraschung wenn die dann
im oberen Mittelfeld mitschwimmen würden.
Im oberen Mittelfeld sehe ich Battlemage bereits mithalten. "Alchemist" hat ja jetzt nach den ganzen Treiberverbesserungen richtig zugelegt und ist was RT-und AI-Performance angeht bereits vor AMD's RDNA2 gelandet.
 
Das sind schon faszinierende Zahlen. Da werden sich einige (etwa Intel) in den Hintern beißen den KI Trend (oder GPUs herzustellen) so verschlafen zu haben.

Für uns Spieler heißt das leider nichts gutes. Wenn jeder mm² Chipfläche bzw. Waferfläche so gut bezahlt wird im KI Segment wird Nvidia keinen Grund sehen Waferfläche für Gamer extra frei zu machen, die natürlich weniger bezahlen pro mm² als Data-Center.
Einzige Hoffnung ist halt, dass man so viel produzieren kann (bei TSMC), dass es ihnen egal ist, sie produzieren einfach MEHR, also sind nicht limitiert und dann nimmt man die paar Mrd ausm Gamingsegment halt auch gern mit.
Aber, im Moment ist der Trend eher so, dass man Chips mit wenig Gewinn gar nicht mehr auflegt und lieber AMD/Intel übrig lässt. Nicht umsonst ist die billigste aktuelle GPU (4060) bei Nvidia um 300+€ angesetzt.

Hier kann man mittelfristig echt nur hoffen Intel und AMD holen sich den 150-300€ Markt mit ordentlichen Produkten, aber ob das realistisch ist, steht auf einem anderen Blatt.

Spannend wird auch mit all dem Geld, ob Nvidia auch teurere Fertigungsprozesse einkauft, also exklusiv. So wie Apple das seit Jahren macht.
 
Das Thema Ai von KI reden wir nicht die gibt es nicht.
Folgendes Das wird in Zukunft sicherlich ein e rolle spielen insbesondere im creativen bereich wird das eine revolution
leider zum Nachteil von kreativen . alles andere wäre eher in Richtung staatlicher macht Kommerziell lässt sich da nur beschränkt nutzen bis gar nicht.
Das ist ein Rechtliches Minenfeld darum sehe ich sobald die großen Player ihre hardware haben auch keine chance das sich irgendwas an Wachstum für nvidia tun wird.
Klar kann es sein das neue designs das beschleunigen können aber das ist nicht das problem von Ai das problem für Ai sind die Daten. Bestimmte asics bringe hier mehr als pure floating point performance.
Zumal dies immer mehr gefragt wird mit weniger Energie zu realisieren. Dazu soll es in zukünftige Cpu intrigiert sein ob das auch technisch Sinnvoll ist sei mal dahingestellt.
ich sehe keine Zukunft für nvidia darauf zu setzen eher sollte man sich auf Software fokussieren und die Techniken perfektionieren wie dlss und das echte denoising von dxr zu realisieren.
Das würde profi Bereich dafür sorgen das mit pathtracing erstellte in Echtzeit geht. Was derzeit nur in Serverparks realisiert werden kann.
Mit Betonung auf perf Verbessrung das die Aufgabe schneller und stromsparender gehen soll.
Das denoising ist das problem derzeit und ai könnte das beschleunigen aber nur in software. Das bedingt aber neue Daten Transfer Normen die über dem pcie5 Standard sind
Kurz ohne Zusammenarbeit mit de atx norm was cpu mainboard und gpu normen neu erstellt weg von alten ram Takt und neue Anbindungen? Warum 64bit und nicht standard 128bit singlechannel oder hin zu hbm .
Weg mit dem pcie einen neuen standard der schneller als 100mhz läuft etwa 1ghz dann unified ram so das bei aib gpu nur noch cache zum Einsatz kommt und kein eigener vram das ginge mit nen standard der deutlich schnellere Daten Transfer erlaubt.

Das was Heutige pc ausbremst ist der Festspeicher also HDD SSD sowie die protokolle wie pcie der auf 100mhz läuft
Dann die alte ddr norm die nur an der busbreite limitiert wird
Das garantiert Konsistenz da alles kompatibel bleibt von software Sicht aus wäre es egal.
Würde man da rangehen und eine völlig neuen Standard erstellen der deutlich schnellere ram vram Kommunikation ermöglicht wären vram Größen und dxr kein Thema mehr und genau das kann ai helfen. aber ohne Änderung an den Protokollen wird das nix.
Dafür müsste lokal auf der gpu mehr Speicher und sehr schneller Speicher bis dahin das sogar ssd darauf sein müsste.
quasi mit ner arm cpu ein eigens system darstellt.
Und genau das will nvidia tun um dann monopolistisch standards zu setzen.
Das hat rein gar nix mit gpu zutun und das werden andere hardwarefirmen als asic umsetzen wo nvidia im abseits stehen werden da zu stromhungrig und zu teuer.

Lösung ist auf Grafik zu setzen wie dem kreativen Bereich pc Grafiken in Echtzeit pathtracing mit realen denoising in Echtzeit.
Das geht derzeit nur partiell und mit viel Strombedarf
Im übrigen bewirbt nvidia das auch so.
Die hohen Umsätze kommen von den großen playern da nvidia bisher die Bestellungen von 2020 -2022 nicht hinterherkommt.
Darunter zählen Staaten und so was wie google amazon apple das ist endlich.
Darum sage ich klar wenn nvidia kein Erfolg mt rtx50 hat wird es eng werden und der Wert der Firma sich halbieren.
Amd mcm Ansatz, wenn der funktioniert hat nvidia ein problem
Da rettet Ai Geschäft den laden nicht mehr.

Aktuell diktieren die Software firmen das geschehen also am PC microsoft und im Server linux
Wo es lang geht.
Was MS plant ist offen aktuell ist da nix sicher win 12 kommt aber wird anders Sein als viele denken.
 
Zuletzt bearbeitet:
Du meinst die anderen Geschäftsbereiche neben Gaming und Datacenter? Ja, die werden bei steigendem Gesamtumsatz auch kleiner, sind aber kaum relevant vom Umsatz her.
Ich meine ALLE Geschäftbereiche werden neben "Data Center" anteilig kleiner, weil ja eben das Data Center so exorbitant wächst.
Der Satz "der Umsatzanteil durch Gaming wird immer kleiner" ist irreführend. Er täuscht über die Tatsache hinweg, dass eigentlich "der Umsatzanteil von Data Center immer größer wird".

Wenn man sich die Umsatzzahlen von Gaming (und eingen anderen) ansieht, dann erkennt man, dass nach dem Hoch in den Coronajahren und Crypto ein Einbruch kam, der im Q3 2023 seinen Tiefpunkterreichte und seitdem wieder auf ein stattliches Niveau ansteigt, das dem entspricht oder gar übersteigt, was vor Corona und Cryptophype anlag.
Gaming bleibt mit leichten Schwankungen auf einem hohen Niveau um plus/minus 3Mrd $.

Diie Meldung ist nicht, dass Gaming anteilig kleiner wird sondern dass Data Center so abartig zulegt.
(Ich sehe das als eine sehr riskante und nicht gesunde Entwicklung - ein Hype, der vermutlich langfristig nicht stabil sein wird)
 
Zuletzt bearbeitet:
Dominanz hat nicht nur eine Definition:

Anhang anzeigen 1444307

Eine "große Vorherrschaft" im Umsatzbereich hat die Datacenter-Sparte definitiv im Vergleich zur Gaming-Sparte.
Danke für den konstruktiven Beitrag, aber Dominanz im wirtschaftlichen Sinn passt ja gerade NICHT, da beide Produkte auf verschiedenen Märkten gehandelt werden—> keine Wechselwirkung —> keine Dominanz. Es ist herleitbar, dass die strategische Ausrichtung nvidias nun durch die andere Sparte „dominiert“ wird, aber der Artikel handelt nur von den aktuellen Geschäftszahlen und gibt solches nicht wieder. Ich finde den Ausdruck reißerisch und damit dümmlich.
 
(Ich sehe das als eine sehr riskante und nicht gesunde Entwicklung - ein Hype, der vermutlich langfristig nicht stabil sein wird)

Davon geht sonst aber kaum jemand aus. LLMs / neuronale Netze werden in kurzer Zeit disruptiv auf diversen Gebieten einschlagen.

Anwälte? Braucht man kaum noch wenn man ein LLM hat welches jedes Gesetz und jedes Urteil kennt.

First-Level-Support Mitarbeiter? Werden in naher Zukunft auch in großer Zahl durch Chat-Bots ersetzt die für 90% der Anfragen die richtige Lösung anbieten. So einen Bot haben wir vor wenigen Wochen Live genommen und der wird jetzt weiter trainiert.

Ärzte? Ein trainiertes neuronales Netz kann Krankheiten mit viel höherer Wahrscheinlichkeit erkennen als jeder Mensch da es auf Millionen von Datensätzen basiert.

Architekten? Einer KI kannst Du eine Zeichnung von einem Gebäude vorlegen und die berechnet Dir automatisch ob das so möglich ist, welche Baumaterialien in welcher Stärke wo eingesetzt werden müssen, usw.


Ich denke viele unterschätzen die Möglichkeiten die sich durch neuronale Netze eröffnen.
 
Das man den selben PC mit Retail Ware und ggf. anderen Hersteller / ohne ROG besser hinkriegt interessiert ihm dabei nicht.
Andere Frage: Wer bezahlt?
Wenn das mit Rasenmähen, etc verdiente Geld nicht mal im Ansatz für eine brauchbare ROG Kiste ausreicht ...

Ich konnte grafisch anspruchsvolle Spiele auch erst spielen nachdem ich mir irgendwann in (nach?) der Lehre mal eine GPU für die heimische Officekiste gekauft habe.

Hier kann man mittelfristig echt nur hoffen Intel und AMD holen sich den 150-300€ Markt mit ordentlichen Produkten, aber ob das realistisch ist, steht auf einem anderen Blatt.
Als dedizierte GPU imho mit Sicherheit nicht.

Die IGP´s dürften aber den unteren Bereich gut abdecken. Ist ja aktuell schon ziemlich beachtlich, was z.b. ein 5700G leistet.
 
Als dedizierte GPU imho mit Sicherheit nicht.

Die IGP´s dürften aber den unteren Bereich gut abdecken. Ist ja aktuell schon ziemlich beachtlich, was z.b. ein 5700G leistet.
Solange die 2 nicht Fuß fassen im AI Bereich müssen sie das bestellte Waferkontingent verscherbeln. Könnte mein PC SAM/ReBar, hätte ich für die gestorbene 1060 meiner Frau aktuell eine Intel gekauft, die sind bezüglich Preis/Leistung aktell unschlagbar. Aber selbst Intel nimmt die Preiserhöhungen natürlich gerne mit.
Und eine iGPU ist schön und gut, aber ich kann diese oft nicht einfach nachrüsten, eine GPU schon.

Intel wird stets versuchen ihre Fabs voll auszulasten. Es kann also mal sein, dass sie auch selbst GPUs/AI Chips produzieren und bevor das Werk nicht ausgelastet ist/steht, produziert man auch billigchips due man verkaufen kann
 
Zuletzt bearbeitet:
Davon geht sonst aber kaum jemand aus. LLMs / neuronale Netze werden in kurzer Zeit disruptiv auf diversen Gebieten einschlagen.
Hinter welchem Mond schläfst du denn?
Es geht keiner davon aus, dass der derzeitige Boom ein Hype ist, eine Bubble?
Das war bisher bei JEDEM Technik-Trend so:
Technik wird misverstanden, übertrieben Erwartungen werden geweckt und beworben, Marketing und Führung verstehen die Technik nicht, Fear of Missing out, übertriebene Investitionen und Buzzword-Invlation, Absturz vom Hype-Gipfel, Tal Der Tränen, später moderate Umsetzung mit eprobter Technik.
Dot-Com-Bubble, Cloud Computing, Big-Data, IoT, VR/AR, 3D-Druck, Industry 4.0, Digitalisierung 2.0, Blockchain, NFC, Metaferse... und jetzt AI.
(So wie uns Atomkraft eine saubere Umwelt mit fliegenden Untertassen und Weltfrieden brachte und elektrische Küchengeräte die Rolle der Frau und ihre Unabhängigkeit am Herd und als "Hausfrau" beflügelten :rollen:)
=> siehe "Gartner-hype-cycle"

-> Moores law is Dead und Gast Josh Walrath : Altagsnutzen von KI und Bubble
-> Mustafa Suleyman Google AI Exec : Danger of AI
-> Is AI hype a bubble? AI in perspective
-> The AI Hype Cycle Is Distracting Companies (Eric Siegel, Harvard Business Review)
-> Don’t Get Distracted by the Hype Around Generative AI (Lee Vinsel, MIT Sloan Review)
-> Economist Says AI Is a Doomed Bubble
-> Another AI Hype Bubble Pops
-> Are we in an AI hype bubble?

... davon geht sonst aber kaum jemand aus ...

"According to the 2023 Gartner Hype Cycle for Artificial Intelligence (AI), generative AI is currently at the Peak of Inflated Expectations. This means that it is at the point of maximum hype and visibility, but it is also where the hype starts to decline as the technology fails to meet overinflated expectations.

The Gartner Hype Cycle suggests that generative AI is expected to reach transformational benefits within the next two to five years. This includes innovations that will be fueled by generative AI and innovations that will fuel advances in generative AI

Anwälte? Braucht man kaum noch wenn man ein LLM hat welches jedes Gesetz und jedes Urteil kennt.

First-Level-Support Mitarbeiter? Werden in naher Zukunft auch in großer Zahl durch Chat-Bots ersetzt die für 90% der Anfragen die richtige Lösung anbieten. So einen Bot haben wir vor wenigen Wochen Live genommen und der wird jetzt weiter trainiert.

Ärzte? Ein trainiertes neuronales Netz kann Krankheiten mit viel höherer Wahrscheinlichkeit erkennen als jeder Mensch da es auf Millionen von Datensätzen basiert.

Architekten? Einer KI kannst Du eine Zeichnung von einem Gebäude vorlegen und die berechnet Dir automatisch ob das so möglich ist, welche Baumaterialien in welcher Stärke wo eingesetzt werden müssen, usw.


Ich denke viele unterschätzen die Möglichkeiten die sich durch neuronale Netze eröffnen.
Das wird schon lange beschrieen.

Ja es wird desruptiv. Die Firmen werdern KI und Tools nutzen, um Personalkosten zu sparen und später mergen, dass sie die nötige Expertise und das Know-How beim Nachwuchs abgeklemmt haben und darunter leiden.
Genauso, wie es beim Outsourcing lief.

Dieses ganze "braucht man den Mensch nicht mehr" ist Humbug.
Die Software wird den Menschen unterstützt bei vielen unsinnigen Tasks. Wag wegfallen könne sind ABM's und die Vielen unsinnigen Aufgaben, mit denen sich Experten aufhalten müssen.

Ein Arzt, spezialist auf einem Gebiet, erkennt womöglich gut Fälle in seiniem Fachgebiet und weiß diese zu behandeln, das Gros der Patienten und Krankheitsbilder aber richtig einzuordnen und zuzuteilen - da ist big data mit KI-Foresnik viel treffsicherer.

Der Mensch kann visuell gut ein einzelnes Bild analysieren und einschätzen und auswerten aber 100.000de von Bildern in einer Datenbank zu druchforsten, zu filter und zu kategorisieren für einen Exopertenansicht, schafft Ki viel besser, als 100 Praktikanten oder studentische Hilfskräfte.

UInd damit deine LLM's richtig greifen, müssten sie Quellen und Informationen kritisch hinterfagen können und genau da fehlt es der KI und da sind wir noch lange lange weg von: kritisches Denken.
Analyse kann sie, aber kritisch hinterfragen, ob das Sinn ergibt oder eine Alternative besser nicht.
Derzeit redet sie nur sehr Menschenähnlich daher und wirkt damit trügerisch vetrauensvoll - die Validität der Informationen, die aus dem Netz gecrawlt werden, wird aber nicht sinnvoll hinterfragt und gewichtet.
So sehr ich Anwälte nicht leiden kann (oder auch Führugswasserköpfe), LLMs werden hier diese nicht abschaffen - eher noch wir AI von diesen eingesetzt, um ihren Status zu untermauern.

Ich denke, viele überschätzen derzeit auch die direkten praktischen Nutzen.
"Möglichkeiten", "Potential" hat Technik immer viel! Es ist aber an uns, es sinnvoll zum wohl der Menschen eiinzusetzen ... oder auch nicht.
 
Zuletzt bearbeitet:
Solange die 2 nicht Fuß fassen im AI Bereich müssen sie das bestellte Waferkontingent verscherbeln.
Und eine iGPU ist schön und gut, aber ich kann diese oft nicht einfach nachrüsten, eine GPU schon.

Intel wird stets versuchen ihre Fabs voll auszulasten. ...
Sowohl Intel als auch AMD entwickeln auch CPU´s, die genauso notwendig sind für den AI Bereich.
(Während des Miningbooms wurden selbst die billigsten CPU´s zu Mondpreisen verkauft, sofern überhaupt noch verfügbar. Zu der Zeit hätte man Mainboards kaufen sollen ...)

Wieso sollten die nicht konkurrenzfähige GPU´s produzieren und zu Ramschpreisen verkaufen, wenn bei CPU´s weitaus mehr verdient ist?
 
Andere Frage: Wer bezahlt?
Wenn das mit Rasenmähen, etc verdiente Geld nicht mal im Ansatz für eine brauchbare ROG Kiste ausreicht ...

Ich konnte grafisch anspruchsvolle Spiele auch erst spielen nachdem ich mir irgendwann in (nach?) der Lehre mal eine GPU für die heimische Officekiste gekauft habe.
Die Eltern.
Aber so oder so. Wenn ich zocken will würde man doch das schnellste nehmen (was das Budget hergibt) und nicht ein
schöner Aufkleber? :ka:
 
Sowohl Intel als auch AMD entwickeln auch CPU´s, die genauso notwendig sind für den AI Bereich.
(Während des Miningbooms wurden selbst die billigsten CPU´s zu Mondpreisen verkauft, sofern überhaupt noch verfügbar. Zu der Zeit hätte man Mainboards kaufen sollen ...)

Wieso sollten die nicht konkurrenzfähige GPU´s produzieren und zu Ramschpreisen verkaufen, wenn bei CPU´s weitaus mehr verdient ist?
frag das Intel, die in dieses Rennen 1
Jahre zu spät eingestiegen sind
 
Zurück