News Nvidia: Mehr GPUs für Datacenter und Profisparte statt Gaming [Gerücht]

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia: Mehr GPUs für Datacenter und Profisparte statt Gaming [Gerücht]

Aufgrund einer hohen Nachfrage nach Datacenter- und Profi-GPUs will Nvidia dort nun angeblich verstärkt die für die Geforce-Grafikkarten genutzten AD-GPUs einsetzen. Schlimmstenfalls könnte das die Verfügbarkeit der RTX-4000-Grafikkarten beeinträchtigen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia: Mehr GPUs für Datacenter und Profisparte statt Gaming [Gerücht]
 
Naja wen soll es wundern.

Wenn die zu hohen Preise von den Gamern nicht bezahlt werden, wandern die Chips halt in eine andere Sparte.
Na klasse, war abzusehen. Bei den kommenden Generationen gibt es dann nur noch eine "Volks-Grafikkarte" aus der Resteverwertung "for the gamers":stick:
Nein, es gibt wieder eine RTX5090 aber warum die Preise reduzieren... eher das Gegenteil. Ein paar werden das immer kaufen.

Aber nach unten hin, zu den bisherigen Preisen wird es immer weniger Hardware geben.
 
Na klasse, war abzusehen. Bei den kommenden Generationen gibt es dann nur noch eine "Volks-Grafikkarte" aus der Resteverwertung "for the gamers":stick:
Na und! Wenn's mit xten Aufguß ein und derselben Spielidee durch das pure Pimpen der Grafik nicht mehr klappt, dann müssen eben die Spiele vom Inhalt her wieder besser werden. Was imo nicht die schlechteste Entwicklung wäre... :ka:
 
Bitte das ist kein Gerücht, dass ist die volle Tatsache, dass nvidia den GPU-Consumer-Markt längst links liegen lässt...das zeigt die gesamte rtx-40-er-Serie zur Genüge.
Diese ganzen Marketinggimmicks wie DLLS, RT etc. die nvidia in der letzten Zeit so aggressiv vermarktet sind ja letztlich nur ein Versuch alten Wein in neuen Schläuchen zu unverschämten Mondpreisen zu verkaufen, weil sie schlicht ihre Entwicklungsressourcen massiv in Richtung KI-Beschleuniger verschoben haben.
Da denkt sich das Management wohl sie könnten den guten Namen mit ein paar Schmäh und veralteter Technologie noch einige Zeit weiter melken...und wenn's nicht klappt kommen die Milliarden eh anderweitig rein.

Für den PC-Gaming-Markt könnte dies aber ein echter Segen sein, wenn nvidia ENDLICH seine Dominanz verliert und Konkurrenten wie AMD, Intel oder vielleicht sogar neue Player den Markt übernehmen.
Und ENDLICH die Preise wieder in normale Gefilde fallen und diese ganze Sche***e mit den Marketinggimmicks von nvidia wie RT, Pathtracing, DLLS etc. verschwindet.
 
Klaro, die big Player kann man halt noch mehr melken.
Zumindest noch.

Intel AI (Falcon Shores GPU)
Microsoft AI (Codename Athena)
AMD AI (MI300X)

EDIT: Google vergessen.

Die wollen natürlich allesamt was ab vom Kuchen und außerdem nicht Nvidia ihren ganzen schönen Gewinn zuschieben. Also arbeiten alle drei an unabhängigen GPU-/AI-Chip-Lösungen.

Wenn Nvidia die melken will, dann besser jetzt. Später ist es vielleicht zu spät. Ab 2024/2025 sollen die Dinger langsam kommen.

Gruß,
Phil
 
Zumindest noch.

Intel AI (Falcon Shores GPU)
Microsoft AI (Codename Athena)
AMD AI (MI300X)

EDIT: Google vergessen.

Die wollen natürlich allesamt was ab vom Kuchen und außerdem nicht Nvidia ihren ganzen schönen Gewinn zuschieben. Also arbeiten alle drei an unabhängigen GPU-/AI-Chip-Lösungen.

Wenn Nvidia die melken will, dann besser jetzt. Später ist es vielleicht zu spät. Ab 2024/2025 sollen die Dinger langsam kommen.

Gruß,
Phil
Zumal gerade Google und Microsoft auch über den Softwarestack kommen werden. Noch hat Nvidia mit CUDA de facto Monopolstellung. Aber Google wird definitiv versuchen, eine direkte Schnittstelle für ihr Tensorflow ohne Umweg CUDA zu implementieren. Microsoft arbeitet in der Hinsicht mWn mit Meta/Facebook zusammen, die würden dann wohl auf direktere Pytorch-Interaktion gehen.
 
Eben. Man tritt hier gegen ganz andere an, nicht nur AMD.

Außerdem ist das eine Blase. Den Film kennen wir schon. There will be a reckoning.

Trotzdem der erhobene Fingerzeig von Nvidia Richtung uns, den Gamern. Wow. Ja, danke, mich könnt ihr auch dort küssen, wo die Sonne niemals hinscheint. Das Wort, das ich hier nun weglasse, habe ich schonmal Richtung Nvidia benutzt und sie einen Haufen selbiger genannt. Hat mir ne gelbe Karte hier im Forum eingebracht. Ich hoffe heute ist man mit mir etwas nachsichtiger.
 
Dass stingt. Gaming mit füßen treten und dann so horente preise von der Kundschaft ab verlangen. Was hat die PR und der CEO da geraucht.

irgend was was in die mögliche kategorie "Substanserweiterte mittel" gehöhren würde.
Damit mit den Kurs das sommer loch zu igalisieren ist leicht engstrinig. So blöd kann man nicht sein. Und dafür die preise nur weil die karten auf grund der hohen uvp nicht das lager verschwinden. Selbst gemachtes geld gier problem.

Nvidia hat großen anteil den markt zu schrotten.
 
Von mir aus kann sich NVIDIA gerne komplett vom Grafikkartenmarkt verabschieden. Die Lücke werden andere Hersteller füllen. Normalerweise belebt Konkurrenz ja den Markt und der Kunde profitiert von besseren, bzw günstigeren Produkten. NVIDIA hat es geschafft den Spieß umzudrehen. Als Marktführer haben sie die Grafikkartenpreise in schwindelerregende Höhen getrieben und AMD bei dieser Preisgestaltung teilweise mitgezogen. Soll heißen, ohne NIVIDA wären auch die heutigen AMD Karten günstiger. Danach haben wir immer noch Intel und AMD und in wenigen Jahren andere Hersteller (zB aus China). Der „Grüne Spielverderber“ kann gehen. Ich bin kein Fanboy - habe selber alles NVIDIA GPUs in meinen Rechnern. Aber die aktuellste ist halt noch immer eine GTX 1080 und die wird wahrscheinlich aus die Letzte von NVIDIA sein.
 
Zumal gerade Google und Microsoft auch über den Softwarestack kommen werden. Noch hat Nvidia mit CUDA de facto Monopolstellung. Aber Google wird definitiv versuchen, eine direkte Schnittstelle für ihr Tensorflow ohne Umweg CUDA zu implementieren. Microsoft arbeitet in der Hinsicht mWn mit Meta/Facebook zusammen, die würden dann wohl auf direktere Pytorch-Interaktion gehen.

Ich sehe ehrlich gesagt nicht wo Nvidia im AI Markt mit CUDA eine Monopolstellung haben sollte? Korrigiere mich wenn ich falsch liege, aber die Firmen ala Microsoft und Google geben doch die SW Schnittstelle vor die angesprochen werden muss und wie du das dann für deine Produkte umsetzt ist dein Bier.
Wenn das AMD und intel gut hinbekommen mit ihrer SW ihre Karten gut zu trainieren bzw. das umzusetzen sehe ich da kein Problem.
 
Von mir aus kann sich NVIDIA gerne komplett vom Grafikkartenmarkt verabschieden. Die Lücke werden andere Hersteller füllen. Normalerweise belebt Konkurrenz ja den Markt und der Kunde profitiert von besseren, bzw günstigeren Produkten. NVIDIA hat es geschafft den Spieß umzudrehen. Als Marktführer haben sie die Grafikkartenpreise in schwindelerregende Höhen getrieben und AMD bei dieser Preisgestaltung teilweise mitgezogen. Soll heißen, ohne NIVIDA wären auch die heutigen AMD Karten günstiger. Danach haben wir immer noch Intel und AMD und in wenigen Jahren andere Hersteller (zB aus China). Der „Grüne Spielverderber“ kann gehen. Ich bin kein Fanboy - habe selber alles NVIDIA GPUs in meinen Rechnern. Aber die aktuellste ist halt noch immer eine GTX 1080 und die wird wahrscheinlich aus die Letzte von NVIDIA sein.
Falsch! Dann kommt wer anders und diktiert die Preise. Wäre AMD Marktführer würden sie es genauso machen. Nennt sich Kapitalismus. Kommt mal weg von dem AMD ist der Gamer Freund. Die sind nicht Mutter Theresa.
 
Dass stingt. Gaming mit füßen treten und dann so horente preise von der Kundschaft ab verlangen. Was hat die PR und der CEO da geraucht.
Die Preise werden noch weiter steigen, wenn Nvidia das Angebot senkt. Und aus rein betriebswirtschaftlichen Gründen ist die Fokussierung auf die margestärkeren Märkte absolut nachvollziehbar. Warum soll ich mich mit 2.000€ für eine Grafikkarte zufrieden geben, wenn ich im KI-Bereich dafür 30.000€ bekommen kann.
 
Ich sehe ehrlich gesagt nicht wo Nvidia im AI Markt mit CUDA eine Monopolstellung haben sollte? Korrigiere mich wenn ich falsch liege, aber die Firmen ala Microsoft und Google geben doch die SW Schnittstelle vor die angesprochen werden muss und wie du das dann für deine Produkte umsetzt ist dein Bier.
Wenn das AMD und intel gut hinbekommen mit ihrer SW ihre Karten gut zu trainieren bzw. das umzusetzen sehe ich da kein Problem.
Du hast hier wie überall in der Softwarewelt mehrere Abstraktionsebenen.
Wenn du ein Programm schreibst, machst du das in einer Sprache wie Python oder C(++/#) und nicht direkt mit Prozessorinstruktionen in Assembly. Dafür ist der Compiler da.
Die meisten ML-Projekte sind auf Sprachen wie Python aufgebaut und nutzen Frameworks wie eben Tensorflow und Pytorch. CUDA ist hier mehr oder weniger der Compiler für die GPU Instruktionen.

Wenn du auch nur irgendwas ansatzweise Komplexes im Bereich ML zu tun hast, nutzt du dafür GPUs. Und CUDA ist durch langen Vorsprung de facto Standard. Tensor Flow ist sogar teilweise mit CUDA geschrieben. Hier hat AMD durchaus lange geschlafen und ist erst seit ein paar Jahren mit ROCm am Aufholen (2016 vs. 2007)

Allerdings ist eben Optimierung in dem Bereich das A und O. Heißt je weniger Ebenen und Blackbox ich habe, desto besser. Wenn ich meine eigene Software habe und meine eigene Hardware ansteuere, warum sollte ich dann einen Zwischenschritt über die Softwareschnittstelle eines Konkurrenten nutzen, wo ich nur begrenzt Einsicht und Kontrolle habe?
 
Du hast hier wie überall in der Softwarewelt mehrere Abstraktionsebenen.
Wenn du ein Programm schreibst, machst du das in einer Sprache wie Python oder C(++/#) und nicht direkt mit Prozessorinstruktionen in Assembly. Dafür ist der Compiler da.
Die meisten ML-Projekte sind auf Sprachen wie Python aufgebaut und nutzen Frameworks wie eben Tensorflow und Pytorch. CUDA ist hier mehr oder weniger der Compiler für die GPU Instruktionen.

Damit widersprichst du dir doch selbst, da die Projekte ja in Python geschrieben werden und Pytorch und co nutzen und CUDA die Schnittstelle zu der GPU ist bildlich gesprochen. Daher ist CUDA an der Stelle ja kein Sellingpoint, wenn die anderen Hersteller das mit ihrer SW auch gut hinkriegen. Genau das war mein Punkt ;-)
Zumal so Hersteller wie Microsoft und Google sich da ja nur ungerne abhängig machen.

Wenn du auch nur irgendwas ansatzweise Komplexes im Bereich ML zu tun hast, nutzt du dafür GPUs. Und CUDA ist durch langen Vorsprung de facto Standard. Tensor Flow ist sogar teilweise mit CUDA geschrieben. Hier hat AMD durchaus lange geschlafen und ist erst seit ein paar Jahren mit ROCm am Aufholen (2016 vs. 2007)

Mit FPGAs kann man da auch sehr viel machen!
Für mich ist es an der Stelle auch ein Rätsel, wieso man die SW Expertsie von Xilinx nicht mehr nutzt, aber vielleicht kommt diesbezüglich noch einiges in der Zukunft, wir werden sehen.
Ansonsten geb ich dir Recht mit ROCm muss AMD noch einiges aufholen, an Kapital fehlt es aktuell aufjedenfall nicht mehr, von daher wird es sehr spannend werden. Denn HW technisch ist AMD in einigen Teilbereichen Nvidia voraus, vor allem was die Integration von CPU und GPU betrifft.

Allerdings ist eben Optimierung in dem Bereich das A und O. Heißt je weniger Ebenen und Blackbox ich habe, desto besser. Wenn ich meine eigene Software habe und meine eigene Hardware ansteuere, warum sollte ich dann einen Zwischenschritt über die Softwareschnittstelle eines Konkurrenten nutzen, wo ich nur begrenzt Einsicht und Kontrolle habe?

Du hast doch oben geschrieben die Projekte werden in Python geschrieben und über Pytorch umgesetzt? Bezüglich Tensorflow hab ich letztens irgendwo gelesen, dass das schon outdatet wäre und kaum einer mehr benutzt?
 
Na klasse, war abzusehen. Bei den kommenden Generationen gibt es dann nur noch eine "Volks-Grafikkarte" aus der Resteverwertung "for the gamers":stick:
Halte ich für reichlich unwahrscheinlich, zumal das nur auf einem Gerücht basiert. Natürlich wird Nvidia primär die Sparte bedienen, mit der sie momentan am Meisten Geld verdienen, allerdings können sie es sich auch nicht leisten 1/3 des Umsatzes zu ignorieren.
Diese ganzen Marketinggimmicks wie DLLS, RT etc. die nvidia in der letzten Zeit so aggressiv vermarktet sind ja letztlich nur ein Versuch alten Wein in neuen Schläuchen zu unverschämten Mondpreisen zu verkaufen...
Inhaltlich halt falsch. DLSS, FG ,RT und letzteres Pathtracing sind in dem Sinne Neuerungen, da alte Hardware gar nicht in der Lage war das flüssig darzustellen.
Sie verkaufen tolle Technologie zu Marktpreisen, sparen beim Speicher dort wo AMD bei Features, Effizienz unterlegen ist.

Kann ich nichts verwerfliches erkennen. Aber man möchte sich halt aufregen.
Soll heißen, ohne NIVIDA wären auch die heutigen AMD Karten günstiger.
Ganz bestimmt. :crazy:
Der „Grüne Spielverderber“ kann gehen. Ich bin kein Fanboy - habe selber alles NVIDIA GPUs in meinen Rechnern.
Naja, du verstehst offenbar einfache Marktmechanismen nicht und glaubst an die Samariterhaftigkeit von AMD.
Solche alternativen Erklärungen tauchen vor allem in Nvidia Threads auf und leiern ihr alternatives Verständnis des GPU Marktes rauf und runter.

Du glaubst doch nicht allen ernstes AMD hätte ihre 24GB RX 7900XTX ohne Nvidia Konkurrenz für 999 Dollar vermarktet?=)
 
Zuletzt bearbeitet:
Damit widersprichst du dir doch selbst, da die Projekte ja in Python geschrieben werden und Pytorch und co nutzen und CUDA die Schnittstelle zu der GPU ist bildlich gesprochen. Daher ist CUDA an der Stelle ja kein Sellingpoint, wenn die anderen Hersteller das mit ihrer SW auch gut hinkriegen. Genau das war mein Punkt ;-)
Zumal so Hersteller wie Microsoft und Google sich da ja nur ungerne abhängig machen.
???
Wo widerspreche ich mir selbst?

ML Modelle benötigen idR einen Haufen Speicher und Computepower und laufen entsprechend gut auf GPUs.
Von wem gab es die letzten 15 Jahre GPUs? Nvidia und AMD.
Wie wollen die "anderen Hersteller" das auch "hinkriegen" wenn es bisher niemand anderen gab?
Nvidia hatte eben die Vorraussicht, sich in dem Segment zu etablieren und kam den Forschern mit eigenen APIs entgegen und sich dann teilweise schon in die Frameworks gesetzt.

Stell es dir eventuell so vor (stark runtergebrochen natürlich): die Unreal Engine ist pytorch, das Spiel ist ein entsprechendes Modell/Projekt, die CUDA-Unterstützung ist direkt eingebackene Drawcalls, RT, Optimierung...
Heißt ich muss als Entwickler nur die Library importieren und CUDA nimmt mir eine Tonne Arbeit ab.

Dass Microsoft, Google und Co. gerne aus dieser Abhängigkeit rauswollen, nun da sie ihre eigene Hardware anpeilen und Kohle riechen, darauf will ich ja hinaus.
Mit FPGAs kann man da auch sehr viel machen!
Auf FPGAs wird es langfristig auch rauslaufen. So wie GPUs ja entstanden sind, weil sie Grafik effizienter berechnen konnten als CPUs. Mittlerweile kannst du auf CPUs auch Crysis spielen. Allerdings schlägt ein 64 Kerne nicht einmal eine 3050/6500
Bisher hat es sich (großteils) eben nicht gerechnet, spezialisierte ML-FPGAs zu entwickeln. Da kauft man lieber 2-3 Karten mehr für den Cluster zu einem Bruchteil des Preises.
Du hast doch oben geschrieben die Projekte werden in Python geschrieben und über Pytorch umgesetzt? Bezüglich Tensorflow hab ich letztens irgendwo gelesen, dass das schon outdatet wäre und kaum einer mehr benutzt?
Das ist eher eine Glaubensgeschichte wie iOS vs. Android.

Was den Blackbox-Punkt angeht: Idealerweise hab ich so wenig Abstraktionsebenen wie möglich und so viel Kontrolle wie möglich. Heißt Google bspw. wird versuchen den eigenen Code direkt in Instruktionen umzuwandeln, während man sich derzeit nocht auf CUDA verlassen muss, in dass man weder Einblick noch Einfluss hat.
 
Zurück