Special Geforce versus KI: Lässt Nvidia die Spieler jetzt im Regen stehen? Ich glaube nicht! [Kommentar]

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce versus KI: Lässt Nvidia die Spieler jetzt im Regen stehen? Ich glaube nicht! [Kommentar]

Das vielfach diskutierte Duell "Geforce versus KI" ist fürs Erste ohnehin bereits entschieden, Nvidia priorisiert ganz klar die Enterprise-Sparte "Data Center" sowie insbesondere die daraus hervorgehenden KI-Beschleuniger. Aber auch wenn der Hersteller aus Santa Clara die weltweit nachgefragte H100-Serie und den GH200-Superchip ("Grace Hopper") bevorzugt behandelt, bedeutet das noch lange nicht das Ende der Geforce-Grafikkarten. Ganz im Gegenteil!

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce versus KI: Lässt Nvidia die Spieler jetzt im Regen stehen? Ich glaube nicht! [Kommentar]
 
Na ich hoffe du hast recht (ausser mit der UVP :ugly:).
Schliesslich will ich ja irgendwann mal Raytracint ausprobieren :sabber:

Ich bin gespannt was da KI Technisch noch auf uns zu kommt in sachen Game Developement.

Ein BG4 welches eine "Story" hat welche aber durch Echtzeit KI gesteuerte NPC's belebt wird und für jeden eine "einzigartige" Story bereit hält. I AM IN.
 
Ich verstehe das Drama um "Geforce vs. KI" generell nicht... NV hatte nie nen Grund Geforce abzusägen, im Gegenteil denke ich dass die Synergien bei der Entwicklung (am Ende ist es ja +- die gleiche Architektur, nur das bei den Consumer-Karten Features gestrichen wurden) auf lange Sicht sogar dazu führen werden dass NV ihren Vorsprung noch viel weiter ausbauen werden - sowohl bei den (Software-)Features (DLSS etc.) als auch bei der reinen Hardware-Leistung, wobei ich glaube dass sie sich da in Zukunft noch mehr auf RT und dergleichen konzentrieren während die reine Rasterleistung bestenfalls um 20-30% pro Generation steigt, wenn überhaupt.
Was das Upselling angeht: Nun, da müssen wir wohl mit leben solange die Konkurrenz zu den gleichen Preispunkten keine signifikant besseren Produkte liefert.
Ahja, und ich gehe schon jetzt davon aus dass es die 5090 erst ab 2500€ aufwärts bei Release gibt... und eine zukünftige 6090 so bei um die 3000€ liegen wird. Die Gründe sind ja bekannt.
 
Deine Prognosen was die UVP angeht bekräftigen mich eher eine RTX 4090 statt einer 4080 zu kaufen. Damit wäre länger mal Ruhe vor allem da ich nicht mehr so viel am PC zocken wie früher.
Dass die Preise steigen werden ist spätestens klar seit AMD fürndie nächste Generation die oberen Karten gestrichen hat. Ohne Konkurrenz kommt da auch nicht mehr besonders viel.
 
Mir ist bei aller Panikmache hinter so einer "Headline" nicht klar, warum ein Laden wie NVIDIA , wenn er sich dem Thema "KI" zuwendet, zugleich das äußerst profitable "Gamer-Geschäft" (Geforce) fallen oder zumindest zurückfahren sollte. Für mich gibts da keinen Zusammenhang, sollen sie sich auf KI stürzen, den rollenden Rubel um "Geforce" werden sie deswegen kaum abbremsen....
 
Ich verstehe das Drama um "Geforce vs. KI" generell nicht... NV hatte nie nen Grund Geforce abzusägen, im Gegenteil denke ich dass die Synergien bei der Entwicklung (am Ende ist es ja +- die gleiche Architektur, nur das bei den Consumer-Karten Features gestrichen wurden) auf lange Sicht sogar dazu führen werden dass NV ihren Vorsprung noch viel weiter ausbauen werden - sowohl bei den (Software-)Features (DLSS etc.) als auch bei der reinen Hardware-Leistung, wobei ich glaube dass sie sich da in Zukunft noch mehr auf RT und dergleichen konzentrieren während die reine Rasterleistung bestenfalls um 20-30% pro Generation steigt, wenn überhaupt.
Was das Upselling angeht: Nun, da müssen wir wohl mit leben solange die Konkurrenz zu den gleichen Preispunkten keine signifikant besseren Produkte liefert.
Ahja, und ich gehe schon jetzt davon aus dass es die 5090 erst ab 2500€ aufwärts bei Release gibt... und eine zukünftige 6090 so bei um die 3000€ liegen wird. Die Gründe sind ja bekannt.
Nvidia hat alle Gründe Geforce abzusägen, solange sie der gigantischen Nachfrage durch AI mit Profikarten nicht gerecht werden können ist jede verkaufte Geforce ein Umsatz- und Gewinnverlust, denn die Chipfläche hätte ja auch für nen H100 o.ä. benutzt werden können.
TSMC ist hier die wahre Limitierung, denn Nvidia ist nicht das einzige Unternehmen, was um die guten Nodes buhlt. "Zum Glück" ist der Markt schon seit Monaten eher schwach bei den Gaming-GPU's, sodass die bereits produzierten Lovelace (und Ampere) Karten noch Monate, wenn nicht Jahre reichen werden. AMD ist was Gaming angeht auch im Tiefschlaf und setzt (anscheinend) genauso alles auf eigene Fortschritte bei AI und über Intel kann man aktuell nur herzlich lachen.
Klar bleibt die Brand "Geforce" bestehen, aber zu welchem Preis und mit welchem Volumen ist die Frage.
 
Wenn sich zukünftig in der Mittelklasse weiterhin nichts bewegt, ferner die Oberklasse weiter preislich anzieht, sehe ich das erste Mal wirklich einen Grund zur Besorgnis, dass ein Ende des PC-Gamings mittelfristig abzusehen ist.

Welcher Erwachsene mit Verpflichtungen, also mit einem Zeitfenster von vielleicht 8 Std./Woche (was viel ist), legt denn solche Preise nur für eine GPU hin? Und die Kids hängen meist am Tropf der Eltern, die, Geldsystem sei Dank, mit Sicherheit mittlerweile in Summe ganz andere Sorgen haben, welche zukünftig nur mit einem großen Knall besser werden können.

Features setzen sich zudem nur dann durch, wenn die Masse auch davon profitiert. Als Beispiel kann die bis heute mangelnde Akzeptanz von RT gelten, das interessiert außer uns Forenfuzzis da draußen kaum jemanden, und Turing ist nun wie alt? Genau.
 
Welcher Erwachsene mit Verpflichtungen, also mit einem Zeitfenster von vielleicht 8 Std./Woche (was viel ist), legt denn solche Preise nur für eine GPU hin?
Na die, welche genug verdienen.
Oder welche nicht im Steuerloch Deutschland leben.
Ich verdien ca. 5.7 Brutto könnte mir aber jeden Monat ne GPU für 1k kaufen wenns mir das wert wäre.
Liegt daran, dass bei uns aus 5.7 Brutto ca. 5 Netto wird und nicht 3...
 
Mir ist bei aller Panikmache hinter so einer "Headline" nicht klar, warum ein Laden wie NVIDIA , wenn er sich dem Thema "KI" zuwendet, zugleich das äußerst profitable "Gamer-Geschäft" (Geforce) fallen oder zumindest zurückfahren sollte. Für mich gibts da keinen Zusammenhang, sollen sie sich auf KI stürzen, den rollenden Rubel um "Geforce" werden sie deswegen kaum abbremsen....

Weil das "Gamer-Geschäft" im Vergleich zum "Data-Center-Geschäft" extrem unprofitabel ist.
Eine 4090 geht für 1500 Euro über die Ladentheke.
Mit dem selben Die plus ein paar mehr Speicherbausteine kann man auch eine RTX 6000Workstation-Karte machen.
Eine RTX 6000 wechselt für 6500 Euro den Besitzer.
Oder man lässt anstelle eines AD102 einen H100 fertigen, denn man für mehr als 25.000 Euro (plus monatliche Lizenz-Gebühren) verkaufen kann.
Und ihnen werden zur Zeit alle diese Produkte aus den Händen gerissen.

Aus rein Betriebswirtschaftlicher Sicht wäre es also sogar logisch, das "Gamer-Geschäft" komplett abzusägen...

"Geforce" wird meiner Meinung von Nvidia nur weitergeführt, weil es eine starke Marke ist um die "junge Generation" auf Nvidia zu prägen, sie darüber den "Müll" loswerden und sie wissen, dass das Geschäft mit ihren KI-Beschleunigern nicht ewig so weitergehen wird.

Ich gehe auch mal davon aus, dass die 5090 eine UVP von rund 2500 Euro/Dollar haben wird.
Diejenigen, die mal locker 2000 Euro eine 4090 übrig haben, die stört auch 2500 Euro oder auch 3000 Euro nicht.
 
Aus rein Betriebswirtschaftlicher Sicht wäre es also sogar logisch, das "Gamer-Geschäft" komplett abzusägen...

"Geforce" wird meiner Meinung von Nvidia nur weitergeführt, weil es eine starke Marke ist um die "junge Generation" auf Nvidia zu prägen, sie darüber den "Müll" loswerden und sie wissen, dass das Geschäft mit ihren KI-Beschleunigern nicht ewig so weitergehen wird.
Naja nicht wirklich.
Du wirst Betriebswirtschaftlich nie ein Standbein absägen wo du Marktführer bist.
Du erhöhst so lange die Preise, bis die Konkurenz dich zwingt die Preise zu reduzieren oder bis die Leute nicht mehr kaufen. Danach hast du deinen Schwellwert erreicht.
Und es wird halt auf sparflamme produziert.
 
Nein NV wird schauen das den Gamern tolle gpu's gefertigt werden. Hab gelesen das man bei NV festgestellt hat das die Karten zu viel Vram habe. Aber der RTx5000 er will man alle Karten 5060ti/5070/5079ti/5080/5090 daher einheitlich mit 12gb Vram ausstatten. Außer die 5060, die bekommt 16Gb.
Soll laut NV wohl so locker ausreichen...
 
tja.
Habe nun ne RX 6800XT.
Mal schauen ob es bei dem geliehene Unterbau bleibt (Ryzen 5700G) oder ob ich mir was eigenes kaufen werde.
 
Warum sollten sie auch. Das Gaming Zeug fällt einfach mit hinten raus. Der Aktionär erwartet, das auch die kleinste mögliche Quelle für Renditen genutzt wird.
Nein NV wird schauen das den Gamern tolle gpu's gefertigt werden. Hab gelesen das man bei NV festgestellt hat das die Karten zu viel Vram habe. Aber der RTx5000 er will man alle Karten 5060ti/5070/5079ti/5080/5090 daher einheitlich mit 12gb Vram ausstatten. Außer die 5060, die bekommt 16Gb.
Soll laut NV wohl so locker ausreichen...

Ja was soll ich sagen. Ich programmiere dir auch ein Spiel, wo 24GB nicht reichen. Alles eine Frage der Optimierung des Entwicklers.
 
Möglicherweise ist ja "Geforce" auch einfach nur der anfallende Produktions-Ausschuss aus den höherwertigen Serien (Workstation, Datacenter,...) den sie halt immer noch mit Marge und ggf. als strategische Werbemaßname mitverkaufen, anstatt ihn zu verschrotten. Dann könnte man auch sagen, solange NV ihren "High-End"-Kram für Industriekunden baut, wird IMMER was für "Geforce" in Form des unvermeidlichen Ausschusses dabei abfallen....
 
Möglicherweise ist ja "Geforce" auch einfach nur der anfallende Produktions-Ausschuss aus den höherwertigen Serien (Workstation, Datacenter,...) den sie halt immer noch mit Marge und ggf. als strategische Werbemaßname mitverkaufen, anstatt ihn zu verschrotten. Dann könnte man auch sagen, solange NV ihren "High-End"-Kram für Industriekunden baut, wird IMMER was für "Geforce" in Form des unvermeidlichen Ausschusses dabei abfallen....

Ich vermute das ist schon bei der 4090 der Fall. Deshalb auch keine 4090ti. Ich kann damit leben. Nvidias "Abfall" ist halt immer noch um Welten besser als AMDs 7000er
 
Ich verdien ca. 5.7 Brutto könnte mir aber jeden Monat ne GPU für 1k kaufen wenns mir das wert wäre.
Liegt daran, dass bei uns aus 5.7 Brutto ca. 5 Netto wird und nicht 3...

Du scheinst vielleicht auf die ein oder andere Art clever zu sein, sonderlich klug vermutlich allerdings nicht, denn dein Gehalt hat mit der Realität der Masse von der ich sprach absolut nichts zu tun.

Und ob Du dein Gehalt tatsächlich auch verdienst, steht auch noch auf einem anderen Blatt, das kann ich allerdings nicht beurteilen.
 
Na die, welche genug verdienen.
Oder welche nicht im Steuerloch Deutschland leben.
Ich verdien ca. 5.7 Brutto könnte mir aber jeden Monat ne GPU für 1k kaufen wenns mir das wert wäre.
Liegt daran, dass bei uns aus 5.7 Brutto ca. 5 Netto wird und nicht 3...
In welchem Land lebst du?
 
Wie stehen Sie zu diesem Thema?

Das die Enterprise-Sparte aktuell bevorzugt behandelt wird, liegt auf der Hand. Dennoch gibt es keinen Grund für Nvidia, sich künftig dem Geforce Brand zu entledigen. Die weiterhin profitable Marke kann dazu genutzt werden, KI-Fortschritte für Consumer spielerisch erfahrbar zu machen, das Mid-Term-Planning inkl. Margen-Mix und Streuung des Produktportfolios sollte es hier verbieten, eine über Jahre erfolgreiche Marke einzustellen und das Risiko der fehlenden Diversifikation bei zunehmender Sättigung einzugehen.

Technisch wird aufgrund der bemerkenswerten Performancegewinne durch DLSS & Co. die Steigerung der reinen Rasterisierungsleistung immer mehr zu einem modularen Baustein der Bilderzeugung und bei den Mitbewerbern AMD und Intel sicherlich auch stärker in den Fokus rücken (müssen). Diese Entwicklung wird sich bei neuen Feature-Sets sicherlich auch weiterhin leider auf den Preis nach oben auswirken.
 
Ich verstehe das Drama um "Geforce vs. KI" generell nicht... NV hatte nie nen Grund Geforce abzusägen, im Gegenteil denke ich dass die Synergien bei der Entwicklung (am Ende ist es ja +- die gleiche Architektur, nur das bei den Consumer-Karten Features gestrichen wurden) auf lange Sicht sogar dazu führen werden dass NV ihren Vorsprung noch viel weiter ausbauen werden - sowohl bei den (Software-)Features (DLSS etc.) als auch bei der reinen Hardware-Leistung, - wobei ich glaube dass sie sich da in Zukunft noch mehr auf RT und dergleichen konzentrieren während die reine Rasterleistung bestenfalls um 20-30% pro Generation steigt, wenn überhaupt - .
Was das Upselling angeht: Nun, da müssen wir wohl mit leben solange die Konkurrenz zu den gleichen Preispunkten keine signifikant besseren Produkte liefert.
Ahja, und ich gehe schon jetzt davon aus dass es die 5090 erst ab 2500€ aufwärts bei Release gibt... und eine zukünftige 6090 so bei um die 3000€ liegen wird. Die Gründe sind ja bekannt.
Wenn die softwarehersteller irgendwann auf den RT Zug vollends aufgesprungen sein werden, wird man das Mehr an Rasterleistung eigentlich auch nicht mehr brauchen denke ich.
Man braucht es eigentlich in Zukunft nur noch als Fallback für alte Spiele, wenn es nicht auch dort irgendwann eine Schnittstelle geben wird, die
das umrechnet - soweit es geht und vernünftig ist.

Das es rein theoretisch schon heute geht, sieht man ja an verschiedenen Portierungen alter Games. Das müsste dann halt noch weiter ausgebaut werden......

Das ist, soweit ich es verstanden habe das Ziel von NVIDIA, es soll der ganze Bildinhalt in nativem RT berechnet und ausgegeben werden.
Dauert halt noch einige Zeit, und wird nicht leichter dadurch, dass - sobald eine GPU mal leistungsfähig genug wäre für z.B. 4 k mit Pathtracing o.ä. die Monitorhersteller mit 8 k "um die Ecke" kommen. Wie es aktuell einen Test gab diese Woche.

Das wird dann natürlich nicht sinnvoll mit RT zu nutzen sein. Das witzige ist, die meisten sehen den Unterschied wohl nicht mal - aber eben haben wollen..........Während wir bei der Physikalischen Machbarkeit von DIE Verkleinerungen so langsam an Linitierungen kommen.
Ultraviolette Belichtung ist der "letzte Schrei", und wenn man bei 2 nm und darunter angekommen ist, wohin wollen wir noch viel weiter verkleinern?
Kommen wir dann in den Atombereich? Danach Atomkerne? Und wohin dann?

Wieviele Leistungssprünge sind innerhalb der physikalischen Möglichkeiten überhaupt noch denkbar?

Vor allem, weil sich die Hersteller und Kunden ja auch nicht mit 1 nm Schritten begnügen, es gab mal 56 nm, dann gabs iwas mit 30 nm, 20 .......und heute sind wir bei den am weitesten entwickelten Chips im einstelligen Bereich.......Und genau da setzt meine Frage oben an, wohin kann es überhaupt noch gehen? Wo ist die Grenze?

Hat hier einer, der was von der Materie versteht mir mal eine Antwort?
 
Du scheinst vielleicht auf die ein oder andere Art clever zu sein, sonderlich klug vermutlich allerdings nicht, denn dein Gehalt hat mit der Realität der Masse von der ich sprach absolut nichts zu tun.

Und ob Du dein Gehalt tatsächlich auch verdienst, steht auch noch auf einem anderen Blatt, das kann ich allerdings nicht beurteilen.

Die Arbeitgeber Zahlen für ihre Arbeitnehmer eigentlich gute Löhne. Wenn du sagen wir 2500 Netto verdienst, kostets du deinen Arbeitgeber etwa 7000€. Der Staat lässt die arbeiten Bevölkerung einfach ausbluten und verarmen für seine verblendeten Ideologien.
 
Zurück