News Neue Geforce-GPUs: "Ada-Lovelace-Next" erst 2025?

... und btw., 3 nm bei TSMC sind nicht spät dran
War net die Produktion für Apple schon etwas zu spät um in den Produktzyklus zu passen?
(logischerweise kommen die Anderen immer erst nach A dran)

Und was bedeutet der neue AI-Hype für den Rest?
Blockieren dann die Aufträge für die AI-Farmen die Waferkontingente, quasi Mining reloaded.
Wg. der höheren Marge ist AI dann interessanter und die normalen Produkte bleiben auf der Strecke bzw.
es gibt kaum Hoffnung auf normale Preise.(vllt. sollte man sich dann doch mit den reduzierten Abverkaufsmodellen
eindecken und das Ganze aussitzen, ... geht natürlich nur, wenn man ein Modell mit genügend Vram wählt, z.Bsp.
wäre vllt. aktuell ne 6700xt sinnvoller als ne 4060, weil deren Nachfolger noch ewig braucht)
 
Zuletzt bearbeitet:
Ich mag das Drama in der Gaming-Hardware-Szene langsamer mehr als dir Hardware selbst. So wie manche Zuseher:Innen sich bei Selling Sunset ja nicht wirklich für die Maklerarbeit und die Immobilien interessieren, sondern die Ladies im mentalen Cage fight beobachten wollen. So abgestumpft bin ich mittlerweile durch die releases seit der RX580 bzw RTX2000 Serie.
 
Nvidias Lager ist prall gefüllt, da sich die stark beschnittenen Karten zu Fantasiepreisen eben nicht an informierte Gamer*innen verkaufen lassen.
Stimmt, die Nvidia-Karten liegen quasi wie Steine im Regal, völlig unverkäuflich. Vor allem beim Miningboom vor 2 Jahren hat man gesehen, dass sich Grafikkarten zu überhöhten Preisen absolut nicht verkaufen :klatsch:
Ungewöhnlicher Name für eine GPU, aber der Name Ada selbst erinnert mich an Resident Evil 4.;)
Naja, warten wir mal auf 2025, dann sehen wir was uns erwartet.
Findest du die Namen Fermi, Kepler und Turing ebenfalls "ungewöhnlich" oder fällt dir da eventuell ein Muster auf, welches seit der GeForce 2xx-Serie besteht? :)
 
Zuletzt bearbeitet:
Also ist es möglich, dass die Abstände zwischen den neuen Generationen grundsätzlich größer werden? Wir hatten über das letzte Jahrzehnt alle ~2 Jahre einen größeren Sprung, jetzt bewegt man sich auf einen 3-Jahre Zyklus hin?
 
Dank DLSS/FSR und Freesync/G Sync auch wenig relevant.

Interessante Spiele sehe ich persönlich auch nicht am Horizont.
 
Die Zeitspanne ist doch okay, dann hat AMD auch mal Zeit aus dem Hinterzimmer zu kommen.
Für einen RDNA 3 Nachfolger ist ja 23/24 angesetzt.
Man würde endlich eine Generation aufholen und kann dann auch bei Raytracing konkurrenzfähiger sein.

Ich finds gut das Nvidia da erst 2025 mit ner neuen Generation kommt.
 
Gestern die 4090 bestellt, so "günstig" wie die inzwischen sind. Fast 400€ weniger als in der Release Woche. Da finde ich es gut, dass ich die Speerspitze der Grafikkarten noch mindestens 2 Jahre in der Oberliga mitspielen kann.

Von mir aus kann die nächste Generation auch noch 3 Jahre warten. Ich wechsel von einer 3080 10GB auf eine 4090, das sind ja schon ohne DLSS3 100% Mehr Leistung. Noch die passende Curve im Afterburner dazu, spart mir die Karte noch Strom und Lärm.
 
Ich nutze noch eine 3070 und bis 2025 werde ich definitiv nicht mehr warten. Die nächste GPU wird dann wohl eine AMD oder Intel werden.
 
Tja wird Garantiert entsprechend den "Klassen" wieder ne ecke Teurer!

Mir ist es in den Letzen Jahren einfach vergangen die Kohle für so extrem kurzlebeige Dinge, ohne weiteren Nutzen außer Spielen rauszuhauen.
Seit Jahren ist auch irgendwie Kaum ein Spiel dabei was mich interessiert und auf PC verfügbar, wo ich sage jetzt rüste ich Auf, trotz der neuen Kunstvollen PreisGestaltung
 
Das dürfte in etwa des Pudels Kern sein und btw., 3 nm bei TSMC sind nicht spät dran und kämpfen bspw. auch mit keinem schlechten Yield. Der N3(B) wurde noch Ende 2022 in die Massenfertigung überführt, ist jedoch noch verhältnismäßig teuer und zudem ist bekannt, dass Apple den Großteil der Kontingente gebucht hat, d. h. man wird hier mit dem Premium-Kunden Apple in 2024 konkurrieren müssen, was man sicherlich vermeiden will. TSMC selbst erklärt, dass erster, echter Revenue aus 3 nm überhaupt erst ab 3Q23 zu erwarten ist, aber nur einen vergleichsweise kleinen Teil ausmachen wird, da die meisten Kunden auf den erst Ende 2023 kommenden N3E setzen werden, der etwas gelockerte Design Rules (und weniger EUV) und damit einhergehend etwas niedrigere Kosten mitbringen wird. Zudem ist ebenso bekannt, dass auch Intel 3 nm-Kapazitäten gebucht hat, d. h. es wird alleine schon kapazitätstechnisch eng für nVidia und das drückt auch auf die Kosten, während gleichzeitig TSMC das Wafer-Volumen erst schrittweise ausbaut.
Da man hier derzeit keine echte Konkurrenz durch AMD mit RDNA3 hat (deren GPUs werden trotz der grundsätzlich guten Leistungswerte nicht umsonst immer billiger) scheint man zu denken etwas mehr Zeit zu haben, wenn diese Slide also wirklich zutreffen sollte, mehr Zeit um die teuere Erstnutzung der 3 nm Apple und einige anderne ausgewählten, volumentechnisch weitaus kleineren Kunden zu überlassen und damit die Kosten zu optimieren. In 2025 könnte man dann gleich den Sprung auf 3 nm gehen, was ihnen auch mehr Spielraum beim Leistungszugewinn pro Gen bieten würde, denn nur ein Wechsel auf einen der N4-Prozesse und der nachgesagte, umfangreiche Architekturumbau würden die Möglichkeiten dann doch deutlich beschränken. Mit einem Full-Node-Sprung auf 3 nm hätte man dann weitaus mehr Spielraum und könnte sich auch die Konkurrenz vom Hals halten, selbst wenn man bspw. ein halbes Jahr später veröffentlichen würde, da AMD, wenn sie RDNA4 in 2024 (2HJ24) veröffentlichen werden, gesichert nur einen 4 nm-Node, also eine verbesserte 5 nm-Iteration verwenden werden und zudem absehbar wesentliche Teilbereich auch wieder in älteren Nodes gefertigt werden.

Zudem, wie schon nachzulesen war, hat hier nVidia bspw. derzeit noch relativ viel Absatzspielraum, einerseits durch Umleitung in professionellen Produkte und auch im Consumer-Portfolio selbst ist noch Platz, so bspw. für eine RTX 4090 Ti oder eine 4080 Ti mit 20 GB im HighEnd, während AMD hier keinen nennenswerten Spielraum hat und schlicht nur die GPUs für einen immer günstigeren Preis anbieten kann um etwas absetzen zu können.
(AMD wird sich wohl kaum die Arbeit machen noch zu versuchen den Hardware-Bug in Navi31 auszubügeln, weil das bei deren geringen Absatzzahlen zu kostspielig wäre, d. h. da ist voraussichtlich kein neues Design mehr im HighEnd zu erwarten, zumal das auch grundsätzlich keine großen Leistungssprünge machen könnte.)

*) Zu einer anderen Frage: Von Blackwell ist hier voraussichtlich nicht die Rede, weil Blackwell mit hoher Wahrscheinlichkeit der 2024er-H100-Nachfolger ist, also Hopper-NextGen. Hier könnte nVidia durchaus in die Vollen gehen, da das Produktionsvolumen kleiner ist und derartige Produkte für teilweise bis zu 30.000 US$ pro SKU verkauft werden, d. h. hier wäre eine frühzeitige Verwendung von bspw. 3 nm eher möglich.

**) Zudem könnte man mit Blick auf 2025 auch einwerfen, dass es vor etlichen Wochen schon mal ein Gerücht gab, dass nVidia nicht vor 2025 3 nm nutzen wird. Auch das würde noch einmal zu diesem möglichen "Verschiebnungsplan" passen (wenn man bei dieser Aussage davon ausgeht, dass diese sich bspw. explizit auf Consumer-Produkte bezog, denn für Blackwell halte ich 3 nm zwar nicht für gesichert aber zumindest deutlich wahrscheinlicher ... wobei aber immer noch die Frage offen ist, wie viel an Kapazitäten überhautp seitens TSMC bereitstünde; vielleicht ist die Verfügbarkeit ja derart begrenzt und die damit verbundenen Kosten in 2024 derart hoch, dass auch Hopper-NextGen noch ein N4-Derivat nutzen wird?).
Huang sprach kürzlich noch explizit davon, dass die NextGens bei TSMC gefertigt werden, d. h. 2024/25er Produkte wird man wohl vorerst eher nicht bei/von Samsung gefertigt sehen, obwohl die prozesstechnisch wieder aufzuholen scheinen.

***) Im Vergleich zum N5 gibt TSMC Daten der folgenden Art für den N3E aus: Speed +18 %, Power Reduction 32 %, Logic Density 1,6x bzw. Chip Density 1,3x.
Im 2HJ24 soll zudem der N3P in die Fertigung überführt werden, der jedoch für etwaige nVidia-Produkte im 1HJ25 eher unwahrscheinlich/zu spät sein dürfte, d. h. wenn, dann sollte es der N3E oder wieder eine semi-custom Adaption davon für nVidia werden.
Da gibt es auch andere Aussagen:





 
War net die Produktion für Apple schon etwas zu spät um in den Produktzyklus zu passen?
(logischerweise kommen die Anderen immer erst nach A dran)

Und was bedeutet der neue AI-Hype für den Rest?
Blockieren dann die Aufträge für die AI-Farmen die Waferkontingente, quasi Mining reloaded.
Wg. der höheren Marge ist AI dann interessanter und die normalen Produkte bleiben auf der Strecke bzw.
es gibt kaum Hoffnung auf normale Preise.(vllt. sollte man sich dann doch mit den reduzierten Abverkaufsmodellen
eindecken und das Ganze aussitzen, ... geht natürlich nur, wenn man ein Modell mit genügend Vram wählt, z.Bsp.
wäre vllt. aktuell ne 6700xt sinnvoller als ne 4060, weil deren Nachfolger noch ewig braucht)
nVidia's NextGen wäre gem. regulärem Zyklus per se frühestens für 3Q24 vorgesehen gewesen, d. h. die Massenfertigung wäre erst in 2Q24 angelaufen.
Zudem könnte man aus Kostengründen auch hier grundlegend die Anvisierung des günstigeren N3E vermuten. Beispielsweise den erklärte TSMC im April 2022 für in die Massenfertigung überführt in 2Q23 (also typischerweise zum Quartalsende ;-), also um die Jahresmitte herum). Gemäß aktueller Aussage von TSMC (April 2023 auf ihrem Symposium) wird der N3E nun im 2HJ23 in die Massenfertigung überführt, ist man hier also konservativ, dann in 4Q23.
Btw, der N3(B) wurde von TSMC noch in 4Q22, voraussichtlich zum Jahresende hin in die Massenfertigung überführt.

Apple, wie schon erklärt, ist hier natürlich ein großer Faktor. Wenn/da die ihre Fertigung geschoben haben, dürften die als privilegierter TSMC-Kunde hier mit einem gewissen Vorrecht und Rabatten rechnen, d. h. das könnte einer Firma vie nVidia, die bei voller Umstellung auf 3 nm auch recht viele Kapazitäten benötigt, zu Problemen führen, zumal man sich hier zweifellos nicht auf einen Preiskampf einlassen will, weil der aufgrund von Apples Sonderstellung sehr teuer werden würde. Entsprechend würde ich vermuten, dass Kapazitäten zu einem wirtschaftlichen Preis ein wesentlicher Faktor für nVidia's Verschiebung sind (natürlich immer vorausgesetzt, dass diese nun auch so tatsächlich stattfinden wird). **)

Zu deiner unteren Frage, schwierig, da es hier zwar viele lose Informationsschnipsel zu gibt, aber von niemandem was wirklich belastbares. Was man aber bspw. direkt aus nVidia's Aussagen ableiten kann: Ja, der AI-Boom in Verbindung mit AMDs mangelnder Konkurrenzfähigkeit belastet Gamer auf jeden Fall, denn nVidia selbst erklärte, dass sie Kontingente ihrer großen Chips (AD102, AD103, ...) in Teilen verstärkt zu den professionellen Produkten umleiten, da sie den Bedarf dort nicht gedeckt bekommen. Das bedeutet auch, dass sie auf der anderen Seite wenig Grund haben, hier dem Consumer-Markt mit attraktiveren Preisen entgegen zu kommen (oder bspw. mit mehr Speicher, ist am Ende aber alles das gleiche, weil mehr Speicher = mehr Wafer-Flache & mehr GDDR = mehr Kosten = weniger Marge).
Man darf wirklich hoffen, dass AMD nun mit RDNA4 mal wirklich den lange erwarteten Hammer rausholt *), denn solange nVidia den PC-GPU-Markt uneingeschränkt dominiert, haben die da relativ freie Hand.


*) Und vielleicht auch, dass Xe/ARC Battlemage auch ein ordentlicher Schritt Vorwärts wird ggü. Alchemist. Letzten Endes dampft es sich hier auf das abgedroschene Sprichwort "Konkurrenz belebt das Geschäft" ein und nVidia kann sich dann überlegen ob sie a) entweder der von MLiD kolportieren Aussage folgen werden und ihr Geschäftsfeld eher in das AI-Segment verlagern oder b) dann tatsächlich mit konkurrenzfähigen, P/L-technisch gut platzierten Produkten um die Gunst der Gamer werben ...

**) Dagegen bei Hopper sind sie in Zugzwag und müssen in 2024 aktualisieren, da der AI-Boom nicht auf sie warten wird und irgendwann (nächstes Jahr, in zwei oder drei Jahren?) auch absehbar abflauen wird, d. h. man wird versuchen von diesem großen Kuchen so viel wie nur möglich mitzunehmen und sich entsprechend zu etablieren.
Btw, AMD spielt hier in diesem Jahr noch keine nennenswerte Rolle, da die neuen 300er-Instinct's faktisch erst im nächsten Jahr ausgeliefert werden, d. h. hier wird man sich dann schon absehbar mit nVidia's Hopper-Next messen müssen, aber AMD ist ja nicht die einzige Firma, die hier was vom Kuchen abhaben will. Hier gibt es auch diverse Hersteller, die teilweise mit speziellen, hochoptimierten ML-Beschleunigern um die Gunst der Kunden buhlen.


Abschließende Anmerkung: Die Begründung hier erschließt sich mir nicht:
"Bsp. wäre vllt. aktuell ne 6700xt sinnvoller als ne 4060, weil deren Nachfolger noch ewig braucht"
Die AMD-Karte erscheint grundsätzlich sinnvoller, sofern man nicht zwingend nVidia-spezifisches Feature-Set im Auge hat oder auf Raytracing fokussiert ist (wobei selbst im regulären Raytracing ist der Vorsprung eher klein, weil nVidia die 4060er ordentlich zurechtgeschrumpft hat, absehbar weil AMD dem ebenso nichts Besseres entgegenstellt, da die RX 7600 ein ebensolcher "Krüppel" ist ;-)).
Die alte AMD-Karte hat 12 GB VRAM und kostet nur wenig mehr und bietet typischerweise etwas mehr Rasterizerleistung, also sind die wenigen paar Euro, die man draufzahlt, gut investiert. Da hat es bei der Bewertung nichts damit zu tun, wann ein etwaiger Nachfolger kommen mag, zumal es ja keine rabattierte Upgrademöglichkeit gibt, weder bei dem einen noch dem anderen Hersteller. ;-)
 
Zurück