News Geforce RTX 5000: Gerüchte zum Release - Nvidia will AMDs RDNA4 abwarten

In den damaligen PCGH-Tests der 2070 und der 3070, die ich gerade noch einmal gegoogelt habe, schlägt weder eine 2070 eine 1080Ti noch eine 3070 eine 2080Ti.
Ich hab´s genau anders in Erinnerung :nicken:
Gab auch mal einen Artikel darüber, dass die 70´er Karten das jeweilige Top Modell der Vorgeneration schlägt.
Eben bis auf die 4000´er ...

 

Anhänge

  • 1080Ti vs 2070 S.jpg
    1080Ti vs 2070 S.jpg
    470,1 KB · Aufrufe: 27
  • 3070 vs 2080Ti.jpg
    3070 vs 2080Ti.jpg
    511,1 KB · Aufrufe: 27
So bremst also Amd die GPU Entwicklung von Nvidia aus . :D

Amd ,s RDNA4 wird Nvidia das fürchten lehren .:lol::lol:
@raPid-81
Ist das einer von diesen "Team Red" Postings, die immer nur gegen grün stänkern wollen und die es umgekehrt kaum gibt???
Ist das eines dieser ganz, ganz typischen Beispiele?

@topic
Ich fänds schade, wenn Nvidia wartet. Die sollen raushauen was sie haben, denn ich habe keine Lust zwei Jahre lang die gleichen Karten im Rechner zu verbauen. Ja, ich kann die 4080 noch durch eine 4090 ersetzen, soviel Luft hab ich mir gelassen, aber spannend ist das nicht. Immer her damit, wenn sie wirklich was haben.
 
RTX40 ist im letzten Quartal 22 erschienen, wenn alles normal zugeht, dann ist RTX50 für Weihnachtsgeschäft 24 fällig. Die Kapazitäten bei TSMC sind schon mindestens 12 Monate gebucht und die kann man nicht mal eben verschieben. Zumindest Nvidia kann das nicht, wenn TSMC sich verzögert mit dem Bereitstellen der Nvidia Kapazität, dann sieht das anders aus.

An der KI Front setzt Nvidia weiter voll auf Marketing, wobei Nvidia Karten nicht mehr die billigste KI Lösung sind. Intel und AMD sind gerade dabei ihre BIOS umzukrempeln, damit den KI Kernen in den kommenden Modellserien möglichst viel RAM zur Verfügung steht. Bereits jetzt kann man aus einer 100€ AMD CPU beachtliche KI Leistung herausholen, mit der man sich Nvidias 16Gb Karten eigentlich schenken kann, weil man Kosteneffizienter ist. Gerade nach der 4080 und 4060-16GB gab es eine nicht unwesentliche Nachfrage aus China wegen KI. Die 4090 ist nur die Spitze des Eisbergs. Man könnte sogar sagen, die 4080 und 4060 ist in der Nachfrage eingebrochen eben wegen der AMD APU mit 16GB Methode, während die 4090 mit 24GB RAM hier noch einen Vorteil hat und deswegen sehen wir gerade hier die hohe Nachfrage. Zumindest bis AMD und Intel den KI Kernen ihrer neuen CPUs Zugriff auf 32GB+ geben. Spöttisch gehe ich davon aus, dass die extrem teuren Mainboards der Zukunft sich nicht dadurch auszeichnen, dass man 100MHz übertakten kann, sondern dass es "KI Boards" sind bei denen man der APU 128GB RAM zuweisen kann und damit größere KI Modelle fahren kann. Vor allem Strix Halo könnte daher so schnell im KI Bereich verschwinden wie eine 3080 bei Minern vor ein paar Jahren.

Es ist dieses zweite Szenatio und die damit zu erwartenden Rückgänge im Nvidia KI Bereich, die Nvidia wohl nachdenken lassen wie und für wen RTX50 gedacht ist.
 
RTX40 ist im letzten Quartal 22 erschienen, wenn alles normal zugeht, dann ist RTX50 für Weihnachtsgeschäft 24 fällig. Die Kapazitäten bei TSMC sind schon mindestens 12 Monate gebucht und die kann man nicht mal eben verschieben. Zumindest Nvidia kann das nicht, wenn TSMC sich verzögert mit dem Bereitstellen der Nvidia Kapazität, dann sieht das anders aus.

An der KI Front setzt Nvidia weiter voll auf Marketing, wobei Nvidia Karten nicht mehr die billigste KI Lösung sind. Intel und AMD sind gerade dabei ihre BIOS umzukrempeln, damit den KI Kernen in den kommenden Modellserien möglichst viel RAM zur Verfügung steht. Bereits jetzt kann man aus einer 100€ AMD CPU beachtliche KI Leistung herausholen, mit der man sich Nvidias 16Gb Karten eigentlich schenken kann, weil man Kosteneffizienter ist. Gerade nach der 4080 und 4060-16GB gab es eine nicht unwesentliche Nachfrage aus China wegen KI. Die 4090 ist nur die Spitze des Eisbergs. Man könnte sogar sagen, die 4080 und 4060 ist in der Nachfrage eingebrochen eben wegen der AMD APU mit 16GB Methode, während die 4090 mit 24GB RAM hier noch einen Vorteil hat und deswegen sehen wir gerade hier die hohe Nachfrage. Zumindest bis AMD und Intel den KI Kernen ihrer neuen CPUs Zugriff auf 32GB+ geben. Spöttisch gehe ich davon aus, dass die extrem teuren Mainboards der Zukunft sich nicht dadurch auszeichnen, dass man 100MHz übertakten kann, sondern dass es "KI Boards" sind bei denen man der APU 128GB RAM zuweisen kann und damit größere KI Modelle fahren kann. Vor allem Strix Halo könnte daher so schnell im KI Bereich verschwinden wie eine 3080 bei Minern vor ein paar Jahren.

Es ist dieses zweite Szenatio und die damit zu erwartenden Rückgänge im Nvidia KI Bereich, die Nvidia wohl nachdenken lassen wie und für wen RTX50 gedacht ist.

Als ob es nur auf den RAM ankommt. Das ganze Ökosystem zählt, also wie viele parallele KI-Einheiten stehen zur Verfügung, wie schnell sind die Interconnects (NVLink anyone?), wie gut und kompatibel ist die Software? Da hat Nvidia schon noch einen Vorsprung, nicht umsonst möchte Pat Gelsinger gerne CUDA loswerden. Aber dafür müssen sie (Intel und AMD) erstmal ihren Software-Stack auf Augenhöhe bringen, und das passiert nicht mal eben so innerhalb weniger Monate/Jahre wenn die Konkurrenz nicht schläft.
@raPid-81
Ist das einer von diesen "Team Red" Postings, die immer nur gegen grün stänkern wollen und die es umgekehrt kaum gibt???
Ist das eines dieser ganz, ganz typischen Beispiele?

Völlig aus dem Zusammenhang reißen kannst Du, merke ich. Ich sagte dass es mich nervt dass IN JEDEM THREAD von Intel, AMD oder Nvidia innerhalb der ersten 3 Posts ein Anti-Nvidia Post steht. Und dann kommst Du mit diesem Post von Seite 9? Wenn vorher schon unzählige NV-Hate-Train-Posts stehen? Come on, kannst Du das nicht besser?
 
Als ob es nur auf den RAM ankommt. Das ganze Ökosystem zählt, also wie viele parallele KI-Einheiten stehen zur Verfügung, wie schnell sind die Interconnects (NVLink anyone?), wie gut und kompatibel ist die Software? Da hat Nvidia schon noch einen Vorsprung, nicht umsonst möchte Pat Gelsinger gerne CUDA loswerden. Aber dafür müssen sie (Intel und AMD) erstmal ihren Software-Stack auf Augenhöhe bringen, und das passiert nicht mal eben so innerhalb weniger Monate/Jahre wenn die Konkurrenz nicht schläft.
Ein 4600G mit 16Gb RAM Zuweisung im Bios schlägt eine 4070 12GB in Stable Diffusion. Das deckt sich mit Beobachtungen des Wafer Chips von Cerebras, der "nur" das hundertfache an Rechenkernen einer A100 hat, jedoch das tausendfache an Speicher und der letztlich bei der 45000-fachen Bandbreite im Neuronalen Netz landet das ausgeführt wird. Samsung will das "Problem" mit "in-Memory-Computing" angehen und das soll Datacenter KI Leistung und Datenbanken beschleunigen.

Ein Nvidia für KI Applikationen wird in ein paar Jahren komplett anders und fundemental inkompatibel zu Videospielen sein. Auch die Karten unter 1000€ die Nvidia hier machen wird. Diese jetzige Zeit in der eine RTX 4090 zufällig genau das ist was am besten geht, wird sehr schnell mit hochspezialisierten Chips abgelöst werden.
 
Zurück