News Von Geforce RTX 5000 (Blackwell) erhoffe ich mir ... - Das sagt das PCGH-Team dazu

alte Schätzung.JPG

Die RTX 5070 wird nicht soooviel größer als ne 4070, insofern sind 18GB-DDR7@192bit kein Problem.

sorry, ... gerX7a schreibt nach m.E. gerne viel, sagt nichts Substanzielles und raubt den Lesern die Zeit+Geduld
--> braucht man nicht beachten

Wie man auf die Idee kommt, das RDNA5 aus 2 GCD´s bestehen könnte?
Da habe ich noch Nix von gehört. Also kein Problem Ende 2025 auf den Markt zu kommen,
wenn der Preis für 3nm von TSMC passt.
(mit 3nm gibts keine Notwendigkeit 400mm² auf 2 GCD´s aufzuteilen, ... >400mm² wird AMD keine Gamerchips bauen, weil >1k$)
 
Zuletzt bearbeitet:
Wie man auf die Idee kommt, das RDNA5 aus 2 GCD´s bestehen könnte?
Da habe ich noch Nix von gehört. Also kein Problem Ende 2025 auf den Markt zu kommen,
wenn der Preis für 3nm von TSMC passt.
(mit 3nm gibts keine Notwendigkeit 400mm² auf 2 GCD´s aufzuteilen, ... >400mm² wird AMD keine Gamerchips bauen, weil >1k$)

Da gab es einige Gerüchte zu. Hier ein Beispiel:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Und laut Gerüchten sollte RDNA4 auch bereits mit 2x GCD an den Start gehen.
 
Anhang anzeigen 1456133
[[1]] Die RTX 5070 wird nicht soooviel größer als ne 4070, insofern sind 18GB-DDR7@192bit kein Problem.

sorry, ... gerX7a schreibt nach m.E. gerne viel, sagt nichts Substanzielles und raubt den Lesern die Zeit+Geduld
--> braucht man nicht beachten

[[2]] Wie man auf die Idee kommt, das RDNA5 aus 2 GCD´s bestehen könnte?
[[3]] Da habe ich noch Nix von gehört. Also kein Problem Ende 2025 auf den Markt zu kommen,
wenn der Preis für 3nm von TSMC passt.
(mit 3nm gibts keine Notwendigkeit 400mm² auf 2 GCD´s aufzuteilen, ... >400mm² wird AMD keine Gamerchips bauen, weil >1k$)
Also wenn du schon trotz der vielen Worte meinen Überlegungen nicht folgen kannst (man beachte "folgen" nicht mit "zustimmen" zu verwechseln), dann ist bei dir wohl eher Hopfen und Malz verloren und vielleicht sollte man eher deine Postings nicht beachten?

[[1]] Welche Art Problem du hier zu implizieren bzw. negieren zu versuchst, müsstest du erst mal bestimmen, denn ansonsten verschwende ich wieder nur meine Zeit mit dir.
Und deine Ergänzung "18GB-DDR7@192bit" deutet eher darauf hin, dass du nicht im entferntesten verstanden hast was ich geschrieben habe. Es ging bei mir an keiner Stelle um die technische (Un)Möglichkeit von 18 GB GDDR7 via 24 Gb-BGAs an einem 192 Bit SI. Reicht deine Aufmerksamkeitsspanne etwa nicht über einen Dreizeiler hinaus? (Erklärunngsmöglichkeiten habe ich genug angebote, vielleicht doch noch einmal nachlesen? Oder ist Toxischwerden deine einzige Reaktionsmöglichkeit?)

[[2]] Auch diese Aussage ist unsinnig, da sie keinen Bezug zu meinen Postings aufweist. Wenn es um ein frühzeitges/vorzeitiges Einführen von RDNA5 geht, dann selbstredend nur um den Ausfall des RDNA4-MCMs zu kompensieren. Glaubst du allen Ernstes, dass AMD Ende 2024 die verbleibenden RDNA4-Chips einführt um die dann gleich ein Jahr später wieder für obsolet zu erklären. Das rentiert sich für die nicht im entferntesten, denn die Entwicklungskosten solcher Designs sind immens.

[[3]] Auch wenn es sich anscheinend komplett deinem Begriffshorizont entziehen mag ... eine stärkere Ressourcenbeschränktheit sowie eine mangelnde Wirtschaftlichkeit stellen gar sehr große Probleme für ein Unternehmen dar. Entsprechend kann man (vollkommen egal ob AMD oder sonst ein Unternehmen) nicht mal eben neue Produkte "raushauen" wie es beliebt.
Und bzgl. eines konkreten Prozesses in der NextGen, hier weiß man noch nicht wie weit hinunter im Portfolio es sich AMD erlauben kann die teuere 3nm-Fertigung anzuwenden.
Ergänzend dazu der Hinweis, dass man erst kürzlich hörte, dass AMD sich für Samsungs 4nm für Produkte im unteren Marktsegment zu interessieren scheint. Insgesamt wenig überraschend, dass sie sich nun breiter aufstellen müssen und Kosten senken wollen, denn bei TSMC müssen sie gegen Größen wie Apple, nVidia und selbst Intel konkurrieren.

Am Ende des Tages bleibt, dass man einfach mal abwarten muss, wie weit hinunter GDDR7 im Blackwell-Portfolio überhaupt genutzt werden wird in der ersten Iteration und ebenso ob und wann überhaupt erste 24 Gb-Bausteine zum Einsatz kommen. Eine Speicherschwemme im Mainstream sollte man jedenfalls nicht erwarten. ;-)
 
die 4090 spielt in ihrer eigenen Liga, seit fast 2 Jahren.
Leider nur beim Preis !
Oder weil Du generell anderen Erfolg nicht gönnst?
Genau wie Du, wenn kein grünes Logo drauf schimmert !
eine Ahnung was Du damit meinst dass die Zuwächse in den letzten Gens geringer geworden sein sollen. Ist kompletter Unfug.
Unfug sind nur Deine Unterstellungen/Interpretationen !
Gemeint war z.B. der "Zuwachs" : 1060 auf 2060 auf 3060 auf 4060
 
Du glaubst auch an den Osterhasen?

Ich setz ne Kiste Bier auf 1x GCD für RDNA4+5.

DU hast gefragt wie man auf die Idee kommen könnte dass RDNA5 mit 2 GCDs kommt, und ich habe Dir eine Antwort gegeben. Und jetzt kommst Du mir so, bist ein ganz großer Held! Ab auf Ignore.
Leider nur beim Preis !

Achso. Klar.

1711230430404.png


Nur beim Preis, gell? :lol:

Genau wie Du, wenn kein grünes Logo drauf schimmert !

Du könntest nicht mehr daneben liegen. Ich würde mich freuen wenn AMD und Intel Grafikkarten, und generell Innovationen im Grafikbereich, auf Augenhöhe mit Nvidia bringen würden. Tun sie aber aktuell leider nicht.

Meine nächste CPU wird sehr wahrscheinlich ein Ryzen. Außer Intel hat mit Arrow Lake einen Überraschungserfolg.

Ich kaufe immer das für mich passende Produkt im High-End / Enthusiasten Bereich, und schaue was es zu dem Zeitpunkt eben gibt. Welches Logo drauf ist - mir egal.

Unfug sind nur Deine Unterstellungen/Interpretationen !
Gemeint war z.B. der "Zuwachs" : 1060 auf 2060 auf 3060 auf 4060

Aus seinem Beitrag konnte man überhaupt nicht erkennen welche Karten gemeint sind. Er hat es generell formuliert. Und selbst bei den 60ern scheint mir der Zuwachs konstant zu sein:

1711230840214.png


Wenn Du das anders siehst, bitte sachlich bleiben und Quellen liefern. Danke.
 
Zuletzt bearbeitet von einem Moderator:
Wenn ich Recht behalte, ... nimmst Du mich dann wieder auf nonIgnore?

btw.
Ich will ja nicht um jeden Preis Recht behalten, aber muss auch nicht jedem YTer glauben,
nur weils mal ne Studie+Patent gegeben hat.
Das muss überhaupt nicht praktisch sinnvoll sein, weil im Gaming die Latenzen wichtig sind.
Solange das Silizium preislich ne SingleGCD hergibt, sehe ich im Gaming keine 2x GCD.

Erst wenn der Yield für die Chips schlecht genug ist, wird man andere Wege versuchen.
 
Zuletzt bearbeitet:
Alles unter 16GB ergibt kein Sinn mehr.
RTX5060 18GB
RTX5070 24GB
RTX5080 32GB
RTX5090 48GB
:lol:

Du glaubst doch nicht ernsthaft, dass Nvidia den VRAM sämtlicher Modelle verdoppeln wird.

Und bis Karten von deutlich mehr als 24 GB VRAM (abseits extremer Szenarien) profitieren werden, wird sicher noch einige Zeit ins Land gehen. Vor dem Hintergrund wird Nvidia kaum derart früh derart viel Speicher auf einer 5080 oder 5090 verbauen, der außer Geld zu kosten, zu kaum was taugt.
 
Alles unter 16GB ergibt kein Sinn mehr.
RTX5060 18GB
RTX5070 24GB
RTX5080 32GB
RTX5090 48GB
Sehe ich nicht und ist auch komplett übertrieben, im QHD reichen 20 GB sicher noch 'ne Weile und in 4k braucht man auch noch keine 48 GB, bin nicht sicher, ob man überhaupt schon 32 braucht.
Zu viel Speicher kostet auch nur unnötig Geld.

Eine HD Karte sollte mind. 12 besser 16 GB haben
Eine QHD Karte sollte 18-20 GB haben
und was man für 4k braucht kann ich nicht einschätzen, tippe auf 24 reichen.
(ich hab ka welche Speichermengen genau möglich sind, wenn 18 oder 20, technisch wenig Sinn macht, dann halt die nächst größere Stufe.)
 
Sehe ich nicht und ist auch komplett übertrieben, im QHD reichen 20 GB
Nein. Du hast es leider immer noch nicht begriffen oder bist nicht sonderlich in dem Thema drinn. Machine learning Modelle benötigen Unmengen an VRAM, allein schon 16-24gb für ein simples LLM model. Man benötigt in Zukunft also neben dem reinen VRAM für Spiele zusätzlichen VRAM für KI Berechnungen. Nvidia sieht dies genauso, dass KI im Gaming nicht mehr wegzudenken sein wird also müssen sie auch drastisch den VRAM erhöhen.
 
Ausführen ist nicht lernen und das was nvidia vorschwebt mit npc mit ai zu nutzen wird zwangsläufig mittels nvidia network notwendig sein.
Das ist keine api die man in nen spiel intrigieren kann offline und da es proprietär ist wird es scheitern.
 
Machine learning Modelle benötigen Unmengen an VRAM, allein schon 16-24gb für ein simples LLM model. Man benötigt in Zukunft also neben dem reinen VRAM für Spiele zusätzlichen VRAM für KI Berechnungen.
Bin sicher nicht im Thema drin, aber ist sicher nicht für die nächste GPU Generation relevant, vor allem nicht auf dem Breitenmarkt.
Nvidia sieht dies genauso, dass KI im Gaming nicht mehr wegzudenken sein wird also müssen sie auch drastisch den VRAM erhöhen.
Wenn Nvidia das auch so sehen würde, hätte die aktuelle Generation nicht so scheiße wenig Speicher.
 
Nein. Du hast es leider immer noch nicht begriffen oder bist nicht sonderlich in dem Thema drinn. Machine learning Modelle benötigen Unmengen an VRAM, allein schon 16-24gb für ein simples LLM model. Man benötigt in Zukunft also neben dem reinen VRAM für Spiele zusätzlichen VRAM für KI Berechnungen. Nvidia sieht dies genauso, dass KI im Gaming nicht mehr wegzudenken sein wird also müssen sie auch drastisch den VRAM erhöhen.

Für das Inferencing und Training benötigt man viel Speicher, aber eher nicht als Consumer. Z.b. ist die DLSS DLL winzig, das ist nur ein Algorithmus der durch KI-Training entstanden ist / verbessert wurde.

Für die "KI-NPCs" wird man garantiert kein komplettes "ChatGPT" oder anderes, großes Sprachmodell im Speicher benötigen. Entweder wird es ad-hoc Online abgefragt, oder es sind sehr kleine Modelle, da die NPCs nur ihre eigene kleine Welt kennen müssen.

Meine Speicher Prognose:
5060 - 12GB
5070, 5080 - 16 GB
5080 ggf. 20 GB
5090 - 24 GB
 
Z.b. ist die DLSS DLL winzig, das ist nur ein Algorithmus der durch KI-Training entstanden ist / verbessert wurde.
Das jetzt nicht ernst gemeint, richtig? Du vergleichst hier Äpfel mit Birnen. Wen interessiert simples Bildupscaling? Ich rede hier von der Zukunft um Bildinhalte zu generieren, dafür benötigt man natürlich sehr große Modelle. Eine Gaming GPU mit 128GB VRAM dürfte da schon angebracht sein in einigen Jahren. Simple StableDiffusion Modelle sind bereits um die 8-16GB groß.
 
Nein. Du hast es leider immer noch nicht begriffen oder bist nicht sonderlich in dem Thema drinn. Machine learning Modelle benötigen Unmengen an VRAM, allein schon 16-24gb für ein simples LLM model. Man benötigt in Zukunft also neben dem reinen VRAM für Spiele zusätzlichen VRAM für KI Berechnungen. Nvidia sieht dies genauso, dass KI im Gaming nicht mehr wegzudenken sein wird also müssen sie auch drastisch den VRAM erhöhen.

Ja, maschine learning braucht viel Leistung, jedoch nicht das bloße darstellen, so wie es "yes i am" schon geschrieben hat. Sieht man auch wunderbar an DLSS.

Mein kleines iPhone 8 kann auch tolle Bilder via AI erzeugen (siehe Anhang).
Die Rechner die es erzeugt haben, die brauchen die Leistung, nicht jedoch mein iPhone das den Promt erstellt, die Grafik/Video darstellt, das btw nur 512Mb RAM hat.
 

Anhänge

  • OIG3897uiz685.jpg
    OIG3897uiz685.jpg
    97,8 KB · Aufrufe: 19
Zurück