News RTX 5000: Nvidia plante "MCM-Mega-GPU" mit HBM-Speicher [Gerücht]

Äh, nein?

DirectStorage zielt darauf ab, Daten vom Massenspeicher (HDD, SSD) direkt in den Speicher der GPU (also den G-RAM) zu laden um dort direkter und mit weniger zeitraubenden Zwischenschritten von der verarbeiitenden GPU abrufbar zu machen.

Bisher werden die Daten erst vom Massstorage in den RAM geladen, dann von der CPU dekomprimiert (verarbeitet) - was extra viel Aufwand und Zeit ist, dann wieder in den RAM, dann zum G-RAM, wo endlich die GPU drauf zugreifen kann und es selbst verarbeiten.

DirectStorage eliminiert den Zwischenschritt über die CPU zur dekompression und lässt diie sehr viel stärker parallelisierte GPU das selber tun.

Beim Streaming kommt es darauf an die möglichst großen Datenmengen schnell verfügbar zu machen und Zwischenschritte zu reduzieren. Man kann mit Puffern arbeiten, aber du willst unnötige Signal-Verarbeitungsschritte unterwegs auschalten und am Ende (am besten sehr viel gleiichzeitig) direkt bearbeiten.

Äh, doch. Also auch.

direct-storage-windows.png


Steht da, schwarz auf weiss. "Many small requests like texture tiles, not single GB size files".
 
Äh, doch. Also auch.

Steht da, schwarz auf weiss. "Many small requests like texture tiles, not single GB size files".

ja, hab ich nicht Widersprochen, dass das ein Rahmenbedingung ist.
So ist eine der Situationen die es zu handeln gilt und die die Verarbeitung der Graphik bremst.

Und was ist die Lösung durch DirectStorage?
-> Zwischenschritte in der Kommunikationsverarbeitung und Übermittlung eliminieren.

Nicht die Signal-Frequenz zu erhöhen.
 
ja, hab ich nicht Widersprochen, dass das ein Rahmenbedingung ist.
So ist eine der Situationen die es zu handeln gilt und die die Verarbeitung der Graphik bremst.

Und was ist die Lösung durch DirectStorage?
-> Zwischenschritte in der Kommunikationsverarbeitung und Übermittlung eliminieren.

Nicht die Signal-Frequenz zu erhöhen.

Wie Du einfach die Hälfte von DirectStorage auslässt ist schon witzig.

1. Der komplette Windows Storage Stack wurde umgebaut um die IOPS zu erhöhen. Somit ermöglicht man MEHR KLEINE anstatt weniger großer Operationen.
2. Man verlagert die Dekomprimierung der Daten von RAM+CPU zu VRAM+GPU. Heißt man verbessert schon wieder viele kleine Datenpakete effizienter zu übertragen UM BANDBREITE zu sparen und DIE LATENZ ZU VERBESSERN.

Es steht alles auf der Folie die ich eben bereits gepostet habe.
"Game usage patterns need high IOPS without sacrificing bandwith"
"Many small requests like texture tiles, not single GB size files"

Und trotzdem windest Du Dich irgendwie darum herum dass LATENZ extrem wichtig ist in Gaming Szenarien. Lass es einfach.
 
Wie Du einfach die Hälfte von DirectStorage auslässt ist schon witzig.

1. Der komplette Windows Storage Stack wurde umgebaut um die IOPS zu erhöhen. Somit ermöglicht man MEHR KLEINE anstatt weniger großer Operationen.
2. Man verlagert die Dekomprimierung der Daten von RAM+CPU zu VRAM+GPU. Heißt man verbessert schon wieder viele kleine Datenpakete effizienter zu übertragen UM BANDBREITE zu sparen und DIE LATENZ ZU VERBESSERN.

Es steht alles auf der Folie die ich eben bereits gepostet habe.
"Game usage patterns need high IOPS without sacrificing bandwith"
"Many small requests like texture tiles, not single GB size files"

Und trotzdem windest Du Dich irgendwie darum herum dass LATENZ extrem wichtig ist in Gaming Szenarien. Lass es einfach.

Reden wir noch von Graphikkarten und dem Speicher dadrauf???

Du entführst einfach die komplette Aussage, die ich anfangs getätigt habe hin zu Vakuum-Lichtgeschwindigkeit, DirectStorage-Anbindung zur Eliminierung der CPU usw.
GraKa: Transferrate > Frequenz. Und dann kommst Du mit DirecStorage als Gegenbeweis?

Wo steht auf der Folie von Dir IRGENDWO was von "um Bandbreite zu sparen"?
Da steht "WITHOUT SACRIFICING bandwidth".
Latency und Frequency werden nicht ein einziges mal erwähnt.

-> Will HBM replace DDR and become Computer Memory?

Is HBM suitable for PC memory?​

The characteristics of high bandwidth and high latency determine that HBM is very suitable as a GPU memory because games and graphics processing themselves are highly predictable and highly concurrent tasks. The characteristic of this type of load is that it requires high bandwidth and is not so sensitive to delay. So HBM will appear on high-end GPU products. According to this reason, HBM is actually very suitable for HPC high-performance computing and AI computing. Therefore, although A64FX and next-generation Xeon processors are CPUs, they will also choose to consider using HBM as memory.

But for personal computers, the tasks to be processed by the CPU are extremely unpredictable, requiring various random storage accesses, and are inherently more sensitive to latency. And the requirements for low latency are often higher than those for high bandwidth requirements. Not to mention the high cost of HBM. This determines that, at least in the short term, it is difficult for HBM to replace DDR on PCs. It seems that this problem is similar to whether GDDR can be applied to PC memory.
 
Zuletzt bearbeitet:
Reden wir noch von Graphikkarten und dem Speicher dadrauf???

Du entführst einfach die komplette Aussage, die ich anfangs getätigt habe hin zu Vakuum-Lichtgeschwindigkeit, DirectStorage-Anbindung zur Eliminierung der CPU usw.
GraKa: Transferrate > Frequenz. Und dann kommst Du mit DirecStstorage als Gegenbeweis?

-> Will HBM replace DDR and become Computer Memory?

Whatever Dude, in Deinem Zitat steht es ja auch:

And the requirements for low latency are often higher than those for high bandwidth requirements. Not to mention the high cost of HBM. This determines that, at least in the short term, it is difficult for HBM to replace DDR on PCs. It seems that this problem is similar to whether GDDR can be applied to PC memory.

Low Latency > High Bandwith
 
Whatever Dude, in Deinem Zitat steht es ja auch:

[...]

Low Latency > High Bandwith
Lies nochmal ganz genau was da steht:

Und lies auch den Satz vorne dran (und reiße nicht Aussagen aus dem Zusammenhang):
But for personal computers, the tasks to be processed by the CPU are extremely unpredictable, requiring various random storage accesses, and are inherently more sensitive to latency.
"HBM, replace DDR." Systemmemory, nicht GDDR.
Im nächsten Satz deuten sie sogar auf die Ähnlichkeit der Diskussion von GDDR als Ersatz des System-Memory hin.

Bei der CPU ist Latenz wichtig, weil eratisch unvorhersehbare kleine Anfragen.

Bei GPU ist Bandbreite wichtig. Bandbreite & IOPS ...
Latenz kriegt man aufgrund des Charakters immer wiederkehrender gleicher und vorhersagbarer Abrufe besser in den Griff.
(das könnte man auch über parallele Anbindung machen. Man muss ja nicht kleine Pakete sehr schnell hintereinander abrufen, sondern kann viele kleine Pakete vorhalten und direkt gleichzeitig parallel übermitteln.)
Man kann I/O auch parallelisieren = auch hohe IOPS.

Dagegen Deine Argumentation:
[...]
2. Man verlagert die Dekomprimierung der Daten von RAM+CPU zu VRAM+GPU. Heißt man verbessert schon wieder viele kleine Datenpakete effizienter zu übertragen UM BANDBREITE zu sparen und DIE LATENZ ZU VERBESSERN.

Es steht alles auf der Folie die ich eben bereits gepostet habe.
"Game usage patterns need high IOPS without sacrificing bandwith"
"Many small requests like texture tiles, not single GB size files"
Wo steht auf der Folie von Dir IRGENDWO was von "um Bandbreite zu sparen"?
Da steht "WITHOUT SACRIFICING bandwidth".
Latency und Frequency werden nicht ein einziges mal erwähnt.

Wie dem auch sei, ist DirectStorage keine eigene oder neue Art von Speicher, sondern eine besser Kommunikation mit dem Grafikspeicher und dem Systemspeicher - egal, was da nun für einer an der GPU sitzt am Ende.
 
Zuletzt bearbeitet:
Lies nochmal ganz genau was da steht:

Und lies auch den Satz vorne dran (und reiße nicht Aussagen aus dem Zusammenhang):

"HBM, replace DDR." Systemmemory, nicht GDDR.
Im nächsten Satz deuten sie sogar auf die Ähnlichkeit der Diskussion von GDDR als Ersatz des System-Memory hin.

Bei der CPU ist Latenz wichtig, weil eratisch unvorhersehbare kleine Anfragen.

Bei GPU ist Bandbreite wichtig. Bandbreite & IOPS ...
Latenz kriegt man aufgrund des Charakters immer wiederkehrender gleicher und vorhersagbarer Abrufe besser in den Griff.
(das könnte man auch über parallele Anbindung machen. Man muss ja nicht kleine Pakete sehr schnell hintereinander abrufen, sondern kann viele kleine Pakete vorhalten und direkt gleichzeitig parallel übermitteln.)
Man kann I/O auch parallelisieren = auch hohe IOPS.

Dagegen Deine Argumentation:

Wo steht auf der Folie von Dir IRGENDWO was von "um Bandbreite zu sparen"?
Da steht "WITHOUT SACRIFICING bandwidth".
Latency und Frequency werden nicht ein einziges mal erwähnt.

Wie dem auch sei, ist DirectStorage keine eigene oder neue Art von Speicher, sondern eine besser Kommunikation mit dem Grafikspeicher und dem Systemspeicher - egal, was da nun für einer an der GPU sitzt am Ende.

Dir fehlt es an fundamentalen Kenntnissen wie die aktuelle "Grafik-Pipeline" funktioniert. VRAM ist unter anderem deswegen Latenz-kritisch weil man die Busbreite nicht beliebig erhöhen kann weil das extrem teuer ist und viel Platz auf dem Chip benötigt. Deswegen verbaut man weiterhin, auf Gaming Grafikkarten, "schnellen" GDDR Speicher (also präferiert die Latenz) gegenüber HBM mit hoher Bandbreite. HBM ist auch deutlich teurer und würde Grafikkarten dadurch auch teurer machen als sie jetzt schon sind.

Der Ausflug von AMD zum HBM Speicher hat wie lange gehalten? 1 Gen? Das hat Gründe, meinst Du nicht?

HBM ist einfach anders gewichtet. Weniger Stromverbrauch, höhere Bandbreite, schlechtere Latenz im Vergleich zu GDDR. Auf Gaming Grafikkarten will man die bessere Latenz, im Datacenter ist die Bandbreite wichtiger (für Machine Learning als Beispiel).
 
In VR lag die 7900XTX längere Zeit hinter RX6000 und selbst heute ist noch nicht alles Gold was glänzt in VR!

Die liegt ja sogar deutlich hinter einer 4080, wenn man RT mit bewertet und sonstiges, wie Features, Verbrauch usw.
Zwei Spezialdisziplinen in denen NV offensichtlich vorne liegt. Würde ich nie gegensprechen, einzig die "Wichtigkeit" dieser beiden Disziplinen halte ich für deutlich geringer, als viele andere, zumindest zum aktuellen Zeitpunkt. VR ist seit Jahren eine kleine Niesche die auch (zumindest in meinem Umfeld) nicht sonderlich wächst. RT wird zwar immer wichtiger, aber auch da wird und wurde schon oft geschrieben, aktuell erscheinen immer noch sogenannte Triple AAA Spiele ohne RT Support, so ganz angekommen ist das in meinen Augen auch noch nicht.

Die Rasterleistung ist nicht so deutlich gestiegen.
Die XTX liegt 34% vor einer 6950XT, finde ich schon enorm den Anstieg. Vor allem ist die XTX ja sogar per UVP günstiger als die 6950XT. Ich glaube man vertut sich so ein wenig, die 6er Serie von AMD war ein ziemlicher Hammer und wahrscheinlich hat man sich selbst und Nvidia (die ja nicht ganz umsonst die Titan in 90er umgelabelt haben und ordentlich Strom draufgegegen haben um vorne zu bleiben) überascht, dass man eine so gute Karte gebaut hat. Die aktuelle XTX ist eher das was ich von AMD erwarte. Selbst da blendet man sich halt ein wenig, dass Nvidia eine Titan als 90er in das Gamingsegment schiebt, denn wenn man bei der "Namensgebung" der alten RTX Karten geblieben wäre, würde man heute halt sagen, ja AMD und Nvidia liefern sich ein Kopf an Kopf Rennen, nur oben drüber thront die Titan, die aber halt nicht fürs Gaming gemacht wurde. Durch die einfache Namensänderung hat Nvidia aber marketingtechnisch vieles richtig gemacht.

Zwei Schüler beim Tischtennistraining zu mir, ich muss mir eine 4080 holen (die haben beide ohne Arbeit / halt noch Schüler) eine 4070ti und habe sehr deutlich gesagt, AMD kann man nicht kaufen, wegen der RT Leistung.
Respekt, müssen ziemlich reiche Eltern sein, die ihren Kiddies die kein eigenes Geld verdienen eine solche Karte kaufen, oder aber ziemlich beschäftigte Eltern, die was gutzumachen haben. Ansonsten höre ich auch täglich, dass man ein iPhone haben muss, bisher komme ich ganz gut ohne aus :-) Nicht immer alles glauben was man hört. Das NV das Marketing beherrscht, darüber brauchen wir ja nicht reden und dass sie den Markt beherrschen, ebensowenig.

Ich habe zur 4070ti gegriffen, wegen der RT Leistung pro Euro und VR Problemen bei AMD.
Haben wir ja schon in einem anderen Thread diskutiert, wenn es für dich passt und dein Anwendungsgebiet so ist, sicherlich die richtige Wahl, mich stören halt nur 12GB VRAM bei den Karten. Wer die Karte in der nächsten Gen wieder austauscht, wird kein Problem damit haben, aber 12GB werden halt dann auch eng werden. Schau mal wo aktuell bspw. die 3080 10GB liegt, die lag mal knapp vor einer 6900XT, jetzt liegt sie knapp 10% dahinter und das wird zusehends schlimmer werden. Das gleiche wird den aktuellen 12GB Karten passieren.

Aber wenn AMD in VR nicht geht, dann hast du die richtige Wahl getroffen.

Wie @Pu244 schon sagte, Transferrate ist nicht alles. Die Latenz ist auch extrem wichtig. Ein 50GB/s Satelliten Downlink bringt Dir beim Gaming, als Beispiel, gar nichts wenn die Latenz (Dein Ping) dafür bei >1000ms liegt.
Im GPU Markt glaube ich aber, dass es schon das wichtigste ist. Klar wird es in deinem Beispiel auch komisch, aber ich denke auf Grund der Daten ist die Transferrate eher entscheidend als die Latenz im GPU Sektor, vor allem jetzt wo man eben den Cache noch reingebracht hat.

Durch PAM- und QAM-Verfahren kann man beim RAM immer noch sehr viel rausholen. GDDR7 arbeitet mit PAM-3, GDDR6 mit PAM-4, GDDR6X mit PAM-5 (wobei das wohl PAM-4 + 1bit für die Fehlerkorrektur ist). Pro Takt können also 3,4 oder sogar 5 Bit übertragen werden. Das ist ein riesiges Potential an Leistungssteigerung.
 
Ahaha xD:
Ja, es steht da schwarz auf weiß. Auf nem Bild, das Paint erstellen könnte, ohne jede Quellenangabe xD.

Hier bitte:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Zwei Spezialdisziplinen in denen NV offensichtlich vorne liegt. Würde ich nie gegensprechen, einzig die "Wichtigkeit" dieser beiden Disziplinen halte ich für deutlich geringer, als viele andere, zumindest zum aktuellen Zeitpunkt. VR ist seit Jahren eine kleine Niesche die auch (zumindest in meinem Umfeld) nicht sonderlich wächst. RT wird zwar immer wichtiger, aber auch da wird und wurde schon oft geschrieben, aktuell erscheinen immer noch sogenannte Triple AAA Spiele ohne RT Support, so ganz angekommen ist das in meinen Augen auch noch nicht.
Welche denn? Wenn ich mir die letzten Triple-A Releases anschaue, dann haben die meisten RT. Starfield nicht, klar, aber sonst?


Haben wir ja schon in einem anderen Thread diskutiert, wenn es für dich passt und dein Anwendungsgebiet so ist, sicherlich die richtige Wahl, mich stören halt nur 12GB VRAM bei den Karten. Wer die Karte in der nächsten Gen wieder austauscht, wird kein Problem damit haben, aber 12GB werden halt dann auch eng werden. Schau mal wo aktuell bspw. die 3080 10GB liegt, die lag mal knapp vor einer 6900XT, jetzt liegt sie knapp 10% dahinter und das wird zusehends schlimmer werden. Das gleiche wird den aktuellen 12GB Karten passieren.
Hm, ich kann mit meiner 3080 10GB auf WQHD sehr gut zocken. Da begrenzt der VRAM eher nicht die Leistung. Und wieso vergleichst Du überhaupt die 3080 gegen die 6900XT? :schief:

Ich zocke gerade sogar CP2077 Phantom Liberty mit Pathtracing und DLSS Balanced. Geht das mit der 6900XT?


Im GPU Markt glaube ich aber, dass es schon das wichtigste ist. Klar wird es in deinem Beispiel auch komisch, aber ich denke auf Grund der Daten ist die Transferrate eher entscheidend als die Latenz im GPU Sektor, vor allem jetzt wo man eben den Cache noch reingebracht hat.
Ok, sagen wir Du hast eine 1000 TB/s Transferrate zwischen GPU und VRAM. Dafür eine Latenz von 100ms bis die Daten anfangen zu fließen. Wenn das Asset Streaming eine Textur JETZT braucht, dann wartest Du trotz der riesigen Bandbreite 3 Frames bei 30 FPS (oder 6 Frames bei 60 FPS) bis die Textur überhaupt da ist. So lange ist das Objekt "grau".

Ist es also nicht "besser" wenn das niedrigste MIP Level der Textur SOFORT da ist damit man kein graues Objekt hat? Ich denke schon.

Es ist immer ein Tradeoff. Und aktuell ist es eben so dass die schnellere Latenz für Asset Streaming besser ist als hohe Bandbreite. Mir bringt es nix wenn 16k Texturen in einem Block übertragen werden, ich dafür aber einige Frames gar keine Textur angezeigt bekomme.
 
Zuletzt bearbeitet von einem Moderator:
Hier bitte:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

(...)
Schon besser ;). Aber warum nicht gleich so? Bist du das erste mal im Internet, sodass du dachtest dein Bild reicht?


Lass stecken, die Frage war rhetorisch und sollte eher zum nachdenken anregen.
 
Schon besser ;). Aber warum nicht gleich so? Bist du das erste mal im Internet, sodass du dachtest dein Bild reicht?

Lass stecken, die Frage war rhetorisch und sollte eher zum nachdenken anregen.
Nö, lass ich nicht stecken, Du fragst etwas... Warum nicht gleich so? - Weil ich davon ausgehe dass sich die Leute mit den Diskussionsgrundlagen beschäftigen, spätestens dann wenn kritische Nachfragen kommen. Die Folie findet man mit einer einfachen Google Bilder Suche...
 
Starfield, Baldurs Gate, Diablo um nur mal ein paar zu nennen.
3080 gegen die 6900XT?
Weil man daran einfach erkennen kann, dass die VRAM Krüppel schlechter altern.

Ich zocke gerade sogar CP2077 Phantom Liberty mit Pathtracing und DLSS Balanced. Geht das mit der 6900XT?
Nö, DLSS gibt es bei AMD nicht, aber so lange du mir keine fps an den Kopf wirfst, kann ich auch sagen, klar kann ich das Spiel mit Pathtracing und FSR2 spielen.

Es ist immer ein Tradeoff.
Klar, aber 100ms Latenz wird kein GDDR bieten, soweit ich das weiß, reden wir hier immer von einem Bereich im Nanosekundenbereich.
Ist es also nicht "besser" wenn das niedrigste MIP Level der Textur SOFORT da ist damit man kein graues Objekt hat? Ich denke schon.
Wir haben Latenzen im Nanosekunden Bereich, selbst bei extrem hohen FPS aber zweistellige Millisekunden je fps, da wird es eher keinerlei Probleme geben
 
Dir fehlt es an fundamentalen Kenntnissen wie die aktuelle "Grafik-Pipeline" funktioniert. VRAM ist unter anderem deswegen Latenz-kritisch weil man die Busbreite nicht beliebig erhöhen kann weil das extrem teuer ist und viel Platz auf dem Chip benötigt. Deswegen verbaut man weiterhin, auf Gaming Grafikkarten, "schnellen" GDDR Speicher (also präferiert die Latenz) gegenüber HBM mit hoher Bandbreite. HBM ist auch deutlich teurer und würde Grafikkarten dadurch auch teurer machen als sie jetzt schon sind.

Der Ausflug von AMD zum HBM Speicher hat wie lange gehalten? 1 Gen? Das hat Gründe, meinst Du nicht?

HBM ist einfach anders gewichtet. Weniger Stromverbrauch, höhere Bandbreite, schlechtere Latenz im Vergleich zu GDDR. Auf Gaming Grafikkarten will man die bessere Latenz, im Datacenter ist die Bandbreite wichtiger (für Machine Learning als Beispiel).

Wow! Danke. Du musst wohl dann John Carmack sein. :hail:

Was argumentiert ihr denn immer gegen AMD? Es ging doch hier nirgends um AMD vs Nvidia, oder? Nvidia setzt auch HBM ein. Ist es, weil ich ne Radeon in der Signatur aufführe? Ist es das?
Warum noch nicht bei Consumern? Preis. Schlicht der Preis und der erhöte Herstellungsaufwand durch das stacking (auch wieder Preis).
Wenn HBM gleichteuer oder günstiger wäre wie/als GDDR, hätten wir die Diskussion garnicht und es würden keine Überlegungen angestrebt, wie man den höheren Takt eines günstigeren Speicher-Typs noch sinnvoll ausnutzen kann.

Und weil Latenz ja ach soooo wichtig ist bei Consumer-Grafik-Speicher rennt ihr auch alle rum und betreibt G-RAM-tuning und es gibt tausende von Artikeln da draussen zum CAS-tuning und Speicherübertaktung beim Grafikspeicher.
(Nicht für den System-RAM der CPU, wo die Latenz in der Tat eine viel größere Rolle spielt ...)

Und Nvidia oder AMD bewerben neben der Rechenleistung in TFLOPS auch nicht jede neue Grafikkartengeneration mit der gestiegenen Speichertransferleistung und der höheren Pixel- und Texturfüllrate - nein, da steht die LATENZ ganz dick als Aushängeschild.

Aber nochmal: mir ging es nirgends da drum ob HBM nun besser ist, oder Nvidia vor AMD, oder die Vorzüge von DirectStorage.
Mir ging es da drum dass HBM an der Bandbreite schraubt und das seine Stärke ist und nicht der Takt.
Und dass bei Grafik und den Datenmengen, die heute geschaufelt werden, die Transferrate immer wichtiger wird und den Ausschlag gibt.

Das heisst nicht, dass an anderer Stelle nicht auch optimiert wird, oder dass Latenz und Frequenz vollkommen unwichtig sind.
(also nicht, solange wir noch nahe der gleichen Größenordnung argumentieren. Klar, bei 100Hz vs 2GHz schon)
Ich habe gesagt, sie sind nicht mehr das Wichtigste (weil schon im oberen Feld angekommen - da ist nicht mehr viel zu holen und Negativeffekte treten in den Vordergrund)
-> Transferrate ist (heutzutage und in der absehbaren Zukunft) alles (im Grafikumfeld)
 
Zuletzt bearbeitet:
Starfield, Baldurs Gate, Diablo um nur mal ein paar zu nennen.
Baldurs Gate - Ist kein Triple-A Titel. Es zählt nicht dazu nur weil es sich gut verkauft. BG3 ist wie lange im Early Access gewesen? Sprechen wir bei Larian Games von einem Triple-A Studio?

Starfield - Habe ich schon genannt.

Diablo4 - Soll laut Ankündigung noch Raytracing bekommen.

Was ist mit Ratchet&Clank, Hogwarts Legacy, Star Wars: Jedi Survivor?


Weil man daran einfach erkennen kann, dass die VRAM Krüppel schlechter altern.
Zeig mir mal die Performance Vergleiche dazu bitte, also damals vs heute. Ohne Quelle glaub ich nicht dass eine 3080 mal vor der 6900XT lag beim Rasterizing. Ich bin echt gespannt ob Du das liefern kannst oder es bei der Behauptung bleibt.

Nö, DLSS gibt es bei AMD nicht, aber so lange du mir keine fps an den Kopf wirfst, kann ich auch sagen, klar kann ich das Spiel mit Pathtracing und FSR2 spielen.
Im Schnitt so ~50 FPS. Je nach Szene mal 40 und mal 60.

Klar, aber 100ms Latenz wird kein GDDR bieten, soweit ich das weiß, reden wir hier immer von einem Bereich im Nanosekundenbereich.
Wir haben Latenzen im Nanosekunden Bereich, selbst bei extrem hohen FPS aber zweistellige Millisekunden je fps, da wird es eher keinerlei Probleme geben
Sonst bist Du immer so schlau, und jetzt kannst Du nicht ein Beispiel abstrahieren? Seltsam...

Aber ich bin aus der Diskussion jetzt wirklich raus. HBM wird sowieso längere Zeit Datacenter GPUs vorbehalten bleiben. Hier wird ja schon geweint wegen der aktuellen Preise, mit HBM wären die Karten um einiges teurer.
 
Wow! Danke. Du musst wohl dann John Carmack sein. :hail:
Nö, bin ich nicht. Aber ich hab mich schon einige Zeit mit dem ganzen Zeug beschäftigt.

Was argumentiert ihr denn immer gegen AMD? Es ging doch hier nirgends um AMD vs Nvidia, oder? Nvidia setzt auch HBM ein. Ist es, weil ich ne Radeon in der Signatur aufführe? Ist es das?
Ich habe doch nur ein Beispiel geliefert (das einzige Beispiel wohlgermerkt) wo es HBM Speicher auf Consumer Grafikkarten gab. Das hat nichts mit Nvidia vs AMD zu tun.

Nvidia setzt HBM dort ein wo es sinnvoll ist, in der Datacenter Sparte. Genauso wie AMD auch. Und beide setzen für Consumer Karten auf GDDR.

Warum noch nicht bei Consumern? Preis. Schlicht der Preis und der erhöte Herstellungsaufwand durch das stacking (auch wieder Preis).
Wenn HBM gleichteuer oder günstiger wäre wie/als GDDR, hätten wir die Diskussion garnicht und es würden keine Überlegungen angestrebt, wie man den höheren Takt eines günstigeren Speicher-Typs noch sinnvoll ausnutzen kann.
Hätte wäre könnte, Du behauptest hier irgendwas ohne Belege oder Expertise in dem Bereich. Sorry, darauf lasse ich mich nicht weiter ein. Dass GDDR Speicher besser für Gaming geeignet ist, und HBM für Datacenter Anwendungen, und dass HBM eine deutlich höhere Latenz hat, kann ich anhand diverser Artikel dagegen belegen:

https://www.gpumag.com/gddr5-gddr5x-hbm-hbm2-gddr6/

Which VRAM Reigns Supreme?​


If you carefully consider these details, the best option right now is probably either HBM2 or GDDR6. The fact is that both types of video memory have strengths and weaknesses, and your choice should be based on your needs.


Overall, it’s safe to say that HBM2 is the best choice for tasks such as machine learning and AI simulations, as well as 3D modeling and video editing, due to its superior bus width. In contrast, as far as gaming is concerned, GDDR6 is probably what you should invest your money in.


Of course, HBM2 can also run games, and GDDR6 is also useful for editing, it’s just that each memory type is better suited to different purposes.

https://www.utmel.com/blog/categories/memory chip/will-hbm-replace-ddr-and-become-computer-memory

High access latency​

For PCs, an important reason why HBM has not been applied to CPU main memory is its high latency. Regarding the issue of latency, although many popular science articles will say that its latency is good, or Xilinx described its latency as similar to DDR for FPGAs equipped with HBM, the "latency" in many articles may not be the same latency.

Contemporary DDR memory is generally marked with CL (CAS latency, the clock cycle required for column addressing, indicating the length of the read latency). The CAS delay we are talking about here refers to the waiting time between when the read command (and Column Address Strobe) is issued and the data is ready.

After the memory controller tells the memory that it needs to access the data in a specific location, it takes several cycles to reach the location and execute the instructions issued by the controller. CL is the most important parameter in memory latency. In terms of the length of the delay, the "period" here actually needs to be multiplied by the time per cycle (the higher the overall operating frequency, the shorter the time per cycle).

https://res.utmel.com/Images/UEditor/94a0bf2b-e1c8-4551-af03-21744219312f.jpg

GDDR5 and HBM

For HBM, one of its characteristics as mentioned earlier is the ultra-wide interconnection width, which determines that the transmission frequency of HBM cannot be too high. Otherwise, the total power consumption and heat cannot be supported and it does not need such high total bandwidth.

The frequency of HBM will indeed be much lower than that of DDR/GDDR. Samsung’s previous Flarebolt HBM2 memory has a transmission bandwidth of 2Gbit/s per pin, which is almost a frequency of 1GHz. Later, there are products that increase the frequency to 1.2GHz. Samsung mentioned that this process also needs to consider reducing the parallel clock interference between more than 5000 TSVs, and increasing the number of heat dissipation bumps between the DRAM die to alleviate the heat problem. In the above figure, AMD lists the frequency of HBM in fact only 500MHz.

Und weil Latenz ja ach soooo wichtig ist bei Consumer-Grafik-Speicher rennt ihr auch alle rum und betreibt G-RAM-tuning und es gibt tausende von Artikeln da draussen zum CAS-tuning und Speicherübertaktung beim Grafikspeicher.
(Nicht für den System-RAM der CPU, wo die Latenz in der Tat eine viel größere Rolle spielt ...)
Soweit mir bekannt kann man den VRAM aktuell überhaupt nicht tunen außer der Taktfrequenz. Oder hast Du da etwas zu? Würde mich interessieren.

Soweit ich weiss ist das GDDR Tuning schon länger von den Herstellern gesperrt. Somit löst sich Dein ganzes Argument in Luft auf.


Und Nvidia oder AMD bewerben neben der Rechenleistung in TFLOPS auch nicht jede neue Grafikkartengeneration mit der gestiegenen Speichertransferleistung und der höheren Pixel- und Texturfüllrate - nein, da steht die LATENZ ganz dick als Aushängeschild.
Das soll ein Argument sein? Weil sie damit nicht werben? :lol:

Die wenigsten können mit den VRAM Spezifikationen überhaupt etwas anfangen.

Aber nochmal: mir ging es nirgends da drum ob HBM nun besser ist, oder Nvidia vor AMD, oder die Vorzüge von DirectStorage.
Mir ging es da drum dass HBM an der Bandbreite schraubt und das seine Stärke ist und nicht der Takt.
Und dass bei Grafik und den Datenmengen, die heute geschaufelt werden, die Transferrate immer wichtiger wird und den Ausschlag gibt.
Weder GDDR noch HBM ist per se "besser". Beides hat unterschiedliche Stärken und Schwächen.
Und ja, die Transferrate ist wichtig, aber beim Gaming eben auch die Latenz. Herrgott, nichts gibt aktuell den Ausschlag zu HBM, sonst würde es Consumer Karten damit geben...

Lies Dich doch bitte in das Thema ein bevor Du weiter diskutierst.

Das heisst nicht, dass an anderer Stelle nicht auch optimiert wird, oder dass Latenz und Frequenz vollkommen unwichtig sind.
(also nicht, solange wir noch nahe der gleichen Größenordnung argumentieren. Klar, bei 100Hz vs 2GHz schon)
Die Frequenz hat nichts mit der Latenz zu tun.

Ich habe gesagt, sie sind nicht mehr das Wichtigste (weil schon im oberen Feld angekommen - da ist nicht mehr viel zu holen und Negativeffekte treten in den Vordergrund)
-> Transferrate ist (heutzutage und in der absehbaren Zukunft) alles (im Grafikumfeld)
Nein, ist es nicht. Sonst würde man ja auf HBM setzen, macht man aber nicht, und das liegt nicht nur am Preis.
 
Hätte wäre könnte, Du behauptest hier irgendwas ohne Belege oder Expertise in dem Bereich.
Das sollte verdeutlichen, dass sehr wohl der Preis das Entscheidende Kriterium in der Applikation auch bei Consumerkarten ist. Was kriege ich an Performance noch für den geringsten Preis rausgequetscht?
Keiner argumentiert: "ja aber die Latenz ist einen Deut besser. Und das ist viel wichtiger". Sobald der Preisunterschied wegfällt, werden wir sehen ...

Im Datacenter kommst du auch an Restriktionen beim Stromverbauch. Bei umso größeren Speichermengen wird das zusätzlich relevant.
Auch das schlägt irgendwann im Consumer-Bereich durch.

Der Utmel-Artikel spricht davon, dass Latenz für die CPU wichtig ist, nicht so sehr für die GPU.

Soweit mir bekannt kann man den VRAM aktuell überhaupt nicht tunen außer der Taktfrequenz. Oder hast Du da etwas zu? Würde mich interessieren.
Bin jetzt kein Fan von Tom's Hardware :/ Aber hab das auf die Schnelle dazu gefunden.
Selbst 1000MHz mehr beim VRAM bringen nur ralativ wenig Performance-Vorteil. GPU-OC schon, weil hier die Latenz bei den Rechenoperationen stark verkürzt wird und das Ausschlaggebend in der GPU-Leistung ist

Lies Dich doch bitte in das Thema ein bevor Du weiter diskutierst.
Gutes Argument. Kann man immer jemandem als Todschlagargument an den Kopf werfen.

Die Frequenz hat nichts mit der Latenz zu tun.
Ach echt?! Umgekehrt. Latenz ist eine Zeitgröße und ein Produkt von Takt. Takzyklen pro Operation und Operationen pro auszuführendem Task.
Hatte dazu mal ne richtig schöne Seite gefunden, die das ganze Speicheradressierungs-Thema mit CAS Latency, tRCD, tRP, & tRAS, Clock, address row & columns erklärt und veranschaulicht hat mit Animation (was wie, wo mit jedem weiteren Takt ausgeführt wird - von der Anfrage bis zum Output, also I/O)
Finde die leider nicht mehr :ka:

Nein, ist es nicht. Sonst würde man ja auf HBM setzen, macht man aber nicht, und das liegt nicht nur am Preis.
Und ich sage doch.
Aussage gegen Aussage. Lassen wir die Zeit entscheiden.
 
Zuletzt bearbeitet:
Der Utmel-Artikel spricht davon, dass Latenz für die CPU wichtig ist, nicht so sehr für die GPU.
Die schlechtere Latenz von HBM gilt aber generell. Nicht nur für den DDR RAM Ersatz.

Bin jetzt kein Fan von Tom's Hardware :/ Aber hab das auf die Schnelle dazu gefunden.
Selbst 1000MHz mehr beim VRAM bringen nur ralativ wenig Performance-Vorteil. GPU-OC schon, weil hier die Latenz bei den Rechenoperationen stark verkürzt wird und das Ausschlaggebend in der GPU-Leistung ist
Was hat jetzt die Frequenz Erhöhung damit zu tun? Du checkst immer noch nicht dass eine erhöhte Frequenz nicht die Latenz verbessert.

Contemporary DDR memory is generally marked with CL (CAS latency, the clock cycle required for column addressing, indicating the length of the read latency). The CAS delay we are talking about here refers to the waiting time between when the read command (and Column Address Strobe) is issued and the data is ready.

Wenn die Speicherzelle eine eigene Latenz hat bis die Daten ausgelesen wurden, dann ändert eine Frequenz Erhöhung nichts daran. Lies doch bitte mal den ganzen Absatz im Utmel Artikel warum die Latenz in HBM Speicher schlechter ist.

Ach echt?! Umgekehrt. Latenz ist eine Zeitgröße und ein Produkt von Takt. Takzyklen pro Operation und Operationen pro auszuführendem Task.
Hatte dazu mal ne richtig schöne Seite gefunden, die das ganze Speicheradressierungs-Thema mit CAS Latency, tRCD, tRP, & tRAS, Clock,, Adrees row & columns erklärt und veranschaulicht hat mit Animation (was wie, wo mit jedem weiteren Takt ausgeführt wird - von der Anfrage bis zum Output, also I/O)
Finde die leider nicht mehr :ka:
Du sprichst nicht von Speicherzellen Latenz.
 
Die schlechtere Latenz von HBM gilt aber generell. Nicht nur für den DDR RAM Ersatz.
Habe nie behauptet, dass HBM eine geringere Latenz hat. HBM1 läuft ja auch bei etwa 1/3 der Taktrate, die man so auf üblichen GDDR6-Speichern heutiger Grafikkarten findet (wenn man mal von vergleichbaren CAS, RCD, RP, RAS in ähnlichen Größenordnungen ausgeht). HBM2 mag da noch was aufgedreht haben. Definitiv läuft HBM aber bei niedrigerem Takt, als GDDR.
Die dadurch vermeintlich schlechter Latenz spielt aber in Grafik kaum eine Rolle und kommt hauptsächlich bei Betrachtungen von HBM als System-Memory-Ersatz zum tragen.
Das gibt der Artikel wieder. Schon die ganze Zeit.

Was hat jetzt die Frequenz Erhöhung damit zu tun? Du checkst immer noch nicht dass eine erhöhte Frequenz nicht die Latenz verbessert.
Einiges. Du checkst nicht, wie Latenz zustandekommt.
Aber bitte ... erleuchte uns. Erkläre uns Deine Latenz und warum Frequenzen darauf keinen Einfluss haben.

Wenn die Speicherzelle eine eigene Latenz hat bis die Daten ausgelesen wurden, dann ändert eine Frequenz Erhöhung nichts daran. Lies doch bitte mal den ganzen Absatz im Utmel Artikel warum die Latenz in HBM Speicher schlechter ist.

Du sprichst nicht von Speicherzellen Latenz.
1.) Jetzt musst Du mal definieren, was Du mit Deiner "Latenz" meinst. Entweder verstehst Du da was nicht wie Latenz zustandekommt oder Du wendest den Begriff anders an.
2.) Du hast das Thema Latenz hier angeschleppt und erläutert, dass das ja ach so wichtig für Grafikspeicher sei.
Jede Latenz ist abhängig von den Taktzyklen. CAS, RCD, RP, RAS.
Auch die Speicherzellenlatenz!
3.) Ich spreche nicht von Speicherzellenlatenz? Definiere das mal. Was meinst Du jetzt mit "Speicherzellenlatenz". Die des Memory beim Zugriff auf Daten? Dachte schon, dass wir davon reden. CAS. Von mir aus können wir auch über RAS und RCD sprechen.
Z.B. der CAS beim Speicher gibt an, wieviele Taktzyklen es braucht, um bei einer Spalten-Abfrage das Ergebnis
ausgespuckt zu bekommen. Dazu gesellen sich dann noch andere Delays und Operationen.
"Wieviele Takte" ... Natürlich hängt das von der Frequenz ab, mit der Du da Deine Logikbausteine betreibst!
Ein CAS von 10 bei 1Hz = 10sec, bei 100Hz = 0,1sec

Und genau das sagt auch der Utmel-Artikel: "ist von der Frequenz abhängig" ->
"In terms of the length of the delay, the "period" here actually needs to be multiplied by the time per cycle (the higher the overall operating frequency, the shorter the time per cycle"
Ich verstehe nicht, wie und wo Du da was anderes rausliest.
Ich verstehe, wie Latenz wirkt und von der Frequenz abhängig ist. Ich verstehe, dass HBM bei langsameren Frequenzen betrieben wird, als schneller DRAM. Ich lese hier, dass Latenz relevant ist bei CPU-Access auf den RAM und nicht so sehr bei GPU-Access auf den VRAM.
Was ich nicht verstehe, ist Deine Denke.
Wo zum Geier liest Du was anderes? Kannst Du bitte die Passage verlinken/posten/hervorheben ... was auch immer?
Deine Aussagen, dass Latenzen nicht frequenzabhängig seien, läuft Konträr zum Artikel und ALLEN Beschreibungen dazu wie Latenz in der Elektronik und speziell bei Speicher funktioniert.

Im Grunde ist es aber auch egal von welcher Latenz Du jetzt reden willst. Grundlegend gilt das für jede Latenz im Computerbereich (elektronischen Datenverarbeitung): die Anzahl Takte, die es braucht, etwas umzusetzen. Ergo frequenzabhängig
 
Zuletzt bearbeitet:
Zwei Spezialdisziplinen in denen NV offensichtlich vorne liegt. Würde ich nie gegensprechen, einzig die "Wichtigkeit" dieser beiden Disziplinen halte ich für deutlich geringer, als viele andere, zumindest zum aktuellen Zeitpunkt.
Aber es geht ja nicht um die Wichtigkeit. Das VR nicht Mainstream ist, ist klar. Über RT braucht man nicht reden, da gehen unsere Meinungen auch auseinander, meine ich. Wozu aber 1000€ in eine GPU investieren wenn man nicht maximale Details möchte. Aber egal.


Jeder einzelne Käufer entscheidet selbst wie wichtig was ist.

Ich persönlich kenne mehr, die soweit möglich immer mit RT spielen wollen, zum Beispiel auch ein Arbeitskollege, der mit seine 52 Jahren sicher nicht mehr die Unvernunft in Person ist ;). (Nur ein Beispiel)

Dazu kenne ich in meiner Blase einige die VR Spielen.

Und dann muss man hier immer die AMD Propaganda lesen. (Meinung des Mobs)
AMD hui, Nvidia Pfui.

Angeblich ist AMD der einzig sinnvolle Kauf, so der Mob und das ist quatsch.

Alles unter der 4090 bedingt Zugeständnisse, an die Stellschrauben. Bei AMD mehr wenn es um RT geht, oder VR. Bei Nvidia mehr, was den Speicher angeht.

Dabei rede ich jetzt noch gar nicht, darüber wie vergleichbar die Bildqualität ist, wenn man neue Spiele halt mit FSR, oder DLSS vergleicht.

Da sage ich zwar das FSR für mich auch gut genug aussieht, aber das FSR q halt eher wie DLSS B, oder gar P aussieht ist leider so, zumindest oft.
VR ist seit Jahren eine kleine Niesche die auch (zumindest in meinem Umfeld) nicht sonderlich wächst. RT wird zwar immer wichtiger, aber auch da wird und wurde schon oft geschrieben, aktuell erscheinen immer noch sogenannte Triple AAA Spiele ohne RT Support, so ganz angekommen ist das in meinen Augen auch noch nicht.

Ist das ein Grund, das auszuschließen, für mich sicher nicht.
Die XTX liegt 34% vor einer 6950XT, finde ich schon enorm den Anstieg.
Eher normal.
Vor allem ist die XTX ja sogar per UVP günstiger als die 6950XT. Ich glaube man vertut sich so ein wenig, die 6er Serie von AMD war ein ziemlicher Hammer und wahrscheinlich hat man sich selbst und Nvidia (die ja nicht ganz umsonst die Titan in 90er umgelabelt haben und ordentlich Strom draufgegegen haben um vorne zu bleiben) überascht, dass man eine so gute Karte gebaut hat.
Die RX6000 krankte für mich genau an den gleichen Stellen, wie die RX7000.

RT, VR, FSR vs. DLSS.
Die aktuelle XTX ist eher das was ich von AMD erwarte. Selbst da blendet man sich halt ein wenig, dass Nvidia eine Titan als 90er in das Gamingsegment schiebt, denn wenn man bei der "Namensgebung" der alten RTX Karten geblieben wäre, würde man heute halt sagen, ja AMD und Nvidia liefern sich ein Kopf an Kopf Rennen, nur oben drüber thront die Titan, die aber halt nicht fürs Gaming gemacht wurde.
Das hat seit der R9 290X nicht mehr statt gefunden.

Der Anfang war GTX600. Wenn man also bei dem in Erinnerungen schwärmen bleiben möchte, dann müsste man schon sagen, das früher der Vollausbau immer die 80iger war. Demnach ist die 4090, die eigentliche 4080.
Durch die einfache Namensänderung hat Nvidia aber marketingtechnisch vieles richtig gemacht.


Respekt, müssen ziemlich reiche Eltern sein, die ihren Kiddies die kein eigenes Geld verdienen eine solche Karte kaufen, oder aber ziemlich beschäftigte Eltern, die was gutzumachen haben.
Ja, das finde ich auch übertrieben.
Ansonsten höre ich auch täglich, dass man ein iPhone haben muss, bisher komme ich ganz gut ohne aus :-) Nicht immer alles glauben was man hört.
Die sind 19 und 16 Jahre und wirken eher nicht so, als ob die groß Märchen erfinden müssen.
Das NV das Marketing beherrscht, darüber brauchen wir ja nicht reden und dass sie den Markt beherrschen, ebensowenig.
Kontext? Wovon redest du?
Haben wir ja schon in einem anderen Thread diskutiert, wenn es für dich passt und dein Anwendungsgebiet so ist, sicherlich die richtige Wahl, mich stören halt nur 12GB VRAM bei den Karten. Wer die Karte in der nächsten Gen wieder austauscht, wird kein Problem damit haben, aber 12GB werden halt dann auch eng werden. Schau mal wo aktuell bspw. die 3080 10GB liegt, die lag mal knapp vor einer 6900XT, jetzt liegt sie knapp 10% dahinter und das wird zusehends schlimmer werden. Das gleiche wird den aktuellen 12GB Karten passieren.
Ja und genau wie den RX6000 in RT Titeln, wird es den RX7000 ergehen.
Es macht keinen Unterschied, beide Pferde werden anfangen zu lahmen.

RT Rangliste von PCGH in 2023 ist eine 3080 12% schneller, als die 7900GRE und 19% schneller, als die 6950XT.

Die 3080 ist nach wie vor die stärkere Karte, als jede RX6000. Wenn man RT mit bewertet. Zumindest gleichwertig.
Aber wenn AMD in VR nicht geht, dann hast du die richtige Wahl getroffen.
Sogar ohne VR habe ich das. Aber mit VR hatte man halt das erste Jahr, von RX7000 fast keine Wahl.
Im GPU Markt glaube ich aber, dass es schon das wichtigste ist. Klar wird es in deinem Beispiel auch komisch, aber ich denke auf Grund der Daten ist die Transferrate eher entscheidend als die Latenz im GPU Sektor, vor allem jetzt wo man eben den Cache noch reingebracht hat.
Starfield, Baldurs Gate, Diablo um nur mal ein paar zu nennen.

Weil man daran einfach erkennen kann, dass die VRAM Krüppel schlechter altern.
Hm,

Wer altert schlechter?

Nvidia hat das Speicherproblem, AMD das RT Leistungsproblem.
Nö, DLSS gibt es bei AMD nicht, aber so lange du mir keine fps an den Kopf wirfst, kann ich auch sagen, klar kann ich das Spiel mit Pathtracing und FSR2 spielen.
Also das Cyberpunk auf einer RX6000 mit PT brauchbar läuft, wissen wir alle das dem nicht so ist.
Ist aber auch ein Extrembeispiel und ich halte mich da eher an den RT Index von PCGH, oder den gemischten von CB.


 
Zurück