News RTX 5000: Nvidia plante "MCM-Mega-GPU" mit HBM-Speicher [Gerücht]

HBM ist äußerst unrealistisch. Viel zu teuer für das Gaming-/Endverbrauchergeschäft. Das AMD das genutzt hat für Fiji und Vega ist eher dem geschuldet, das beides als Testplattform herhalten musste. Was NVidia betrifft: Die Titan V hat damals keiner haben wollen wegen des Preises.
MCM ist relativ unrealistisch: NVidia hat zwar viel Geld und gute Ingenieure, aber zaubern können die auch nicht. Falls da MCM kommen sollte experimentiert man da eher bei Mittelklasse-Refreshes. Zumindest war das bisher NVidias Weg für neue Fertigungstechniken. Im Highend wird man da die sichere Strategie ohne Experimente fahren (Transistoren+ Takt+ Strom). Der 5070/5060 Refresh ist ein besserer Kandidat für MCM.

Da keine Konkurrenz zu erwarten ist, hat man da auch die Möglichkeit Blackwell ohne größere Optimierungen (bis auf Nodegröße) als Lückenfüller laufen zu lassen. AMD hat ja verlautbart, nur einen Mittelklasse-Chip zu bauen für die nächste Runde. Es ist zwar möglich, dass dieser Chip unerwartet stark wird(Mittelklasse-Chip bezieht sich ja in der Regel auf das Verhältnis zum technisch machbaren Maximalchip, weniger auf die tatsächliche Leistung), aber die Brechstangen der Konkurrenz wird er wohl nicht schlagen.
 
Spektakuläre Spekulationen zu Spezifikationen?
Ist heute ne Seite aus dem Wörterbuch gefallen xD?

@topic
Wen juckt was die 1000 Euro+ Klasse macht? Da können sie von mir aus alle zusammen keine Karte rausbringen oder jeder 5, trotzdem uninteressant.

Etwas mehr über den Tellerrand gucken könnte helfen ... Du hast doch laut Signatur eine 6700 XT ... die war nur deswegen für unter 1000 € zu haben, weil es auch größere Karten zu kaufen gab, wenn die aber nicht mehr rauskommen wird "deine" 6700 XT halt umgelabelt zur 6999 XT und kostet 1500 € ... und kommt Dir das zu pass? :)
 
HBM ist äußerst unrealistisch. Viel zu teuer für das Gaming-/Endverbrauchergeschäft.

Ich würde nicht einmal den Preis als limitierendes Element sehen, sondern den Umstand, dass man nicht zuviel Energieverbrauch auf zu wenig Fläche erzeugen will. GDDR lässt sich relativ großflächig auf der Karte verteilen. Damit ist es leichter die GPU zu kühlen, bzw. höher zu takten.

In den Produkten in denen Nvidia HBM einsetzt wird vorsichtiger getaktet und anders gekühlt. AMD hat gute Erfolge mit HBM erzielt, aber Nvidia hatte immer ein konkurrenzfähiges Produkt. Transferrate ist also nicht alles.
 
Etwas mehr über den Tellerrand gucken könnte helfen ... Du hast doch laut Signatur eine 6700 XT ... die war nur deswegen für unter 1000 € zu haben, weil es auch größere Karten zu kaufen gab, wenn die aber nicht mehr rauskommen wird "deine" 6700 XT halt umgelabelt zur 6999 XT und kostet 1500 € ... und kommt Dir das zu pass? :)
Und? Dann hätte ich sie nicht gekauft.
 
Ich habe schon vor einiger Zeit behauptet, dass die RTX 5090 ganze 65536 Shader haben wird und 64GB VRAM, wo bleibt denn meine News? :motz:

Zurück zum, Ernst:
Zum einen wäre Nvidia saumäßig dämlich. wenn sie ihr Geschäft von irgendwelchen komplett unbestätigten Gerüchten abhängig machen. Wir reden hier von einer Entscheidung im Milliardenwert und die soll davon abhängen, was irgendein Typ, dessen wahre Identität kein Schwein kennt, irgend einem anderen Typen erzählt hat, der es dann auf Twitter gepostet hat. Wenn es nicht stimmt (und das ist durchaus wahrscheinlich), dann schaut Nvidia dumm drein, wenn sie nur noch die Nummer 2 sind.
Zum anderen dauern solche Entwicklungen extrem lange, das berücksichtigen viele nicht. Die Entscheidung müßte vor ungefähr 6 Jahren gefallen sein und damals hatten alle von HBM die Schnauze ganz gründlich voll, zumindest für Normalos. Aber sagen wir einfach mal, sie hätten das Monster in Auftrag gegeben. Dann hätten sie das ganze noch jahrelang entwickeln müssen und die Kapazitäten dafür buchen. Die Dies wollen schließlich produziert werden und der HBM muß auch bestellt werden, genau wie der ganze andere Kram. Das alles soll Nvidia also abgesagt und seine Investitionen komplett abgeschrieben haben, weil irgendjemand irgendwas auf Twitter behauptet hat? Sehr unglaubwürdig. Dann kann man es zu Ende bringen, das Ding als neue Titan vermarkten und zumindest einen Teil der Investitionen zurückholen. Mal abgesehen davon, dass man sich somit zu nahezu 100% die Gamingkrone holt.

Aus den gleichen Gründen halte ich auch wenig von den Gerüchten, dass AMD angeblich keine High Ende Chips herausbringen möchte. Die Entwicklung dauert so lange, dass man da nicht ebenso aussteigen kann. Nach dem Debakel der Fury X wurde Vega auch noch herausgebracht, einfach weil man nichtmehr umsteuern konnte. das selbe Gilt auch für Vishera, Steamroller und Excavator. Obwohl mit dem Bulldozer klar war, dass das ganze ein absoluter Flop gewesen ist, hat es noch 6 Jahre gedauert, bis Ryzen kam, solange dauert das umsteuern. Entweder hat AMD die Chips längst entwickelt, dann werden sie wohl auch verkauft oder sie haben die Entscheidung, kürzer zu treten, vor sehr langer Zeit getroffen, vermutlich irgendwann 2018-2020. das ist allerdings nach dem Neustart, mit RDNA 2 & 3, eher unwahrscheinlich. Warum sollte man es versuchen und dann eventuell einen Erfolg abwürgen?

Und du weißt woher, dass das nicht ne Zeit lang geplant war und intern verworfen wurde?

Weil das eine sehr langfristige Entscheidung ist. Kann sein, dass das mal ganz am Anfang zur Debatte stand, aber spätestens ein paar Jahre vorher müssen die Kapazitäten gebucht werden. Der Typ hat wohl mit extremer Sicherheit einfach Mist gelabert und ich bin auch darauf hereingefallen. Fairerweise muß ich sagen: wenn man sich etwas aus den Fingern sauen mußte, dann war der 7nm Prozess von TSMC einfach das naheliegendste.

AMD hat bereits angekündigt erstmal nur den Mainstream-Markt zu bedienen. Also wird mittelfristig dort keine High-End GPU erscheinen.

Haben sie das jetzt wirklich gesagt?

Gibt es auch eine Quelle dazu? Soweit ich weiß sind das alles nur Gerüchte. Bisher konnte mir keiner eine offizielle Bestätigung liefern,. dass die High End Karten nicht erscheinen werden.
 
Ich würde nicht einmal den Preis als limitierendes Element sehen, sondern den Umstand, dass man nicht zuviel Energieverbrauch auf zu wenig Fläche erzeugen will. GDDR lässt sich relativ großflächig auf der Karte verteilen. Damit ist es leichter die GPU zu kühlen, bzw. höher zu takten.

In den Produkten in denen Nvidia HBM einsetzt wird vorsichtiger getaktet und anders gekühlt. AMD hat gute Erfolge mit HBM erzielt, aber Nvidia hatte immer ein konkurrenzfähiges Produkt. Transferrate ist also nicht alles.
Doch, Transfgerrate IST alles!
Es geht in unsere Zeit und der nahen Zukunft überall und ganz extrem um die Erhöhung der Transferrate. Um Datenmenge pro Zeit = Durchsatz. Um den Troughput. Bei SSD, PCIe, RAM-Anbindung, Interconnects, Display-Port ...
Immer größere Datenmengen hin- und herschaufeln, ohne dabei Verlustreibung und damit Verbrauch zu groß werden zu lassen (kleine Spannungen, niedrigere Frequenzen).

HBM war auch nicht für extrem hohe Taktraten gedacht, sondern für extreme Transferraten (mittels großer Bandbreite - oder "Bandwidth", wie der Name schon sagt.). Also hoher Durchsatz.

Man kann hohen Durchsatz auf zwei Wege erzielen:
1.) bei schmalem Kommunikationskanal und hoher Geschwindigkeit = Frequenz (wenige Leitungen, ganz schnell)
2.) bei niedriger Geschwindigkeit (Frequenz) mit sehr breitem Kommunikationskanal (nicht so schnell, ganz viele Leitungen)

Hoher Takt führt zu höheren Verlusten und Fehleranfälligkeit.

Bei HBM soll also High Transfer-Rate durch Aufweitung der Datenanbindung bei langsameren/moderaten Geschwindigkeiten ermöglicht werden.
Hoher Durchsatz bei moderatem Takt und somit kleinerem Stromverbrauch.

So wie beim Internet ja auch nicht die Geschwindigkeit erhöt wird, sondern die Bandbreite der Datenleitung, um mehr gleichzeitig durchzuschicken.
Dickerer Wasserschlauch, bei gleichem Druck = größerer Volumenstrom.
Auch wenn wir immer umgangssprachlich von "Internetgeschwindigkeit" reden, ist es eigentlich keine Geschwindigkeit, sonder Durchsatz (Einheiten pro Zeit).
Daher auch der Begriff "Datenautobahn": mehr LKW's nebeneinander mit Tempo 100 anstatt nur einer mit Tempo 200. Weniger Verbrauch, weniger Verschleiß, weniger Stau und Unfälle/Ausfälle und trotzdem mehr Waren transportiert.

Auch DDR kommt da bald an seine Grenzen, weil die Frequenz sich nicht akzeptabel weiter erhöhen lässt.
Daher gab es ja schon früher QDR,
 
Zuletzt bearbeitet:
das stimmt natürlich, abe das wa di Jahre davor eben nicht so. Seit 2014 (Maxwell,) hatte AMD sehr deutlich das Nachsehen
Ja, nach der r9 290X kam von AMD nicht mehr viel.
Ja, dazu braucht es eben eine neue Architektur
Wenn AMD will und die Mittel dafür hat, dann geht schon was.
Und? Dann hätte ich sie nicht gekauft.
Merkst du was. Das ist sinnlos.

Du forderst nur weniger Entwicklung, dadurch. Zum Glück ticken nicht alle so.
 
Naja, es ist ja nicht so, dass man gar nichts liefert.
Das habe ich auch nicht gesagt.
Die aktuelle XTX ist keine schlechte GPU, sie liefert deutlich mehr als der Vorgänger, ist effizienter als der Vorgänger und und und!
In VR lag die 7900XTX längere Zeit hinter RX6000 und selbst heute ist noch nicht alles Gold was glänzt in VR!
Die Rasterleistung ist nicht so deutlich gestiegen. Eher die RT Leistung die aber weiterhin zu sehr, hinter Nvidia liegt im Vergleich.
Nur liegt sie halt deutlich hinter NVs Flaggschiff, was aber eben für dann doch wenig Mehrleistung 100% Aufpreis kostet!

Die liegt ja sogar deutlich hinter einer 4080, wenn man RT mit bewertet und sonstiges, wie Features, Verbrauch usw.

Was die aber immer noch nicht zu einer schlechten Karte macht.
Wieviele Menschen geben 1k und mehr für eine GPU aus? 0,0001% der Gamer?
PC Gamer hier im Forum? ;)

Zwei Schüler beim Tischtennistraining zu mir, ich muss mir eine 4080 holen (die haben beide ohne Arbeit / halt noch Schüler) eine 4070ti und habe sehr deutlich gesagt, AMD kann man nicht kaufen, wegen der RT Leistung.

Ich habe zur 4070ti gegriffen, wegen der RT Leistung pro Euro und VR Problemen bei AMD.


Dennoch würde ich auch heute noch gerne auf eine 7900XTX wechseln. 24GB sind und bleiben Sexy, aber für meine Anforderungen war vorerst die 4070ti der beste Kauf.


Habe mir noch ein paar Vergleichsbilder mit FSR 3 und generell FSR und DLSS angeschaut.

Es ist deutlich das DLSS besser aussieht, aber selbst FSR2 Q reicht mir, ehrlich gesagt in vielen Fällen.
 
Der Preis dieser Monsterkarte wäre bestimmt auch monströs, wäre bestimmt die neue Titan für 3000€ geworden statt einer 5090.

Die Dinge können sich über die Zeit ändern. Nvidia könnte möglicherweise den Gedanken gehabt haben auf 7 nm TSMC zu wechseln und später dann auf 5 nm. Weder du noch ich waren bei internen Gesprächen dabei, also können wir dazu auch nichts genaues sagen.
Der Unterschied zwischen uns beiden ist aber, dass ich mir dessen bewusst bin und du nur Unfug von dir gibst.
Daher sind die Infos von den Typen immer wertlos und bis zu den letzten paar Monaten vor dem eigentlichen Release bräuchten die überhaupt nichts "leaken". 1 Jahr Bullshit Bingo mit irgendwelchen Produktdaten die sie 1x im Monat wieder ändern nur um auf jeder Tech Seite erwähnt zu werden ist lächerlich.

Sieht auf Twitter doch immer so aus.
1,5 Jahre vor Release:
Thats the specs: irgendwelche Daten
How about this?: irgendwelche Daten
Sounds good?: irgendwelche Daten
How do you like this?: irgendwelche Daten
Now we have this specs: irgendwelche Daten
Oh look at this: irgendwelche Daten
........?: irgendwelche Daten

3 Monate vor Release:
Thats the final specs: die richtigen Spezifikationen

Er hat schon recht das diese Leute nur Blödsinn schreiben der niemanden etwas bringt da man wegen denen immer über Karten diskutiert die so nie erscheinen.
 
Weil das eine sehr langfristige Entscheidung ist. Kann sein, dass das mal ganz am Anfang zur Debatte stand, aber spätestens ein paar Jahre vorher müssen die Kapazitäten gebucht werden. Der Typ hat wohl mit extremer Sicherheit einfach Mist gelabert und ich bin auch darauf hereingefallen. Fairerweise muß ich sagen: wenn man sich etwas aus den Fingern sauen mußte, dann war der 7nm Prozess von TSMC einfach das naheliegendste.

Bei dem Teil möchte ich darauf hinweisen dass man nicht 4-5 Jahre vorher schon "bestellen" kann. So lange vorher sind neue Prozesse noch gar nicht "fertig". Vielleicht kann man "Optionsscheine" auf einen neuen Prozess kaufen, aber richtige Kontingente wohl erst wenn der Prozess läuft und man eine Yieldrate abschätzen kann. Alles andere wäre ein viel zu großes Risiko.

Ich schätze man kann maximal 1-1,5 Jahre vorher, als Beispiel, TSMC 3nm bestellen.

Doch, Transfgerrate IST alles!
Es geht in unsere Zeit und der nahen Zukunft überall und ganz extrem um die Erhöhung der Transferrate. Um Datenmenge pro Zeit = Durchsatz. Um den Troughput. Bei SSD, PCIe, RAM-Anbindung, Interconnects, Display-Port ...
Immer größere Datenmengen hin- und herschaufeln, ohne dabei Verlustreibung und damit Verbrauch zu groß werden zu lassen (kleine Spannungen, niedrigere Frequenzen).

HBM war auch nicht für extrem hohe Taktraten gedacht, sondern für extreme Transferraten (mittels großer Bandbreite - oder "Bandwidth", wie der Name schon sagt.). Also hoher Durchsatz.

Man kann hohen Durchsatz auf zwei Wege erzielen:
1.) bei schmalem Kommunikationskanal und hoher Geschwinidigkeit = Frequenz (wenige Leitungen, ganz schnell)
2.) bei niedriger Geschwindigkeit (Frequenz) mit sehr breitem Kommunikationskanal (nicht so schnell, ganz viele Leitungen)

Hoher Takt fürt zu höheren Verlusten und Fehleranfälligkeit.

Bei HBM soll also High Transfer-Rate durch Aufweitung der Datenanbindung bei langsameren/moderaten Geschwindigkeiten ermöglicht werden.
Hoher Durchsatz bei moderatem Takt und somit kleinerem Stromverbrauch.

So wie beim Internet ja auch nicht die Geschwindigkeit erhöt wird, sondern die Bandbreite der Datenleitung, um mehr gleichzeitig durchzuschicken.
Dickerer Wasserschlauch, bei gleichem Druck = größerer Volumenstrom.
Auch wenn wir immer umgangssprachlich von "Internetgeschwindigkeit" reden, ist es eigentlich keine Geschwindigkeit, sonder Durchsatz (Einheiten pro Zeit).
Daher auch der Begriff "Datenautobahn": mehr LKW's nebeneinander mit Tempo 100 anstatt nur einer mit Tempo 200. Weniger Verbrauch, weniger Verschleiß, weniger Stau und Unfälle/Ausfälle und trotzdem mehr Waren transportiert.

Auch DDR kommt da bald an seine Grenzen, weil die Frequenz sich nicht akzeptabel weiter erhöhen lässt.
Daher gab es ja schon früher QDR,

Wie @Pu244 schon sagte, Transferrate ist nicht alles. Die Latenz ist auch extrem wichtig. Ein 50GB/s Satelliten Downlink bringt Dir beim Gaming, als Beispiel, gar nichts wenn die Latenz (Dein Ping) dafür bei >1000ms liegt.

Es ist schon lange bekannt dass es beim RAM z.B. "break even" Punkte gibt wo sich CAS Latenz und Takt ausgleichen, also wo ein höherer Takt (mehr Durchsatz) gleich viel bringt wie eine niedrigere Latenz (schnellere Reaktion der Zellen).

Durch PAM- und QAM-Verfahren kann man beim RAM immer noch sehr viel rausholen. GDDR7 arbeitet mit PAM-3, GDDR6 mit PAM-4, GDDR6X mit PAM-5 (wobei das wohl PAM-4 + 1bit für die Fehlerkorrektur ist). Pro Takt können also 3,4 oder sogar 5 Bit übertragen werden. Das ist ein riesiges Potential an Leistungssteigerung.
 
Nein, ist es nicht, die Latenz spielt eben auch eine große Rolle.
Kaum. Es geht darum, immer größere und immer mehr Daten hin und herzuschaufeln.

Wofür brauchst Du niedrige Latenz? Bei vielen kleinen Einzelzugriffen auf kleine Datenpackete, oder?
Doch nicht beim Transfer von großen Datenmengen.
-> daher "Caches"

Wir reden nicht davon, auf kleine einzelne Datenpackete zuzugreifen. Da willst Du eine geringe Latenz - sehr schnelles Ansprechverhalten. Du willst nicht lange warten, um auf 64bit zuzgreifen, aber eine Textur von mehreren 100 Megabyte, die soll möglichst zeitnah im Ganzen kommuniziert werden.
Bei der Kommunikation im PC zwischen den verschiedenen Komponenten ist genau so ein Fall: throughput über Latenz. Der Speicher (RAM, G-RAM, storage, die Datenbusse ...) sind genau solche Fälle.

Wenn es auf Latenz ankommt, geht man näher an den Prozessor: interner Cache (Level1, Level2 ... auf CPU, GPU).

Dahin geht die Reise.

Du wirst den RAM oder GRAM nicht noch viel schneller bekommen. 5GHz, 7GHz, 10 ... irgendwann ist Schluss und macht auch keinen Sinn mehr. Das ist Massenspeicher. Wir reden nicht von Registern und Caches nahe den ALU's.
(Sicher mit Photonic wird nochmal eine neue Grenze aufgetan ...)
[...]
Wie @Pu244 schon sagte, Transferrate ist nicht alles. Die Latenz ist auch extrem wichtig. Ein 50GB/s Satelliten Downlink bringt Dir beim Gaming, als Beispiel, gar nichts wenn die Latenz (Dein Ping) dafür bei >1000ms liegt.

Es ist schon lange bekannt dass es beim RAM z.B. "break even" Punkte gibt wo sich CAS Latenz und Takt ausgleichen, also wo ein höherer Takt (mehr Durchsatz) gleich viel bringt wie eine niedrigere Latenz (schnellere Reaktion der Zellen).

Durch PAM- und QAM-Verfahren kann man beim RAM immer noch sehr viel rausholen. GDDR7 arbeitet mit PAM-3, GDDR6 mit PAM-4, GDDR6X mit PAM-5 (wobei das wohl PAM-4 + 1bit für die Fehlerkorrektur ist). Pro Takt können also 3,4 oder sogar 5 Bit übertragen werden. Das ist ein riesiges Potential an Leistungssteigerung.

Siehe dazu meine Antwort und Einschätzung voranstehend.

Ja Latenz ist wichtig bei der Response vieler kleiner einzelner Datenpackete. Nicht in der Masse an Riesendaten.

Internet: Latenz. Schneller, als Licht wird es nicht mehr. Klar, du kannst noch in der Signalverstärkung auf dem Weg und der Anzahl an Zwischenbearbeitungen was weghobeln. Aber an der Geschwindigkeit der Signal-Leitung wird sich nicht mehr viel tun. Die Latenz von Deutschland nach Japan ist, wie sie ist. ein 4kb-Päckchen braucht so lang, wie es nunmal braucht. Aber an der Dauer, wie lange es braucht 2TB an Datenvolumen zu übermitteln kann man was machen ...
(fun fakt: die Latenz der Signalübermittlung von DE nach JP über Internet ist schneller, als Deine Nervenleitgeschwindigkeit von der Hand zum Hirn ;) )
Die Latenz Deines Satelliten-Uplinks wirst Du nicht aushebeln können - die Strecke muss zurückgelegt werden und du kommst bei der Physik nun mal an Grenzen (wir theoretisieren jetzt bitte nicht über Quantentunnel, Quantenverschränkung und Einstein-Rosen-Brücken).

Auch Dein angesprochenes PAM oder QAM sind Parallelisierungen, keine Geschwindigkeitserhöhungen.
Der Takt wird nicht schneller, es wird aber mehr pro Takt gemacht.
Wie bei Galsfaser mit Multiplexing.

Ich glaube, wir werfen da jetzt verschiedene "Latenzen" durcheinander in einen Topf.
Die Elektronik arbeitet mit einem gewissen Takt des Signal = Frequenz, Hz.
Die die Geschwindigkeit der Signalübermittlung hängt direkt von dieser Frequenz ab = wieviele Auf und Abs, bzw 1 und 0 pro Zeit.
Die Signalverabreitung wiederum braucht eine gewisse Zeit um ihre Rechenoperationen auszuführen - z.B. mehrere Taktzyklen vom Input bis zum Output = Latenz, bzw. eine eigene Frequenz der Recheneinheit.
Wenn Du es schaffst, deine Signalverarbeitung zu verkürzen und in weniger Takten auszuführen ... JUHU \o/ (aber viel wirst Du da nicht mehr ausholen können. Man kann an der Komplexität der instructions von rumbasteln: CISC vs RISC, etc.), aber auch hier geht man mehr und mehr in Richtung Parallelisierung: nach Möglichkeit die Operationen so kurz und klein wie möglich und dafür so viele wie machbar gleichzeitig parallel - nicht schneller.

Schneller -> Verschleiß, Reibung, Widersstand, Leckströme, Fehler, Datenverlust ...

Aber wir sprachen ja von HBM als Speicher. Und der ist auf Parallelisierung der Signalleitung (also Speicheranbindung) ausgelegt und nicht auf eine Erhöhung des Taktes, um das gleiche zu erreichen, wie GDDR mit hohem Takt: GT/s. High transfer rate.
 
Zuletzt bearbeitet:
Siehe dazu meine Antwort und Einschätzung voranstehend.

Ja Latenz ist wichtig aber der Response vieler kleiner einzelner Datenpackete. Nicht in der Masse an Riesendaten.

Internet: Latenz. Schneller, als Licht wird es nicht mehr. Klar, du kannst noch in der Signalverstärkung auf dem Weg und der Anzahl an Zwischenbearbeitungen was weghobeln. Aber an der Geschwindigkeit der Signal-Leitung wird sich nicht mehr viel tun. Die Latenz von De nach Japan ist, wie sie ist. ein 4kb-Päckchen braucht so lang, wie es nunmal braucht. Aber an der Dauer, wie lange es braucht 2TB zu übermitteln kann man was machen ...
Die Latenz deines Satelliten-Uplinks wirst Du nicht aushebeln können - die Strecke muss zurückgelegt werden und du kommst bei der Physik nun mal an Grenzen (wir theoretisieren jetzt bitte nicht über Quantentunnel, Quantenverschränkung und Einstein-Rosen-Brücken).

Auch Dein angesprochenes PAM oder QAM sind Parallelisierungen, keine Geschwindigkeitserhöhungen.
Der Takt wird nicht schneller, es wird aber mehr pro Takt gemacht.

Na dann erklär mir mal warum DirectStorage entwickelt wurde? Da geht es genau darum, viele kleine Datenpakete möglichst schnell zu übertragen. Nicht wenige große Dateien.

Beim Streaming in Spielen ist die Latenz wichtiger als die Größe der Dateien. Wenn das Asset Streaming eine Textur anfordert, dann muss diese schnell da sein, nicht in der besten Qualität. Deswegen gibt es ja LOD mit verschiedenen Mipmap Levels.

Das PAM und QAM Beispiel habe ich auf das hier bezogen:
Auch DDR kommt da bald an seine Grenzen, weil die Frequenz sich nicht akzeptabel weiter erhöhen lässt.

Du behauptest ja dass DDR RAM an seine Grenzen kommt weil die Frequenzen sich bald kaum erhöhen lassen. Dagegen halte ich andere Möglichkeiten der Transferraten-Erhöhung.

Insgesamt denkst Du "zu einfach". Und weisst anscheinend nicht wie Asset Streaming in modernen Engines funktioniert.

Edit: Und nebenbei, wir sind noch WEEEIIIT entfernt von Lichtgeschwindigkeit bei der Datenübertragung. Die Signalwege über Glasfaser haben Schnittstellen dazwischen wo von und zu Elektronen "übersetzt" wird.
 
Du behauptest ja dass DDR RAM an seine Grenzen kommt weil die Frequenzen sich bald kaum erhöhen lassen. Dagegen halte ich andere Möglichkeiten der Transferraten-Erhöhung.

Insgesamt denkst Du "zu einfach". Und weisst anscheinend nicht wie Asset Streaming in modernen Engines funktioniert.

Edit: Und nebenbei, wir sind noch WEEEIIIT entfernt von Lichtgeschwindigkeit bei der Datenübertragung. Die Signalwege über Glasfaser haben Schnittstellen dazwischen wo von und zu Elektronen "übersetzt" wird.
Richtig! "Andere Möglichkeiten" der "Transferraten-Erhöhung".

Das hast Du schön gesagt. Genau darum ging es. HBM nutzt breite Anbindung als andere Art der Erhöhung.
Weg von der Frequenz, weil Frequenz an Grenzen kommt - zu viel Aufwand für immer weniger Return und andere Nachteile mit sich bringt. Stromverbrauch, warm ...

Der Bottel-Neck derzeit ist es, riesen Datenmengen hin- und herzuschaufeln. Zwischen Speicher und Prozessor, zwischen Prozessor und Ausgabegerät, Massstorage zu Prozessor etc.

Zum "Edit": doch wir sind an Lichtgeschwindigkeit dran. Strom ist auch schon Lichtgeschwindigkeit. Der Puls geht mit Lichtgewschwindigkeit über die Strecke. Das Telegraphenkabel ist schon Lichtgeschwindigkeit gewesen.
Deine Schnittstellen und SIGNALVERARBEITUNG ist ein ganz anderes Spiel. (Aber auch eins, wo der Krieg nicht über die immer weitere Frequenzerhöhung gewonnen wird, sondern über neue Verarbeitungsmöglichkeiten, Verkürzung der Signalvearbeitungsschritte, Reduktion von Schaltprozessen, Reduktion von Verabreitungsschritten )
 
Zuletzt bearbeitet:
Richtig! "Andere Möglichkeiten" der "Transferraten-Erhöhung".

Das hast Du schön gesagt. Genau darum ging es. HBM nutzt breite Anbindung als andere Art der Erhöhung.
Weg von der Frequenz, weil Frequenz an Grenze kommt, zu viel Aufwand für immer weniger Return und andere Nachteile mit siich bringt. Stromverbrauch, warm ...

Der Bottel-Neck derzeit ist es, riesen Datenmengen hin und herzuschaufeln. Zwischen Speicher und Prozessor, zwischen Prozessor und Ausgabegerät, Massstorage zu Prozessor etc.

Zum "Edit": doch wir sind an Lichtgeschwindigkeit dran. Strom ist auch schon Lichtgeschwindigkeit. Der Puls geht mit Lichtgewschwindigkeit über die Strecke. Das Telegraphenkabel ist schon Lichtgeschwindigkeit gewesen.
Deine Schnittstellen und SIGNALVERARBEITUNG ist ein ganz anderes Spiel. (Aber auch eins, wo der Krieg nicht über die immer weitere Frequenzerhöhung gewonnen wird, sondern über neue Verabitungsmöglichkeiten Verkürzung der Signalvearbeitungsschritte, Reduktion von Schaltprozessen, Reduktion von Verabreitungsschritten )

Du redest so einen Unfug....

https://de.linkedin.com/pulse/glasfaser-hört-endlich-auf-mit-lichtgeschwindigkeit-zu-haßdenteufel

Bei Glasfaserleitungen erfolgt die Datenübertragung mittels Licht, ähnlich dem Morse-Prinzip, also "Licht an" und "Licht aus". Licht breitet sich im Vakuum mit einer Geschwindigkeit von rund 300.000 km/s aus. In Materie ist die Ausbreitungsgeschwindigkeit geringer und beträgt im Glasfaserkabel rund 200.000 km/s. Eine irre Geschwindigkeit! Die Strecke München - Berlin wäre in 0,003 Sekunden zurückgelegt. Hingegen erfolgt bei Kupferleitungen die Datenübertragung mittels elektrischer Signale, also Elektronen. Die Propagationsgeschwindigkeit dieser elektromagnetischen Wellen im Kabel beträgt rund 230.000 km/s. Damit ist eine elektrische Datenübertragung schneller als die optische Übertragung!

Fehlt ja nur eine Steigerung um 50% damit man Lichtgeschwindigkeit erreicht. Was ist das schon? :lol:

Mir reicht es an der Stelle auch. Glaub Du ruhig weiter an den Heilsbringer HBM. Und dass Latenz nicht so wichtig ist.
 
Na dann erklär mir mal warum DirectStorage entwickelt wurde? Da geht es genau darum, viele kleine Datenpakete möglichst schnell zu übertragen. Nicht wenige große Dateien.

Beim Streaming in Spielen ist die Latenz wichtiger als die Größe der Dateien. Wenn das Asset Streaming eine Textur anfordert, dann muss diese schnell da sein, nicht in der besten Qualität. Deswegen gibt es ja LOD mit verschiedenen Mipmap Levels.

Äh, nein?

DirectStorage zielt darauf ab, Daten vom Massenspeicher (HDD, SSD) direkt in den Speicher der GPU (also den G-RAM) zu laden um dort direkter und mit weniger zeitraubenden Zwischenschritten von der verarbeitenden GPU abrufbar zu machen.

Bisher werden die Daten erst vom Massstorage in den RAM geladen, dann von der CPU dekomprimiert (verarbeitet) - was extra viel Aufwand und Zeit ist, dann wieder in den RAM, dann zum G-RAM, wo endlich die GPU drauf zugreifen kann und es selbst verarbeiten.

DirectStorage eliminiert den Zwischenschritt über die CPU zur Dekompression und lässt die sehr viel stärker parallelisierte GPU das selber tun.

=> Bei DirektStorage geht es darum, zwischengeschaltete Verarbeitungs- und Übertragungsschritte zu eliminieren



Beim Streaming kommt es darauf an die möglichst großen Datenmengen schnell verfügbar zu machen und Zwischenschritte zu reduzieren. Man kann mit Puffern arbeiten, aber du willst unnötige Signal-Verarbeitungsschritte unterwegs auschalten und am Ende (am besten sehr viel gleichzeitig) direkt bearbeiten.
 
Zuletzt bearbeitet:
Wenn AMD will und die Mittel dafür hat, dann geht schon was.
Ja, lass uns mal hoffen.
Ansonsten bleibt uns nur noch die Hoffnung Intel als Konkurrenz zu Nvidia.
Die Frage ist halt: wann wird AMD endlich ordentlich in RT investieren - und ab diesem Zeitpunkt dauerts ca 5 Jahre bis wir ein Produkt sehen.
Eigentlich hätte ich das schon für 2023 erwartet, nachdem man 2018 etwas schockiert wurde von Nvidias RTX
 
https://de.linkedin.com/pulse/glasfaser-hört-endlich-auf-mit-lichtgeschwindigkeit-zu-haßdenteufel
Fehlt ja nur eine Steigerung um 50% damit man Lichtgeschwindigkeit erreicht. Was ist das schon? :lol:

Mir reicht es an der Stelle auch. Glaub Du ruhig weiter an den Heilsbringer HBM. Und dass Latenz nicht so wichtig ist.

Mooooment! Wir reden hier nicht von Vakuum-Lichtgeschwindigkeit!
Lichtgeschwindigkeit in Medien. Wer hat denn was von Vakuum gesagt?

Ich habe auch nie gesagt dass HBM ein Heilsbringer sei.
Lediglich, dass er seine Vorzüge in der breiten Anbindung für eine hohe Transferrate offerriert, und nicht auf hohe Frequenzen ausgelegt ist.

Und ich bleibe dabei: der Bottleneck, um den es heute immer mehr geht ist die hohe Transferrate für immer steigende Informationsmengen.
 
Zuletzt bearbeitet:
Zurück