Nein, ist es nicht, die Latenz spielt eben auch eine große Rolle.
Kaum. Es geht darum, immer größere und immer mehr Daten hin und herzuschaufeln.
Wofür brauchst Du niedrige Latenz? Bei vielen kleinen Einzelzugriffen auf kleine Datenpackete, oder?
Doch nicht beim Transfer von großen Datenmengen.
-> daher "Caches"
Wir reden nicht davon, auf kleine einzelne Datenpackete zuzugreifen. Da willst Du eine geringe Latenz - sehr schnelles Ansprechverhalten. Du willst nicht lange warten, um auf 64bit zuzgreifen, aber eine Textur von mehreren 100 Megabyte, die soll möglichst zeitnah im Ganzen kommuniziert werden.
Bei der Kommunikation im PC zwischen den verschiedenen Komponenten ist genau so ein Fall: throughput über Latenz. Der Speicher (RAM, G-RAM, storage, die Datenbusse ...) sind genau solche Fälle.
Wenn es auf Latenz ankommt, geht man näher an den Prozessor: interner Cache (Level1, Level2 ... auf CPU, GPU).
Dahin geht die Reise.
Du wirst den RAM oder GRAM nicht noch viel schneller bekommen. 5GHz, 7GHz, 10 ... irgendwann ist Schluss und macht auch keinen Sinn mehr. Das ist Massenspeicher. Wir reden nicht von Registern und Caches nahe den ALU's.
(Sicher mit Photonic wird nochmal eine neue Grenze aufgetan ...)
[...]
Wie
@Pu244 schon sagte, Transferrate ist nicht alles. Die Latenz ist auch extrem wichtig. Ein 50GB/s Satelliten Downlink bringt Dir beim Gaming, als Beispiel, gar nichts wenn die Latenz (Dein Ping) dafür bei >1000ms liegt.
Es ist schon lange bekannt dass es beim RAM z.B. "break even" Punkte gibt wo sich CAS Latenz und Takt ausgleichen, also wo ein höherer Takt (mehr Durchsatz) gleich viel bringt wie eine niedrigere Latenz (schnellere Reaktion der Zellen).
Durch PAM- und QAM-Verfahren kann man beim RAM immer noch sehr viel rausholen. GDDR7 arbeitet mit PAM-3, GDDR6 mit PAM-4, GDDR6X mit PAM-5 (wobei das wohl PAM-4 + 1bit für die Fehlerkorrektur ist). Pro Takt können also 3,4 oder sogar 5 Bit übertragen werden. Das ist ein riesiges Potential an Leistungssteigerung.
Siehe dazu meine Antwort und Einschätzung voranstehend.
Ja Latenz ist wichtig bei der Response vieler kleiner einzelner Datenpackete. Nicht in der Masse an Riesendaten.
Internet: Latenz. Schneller, als Licht wird es nicht mehr. Klar, du kannst noch in der Signalverstärkung auf dem Weg und der Anzahl an Zwischenbearbeitungen was weghobeln. Aber an der Geschwindigkeit der Signal-Leitung wird sich nicht mehr viel tun. Die Latenz von Deutschland nach Japan ist, wie sie ist. ein 4kb-Päckchen braucht so lang, wie es nunmal braucht. Aber an der Dauer, wie lange es braucht 2TB an Datenvolumen zu übermitteln kann man was machen ...
(fun fakt: die Latenz der Signalübermittlung von DE nach JP über Internet ist schneller, als Deine Nervenleitgeschwindigkeit von der Hand zum Hirn
)
Die Latenz Deines Satelliten-Uplinks wirst Du nicht aushebeln können - die Strecke muss zurückgelegt werden und du kommst bei der Physik nun mal an Grenzen (wir theoretisieren jetzt bitte nicht über Quantentunnel, Quantenverschränkung und Einstein-Rosen-Brücken).
Auch Dein angesprochenes PAM oder QAM sind Parallelisierungen, keine Geschwindigkeitserhöhungen.
Der Takt wird nicht schneller, es wird aber mehr pro Takt gemacht.
Wie bei Galsfaser mit Multiplexing.
Ich glaube, wir werfen da jetzt verschiedene "Latenzen" durcheinander in einen Topf.
Die Elektronik arbeitet mit einem gewissen Takt des Signal = Frequenz, Hz.
Die die Geschwindigkeit der Signalübermittlung hängt direkt von dieser Frequenz ab = wieviele Auf und Abs, bzw 1 und 0 pro Zeit.
Die Signalverabreitung wiederum braucht eine gewisse Zeit um ihre Rechenoperationen auszuführen - z.B. mehrere Taktzyklen vom Input bis zum Output = Latenz, bzw. eine eigene Frequenz der Recheneinheit.
Wenn Du es schaffst, deine Signalverarbeitung zu verkürzen und in weniger Takten auszuführen ... JUHU \o/ (aber viel wirst Du da nicht mehr ausholen können. Man kann an der Komplexität der instructions von rumbasteln: CISC vs RISC, etc.), aber auch hier geht man mehr und mehr in Richtung Parallelisierung: nach Möglichkeit die Operationen so kurz und klein wie möglich und dafür so viele wie machbar gleichzeitig parallel - nicht schneller.
Schneller -> Verschleiß, Reibung, Widersstand, Leckströme, Fehler, Datenverlust ...
Aber wir sprachen ja von HBM als Speicher. Und der ist auf Parallelisierung der Signalleitung (also Speicheranbindung) ausgelegt und nicht auf eine Erhöhung des Taktes, um das gleiche zu erreichen, wie GDDR mit hohem Takt: GT/s. High transfer rate.