Da gibt es eigentlich drei Möglichkeiten:
1: man verbaut soviel RAM, dass das keinen Unterschied macht. Ich habe vor knapp 10 Jahren 32GB genommen (waren mit 130€ sehr billig), heute würde ich 64 oder 128GB nehmen.
2: man beendet (wie gesagt wurde) alle Hintergrundanwendungen. Ich komme noch aus einer Zeit, in der man bei anspruchsvollen Spielen, den PC neugestartet und dann sämtlichen RAM freigeräumt hat (Virenscanner totmachen nicht vergessen).
3: man lebt einfach damit.
Ich halte es für keine gute Idee, da groß Entwicklungssressourcen zu verschwenden. Das sind nur ein paar Leute, die zu faul sind, die Anwendungen zu schließen. Obendrein braucht es dann auch noch ordentlich Fachwissen, sonst ist diese Option schnell kontraproduktiv.
1. und 3. sind für Entwickler kein gangbarer Weg, das würde die Käuferschaft deutlich einschränken wenn Spiele auf PCs ohne grandios überdimensioniertem RAM unspielbar sind. Umgekehrt ist aus Entwicklersicht der heutige Zustand kein großer Nachteil, dass Spiele auf High-End-Systemen kaum besser laufen.
Option 2. würde viele Kunden ebenfalls als Zumutung bezeichnen und das Marketing würde am Rad drehen, wenn Streams und ähnliches nicht mehr möglich wären, vor allem aber stehen sich da auch die Spielefirmen selbst im Weg. Oder beenden du und Chill_Eule neben Windows-Update und Virenscanner auch Steam, Origina, Ubilauncher, etc. bevor ihr ein Spiel startet?
Ohne Hintergrundanwendungen geht es nicht und wenn diese jeweils ihren maximal denkbaren Speicherplatz dauerhaft reservieren, aus Angst, ein Spiel könnte später pauschal
alles noch freie an sich binden, wären wir wieder bei Punkt 1. "Große Entwicklungsressourcen" bräuchte es aber auch für eine dynamische Lösung nicht. Jedes Spiel begrenzt sein Speichermanagement schon heute auf ein Maß, dass in Augen des Entwicklers einen sinnvollen Kompromiss aus Speicherbedarf und Performance darstellt. In Zeiten dynamisch gestreamter Inhalte und seamless Worlds dürfte diese Grenze auch kein integriertes Limit der Spiele-Engine sein, die ausschließlich 4-16 GiB verwalten kann, sondern es dürfte in vielen Fällen eine dynamische Begrenzung des Cachings sein. Es fehlt nur eine Option, diese Begrenzung nach oben zu erweitern, wenn man überschüssigen Speicher hat. So ein paar Zeilen Code wünsche ich mir schon länger. (Genauswo wie Installer, die zugunsten niedriger Ladezeiten eine teilweise entpackte Speicherung häufig benötigter Dateien anbieten.)
Okay.
Wie verhält es sich bei HDMI zum Beispiel?
Man hat mit 2.0 eine Datenrate von ~1,75 GB/s, bei 8 bit Bandbreite.
Bei 2.1 kommt man auf ~5 GB/s, bei 16 bit Bandbreite.
War das technisch wirklich unmöglich, die Bandbreite bei 2.0 statt 8 mit 16 bit anzulegen, oder spielt da auch der Faktor mit rein, dass die Architektur auch bewusst so gestaltet ist, dass man immer wieder neue Generationen hat, durch die man dann immer wieder alle möglichen an der Signalkette beteiligten Komponenten ersetzen muss?
Jedes einzelne Element der Kette müsste dann die entsprechenden Datenraten verkraften und wäre dementsprechend teuer. Letztendlich forderst du nichts anderes, als den späteren Standard einfach schon früher einzuführen – zu einem Zeitpunkt, zu dem er exponentiell teurer in der Umsetzung wäre, weil einfach die nötige Technik noch gar nicht existiert. Im Bereich PCI-E und HDMI liegt kein Beispiel auf der Hand, aber bei der Entwicklung externer Schnittstellen wurde bereits für USB 3.0 eine optische Datenübertragung erwogen und dann wegen der Kosten gestrichen. Intel hat die Technik dann als Lightpeak weiterentwickelt, was ebenfalls unrealisierbar teuer wurde und letztlich zu Thunderbolt führte, wofür es optische Kabel optional gibt. Bei entsprechender Kanalbündelung hätten wir also schon also schon gegen 2010 mit USB 3.0 die 20-GBit/s-Geschwindigkeit von Thunderbolt 2 haben können, die heute langsam als USB 3.2 doch langsam zur Mainboard-Standardausstattung wird.
Wäre das toll gewesen? Sagen wir mal so: Allein besagte TB-Kabel kosten heute typischerweise ab 100 bis 200 Euro. Vor 10 Jahren wären es dann vielleicht 500 Euro für ein simples "USB 3.0 20 GBit/s Anschlusskabel" gewesen statt 5 Euro für die USB-3.0-5-GBit/s-Technik, die wir in der Realität bekommen haben. Und uns auch leisten konnten.
Gerade dem PCI-E-Konsortium ist in dieser Hinsicht fast schon Übereifer vorzuwerfen. Seit beinahe 10 Jahren bezahlen wir PCI-E-3.0-Geschwindigkeit, aber bis heute, wo 5.0 bereits verfügbar ist und 6.0 spezifiziert, laufen Grafikkarten mit sinnvoller VRAM-Ausstattung auch in PCI-E-2.0-Slots ohne extreme Performance-Verluste. Der Nachfolgestandard wurde so früh eingeführt, dass sogar die erste Genertion, die ihn unterstütze, komplett in Rente ging, bevor er das erste Mal wirklich benötigt wurde, geschweige denn das noch ältere Teile der Signalkette weiterhin in Betrieb wären und zum limitierenden Faktor werden könnten.
(Ausnahme: Gewisse AMD I/O-Hubs.^^)