PCI-E-5.0-SSDs: Controller von Silicon Motion sollen 2024 bereit sein

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu PCI-E-5.0-SSDs: Controller von Silicon Motion sollen 2024 bereit sein

In einer Telefonkonferenz über die Geschäftseinnahmen gab das Unternehmen Silicon Motion bekannt, dass seine PCI-E-5.0-fähigen Controller für Consumer-SSDs irgendwann im Jahr 2024 einsatzfähig sein werden. Bis dahin soll es Mainstream-PCs geben, die die noch dieses Jahr erscheinenden SSDs unterstützen werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: PCI-E-5.0-SSDs: Controller von Silicon Motion sollen 2024 bereit sein
 
"dass SSD-Controller für die PCI-Express-5.0-Schnittstelle auf Kurs für das Jahr 2024 sind"

In 2 Jahren (!), "auf Kurs" ?!?
Das nenn ich mal ne KNORKE Aussage mit der man "arbeiten" kann ... :ugly:

MfG Föhn.
 
Ok, ich wüsste auch ehrlich nicht wo ich als Privatperson jetzt irgendnen Vorteil davon hätte ob meine SSDs jetzt mit 3 oder 15 GB/s sequentiell lesen (in nahezu allen Fällen sind selbst die 500 MB/s SATA mehr als ausreichend, selbst beim Arbeiten mit großen Videodateien) aber ärgerlich ists natürlich schon wenns Jahre dauert bis ein Standard zumindest theoretisch (an einem Einzelgerät) ausgenutzt werden kann.
 
Ok, ich wüsste auch ehrlich nicht wo ich als Privatperson jetzt irgendnen Vorteil davon hätte ob meine SSDs jetzt mit 3 oder 15 GB/s sequentiell lesen (in nahezu allen Fällen sind selbst die 500 MB/s SATA mehr als ausreichend, selbst beim Arbeiten mit großen Videodateien) aber ärgerlich ists natürlich schon wenns Jahre dauert bis ein Standard zumindest theoretisch (an einem Einzelgerät) ausgenutzt werden kann.
Da ja von den Konsolen diese Welle des SSD-Streaming bestimmt auch irgendwann auf den PC schwappt, könnte da ein wenig mehr Dampf bestimmt nicht schaden.
(Auch wenn ich immer sage, schaufelt die Daten in den RAM der ist viel schneller als jede SSD)

Ich fände es viel besser, wenn am PC die Spieleentwickler anstatt auf schnelle SSD`s zu setzen, lieber mal den vorhandenen Ram besser ausnutzen würden, um die Daten in den RAM zu schaufeln.

Meine 32GB wurden so lange kaum verwendet, dass ich mir noch mit ein paar GB eine Ramdisk eingerichtet hatte.

Prozessor / GPU ist immer schneller geworden aber beim Arbeitsspeicher hängen die Leute ewig erst auf 8 dann auf 16 GB fest weil der Ram einfach nicht genutzt wurde. ( wahrscheinlich auch die Konsolen zum Teil mit dran Schuld )
 
Zuletzt bearbeitet:
obwohl ich es lieber sehen würde wenn am PC die Spieleentwickler die schnellen SSD`s dazu verwenden würden den RAM voll zu schaufeln und endlich mal richtig auszunutzen.
Es hat einen Grund warum sie das nicht machen - in den Medien und Netzwerken usw. kommt dann sofort der "Spiel XY braucht drölfzig GB RAM!!!!11eins"-Shitstorm da man den leuten Jahrzehntelang eingeprügelt hat dass voller RAM schlecht ist (obwohl das genaue Gegenteil der Fall ist - leerer RAM ist ungenutzter RAM) und das ist marketingtechnisch untragbar.

Vereinzelt wurde es probiert (beispielsweise Lords of the Fallen hat damals das ganze Spiel in den vRAM der GPU und den RAM des Systems geladen wenn genug da war) aber die dümmliche Reaktion der Leute "Spiel frisst 6 GB vRAM!!!" obwohl auch 1,5 GB reichten - dann waren nur Ladezeiten halt länger - führte dazu dass es rausgepatcht und nie wieder verwendet wurde.
Der Michel starrt eben lieber auf Ladebalken als einen vollen RAM sehen zu müssen. Microsoft hats bei Windows bereits zu XP-Zeiten geschickter gelöst: Man nutzt zwar den ganzen RAM für Caching aus aber zeigt reine Cachevorgänge im Taskmanager nicht mehr als "belegt" an.
 
Es hat einen Grund warum sie das nicht machen - in den Medien und Netzwerken usw. kommt dann sofort der "Spiel XY braucht drölfzig GB RAM!!!!11eins"-Shitstorm da man den leuten Jahrzehntelang eingeprügelt hat dass voller RAM schlecht ist (obwohl das genaue Gegenteil der Fall ist - leerer RAM ist ungenutzter RAM) und das ist marketingtechnisch untragbar.

Vereinzelt wurde es probiert (beispielsweise Lords of the Fallen hat damals das ganze Spiel in den vRAM der GPU und den RAM des Systems geladen wenn genug da war) aber die dümmliche Reaktion der Leute "Spiel frisst 6 GB vRAM!!!" obwohl auch 1,5 GB reichten - dann waren nur Ladezeiten halt länger - führte dazu dass es rausgepatcht und nie wieder verwendet wurde.
Der Michel starrt eben lieber auf Ladebalken als einen vollen RAM sehen zu müssen. Microsoft hats bei Windows bereits zu XP-Zeiten geschickter gelöst: Man nutzt zwar den ganzen RAM für Caching aus aber zeigt reine Cachevorgänge im Taskmanager nicht mehr als "belegt" an.
Kann ich so unterschreiben. ^^

Nach so vielen Jahren haben mir die 32GB nur als Ramdisk wirklich einen guten Nutzen gebracht, kann die Leute auch immer nicht verstehen, dass da immer gleich geschrien wird wenn die Anforderungen an den Ram steigen.

Bei den GPU`s wollen komischer Weise wiederum Alle mehr und mehr Ram haben ( für Texturen und Co. ) beim Arbeitsspeicher ist das einfach nicht bei dem Leuten angekommen, dass es auch ne feine Sache wäre, wenn genug zu Verfügung stände und dann auch genutzt wird.
 
Ok, ich wüsste auch ehrlich nicht wo ich als Privatperson jetzt irgendnen Vorteil davon hätte ob meine SSDs jetzt mit 3 oder 15 GB/s sequentiell lesen (in nahezu allen Fällen sind selbst die 500 MB/s SATA mehr als ausreichend, selbst beim Arbeiten mit großen Videodateien) aber ärgerlich ists natürlich schon wenns Jahre dauert bis ein Standard zumindest theoretisch (an einem Einzelgerät) ausgenutzt werden kann.

Für die Auslagerungsdatei ist das doch schon relativ wichtig. Je weniger RAM man hat, umso mehr fällt es ins Gewicht und man kann damit so einiges kompensieren.

Es hat einen Grund warum sie das nicht machen - in den Medien und Netzwerken usw. kommt dann sofort der "Spiel XY braucht drölfzig GB RAM!!!!11eins"-Shitstorm da man den leuten Jahrzehntelang eingeprügelt hat dass voller RAM schlecht ist (obwohl das genaue Gegenteil der Fall ist - leerer RAM ist ungenutzter RAM) und das ist marketingtechnisch untragbar.

Das Problem ist weniger der Shitstorm, da gab es relativ wenig. Das letzte war Gothic 3 und da auch vorallem, weil es so grottig optimiert war. Das große Problem, wenn man soetwas zur Pflicht macht, ist, dass der Kundenkreis schrumpft. Früher gab es dann große Spiele, wie Crysis, Doom 3, HL2 usw., für die die Leute extra aufgerüstet haben. Das fehlt heute leider.

Echt schade. Es wäre ganz schön gewesen, wenn die 32GB in meinem Rechner auch mal etwas mehr zutun bekommen hätten, als tausend+ Chrometabs zu verwalten. Darauf warten die schon seit knapp 10 Jahren.
 
Es hat einen Grund warum sie das nicht machen - in den Medien und Netzwerken usw. kommt dann sofort der "Spiel XY braucht drölfzig GB RAM!!!!11eins"-Shitstorm da man den leuten Jahrzehntelang eingeprügelt hat dass voller RAM schlecht ist (obwohl das genaue Gegenteil der Fall ist - leerer RAM ist ungenutzter RAM) und das ist marketingtechnisch untragbar.

Vereinzelt wurde es probiert (beispielsweise Lords of the Fallen hat damals das ganze Spiel in den vRAM der GPU und den RAM des Systems geladen wenn genug da war) aber die dümmliche Reaktion der Leute "Spiel frisst 6 GB vRAM!!!" obwohl auch 1,5 GB reichten - dann waren nur Ladezeiten halt länger - führte dazu dass es rausgepatcht und nie wieder verwendet wurde.
Der Michel starrt eben lieber auf Ladebalken als einen vollen RAM sehen zu müssen. Microsoft hats bei Windows bereits zu XP-Zeiten geschickter gelöst: Man nutzt zwar den ganzen RAM für Caching aus aber zeigt reine Cachevorgänge im Taskmanager nicht mehr als "belegt" an.


Dieses "Problem" könnte man eigentlich mit einem einfachen Schieberegler in den Optionen lösen. "Use X Percent of available RAM". Grundsätzlich alles für ein Spiel zu reservieren, auch wenn es möglicherweise nur minimale Vorteile für diese bringt, kann nämlich auch zu echten Nachteilen führen. Zum Beispiel wenn man eine Hintergrundanwendung mit schwankendem Speicherbedarf hat, die den Gesamtverbrauch wenige Minuten später über die vorhandene Kapazität steigert und Windows dann willkürlich irgendwelche Dateien auslagern lässt, die möglicherweise wichtiger als Texturdaten aus dem vorletzten Level sind.
 
Dieses "Problem" könnte man eigentlich mit einem einfachen Schieberegler in den Optionen lösen. "Use X Percent of available RAM". Grundsätzlich alles für ein Spiel zu reservieren, auch wenn es möglicherweise nur minimale Vorteile für diese bringt, kann nämlich auch zu echten Nachteilen führen. Zum Beispiel wenn man eine Hintergrundanwendung mit schwankendem Speicherbedarf hat, die den Gesamtverbrauch wenige Minuten später über die vorhandene Kapazität steigert und Windows dann willkürlich irgendwelche Dateien auslagern lässt, die möglicherweise wichtiger als Texturdaten aus dem vorletzten Level sind.

Da gibt es eigentlich drei Möglichkeiten:
1: man verbaut soviel RAM, dass das keinen Unterschied macht. Ich habe vor knapp 10 Jahren 32GB genommen (waren mit 130€ sehr billig), heute würde ich 64 oder 128GB nehmen.
2: man beendet (wie gesagt wurde) alle Hintergrundanwendungen. Ich komme noch aus einer Zeit, in der man bei anspruchsvollen Spielen, den PC neugestartet und dann sämtlichen RAM freigeräumt hat (Virenscanner totmachen nicht vergessen).
3: man lebt einfach damit.

Ich halte es für keine gute Idee, da groß Entwicklungssressourcen zu verschwenden. Das sind nur ein paar Leute, die zu faul sind, die Anwendungen zu schließen. Obendrein braucht es dann auch noch ordentlich Fachwissen, sonst ist diese Option schnell kontraproduktiv.
 
Es hat einen Grund warum sie das nicht machen - in den Medien und Netzwerken usw. kommt dann sofort der "Spiel XY braucht drölfzig GB RAM!!!!11eins"-Shitstorm da man den leuten Jahrzehntelang eingeprügelt hat dass voller RAM schlecht ist (obwohl das genaue Gegenteil der Fall ist - leerer RAM ist ungenutzter RAM) und das ist marketingtechnisch untragbar.

Vereinzelt wurde es probiert (beispielsweise Lords of the Fallen hat damals das ganze Spiel in den vRAM der GPU und den RAM des Systems geladen wenn genug da war) aber die dümmliche Reaktion der Leute "Spiel frisst 6 GB vRAM!!!" obwohl auch 1,5 GB reichten - dann waren nur Ladezeiten halt länger - führte dazu dass es rausgepatcht und nie wieder verwendet wurde.

Liegt dann aber auch am Hersteller, der das nicht klar genug kommuniziert hat.
"Achtung, dieses Spiel nutzt ungenutzten RAM, um Ladevorgänge zu verkürzen. Eine hohe Speicherausnutzung ist in diesem Falle gewünscht, ein normaler Vorgang und beeinträchtigt nicht die Systemperformance." oder ähnliches.

Nu ja. Jetzt geht es schon wieder um PCIe 5.
Ich frage mich immer wieder, ob es technisch wirklich absolut unmöglich ist, die entsprechende Bandbreite einfach von vornherein zu spezifizieren für einige Generationen, statt es immer wieder häppchenweise zu servieren, so dass dann immer wieder der ganze dranhängende Rattenschwanz ersetzt werden muss. Aber da hat natürlich kein Hersteller ein Interesse dran... whatever.

Fände es auf jeden Fall gut, wenn Games in Zukunft ohne Ladezeiten auskommen.
 
Nu ja. Jetzt geht es schon wieder um PCIe 5.
Ich frage mich immer wieder, ob es technisch wirklich absolut unmöglich ist, die entsprechende Bandbreite einfach von vornherein zu spezifizieren für einige Generationen, statt es immer wieder häppchenweise zu servieren, so dass dann immer wieder der ganze dranhängende Rattenschwanz ersetzt werden muss. Aber da hat natürlich kein Hersteller ein Interesse dran... whatever.

Kurzgesagt: ja ist es

Wobei PCIe auf- und abwärtskompatibel ist. Man kann eine Erweiterungskarte von 2003 auch in heutigen PCs verbauen und umgekehrt funktioniert eine RTX 3090 auch in einem PC von 2003.
 
PCIe ist PCIe... aufwärts und rückwärts vollkommen kompatibel... lang oder kurz - bestimmt nur die Anzahl der maximal genutzten Lanes - 1x, 4x, 8x oder 16x. Andere Formate - M.2, U.2 und und und...alles durch einen Adapter anschließbar, aber im Grunde bleibt es bei PCIe Übertragung.
Das meine ich ja nicht, sondern was spräche denn technisch dagegen, z. B. die maximale Bandbreite des Interfaces heute schon entsprechend anzulegen? Mechanisch sollte es ja kein Problem sein.
Ich bin da nicht so drin in dem Thema, deshalb frage ich ja. ;)
 
Die lange Version?

Man hat einfach nicht die Signalübertragung im Griff. PCIe ist, zu seiner jeweiligen Zeit, in einer Gegend unterwegs, die man als modernes Wunder bezeichnen kann. Teilweise ist die Technik auf so einem hohen Niveau, dass das 5 Jahre vorher nicht vorstellbar war, zumindest nicht zu dem Preis.

Man hätte 2003 auch lieber eine Lane, mit der Leistung von PCIe 5.0 gehabt, die dann so leistungsfähig gewesen wäre, wie 16x PCIe 1.0. Ging eben damals nicht, dazu mußte man dann gut 18 Jahre warten. Man konnte auch nicht vorhersehen, was in der Zukunft sein wird, die optische Übertragung ist ja seit 40 Jahren die Zukunft.

Man hat heute (also drei Jahre, nachdem PCIe 5.0 festgezurrt wurde) eine Vorstellung, wie PCIe 6.0 aussehen wird, das muß noch spezifiziert werden. Wie PCIe 7.0 aussieht und ob es überhaupt noch ein PCIe 8.0 geben wird, steht allerdings noch in den Sternen. Genauso wußten die Leute bei PCIe 1.0 nicht, ob es überhaupt ein PCI 3.0 geben wird. AGP hielt übrigens nur 6 Jahre durch, bis er eingestampft wurde.
 
Man hat einfach nicht die Signalübertragung im Griff. PCIe ist, zu seiner jeweiligen Zeit, in einer Gegend unterwegs, die man als modernes Wunder bezeichnen kann. Teilweise ist die Technik auf so einem hohen Niveau, dass das 5 Jahre vorher nicht vorstellbar war, zumindest nicht zu dem Preis.

Man hätte 2003 auch lieber eine Lane, mit der Leistung von PCIe 5.0 gehabt, die dann so leistungsfähig gewesen wäre, wie 16x PCIe 1.0. Ging eben damals nicht, dazu mußte man dann gut 18 Jahre warten. Man konnte auch nicht vorhersehen, was in der Zukunft sein wird, die optische Übertragung ist ja seit 40 Jahren die Zukunft.

Man hat heute (also drei Jahre, nachdem PCIe 5.0 festgezurrt wurde) eine Vorstellung, wie PCIe 6.0 aussehen wird, das muß noch spezifiziert werden. Wie PCIe 7.0 aussieht und ob es überhaupt noch ein PCIe 8.0 geben wird, steht allerdings noch in den Sternen. Genauso wußten die Leute bei PCIe 1.0 nicht, ob es überhaupt ein PCI 3.0 geben wird. AGP hielt übrigens nur 6 Jahre durch, bis er eingestampft wurde.
Okay.

Wie verhält es sich bei HDMI zum Beispiel?
Man hat mit 2.0 eine Datenrate von ~1,75 GB/s, bei 8 bit Bandbreite.
Bei 2.1 kommt man auf ~5 GB/s, bei 16 bit Bandbreite.
War das technisch wirklich unmöglich, die Bandbreite bei 2.0 statt 8 mit 16 bit anzulegen, oder spielt da auch der Faktor mit rein, dass die Architektur auch bewusst so gestaltet ist, dass man immer wieder neue Generationen hat, durch die man dann immer wieder alle möglichen an der Signalkette beteiligten Komponenten ersetzen muss?
 
Da gibt es eigentlich drei Möglichkeiten:
1: man verbaut soviel RAM, dass das keinen Unterschied macht. Ich habe vor knapp 10 Jahren 32GB genommen (waren mit 130€ sehr billig), heute würde ich 64 oder 128GB nehmen.
2: man beendet (wie gesagt wurde) alle Hintergrundanwendungen. Ich komme noch aus einer Zeit, in der man bei anspruchsvollen Spielen, den PC neugestartet und dann sämtlichen RAM freigeräumt hat (Virenscanner totmachen nicht vergessen).
3: man lebt einfach damit.

Ich halte es für keine gute Idee, da groß Entwicklungssressourcen zu verschwenden. Das sind nur ein paar Leute, die zu faul sind, die Anwendungen zu schließen. Obendrein braucht es dann auch noch ordentlich Fachwissen, sonst ist diese Option schnell kontraproduktiv.

1. und 3. sind für Entwickler kein gangbarer Weg, das würde die Käuferschaft deutlich einschränken wenn Spiele auf PCs ohne grandios überdimensioniertem RAM unspielbar sind. Umgekehrt ist aus Entwicklersicht der heutige Zustand kein großer Nachteil, dass Spiele auf High-End-Systemen kaum besser laufen.

Option 2. würde viele Kunden ebenfalls als Zumutung bezeichnen und das Marketing würde am Rad drehen, wenn Streams und ähnliches nicht mehr möglich wären, vor allem aber stehen sich da auch die Spielefirmen selbst im Weg. Oder beenden du und Chill_Eule neben Windows-Update und Virenscanner auch Steam, Origina, Ubilauncher, etc. bevor ihr ein Spiel startet?

Ohne Hintergrundanwendungen geht es nicht und wenn diese jeweils ihren maximal denkbaren Speicherplatz dauerhaft reservieren, aus Angst, ein Spiel könnte später pauschal alles noch freie an sich binden, wären wir wieder bei Punkt 1. "Große Entwicklungsressourcen" bräuchte es aber auch für eine dynamische Lösung nicht. Jedes Spiel begrenzt sein Speichermanagement schon heute auf ein Maß, dass in Augen des Entwicklers einen sinnvollen Kompromiss aus Speicherbedarf und Performance darstellt. In Zeiten dynamisch gestreamter Inhalte und seamless Worlds dürfte diese Grenze auch kein integriertes Limit der Spiele-Engine sein, die ausschließlich 4-16 GiB verwalten kann, sondern es dürfte in vielen Fällen eine dynamische Begrenzung des Cachings sein. Es fehlt nur eine Option, diese Begrenzung nach oben zu erweitern, wenn man überschüssigen Speicher hat. So ein paar Zeilen Code wünsche ich mir schon länger. (Genauswo wie Installer, die zugunsten niedriger Ladezeiten eine teilweise entpackte Speicherung häufig benötigter Dateien anbieten.)


Okay.

Wie verhält es sich bei HDMI zum Beispiel?
Man hat mit 2.0 eine Datenrate von ~1,75 GB/s, bei 8 bit Bandbreite.
Bei 2.1 kommt man auf ~5 GB/s, bei 16 bit Bandbreite.
War das technisch wirklich unmöglich, die Bandbreite bei 2.0 statt 8 mit 16 bit anzulegen, oder spielt da auch der Faktor mit rein, dass die Architektur auch bewusst so gestaltet ist, dass man immer wieder neue Generationen hat, durch die man dann immer wieder alle möglichen an der Signalkette beteiligten Komponenten ersetzen muss?

Jedes einzelne Element der Kette müsste dann die entsprechenden Datenraten verkraften und wäre dementsprechend teuer. Letztendlich forderst du nichts anderes, als den späteren Standard einfach schon früher einzuführen – zu einem Zeitpunkt, zu dem er exponentiell teurer in der Umsetzung wäre, weil einfach die nötige Technik noch gar nicht existiert. Im Bereich PCI-E und HDMI liegt kein Beispiel auf der Hand, aber bei der Entwicklung externer Schnittstellen wurde bereits für USB 3.0 eine optische Datenübertragung erwogen und dann wegen der Kosten gestrichen. Intel hat die Technik dann als Lightpeak weiterentwickelt, was ebenfalls unrealisierbar teuer wurde und letztlich zu Thunderbolt führte, wofür es optische Kabel optional gibt. Bei entsprechender Kanalbündelung hätten wir also schon also schon gegen 2010 mit USB 3.0 die 20-GBit/s-Geschwindigkeit von Thunderbolt 2 haben können, die heute langsam als USB 3.2 doch langsam zur Mainboard-Standardausstattung wird.

Wäre das toll gewesen? Sagen wir mal so: Allein besagte TB-Kabel kosten heute typischerweise ab 100 bis 200 Euro. Vor 10 Jahren wären es dann vielleicht 500 Euro für ein simples "USB 3.0 20 GBit/s Anschlusskabel" gewesen statt 5 Euro für die USB-3.0-5-GBit/s-Technik, die wir in der Realität bekommen haben. Und uns auch leisten konnten.

Gerade dem PCI-E-Konsortium ist in dieser Hinsicht fast schon Übereifer vorzuwerfen. Seit beinahe 10 Jahren bezahlen wir PCI-E-3.0-Geschwindigkeit, aber bis heute, wo 5.0 bereits verfügbar ist und 6.0 spezifiziert, laufen Grafikkarten mit sinnvoller VRAM-Ausstattung auch in PCI-E-2.0-Slots ohne extreme Performance-Verluste. Der Nachfolgestandard wurde so früh eingeführt, dass sogar die erste Genertion, die ihn unterstütze, komplett in Rente ging, bevor er das erste Mal wirklich benötigt wurde, geschweige denn das noch ältere Teile der Signalkette weiterhin in Betrieb wären und zum limitierenden Faktor werden könnten.
(Ausnahme: Gewisse AMD I/O-Hubs.^^)
 
Zuletzt bearbeitet:
1. und 3. sind für Entwickler kein gangbarer Weg, das würde die Käuferschaft deutlich einschränken wenn Spiele auf PCs ohne grandios überdimensioniertem RAM unspielbar sind. Umgekehrt ist aus Entwicklersicht der heutige Zustand kein großer Nachteil, dass Spiele auf High-End-Systemen kaum besser laufen.

Wenn ich meine 2700 Chrometabs unbedingt neben dem Spiel laufen lassen will, dann muß ich nunmal in den Sauren Apfel beißen und mir soviel RAM zulegen.

Du erwartest doch nicht ernsthaft, dass die Entwickler ihr Spiel von 16GB RAM auf 2GB zusammenstreichen, damit man das bequem machen kann?

Anno 1404 kann ich bequem nebenher starten, egal, wieviel Tabs ich geladen habe. Die 2GB macht mir Win 8.1 im nu frei. Mit Anno 1800 funktioniert das nicht mehr. Unter 16GB freiem RAM merkt man schon, dass Windows da etwas auf die SSD auslagert und unter 8GB wird es dann langsam kritisch. Da muß ich dann leider Chrome per Taskmanager abschießen und dann später wieder neu starten.

Option 2. würde viele Kunden ebenfalls als Zumutung bezeichnen und das Marketing würde am Rad drehen, wenn Streams und ähnliches nicht mehr möglich wären, vor allem aber stehen sich da auch die Spielefirmen selbst im Weg.

Wenn man sich einbildet, dass man bei 8GB und einem i5 2500K Mindestanforderung mit 8GB und einem i5 2500K noch groß irgendwas nebenher machen kann, dann wird man eventuell bitter enttäuscht. Auch da können die Entwickler ihr Spiel nicht einfach so auf 2GB RAM Verbrauch zusammenstreichen, nur weil irgend ein Streamer zu geizig ist, 30-40€ für zusätzliche 8GB RAM auszugeben. Wenn ich meine 2700 Chrometabs neben dem Streamen noch behalten möchte, dann wird es eben ein wenig teuer.

Oder beenden du und Chill_Eule neben Windows-Update und Virenscanner auch Steam, Origina, Ubilauncher, etc. bevor ihr ein Spiel startet?

Kommt ganz drauf an. Mein i7 3770 ist stark genug, um sowas im Hintergrund problemlos zu verkraften, 32GB RAM und 4 Kerne mit HT sei dank. Wenn ich jedoch auf meinem i3 4030U etwas Ökogaming betreibe und geeignete Spiele (z.B. mit GeForce Now oder allgemein Klassiker) zocke, dann machen sich die 8% CPU Last, die Avira verursacht, doch ein wenig bemerkbar. Deshalb wird das Ding dann deaktiviert.

Sollte mir mal ein Spiel über den Weg laufen, das meine 32GB an die Grenzen treibt, dann wird natürlich alles andere beendet.

So ein paar Zeilen Code wünsche ich mir schon länger. (Genauswo wie Installer, die zugunsten niedriger Ladezeiten eine teilweise entpackte Speicherung häufig benötigter Dateien anbieten.)

Das Problem ist, dass dieser Mehraufwand und ja, wenn man sowas sehr intelligent macht, dann ist es ein größerer Aufwand, ganz hinten kommt, mit anderen Worten nie.

Entweder man entpackt sie alle, weil HDD/SSD Speicherplatz so günstig ist oder man läßt es. Entweder man nutzt den zusätzlichen RAM oder man läßt es.
 
Ich glaube, du hast den Ursprung dieser Debatte vergessen. Es ging darum, dass moderne Spiele selten in der Lage sind, zusätzlich vorhandenen RAM auszunutzen. Um dein Beispiel rückblickend aufzugreifen: Ich weiß nicht, ob Anno 1404 tatsächlich 2 GiB freischaufelt, aber benutzen tut es 9XX MiB. Diese Speichermenge reicht aber nicht aus, um sämtzliche Socker bei schnellem Scrollen zu verhindern geschweige denn um Nachladezeiten zu vermeiden (zugegebenermaßen bei dem Inhalt kein großes Problem). Könnte man statt dessen 4 oder 8 GiB nutzen, wäre das Spielerlebnis also besser. Anno 1404 ist aber zu einer Zeit erschienen, als man noch Besitzer von 1-GiB-Systemen als Kunden berücksichtigen musste und das genannte Oberlimit ist hard gecodet. Das entsprechende Gegenstück für Anno 1800 wären pauschale 16-32 GB RAM-Bedarf – und wie du noch etwas mehr Platz freischaufelst (damit es vielleicht doch auf einem 16-/32-GiB-System läuft), indem du vor dem Start den Ubilauncher beendest, hätte ich gerne gesehen.
 
Zurück