Nein noch nicht aber es gibt ne Limit ab dann ist es Orange. Und da wird drauf hingewissen das es instabill wird.
Von wem und ist dann schon mal was passiert?
Da ich für Linux unter anderem die pre beta version von gewissen distrubutionen teste unter anderem nutz ich öffters virtuelle maschinen. Daher weis ich das das das probleme kommen kann. Und wenn man 2 offen hat hat man dann ne problem weil signifikant der Ram mit ausgelastet wird.
Was meinst du mit RAM ausgelastet? Ist eigentlich egal, wie viele Maschinen man laufen hat, solange der RAM für alle reicht.
Gibt es prinzpiell schon, habe ich aber auch noch nicht wirklich ausprobiert. Kommt natürlich auf die Software und Konfiguration an.
Das ding ist einfach dass wenn 16GB ram von 4 GB von system voll sind dann sind es generell 12 übrig und wenn dann da 8 GB Virtuelle maschine ist und dann bleibt nur noch 4 übrig. Wenn ne browser so viel ram Frist dann sind die 16 einer seits unter ditioniert anderer seits ist das system dann unter umständen instabiel weil es auslagert und die VM halt nicht ausgelagert werden kann. (so weit ich es weis. So ne spezieller fall ist duch zu wenig ram noch nie bei mir passiert)
Kann sie schon und genau da liegt auch das Problem. Der Host weiß nicht, welche Teile des RAMs, den die VM nutzt Cache ist und welche nicht, er weiß nur, auf welche länger nicht mehr zugegriffen wurde und lagert diese dann aus, auch wenn die VM, wenn sie gezwungen wäre, RAM freizumachen, ganz andere Teile, grundsätzlich den Cache, zuerst rauswerfen würde. Es mag zwar sein, dass das oft der gleiche Bereich ist, muss aber nicht. Grundsätzlich ist es einfach besser, wenn die VM weniger RAM hat, dieser aber auch immer im RAM liegt und eigenständig swapt als wenn die VM RAM hat, der aber teilweise vom Host geswapt wird. Aber zu wenig bleibt am Ende insgesamt natürlich zu wenig und da hilft dann nur mehr.
Ergo im schlimmsten fall ist das system instabill oder stürtzt ab.
Naja, kommt auf die Software an. Dadurch, dass dann schnell wirklich Programmdaten ausgelagert sind, kommt es natürlich zu teils drastischen Verzögerungen, da kann schon mal der ein oder andere Timeout fallen.
Für gamen und sagen wir DDR4 sind 64 oder mehr ram völlig op. Aber für Video schnitt oder VMs dann wieder rum nicht.
Ne 8kerner reicht der Gamer:innen gemeinschaft. Aber fürs Schneiden oder Virtualisieren ist das dann unter dimintioniert.
Für Gaming reichen 32GB meiner Meinung nach noch dicke aus, ich spiele aber auch nicht immer den neuesten Kram. Bei Videoschnitt habe ich keine Ahnung, aber es werden wohl viele Daten bewegt, da kann viel Cache nur viel helfen, RAM ist ja immer noch Größenordnungen schneller als eine SSD. Bei Virtualisierung ist immer die Frage, was man damit machen will. Eine kleine, schlanke Sandbox, um mal was auszuprobieren, kann man auch mit 16GB noch neben dem Host unterkriegen. Will man aber wirklich mehrere Systeme gleichzeitig anspruchsvoll nutzen, braucht man halt auch so viel RAM, wie diese Systeme insgesamt benötigen, was bei einer anspruchsvollen Nutzung natürlich tendenziell mehr ist. Für die Rechenleistung gilt zwar prinzipiell das gleiche, aber der Mangel dürfte deutlich weniger heftig auffallen. Je nachdem, wie viel halt in allen Maschinen gleichzeitig passiert, wird halt alles langsamer und wenn man nicht jeder Maschine die volle Kernzahl gibt, kann auch nicht eine Maschine, die Amok läuft, die Restlichen niederstrecken. Wenn man aber jetzt z.B. nur in einer Maschine gleichzeitig aktiv arbeitet und jetzt nicht in den anderen noch irgendwelche Batchjobs durchlaufen lässt, kann jede Maschine die volle Leistung abzüglich der Leerlauflast der anderen Systeme nutzen. Das kann sehr nützlich sein, wenn man mehrere Systeme hat, die eher punktuell mal Last erzeugen. Die kann man dann alle fast ohne Einbußen nebeneinander auf einer CPU laufen lassen, anstatt für jedes System eine CPU zu benötigen.