SSD für Linux-Arbeitsrechner sinnvoll?

T

Tim1974

Guest
SSD für Linux-Arbeitsrechner sinnvoll?

Hallo,

durch die immer weiter sinkenden SSD-Preise überlege ich meinen Arbeitsrechner (Signaturlink: "PC Nr.2") mit einer SSD auszustatten.
Momentan ist an Hardware ein i3-2100, 2x 2GB DDR3-1333 und eine Geforce GTS 450 1 GB verbaut, zudem eine alte Samsung SATA2 Platte mit 7200 U/min (gekauft etwa 2006).

Was mir an dem PC nicht gefällt, bzw. was schneller werden sollte ist die Bootzeit von Linux Mint 17 bzw. bald dann vielleicht 17.3 oder 18.
Nur wegen der Bootzeit würde ich aber nicht aufrüsten, es müßte dann auch im Betrieb mit gebootetem OS z.B. der Browser schneller reagieren, insbesondere nach dem Aufrufen von Firefox, wenn ich ins Lesezeichen-Menue gehe, hakt der Kursor immer erstmal kurz, was mich ziemlich nervt.
Bei meinem "PC Nr.1" hakt da nichts, aber der hat auch eine SSD und einen i7-4770K und 8 GB RAM und Windows 10.

Also was kann eine SSD alles beschleunigen und lohnt das für den alten PC überhaupt noch?
Kommt Linux Mint 17 oder neuer problemlos mit SSDs klar?
Nicht das die nachher dauernt im laufenden Betrieb defragmentiert werden und dadurch unnötig viele Schreibvorgänge bekommen?

Sind die Sandisk-SSD gut oder sollte ich wieder Samsung nehmen?

Gruß
Tim
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Klar profitiert auch Linux von einer SSD, warum sollte es nicht?

Was deine Befürchtung mit dem Defragmentieren angeht, die ist gänzlich unbegründet. Von alleine startet Linux bestimmt keinen Defragmentiervorgang! Für gewöhnlich ist dies zudem zumindest bei ext3 und erst recht ext4 auch praktisch unnötig. D.h. das Dateisystem ist im Gegensatz zu z.B. NTFS in der Lage Fragmentierung so zu minimieren, dass man auf nem Arbeitsplatzrechner normal nie defragmentieren muss. Zudem ist bei ner SSD der Geschwindigkeitsnachteil eines fragmentierten Dateisystem gar nicht so gravierend wie unter ner normalen HDD, weil es eben keinen Kopf gibt, der sich bewegen muss.

Also, wenn du dir Gedanken um ein fragmentiertes System machst, dann richte deinen Blick lieber auf deinen Windows Rechner...
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Meine Windows-Rechner defragmentiere ich ja oft.
Wobei unter Windows 10 heißt es ja nun "Laufwerke optimieren", das lass ich selbst für die SSD dann mitlaufen, dauert ca. 1 Sekunde und wird vermutlich auch nicht viel bringen. Da auf der Festplatte kein OS installiert ist, geht das Defragmentieren da auch immer extrem schnell.

Auf meinem Lenovo-A10-PC dagegen ist alles auf einer Festplatte, da dauert das Defragmentieren dann schon mal paar Minuten.
Ich mache es aber auch meist nach jeder Installation oder Deinstallation eines Programmes und nach größeren Updates.
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

das lass ich selbst für die SSD dann mitlaufen, dauert ca. 1 Sekunde und wird vermutlich auch nicht viel bringen.

Defragmentiervorgänge sind für SSDs schädlich, da sie sinnlose Schreibzyklen verursachen und keinerlei Vorteil bringen, auf SSDs sind Daten prinzipbedingt (gewollt!) maximal fragmentiert. Glücklicherweise weiß Windows10 das und überprüft ob der Datenträger eine SSD ist und bricht den Vorgang entsprechend ab um die SSD zu schonen. Aus diesem Grund dauerts nur eine Sekunde. ;)
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Achso ok, danke für die Info!

Weiß oder merkt Linux Mint 17.3 denn auch schon den Unterschied zwischen SSD und HDD und verhält sich entsprechend nach und bei einer default Installation, oder muß man als Nutzer da noch was ein- oder umstellen?
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Der Start ist nicht mal so das Problem, aber entpack mal einen Kernel ;-). Mit ein bisschen Tuning (Journal Commit auf unsichere 60 Sekunden usw.) kann man noch was mit normalen Platten rausholen, aber ansonsten geht auch unter Linux eine normale Festplatte schnell mal in die Knie. Ich nutz für meine beiden Linux Boxen (sind reine Programmier Rechner, daher auch von der Hardware nur kleine i3 CPUs) nur SSDs, "Festspeicher" gibt es nur auf einem angebundenen NAS. Die sind dann dank der kleineren Software und ohnehin ausgelagerten Ressourcen nur 80 bis 120 GB groß, aber die Ruhe und, falls benötigt, Power will ich nie mehr missen.
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Nutze Selber Linux Mint + SSD. Das geht deutlich flotter als mit HDD.
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Sind denn nun die Sandisk-SSDs (240 GB für ca. 80 Euro) gut, oder sollte ich lieber eine Samsung nehmen?
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Sind OK, Samsung hat immer wieder Probleme mit der Firmware gahbt. Resultieren im totalen Datenverlust.

Sons mal nach Crucial gucken.
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Defragmentiervorgänge sind für SSDs schädlich, da sie sinnlose Schreibzyklen verursachen und keinerlei Vorteil bringen, auf SSDs sind Daten prinzipbedingt (gewollt!) maximal fragmentiert. Glücklicherweise weiß Windows10 das und überprüft ob der Datenträger eine SSD ist und bricht den Vorgang entsprechend ab um die SSD zu schonen. Aus diesem Grund dauerts nur eine Sekunde. ;)
Windows 10 bricht den Vorgang nicht ab, sondern führt eine Offline-Trimmung durch. Und "maximal fragmentiert" ist auch für eine SSD nicht gut für die Leistung und deshalb stimmt diese Aussage so definitiv nicht.

Schau dir einfach mal an auf welche Übertragungsraten SSDs beim 4K-Test im AS-SSD-Benchmark kommen. Das bewegt sich zwischen 20 und 40 MB/s. Das ist zwar weit besser als bei HDDs, die dort bei 0,00x MB/s rumdümpeln, aber auch weit von den 500 MB/s entfernt, die SATA-SSDs bei längeren Zugriffen erreichen. Die Daten sollten auf Dateisystemebene bei SSDs, ebenso wie bei HDDs, am Besten in einem Stück, möglichst zusammenhängend, gespeichert und nicht wild über die Cluster des Dateisystems verteilt werden. Nur so kann die SSD intern (auf direkter Hardwareebene) die Daten optimal über die Zellen verteilen, wodurch Übertragungsraten von über 500 MB/s erst möglich werden.

SSDs arbeiten intern wie ein RAID. Nur wenn die zu einer Datei gehörenden Fragmente auf verschiedene Blöcke, die von verschiedenen Kanälen bedient werden, verteilt sind, kann die maximal mögliche Transferrate erzielt werden. Da Microsoft das weiß, werden selbst SSDs von Windows 10 gelegentlich sanft defragmentiert. Das ist auch nicht schlimm und zerstört auch nicht die SSD. Also kein Grund nun den Optimierungsdienst gänzlich abzuschalten.

Sind OK, Samsung hat immer wieder Probleme mit der Firmware gahbt. Resultieren im totalen Datenverlust.

Sons mal nach Crucial gucken.
Du meinst unter Linux, oder? Den Queued-Trim-Bug? Auch die SSDs von Crucial waren von diesem Problem betroffen. Ich meine bei der M500/M550 wurde es per Firmware-Update behoben oder versucht zu beheben. Ob auch die nachfolgenden Modelle damit zu tun hatten und ob der Bug-Fix bei der M500/M550 gefruchtet hat, entzieht sich meiner Kenntnis. Auch Samsung SSDs hatten unter Linux diese Probleme, die in manchen Distributionen mittels blacklisting behandelt wurden. Wenn es sich aber um das gleiche Problem handelt, das Samsung von der Firma Algolia in die Schuhe geschoben bekommen sollte, lag es an einem Bug im Linux-Kernel, wie sich später herausstellte.

Crucial und Samsung verkaufen schon eine gewissen Stückzahl und wohl deshalb werden solche Probleme insbesondere bei diesen SSDs als erstes auffallen. Das bedeutet aber noch lange nicht, dass andere, weniger oft verkaufte SSDs, nicht von solchen Problemen betroffen sind oder sein können.
 
Zuletzt bearbeitet:
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Nö, gab in der Vergangenheit bei Samsung unter allean OS dieses Problem.
Lag an der Firmware. Und/oder am Patxh.
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Ein Bug mit totalem Datenverlust bei Samsung SSD unter allen Betriebssystemen? Ist mir nichts davon bekannt. Hast du Quellen? Wenn du den Bug bei der 840/840 EVO Serie meinst. Der hat sich lediglich auf die Leseleistung von älteren Daten ausgewirkt, führt aber nicht zu Datenverlust.
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Zum ersten Link) Ja, da hat Samsung Mist gebaut. Meines Wissens war damals die Firmware aber nicht fehlerhaft, sondern der Updater hat das Problem verursacht. Sprich bei der Übertragung der neuen Firmware ist was schiefgelaufen, was die SSD und die Daten darauf unter bestimmten Umständen gekillt hat.

Zu Link zwei und drei) Bei beiden geht es um die von mir schon angesprochene Anschuldigung durch Algolia, was sich später dann als Bug im Linux-Kernel herausgestellt hat. Samsung war daran nicht Schuld.

Zitat aus Link #3: "For all followers of this blogpost and all the new readers:

The discovered issue has much bigger impact than we originally expected and is not caused by Samsung SSDs, as we originally assumed.
My personal apologies to Samsung!"
 
Zuletzt bearbeitet:
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Würde mehr posten, Bin aber Mobil unterwegs.
Das war irgendwann so mit den Updatea 2-3 mal schiefgegangen, das hier kaum bis gar nicht mehr Samsung empfohlen wird.
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Aber dafür vermehrt eine relativ neue Low-Budget-SSD von Sandisk, deren TLC-NAND für um die 500 P/E-Zyklen spezifiziert ist (die 840 non-EVO von Samsung hatte ca. 1000) und bei der der eingesetzte Controller von Marvell noch nicht mal für TLC-NAND richtig geeignet ist (was später für Zuverlässigkeitsprobleme sorgen kann, da die Fehlerkorrektur überfordert sein wird).

Dass bei der 850 Pro ein Firmware-Update zurückgezogen wurde, da es Probleme mit dem Updater gab, ist mir bekannt. Dass da zwei, drei Mal was schiefgelaufen ist, wäre mir neu.
 
AW: SSD für Linux-Arbeitsrechner sinnvoll?

Defragmentiervorgänge sind für SSDs schädlich, da sie sinnlose Schreibzyklen verursachen und keinerlei Vorteil bringen, auf SSDs sind Daten prinzipbedingt (gewollt!) maximal fragmentiert. Glücklicherweise weiß Windows10 das und überprüft ob der Datenträger eine SSD ist und bricht den Vorgang entsprechend ab um die SSD zu schonen. Aus diesem Grund dauerts nur eine Sekunde. ;)

Storage Optimizer will defrag an SSD once a month if volume snapshots are enabled. This is by design and necessary due to slow volsnap copy on write performance on fragmented SSD volumes. It’s also somewhat of a misconception that fragmentation is not a problem on SSDs. If an SSD gets too fragmented you can hit maximum file fragmentation (when the metadata can’t represent any more file fragments) which will result in errors when you try to write/extend a file. Furthermore, more file fragments means more metadata to process while reading/writing a file, which can lead to slower performance.

As far as Retrim is concerned, this command should run on the schedule specified in the dfrgui UI. Retrim is necessary because of the way TRIM is processed in the file systems. Due to the varying performance of hardware responding to TRIM, TRIM is processed asynchronously by the file system. When a file is deleted or space is otherwise freed, the file system queues the trim request to be processed. To limit the peek resource usage this queue may only grow to a maximum number of trim requests. If the queue is of max size, incoming TRIM requests may be dropped. This is okay because we will periodically come through and do a Retrim with Storage Optimizer. The Retrim is done at a granularity that should avoid hitting the maximum TRIM request queue size where TRIMs are dropped.

Quelle: The real and complete story - Does Windows defragment your SSD? - Scott Hanselman
 
Zurück