Special Starker NAS-Server mit gutem Gehäuse: Terramaster T6-423 im Test

Und, weil es hier ja so schon gesagt wurde, weil aber falsch: Mit Linkaggregation steigt die theoretische Bandbeite aber NICHT die Geschwindigkeit eines Datentransfers!
Warum soll diese nicht ansteigen? Mit 2000 MBit/s, was ich mit meiner NAS erreiche, sind theoretisch 250 MB/s möglich.
Ashampoo_Snap_Samstag, 12. August 2023_12h30m11s_001_.png
In meinem Fall kann zwar die Switch mit solch einer Geschwindigkeit Daten mit der NAS austauschen, aber da die Rechner mit der Switch weiterhin mit nur 1G angebunden sind, wird ja keine höhere Geschwindigkeit möglich sein.

Natürlich wird damit auch eine Ausfallsicherheit hergestellt, sollte eine der Datenverbindung mal ausfallen.

In meinem Fall habe ich aber trotzdem die Switch auf diese Weise verbunden, mit der Hoffnung dazu, zumindest die Datenverbindung von der Switch und der NAT, auch mit Zugriff mehrerer Rechner noch besser aufrecht zu halten. Denn die Switch ist bei uns der Zentralpunkt, wovon es dann erst überall weiter geht. Die Rechner gelangen daher auch über die Switch zum Router, sodass der Router auch direkt mit der Switch verbunden ist.

Falls ich da einen Denkfehler haben sollte, kannst du mich gerne dazu aufklären und nicht einfach unbegründet schreiben, dass es falsch wäre. Denn in solch einem Fall möchte ich auch gerne verstehen können, wieso es nicht geht!
 
Eine Analogie: Nur weil eine Strasse doppelt so breit wird, kannst/darfst du nicht doppelt so schnell fahren. Es passen lediglich zwei Autos mit der gleichen Geschwindigkeit nebeneinander.
 
Eine Analogie: Nur weil eine Strasse doppelt so breit wird, kannst/darfst du nicht doppelt so schnell fahren. Es passen lediglich zwei Autos mit der gleichen Geschwindigkeit nebeneinander.
Hmmm, kenne ich anders... :D
K1600_Foto0120.JPG K1600_Foto0121.png Foto0124.jpg Foto0125.jpg

Kann ich jetzt auch nichts aussagen, da ich dazu zu Testzwecke die Switch mit 2,5 G kaufen müsste.
 
Zuletzt bearbeitet von einem Moderator:
@IICARUS
Kurzversion:
Das hat was damit zu tun, wie TCP-Sessionhandling funktioniert.
Normalerweise ist es so, das ein TCP-Stream nur über einen Port gehen kann kann und damit pro Einzelstream die Bandbreite auf die Einzelportgeschwindigkeit begrenzt ist.
Je nachdem, wie das "Balancing" der einzelnen Streams in dem Bond funktioniert, kannst Du sogar Pech haben und Du hast mehrere Streams, die parallel über den gleichen Port gehen, während der andere leer ist...
Das ist meistens vom "Zufall" abhängig.
Mehr Details oder reicht das? :D
 
Der Rechner ist ***. Da nehme ich einen Ryzen 5600G und 16 oder 32 GB ECC RAM, Board nach Wahl, je nachdem wieviele Netzwerkkarten und NVMe ich verbauen will. Da habe ich einen besseren Rechner und kann mir das Gehäuse und Netzteil aussuchen, und welche Netzwerkkarte ich will, 10 Gbit oder 40 GBit, kann ich mir auch aussuchen. Plus Unraid dazu für 80 $. Und jetzt erzähl mir nicht, das sowas viel mehr kostet als dieses Dingen mit "T-Raid", was immer das auch sein soll.
Der Rechner ist für das, was er tun soll absolut ausreichend. Den RAM kann man gegebenenfalls billig erweitern. Klar, dass man hier draufzahlt, ist schließlich ein Komplettprodukt. Entsprechende Gehäuse gehen immerhin schon bei 180€ los, sind aber nur mäßig verfügbar und eins von den beiden fällt schon raus, weil günstige Mini-ITX-Boards nicht genug SATA-Anschlüsse haben. Beim Rest ist klar, dass man das vergleichsweise billig zusammenbekommt, aber dann ist die Kiste weder zusammengebaut noch aufgesetzt und wenn ein Garantiefall vorliegt, darf man selber auf die Suche nach der kaputten Komponente gehen. Das rechnet sich für Unternehmen und für technisch weniger interessierte Endnutzer oft nicht. Ich würde so was aber vermutlich auch eher selber zusammenbauen, schon weil ich allgemein kein Freund von vorinstallierten Systemen und/oder Systemen, die nur aus einer Quelle stammen, bin, weswegen ich auch kein Unraid nehmen würde und mich letztlich erst, zumindest vorläufig und natürlich in einem anderen Kontext, gegen Proxmox entschieden habe.

Aber selbst wenn du jetzt für ähnliche Kosten eine NAS-Basis hinbekommst, die 10G oder 40G kann, müssen das die Datenträger ja auch erstmal liefern. Spätestens bei 40G sehe ich da mit HDDs aber schwarz und auch 10G werden häufig Däumchen drehen.

TRAID scheint eine Managementfunktion für das unterliegende BTRFS zu sein. Was es grob tut steht aber auch im Artikel. Ich finde die Idee gut, dass es aber nicht im freien Umlauf ist, macht mich aber auch aus meiner Einstellung raus entsprechend skeptisch. Einfach nichts, worauf ich mich verlassen müssen wollte und wovon ich mühsam umstellen müsste, wenn mir der Hersteller nicht mehr zusagt.
 
Zuletzt bearbeitet:
Mit Unraid hat man aber auch einen echten Server und kann dort in einer VM z. B. Synology als NAS laufen lassen, oder Proxmox oder irgendwas anderes, wenn man nicht mit der Unraid Speicherverwaltung zufrieden ist.
 
Eine Analogie: Nur weil eine Strasse doppelt so breit wird, kannst/darfst du nicht doppelt so schnell fahren. Es passen lediglich zwei Autos mit der gleichen Geschwindigkeit nebeneinander.
@IICARUS
Kurzversion:
Das hat was damit zu tun, wie TCP-Sessionhandling funktioniert.
Normalerweise ist es so, das ein TCP-Stream nur über einen Port gehen kann kann und damit pro Einzelstream die Bandbreite auf die Einzelportgeschwindigkeit begrenzt ist.
Je nachdem, wie das "Balancing" der einzelnen Streams in dem Bond funktioniert, kannst Du sogar Pech haben und Du hast mehrere Streams, die parallel über den gleichen Port gehen, während der andere leer ist...
Das ist meistens vom "Zufall" abhängig.
Mehr Details oder reicht das? :D
Kann das kann ich jetzt natürlich nicht widersprechen, da ich es selbst nicht austesten kann. Aber ich kenne es halt, von dem, was ich bisher dazu gelesen habe, anderes.

Zum Beispiel:
Link Aggregation (kurz: LA) bezeichnet im Rahmen der Netzwerktechnik verschiedene Verfahren zur Bündelung mehrerer physischer LAN-Schnittstellen zu einem logischen Kanal zum Zwecke der Erhöhung des Datendurchsatzes und der Ausfallsicherheit gegenüber einer einfachen Netzwerkschnittstelle.

Des weiter steht noch mit dabei:
Die ersten Implementierungen dieser Technik stammen von Kalpana (heute Cisco) und dienten ursprünglich ausschließlich der Erhöhung des Datendurchsatzes zwischen zwei Ethernet-Switches, welche ebenfalls von Kalpana erfunden wurden. Heutige Implementierungen können auch Server und andere Systeme wie Network Attached Storage (NAS) per Link Aggregation mit höherem Durchsatz an eine Netzwerkstruktur anbinden.
Allgemein werden mehrere physische Ethernet-Schnittstellen, welche alle als Fullduplex-Verbindungen ausgeführt sein müssen, zu einer logischen Endpunktverbindung zwischen zwei Geräten zusammengeschaltet, beispielsweise einem PC mit zwei Ethernet-Schnittstellen, welche parallel mit zwei Ports an einem Netzwerk-Switch verbunden werden. Üblicherweise wird LA bei Datenraten von 1 GBit/s und darüber bei Gigabit-Ethernet eingesetzt.

Durch die parallelen Verbindungen kann, der Anzahl der zusammengefassten Verbindungen entsprechend, der Gesamtdurchsatz höher sein. Ein weiterer Vorteil ist eine erhöhte Verfügbarkeit dieser Art von Verbindung. So können bei einigen Verfahren eine oder mehrere physische Schnittstellen ausfallen, ohne dass der logische Kanal unterbrochen wird, solange zumindest noch eine physische Verbindung besteht. Lediglich der Datendurchsatz vermindert sich entsprechend den fehlenden Verbindungen.
Quelle:

Bedeutet... ich muss es wohl selbst austesten. :D
Allerdings unterstützt die 2,5 G Switch keine Link-Aggregation und ich müsste hier die Synology auf Adaptive Load Balancing umstellen.
 
Na ja ist ok, läuft und passt bei uns bisher alles.
Werde deshalb jetzt nichts unternehmen, weil alles wie es bereits ist, gut läuft und wir nicht mehr brauchen.
 
Des weiter steht noch mit dabei [...] Datendurchsatz erhöhen.
Nochmal: Nur, weil man eine zweite Spur parallel baut, so bedeutet es hierbei nur, das 2 Einheiten in der Theorie in der gleichen Geschwindikgeit parallel übertragen werden. Es ist NICHT so, dass 1 Einheit deswegen doppelt so schnell übertragen wird.
 
Ja stimmt, habe soeben zusammen mit einem Laptop getestet. Es ist immer bei etwa 113 MB/s geblieben, nur hat sich das nach Zufall auf beide Verbindungen zu gleich unterschiedlich aufgeteilt.
K1600_IMG_20230812_145657.png


Laptop und PC sind jeweils per Lan und 1G mit der Switch angebunden gewesen und von dort geht es dann per 2x 1G (Link Aggregation) zur NAS.
 
Zuletzt bearbeitet von einem Moderator:
Mit Unraid hat man aber auch einen echten Server und kann dort in einer VM z. B. Synology als NAS laufen lassen, oder Proxmox oder irgendwas anderes, wenn man nicht mit der Unraid Speicherverwaltung zufrieden ist.
Warum sollte man einen VM Host (Proxmox) als VM unter einem anderen VM Host (Unraid) laufen lassen? Macht das Sinn? Ich denke nicht.

Ich lasse als NAS eine OMV Installation als Proxmox VM mit durchgereichten Platten laufen, weil ich wirklich nur ein NAS im Sinne des Wortes mit brauchbarer Browser UI haben wollte. Der Rechner wäre nur für diese einfache Aufgabe aber vollkommen unterfordert gewesen. Ich hatte auch TrueNAS Scale probiert, aber das ist mir schon wieder zu überkandidelt und schlägt in die gleiche Kerbe wie Unraid - zu viele Features dafür ohne Kosten.
 
Ja stimmt, habe soeben zusammen mit einem Laptop getestet. Es ist immer bei etwa 113 MB/s geblieben, nur hat sich das nach Zufall auf beide Verbindungen zu gleich unterschiedlich aufgeteilt.

Laptop und PC sind jeweils per Lan und 1G mit der Switch angebunden gewesen und von dort geht es dann per 2x 1G (Link Aggregation) zur NAS.
Genau.
Es wird zufällig einer der beiden Links ausgewählt.
Dadurch erhöht sich natürlich auch die Bandbreite, weil mehrere Streams parallel unterschiedliche Links nutzen können. Aber halt nicht die Bandbreite pro Stream, der ist halt maximal die Einzellink-Bandbreite. Im Idealfall werden die halt 50/50 verteilt, klappt nur nicht immer, weil das halt "Zufall" ist. (Da wird meistens eine Quersumme aus Quell- und Ziel-IP und/oder MAC gebildet und nach dieser Quersumme nimmt das dann Link 1 oder 2.) Und in einem größeren Netz mit vielen Verbindungen teilt sich das dann normalerweise ganz gut auf. In einem kleinen Netz zu Hause ist das aber nicht gesagt, da kann man dann halt auch schonmal Pech haben. Das Blöde beim Netz zu Hause ist, wenn sich das nicht verteilt, dann verteilt es sich nie, weil die IPs und MACs vermutlich immer gleich sind...
 
Warum sollte man einen VM Host (Proxmox) als VM unter einem anderen VM Host (Unraid) laufen lassen? Macht das Sinn? Ich denke nicht.
Der einzige Gedankengang, der mir einfällt, der zu diesem Ausgang führt ist, wenn man mit Unraid die Volumes regeln möchte, weil das damit vielleicht einfacher geht und sonst nichts. Aber ich weiß gar nicht, wie gut Proxmox oder Hypervisor allgemein, bzw. ihre Guests noch funktionieren, wenn man das alles in einer VM laufen lässt.
 
wenn man mit Unraid die Volumes regeln möchte, weil das damit vielleicht einfacher geht und sonst nichts.
Aber dafür dann einen VM Host als VM Guest betreiben, wo ich mit ZFS in z.B. Proxmox im normalen Usercase abseits richtig großer Dateien kaum Nachteile habe? Ich weiß ja nicht.
 
Also mit Unraid geht auf jeden Fall eine VM mit Windows 11 oder 10 64 Bit Version, darin eine VM mit Windows 11 oder 10 mit 64 Bit. Sobald man in dieser VM eine VM erzeugt, ist man auf 32 Bit begrenzt. :D Bisher habe ich nur Windows getestet mit verschachtelten VMs und habe dafür jeweils den Window VM Host verwendet. Es kann sein, das man mit Linux oder anderen Systemen noch besser verschachteln kann.

Man kann also nicht nur ein NAS damit betreiben. Man kann damit, genug Ressourcen vorrausgesetzt, ein kleines Rechenzentrum auf dem PC installieren, wenn man das will. Mit dedicated Serven für fast alles oder mit unterschiedlich konfigurierten Desktop- bzw. Workstation-Systemen. Jedes andere Linux kann das auch, aber mit Unraid oder Proxmox ist die Einrichtung sehr vereinfacht worden durch das GUI. Von M$ gibt es ein ähnliches System, das heißt Azure Cloud Server. Es gibt mittlerweile auch in einigen NAS Systemen diese Möglichkeiten. Der Nachteil an diesen Lösungen ist, das die Rechner in den NAS Systemen meistens für NAS begrenzte Hardware mitbringen und VMs damit technisch machbar sind, aber praktisch kaum einen Nutzen haben, dank Intel Atom oder Celeron Prozessoren mit 4 GB RAM und ähnlichem Mist.
 
Zuletzt bearbeitet:
Zurück