Synology Enterprise SAS SA3400

Lautstärke

Das Thema Lautstärke greife ich nur auf, weil ich es bei der RS1619xs+ bewertet habe. Dort hat das bedingt Sinn ergeben, da in bestimmten Lastzuständen das Gerät erträglich leise war. Die SA3400 steht einem DELL Poweredge R730xd oder einem HP DL380 in nichts nach. Nach dem Einschalten laufen die Lüfter auf voller Drehzahl; kurze Zeit später regeln sie auf ein Niveau herunter, bei welchem der Admin sich im Serverraum aufhalten kann. Eine weitere Bewertung macht hier, meiner Meinung nach, keinen Sinn, da dies ein reines Enterprisegerät für die Montage in einem Serverrack ist. Vorbildlich ist dennoch, dass, trotz Vollaustattung und standardmäßig gewählter Option „Leiser Modus“, sowohl Gerät als auch Festplatten angenehm kühl bleiben. Die Entscheidung, trotz leisem Modus gut zu kühlen, auch wenn es lauter wird, finde ich optimal für dieses Enterprise-Gerät gelöst.

Durchführung – Teil 2

Benchmarks

Im Gegensatz zur vorher getesteten RS1619XS+, verfügt die SA3400 sehr wohl über zwei 10-Gigabit-Lan-Ports. Zusätzlich sind auch wieder vier 1-Gigabit-LAN-Ports verbaut. Hier lässt sich also gut testen, wie leistungsfähig die SA3400 Speicher im LAN bereitstellen kann.

Der iSCSI-Test, 4x 1000MBit Netzwerkanschlussbündel

Bereits beim Artikel zu RS1619xs+ habe ich die Rackstation mit einem Bond aus vier 1-GBit-LAN- Anschlüssen verbunden und dann eine bestimmte Menge Daten von vier verschiedenen PCs kopiert. Diesen Test werde ich, der Vergleichbarkeit wegen, genauso wiederholen. Im Anschluss werden die Daten über einen Bond aus zwei 10Gbit-Netzwerkkarten kopiert und so die limitierende Gbit-Lan-Schnittstelle umgangen.

Die Leistung pro LUN

Wer jetzt gedacht hat, das dieser Test gleich ausfällt, da beide Geräte auf Xeon-D-Basis sind und vier- mal Gigabit-LAN keine Herausforderung ist, der irrt. Vergleicht man die Testergebnisse miteinander (Link zur RS1619xs+) , kann man sehen, dass die SA3400 klar die Nase vorn hat.

SA3400RS1619xs+
Lun1~110MB/s bei 450IOPS~105MB/s bei min. 420IOPS
Lun2100MB/s bei 400IOPSstabile 110MB/s bei 440IOPS
Lun3108MB/s bei 430IOPS~57MB/s bei 230IOPS
Lun4~113MB/s bei 450IOPS~66MB/s bei 260IOPS

Den Einbruch, welchen wir bei der RS1619xs+ aufgenommen haben, konnten wir bei der SA3400 nicht mehr feststellen. Die Festplatten können als ursächliche Differenz ausgeschlossen werden, da die EXOS X14 der RS1619xs+ nicht nur eng verwand sind mit den IronWolf Pro 14 TB, sondern auch als leistungsfähiger angesehen werden können. Deren Firmware ist frei von Lautstärkeoptimierungen und rein auf Leistungsfähigkeit optimiert.

Die Auslastung des Netzwerkportbündels.

Die CPU Auslastung ist mit 5% sogar nochmal geringer als die der RS1619xs+.

Der Arbeitsspeicher ist zwar nur ein Fünftel so stark belastet im Gegensatz zur RS1619xs+, jedoch ist er auch um den Faktor acht größer.

Die Datenträgerauslastung ist um 40% geringer als bei der RS1619xs+.

Die Auslastung des Volumes ist mit oberhalb von 90% vergleichbar.

Benchmarks mit 10GB Ethernet

Bei zwei integrierten 10GB-Ethernet Ports sind die Messergebnisse mit diesen Anschlüssen natürlich am interessantesten. Hier sei zudem vermerkt, das, wenn 10 GBit/s nicht ausreichen, Synology auch 40 GBit/s PCI Erweiterungskarten im Angebot bereithält.

Es folgen zwei Testläufe. Zum Einen kopiere ich eine definierte Datenmenge bestehend aus Windows 10 Images zu je 4 GB auf ein SMB-Share der SA3400. Im Anschluss wiederhole ich diesen Test mit einem iSCSI Lun auf demselben Storage Pool. Jener besteht, um ggfs. anfallende Limitierungen auszuschließen, aus einem RAID 0 mit acht Festplatten. Das Volume verfügt somit über eine Bruttokapazität von 96 TB. Während dieser Tests behalte ich den Ressource Monitor im Blick, um die Belastung aufzuzeichnen. Zum Schluss starte ich auf dem Client Chrystal Disk Mark und messe so die Leistungsfähigkeit des iSCSI Laufwerks bzw. des SMB-Shares.

Das iSCSI LUN ist 80 TB groß und als einziges LUN einem Target zugewiesen. Dieses Target hört ausschließlich über die 10GBit/s Netzwerkkarte. MPIO ist deaktiviert und die QD ist 64. Auf den restlichen freien Terabyte des Storagepools habe ich einen freigegebenen Ordner erstellt.

Für diesen Test benutze ich den Core i3 PC, da dessen Tehuti-NIC direkt dem Betriebsystem untersteht und keine Hyper-V-V-Switches ggfs. die Leistungsfähigkeit schmälern können. Der Test hat gezeigt, dass diese NIC für diesen Test ausreichend leistungsfähig ist.

iSCSI-Testlauf

SMB-Share Testlauf