{"id":117435,"date":"2026-04-22T11:26:08","date_gmt":"2026-04-22T11:26:08","guid":{"rendered":"https:\/\/www.europesays.com\/at\/117435\/"},"modified":"2026-04-22T11:26:08","modified_gmt":"2026-04-22T11:26:08","slug":"performance-peaks-im-pmxx-projekt-kingstons-dc3000me-und-graid-technology-supremeraid-core","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/at\/117435\/","title":{"rendered":"Performance-Peaks im PMXX Projekt: Kingstons DC3000ME und GRAID Technology SupremeRAID Core"},"content":{"rendered":"<p>\u00dcber unser PMXX-Projekt haben wir schon zweimal berichtet:\u00a0Nach einem <a href=\"https:\/\/www.hardwareluxx.de\/index.php\/artikel\/hardware\/storage\/67756-project-pmxx-proxmox-server-f%C3%BCr-hardwareluxx.html\" target=\"_blank\" rel=\"nofollow noopener\">Einf\u00fchrungsartikel<\/a> sind wir zuletzt genauer auf den <a href=\"https:\/\/www.hardwareluxx.de\/index.php\/artikel\/hardware\/komplettsysteme\/68235-pmxx-server-projekt-gigabytes-r284-s93-aal1-server-im-test.html\" target=\"_blank\" rel=\"nofollow noopener\">Gigabyte-Server eingegangen<\/a>. Jetzt geht es hinsichtlich der Storage-Architektur des Servers ans Eingemachte:\u00a0In den vergangenen Wochen testeten wir ausgiebig verschiedene RAID-Level und Optionen mit den Kingston DC3000ME und einer besonderen RAID-L\u00f6sung von GRAID\u00a0Technology. Denn letztlich soll der neue Server haupts\u00e4chlich eines machen: die\u00a0Daten von Hardwareluxx solide und sicher verwahren\u00a0\u2013 und sie schnell bereitstellen.\u00a0<\/p>\n<p>Bereits eine einzelne NVME-SSD hat heutzutage eine brachiale Leistung. Unser aktuelles Storage-System baut noch auf SATA-SSDs &#8211; die mit knapp 550 MB\/s Lese- und Schreibrate insbesondere bei kleinen\u00a0Dateien und Datenbankzugriffen\u00a0bereits schneller waren als Festplatten. Eine Kingston DC3000ME mit 3,84 TB, wie wir sie einsetzen, kann dank PCIe-5.0-Interface aber mit 14.000 MB\/s lesen\u00a0und 5.800\u00a0MB\/s schreiben &#8211; also mit einer 25-fachen Lese- und immerhin knapp 10-fachen Schreibgeschwindigkeit.\u00a0<\/p>\n<p>Nun setzen wir im PMXX nicht nur eine DC3000ME ein &#8211; sondern f\u00fcllen den Gigabyte-Server mit seinen 12 Fronteinsch\u00fcben gleich komplett auf. Wichtig dabei:\u00a0Gigabytes R284-S93-AAL1 bietet auch tats\u00e4chlich gen\u00fcgend PCIe-Lanes f\u00fcr die SSDs. Kingstons U.2-Laufwerke sind mit einer PCIe-Gen5-x4-Schnittstelle ausgestattet, Gigabytes Server liefert tats\u00e4chlich \u00fcber sechs MCIO 8i x8-Stecker insgesamt 12 PCIe-Gen5-x4-Anschl\u00fcsse. Insgesamt vier Drives kommunizieren dabei \u00fcber eine PCIe-5.0-x16-Schnittstelle des CPU0, die restlichen acht Drives sind \u00fcber zwei PCIe-5.0-x16-Schnittstellen \u00fcber die CPU1 angebunden.<\/p>\n<p>Kingstons DC3000ME alleine haben schon eine beeindruckende Performance. Das PCIe-Gen5-x4-Laufwerk kann dabei 14.000\u00a0MB\/s lesend und 5.800\u00a0MB\/s schreibend liefern\u00a0\u2013 die gr\u00f6\u00dferen 7,68-TB- und 15,36-TB-Varianten sind sogar noch schneller. Effektiv handelt es sich um eine f\u00fcr den\u00a0Server-Betrieb optimierte SSD mit etwas anderer Charakteristik als das, was im Desktop-Bereich als Renegade-SSD zum Einsatz kommt. Sichtbar ist das nicht nur anhand des Vorhandenseins von\u00a0Power\u00a0Caps zum Wegschreiben von gecachten Daten bei Stromausfall, sondern auch anhand der gro\u00dfen MTBF und den hohen\u00a0DWPD-Werten. Kingston garantiert ein einmaliges t\u00e4gliches (!) komplettes Vollschreiben der SSD \u00fcber 5 Jahre.\u00a0<\/p>\n<p>Ganz neu ist das 30,72 TB-Modell der SSD, auf das man im Laufe der f\u00fcnfj\u00e4hrigen Garantie insgesamt 56.064 TB, also 56 Petabyte, schreiben darf und sich das Laufwerk dann immer noch innerhalb der Spezifikation bewegt.\u00a0<\/p>\n<p> Die technischen Daten der DC3000ME   <br \/> DC3000ME    Geh\u00e4use U.2, 2,5 Zoll x 15 mm<br \/>100,5\u00a0x 69,8 x 14,8 mm    Interface PCIe NVMe Gen5 x4    Kapazit\u00e4t 3,84 TB, 7,68 TB, 15,36 TB, 30,72 TB    NAND-Typ 3D eTLC    Sequentielle Lese\/Schreibrate 3,84 TB: 14.000 \/ 5.800 MB\/s<br \/>7,68 TB: 14.000 \/ 10.000 MB\/s<br \/>15,36 TB: 14.000 \/ 9.700 MB\/s<br \/>30,72 TB: 14.000 \/ 9700 MB\/s    zuf\u00e4lliges Lesen\/Schreiben (4K, IOPS) 3,84 TB: 2.700.000 \/ 300.000<br \/>7,68 TB: 2.800.000 \/ 500.000<br \/>15,36 TB: 2.700.000 \/ 400.000<br \/>30,72 TB: 2.700.000 \/ 400.000    Latenzqualit\u00e4t (QoS) 99 % &#8211; Read\/Write: &lt;10 \u00b5s \/ &lt; 70 \u00b5s    Power Loss Protection (Power Caps)\u00a0 Ja    Endurance (TBW\/DWPD)<br \/> 3,84 TB: 7.008 TB, 1DWPD (5 Jahre)<br \/>7,68 TB: 14.016 TB, 1DWPD (5 Jahre)<br \/>15,36 TB: 28.032 TB, 1DWPD (5 Jahre)<br \/>30,72 TB: 56.064\u00a0TB, 1DWPD (5 Jahre)<br \/>   MTBF 2 Millionen Stunden   Leistungsaufnahme Idle: 8 W (30,72\u00a0TB: 9W)<br \/>maximal lesend: 8,2 W (30,72\u00a0TB: 9,5 W)<br \/>maximal schreibend: 24 W   Betriebstemperatur 0 bis 70 \u00b0C   Verschl\u00fcsselung TCG Opal 2.0, AES 256 Bit   Namespace-Management 128 Namespaces unterst\u00fctzt   Garantie limitierte Herstellergarantie \u00fcber 5 Jahre    GRAID Technology SupremeRAID Core<\/p>\n<p>Nicht nur die Anbindung ist f\u00fcr eine gute Leistung der NVME-SSDs wichtig. Je nach Betriebssystem und Anwendung m\u00fcssen die Prozessoren normalerweise die Daten entsprechend bereitstellen &#8211; und das wird je nach\u00a0RAID-Einstellung oftmals zum Flaschenhals. W\u00e4hrend ein einfaches RAID0 oder RAID1 aus zwei oder vier NVME-Drives noch von einem Software-RAID zu schaffen ist,\u00a0wird der Management-Overhead bei mehr NVME-Drives oder komplizierteren RAID\u2011Leveln zum Problem.\u00a0<\/p>\n<p>Fr\u00fcher setzte man bei SATA-Drives dann auf RAID-Controller, die zum einen auch die Bandbreite und Anschl\u00fcsse zur Verf\u00fcgung stellten, aber insbesondere auch die Parit\u00e4ts-Informationen berechneten und auf die Drives schrieben.\u00a0Das hatte zwei Vorteile:\u00a0Durch die spezialisierten Controller ging die Kalkulation schneller, als auf einer normalen CPU &#8211; und die CPUs selber hatten Zeit f\u00fcr andere Aufgaben. Da die RAID-Controller meistens eine eigene Anbindung f\u00fcr die Drives mitbrachten, entfiel auch gr\u00f6\u00dftenteils\u00a0die Notwendigkeit f\u00fcr spezielle Controller und Bandbreite auf den Motherboards.<\/p>\n<p>Mit NVME-Drives ist dies nun etwas anders:\u00a0Damit diese effizient und schnell arbeiten k\u00f6nnen, sind sie direkt an die CPU angebunden. Controller, um mehr NVME-Anschl\u00fcsse zu bekommen, k\u00e4mpfen immer mit der Anbindung an die CPU. Aber wie l\u00e4sst sich ein Software-RAID aus NVMe-Drives jetzt beschleunigen?<\/p>\n<p>Die Antwort kommt von\u00a0GRAID Technology:\u00a0Die SupremeRAID-Controller der Firma sind im Endeffekt NVIDIA-Grafikkarten. Man nutzt die professionellen Versionen, also beispielsweise eine NVIDIA RTX A1000, und lagert RAID-Operationen auf diese Karten aus. Dabei werden nicht die kompletten Daten \u00fcber die\u00a0GPU geroutet &#8211; sondern nur die entsprechenden Rechenoperationen, die notwendig sind, um die Daten zu schreiben und zu lesen. Auch hier entstehen dadurch wieder zwei Effekte:\u00a0Manche Dinge kann die\u00a0GPU einfach schneller und paralleler erledigen als die CPU, weshalb z.\u00a0B. Parit\u00e4tsberechnungen superschnell auf der GPU ausgef\u00fchrt werden k\u00f6nnen. Und nat\u00fcrlich bleibt die CPU auch von der I\/O-Last befreit, die Prozessoren k\u00f6nnen sich also um andere Rechenaufgaben k\u00fcmmern.\u00a0<\/p>\n<p>GRAID Technology bietet dabei unterschiedliche Optionen an, wobei f\u00fcr unseren Anwendungsfall eine der kleinsten L\u00f6sungen infrage kommt. Wir nutzen <a href=\"https:\/\/graidtech.com\/products\/supremeraid-core#\" target=\"_blank\" rel=\"nofollow noopener\">SupremeRAID Core<\/a>, also eine kleine NVIDIA RTX A1000-L\u00f6sung mit PCIe-x8-Anbindung, die GRAID Technology f\u00fcr 12 Drives vorsieht. Da zw\u00f6lf Drives unsere H\u00f6chstbest\u00fcckung sind, ist es f\u00fcr uns wichtiger, m\u00f6glichst wenig Strom zu verbrauchen, als eine gr\u00f6\u00dfere L\u00f6sung zu nutzen. Die NVIDIA-Karte schl\u00e4gt am Ende mit einem Verbrauch von knapp 70-80 W zu Buche, insofern sollte man hier nicht zu gro\u00df dimensionieren.\u00a0<\/p>\n<p>Beim Stromverbrauch ist hinzuzuf\u00fcgen, dass der GRAID-Treiber die NVIDIA-Karte in eine Art Bereitschaftsmodus versetzt. Selbst wenn kein Datentransfer stattfindet, zeigt die NVIDIA RTX A1000 100% Last an &#8211; der GPU-Treiber reserviert die Performance sofort, wenn eine Drive Group angelegt wurde. Insofern steigt der Verbrauch nicht linear mit der Last auf dem Array an, sondern ist sofort zu 100 % da, wenn die GRAID-L\u00f6sung aktiv ist. Der Hintergedanke hinter dieser Implementierung ist, dass der Datentransfer absolute Priorit\u00e4t hat.<\/p>\n<p>W\u00e4hrend die GPU von NVIDIA stammt, ist die Leistung von GRAID Technology der entsprechende\u00a0Treiber dazu. Dieser wird anstelle des \u00fcblichen im Betriebssystem integrierten SATA- oder NVME-Driver verwendet. Anschlie\u00dfend wird \u00fcber eine Weboberfl\u00e4che oder Shell auf den\u00a0Treiber zugegriffen &#8211; und die verschiedenen RAID-Einstellungen k\u00f6nnen direkt dort vorgenommen werden. Die Software erm\u00f6glicht es, einzelne Drives mit dem GRAID-Technology-Driver anzusprechen, dann in eine Drive-Group zusammenzuf\u00fchren, und je nach GRAID-L\u00f6sung sind dabei dann unterschiedliche RAID-Level ausw\u00e4hlbar (z.B. RAID 0,1,5,6 in unserem\u00a0Fall). Im Anschluss lassen sich virtuelle Drives darauf legen &#8211; und dann vom Betriebssystem zug\u00e4ngig machen, als w\u00e4re es ein einzelnes Drive.\u00a0<\/p>\n<p>  Der Leistungsvergleich<\/p>\n<p>Wir haben in unserem Leistungsvergleich also im Endeffekt verschiedene M\u00f6glichkeiten:<\/p>\n<p>Zun\u00e4chst einmal k\u00f6nnen wir die in den meisten Betriebssystemen verwendete Software-RAID-L\u00f6sung mit der GRAID Technology SupremeRAID Core-L\u00f6sung vergleichen. Weiterhin bietet sich uns aber auch die M\u00f6glichkeit, etwas mit der Anzahl der Drives und der verwendeten RAID-L\u00f6sung zu spielen. Nun wird niemand bei einem Server zw\u00f6lf Laufwerke in einem RAID0 kombinieren &#8211; testweise k\u00f6nnen wir dies hier nat\u00fcrlich machen.\u00a0<\/p>\n<p>Interessant sollte aber vorwiegend der\u00a0Vergleich mit RAID5 oder RAID6 werden, weil hier die CPU die Parit\u00e4ten berechnen muss &#8211; und gerade hier die GRAID-Technology-L\u00f6sung im Vorteil sein sollte. Mit zw\u00f6lf Drives w\u00e4re theoretisch ein RAID6 m\u00f6glich, das die Kapazit\u00e4t von zehn Drives mitbringt (in unserem Fall 10x 3,84\u00a0TB), und zwei Drives f\u00fcr die Parit\u00e4t nutzt. Im finalen Einsatz k\u00f6nnte man f\u00fcr zuk\u00fcnftige Ausfallsicherheit auch noch an ein bis zwei Drives in einem Hot-Spare-Betrieb denken.<\/p>\n<p>Entscheidend sind am Ende aber nicht nur die reinen \u00fcbertragenen GB\/s, sondern auch Dinge wie die erreichten IOPS und die Latenz, mit der auf das Array zugegriffen werden kann. F\u00fcr unsere Anwendungszwecke sind die letztgenannten Werte sogar wichtiger, weil wir keine gro\u00dfen\u00a0Datenmengen bewegen, sondern schnellen Zugriff auf unsere Datenbanken erm\u00f6glichen wollen.\u00a0<\/p>\n<p>Die Benchmarks haben wir zun\u00e4chst &#8211; auch zur Visualisierung &#8211;\u00a0unter Windows Server 2025 erstellt. Dabei sind zwei Dinge zu beachten: Der neue GRAID-Technology-Treiber in der Version 2.x f\u00fcr Linux hat bereits eine h\u00f6here Performance, als der Windows-Treiber. Und weiterhin sind auch bei Windows einige Performance-Limitierungen festzustellen, weshalb wir unten auch noch weitere Benchmarks in der finalen\u00a0Variante unter Linux hinzugezogen haben.\u00a0<\/p>\n<p>Sequenzielle Read Performance SEQ1M Q8T64 &#8211; in MB\/s<\/p>\n<p>MB\/s<\/p>\n<p>mehr ist besser<\/p>\n<\/p>\n<p>In unserem ersten Leistungsvergleich geht es um die reinen \u00dcbertagungsraten. Wir haben Konfigurationen mit 12, 4 und einem einzelnen Drive durch die Benchmarks geschickt, dabei mit RAID0, RAID5 und RAID6, jeweils im\u00a0Software-RAID und als GRAID-Technologys-Setup.<\/p>\n<p>Zwei Besonderheiten k\u00f6nnen wir hier schon sehen: Selbst beim Lesen gibt es gro\u00dfe Performanceunterschiede, wobei diese mit bis zu vier Drives noch nicht sehr auff\u00e4llig sind. Sowohl die GRAID-L\u00f6sung wie auch das Software-RAID liegen hier mit vier Drives noch nahe zusammen.\u00a0<\/p>\n<p>Dies \u00e4ndert sich aber mit 12 Drives: Hier scheint es bereits einen Overhead beim Software-RAID zu geben, der so gro\u00df ist, dass wir mit zw\u00f6lf Kingston\u00a0DC3000ME nur knapp \u00fcber 60.000 MB\/s Leserate erreichen. Interessant ist dabei, dass es quasi keinen Unterscheid zwischen RAID5 und RAID0 gibt. Erst die GRAID-L\u00f6sung schaltet den Turbo frei, selbst im RAID6 erreichen wir fast die 100\u00a0GB\/s. Der Rekord liegt beim Betrieb im RAID0 mit knapp \u00fcber 113 GB\/s\u00a0Bandbreite im sequenziellen Lesen.<\/p>\n<p>Sequenzielle Write Performance SEQ1M Q8T64 &#8211; in MB\/s<\/p>\n<p>MB\/s<\/p>\n<p>mehr ist besser<\/p>\n<\/p>\n<p>Beim sequenziellen Schreiben liegen die zw\u00f6lf Kingston-Drives im RAID0 bei der GRAID-L\u00f6sung bei knapp 60\u00a0GB\/s &#8211; das Software-RAID ist nur unwesentlich langsamer. Auch die RAID0-L\u00f6sung aus vier Laufwerken\u00a0ist hier schnell unterwegs &#8211; die RAID5 und RAID6-L\u00f6sungen fallen dann allerdings aufgrund der notwendigen Parit\u00e4tsberechnungen erwartungsgem\u00e4\u00df\u00a0ab.\u00a0<\/p>\n<p>GRAID Technology kann hier aber mit zw\u00f6lf Drives eine mehr als doppelt so hohe Leistung erzielen als die Software-L\u00f6sung. Auch der Leistungsunterschied zwischen RAID5 und RAID6 ist bei 12 Drives nicht wirklich messbar. Bei vier SSDs\u00a0stehen dann allerdings zu wenige Laufwerke zur Verf\u00fcgung, um noch gute Performance zu erreichen. Wer ein\u00a0RAID6 verwenden will, sollte also an eine m\u00f6glichst hohe Anzahl von Laufwerken denken.<\/p>\n<p>RND4K Write Latenzin \u00b5s<\/p>\n<p>\u00b5s<\/p>\n<p>mehr ist besser<\/p>\n<\/p>\n<p>Bevor wir auf die IOPS und andere Werte eingehen, macht es Sinn, auf den obigen Latenz-Benchmark einzugehen. Hier zeigen wir die Write-Zugriffe f\u00fcr Random 4k. W\u00e4hrend die Werte bei GRAID im Bereich weniger\u00a0\u00b5s liegen, egal welchen RAID-Level man verwendet, liegt das Software-RAID nur im Einzelbetrieb oder im RAID0 in einem akzeptablen Bereich. Mit RAID5 steigt die Latenz &#8211; weil die Parit\u00e4t entsprechend berechnet werden muss. Das kann die NVIDIA-GPU in Windeseile\u00a0\u2013 weshalb die GRAID-L\u00f6sung genau dann im\u00a0Vorteil sein sollte, wenn viele kleine Dateien geschrieben werden m\u00fcssen &#8211; auf ein Array, das entsprechend ein RAID5 oder RAID6 ist.<\/p>\n<p>Interessant:\u00a0Beim Lesen zeigt sich dieser\u00a0Faktor \u00fcbrigens nicht, hier ist die Software-Version schneller. Anzunehmen ist, dass der Driver-Stack des Betriebssystems hier einfach effizienter arbeitet als der GRAID-Technology-Driver, der ja als Extra-Treiber noch ein wenig Latenz mit sich bringt.\u00a0<\/p>\n<p>RND4K Write Performance(in IOPS)<\/p>\n<p>IOPS<\/p>\n<p>mehr ist besser<\/p>\n<\/p>\n<p>Die Latenz wirkt sich dann nat\u00fcrlich auch massiv auf die m\u00f6glichen IOPS aus &#8211; und je nach Lese- oder Schreibzugriffe unterschiedlich stark auf die Unterschiede zwischen GRAID-L\u00f6sung und Software-RAID. Beim Random-4K-Write-Benchmark mit Queue Depth von 32 (viel Multitasking) und 64 Threads\u00a0(hohe Parallelit\u00e4t) ist dies hervorragend zu sehen: W\u00e4hrend die GRAID-Benchmarks alle recht nahe zusammenliegen und selbst RAID6-L\u00f6sungen nicht abfallen, bricht die Performance im Software-RAID5 massiv ein. Die CPU kommt hier bei den Berechnungen nicht mehr hinterher.\u00a0<\/p>\n<p>RND4K Read Performance(RND4K Q1T64 in MB\/s)<\/p>\n<p>MB\/s<\/p>\n<p>mehr ist besser<\/p>\n<\/p>\n<p>Umgekehrt gibt es aber nat\u00fcrlich auch Benchmarkbereiche, wo man das Software-RAID besser aussehen lassen kann als die GRAID-L\u00f6sung:\u00a0Im Lesen von Random-4K-Werten mit nur einem Auftrag nach dem anderen (T1) kann die GRAID-L\u00f6sung ihre Tr\u00fcmpfe nicht ausspielen und w\u00fcrde somit langsamer sein als eine Software-L\u00f6sung. Im Server-Umfeld existiert dieser Fall aber nicht und w\u00e4re eher etwas f\u00fcr den Heimarbeits-\/Desktopbereich.<\/p>\n<p>Finales Setup unter Proxmox 9.1<\/p>\n<p>Nach diesen eher theoretischen Benchmarks haben wir uns an die Planung gemacht, wie f\u00fcr uns das Setup ideal aussehen k\u00f6nnte. Neben reinen Performanceargumenten gibt es dabei auch andere Dinge zu betrachten:<\/p>\n<p>\u00dcber allem steht ohne Frage die Datensicherheit. Wenn wir Hardwareluxx auf ein Array packen, dann soll die zugrunde liegende\u00a0Storage-Umgebung auch im Worst Case noch funktionieren. Zwar gibt es immer Backups, aber eine Downtime von mehreren Stunden kostet Geld, und eine\u00a0Menge Admin-Nerven. Insofern scheiden f\u00fcr uns nat\u00fcrlich Dinge wie RAID0 aus. Aufgrund der doch recht geringen Performanceunterschiede bei\u00a0RAID5 und RAID6 f\u00fcr ein Array auf der GRAID-L\u00f6sung haben wir uns f\u00fcr RAID6 entschieden.\u00a0<\/p>\n<p>Auch hier macht es aber Sinn, nicht den kompletten Storage-Platz des Servers unter ein gro\u00dfes GRAID-Volume zu packen. Unsere Proxmoxx-Umgebung liegt zwar auf zwei separaten, internen Kingston-NVME-Drives (ZFS RAID1), aber auch f\u00fcr einige Daten bietet es sich an, sie nicht nur auf dem GRAID-Volume liegen zu haben. Der Grund:\u00a0Wenn die NVIDIA\u00a0GPU ausf\u00e4llt, muss eine neue Grafikkarte als Ersatz eingebaut werden, und anschlie\u00dfend ben\u00f6tigt man von GRAID Technology eine neue\u00a0Lizenznummer f\u00fcr den Treiber. Jeder Treiber ist auf die Seriennummer der GPU abgestimmt, entsprechend kann es etwas dauern, bis nach einem GPU-Tausch wieder auf die\u00a0Daten zugegriffen werden k\u00f6nnen.\u00a0<\/p>\n<p>Wir haben uns also f\u00fcr folgendes Setup entschieden:<\/p>\n<p> 8x Kingston DC3000ME (Drives 4-11, angebunden an CPU1) \u00fcber GRAID\u00a0Technology SupremeRAID als\u00a0RAID62x Kingston DC3000ME (Drives 0,1, angebunden an CPU0) \u00fcber Software RAID als\u00a0RAID12x Kingston DC3000ME als\u00a0Hot\u00a0Spare Drives (Drives 2,3) <\/p>\n<p>In dieser Konfiguration erreichen wir auch f\u00fcr das RAID6 die h\u00f6chste Performance, da sich die CPUs nicht untereinander st\u00f6ren und sich nicht untereinander \u00fcber den UPI-Link austauschen m\u00fcssen. \u00a0<\/p>\n<p>Die folgenden letzten Benchmarks stammen deshalb vom Produktivsystem mit Proxmox VE 9.1 und dem GRAID Technology 2.0.0 Update 93.\u00a0<\/p>\n<p>Read\/Write-Performance Proxmox 9.1(1M QD64T32) in GB\/s<\/p>\n<p>GB\/s<\/p>\n<p>mehr ist besser<\/p>\n<\/p>\n<p>Read\/Write-Performance Proxmox 9.1(4K QD64T32 in IOPS)<\/p>\n<p>IOPS<\/p>\n<p>mehr ist besser<\/p>\n<\/p>\n<p>Interessant:\u00a0Die Performance erscheint hier noch einmal h\u00f6her als beim vorangegangenen Windows-Test, zum einen sicherlich durch den schnelleren GRAID-Treiber, aber auch durch weniger Betriebssystem-Overhead. Mit 80,2 GB\/s beim sequenziellen Lesen und 26,6 GB\/s beim sequenziellen Schreiben sollten uns keine Performanceengp\u00e4sse erwarten, ebenso sind die erreichten IOPS beeindruckend.\u00a0<\/p>\n<p>Fazit<\/p>\n<p>Eine beeindruckende Performance, die das Gespann aus den zw\u00f6lf Kingston DC3000ME und dem GRAID Technology SupremeRAID Core liefert. Wie immer ist es aber sinnvoll, die Ergebnisse etwas differenzierter zu betrachten.<\/p>\n<p>Die GRAID-Technology-L\u00f6sung dominiert insbesondere bei Writes und unter Dauerlast. Die Latenzen bleiben niedrig und stabil, auch bei einem RAID5 und RAID6, aus diesem Grund sind die Random Write IOPS um Gr\u00f6\u00dfenordnungen h\u00f6her als bei einer Softwarel\u00f6sung. Auch die Sequential Writes sind auf hervorragendem Niveau. Ein GRAID Technology SupremeRAID\u00a0ist also ganz klar dann eine gute Wahl, wenn man den\u00a0Server f\u00fcr write-intensive, latenzkritische Workloads optimiert.<\/p>\n<p>Ein Software-RAID ist hingegen stark bei Reads. Bei Writes &#8211; gerade bei RAID5 &#8211; limitiert die CPU, dadurch ergeben sich nur niedrige\u00a0IOPS und hohe Latenzen. Bei Sequential Reads hingegen, lese-intensiven Workloads oder niedrigen Queue-Tiefen (Q1T1), also eher in Desktop-Umgebung, ist ein Software-RAID durchaus in Ordnung und performant.<\/p>\n<p>In vielen Benchmarks ist zudem auch zu sehen, dass selbst ein einzelnes NVME-Laufwerk oftmals erstaunlich effizient ist und eine ausreichende Leistung bieten wird. Gerade bei Anwendungsf\u00e4llen, die in die Richtung Desktop gehen, kann ein einzelnes, schnelles NVME-Laufwerk wie in unserem Fall die DC3000ME besser sein als ein komplexes\u00a0RAID-Setup &#8211; und das ohne die Kosten zu betrachten.<\/p>\n<p>In unserem Fall ist der Anwendungszweck Datenbanken und\u00a0Virtualisierung von mehreren Systemen, also werden wir am Ende viele parallele und kleine Zugriffe auf unser Storage-Subsystem haben. Insofern profitieren wir eher von einer GRAID-L\u00f6sung. Allerdings muss man dabei auch festhalten, dass unser bisheriger Server eben noch nicht mit schnellem NVME-Storage wie einer Kingston DC3000ME lief &#8211; so haben wir wohl Leistungsreserven, die weit \u00fcber das Ma\u00df hinausgehen, das wir geplant haben.\u00a0<\/p>\n<p>F\u00fcr den\u00a0Desktop-Bereich ist die\u00a0GRAID-L\u00f6sung eher nicht interessant. Wer seinen Desktop-PC zum Fliegen bringen will, setzt lieber auf eine einzelne NVME-SSD oder bastelt sich ein kleines Software-RAID aus zweien.\u00a0<\/p>\n<p>GRAID\u00a0Technology SupremeRaid\u00a0Core<\/p>\n<p>  Pro   Extreme Performance bei WritesNiedrige Latenz\/hohe IOPSHohe Performance selbst bei\u00a0RAID5\/6Offload der RAID-Berechnungen von den\u00a0CPUs zur NVIDIA GPU   Kontra   Zus\u00e4tzlicher Stromverbrauch durch NVIDIA-GPULizenz ist an GPU gebunden, bei\u00a0GPU-Ausfall kann nicht auf Daten zugegriffen werden    <\/p>\n","protected":false},"excerpt":{"rendered":"\u00dcber unser PMXX-Projekt haben wir schon zweimal berichtet:\u00a0Nach einem Einf\u00fchrungsartikel sind wir zuletzt genauer auf den Gigabyte-Server eingegangen.&hellip;\n","protected":false},"author":2,"featured_media":117436,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[16],"tags":[46,42,6456,6851,6285,7930,7927,7931,1457,7415,6281,41,6280,44,7934,7932,2016,97,96,2090,4046,7928,101,98,2017,7929,7933,100,99],"class_list":{"0":"post-117435","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-wissenschaft-technik","8":"tag-at","9":"tag-austria","10":"tag-community","11":"tag-computer","12":"tag-forum","13":"tag-gpu","14":"tag-grafikkarte","15":"tag-handy","16":"tag-hardware","17":"tag-hilfe","18":"tag-laptop","19":"tag-news","20":"tag-notebook","21":"tag-oesterreich","22":"tag-preisvergleich","23":"tag-produkttest","24":"tag-review","25":"tag-science","26":"tag-science-technology","27":"tag-smartphone","28":"tag-support","29":"tag-tablet","30":"tag-technik","31":"tag-technology","32":"tag-test","33":"tag-ultrabook","34":"tag-vergleich","35":"tag-wissenschaft","36":"tag-wissenschaft-technik"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@at\/116448118910471001","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/posts\/117435","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/comments?post=117435"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/posts\/117435\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/media\/117436"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/media?parent=117435"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/categories?post=117435"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/tags?post=117435"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}