{"id":16981,"date":"2026-02-27T19:30:10","date_gmt":"2026-02-27T19:30:10","guid":{"rendered":"https:\/\/www.europesays.com\/at\/16981\/"},"modified":"2026-02-27T19:30:10","modified_gmt":"2026-02-27T19:30:10","slug":"pmxx-server-projekt-gigabytes-r284-s93-aal1-server-im-test","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/at\/16981\/","title":{"rendered":"PMXX Server-Projekt: Gigabytes R284-S93-AAL1 Server im Test"},"content":{"rendered":"<p>Im Rahmen unseres <a href=\"https:\/\/www.hardwareluxx.de\/index.php\/artikel\/hardware\/storage\/67756-project-pmxx-proxmox-server-f%C3%BCr-hardwareluxx.html\" target=\"_blank\" rel=\"nofollow noopener\">PMXX-Projektes<\/a> nutzen wir den\u00a0Gigabyte R284-S93-AAL1, einen leistungsstarken 2U-Rackserver vom taiwanesischen Hersteller, der auf Intels neue Xeon-6-Prozessoren setzt. In den letzten Wochen hatten wir nun Zeit, umfassende Tests zu machen, den Server sowohl unter einer Windows Server-Umgebung wie unter Proxmox zu testen und k\u00f6nnen nun eine Einsch\u00e4tzung \u00fcber den High-End-Server geben, der von\u00a0Gigabyte f\u00fcr High-Performance-Computing, KI-Inferenz und Software-Defined-Storage-Anwendungen entwickelt worden ist.<\/p>\n<p>Gigabytes R284-S93-AAL1 basiert dabei auf einem \u00fcblichen 2U-Rack-Formfaktor, allerdings mit einer recht massiven L\u00e4nge von 815mm, und somit recht viel Platz. Das liegt an der Ausrichtung des Servers, der nicht nur in die\u00a0Richtung Storage gehen kann, sondern auch durch die Integration von GPUs als KI-Basis dienen kann. Mit Unterst\u00fctzung f\u00fcr zwei Xeon-6-Prozessoren von Intel, entsprechend reichhaltigem, schnellen DDR5-Speicher mit hoher Bandbreite und massiver PCIe-Gen5-Konnektivit\u00e4t positioniert sich der Server also als Grundlage f\u00fcr viele m\u00f6gliche Szenarien.\u00a0<\/p>\n<p>Die Spezifikationen des Servers haben wir in einer Tabelle zusammengefasst:<\/p>\n<p>    Gigabyte R284-S93-AAL1               Formfaktor       2U Rackmount                 Abmessungen (B \u00d7 H \u00d7 T)       438 x 87,5 x 815 mm                 CPU       Bis zu 2x Intel Xeon 6 (6500\/6700 Serie), Sockel LGA4710 (Socket E2)                 Max. CPU-TDP       Bis zu 300 W pro CPU (bis 350 W bei 25\u00a0\u00b0C\u00a0Raumtemperatur, abh\u00e4ngig von Konfiguration\/K\u00fchlprofil)                 Arbeitsspeicher (DIMM-Slots)       32x DDR5 DIMM                 RAM-Typen       DDR5 RDIMM \/ DDR5 MRDIMM                 Max. RAM-Geschwindigkeit       RDIMM bis 6400 MT\/s, MRDIMM bis 8000 MT\/s                 Front-Drive-Bays       Bis zu 12x 3,5&#8243; oder 2,5&#8243; (NVMe\/SATA\/SAS \u2013 je nach Backplane-Konfiguration)                 Rear-Drive-Bays       Bis zu 2x 2,5&#8243; (NVMe\/SATA\/SAS \u2013 je nach Konfiguration)                 Interner Boot\/Cache       Bis zu 2x M.2 (PCIe Gen5)                 PCIe-Erweiterung       4x PCIe Gen5 x16                 OCP       Bis zu 2x OCP NIC 3.0                 Netzwerk (Onboard)       2x 1 GbE LAN                 Management-Port       1x dedizierter Management-LAN-Port                 BMC \/ Remote-Management       ASPEED AST2600                 Netzteile       2x 2700 W redundant, 80 PLUS Titanium                 K\u00fchlung       Vier Hot-Swap Hochleistungsl\u00fcfter, CPU-K\u00fchlk\u00f6rper werden mitgeliefert, Shroud zur Luftf\u00fchrung         Intels Xeon 6 Plattform als Basis<\/p>\n<p>Der R284-S93-AAL1 nutzt die neue Intel-Xeon-6-Plattform, die speziell f\u00fcr moderne Cloud- und Enterprise-Anwendungen entwickelt wurde. Die CPUs\u00a0unterst\u00fctzen eine Vielzahl fortschrittlicher Funktionen und bieten erhebliche Verbesserungen gegen\u00fcber fr\u00fcheren Generationen. <a href=\"https:\/\/www.hardwareluxx.de\/index.php\/artikel\/hardware\/prozessoren\/64561-intels-comeback-granite-rapids-mit-96-kernen-im-test.html\" target=\"_blank\" rel=\"nofollow noopener\">Im\u00a0Test<\/a> hatten wir dabei zum Start nur die gr\u00f6\u00dferen Prozessormodelle, f\u00fcr unsere Zwecke sind Modelle mit 96 oder 144 Kernen pro CPU \u00fcberdimensioniert. Im Test &#8211; und sp\u00e4ter auch in unserem Live-Betrieb &#8211; setzen wir auf zwei Xeon 6737P, die mit je 32 Kernen ausgestattet sind.\u00a0<\/p>\n<p>Die Granite-Rapids-Plattform hat dabei einen besonderen Vorteil: Die hohe Speicherperformance aufgrund des Achtkanal-Speicherinterfaces l\u00e4sst oftmals sogar AMDs aktuelle EPYC-Modelle hinter sich, da diese mit 6.400 MT\/s statt\u00a0nur mit 4.800 MT\/s l\u00e4uft. Intel kann zudem mit MRDIMMs theoretisch sogar bis zu 8.800\u00a0MT\/s liefern.\u00a0<\/p>\n<p>Weitere Verbesserungen zur Vorg\u00e4ngergeneration betreffen die PCIe-Anbindung (jetzt Gen5), eine verbesserte Energieeffizienz und Optimierungen f\u00fcr Virtualisierungen und Container-Workloads, inklusive Sicherheitsfunktionen wie Intel TDX und\u00a0SGX. Durch die Dual-Socket-Konfiguration kann der Server eine enorme Gesamtleistung erreichen und eignet sich besonders f\u00fcr virtualisierte Infrastrukturen, Datenbanken und KI-Inference-Workloads.<\/p>\n<p>  Speicherarchitektur: DDR5 &amp; MRDIMM f\u00fcr maximale Bandbreite<\/p>\n<p>Ein entscheidender Vorteil des Gigabyte-Systems ist die Unterst\u00fctzung von bis zu 32 DDR5 pro DIMM-Slot. Diese erm\u00f6glichen nicht nur eine hohe maximale Speicherkapazit\u00e4t, sondern auch eine sehr hohe Speicherbandbreite. Unterst\u00fctzt werden sowohl DDR5-RDIMM f\u00fcr klassische Enterprise-Konfigurationen, wie auch DDR5-MRDIMM f\u00fcr extrem hohe Speicherbandbreiten. Bei besonders gro\u00dfen Datenbank-Workloads, wissenschaftlichen Anwendungen, Virtualisierung und KI-Anwendungen sind diese MRDIMMs in der Lage, noch einmal einen Performance-Vorteil zu bieten.\u00a0<\/p>\n<p>In unserem Fall setzen wir auf RDIMMs von Kingston (Server Premier DDR5), genauer gesagt insgesamt 16 Module des Typs KSM64R52BD4-64MD. Die 64-GB-Module besitzen die \u00fcbliche reg. ECC-Korrektur, sind mit 1,1 V zu betreiben und laufen mit CL52-52-52 und 2RX4 (Dual Rank). Wir verwenden 16 Module, um zum einen pro CPU das Achtkanal-Speicherinterface zu nutzen und somit die optimale Performance zu bekommen.\u00a0<\/p>\n<p>Die Verteilung der Speicherkan\u00e4le \u00fcber beide Prozessoren sorgt f\u00fcr eine optimale Nutzung der Bandbreite und reduziert Engp\u00e4sse bei speicherintensiven Anwendungen.<\/p>\n<p>Storage-Subsystem \u2013 Flexibilit\u00e4t statt maximaler Dichte<\/p>\n<p>Der Gigabyte R284-S93-AAL1 bietet eine flexible Storage-Konfiguration, die sich an verschiedene Anforderungen anpassen l\u00e4sst. Die Front unterst\u00fctzt bis zu 12 Laufwerke im 3,5-Zoll- oder 2,5-Zoll-Format. Je nach Backplane-Konfiguration k\u00f6nnen dabei SATA-SSDs oder HDDs verwendet werden, oder aber SAS-Laufwerke und NVME-SSDs, mit der entsprechenden Backplane. Wir haben uns f\u00fcr die schnellste Variante entschieden und setzen auf NVME-Drives.\u00a0<\/p>\n<p>Insgesamt stehen aber auch noch weitere vier M\u00f6glichkeiten zur Verf\u00fcgung, zus\u00e4tzlichen Speicher einzubauen und zu nutzen. Auf der R\u00fcckseite sind zwei Einsch\u00fcbe f\u00fcr weitere zwei 2,5-Zoll-Drives &#8211; hier k\u00f6nnte man beispielsweise Boot- oder redundante Betriebssystem-Installationen auf diese Drives setzen, um die &#8222;Front-Drives&#8220; so zu konfigurieren, dass hier ein schnelles Daten-Array entsteht.\u00a0<\/p>\n<p>Intern sind aber weitere M.2-Steckpl\u00e4tze zu haben, die wir verwendet haben. Die \u00fcblichen M.2-Drives mit PCIe-5.0-Anbindung, die man auch aus dem normalen Desktop-Bereich kennt, sind preiswert zu haben &#8211; und deshalb haben wir hier zwei \u00fcbliche Kingston\u00a0Renegade G5-Laufwerke mit je 1 TB verbaut, um auf diesen Proxmox in einem RAID 1 (ZFS) zu installieren.\u00a0<\/p>\n<p>Sehr gut gel\u00f6st ist beim Gigabyte R284-S93-AAL1 die Anbindung der einzelnen Drives:\u00a0Hier l\u00e4uft nichts &#8222;shared&#8220; oder mit einer kleineren Anzahl an Lanes als vorgesehen. Je drei PCIe 5.0 x16-Links verwendet Gigabyte f\u00fcr die Front-NVME-Drives, sodass alle mit voller PCIe 5.0 x4-Anbindung laufen k\u00f6nnen. Identisches gilt f\u00fcr die internen und r\u00fcckw\u00e4rtigen Anschl\u00fcsse. Eine Performance-Bremse liegt im Bereich der NVME-Drives also nicht vor. Interessant:\u00a0In In unseren Tests kamen wir bei Software-Raids eher an die Leistungsgrenze des UPI-Links zwischen den Prozessoren, welche bei den zur Verf\u00fcgung stehenden vier UPI-Links bei 24 GT\/s liegt.\u00a0<\/p>\n<p>  Erweiterbarkeit \u2013 PCIe Gen5 und GPU-Support<\/p>\n<p>Ein entscheidender Vorteil des R284-S93-AAL1 ist seine hohe Erweiterbarkeit. Diese wird insbesondere ben\u00f6tigt f\u00fcr schnellere\u00a0NICs oder aber f\u00fcr RAID-Controller bei SATA\/SAS-Ausf\u00fchrungen &#8211; aber heutzutage nat\u00fcrlich auch f\u00fcr GPUs.<\/p>\n<p>Das System verf\u00fcgt insgesamt \u00fcber:<\/p>\n<p> Vier PCIe Gen5 x16 SlotsZwei OCP NIC 3.0 Slots <\/p>\n<p>Ein kleiner Fehler, den wir bei der Konfiguration des Servers gemacht haben, war die\u00a0OCP-NIC-M\u00f6glichkeiten nicht auszusch\u00f6pfen. Wir haben sowohl eine Intel-10-GBit-PCIe-Karte eingebaut, wie auch eine QNAP QXG-100G2SF-E810-Netzwerkkkarte mit zwei 100-GBit-Schnittstellen (basierend auf Intels E810-Chip). Beide L\u00f6sungen h\u00e4tte es auch als OCP-Karte gegeben, was uns weitere PCIe-Steckpl\u00e4tze freigehalten h\u00e4tte. Wer also plant, viele GPUs einzubauen, k\u00f6nnte mit den OCP-Karten den Platz besser nutzen.\u00a0<\/p>\n<p>Als Steckpl\u00e4tze kommen zwei Dual-Slot-L\u00f6sungen infrage, weiterhin darunter zwei Single-Slot-L\u00f6sungen. Insgesamt k\u00f6nnte man die vier PCIe-Gen5-x16-Slots also mit zwei gr\u00f6\u00dferen Blackwell-Karten ausstatten, und auch noch zwei kleinere Single-Slot-Grafikkarten\u00a0hinzuf\u00fcgen. Aber:\u00a0Zumindest f\u00fcr die gro\u00dfen Karten besitzt der Gigabyte-Server zwei 12VHPWR-Anschl\u00fcsse an den beiden Netzteilen. Die beiden weiteren Karten m\u00fcssten also \u00fcber den PCIe-Slot mit Strom versorgt werden.\u00a0<\/p>\n<p>In unserer Kombination finden sich also:<\/p>\n<p> Eine Intel\u00a0E610-XT2 Karte mit zwei RJ45-Anschl\u00fcssen (10-GBit-Ethernet)Eine QNAP QXG-100G2SF-E810 Karte mit zwei QSFP28-Anschl\u00fcssen (100-GBit-Ethernet)Eine NVIDIA RTX A1000-Karte f\u00fcr GRAID Technology SupremeRAID Pro.  Netzwerk, Konnektivit\u00e4t und Remote Management<\/p>\n<p>Standardm\u00e4\u00dfig bietet der Server zwei 1-Gigabit-Ethernet-Ports f\u00fcr allgemeine Netzwerkkommunikation und einen dedizierten Management-Port. Beide befinden sich auf der R\u00fcckseite vom Server in der Mitte, neben einem Mini-Display-Port-Anschluss und zwei USB-3.0-Anschl\u00fcssen f\u00fcr externe Medien.\u00a0<\/p>\n<p>F\u00fcr das Management verwendet Gigabyte\u00a0den bew\u00e4hrten ASPEED AST2600 BMC (Baseboard Management Controller). Dieser erm\u00f6glicht vollst\u00e4ndige Remote-Verwaltung, einschlie\u00dflich Remote-Power-Control, Hardware-Monitoring, Remote-KVM, der Remote-Installation von Betriebssystemen \u00fcber diverse Medien (z.B. Virtual-USB\/CD-Drives). Interessant ist aber auch ein Remote-Update der Server-Firmware, was in unserem Fall auch hervorragend funktionierte.\u00a0<\/p>\n<p>Diese Funktionen sind f\u00fcr Rechenzentren unerl\u00e4sslich und erm\u00f6glichen eine vollst\u00e4ndige Verwaltung ohne physischen Zugriff &#8211; und somit weniger Kosten durch Remote-Hands, aber auch eine schnellere Reaktion, wenn mal etwas beim Reboot schiefgegangen ist.\u00a0<\/p>\n<p>S\u00e4mtliche Funktionen waren in unserem Fall einwandfrei implementiert. Gerade das tats\u00e4chliche An- und Abschalten eines Servers im Rack durch die BMC-Funktion, die Installation von Software auf dem Produktivsystem und das Hardwaremonitoring k\u00f6nnen am Ende viel Zeit und Geld im Live-Betrieb sparen.\u00a0<\/p>\n<p>K\u00fchlung und Energieversorgung<\/p>\n<p>Der Server verf\u00fcgt \u00fcber ein redundantes Netzteil-System mit zwei 2700 W Titanium-Netzteilen. Selbstverst\u00e4ndlich verbraucht der Server dabei keine 2,7 kW, aber theoretisch w\u00e4ren die Netzteile in der Lage, alleine &#8211; also nicht im Verbund &#8211; diese Leistung bereitzustellen. Der Betrieb mit beiden und mit jeweils einzelnen Netzteilen funktionierte testweise dabei ohne Problem.\u00a0<\/p>\n<p>Besonders interessant ist es, dass Gigabyte hier nicht nur leistungsf\u00e4hige Modelle installiert, sondern auch noch besonders effiziente Modelle. Die Netzteile erreichen dabei bei nur 10-%-Last bereits 90-%-Effizienz &#8211; das ist ungef\u00e4hr der Verbrauch des\u00a0Servers ohne SSDs, Erweiterungskarten und Last im Idle-Betrieb.\u00a0<\/p>\n<p>In unserem Fall &#8211; also mit voll best\u00fcckten SSDs, Erweiterungskarten und unter Last, erwarten wir am Ende eine Last im Bereich der effizientesten Netzteil-Bereiche, also zwischen 20 und 50 % Gesamtlast (94 % bis 96 % Effizienz). Damit ist das System perfekt hinsichtlich der Energieeffizienz ausbalanciert.\u00a0<\/p>\n<p>F\u00fcr die Unterst\u00fctzung f\u00fcr GPU-Konfigurationen mit hohem Stromverbrauch bringen beide Netzteile 12VHPWR-Anschl\u00fcsse mit. Die Redundanz ist nat\u00fcrlich ein Sicherheitsfaktor, falls einmal ein Netzteil ausf\u00e4llt. Kleine\u00a0Anekdote:\u00a0Uns ist in 25 Jahren noch kein Netzteil ausgefallen. Aber auch ohne diesen Sicherheitsfaktor ist ein redundantes Netzteil oft hilfreich, beispielsweise wenn Steckdosenleisten ausgetauscht werden m\u00fcssen oder das Rechenzentrum Strom aus zwei verschiedenen Quellen zur Verf\u00fcgung stellen kann.\u00a0<\/p>\n<p>Das K\u00fchlsystem des Servers besteht aus insgesamt vier Hochleistungsl\u00fcftern mit 80x80x38mm-Abmessungen, die eine ausreichende K\u00fchlung selbst unter hoher Last gew\u00e4hrleisten.\u00a0Entsprechend laut kann der Server bei maximaler L\u00fcfterdrehzahl werden, das\u00a0Hardwaremonitoring regelt die L\u00fcfter aber performanceabh\u00e4ngig. Da wir mit unseren Prozessoren etwas unter der TDP-Grenze des Servers bleiben (270 W gegen\u00fcber 300 W bzw. 350 W bei 25 \u00b0C konstanter Racktemperatur), sind Hitzeprobleme eher unwahrscheinlich.\u00a0<\/p>\n<p>Der Energieverbrauch unserer SSDs liegt im Idle-Betrieb bei nur 8\u00a0W, beim Schreiben bei bis zu 24\u00a0W. Wer dazu dann noch zwei High-End-CPUs einbaut und zwei gr\u00f6\u00dfere Blackwell-Grafikkarten, sollte etwas auf die L\u00fcfterdrehzahlen achten und den Server entsprechend in einem Performance-Mode konfigurieren. In unserem Fall sind thermisch keine Probleme zu erwarten.\u00a0<\/p>\n<p>Testdaten und Benchmarks<\/p>\n<p>Ausf\u00fchrliche Benchmarks zu dem GRAID Technology SupremeRAID Pro und den\u00a0Kingston\u00a0DC3000ME pr\u00e4sentieren wir zu sp\u00e4terer\u00a0Zeit in einem gesonderten Artikel zu der\u00a0RAID-L\u00f6sung. Einen kleinen Blick auf die CPU- und Speicherperformance sowie auf den Stromverbrauch wollen wir in diesem Artikel allerdings schon vorwegnehmen.<\/p>\n<p>Intels Twin-Team aus zwei Xeon 6737P lieferten dabei die f\u00fcr ein 64-Core-\/128-Thread-Team \u00fcbliche erwartete Leistung, auch beim Turbo-Takt von 4,2 GHz. Genauso verhielt es sich bei der Speicherbandbreite, die mit den zwei Achtkanal-Interfaces in der Lage war, fast 500 GB\/s \u00fcber den Bus zu schaufeln. Das Storage-Team aus GRAID Technology SupremeRAID Pro und den 12 Kingston DC3000ME erreichte dabei auch \u00fcber 100\u00a0GB\/s beim Lesen &#8211; und hervorragende Performance bei Write-Vorg\u00e4ngen, mit niedrigster Latenz.<\/p>\n<p>                               <a href=\"https:\/\/www.hardwareluxx.de\/images\/cdn02\/uploads\/2026\/Feb\/smart_network_if\/cpuz1_1920px.png\" data-caption=\"\" rel=\"nofollow noopener\" target=\"_blank\">                                                                                                                 <img decoding=\"async\" itemprop=\"image\" title=\"\" alt=\"\" src=\"https:\/\/www.europesays.com\/at\/wp-content\/uploads\/2026\/02\/cpuz1_300px.png\"\/>                                                                                                                                 <\/a>                                             <a href=\"https:\/\/www.hardwareluxx.de\/images\/cdn02\/uploads\/2026\/Feb\/unreal_engine_yz\/speicherbandbreite_1920px.png\" data-caption=\"\" rel=\"nofollow noopener\" target=\"_blank\">                                                                                                                <img decoding=\"async\" itemprop=\"image\" title=\"\" alt=\"\" src=\"https:\/\/www.europesays.com\/at\/wp-content\/uploads\/2026\/02\/speicherbandbreite_300px.png\"\/>                                                                                                                                 <\/a>                        <\/p>\n<p>Bleibt die Frage nach dem Stromverbrauch, der heutzutage nat\u00fcrlich auch im Rechenzentrum noch interessant ist. Wir haben folgende Szenarien gemessen:<\/p>\n<p> KonfigurationStromverbrauch in WattNur Server ohne Erweiterungskarten und SSDs\u00a0(idle)235,6 WattServer und SSDs (12x, idle)356,2 WattServer, SSDs, 2x NICs (idle)365,4 WattServer, SSDs, 2x NICs, NVIDIA A1000 (idle)374,7 WattServer, SSD, 2x\u00a0NICs, NVIDIA A1000\u00a0(aktive Drive Group)438,2 Watt <\/p>\n<p>Je nach Workload kommen dann Verbr\u00e4uche f\u00fcr die SSDs (gerade im Schreiben) oder f\u00fcr die CPUs hinzu. Hierf\u00fcr werden wir weitere Daten im Livebetrieb sammeln. In den Speicher- und Storage-Benchmarks schafften wir es aber selten, den Server \u00fcber 800 W zu bringen. Zu einem sp\u00e4teren Zeitpunkt werden wir die Last-Daten updaten.<\/p>\n<p>Fazit<\/p>\n<p>Gigabytes R284-S93-AAL1 eignet sich besonders f\u00fcr Virtualisierung &#8211; z.B. wie bei uns f\u00fcr Proxmox, aber auch f\u00fcr Cloud-Infrastruktur, KI-Inference-Server oder f\u00fcr Anwendungsbereiche wie\u00a0Software Defined Storage oder Datenbanken. Damit ist es ein wirklich flexibles Modell, mit dem man sich nicht einschr\u00e4nken muss. Gerade die M\u00f6glichkeien, GPUs zu integrieren oder die Netzwerkschnittstellen aufzur\u00fcsten, oder aber wirklich flexible Storage-Optionen realisieren zu k\u00f6nnen, bringen eine hohe Flexibilit\u00e4t mit. Damit Gigabyte das alles realisieren kann, setzt man gleich auf eine besonders gute K\u00fchlung und eine zuverl\u00e4ssige Stromversorgung mit 2.700\u00a0W starken Netzteilen. Das f\u00fchrt wiederum dazu, dass &#8211; sofern man diese hohe Leistung gar nicht braucht &#8211; auch eine sehr hohe Effizienz bei dem System erreicht wird.<\/p>\n<p>Intels Xeon-Plattform wird dabei effizient ausgenutzt &#8211; und nichts der Features f\u00e4llt dabei hinten runter. Mit 32 Dimms kann man das System ausgiebig mit Arbeitsspeicher best\u00fccken, mindestens sollten es aber 16 Module sein, um jede CPU mit einem Achtkanal-Interface nutzen zu k\u00f6nnen. Die PCIe-Lanes der CPUs hat Gigabyte geschickt auf Storage und Erweiterungsm\u00f6glichkeiten aufgeteilt. In unserem Fall setzen wir auf 12 NVME-Drives, die alle mit der maximalen Lane-Anzahl angebunden sind &#8211; und k\u00f6nnten zus\u00e4tzlich noch zwei Grafikkarten und mehrere Netzwerkanschl\u00fcsse nachr\u00fcsten.\u00a0<\/p>\n<p>Als wirklich hervorragend kann man die Management-L\u00f6sung von Gigabyte hervorheben, die nat\u00fcrlich auch aufgrund der Integration der AMI-Software das Management des Servers sehr vereinfacht. Die Boot-Zyklen sind akzeptabel und auch der Stromverbrauch des Servers ist Dank des flexiblen Aufbaus und der Titanium-Netzteile sehr gut. Einzig und allein als Server mit dem\u00a0Fokus auf Storage-Dichte ist er nicht die optimale Wahl, hier haben 2U-Modelle mit bis zu 25 Fronteinsch\u00fcben nat\u00fcrlich die Nase vorne.\u00a0<\/p>\n<p>In unserem Fall haben wir den Server mit zwei Intel Xeon 6737P ausgestattet, also aktuellen Granite-Rapids-Modellen mit je 32 Kernen \/ 64 Threads und bis zu 4\u00a0GHz Taktfrequenz. Die 270-W-Modelle liefern somit eine ausbalancierte Performance dank hoher Kern- und Taktrate. Mit 1 TB DDR5 &#8211; aus 16 Kingston DDR5-Speichermodulen &#8211; k\u00f6nnen wir jeweils auf das Achtkanal-Speicherinterface zugreifen.\u00a0<\/p>\n<p>F\u00fcr unsere Zwecke mussten wir den Netzwerk-Controller des Gigabyte-Servers aufr\u00fcsten &#8211; denn wir wollen auch gr\u00f6\u00dferen externen\u00a0Speicher anbinden und daf\u00fcr brauchen wir mehr Bandbreite, als die 1-GBit-NICs des Servers bieten k\u00f6nnen. Mit einem 10-GBit-Controller (2-Ports) und einer 1000-GBit-QNAP-Karte\u00a0(QXG-100G2SF-E810, 2 Ports) bekommen wir einfach die Bandbreite, die wir ben\u00f6tigen. Allerdings wird auch der 1-GBit-NIC genutzt &#8211; f\u00fcr die externe Anbindung. Auf der anderen Seite kommt eine NVIDIA RTX PRO A1000 zum Einsatz, um GRAID Technologies SupremeRAID-F\u00e4higkeiten nutzen zu k\u00f6nnen &#8211; zusammen mit 12\u00a0Kingston DC3000ME NVME-Drives. Diese Drives liefern gen\u00fcgend lokalen Speicher f\u00fcr unsere Proxmox-Umgebung und mehr als diese 12 Drives brauchen wir auch nicht.\u00a0<\/p>\n<p>Preislich liegt der R284-S93-AAL1 aktuell bei knapp \u00fcber 3.000 EUR Kaufpreis, wobei wir ihn momentan allerdings in Deutschland nur bei <a href=\"https:\/\/shop.prostor.de\/de\/gigabyte-2he-serversystem-r284-s93-aal1-intel-xeon6-gpu.html\" target=\"_blank\" rel=\"nofollow noopener\">ProStor<\/a> finden konnten.\u00a0\u00a0<\/p>\n<p>Die zwei kleinen Negativ-Punkte auf unserer Liste betreffen unsere Nutzung also nicht, weshalb wir Gigabytes R284-S93-AAL1 mit unserem Business-Hero-Award auszeichnen:\u00a0<\/p>\n<p> \t\t\t         <a href=\"https:\/\/www.hardwareluxx.de\/images\/cdn02\/uploads\/2026\/Feb\/rapid_impulse_5w\/award_pro_gigabyte_r284_1920px.jpg\" data-m=\"https:\/\/www.hardwareluxx.de\/images\/cdn02\/uploads\/2026\/Feb\/rapid_impulse_5w\/award_pro_gigabyte_r284_1920px.jpg\" data-l=\"https:\/\/www.hardwareluxx.de\/images\/cdn02\/uploads\/2026\/Feb\/rapid_impulse_5w\/award_pro_gigabyte_r284_3840px.jpg\" data-caption=\"Award Gigabyte R284-S93-AAL1\" rel=\"nofollow noopener\" target=\"_blank\">                                      <img decoding=\"async\" itemprop=\"image\" class=\"fotorama_img\" alt=\"Award Gigabyte R284-S93-AAL1\" title=\"Award Gigabyte R284-S93-AAL1\" src=\"https:\/\/www.hardwareluxx.de\/images\/cdn02\/uploads\/2026\/Feb\/rapid_impulse_5w\/award_pro_gigabyte_r284_300px.jpg\"\/>                                                                                                                   <\/a> \t  <\/p>\n<p>Gigabyte R284-S93-AAL1 2U-Rackserver<\/p>\n<p>  Pro   Ausrichtung f\u00fcr High-ComputingKonsequente\u00a0Integration der Intel Granite-Rapids-PlattformSehr gutes K\u00fchlungsdesignHervorragende (GPU-) Erweiterungsm\u00f6glichkeitenSehr gute Performance\u00a0Sehr hohe Effizienz und Leistungsreserven\u00a0Sehr gute Management-Funktionen   Kontra   Nur 12 NVME-Einsch\u00fcbe an der FrontNur 1-GBit-Ethernet-L\u00f6sung vorinstalliert      <\/p>\n","protected":false},"excerpt":{"rendered":"Im Rahmen unseres PMXX-Projektes nutzen wir den\u00a0Gigabyte R284-S93-AAL1, einen leistungsstarken 2U-Rackserver vom taiwanesischen Hersteller, der auf Intels neue&hellip;\n","protected":false},"author":2,"featured_media":16982,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[16],"tags":[46,42,6456,6851,6285,7930,7927,7931,1457,7415,6281,41,6280,44,7934,7932,2016,97,96,2090,4046,7928,101,98,2017,7929,7933,100,99],"class_list":{"0":"post-16981","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-wissenschaft-technik","8":"tag-at","9":"tag-austria","10":"tag-community","11":"tag-computer","12":"tag-forum","13":"tag-gpu","14":"tag-grafikkarte","15":"tag-handy","16":"tag-hardware","17":"tag-hilfe","18":"tag-laptop","19":"tag-news","20":"tag-notebook","21":"tag-oesterreich","22":"tag-preisvergleich","23":"tag-produkttest","24":"tag-review","25":"tag-science","26":"tag-science-technology","27":"tag-smartphone","28":"tag-support","29":"tag-tablet","30":"tag-technik","31":"tag-technology","32":"tag-test","33":"tag-ultrabook","34":"tag-vergleich","35":"tag-wissenschaft","36":"tag-wissenschaft-technik"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/posts\/16981","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/comments?post=16981"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/posts\/16981\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/media\/16982"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/media?parent=16981"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/categories?post=16981"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/tags?post=16981"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}