Ab welchem Szenario lohnt sich eigentlich ein Umstieg von 1000BASE‑T auf 2.5GBASE-T? Gut, das ist jetzt etwas kurz gesprungen.
Es geht um Datentransfers von einem PC (Sockel AM4 mit Ryzen 7 5800X drin, 64 GiB DDR4; muss noch aufgebaut werden, Brett fehlt noch) auf einen Server, auch nur 'n PC (Sockel AM3+ mit FX-8350 drin, 32 GiB DDR3; muss auch noch aufgebaut werden, Innenleben dafür muss zuvor im PC frei gesetzt werden), ohne RAID oder ähnliche High-Performance-Setups. Datenquelle ist häufig eine SSD (Crucial MX500) SATA 6 GB/s, seltener eine HDD (7200 rpm) SATA 6 GB/s. Datensenke ist immer eine HDD (7200 rpm) SATA 6 GB/s. Die NICs in PC und Server sind direkt mit einem Cat.6-Kabel verbunden und bilden somit ein eigenes LAN. Ein Switch holzt da nicht zwischen. Auf PC und Server läuft jeweils Linux mit Kernel 5.15.x. Windows spielt absolut keine Rolle.
1. Fall: Datentransfervolumen ≲ "inst. RAM in Server"
2. Fall: Datentransfervolumen ≫ "inst. RAM in Server"
Im 1. Fall dürfte 2.5GBASE-T gegenüber 1000BASE‑T Zeit sparen. Nur ist der Zeitaufwand in diesem 1. Fall auch bei 1000BASE‑T überschaubar.
Wirklich relevant ist die Situation im 2. Fall.
Wie sieht es eigentlich mit der Hardware aus? 2.5GBASE-T onboard wird sehr oft über den RTL8125 Chip realisiert. Taugt der Chip was? Im Server müsste allerdings ein 2.5GBASE-T NIC nachgerüstet werden. Taugen die PCIe x1-Karten mit RTL8125 Chip oder greift man da lieber zu Intel? Laut WP reicht das Cat.6-Kabel für 2.5GBASE-T. Gibt es hier dazu praktische Erfahrungen?