Re: UEFI op servers, of niet?
On 22-08-2023 11:54, Paul van der Vlis wrote:
Hallo Dennis en anderen,
Op 22-08-2023 om 10:45 schreef Dennis van Dok:
On 15-08-2023 12:13, Paul van der Vlis wrote:
We zijn (bij Nikhef, plusminus 500 systemen) al een paar jaar helemaal
over op EFI boot aangezien de nieuwere systemen legacy helemaal niet
meer ondersteunen.
Daar heb ik nog geen last van bij servers, bij welke fabrikanten zie je
dat?
IIRC Dell en Lenovo, in combinatie met ondersteuning voor PXE boot en
grote NVMe drives.
Welke systemen doen dit? Wij moeten altijd zelf onze firmware bijhouden.
Ik ken dit eigenlijk alleen van kleinere systemen om eerlijk te zijn,
bijvoorbeeld van Dell. Maar qua 19" systemen gebruik ik Supermicro en
dat doet nog niet mee. Dit is wat ik bedoel:
https://packages.debian.org/bullseye/fwupd
https://fwupd.org/
Ik ga daar nog wel eens naar kijken want het lijkt me toch wel handig om
te automatiseren (als dat kan). En natuurlijk altijd met de Bewuste
Keuze™ welke updates je doorvoert!
Ik gebruik in de praktijk geen software van de fabrikant, het is
allemaal Debian.
DELL heeft racadm en dat werkt nog vrij aardig standalone, maar we
stappen meer en meer over op redfish.
Ik heb altijd met software RAID gewerkt en zie niet veel voordelen aan
hardware RAID. Er zijn wel voordelen, maar ook nadelen.
Voordelen van software RAID vind ik:
- Het is heel generiek, een disk past zo in een andere machine zonder
dat die ook zo'n kaart nodig heeft.
Doe je dat dan vaak, schijven uitwisselen tussen apparaten?
- De RAID kaart kan kapot gaan, je moet eigenlijk een spare hebben.
Dit is nou een van de componenten die ik zelden tot nooit heb zien falen.
- Tools zijn vaak closed source, en complex.
We configgen die meuk direct vanuit het BIOS (of laten dat vooraf doen
door de leverancier) of anders is het Megaraid storcli (ja, beetje
ingewikkeld wel).
- Volgens mij moet je bij hardware RAID rebooten als je een disk wilt
vervangen. (En misschien zelfs wachten tijdens het rebuilden.)
Al onze storage systemen doen hot-swapping dus misschien moet je een
ander merk uitkiezen?
- Je zit directer op de disk, er zit geen kaart tussen
En wat is daarvan nou het specifieke voordeel?
- Reuze veel mogelijkheden
Ben ook benieuwd!
Nadelen van software RAID vind ik:
- Niet geschikt voor systemen met heel veel disks (in elk geval was dat
vroeger zo).
Ik weet dat we ook wel eens een wat grotere software raid setup hebben
gedraaid (in de speeltuin) en dat werkte ook prima.
Voor zover ik weet is het een niet echt sneller dan het ander, maar
misschien vergis ik me daarin.
Nee, dat zal ook niet het argument zijn. Er zijn trouwens behoorlijke
kwaliteitsverschillen in hardware raid.
De EFI partitie moet leesbaar zijn voor de firmware. Met hardware RAID
is dat volgens mij geen probleem, maar het komt me voor dat de BIOS
niet snapt wat een software raid partitie is.
Dat snappen ze inderdaad niet, maar ze kunnen het volgens mij wel gewoon
lezen en booten. Dat doen ze dan van de individule disk, niet van de RAID.
Ja, legacy boot van een bootsector zal wel gaan denk ik. En misschien is
een moderne grub ook al software raid aware?
Als ze erop schrijven (ik weet niet zeker of ze dat weleens doen),
zullen ze ook op de disk schrijven en niet op de RAID.
Dat zouden ze nooit moeten doen!
Misschien is een los klein SSD'tje dan een idee? Een andere
mogelijkheid is om op één schijf de EFI partitie te maken en op de
andere dezelfde ruimte te benutten als swap ofzo. Dan houd je de
geometrie op de resterende ruimte over voor software raid 1.
Mijn punt is dat dit een single point of failure is. Bij software RAID
kan ik met IPMI in het bios de bootdisk wijzigen, en dan boot hij weer.
Of fysiek de disks wisselen.
De vraag is of je gaat voor data security (dus hoe belangrijk vind je
het dat je geen data verliest) of voor uptime (hoe belangrijk is het om
beschikbaar te zijn). Voor beide kun je plannen maar het prijskaartje
wordt natuurlijk ook steeds hoger.
Reply to: