Sådan konfigureres RAID i Linux Trin for trin-guide

Denne vejledning forklarer trin for trin med praktiske eksempler, hvordan du kan se, liste, oprette, tilføje, fjerne, slette, ændre størrelse, formatere, montere og konfigurere RAID-niveauer (0, 1 og 5) i Linux. Lær grundlæggende koncepter for software-RAID (Chunk, Mirroring, Striping og Parity) og vigtige RAID-enhedshåndteringskommandoer i detaljer.

RAID står for Redundant Array of Independent Disks (Redundant Array af uafhængige diske). Der findes to typer RAID; Hardware RAID og Software RAID.

Hardware RAID

Hardware RAID er en fysisk lagerenhed, som er opbygget af flere harddiske. Ved tilslutning til systemet vises alle diske som en enkelt SCSI-disk i systemet. Set fra systemets synspunkt er der ingen forskel på en almindelig SCSI-disk og en Hardware RAID-enhed. Systemet kan bruge hardware-RAID-enheden som en enkelt SCSI-disk.

Hardware-RAID har sit eget uafhængige diskundersystem og sine egne ressourcer. Det bruger ikke nogen ressourcer fra systemet som f.eks. strøm, RAM og CPU. Hardware-RAID lægger ikke nogen ekstra belastning på systemet. Da den har sine egne dedikerede ressourcer, giver den en høj ydeevne.

Software RAID

Software RAID er en logisk lagerenhed, som er opbygget af tilsluttede diske i systemet. Den bruger alle ressourcer fra systemet. Den giver langsom ydelse, men koster intet. I denne tutorial vil vi lære, hvordan man opretter og administrerer software RAID i detaljer.

Denne tutorial er den sidste del af vores artikel “Linux Disk Management Explained in Easy Language with Examples”. Du kan læse de andre dele af denne artikel her.

Linux Disk Management Tutorial

Dette er den første del af denne artikel. Denne del forklarer grundlæggende begreber for Linux diskhåndtering såsom BIOS, UEFI, MBR, GPT, SWAP, LVM, RAID, primær partition, udvidet partition og Linux-filsystemtype.

Håndter Linux Disk Partition med fdisk Kommando

Dette er anden del af denne artikel. Denne del forklarer, hvordan du opretter primære, udvidede og logiske partitioner fra fdisk-kommandoen i Linux trin for trin med eksempler.

Håndter Linux Disk Partition med gdisk-kommandoen

Dette er den tredje del af denne artikel. Denne del forklarer, hvordan du opretter GPT-partitioner (GUID-partitionstabel) fra gdisk-kommandoen i Linux trin for trin med eksempler.

Linux Disk Management with parted command

Dette er den fjerde del af denne artikel. Denne del forklarer, hvordan du opretter primære, udvidede, logiske og GPT-partitioner fra parted-kommandoen i Linux trin for trin med eksempler.

Sådan opretter du SWAP-partition i Linux

Dette er den femte del af denne artikel. Denne del forklarer, hvordan du opretter swap-partition i Linux med eksempler, herunder grundlæggende swap-håndteringsopgaver, såsom hvordan du øger, monterer eller rydder swap-hukommelse.

Lær hvordan du konfigurerer LVM i Linux trin for trin

Dette er den sjette del af denne artikel. Denne del forklarer grundlæggende koncepter for LVM i detaljer med eksempler, herunder hvordan man konfigurerer og administrerer LVM i Linux trin for trin.

Grundlæggende koncepter for RAID

En RAID-enhed kan konfigureres på flere måder. Afhængigt af konfigurationen kan den kategoriseres i ti forskellige niveauer. Inden vi diskuterer RAID-niveauer mere detaljeret, skal vi se kort på nogle vigtige terminologier, der anvendes i RAID-konfiguration.

Chunk: – Dette er størrelsen af den datablok, der anvendes i RAID-konfiguration. Hvis chunk-størrelsen er 64 KB, vil der være 16 chunks i et RAID-array på 1 MB (1024 KB/64 KB).

Hot Spare: – Dette er den ekstra disk i RAID-array. Hvis en disk fejler, vil data fra den defekte disk automatisk blive overført til denne reservedisk.

Mirroring: – Hvis denne funktion er aktiveret, vil en kopi af de samme data også blive gemt på den anden disk. Det er ligesom at lave en ekstra kopi af data til backupformål.

Striping: – Hvis denne funktion er aktiveret, vil data blive skrevet tilfældigt på alle tilgængelige diske. Det er ligesom at dele data mellem alle diske, så alle diske fylder lige meget.

Paritet: – Dette er en metode til at regenerere tabte data fra gemte paritetsoplysninger.

Differente RAID-niveauer er defineret baseret på, hvordan spejling og stripping er påkrævet. Blandt disse niveauer er det kun Level 0, Level1 og Level5, der oftest anvendes i Red Hat Linux.

RAID Level 0

Dette niveau giver striping uden paritet. Da det ikke gemmer nogen paritetsdata og udfører læse- og skriveoperationer samtidig, vil hastigheden være meget hurtigere end andre niveauer. Dette niveau kræver mindst to harddiske. Alle harddiske i dette niveau er fyldt lige meget. Du bør kun bruge dette niveau, hvis læse- og skrivehastigheden er vigtig. Hvis du beslutter dig for at bruge dette niveau, skal du altid anvende en alternativ plan for sikkerhedskopiering af data. Da enhver enkelt diskfejl fra arrayet vil resultere i et totalt tab af data.

RAID Level 1

Dette niveau giver paritet uden striping. Det skriver alle data på to diske. Hvis den ene disk er defekt eller fjernes, har vi stadig alle data på den anden disk. Dette niveau kræver dobbelte harddiske. Det betyder, at hvis du ønsker at bruge 2 harddiske, skal du installere 4 harddiske, eller hvis du ønsker at bruge en harddisk, skal du installere to harddiske. Den første harddisk gemmer de originale data, mens den anden disk gemmer den nøjagtige kopi af den første disk. Da data skrives to gange, vil ydeevnen blive reduceret. Du bør kun bruge dette niveau, hvis datasikkerheden er vigtig for enhver pris.

RAID-niveau 5

Dette niveau giver både paritet og striping. Det kræver mindst tre diske. Det skriver paritetsdata lige meget på alle diske. Hvis en disk er defekt, kan data rekonstrueres ud fra paritetsdata, der er tilgængelige på de resterende diske. Dette giver en kombination af integritet og ydeevne. Hvor det er muligt, bør du altid bruge dette niveau.

Hvis du ønsker at bruge hardware-RAID-enhed, skal du bruge hot swappable hardware-RAID-enhed med ekstra diske. Hvis en disk svigter, vil dataene blive rekonstrueret på den første tilgængelige reservedisk uden nedetid, og da det er en hot swappable-enhed, kan du udskifte den defekte enhed, mens serveren stadig kører.

Hvis RAID-enheden er korrekt konfigureret, vil der ikke være nogen forskel mellem software-RAID og hardware-RAID set fra operativsystemets synspunkt. Operativsystemet vil få adgang til RAID-enheden som en almindelig harddisk, uanset om det er en software-RAID eller hardware-RAID.

Linux indeholder md-kernemodulet til software-RAID-konfiguration. For at bruge software RAID skal vi konfigurere RAID md-enhed, som er en sammensætning af to eller flere lagerenheder.

Sådan konfigurerer du software RAID trin for trin

Til denne vejledning antager jeg, at du har ikke-partitioneret diskplads eller ekstra harddiske til øvelse. Hvis du følger denne vejledning på virtuel software som f.eks. VMware workstation, skal du tilføje tre ekstra harddiske i systemet. Hvis du vil vide, hvordan du tilføjer yderligere harddisk i et virtuelt system, skal du se den første del af denne vejledning. Hvis du følger denne vejledning på en fysisk maskine, skal du vedhæfte en ekstra harddisk. Du kan bruge et USB-stik eller et pen-drev til øvelse. Til demonstrationsformål har jeg tilsluttet tre ekstra harddiske i mit laboratoriesystem.

Hver disk er 2 GB stor. Vi kan liste alle tilknyttede harddiske med kommandoen fdisk -l.

Vi kan også bruge kommandoen lsblk til at få en struktureret oversigt over alle tilknyttede lagerenheder.

Som vi kan se i ovenstående output er der tre ikke-partitionerede diske til rådighed med hver en størrelse på 2G.

Den mdadm-pakke bruges til at oprette og administrere software-RAID. Sørg for, at den er installeret, før vi begynder at arbejde med software-RAID.For at lære at installere og administrere pakke i linux se følgende tutorials

Sådan konfigureres YUM Repository i RHEL
RPM Command Explained with Example

For denne tutorial antager jeg, at mdadm-pakken er installeret.

Skabelse af RAID 0-array

Vi kan oprette RAID 0-array med diske eller partitioner. For at forstå begge muligheder vil vi oprette to separate RAID 0-array’er; et med diske og et andet med partitioner. RAID 0-array kræver mindst to diske eller partitioner. Vi vil bruge /dev/sdc og /dev/sdd disken til at oprette RAID 0 Array fra diske. Vi vil oprette to partitioner i /dev/sdb og senere bruge dem til at oprette et andet RAID 0 Array fra partitioner.

For at oprette RAID 0 Array med diske skal du bruge følgende kommando

#mdadm --create --verbose /dev/ --level= --raid-devices= 

Lad os forstå denne kommando i detaljer

mdadm:- Dette er hovedkommandoen

–create:- Denne indstilling bruges til at oprette en ny md (RAID)-enhed.

–verbose:- Denne indstilling bruges til at få vist opdateringen af processen i realtid.

/dev/:- Dette argument bruges til at angive navnet og placeringen af RAID-arrayet. md-enheden skal oprettes under mappen /dev/.

–level=:- Denne indstilling og dette argument bruges til at definere det RAID-niveau, som ønskes oprettet.

–raid-devices=:- Denne indstilling og dette argument bruges til at angive antallet af lagerenheder eller partitioner, som vi ønsker at bruge i denne enhed.

:- Denne indstilling bruges til at angive navnet og placeringen af lagerenheden.

Følgende kommando vil blive brugt til at oprette et RAID 0-array fra diske /dev/sdc og /dev/sdd med md0-navnet.

For at verificere arrayet kan vi bruge følgende kommando

Overstående output bekræfter, at RAID-array md0 er blevet oprettet med succes fra to diske (sdd og sdc) med RAID-niveau 0-konfigurationer.

Skabelse af RAID 0-array med partitioner

Opret en 1GiB-partition med fdisk-kommandoen

Som standard oprettes alle partitioner som Linux-standard. Skift partitionstype til RAID, og gem partitionen. Afslut fra fdisk-hjælpeprogrammet, og kør kommandoen partprobe for at opdatere kernepartitionstabellen i køretiden.

For at lære fdisk-kommandoen og dens underkommandoer i detaljer henvises til anden del af denne vejledning, som forklarer, hvordan man trin for trin opretter og administrerer partitioner med fdisk-kommandoen.

Lad os oprette endnu en partition, men denne gang bruger vi kommandoen parted.

For at lære kommandoen parted i detaljer skal du se den fjerde del af denne vejledning, som forklarer, hvordan du håndterer disken med kommandoen parted trin for trin.

Vi har oprettet to partitioner. Lad os bygge et andet RAID (Level 0) array, men denne gang bruger vi partitioner i stedet for diske.

Samme kommando vil blive brugt til at oprette RAID array fra partitioner.

Når vi bruger mdadm kommando til at oprette et nyt RAID array, sætter den sin signatur på den leverede enhed eller partition.Det betyder, at vi kan oprette RAID array fra enhver partitionstype eller endda fra en disk, der slet ikke indeholder nogen partition. Så hvilken partitionstype vi bruger her er ikke vigtigt, det vigtige punkt, som vi altid bør overveje, er, at partitionen ikke bør indeholde nogen værdifulde data. Under denne proces vil alle data fra partitionen blive slettet.

Skabelse af filsystem i RAID Array

Vi kan ikke bruge RAID array til datalagring, før det indeholder et gyldigt filsystem. Følgende kommando bruges til at oprette et filsystem i arrayet.

#mkfs –t 

Lad os formatere md0 med ext4-filsystemet og md1 med xfs-filsystemet.

RAID 0 Arrays er klar til brug. For at kunne bruge dem skal vi montere dem et sted i Linux-filsystemet. Linux-filsystemet (primær mappestruktur) starter med mappen root (/), og alt går under den eller dens undermapper. vi skal montere partitioner et sted under dette mappetræ. Vi kan montere partitioner midlertidigt eller permanent.

Temporær montering af RAID 0 Array

Følgende kommando bruges til at montere arrayet midlertidigt.

#mount 

Mount-kommandoen accepterer flere muligheder og argumenter, som jeg vil forklare separat i en anden tutorial. I denne tutorial er denne grundlæggende syntaks tilstrækkelig.

What to mount :- Dette er arrayet.

where to mount :- Dette er den mappe, der skal bruges til at få adgang til den monterede ressource.

Når den er monteret, vil alle handlinger, som vi udfører i den monterede mappe, blive udført i de monterede ressourcer. Lad os forstå det praktisk.

  • Opret en mount-mappe i /-mappen
  • Mount /dev/md0 array
  • List indholdet
  • Opret en testmappe og -fil
  • List indholdet igen
  • Un-mount arrayet /dev/md0 og oplister indholdet igen
  • Mount nu arrayet /dev/md1 og oplister indholdet
  • Opret igen en testmappe og -fil. Brug forskellige navne til fil og mappe
  • Oplys indholdet
  • Afmonter /dev/md1-arrayet, og oplist indholdet igen

Følgende figur illustrerer denne øvelse trin for trin

Som ovenstående figur viser, blev den handling, vi udførte i mount-mappen, faktisk udført i det respektive array.

Temporær mount-mulighed er god for array, som vi har adgang til lejlighedsvis. Hvis vi har regelmæssig adgang til arrayet, er denne fremgangsmåde ikke nyttig.Hver gang vi genstarter systemet, bliver alle midlertidigt monterede ressourcer automatisk afmonteret. Så hvis vi har et array, der skal bruges regelmæssigt, bør vi montere det permanent.

Montager RAID Array permanent

Hver ressource i filsystemet har et unikt ID kaldet UUID. Når vi monterer et array permanent, bør vi bruge UUID i stedet for dets navn. Fra version 7 bruger RHEL også UUID i stedet for enhedsnavn.

UUUID står for Universally Unique Identifier. Det er et 128-bit nummer, udtrykt i hexadecimalt format (base 16).

Hvis du har et statisk miljø, kan du bruge enhedsnavn. Men hvis du har et dynamisk miljø, skal du altid bruge UUID. I et dynamisk miljø kan enhedsnavnet ændre sig hver gang, når systemet starter op. Vi har f.eks. tilsluttet en ekstra SCSI-disk i systemet; den vil blive navngivet som /dev/sdb. Vi monterede denne disk permanent med dens enhedsnavn. Lad os nu antage, at en anden person har fjernet denne disk og tilsluttet en ny SCSI-disk i den samme slot. Den nye disk vil også blive navngivet som /dev/sdb. Da navnet på den gamle disk og den nye disk er det samme, vil den nye disk blive monteret på samme sted som den gamle disk. På denne måde kan enhedsnavnet skabe et alvorligt problem i et dynamisk miljø. Men dette problem kan løses med UUID. Uanset hvordan vi tilknytter ressourcen til systemet, vil dens UUID altid forblive fast.

Hvis du har et statisk miljø, kan du overveje enhedsnavn til at montere ressourcen. Men hvis du har et dynamisk miljø, bør du altid bruge UUID.

For at kende UUID’et for alle partitioner kan vi bruge blkid-kommandoen. For at kende UUID’et for en bestemt partition skal vi bruge dens navn som argument i denne kommando.

Når vi kender UUID’et, kan vi bruge det i stedet for enhedens navn. Vi kan også bruge copy and paste-muligheden til at skrive UUID’et.

  • Brug blkid-kommandoen til at udskrive arrayets UUID.
  • Kopier arrayets UUID.
  • Brug mount-kommandoen til at montere arrayet. Brug indsæt-indstillingen i stedet for at skrive UUID.

Følgende figur illustrerer ovenstående trin

Når systemet starter op, kigger det i /etc/fstab-filen for at finde de enheder (partitioner, LV’er, swap eller array), som skal monteres automatisk i filsystemet. Som standard har denne fil en post for de partitioner, logiske volumener og swap-rum, som blev oprettet under installationen. For at montere en yderligere enhed (Array) automatisk skal vi lave en post for den pågældende enhed i denne fil. Hver post i denne fil har seks felter.

Nummer Filet Beskrivelse
1 Hvad skal monteres Enhed, som vi ønsker at montere. Vi kan bruge enhedsnavn, UUID og label i denne fil til at repræsentere enheden.
2 Hvor skal enheden monteres Den mappe i Linux’ primære filsystem, hvor vi ønsker at montere enheden.
3 Filsystem Filsystemtype for enheden.
4 4 Optioner Ligesom mount-kommandoen kan vi også bruge understøttede indstillinger her til at styre mount-processen. I denne vejledning vil vi bruge standardindstillingerne.
5 Dump support For at aktivere dump på denne enhed skal du bruge 1. Brug 0 for at deaktivere dumpningen.
6 Automatisk kontrol Hvis denne enhed skal kontrolleres, mens den monteres eller ej. For at deaktivere skal du bruge 0, for at aktivere skal du bruge 1 (for rodpartitionen) eller 2 (for alle partitioner undtagen rodpartitionen).

Lad os lave nogle mapper til at montere de arrays, som vi har oprettet for nylig

Tag backup af fstab-filen og åbn den til redigering

Lad os lave poster til arrays og gem filen.

Til demonstrationsformål brugte jeg både enhedsnavn og UUID til at montere partitionerne. efter at du har gemt, skal du altid kontrollere posterne med kommandoen mount -a. Denne kommando vil montere alt, hvad der er opført i /etc/fstab-filen. Så hvis vi har lavet en fejl under opdatering af denne fil, vil vi få en fejl som output af denne kommando.

Hvis du får en fejl som output af kommandoen mount -a, skal du rette den, før du genstarter systemet.

Kommandoen df -h bruges til at kontrollere den tilgængelige plads på alle de monterede partitioner. Vi kan bruge denne kommando til at verificere, at alle partitioner er monteret korrekt.

Overstående output bekræfter, at alle partitioner er monteret korrekt. Lad os liste de to RAID-enheder.

Sådan sletter du RAID-array

Vi kan ikke slette et monteret array. Afmonter alle arrays, som vi har oprettet i denne øvelse

Brug følgende kommando for at stoppe RAID-arrayet

#mdadm --stop /dev/

Fjern mount-mappen, og kopier den originale fstab-fil tilbage.

Hvis du ikke har taget backup af den originale fstab-fil, skal du fjerne alle de poster fra denne fil, som du har lavet.

Til sidst nulstiller du alle diske, der er brugt i denne praksis.

Den dd-kommando er den nemmeste måde at nulstille disken på. Diskværktøjerne gemmer deres konfigurationsparametre i superblokken. Normalt er superblokstørrelsen defineret i KB, så vi har bare overskrevet de første 10 MB plads med nul bytes i hver disk. Hvis du vil lære dd-kommandoen i detaljer, skal du se femte del af denne tutorial, som forklarer denne kommando i detaljer.

Nu genstarter du systemet og bruger df -h-kommandoen igen for at kontrollere, at alle RIAD-enheder, som vi oprettede i denne øvelse, er væk.

Sådan opretter du RAID 1- og RAID 5-array

Vi kan oprette RAID 1- eller RAID 5-array ved at følge samme procedure. Alle trin og kommandoer vil være de samme undtagen kommandoen mdadm –create. I denne kommando skal du ændre RAID-niveauet, antallet af diske og placeringen af de tilknyttede diske.

For at oprette RAID 1-array fra /dev/sdd- og /dev/sdb-diske skal du bruge følgende kommando

For at oprette RAID 1-array fra /dev/sdb1- og /dev/sdb2-partitioner skal du bruge følgende kommando

Du kan få en advarsel om metadata, hvis du tidligere har brugt de samme diske og partitioner til at oprette RAID-array, og de diske eller partitioner stadig indeholder metadataoplysninger. Husk, at vi kun rensede 10 Mb startplads og lod den resterende plads forblive uberørt. Du kan roligt ignorere denne meddelelse eller rense hele disken, før du bruger dem igen.

For at oprette RAID 5-array fra /dev/sdb-, /dev/sdc- og /dev/sdd-diske skal du bruge følgende kommando.

RAID 5-konfiguration kræver mindst 3 diske eller partitioner. Det er derfor, vi har brugt tre diske her.

For at oprette RAID 5 array fra /dev/sdb1, /dev/sdb2 og /dev/sdb3 partitioner skal du bruge følgende kommando

For at undgå unødvendige fejl skal du altid hvile diske, før du bruger dem i ny praksis.

Så langt i denne vejledning har vi lært, hvordan man opretter, monterer og fjerner RAID array. I det følgende afsnit vil vi lære at administrere og fejlfinding af et RAID Array. I dette afsnit antager jeg, at du har mindst ét array konfigureret. Til demonstrationsformål vil jeg bruge det sidst konfigurerede eksempel (RAID 5 med 3 partitioner). Lad os oprette filsystem i dette array og montere det.

Lad os lægge nogle dummy data i denne mappe.

Jeg omdirigerede den manuelle side af ls kommando i /testingdata/manual-of-ls-command filen. Senere for at verificere, at filen indeholder faktiske data, brugte jeg wc-kommandoen, som tæller linje, ord og tegn i filen.

Sådan får du vist detaljer om RAID-enhed

Følgende kommando bruges til at få vist detaljerede oplysninger om RAID-enheden.

#mdadm --detail /dev/

Disse oplysninger omfatter RAID-niveau, Array-størrelse, brugt størrelse fra den samlede tilgængelige størrelse, enheder, der anvendes ved oprettelsen af dette Array, enheder, der anvendes i øjeblikket, ekstra enheder, fejlbehæftede enheder, fejlbehæftede enheder, chunk-størrelse, UUID for Array og meget mere.

Sådan tilføjer du yderligere disk eller partition i RIAD

Der er flere situationer, hvor vi er nødt til at øge størrelsen af RAID-enheden, f.eks. en RAID-enhed kan være fyldt op med data, eller en disk fra Array kan være fejlbehæftet. For at øge pladsen på RAID-enheden skal vi tilføje yderligere disk eller partition i eksisterende Array.

I det kørende eksempel brugte vi /dev/sdb disk til at oprette tre partitioner. /dev/sdc og /dev/sdd er stadig tilgængelige til brug. Før vi tilføjer dem i dette Array, skal du sørge for, at de er renset. Sidste gang brugte vi dd-kommandoen til at rense diskene. Vi kan bruge denne kommando igen eller bruge følgende kommando

#mdadm --zero-superblock /dev/

For at kontrollere en disk, om den indeholder superblock eller ej, kan vi bruge følgende kommando

#mdadm --examine /dev/

Følgende figur illustrerer brugen af begge kommandoer på begge diske

Nu er begge diske klar til RAID Array. Følgende kommando bruges til at tilføje yderligere disk i det eksisterende array.

#mdadm --manage /dev/ --add /dev/

Lad os tilføje /dev/sdc-disk i dette array og bekræfte det samme.

Ret nu er denne disk blevet tilføjet som en reservedisk. Denne disk vil ikke blive brugt, før en disk fejler fra det eksisterende array, eller vi manuelt tvinger RAID til at bruge denne disk.

Hvis en disk fejler, og der er ekstra diske til rådighed, vil RAID automatisk vælge den første tilgængelige ekstra disk til at erstatte den defekte disk. Reservediske er den bedste backup-plan i RAID-enheden.

Til backup vil vi tilføje endnu en disk i arrayet, lad os bruge denne disk til at øge størrelsen af arrayet. Følgende kommando bruges til at øge størrelsen af RAID-enheden.

#mdadm --grow --raid-devices= /dev/

RAID arrangerer alle enheder i en rækkefølge. Denne sekvens er opbygget ud fra den rækkefølge, i hvilken diskene tilføjes i arrayet. Når vi bruger denne kommando, vil RAID tilføje næste arbejdsenhed i aktive enheder.

Følgende figur illustrerer denne kommando

Som vi kan se i ovenstående output er disken blevet tilføjet i arrayet, og størrelsen af arrayet er blevet øget med succes.

Fjernelse af defekt enhed

Hvis der er en ekstra enhed tilgængelig, vil RAID automatisk erstatte den defekte enhed med den ekstra enhed. Slutbrugeren vil ikke se nogen ændring. Han vil kunne få adgang til dataene som sædvanligt. Lad os forstå det i praksis.

Ret nu er der ingen reservedisk tilgængelig i arrayet. Lad os tilføje en ekstra disk.

Når en disk svigter, markerer RAID den pågældende disk som en defekt enhed. Når den er markeret, kan den fjernes uden risiko. Hvis vi ønsker at fjerne en fungerende enhed fra arrayet med henblik på vedligeholdelse eller fejlfinding, skal vi altid markere den som en fejlbehæftet enhed, før vi fjerner den. Når en enhed markeres som fejlslagen enhed, rekonstrueres alle data fra den fejlslagne enhed i de fungerende enheder.

For at markere en disk som fejlslagen enhed anvendes følgende kommando.

#mdadm --manage --set-faulty /dev/ /dev/

Vi har for nylig øget størrelsen af dette array. Så før vi foretager denne praksis, skal vi endnu en gang kontrollere, at arrayet stadig indeholder de gyldige data.

Som ovenstående output bekræfter, at arrayet stadig indeholder gyldige data. Lad os nu markere en enhed /dev/sdc som defekt enhed fra arrayet og bekræfte operationen.

Som ovenstående output bekræfter, at enhed sdc, som er nummer fire i array-sekvensen, er blevet markeret som fejlbehæftet enhed.

Som vi ved, hvis der er en ekstra disk tilgængelig, vil den automatisk blive brugt som erstatning for den defekte enhed. Der kræves ingen manuel handling i denne proces. Lad os bekræfte, at reservedisken er blevet brugt som erstatning for den defekte disk.

Finalt lad os bekræfte, at data stadig er til stede i arrayet.

Overstående output bekræfter, at arrayet stadig indeholder gyldige data.

Det er alt for denne tutorial.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.