Acest tutorial explică cum să vizualizați, să listați, să creați, să adăugați, să eliminați, să ștergeți, să redimensionați, să formatați, să montați și să configurați nivelele RAID (0, 1 și 5) în Linux pas cu pas, cu exemple practice. Învățați în detaliu conceptele de bază ale RAID software (Chunk, Mirroring, Striping și Parity) și comenzile esențiale de gestionare a dispozitivelor RAID.
RAID înseamnă Redundant Array of Independent Disks (Array redundant de discuri independente). Există două tipuri de RAID; RAID hardware și RAID software.
Hardware RAID
Hardware RAID este un dispozitiv fizic de stocare care este construit din mai multe discuri dure. În timpul conectării cu sistemul, toate discurile apar ca un singur disc SCSI în sistem. Din punctul de vedere al sistemului, nu există nicio diferență între un disc SCSI obișnuit și un dispozitiv RAID hardware. Sistemul poate utiliza un dispozitiv RAID hardware ca pe un singur disc SCSI.
Hardware RAID are propriul subsistem de discuri și resurse independente. Acesta nu utilizează nicio resursă din sistem, cum ar fi energia, RAM și CPU. Hardware RAID nu pune nicio sarcină suplimentară în sistem. Deoarece are propriile resurse dedicate, oferă performanțe ridicate.
Software RAID
Software RAID este un dispozitiv logic de stocare care este construit din discurile atașate în sistem. Acesta utilizează toate resursele din sistem. Oferă o performanță lentă, dar nu costă nimic. În acest tutorial vom învăța cum să creăm și să gestionăm RAID software în detaliu.
Acest tutorial este ultima parte a articolului nostru „Linux Disk Management Explained in Easy Language with Examples”. Puteți citi alte părți ale acestui articol aici.
Aceasta este prima parte a acestui articol. Această parte explică conceptele de bază ale gestionării discurilor Linux, cum ar fi BIOS, UEFI, MBR, GPT, SWAP, LVM, RAID, partiția primară, partiția extinsă și tipul de sistem de fișiere Linux.
Management Linux Disk Partition with fdisk Command
Aceasta este a doua parte a acestui articol. Această parte explică cum să creați partiții primare, extinse și logice din comanda fdisk în Linux, pas cu pas, cu exemple.
Management Linux Disk Partition with gdisk Command
Aceasta este a treia parte a acestui articol. Această parte explică cum să creați partiții GPT (tabel de partiții GUID) din comanda gdisk în Linux pas cu pas cu exemple.
Gestionarea discului Linux cu comanda parted
Aceasta este a patra parte a acestui articol. Această parte explică cum se creează partiții primare, extinse, logice și GPT din comanda parted în Linux pas cu pas, cu exemple.
Cum se creează partiții SWAP în Linux
Aceasta este a cincea parte a acestui articol. Această parte explică cum se creează o partiție swap în Linux cu exemple, inclusiv sarcini de bază de gestionare a swap-ului, cum ar fi creșterea, montarea sau ștergerea memoriei swap.
Învățați cum să configurați LVM în Linux pas cu pas
Aceasta este a șasea parte a acestui articol. Această parte explică în detaliu conceptele de bază ale LVM cu exemple, inclusiv cum să configurați și să gestionați LVM în Linux pas cu pas.
Concepte de bază ale RAID
Un dispozitiv RAID poate fi configurat în mai multe moduri. În funcție de configurație, acesta poate fi clasificat în zece niveluri diferite. Înainte de a discuta mai în detaliu despre nivelurile RAID, să aruncăm o privire rapidă asupra unor terminologii importante utilizate în configurarea RAID.
Chunk: – Aceasta este dimensiunea blocului de date utilizat în configurația RAID. Dacă dimensiunea chunk-ului este de 64KB, atunci ar exista 16 chunks în matrice RAID de 1MB (1024KB/64KB).
Hot Spare: – Acesta este discul suplimentar în matricea RAID. Dacă vreun disc se defectează, datele de pe discul defect vor fi migrate automat în acest disc de rezervă.
Mirroring: – Dacă această funcție este activată, o copie a acelorași date va fi salvată și pe celălalt disc. Este ca și cum s-ar face o copie suplimentară a datelor în scop de backup.
Striping: – Dacă această funcție este activată, datele vor fi scrise pe toate discurile disponibile în mod aleatoriu. Este ca și cum ar împărți datele între toate discurile, astfel încât toate se umplu în mod egal.
Paritate: – Aceasta este metoda de regenerare a datelor pierdute din informațiile de paritate salvate.
Diferite niveluri RAID sunt definite în funcție de modul în care sunt necesare oglindirea și stripping-ul. Dintre aceste niveluri, doar Nivelul 0, Nivelul1 și Nivelul5 sunt utilizate în cea mai mare parte în Red Hat Linux.
Nivel RAID 0
Acest nivel asigură striping fără paritate. Deoarece nu stochează date de paritate și efectuează operațiunea de citire și scriere simultan, viteza ar fi mult mai mare decât la celelalte niveluri. Acest nivel necesită cel puțin două discuri dure. Toate discurile dure din acest nivel sunt umplute în mod egal. Ar trebui să utilizați acest nivel numai dacă viteza de citire și scriere este importantă. Dacă decideți să utilizați acest nivel, atunci implementați întotdeauna un plan alternativ de backup al datelor. Deoarece orice defecțiune a unui singur disc din matrice va duce la pierderea totală a datelor.
RAID Level 1
Acest nivel asigură paritate fără striping. Acesta scrie toate datele pe două discuri. Dacă un disc este defectat sau eliminat, avem în continuare toate datele pe celălalt disc. Acest nivel necesită discuri dure duble. Înseamnă că, dacă doriți să folosiți 2 hard disk-uri, atunci trebuie să implementați 4 hard disk-uri sau dacă doriți să folosiți un hard disk, atunci trebuie să implementați două hard disk-uri. Primul disc dur stochează datele originale, în timp ce celălalt disc stochează copia exactă a primului disc. Deoarece datele sunt scrise de două ori, performanța va fi redusă. Ar trebui să utilizați acest nivel numai dacă siguranța datelor este preocupată cu orice preț.
Nivel RAID 5
Acest nivel oferă atât paritate cât și striping. Necesită cel puțin trei discuri. Scrie datele de paritate în mod egal în toate discurile. În cazul în care un disc este defect, datele pot fi reconstruite din datele de paritate disponibile pe discurile rămase. Acest lucru oferă o combinație de integritate și performanță. Ori de câte ori este posibil, ar trebui să folosiți întotdeauna acest nivel.
Dacă doriți să folosiți un dispozitiv RAID hardware, folosiți un dispozitiv RAID hardware schimbabil la cald cu discuri de rezervă. Dacă oricare dintre discuri cedează, datele vor fi reconstruite pe primul disc de rezervă disponibil, fără niciun timp de întrerupere și, deoarece este un dispozitiv hot swappable, puteți înlocui dispozitivul defect în timp ce serverul este încă în funcțiune.
Dacă dispozitivul RAID este configurat corespunzător, nu va exista nicio diferență între RAID software și RAID hardware din punctul de vedere al sistemului de operare. Sistemul de operare va accesa dispozitivul RAID ca pe un hard disk obișnuit, indiferent dacă este un RAID software sau un RAID hardware.
Linux oferă modulul de kernel md pentru configurarea RAID software. Pentru a utiliza RAID software trebuie să configurăm dispozitivul RAID md care este un compus din două sau mai multe dispozitive de stocare.
Cum se configurează RAID software pas cu pas
Pentru acest tutorial presupun că dispuneți de spațiu disc nepartiționat sau de hard disk-uri suplimentare pentru practică. Dacă urmați acest tutorial pe un software virtual, cum ar fi VMware workstation, adăugați trei discuri dure suplimentare în sistem. Pentru a afla cum să adăugați un hard disk suplimentar în sistemul virtual, vă rugăm să consultați prima parte a acestui tutorial. Dacă urmați acest tutorial pe o mașină fizică, atașați un hard disk suplimentar. Puteți utiliza un stick USB sau un stick de memorie pentru practică. În scop demonstrativ, am atașat trei discuri dure suplimentare în sistemul meu de laborator.
Care disc are o dimensiune de 2GB. Putem enumera toate discurile dure atașate cu comanda fdisk -l.
De asemenea, putem utiliza comanda lsblk pentru a vizualiza o imagine de ansamblu structurată a tuturor dispozitivelor de stocare atașate.
Așa cum putem vedea în ieșirea de mai sus, există trei discuri nepartiționate disponibile, fiecare având o dimensiune de 2G.
Pachetul mdadm este utilizat pentru a crea și gestiona RAID-ul software. Asigurați-vă că este instalat înainte de a începe să lucrăm cu RAID software.Pentru a învăța cum să instalați și să gestionați pachetele în linux, consultați următoarele tutoriale
Cum se configurează depozitul YUM în RHEL
Comanda RPM explicată cu un exemplu
Pentru acest tutorial presupun că pachetul mdadm este instalat.
Crearea unei matrice RAID 0
Potem crea o matrice RAID 0 cu discuri sau partiții. Pentru a înțelege ambele opțiuni, vom crea două array-uri RAID 0 separate;unul cu discuri și altul cu partiții. Array-ul RAID 0 necesită cel puțin două discuri sau partiții. Vom folosi discurile /dev/sdc și /dev/sdd pentru a crea RAID 0 Array din discuri. Vom crea două partiții în /dev/sdb și le vom folosi ulterior pentru a crea un alt RAID 0 Array din partiții.
Pentru a crea RAID 0 Array cu discuri folosiți următoarea comandă
#mdadm --create --verbose /dev/ --level= --raid-devices=
Să înțelegem această comandă în detaliu
mdadm:- Aceasta este comanda principală
–create:- Această opțiune este utilizată pentru a crea un nou dispozitiv md (RAID).
–verbose:- Această opțiune este utilizată pentru a vizualiza actualizarea în timp real a procesului.
/dev/:- Acest argument este utilizat pentru a furniza numele și locația matricei RAID. Dispozitivul md ar trebui să fie creat sub directorul /dev/.
–level=:- Această opțiune și acest argument sunt folosite pentru a defini nivelul RAID pe care dorim să-l creăm.
–raid-devices=:- Această opțiune și acest argument sunt folosite pentru a specifica numărul de dispozitive de stocare sau partiții pe care dorim să le folosim în acest dispozitiv.
:- Această opțiune este utilizată pentru a specifica numele și locația dispozitivului de stocare.
Comenda următoare va fi utilizată pentru a crea o matrice RAID 0 din discurile /dev/sdc și /dev/sdd cu numele md0.
Pentru a verifica matricea, putem utiliza următoarea comandă
Salida de mai sus confirmă faptul că matricea RAID md0 a fost creată cu succes din două discuri (sdd și sdc) cu configurații RAID de nivel 0.
Crearea matricei RAID 0 cu partiții
Crearea unei partiții de 1GiB cu comanda fdisk
În mod implicit, toate partițiile sunt create ca standard Linux. Schimbați tipul de partiție în RAID și salvați partiția. Ieșiți din utilitarul fdisk și rulați comanda partprobe pentru a actualiza tabela de partiții a kernelului în timp de execuție.
Pentru a învăța în detaliu comanda fdisk și subcomanda sa, vă rugăm să consultați a doua parte a acestui tutorial care explică cum să creați și să gestionați partiții cu comanda fdisk pas cu pas.
Să creăm încă o partiție, dar de data aceasta să folosim comanda parted.
Pentru a învăța comanda parted în detaliu vă rugăm să vedeți a patra parte a acestui tutorial care explică cum să gestionați pas cu pas discul cu comanda parted.
Am creat două partiții. Să construim o altă matrice RAID (nivel 0), dar de data aceasta să folosim partiții în loc de discuri.
Aceeași comandă va fi folosită pentru a crea o matrice RAID din partiții.
Când folosim comanda mdadm pentru a crea o nouă matrice RAID, aceasta își pune semnătura pe dispozitivul sau partiția furnizată.Aceasta înseamnă că putem crea o matrice RAID din orice tip de partiție sau chiar de pe un disc care nu conține nici o partiție. Așadar, tipul de partiție pe care îl folosim aici nu este important, punctul important pe care ar trebui să îl luăm întotdeauna în considerare este că partiția nu trebuie să conțină date valoroase. În timpul acestui proces, toate datele din partiție vor fi șterse.
Crearea sistemului de fișiere în RAID Array
Nu putem folosi RAID array pentru stocarea datelor până când acesta nu conține un sistem de fișiere valid. Următoarea comandă este utilizată pentru a crea un sistem de fișiere în matrice.
#mkfs –t
Să formatăm md0 cu sistemul de fișiere ext4 și md1 cu sistemul de fișiere xfs.
Array-urile RAID 0 sunt gata de utilizare. Pentru a le utiliza trebuie să le montăm undeva în sistemul de fișiere Linux. sistemul de fișiere Linux (structura primară a directoarelor) începe cu directorul rădăcină (/) și totul se află sub el sau subdirectoarele sale. trebuie să montăm partițiile undeva sub acest arbore de directoare. Putem monta partițiile temporar sau permanent.
Montarea temporară a matricei RAID 0
Comenda următoare este utilizată pentru a monta temporar matricea.
#mount
Comanda mount acceptă mai multe opțiuni și argumente pe care le voi explica separat într-un alt tutorial. Pentru acest tutorial este suficientă această sintaxă de bază.
what to mount :- Aceasta este matricea.
where to mount :- Acesta este directorul care va fi folosit pentru a accesa resursa montată.
După ce este montată, orice acțiune pe care o vom efectua în directorul montat va fi efectuată în resursele montate. Să o înțelegem în mod practic.
- Creăm un director montat în directorul /
- Montăm matricea /dev/md0
- Înumerăm conținutul
- Creăm un director și un fișier de test
- Înumerăm din nou conținutul
- Un…montați matricea /dev/md0 și listați din nou conținutul
- Acum montați matricea /dev/md1 și listați conținutul
- Creați din nou un director și un fișier de test. Folosiți nume diferite pentru fișier și director
- Întocmiți conținutul
- Demontați matricea /dev/md1 și enumerați din nou conținutul
Figura următoare ilustrează acest exercițiu pas cu pas
Așa cum arată figura de mai sus, orice acțiune pe care am efectuat-o în directorul de montare a fost de fapt efectuată în matricea respectivă.
Opțiunea de montare temporară este bună pentru matricele pe care le accesăm ocazional. Dacă accesăm matricea în mod regulat, atunci această abordare nu va fi de ajutor. de fiecare dată când repornim sistemul, toate resursele montate temporar sunt demontate automat. Prin urmare, dacă avem o matrice care va fi utilizată în mod regulat, ar trebui să o montăm permanent.
Montarea permanentă a matricei RAID
Care resursă din sistemul de fișiere are un ID unic numit UUID. Atunci când montăm o matrice în mod permanent, ar trebui să folosim UUID în loc de numele acesteia. Începând cu versiunea 7, RHEL utilizează, de asemenea, UUID în locul numelui dispozitivului.
UUID înseamnă Universally Unique Identifier (Identificator unic universal). Este un număr de 128 de biți, exprimat în format hexazecimal (baza 16).
Dacă aveți un mediu static, puteți folosi numele dispozitivului. Dar dacă aveți un mediu dinamic, ar trebui să folosiți întotdeauna UUID. În mediul dinamic, numele dispozitivului se poate schimba de fiecare dată la pornirea sistemului. De exemplu, am atașat un disc SCSI suplimentar în sistem; acesta va fi numit /dev/sdb. Am montat acest disc permanent cu numele său de dispozitiv. Acum, să presupunem că altcineva a îndepărtat acest disc și a atașat un nou disc SCSI în același slot. Noul disc va fi numit, de asemenea, /dev/sdb. Deoarece numele discului vechi și al celui nou este același, noul disc va fi montat în locul celui vechi. În acest fel, numele dispozitivului ar putea crea o problemă serioasă în mediul dinamic. Dar această problemă poate fi rezolvată cu UUID. Indiferent de modul în care atașăm resursa la sistem, UUID-ul acesteia va rămâne întotdeauna fix.
Dacă aveți un mediu static, puteți lua în considerare numele dispozitivului pentru a monta resursa. Dar dacă aveți un mediu dinamic, ar trebui să folosiți întotdeauna UUID.
Pentru a cunoaște UUID-ul tuturor partițiilor putem folosi comanda blkid. Pentru a cunoaște UUID-ul unei partiții specifice, trebuie să folosim numele acesteia ca argument cu această comandă.
După ce cunoaștem UUID-ul, îl putem folosi în loc de numele dispozitivului. Putem, de asemenea, să folosim opțiunea de copiere și lipire pentru a introduce UUID-ul.
- Utilizați comanda blkid pentru a imprima UUID-ul matricei.
- Copiați UUID-ul matricei.
- Utilizați comanda mount pentru a monta matricea. Folosiți opțiunea paste în loc să tastați UUID.
Figura următoare ilustrează pașii de mai sus
Când sistemul pornește, acesta caută în fișierul /etc/fstab pentru a afla dispozitivele (partiții, LV-uri, swap sau array) care trebuie să fie montate automat în sistemul de fișiere. În mod implicit, acest fișier are o intrare pentru acele partiții, volume logice și spațiu swap care au fost create în timpul instalării. Pentru a monta automat orice dispozitiv suplimentar (Array), trebuie să introducem o intrare pentru acel dispozitiv în acest fișier. Fiecare intrare din acest fișier are șase câmpuri:
Număr | Înregistrat | Descriere |
1 | Ce se montează | Dispozitiv pe care dorim să îl montăm. Putem folosi numele dispozitivului, UUID și eticheta în acest fișier pentru a reprezenta dispozitivul. |
2 | Unde să montăm | Directorul din sistemul principal de fișiere Linux în care dorim să montăm dispozitivul. |
3 | Sistem de fișiere | Tipul de sistem de fișiere al dispozitivului. |
4 | Opțiuni | La fel ca și comanda mount, putem folosi și aici opțiunile acceptate pentru a controla procesul de montare. Pentru acest tutorial vom folosi opțiunile implicite. |
5 | Dump support | Pentru a activa descărcarea pe acest dispozitiv, folosiți 1. Folosiți 0 pentru a dezactiva descărcarea. |
6 | Verificare automată | Dacă acest dispozitiv trebuie verificat sau nu în timpul montării. Pentru dezactivare folosiți 0, pentru activare folosiți 1 (pentru partiția rădăcină) sau 2 (pentru toate partițiile cu excepția partiției rădăcină). |
Să facem niște directoare pentru a monta matricele pe care le-am creat recent
Faceți o copie de rezervă a fișierului fstab și deschideți-l pentru editare
Faceți intrările pentru matrice și salvați fișierul.
În scop demonstrativ am folosit atât numele dispozitivului, cât și UUID pentru a monta partițiile. după salvare, verificați întotdeauna intrările cu comanda mount -a. Această comandă va monta tot ceea ce este listat în fișierul /etc/fstab. Deci, dacă am făcut vreo greșeală în timpul actualizării acestui fișier, vom primi o eroare ca ieșire a acestei comenzi.
Dacă primiți o eroare ca ieșire a comenzii mount -a, corectați-o înainte de a reporni sistemul.Dacă nu există nicio eroare, reporniți sistemul.
Comanda df -h este utilizată pentru a verifica spațiul disponibil în toate partițiile montate. Putem utiliza această comandă pentru a verifica dacă toate partițiile sunt montate corect.
Salida de mai sus confirmă faptul că toate partițiile sunt montate corect. Haideți să enumerăm ambele dispozitive RAID.
Cum se șterge o matrice RAID
Nu putem șterge o matrice montată. Demontați toate matricele pe care le-am creat în acest exercițiu
Utilizați următoarea comandă pentru a opri matricea RAID
#mdadm --stop /dev/
Îndepărtați directorul de montare și copiați înapoi fișierul fstab original.
Dacă nu ați făcut o copie de siguranță a fișierului fstab original, eliminați toate intrările din acest fișier pe care le-ați făcut.
În cele din urmă, resetați toate discurile folosite în această practică.
Comanda dd este cea mai ușoară modalitate de a reporni discul. Utilitarele de discuri își stochează parametrii de configurare în superbloc. De obicei, dimensiunea super-blocului este definită în KB, așa că noi doar am suprascris primul spațiu de 10MB cu octeți nuli în fiecare disc. Pentru a învăța comanda dd în detaliu, consultați a cincea parte a acestui tutorial care explică această comandă în detaliu.
Acum reporniți sistemul și folosiți din nou comanda df -h pentru a verifica dacă toate dispozitivele RIAD pe care le-am creat în acest exercițiu au dispărut.
Cum se creează o matrice RAID 1 și RAID 5
Potem crea o matrice RAID 1 sau RAID 5 urmând aceeași procedură. Toți pașii și comenzile vor fi aceleași, cu excepția comenzii mdadm –create. În această comandă trebuie să modificați nivelul RAID, numărul de discuri și locația discurilor asociate.
Pentru a crea o matrice RAID 1 din discurile /dev/sdd și /dev/sdb folosiți următoarea comandă
Pentru a crea o matrice RAID 1 din partițiile /dev/sdb1 și /dev/sdb2 folosiți următoarea comandă comanda
Este posibil să primiți un avertisment privind metadatele dacă ați utilizat anterior aceleași discuri și partiții pentru a crea o matrice RAID și dacă acele discuri sau partiții conțin încă informații privind metadatele. Nu uitați că am curățat doar 10Mb de spațiu inițial, lăsând restul spațiului neatins. Puteți ignora în siguranță acest mesaj sau puteți curăța întregul disc înainte de a le utiliza din nou.
Pentru a crea o matrice RAID 5 din discurile /dev/sdb, /dev/sdc și /dev/sdd, utilizați următoarea comandă.
Configurarea RAID 5 necesită cel puțin 3 discuri sau partiții. Acesta este motivul pentru care am folosit aici trei discuri.
Pentru a crea o matrice RAID 5 din partițiile /dev/sdb1, /dev/sdb2 și /dev/sdb3 utilizați următoarea comandă
Pentru a evita erorile inutile, odihniți întotdeauna discurile înainte de a le utiliza în noua practică.
Până acum, în acest tutorial am învățat cum să creăm, să montăm și să eliminăm o matrice RAID. În următoarea secțiune vom învăța cum să gestionăm și să depanăm un RAID Array. Pentru această secțiune presupun că aveți cel puțin o matrice configurată. În scop demonstrativ, voi folosi ultimul exemplu configurat (RAID 5 cu 3 partiții). Să creăm un sistem de fișiere în această matrice și să îl montăm.
Să punem niște date fictive în acest director.
Am redirecționat pagina de manual a comenzii ls în fișierul /testingdata/manual-of-ls-command. Ulterior, pentru a verifica dacă fișierul conține date reale, am folosit comanda wc care numără linia, cuvântul și caracterele din fișier.
Cum se vizualizează detaliile dispozitivului RAID
Cu următoarea comandă se utilizează pentru a vizualiza informații detaliate despre dispozitivul RAID.
#mdadm --detail /dev/
Aceste informații includ nivelul RAID, dimensiunea matricei, dimensiunea utilizată din dimensiunea totală disponibilă, dispozitivele utilizate la crearea acestei matrice, dispozitivele utilizate în prezent, dispozitivele de rezervă, dispozitivele care au eșuat, dimensiunea bucăților, UUID-ul matricei și multe altele.
Cum să adăugați un disc sau o partiție suplimentară în RIAD
Există mai multe situații în care trebuie să mărim dimensiunea dispozitivului RAID, de exemplu, un dispozitiv RAID ar putea fi umplut cu date sau un disc din Array ar putea eșua. Pentru a mări spațiul dispozitivului RAID, trebuie să adăugăm un disc sau o partiție suplimentară în Array-ul existent.
În exemplul curent am folosit discul /dev/sdb pentru a crea trei partiții. Discurile /dev/sdc și /dev/sdd sunt încă disponibile pentru utilizare. Înainte de a le adăuga în acest Array asigurați-vă că sunt curățate. Ultima dată am folosit comanda dd pentru a curăța discurile. Putem folosi din nou această comandă sau putem folosi următoarea comandă
#mdadm --zero-superblock /dev/
Pentru a verifica dacă un disc conține sau nu superblock, putem folosi următoarea comandă
#mdadm --examine /dev/
Figura următoare ilustrează utilizarea ambelor comenzi pe ambele discuri
Acum ambele discuri sunt pregătite pentru RAID Array. Următoarea comandă este utilizată pentru a adăuga un disc suplimentar în matricea existentă.
#mdadm --manage /dev/ --add /dev/
Să adăugăm discul /dev/sdc în această matrice și să confirmăm același lucru.
În acest moment, acest disc a fost adăugat ca disc de rezervă. Acest disc nu va fi utilizat până când nu se defectează vreun disc din matricea existentă sau până când forțăm manual RAID să utilizeze acest disc.
Dacă se defectează vreun disc și sunt disponibile discuri de rezervă, RAID va selecta automat primul disc de rezervă disponibil pentru a înlocui discul defect. Discurile de rezervă sunt cel mai bun plan de backup în dispozitivul RAID.
Pentru backup vom adăuga un alt disc în matrice, să folosim acest disc pentru a mări dimensiunea matricei. Următoarea comandă este utilizată pentru a crește dimensiunea dispozitivului RAID.
#mdadm --grow --raid-devices= /dev/
RAID aranjează toate dispozitivele într-o secvență. Această secvență este construită din ordinea în care sunt adăugate discurile în matrice. Atunci când folosim această comandă, RAID va adăuga următorul dispozitiv funcțional în dispozitivele active.
Figura următoare ilustrează această comandă
Așa cum putem vedea în ieșirea de mai sus, discul a fost adăugat în matrice și dimensiunea matricei a fost crescută cu succes.
Îndepărtarea dispozitivului defect
Dacă este disponibil un dispozitiv de rezervă, RAID va înlocui automat dispozitivul defect cu dispozitivul de rezervă. Utilizatorul final nu va vedea nicio schimbare. El va putea accesa datele ca de obicei. Să o înțelegem practic.
În acest moment nu există un disc de rezervă disponibil în matrice. Să adăugăm un disc de rezervă.
Când un disc se defectează, RAID marchează acel disc ca dispozitiv defect. Odată marcat, acesta poate fi îndepărtat în siguranță. Dacă dorim să eliminăm orice dispozitiv funcțional din matrice în scopuri de întreținere sau de depanare, trebuie să marcăm întotdeauna acel dispozitiv ca fiind un dispozitiv eșuat înainte de a-l elimina. Atunci când un dispozitiv este marcat ca dispozitiv eșuat, toate datele din dispozitivul eșuat sunt reconstruite în dispozitivele de lucru.
Pentru a marca un disc ca dispozitiv eșuat se folosește următoarea comandă.
#mdadm --manage --set-faulty /dev/ /dev/
Am mărit recent dimensiunea acestei matrice. Deci, înainte de a face această practică, să verificăm încă o dată dacă matricea conține încă date valide.
Așa cum a confirmat ieșirea de mai sus, matricea conține încă date valide. Acum haideți să marcăm un dispozitiv /dev/sdc ca dispozitiv defect din matrice și să confirmăm operațiunea.
Ca ieșirea de mai sus confirmă faptul că dispozitivul sdc, care este numărul patru în secvența matricei, a fost marcat ca dispozitiv defect.
Cum știm, dacă discul de rezervă este disponibil, acesta va fi utilizat automat ca înlocuitor al dispozitivului defect. Nu este necesară nicio acțiune manuală în acest proces. Să confirmăm că discul de rezervă a fost utilizat ca înlocuitor al discului defect.
În cele din urmă, să verificăm dacă datele sunt încă prezente în matrice.
Lovitura de mai sus confirmă faptul că matricea conține încă date valide.
Acesta este tot pentru acest tutorial.