Tutorial wyjaśnia, jak wyświetlić, lista, utworzyć, dodać, usunąć, usunąć, zmienić rozmiar, sformatować, zamontować i skonfigurować poziomy RAID (0, 1 i 5) w systemie Linux krok po kroku z praktycznymi przykładami. Dowiedz się podstawowe pojęcia RAID oprogramowania (Chunk, Mirroring, Striping i Parity) i istotne polecenia zarządzania RAID urządzenia w detail.
RAID oznacza Redundant Array of Independent Disks. Istnieją dwa rodzaje RAID; RAID sprzętowy i RAID programowy.
Hardware RAID
Hardware RAID jest fizycznym urządzeniem pamięci masowej, które jest zbudowane z wielu dysków twardych. Podczas połączenia z systemem wszystkie dyski są wyświetlane w systemie jako jeden dysk SCSI. Z punktu widzenia systemu nie ma różnicy pomiędzy zwykłym dyskiem SCSI a sprzętowym urządzeniem RAID. System może używać sprzętowego urządzenia RAID jako pojedynczego dysku SCSI.
Hardware RAID posiada swój własny, niezależny podsystem dyskowy i zasoby. Nie wykorzystuje żadnych zasobów systemu, takich jak zasilanie, pamięć RAM i procesor. RAID sprzętowy nie powoduje dodatkowego obciążenia systemu. Ponieważ ma swoje własne dedykowane zasoby, zapewnia wysoką wydajność.
Software RAID
Software RAID jest logicznym urządzeniem pamięci masowej, które jest zbudowane z dołączonych dysków w systemie. Wykorzystuje wszystkie zasoby systemu. Zapewnia niską wydajność, ale nic nie kosztuje. W tym poradniku dowiemy się jak stworzyć i zarządzać programowym RAID w szczegółach.
Tutorial ten jest ostatnią częścią naszego artykułu „Linux Disk Management Explained in Easy Language with Examples”. Możesz przeczytać inne części tego artykułu tutaj.
To jest pierwsza część tego artykułu. Ta część wyjaśnia podstawowe pojęcia zarządzania dyskami Linux, takie jak BIOS, UEFI, MBR, GPT, SWAP, LVM, RAID, partycja podstawowa, partycja rozszerzona i Linux file system type.
Zarządzanie partycją Linux Disk z fdisk Command
To jest druga część tego artykułu. Ta część wyjaśnia jak tworzyć partycje podstawowe, rozszerzone i logiczne z polecenia fdisk w Linuksie krok po kroku z przykładami.
Zarządzanie partycją dysku linuksowego za pomocą polecenia gdisk
To jest trzecia część tego artykułu. Ta część wyjaśnia jak tworzyć partycje GPT (tablica partycji GUID) z polecenia gdisk w Linuksie krok po kroku z przykładami.
Zarządzanie dyskami w Linuksie z poleceniem parted
To jest czwarta część tego artykułu. Ta część wyjaśnia jak tworzyć partycje podstawowe, rozszerzone, logiczne i GPT z polecenia parted w Linuksie krok po kroku z przykładami.
Jak utworzyć partycję SWAP w Linuksie
To jest piąta część tego artykułu. Ta część wyjaśnia jak stworzyć partycję swap w Linuksie z przykładami, włączając podstawowe zadania zarządzania swapem, takie jak jak zwiększyć, zamontować lub wyczyścić pamięć swap.
Naucz się jak skonfigurować LVM w Linuksie krok po kroku
To jest szósta część tego artykułu. Ta część wyjaśnia podstawowe koncepcje LVM w szczegółach z przykładami, w tym jak skonfigurować i zarządzać LVM w Linuksie krok po kroku.
Podstawowe koncepcje RAID
Urządzenie RAID może być skonfigurowane na wiele sposobów. W zależności od konfiguracji można je sklasyfikować w dziesięciu różnych poziomach. Zanim omówimy poziomy RAID w sposób bardziej szczegółowy, rzućmy okiem na kilka ważnych terminów używanych w konfiguracji RAID.
Chunk: – Jest to rozmiar bloku danych używany w konfiguracji RAID. Jeśli rozmiar bloku danych wynosi 64 KB, wówczas w macierzy RAID o pojemności 1 MB (1024 KB/64 KB) znajduje się 16 bloków danych.
Hot Spare: – Jest to dodatkowy dysk w macierzy RAID. Jeśli któryś z dysków ulegnie awarii, dane z uszkodzonego dysku zostaną automatycznie przeniesione na ten zapasowy dysk.
Mirroring: – Jeśli ta funkcja jest włączona, kopia tych samych danych zostanie zapisana również na innym dysku. Jest to po prostu jak tworzenie dodatkowej kopii danych w celu tworzenia kopii zapasowych.
Striping: – Jeśli ta funkcja jest włączona, dane będą zapisywane na wszystkich dostępnych dyskach losowo. Jest to tak jak dzielenie danych pomiędzy wszystkie dyski, więc wszystkie z nich wypełniają się w równym stopniu.
Parytet: – Jest to metoda regeneracji utraconych danych z zapisanych informacji parzystości.
Różne poziomy RAID są zdefiniowane na podstawie tego, jak mirroring i stripping są wymagane. Wśród tych poziomów tylko Poziom 0, Poziom 1 i Poziom 5 są najczęściej używane w Red Hat Linux.
RAID Poziom 0
Ten poziom zapewnia striping bez parzystości. Ponieważ nie przechowuje on żadnych danych parzystości i wykonuje operacje odczytu i zapisu jednocześnie, prędkość będzie znacznie większa niż w przypadku innych poziomów. Ten poziom wymaga co najmniej dwóch dysków twardych. Wszystkie dyski twarde na tym poziomie są wypełnione w równym stopniu. Powinieneś używać tego poziomu tylko wtedy, gdy zależy Ci na szybkości odczytu i zapisu. Jeśli zdecydujesz się skorzystać z tego poziomu, zawsze wdrażaj alternatywny plan tworzenia kopii zapasowych danych. Ponieważ awaria pojedynczego dysku w macierzy spowoduje całkowitą utratę danych.
RAID Level 1
Ten poziom zapewnia parzystość bez paskowania. Wszystkie dane są zapisywane na dwóch dyskach. Jeśli jeden z dysków ulegnie awarii lub zostanie usunięty, wszystkie dane nadal znajdują się na drugim dysku. Ten poziom wymaga dwóch dysków twardych. Oznacza to, że jeśli chcesz używać 2 dysków twardych, musisz zainstalować 4 dyski twarde lub jeśli chcesz używać jednego dysku twardego, musisz zainstalować dwa dyski twarde. Pierwszy dysk twardy przechowuje oryginalne dane, podczas gdy drugi dysk przechowuje dokładną kopię pierwszego dysku. Ponieważ dane są zapisywane dwukrotnie, spada wydajność. Z tego poziomu należy korzystać tylko wtedy, gdy bezpieczeństwo danych jest ważne za wszelką cenę.
RAID Level 5
Ten poziom zapewnia zarówno parzystość, jak i striping. Wymaga co najmniej trzech dysków. Dane parzystości są zapisywane jednakowo na wszystkich dyskach. Jeśli jeden z dysków ulegnie awarii, dane można odtworzyć z danych parzystości dostępnych na pozostałych dyskach. Zapewnia to połączenie integralności i wydajności. Tam, gdzie to możliwe, należy zawsze używać tego poziomu.
Jeśli chcesz użyć sprzętowego urządzenia RAID, użyj sprzętowego urządzenia RAID z możliwością wymiany na gorąco z zapasowymi dyskami. W przypadku awarii któregokolwiek z dysków dane zostaną odtworzone na pierwszym dostępnym dysku zapasowym bez żadnych przestojów, a ponieważ jest to urządzenie wymienialne na gorąco, można wymienić uszkodzone urządzenie, gdy serwer nadal działa.
Jeśli urządzenie RAID jest prawidłowo skonfigurowane, z punktu widzenia systemu operacyjnego nie będzie różnicy między RAID programowym a sprzętowym. System operacyjny będzie miał dostęp do urządzenia RAID jak do zwykłego dysku twardego, bez względu na to czy jest to RAID programowy czy sprzętowy.
Linux dostarcza moduł jądra md do konfiguracji RAID programowego. W celu użycia programowego RAID musimy skonfigurować urządzenie md RAID, które jest złożeniem dwóch lub więcej urządzeń pamięci masowej.
Jak skonfigurować programowy RAID krok po kroku
Dla tego samouczka zakładam, że masz niepartycjonowaną przestrzeń dyskową lub dodatkowe dyski twarde do ćwiczeń. Jeśli korzystasz z tego poradnika na wirtualnym oprogramowaniu takim jak VMware Workstation, dodaj trzy dodatkowe dyski twarde w systemie. Aby dowiedzieć się jak dodać dodatkowy dysk twardy w systemie wirtualnym, proszę zapoznać się z pierwszą częścią tego poradnika. Jeśli wykonujesz ten poradnik na maszynie fizycznej, podłącz dodatkowy dysk twardy. Możesz użyć pamięci USB lub pendrive’a do ćwiczeń. Dla celów demonstracyjnych dołączyłem trzy dodatkowe dyski twarde w moim systemie laboratoryjnym.
Każdy z dysków ma rozmiar 2GB. Możemy wyświetlić listę wszystkich podłączonych dysków twardych za pomocą polecenia fdisk -l.
Możemy również użyć polecenia lsblk, aby wyświetlić uporządkowany przegląd wszystkich podłączonych urządzeń pamięci masowej.
Jak widać na powyższym wyjściu, dostępne są trzy niepartycjonowane dyski, każdy o rozmiarze 2G.
Pakiet mdadm jest używany do tworzenia i zarządzania programowym RAID. Aby dowiedzieć się, jak zainstalować i zarządzać pakietami w linuxie zobacz następujące tutoriale
How to configure YUM Repository in RHEL
RPM Command Explained with Example
Dla tego tutorialu zakładam, że pakiet mdadm jest zainstalowany.
Tworzenie macierzy RAID 0
Mamy możliwość utworzenia macierzy RAID 0 z dysków lub partycji. Aby zrozumieć obie opcje, stworzymy dwie oddzielne macierze RAID 0; jedną z dyskami, a drugą z partycjami. Macierz RAID 0 wymaga co najmniej dwóch dysków lub partycji. Użyjemy dysków /dev/sdc i /dev/sdd do stworzenia macierzy RAID 0 z dysków. Utworzymy dwie partycje w /dev/sdb i później użyjemy ich do utworzenia kolejnej macierzy RAID 0 z partycji.
Aby utworzyć macierz RAID 0 z dysków użyj następującego polecenia
#mdadm --create --verbose /dev/ --level= --raid-devices=
Zrozummy to polecenie w szczegółach
mdadm:- To jest główne polecenie
–create:- Ta opcja jest używana do tworzenia nowego urządzenia md (RAID).
–verbose:- Ta opcja jest używana do wyświetlania aktualizacji procesu w czasie rzeczywistym.
/dev/:- Ten argument jest używany do podania nazwy i lokalizacji macierzy RAID. Urządzenie md powinno być utworzone w katalogu /dev/.
–level=:- Ta opcja i argument są używane do określenia poziomu RAID, który chcemy utworzyć.
–raid-devices=:- Ta opcja i argument są używane do określenia liczby urządzeń pamięci masowej lub partycji, które chcemy użyć w tym urządzeniu.
:- Ta opcja jest używana do określenia nazwy i lokalizacji urządzenia pamięci masowej.
Następujące polecenie zostanie użyte do utworzenia macierzy RAID 0 z dysków /dev/sdc i /dev/sdd o nazwie md0.
Aby zweryfikować macierz możemy użyć następującego polecenia
Powyższe wyjście potwierdza, że macierz RAID md0 została pomyślnie utworzona z dwóch dysków (sdd i sdc) w konfiguracji RAID poziomu 0.
Tworzenie macierzy RAID 0 z partycjami
Utwórz partycję 1GiB za pomocą polecenia fdisk
Domyślnie wszystkie partycje są tworzone jako standardowe dla Linuksa. Zmień typ partycji na RAID i zapisz partycję. Wyjdź z narzędzia fdisk i uruchom polecenie partprobe, aby zaktualizować tablicę partycji jądra w czasie działania systemu.
Aby poznać polecenie fdisk i jego podpolecenia w szczegółach, zapoznaj się z drugą częścią tego poradnika, która wyjaśnia, jak tworzyć i zarządzać partycjami za pomocą polecenia fdisk krok po kroku.
Utwórzmy jeszcze jedną partycję, ale tym razem użyjmy polecenia parted.
Aby poznać szczegółowo polecenie parted proszę zapoznać się z czwartą częścią tego tutoriala, która wyjaśnia jak zarządzać dyskami za pomocą polecenia parted krok po kroku.
Utworzyliśmy dwie partycje. Zbudujmy kolejną macierz RAID (Level 0), ale tym razem użyjmy partycji zamiast dysków.
To samo polecenie zostanie użyte do stworzenia macierzy RAID z partycji.
Gdy używamy polecenia mdadm do stworzenia nowej macierzy RAID, umieszcza ono swój podpis na dostarczonym urządzeniu lub partycji.Oznacza to, że możemy stworzyć macierz RAID z dowolnego typu partycji lub nawet z dysku, który nie zawiera żadnej partycji. Oznacza to, że możemy utworzyć macierz RAID z dowolnego typu partycji, a nawet z dysku, który nie zawiera żadnej partycji. Nie jest więc ważne, jakiego typu partycji użyjemy, ważne jest natomiast, aby partycja nie zawierała żadnych cennych danych. Podczas tego procesu wszystkie dane z partycji zostaną wymazane.
Tworzenie systemu plików w macierzy RAID
Nie możemy używać macierzy RAID do przechowywania danych, dopóki nie zawiera ona poprawnego systemu plików. Poniższe polecenie służy do utworzenia systemu plików w macierzy.
#mkfs –t
Sformatujmy md0 z systemem plików ext4 i md1 z systemem plików xfs.
Tarcze RAID 0 są gotowe do użycia. Aby ich użyć musimy je zamontować gdzieś w systemie plików Linux.System plików Linux (podstawowa struktura katalogów) zaczyna się od katalogu głównego (/) i wszystko idzie pod nim lub jego podkatalogami.Musimy zamontować partycje gdzieś pod tym drzewem katalogów. Możemy montować partycje tymczasowo lub na stałe.
Tymczasowe montowanie macierzy RAID 0
Następująca komenda jest używana do tymczasowego montowania macierzy.
#mount
Komenda montowania przyjmuje kilka opcji i argumentów, które wyjaśnię osobno w innym tutorialu. Dla tego tutoriala ta podstawowa składnia jest wystarczająca.
what to mount :- To jest tablica.
where to mount :- To jest katalog, który będzie użyty do dostępu do zamontowanego zasobu.
Po zamontowaniu, jakakolwiek akcja, którą wykonamy w zamontowanym katalogu, będzie wykonana w zamontowanych zasobach. Zrozummy to praktycznie.
- Utwórz katalog mount w katalogu /
- Montuj tablicę /dev/md0
- Listuj zawartość
- Utwórz katalog testowy i plik
- Listuj zawartość ponownie
- Un-.zamontuj tablicę /dev/md0 i wypisz zawartość ponownie
- Teraz zamontuj tablicę /dev/md1 i wypisz zawartość
- Ponownie utwórz katalog testowy i plik. Użyj innej nazwy dla pliku i katalogu
- Wylistuj zawartość
- Umontuj tablicę /dev/md1 i ponownie wylistuj zawartość
Następujący rysunek ilustruje to ćwiczenie krok po kroku
Jak pokazuje powyższy rysunek, jakakolwiek akcja wykonana w katalogu mount została faktycznie wykonana w odpowiedniej tablicy.
Opcja montowania tymczasowego jest dobra dla tablic, do których mamy dostęp sporadycznie. Przy każdym restarcie systemu wszystkie tymczasowo zamontowane zasoby są automatycznie odmontowywane. Jeśli więc posiadamy macierz, która ma być używana regularnie, powinniśmy zamontować ją na stałe.
Montowanie macierzy RAID na stałe
Każdy zasób w systemie plików posiada unikalny identyfikator zwany UUID. Montując macierz na stałe powinniśmy używać UUID zamiast jej nazwy. Od wersji 7, RHEL również używa UUID zamiast nazwy urządzenia.
UUID jest skrótem od Universally Unique Identifier. Jest to 128-bitowa liczba, wyrażona w formacie szesnastkowym (podstawa 16).
Jeśli masz statyczne środowisko, możesz użyć nazwy urządzenia. Ale jeśli masz dynamiczne środowisko, powinieneś zawsze używać UUID. W środowisku dynamicznym nazwa urządzenia może się zmieniać za każdym razem podczas startu systemu. Na przykład podłączyliśmy do systemu dodatkowy dysk SCSI; będzie on nosił nazwę /dev/sdb. Zamontowaliśmy ten dysk na stałe z jego nazwą. Teraz załóżmy, że ktoś inny usunął ten dysk i podłączył nowy dysk SCSI w tym samym gnieździe. Nowy dysk również będzie nosił nazwę /dev/sdb. Ponieważ nazwa starego i nowego dysku jest taka sama, nowy dysk zostanie zamontowany w miejscu starego dysku. W ten sposób, nazwa urządzenia może spowodować poważny problem w dynamicznym środowisku. Problem ten można jednak rozwiązać za pomocą UUID. Bez względu na to jak dołączymy zasób do systemu, jego UUID pozostanie zawsze stały.
Jeśli masz statyczne środowisko, możesz rozważyć nazwę urządzenia do zamontowania zasobu. Ale jeśli masz dynamiczne środowisko, powinieneś zawsze używać UUID.
Aby poznać UUID wszystkich partycji, możemy użyć polecenia blkid. Aby poznać UUID konkretnej partycji, musimy użyć jej nazwy jako argumentu tego polecenia.
Gdy już znamy UUID, możemy go użyć zamiast nazwy urządzenia. Możemy również użyć opcji kopiuj i wklej, aby wpisać UUID.
- Użyj polecenia blkid, aby wydrukować UUID tablicy.
- Kopiuj UUID tablicy.
- Użyj polecenia mount, aby zamontować tablicę. Użyj opcji paste zamiast wpisywania UUID.
Następujący rysunek ilustruje powyższe kroki
Gdy system się uruchamia, szuka w pliku /etc/fstab urządzeń (partycji, LV, swap lub tablicy), które muszą być automatycznie montowane w systemie plików. Domyślnie plik ten zawiera wpisy dla tych partycji, wolumenów logicznych i przestrzeni wymiany, które zostały utworzone podczas instalacji. Aby automatycznie zamontować jakiekolwiek dodatkowe urządzenie (Array) musimy dokonać wpisu dla tego urządzenia w tym pliku. Każdy wpis w tym pliku ma sześć pól.
Numer | Złożony | Opis |
1 | Co montować | Urządzenie, które chcemy zamontować. Możemy użyć nazwy urządzenia, UUID i etykiety w tym pliku, aby reprezentować urządzenie. |
2 | Gdzie zamontować | Katalog w głównym systemie plików Linux, gdzie chcemy zamontować urządzenie. |
3 | System plików | Typ systemu plików urządzenia. |
4 | Opcje | Tak jak w przypadku polecenia mount możemy również użyć obsługiwanych opcji aby kontrolować proces montowania. W tym poradniku użyjemy opcji domyślnych. |
5 | Opcje dump | Aby włączyć dump na tym urządzeniu użyj 1. Użyj 0, aby wyłączyć dump. |
6 | Automatyczne sprawdzanie | Czy to urządzenie powinno być sprawdzane podczas montowania czy nie. Aby wyłączyć użyj 0, aby włączyć użyj 1 (dla partycji głównej) lub 2 (dla wszystkich partycji oprócz głównej). |
Zróbmy kilka katalogów do montowania tablic, które ostatnio utworzyliśmy
Zrób kopię zapasową pliku fstab i otwórz go do edycji
Zrób wpisy dla tablic i zapisz plik.
Dla celów demonstracyjnych użyłem zarówno nazwy urządzenia jak i UUID do montowania partycji.Po zapisaniu zawsze sprawdzaj wpisy poleceniem mount -a. Ta komenda zamontuje wszystko, co jest wymienione w pliku /etc/fstab. Jeśli więc popełniliśmy jakiś błąd podczas aktualizacji tego pliku, otrzymamy błąd jako wyjście tego polecenia.
Jeśli otrzymasz jakiś błąd jako wyjście polecenia mount -a, popraw go przed ponownym uruchomieniem systemu.Jeśli nie ma błędu, uruchom ponownie system.
Polecenie df -h jest używane do sprawdzenia dostępnego miejsca we wszystkich zamontowanych partycjach. Możemy użyć tego polecenia do sprawdzenia, czy wszystkie partycje są poprawnie zamontowane.
Powyższe wyjście potwierdza, że wszystkie partycje są zamontowane poprawnie. Wylistujmy oba urządzenia RAID.
Jak usunąć macierz RAID
Nie możemy usunąć zamontowanej macierzy. Odmontuj wszystkie macierze, które utworzyliśmy w tym ćwiczeniu
Użyj następującego polecenia, aby zatrzymać macierz RAID
#mdadm --stop /dev/
Usuń katalog montowania i skopiuj z powrotem oryginalny plik fstab.
Jeśli nie zrobiłeś kopii zapasowej oryginalnego pliku fstab, usuń wszystkie wpisy z tego pliku, które zrobiłeś.
Na koniec zresetuj wszystkie dyski używane w tej praktyce.
Komenda dd jest najprostszym sposobem na zresetowanie dysku. Narzędzia dyskowe przechowują swoje parametry konfiguracyjne w superbloku. Zazwyczaj rozmiar super-bloku jest definiowany w KB, więc po prostu nadpisujemy pierwsze 10MB przestrzeni bajtami zerowymi na każdym dysku. Aby poznać polecenie dd w szczegółach, zobacz piątą część tego tutoriala, która szczegółowo wyjaśnia to polecenie.
Teraz zrestartuj system i użyj ponownie polecenia df -h, aby sprawdzić, czy wszystkie urządzenia RIAD, które utworzyliśmy w tym ćwiczeniu zniknęły.
Jak utworzyć macierz RAID 1 i RAID 5
Możemy utworzyć macierz RAID 1 lub RAID 5 postępując według tej samej procedury. Wszystkie kroki i polecenia będą takie same z wyjątkiem polecenia mdadm –create. W tym poleceniu musisz zmienić poziom RAID, liczbę dysków i lokalizację powiązanych dysków.
Aby utworzyć macierz RAID 1 z dysków /dev/sdd i /dev/sdb użyj następującej komendy
Aby utworzyć macierz RAID 1 z partycji /dev/sdb1 i /dev/sdb2 użyj następującej komendy polecenie
Możesz otrzymać ostrzeżenie o metadanych, jeśli wcześniej używałeś tych samych dysków i partycji do tworzenia macierzy RAID i te dyski lub partycje nadal zawierają informacje o metadanych. Pamiętaj, że wyczyściliśmy tylko 10Mb przestrzeni startowej, pozostawiając pozostałą przestrzeń nietkniętą. Możesz bezpiecznie zignorować ten komunikat lub wyczyścić cały dysk przed ponownym użyciem.
Aby utworzyć macierz RAID 5 z dysków /dev/sdb, /dev/sdc i /dev/sdd użyj następującego polecenia.
Konfiguracja RAID 5 wymaga co najmniej 3 dysków lub partycji. Dlatego właśnie użyliśmy tutaj trzech dysków.
Aby utworzyć macierz RAID 5 z partycji /dev/sdb1, /dev/sdb2 i /dev/sdb3 użyj następującej komendy
Aby uniknąć niepotrzebnych błędów zawsze restartuj dyski przed użyciem ich w nowej praktyce.
Do tej pory w tym poradniku nauczyliśmy się jak tworzyć, montować i usuwać macierz RAID. W następnym rozdziale dowiemy się jak zarządzać i rozwiązywać problemy z macierzą RAID. W tym rozdziale zakładam, że posiadasz przynajmniej jedną skonfigurowaną macierz. Dla celów demonstracyjnych posłużę się przykładem ostatnio skonfigurowanej macierzy (RAID 5 z 3 partycjami). Utwórzmy system plików w tej macierzy i zamontujmy go.
Zamieśćmy w tym katalogu jakieś fikcyjne dane.
Przekierowałem stronę manuala polecenia ls do pliku /testingdata/manual-of-ls-command. Później, aby sprawdzić, czy plik zawiera rzeczywiste dane, użyłem polecenia wc, które zlicza linie, słowa i znaki pliku.
Jak wyświetlić szczegóły urządzenia RAID
Następujące polecenie służy do wyświetlenia szczegółowych informacji o urządzeniu RAID.
#mdadm --detail /dev/
Informacje te obejmują Poziom RAID, rozmiar macierzy, rozmiar używany z całkowitego dostępnego rozmiaru, urządzenia używane przy tworzeniu tej macierzy, urządzenia aktualnie używane, urządzenia zapasowe, urządzenia uszkodzone, rozmiar kawałka, UUID macierzy i wiele innych.
Jak dodać dodatkowy dysk lub partycję w RIAD
Istnieje kilka sytuacji, w których musimy zwiększyć rozmiar urządzenia RAID, na przykład urządzenie raid może być wypełnione danymi lub dysk z macierzy może być uszkodzony. Aby zwiększyć przestrzeń urządzenia RAID musimy dodać dodatkowy dysk lub partycję w istniejącej macierzy.
W uruchomionym przykładzie użyliśmy dysku /dev/sdb do utworzenia trzech partycji. Dyski /dev/sdc i /dev/sdd są nadal dostępne do użycia. Zanim dodamy je do tej macierzy, upewnijmy się, że są wyczyszczone. Ostatnim razem użyliśmy polecenia dd do wyczyszczenia dysków. Możemy użyć tej komendy ponownie lub użyć następującej komendy
#mdadm --zero-superblock /dev/
Aby sprawdzić czy dysk zawiera superblok czy nie możemy użyć następującej komendy
#mdadm --examine /dev/
Następujący rysunek ilustruje użycie obu komend na obu dyskach
Teraz oba dyski są gotowe do pracy w macierzy RAID. Następujące polecenie jest używane do dodania dodatkowego dysku do istniejącej macierzy.
#mdadm --manage /dev/ --add /dev/
Dodajmy dysk /dev/sdc do tej macierzy i potwierdźmy to samo.
Teraz ten dysk został dodany jako dysk zapasowy. Ten dysk nie będzie używany do momentu, gdy jakikolwiek dysk z istniejącej macierzy ulegnie awarii lub gdy ręcznie zmusimy RAID do użycia tego dysku.
Jeśli jakikolwiek dysk ulegnie awarii, a dyski zapasowe są dostępne, RAID automatycznie wybierze pierwszy dostępny dysk zapasowy, aby zastąpić uszkodzony dysk. Dyski zapasowe to najlepszy plan tworzenia kopii zapasowych w urządzeniu RAID.
Dla celów tworzenia kopii zapasowych dodamy kolejny dysk w macierzy, użyjmy tego dysku do zwiększenia rozmiaru macierzy. Poniższe polecenie służy do zwiększenia rozmiaru urządzenia RAID.
#mdadm --grow --raid-devices= /dev/
RAID układa wszystkie urządzenia w sekwencji. Sekwencja ta jest budowana na podstawie kolejności dodawania dysków do macierzy. Gdy użyjemy tej komendy, RAID doda następne działające urządzenie do aktywnych urządzeń.
Następny rysunek ilustruje tę komendę
Jak widać na powyższym wyjściu, dysk został dodany do macierzy, a rozmiar macierzy został pomyślnie zwiększony.
Usuwanie uszkodzonego urządzenia
Jeśli dostępne jest urządzenie zapasowe, RAID automatycznie zastąpi uszkodzone urządzenie urządzeniem zapasowym. Użytkownik końcowy nie zauważy żadnej zmiany. Będzie w stanie uzyskać dostęp do danych w zwykły sposób. Zrozummy to praktycznie.
Teraz w macierzy nie ma dostępnego żadnego zapasowego dysku. Dodajmy jeden dysk zapasowy.
Gdy dysk ulegnie awarii, macierz RAID oznacza ten dysk jako urządzenie uszkodzone. Raz oznaczony dysk może być bezpiecznie usunięty. Jeśli chcemy usunąć jakiekolwiek działające urządzenie z macierzy w celu konserwacji lub usunięcia usterki, powinniśmy zawsze oznaczyć je jako urządzenie uszkodzone. Gdy urządzenie zostanie oznaczone jako uszkodzone, wszystkie dane z uszkodzonego urządzenia zostaną odtworzone w urządzeniach roboczych.
Aby oznaczyć dysk jako uszkodzony, należy użyć następującego polecenia.
#mdadm --manage --set-faulty /dev/ /dev/
Ostatnio zwiększyliśmy rozmiar tej macierzy. Dlatego przed wykonaniem tej operacji sprawdźmy jeszcze raz, czy macierz nadal zawiera prawidłowe dane.
Powyższe dane wyjściowe potwierdzają, że macierz nadal zawiera prawidłowe dane. Teraz oznaczmy urządzenie /dev/sdc jako uszkodzone urządzenie z tablicy i potwierdźmy operację.
Powyższe wyjście potwierdza, że urządzenie sdc, które jest numerem cztery w sekwencji tablicy, zostało oznaczone jako uszkodzone urządzenie.
Jak wiadomo, jeśli dostępny jest dysk zapasowy, zostanie on automatycznie użyty do zastąpienia uszkodzonego urządzenia. W tym procesie nie jest wymagane żadne ręczne działanie. Potwierdźmy, że dysk zapasowy został użyty do zastąpienia uszkodzonego dysku.
Na koniec sprawdźmy, czy dane są nadal obecne w macierzy.
Powyższe dane wyjściowe potwierdzają, że macierz nadal zawiera prawidłowe dane.
To wszystko w tym poradniku.