PLD-doc/queue/raid.sec
adamg
cvs w pld-linux.org
Pon, 18 Kwi 2005, 23:23:12 CEST
Author: adamg
Date: Mon Apr 18 23:23:06 2005
New Revision: 5780
Modified:
PLD-doc/queue/raid.sec
Log:
- troche stylistyki
- polecenia poprzedzone znakiem '#'
- dodanie/usuniecie pliterek
- opis RAID 6
- nie ma czegos takiego jak raidow.
Modified: PLD-doc/queue/raid.sec
==============================================================================
--- PLD-doc/queue/raid.sec (original)
+++ PLD-doc/queue/raid.sec Mon Apr 18 23:23:06 2005
@@ -4,13 +4,16 @@
Instalacja
-Instalujemy następujące pakiety za pomocą poldka:
+Instalujemy następujące pakiety:
-poldek -i mdadm mdadm-initrd
+# poldek -i mdadm
+
+A jeśli zaplanowaliśmy umieszczenie głównego systemu plików (/) na macierzy, musimy dodatkowo zainstalować pakiet mdadm-initrd:
+# poldek -i mdadm-initrd
oraz możemy opcjonalnie dla dysków ATA przy korzystaniu z device-mapera zainstalować dodatkowo:
-poldek -i dmraid
+# poldek -i dmraid
Tworzenie macierzy RAID na partycjach
@@ -18,7 +21,7 @@
na przykład:
mamy 4 dyski podłączone do interfejsu SATA
-fdisk /dev/sda
+# fdisk /dev/sda
Command (m for help): n
Command action
l logical (5 or over)
@@ -42,7 +45,7 @@
Command (m for help): w
-nastepuje zapisanie tablicy partycji na dysk
+następuje zapisanie tablicy partycji na dysk
i tak dla każdego pozostałego dysku który chcemy użyć do stworzenia macierzy.
@@ -52,10 +55,11 @@
-C, --create - utwórz nową macierz.
-l, --level= - ustaw poziom RAID:
linear - tryb liniowy czyli połączenie dwóch dysków w jeden w ten sposób że koniec pierwszego jest początkiem drugiego, nie zapewnia absolutnie żadnego bezpieczeństwa a wręcz obniża odporność na awarie dysków.
- raid0, 0, stripe - striping czyli połączenie dwóch dysków (partycji) z przeplotem danych, zwiększa się wydajność w porównaniu z pojedyńczym dyskiem, obniża odporność na awarie dysków.
- raid1, 1, mirror - kopie lustrzane, dyski są w dwóch jednakowych kopiach w przypadku awarii jednego drugi przejmuje role pierwszego, wydajność tak jak pojedyńczy dysk, duże bezpieczeństwo, wadą duża strata pojemności (n-liczba dysków w macierzy, n/2)
+ raid0, 0, stripe - striping czyli połączenie dwóch dysków (partycji) z przeplotem danych, zwiększa się wydajność w porównaniu z pojedynczym dyskiem, obniża odporność na awarie dysków.
+ raid1, 1, mirror - kopie lustrzane, dyski są w dwóch jednakowych kopiach w przypadku awarii jednego drugi przejmuje role pierwszego, wydajność tak jak pojedynczy dysk, duże bezpieczeństwo, wadą duża strata pojemności (n-liczba dysków w macierzy, n/2)
raid4, 4 - dane są zapisywane na kolejnych dyskach a na ostatnim zapisywane są dane parzystości, zwiększone bezpieczeństwo danych przy zachowaniu dużej pojemności (n-1), wydajność ograniczona przez dysk parzystości.
raid5, 5 - podobnie jak RAID4 tyle że dane parzystości rozkładane są na wszystkie dyski dzięki czemu wydajność jest wyższa niż w RAID4.
+ raid6, 6 - jest to rzadko stosowana, rozbudowana macierz typu 5. Jedyną różnicą jest zapisanie sum kontrolnych na dwóch urządzeniach. Dzięki temu macierz może bez utraty danych przetrwać awarię dwóch dysków.
multipath, mp -
Jak możemy zauważyć niektóre opcje są synonimami. Przy opcji Building tylko cztery pierwsze mogą być użyte.
-n, --raid-devices= - liczba aktywnych urządzeń (dysków) w macierzy
@@ -65,14 +69,14 @@
przykłady tworzenia macierzy różnego typu:
macierz RAID0 na dwóch partycjach - /dev/sda1 i /dev/sdb1 jako /dev/md0
-mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 /dev/sda1 /dev/sdb1
+# mdadm --create --verbose /dev/md0 --level=0 --raid-devices=2 /dev/sda1 /dev/sdb1
macierz RAID1 na dwóch partycjach - /dev/sdc1 i /dev/sdd1 jako /dev/md1
-mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sdc1 /dev/sdd1
+# mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sdc1 /dev/sdd1
macierz RAID5 na 4 partycjach w tym jedna jako zapasowa (spare) jeśli nie podasz ile ma być zapasowych partycji domyślnie 1 zostanie zarezerwowana na zapasową
-mdadm --create --verbose /dev/md2 --level=1 --raid-devices=4 --spare-devices=1 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
+# mdadm --create --verbose /dev/md2 --level=5 --raid-devices=4 --spare-devices=1 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
następnie musimy dodać odpowiednie wpisy w /etc/mdadm.conf np. dla utworzonego wyżej RAID5 i RAID1:
@@ -82,8 +86,8 @@
ARRAY /dev/md2 devices=/dev/sda3,/dev/sdb3,/dev/sdc3,/dev/sdd3
Czyli:
-- pierwszy wpis definiuje jakie partycje wchodzą do kolejnych raidów
-- kolejne definiują macierze /dev/mdx
+- pierwszy wpis definiuje jakie partycje wchodzą do kolejnych macierzy
+- kolejne definiują poszczególne macierze
to samo uzyskamy stosując wedle dokumentacji mdadm polecenie:
@@ -109,3 +113,6 @@
label=pld
root=/dev/md0
initrd=/boot/initrd
+
+
+## TODO dla chętnych: jak się _to_ robi w grubie.
Więcej informacji o liście dyskusyjnej pld-doc