PLD-doc/queue/raid.sec

adamg cvs w pld-linux.org
Pon, 18 Kwi 2005, 23:23:12 CEST


Author: adamg
Date: Mon Apr 18 23:23:06 2005
New Revision: 5780

Modified:
   PLD-doc/queue/raid.sec
Log:
- troche stylistyki
- polecenia poprzedzone znakiem '#'
- dodanie/usuniecie pliterek
- opis RAID 6
- nie ma czegos takiego jak raidow.


Modified: PLD-doc/queue/raid.sec
==============================================================================
--- PLD-doc/queue/raid.sec	(original)
+++ PLD-doc/queue/raid.sec	Mon Apr 18 23:23:06 2005
@@ -4,13 +4,16 @@
 
 
 Instalacja
-Instalujemy następujące pakiety za pomocą poldka:
+Instalujemy następujące pakiety:
 
-poldek -i mdadm mdadm-initrd
+# poldek -i mdadm 
+
+A jeśli zaplanowaliśmy umieszczenie głównego systemu plików (/) na macierzy, musimy dodatkowo zainstalować pakiet mdadm-initrd:
+# poldek -i mdadm-initrd
 
 oraz możemy opcjonalnie dla dysków ATA przy korzystaniu z device-mapera zainstalować dodatkowo:
 
-poldek -i dmraid
+# poldek -i dmraid
 
 Tworzenie macierzy RAID na partycjach
 
@@ -18,7 +21,7 @@
 na przykład:
 mamy 4 dyski podłączone do interfejsu SATA
 
-fdisk /dev/sda
+# fdisk /dev/sda
 Command (m for help): n
 Command action
    l   logical (5 or over)
@@ -42,7 +45,7 @@
 
 Command (m for help): w
 
-nastepuje zapisanie tablicy partycji na dysk
+następuje zapisanie tablicy partycji na dysk
 
 i tak dla każdego pozostałego dysku który chcemy użyć do stworzenia macierzy.
 
@@ -52,10 +55,11 @@
 -C, --create - utwórz nową macierz.
 -l, --level= - ustaw poziom RAID:
 	linear	- tryb liniowy czyli połączenie dwóch dysków w jeden w ten sposób że koniec pierwszego jest początkiem drugiego, nie zapewnia absolutnie żadnego bezpieczeństwa a wręcz obniża odporność na awarie dysków.
-	raid0, 0, stripe - striping czyli połączenie dwóch dysków (partycji) z przeplotem danych, zwiększa się wydajność w porównaniu z pojedyńczym dyskiem, obniża odporność na awarie dysków.
-	raid1, 1, mirror - kopie lustrzane, dyski są w dwóch jednakowych kopiach w przypadku awarii jednego drugi przejmuje role pierwszego, wydajność tak jak pojedyńczy dysk, duże bezpieczeństwo, wadą duża strata pojemności (n-liczba dysków w macierzy, n/2)
+	raid0, 0, stripe - striping czyli połączenie dwóch dysków (partycji) z przeplotem danych, zwiększa się wydajność w porównaniu z pojedynczym dyskiem, obniża odporność na awarie dysków.
+	raid1, 1, mirror - kopie lustrzane, dyski są w dwóch jednakowych kopiach w przypadku awarii jednego drugi przejmuje role pierwszego, wydajność tak jak pojedynczy dysk, duże bezpieczeństwo, wadą duża strata pojemności (n-liczba dysków w macierzy, n/2)
 	raid4, 4 - dane są zapisywane na kolejnych dyskach a na ostatnim zapisywane są dane parzystości, zwiększone bezpieczeństwo danych przy zachowaniu dużej pojemności (n-1), wydajność ograniczona przez dysk parzystości.
 	raid5, 5 - podobnie jak RAID4 tyle że dane parzystości rozkładane są na wszystkie dyski dzięki czemu wydajność jest wyższa niż w RAID4.
+	raid6, 6 - jest to rzadko stosowana, rozbudowana macierz typu 5. Jedyną różnicą jest zapisanie sum kontrolnych na dwóch urządzeniach. Dzięki temu macierz może bez utraty danych przetrwać awarię dwóch dysków.
 	multipath, mp -
 	Jak możemy zauważyć niektóre opcje są synonimami. Przy opcji Building tylko cztery pierwsze mogą być użyte.
 -n, --raid-devices=	- liczba aktywnych urządzeń (dysków) w macierzy
@@ -65,14 +69,14 @@
 przykłady tworzenia macierzy różnego typu:
 
 macierz RAID0 na dwóch partycjach - /dev/sda1 i /dev/sdb1 jako /dev/md0
-mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 /dev/sda1 /dev/sdb1
+# mdadm --create --verbose /dev/md0 --level=0 --raid-devices=2 /dev/sda1 /dev/sdb1
 
 macierz RAID1 na dwóch partycjach - /dev/sdc1 i /dev/sdd1 jako /dev/md1
-mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sdc1 /dev/sdd1
+# mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sdc1 /dev/sdd1
 
 macierz RAID5 na 4 partycjach w tym jedna jako zapasowa (spare) jeśli nie podasz ile ma być zapasowych partycji domyślnie 1 zostanie zarezerwowana na zapasową
 
-mdadm --create --verbose /dev/md2 --level=1 --raid-devices=4 --spare-devices=1 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
+# mdadm --create --verbose /dev/md2 --level=5 --raid-devices=4 --spare-devices=1 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
 
 następnie musimy dodać odpowiednie wpisy w /etc/mdadm.conf np. dla utworzonego wyżej RAID5 i RAID1:
 
@@ -82,8 +86,8 @@
 ARRAY /dev/md2 devices=/dev/sda3,/dev/sdb3,/dev/sdc3,/dev/sdd3
 
  Czyli: 
-- pierwszy wpis definiuje jakie partycje wchodzą do kolejnych raidów
-- kolejne definiują macierze /dev/mdx
+- pierwszy wpis definiuje jakie partycje wchodzą do kolejnych macierzy
+- kolejne definiują poszczególne macierze
 
 to samo uzyskamy stosując wedle dokumentacji mdadm polecenie:
 
@@ -109,3 +113,6 @@
      label=pld
      root=/dev/md0
      initrd=/boot/initrd
+
+
+## TODO dla chętnych: jak się _to_ robi w grubie.




Więcej informacji o liście dyskusyjnej pld-doc