PLD-doc/book: pl_book__konfiguracja/pl_konfiguracja.chp pl_book__konfiguracja/pl_konfiguracja__soft_...

qwiat cvs w pld-linux.org
Czw, 16 Cze 2005, 21:40:56 CEST


Author: qwiat
Date: Thu Jun 16 21:40:54 2005
New Revision: 6106

Added:
   PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja__soft_raid.sec
Modified:
   PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja.chp
   PLD-doc/book/pl_book__master.docb
Log:
- dodanie nowego rozdzialu


Modified: PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja.chp
==============================================================================
--- PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja.chp	(original)
+++ PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja.chp	Thu Jun 16 21:40:54 2005
@@ -7,6 +7,7 @@
 &konfiguracja_geninitrd;
 <!--&konfiguracja_fbsplash;-->
 &konfiguracja_boot_loader;
+<!-- &konfiguracja_soft_raid; -->
 &konfiguracja_zmienne_srodowiskowe;
 &konfiguracja_pldconf;
 &konfiguracja_pliki_kluczowe;

Added: PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja__soft_raid.sec
==============================================================================
--- (empty file)
+++ PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja__soft_raid.sec	Thu Jun 16 21:40:54 2005
@@ -0,0 +1,339 @@
+<?xml version="1.0" encoding="iso-8859-2"?>
+<section id="soft_raid">
+	<title>RAID programowy</title>
+	<para>
+		W systemie Linux istnieje możliwość tworzenia na dyskach programowych
+		macierzy <emphasis>RAID</emphasis> poziomów 0-5,6,10,01. Służy do tego
+		celu usługa <productname>mdadm</productname>. W przeciwieństwie do
+		macierzy RAID sprzętowych które wymagają specjalnego kontrolera dysków
+		(dość drogiego), macierze RAID programowe zakłada się na dyskach
+		podłączonych do zwykłego kontrolera <hardware>IDE</hardware>,
+		<hardware>SATA</hardware> lub <hardware>SCSI</hardware> i całą
+		obsługę przekazuje do odpowiedniego oprogramowania
+		(np: <productname>mdadm</productname>).
+	</para>
+	
+	<para>
+		Macierze możemy zakładać zarówno na całych dyskach, jak i na
+		odpowiednio przygotowanych partycjach, przy czym zakładanie na
+		partycjach daje więcej możliwości konfiguracji. Zarówno korzystając
+		z całych dysków jak i partycji należy pamiętać o tym że najmniejsza
+		partycja lub dysk decyduje o wielkości zakładanej macierzy (miejsce
+		ponad jest tracone), dlatego też należy raczej korzystać z takich
+		samych rozmiarów dysków lub partycji.
+	</para>
+	
+	<para>
+		Poniżej zamiesczono listę i opis dostępnych metod rodzajów macierzy dla
+		<productname>mdadm</productname>, w nawiasach podano nazwy parametrów
+		odpowiadających danemu poziomowi:
+		<itemizedlist>
+			<listitem>
+				<para>
+					RAID 0 (raid0, 0, stripe) - striping czyli
+					połączenie dwóch dysków (partycji) z przeplotem danych, zwiększa
+					się wydajność w porównaniu z pojedynczym dyskiem, obniża
+					odporność na awarie dysków.
+				</para>
+			</listitem>
+			<listitem>
+				<para>
+					RAID 1 (raid1, 1, mirror) - kopie lustrzane, dyski
+					są w dwóch jednakowych kopiach w przypadku awarii
+					jednego drugi przejmuje role pierwszego, wydajność
+					tak jak pojedynczy dysk, duże bezpieczeństwo, wadą
+					duża strata pojemności (n-liczba dysków w macierzy,
+					n/2)
+				</para>
+			</listitem>
+			<listitem>
+				<para>
+					RAID 4 (raid4, 4) - dane są zapisywane na kolejnych
+					dyskach a na ostatnim zapisywane są dane parzystości,
+					zwiększone bezpieczeństwo danych przy zachowaniu
+					dużej pojemności (n-1), wydajność ograniczona
+					przez dysk parzystości.
+				</para>
+			</listitem>
+			<listitem>
+				<para>
+					RAID 5 (raid5, 5) - podobnie jak RAID 4 tyle, że
+					dane parzystości rozkładane są na wszystkie dyski dzięki
+					czemu wydajność jest wyższa niż w RAID 4.
+				</para>
+			</listitem>
+			<listitem>
+				<para>
+					RAID 6 (raid6, 6) - jest to rzadko stosowana,
+					rozbudowana macierz typu 5. Jedyną różnicą jest
+					zapisanie sum kontrolnych na dwóch urządzeniach. Dzięki
+					temu macierz może bez utraty danych przetrwać
+					awarię dwóch dysków.
+				</para>
+			</listitem>
+			<listitem>
+				<para>
+					linear - tryb liniowy czyli połączenie dwóch
+					dysków w jeden w ten sposób że koniec pierwszego
+					jest początkiem drugiego, nie zapewnia absolutnie
+					żadnego bezpieczeństwa a wręcz obniża odporność na
+					awarie dysków.
+				</para>
+			</listitem>
+		</itemizedlist>
+	</para>
+	
+	<section id="soft_raid_instalacja">
+		<title>Instalacja</title>
+		<para>
+			Instalujemy następujące pakiety:
+			<screen># poldek -i mdadm</screen>
+			A jeśli zaplanowaliśmy umieszczenie głównego systemu plików
+			(/) na macierzy, musimy dodatkowo zainstalować pakiet
+			mdadm-initrd:
+			
+			<screen># poldek -i mdadm-initrd</screen>
+			
+			oraz możemy opcjonalnie dla dysków ATA przy korzystaniu z
+			device-mapera zainstalować dodatkowo:
+			
+			<screen># poldek -i dmraid</screen>
+		</para>
+	</section>
+	
+	
+	<section id="soft_raid_partycje">
+		<title>Podział na partycje</title>
+		<para>
+			Zaczynamy od założenia na każdym dysku który ma wchodzić w
+			skład macierzy RAID takich samych równych partycji, 1 lub
+			kilku na każdym dysku którego chcemy użyć. na przykład: mamy
+			4 dyski podłączone do interfejsu SATA
+<screen># fdisk /dev/sda
+Command (m for help): n
+Command action
+   l   logical (5 or over)
+   p   primary partition (1-4)
+p
+Selected partition (1-4)
+1</screen>
+
+			podajemy rozmiar pierwszej i tak dla każdej następnej (mogą
+			być 4 partycje primary ) po skończeniu dajemy:
+
+<screen>Command (m for help): p
+      Device Boot      Start         End   
+/dev/sda1               1         382     
+/dev/sda2             383        3326   
+/dev/sda3            3327        3737   
+/dev/sda4            3737        8700</screen>  
+
+			zapisujemy sobie podział według cylindrów (start i end) potem
+			już wpisujemy tylko przy zakładaniu następnych partycji numer
+			1 cylindra i ostatniego (partycje powinny być równe gdyż i tak
+			w przeciwnym razie wielkość macierzy będzie wyznaczana przez
+			najmniejszą partycję i najlepiej na) dajemy:
+			
+			<screen>Command (m for help): w</screen>
+			
+			następuje zapisanie tablicy partycji na dysk
+			i tak dla każdego pozostałego dysku który chcemy użyć do
+			stworzenia macierzy.
+		</para>
+	</section>
+		
+	<section id="soft_raid_macierz">
+		<title>Tworzenie macierzy RAID</title>
+		<para>
+			Przystępujemy do zakładania macierzy na partycjach za pomocą
+			polecenia mdadm:
+		</para>
+		<para>
+			<emphasis>mdadm -C {$dev_RAID} --level={$rodzaj} --raid-devices={$ilość_partycji} 				{$lista_partycji}</emphasis>
+		</para>
+		<para>
+		<itemizedlist>
+			<listitem><para>-C, --create - utwórz nową macierz.</para></listitem>
+			<listitem><para>-l, --level - ustaw poziom RAID np: linear,
+			raid0, 0, stripe, raid1, 1, mirror, raid4, 4, raid5, 5, raid6,
+			6; Jak możemy zauważyć niektóre opcje są synonimami.
+			Przy opcji Building pierwsze mogą być użyte: raid0, raid1, raid4, raid5.
+			</para></listitem>
+			<listitem><para>-n, --raid-devices	- liczba aktywnych
+				urządzeń (dysków) w macierzy
+			</para></listitem>
+			<listitem><para>-x, --spare-devices	- liczba zapasowych (eXtra)
+			urządzeń w tworzonej macierzy. Zapasowe dyski można dodawać i
+			usuwać także później.</para></listitem>
+			<listitem><para>-v --verbose		- tryb "gadatliwy"</para></listitem>
+		</itemizedlist>
+		</para>
+		<para>
+			Przykłady tworzenia macierzy różnego typu:
+
+			<itemizedlist>
+				<listitem>
+					<para>
+						RAID0 na dwóch partycjach -
+						<filename>/dev/sda1</filename> i
+						<filename>/dev/sdb1</filename> jako
+						<filename>/dev/md0</filename>
+						<screen># mdadm --create --verbose /dev/md0 --level=0 --raid-devices=2 /dev/sda1 /dev/sdb1</screen>
+				</para>
+			</listitem>
+			<listitem>
+				<para>
+					RAID1 na dwóch partycjach - <filename>/dev/sdc1</filename>
+					i <filename>/dev/sdd1</filename> jako <filename>/dev/md1</filename>
+					<screen># mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sdc1 /dev/sdd1</screen>
+				</para>
+			</listitem>
+			<listitem>
+				<para>
+					RAID5 na 4 partycjach w tym jedna jako zapasowa
+					(spare), jeśli nie podasz ile ma być zapasowych
+					partycji domyślnie 1 zostanie zarezerwowana na
+					zapasową
+					<screen># mdadm --create --verbose /dev/md2 --level=5 --raid-devices=4 --spare-devices=1 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3</screen>
+				</para>
+			</listitem>
+		</itemizedlist>
+		</para>
+		<para>
+			następnie musimy dodać odpowiednie wpisy w
+			<filename>/etc/mdadm.conf</filename> np. dla utworzonego
+			wyżej RAID5 i RAID1:
+
+<screen>DEVICE /dev/sd[abcd][123]
+ARRAY /dev/md0 devices=/dev/sda1,/dev/sdb1
+ARRAY /dev/md1 devices=/dev/sdc1,/dev/sdd1
+ARRAY /dev/md2 devices=/dev/sda3,/dev/sdb3,/dev/sdc3,/dev/sdd3</screen>
+
+
+			Pierwszy wpis definiuje jakie partycje wchodzą do kolejnych macierzy,
+			kolejne zaś definiują poszczególne macierze. To samo uzyskamy stosując wedle
+			dokumentacji mdadm polecenie:
+			<screen># mdadm --detail --scan >> /etc/mdadm.conf:</screen>
+		</para>
+
+		<para>
+			Mając dwie macierze RAID0 np: <filename>/dev/md0</filename> i
+			<filename>/dev/md1</filename>, możemy utworzyć macierz RAID10
+			jako <filename>/dev/md2</filename> 
+			<screen># mdadm --create --verbose /dev/md2 --level=1 --raid-devices=2 /dev/md0 /dev/md1</screen>
+			analogicznie RAID01 tworzymy mając dwie macierze RAID1
+
+			po utworzeniu macierzy postępujemy z nią dalej jak z partycją
+			czyli zakładamy system plików i odwołujemy się do niej np: jako
+			<filename>/dev/md0</filename>
+		</para>
+	</section>
+	
+	
+
+	
+	
+	<section id="soft_raid_bootloader">
+		<title>Konfiguracja bootloadera</title>
+		<para>
+			Jeśli chcemy by system startował z macierzy musimy
+			skonfigurować bootloader, w przypadku <productname>LILO</productname>
+			w <filename>/etc/lilo.conf</filename> należy podać odpowiednie
+			urządzenie dla opcji "root=" i "boot=":
+<screen>boot=/dev/md0
+ raid-extra-boot="/dev/sda,/dev/sdb"
+ 
+ image=/boot/vmlinuz
+     label=pld
+     root=/dev/md0
+     initrd=/boot/initrd</screen>
+			Po zmodyfikowaniu konfiguracji musimy zaktualizować bootloader
+			poleceniem <command>lilo</command>.
+		</para>
+		
+		<para>
+			Jeśli używamy <productname>Grub-a</productname> wywołujemy
+			ze powłoki:
+
+<screen># grub
+grub></screen>
+
+			następnie szukamy gdzie znajdują sie pliki bootloadera,
+			<screen>grub>find /boot/grub/stage1</screen> jeśli
+			<filename>/boot</filename> jest oddzielną partycją to
+			<filename>/grub/stage1</filename> i otrzymujemy wynik, np:
+
+<screen>(hd0,0)
+(hd1,0)
+
+
+Now you want to make sure that grub gets installed into the master boot
+record of your additional raid drives so that if id0 is gone then the next
+drive has a mbr loaded with grub ready to go.  Systems will automatically go
+in drive order for both ide and scsi and use the first mbr and active
+partitions it finds so you can have multiple drives that have mbr's as well
+as active partitions and it won't affect your system booting at all.
+
+So using what was shown with the find above and already knowing that hd0
+already has grub in mbr, we then run:
+
+Grub>device (hd0)/dev/sda (/dev/hda for ide)
+Grub>root (hd0,0)
+Grub>setup (hd0)</screen>
+
+			i to samo dla dysku drugiego czyli:
+
+
+<screen>Grub>device (hd1) /dev/sdb (/dev/hdb for ide)
+Grub>root (hd1,0)
+Grub>setup (hd1)
+
+Grub will then spit out all the commands it runs in the background of setup
+and will end with a successful embed command and then install command and
+end with .. succeeded on both of these commands and then Done returning to
+the grub> prompt.
+
+Notice that we made the second drive device 0.  Why is that you ask?
+Because device 0 is going to be the one with mbr on the drive so passing
+these commands to grub temporarily puts the 2nd mirror drive as 0 and will
+put a bootable mbr on the drive and when you quit grub you still have the
+original mbr on sda and will still boot to it till it is missing from the
+system.
+
+You have then just succeeded in installing grub to the mbr of your other
+mirrored drive and marked the boot partition on it active as well.  This
+will insure that if id0 fails that you can still boot to the os with id0
+pulled and not have to have an emergency boot floppy.</screen>
+
+		</para>
+	</section>
+	
+	
+	<section id="soft_raid_dodatki">
+		<title>Dodatki</title>
+		<para>
+			Uruchomienie macierzy z np: <productname>PLD Live CD</productname>
+			<screen># mdadm -A /dev/md0 /dev/hda /dev/hdb</screen>
+		</para>
+		<para>
+			Literatura:
+			<itemizedlist>
+				<listitem>
+					<para><ulink url="http://lists.us.dell.com/pipermail/linux-poweredge/2003-July/008898.html">http://lists.us.dell.com/pipermail/linux-poweredge/2003-July/008898.html</ulink></para>
+				</listitem>
+				<listitem>
+					<para><ulink url="http://www.linuxsa.org.au/mailing-list/2003-07/1270.html">http://www.linuxsa.org.au/mailing-list/2003-07/1270.html</ulink></para>
+				</listitem>
+				<listitem>
+					<para><ulink url="http://gentoo-wiki.com/HOWTO_Gentoo_Install_on_Software_RAID">http://gentoo-wiki.com/HOWTO_Gentoo_Install_on_Software_RAID</ulink></para>
+				</listitem>
+				<listitem>
+				<para><ulink url="http://gentoo-wiki.com/HOWTO_Install_Gentoo_on_an_LVM2_root_partition">http://gentoo-wiki.com/HOWTO_Install_Gentoo_on_an_LVM2_root_partition</ulink></para>
+				</listitem>
+				<listitem>
+				<para><ulink url="http://gentoo-wiki.com/HOWTO_Gentoo_Install_on_Software_RAID_mirror_and_LVM2_on_top_of_RAID">http://gentoo-wiki.com/HOWTO_Gentoo_Install_on_Software_RAID_mirror_and_LVM2_on_top_of_RAID</ulink></para>
+				</listitem>
+			</itemizedlist>
+		</para>
+	</section>
+</section>

Modified: PLD-doc/book/pl_book__master.docb
==============================================================================
--- PLD-doc/book/pl_book__master.docb	(original)
+++ PLD-doc/book/pl_book__master.docb	Thu Jun 16 21:40:54 2005
@@ -37,6 +37,7 @@
 <!ENTITY konfiguracja_pldconf SYSTEM "pl_book__konfiguracja/pl_konfiguracja__pldconf.sec">
 <!ENTITY konfiguracja_pliki_kluczowe SYSTEM "pl_book__konfiguracja/pl_konfiguracja__pliki_kluczowe.sec">
 <!ENTITY konfiguracja_zmienne_srodowiskowe SYSTEM "pl_book__konfiguracja/pl_konfiguracja__zmienne_srodowiskowe.sec">
+<!ENTITY konfiguracja_soft_raid SYSTEM "pl_book__konfiguracja/pl_konfiguracja__soft_raid.sec">
 <!ENTITY konfiguracja__sysconfig___console SYSTEM "pl_book__konfiguracja/sysconfig/console.sec">
 <!ENTITY konfiguracja__sysconfig___internacjonalizacja SYSTEM "pl_book__konfiguracja/sysconfig/internacjonalizacja.sec">
 <!ENTITY konfiguracja__sysconfig___mysz SYSTEM "pl_book__konfiguracja/sysconfig/mysz.sec">



Więcej informacji o liście dyskusyjnej pld-doc