PLD-doc/book: pl_book__konfiguracja/pl_konfiguracja.chp
pl_book__konfiguracja/pl_konfiguracja__soft_...
qwiat
cvs w pld-linux.org
Czw, 16 Cze 2005, 21:40:56 CEST
Author: qwiat
Date: Thu Jun 16 21:40:54 2005
New Revision: 6106
Added:
PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja__soft_raid.sec
Modified:
PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja.chp
PLD-doc/book/pl_book__master.docb
Log:
- dodanie nowego rozdzialu
Modified: PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja.chp
==============================================================================
--- PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja.chp (original)
+++ PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja.chp Thu Jun 16 21:40:54 2005
@@ -7,6 +7,7 @@
&konfiguracja_geninitrd;
<!--&konfiguracja_fbsplash;-->
&konfiguracja_boot_loader;
+<!-- &konfiguracja_soft_raid; -->
&konfiguracja_zmienne_srodowiskowe;
&konfiguracja_pldconf;
&konfiguracja_pliki_kluczowe;
Added: PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja__soft_raid.sec
==============================================================================
--- (empty file)
+++ PLD-doc/book/pl_book__konfiguracja/pl_konfiguracja__soft_raid.sec Thu Jun 16 21:40:54 2005
@@ -0,0 +1,339 @@
+<?xml version="1.0" encoding="iso-8859-2"?>
+<section id="soft_raid">
+ <title>RAID programowy</title>
+ <para>
+ W systemie Linux istnieje możliwość tworzenia na dyskach programowych
+ macierzy <emphasis>RAID</emphasis> poziomów 0-5,6,10,01. Służy do tego
+ celu usługa <productname>mdadm</productname>. W przeciwieństwie do
+ macierzy RAID sprzętowych które wymagają specjalnego kontrolera dysków
+ (dość drogiego), macierze RAID programowe zakłada się na dyskach
+ podłączonych do zwykłego kontrolera <hardware>IDE</hardware>,
+ <hardware>SATA</hardware> lub <hardware>SCSI</hardware> i całą
+ obsługę przekazuje do odpowiedniego oprogramowania
+ (np: <productname>mdadm</productname>).
+ </para>
+
+ <para>
+ Macierze możemy zakładać zarówno na całych dyskach, jak i na
+ odpowiednio przygotowanych partycjach, przy czym zakładanie na
+ partycjach daje więcej możliwości konfiguracji. Zarówno korzystając
+ z całych dysków jak i partycji należy pamiętać o tym że najmniejsza
+ partycja lub dysk decyduje o wielkości zakładanej macierzy (miejsce
+ ponad jest tracone), dlatego też należy raczej korzystać z takich
+ samych rozmiarów dysków lub partycji.
+ </para>
+
+ <para>
+ Poniżej zamiesczono listę i opis dostępnych metod rodzajów macierzy dla
+ <productname>mdadm</productname>, w nawiasach podano nazwy parametrów
+ odpowiadających danemu poziomowi:
+ <itemizedlist>
+ <listitem>
+ <para>
+ RAID 0 (raid0, 0, stripe) - striping czyli
+ połączenie dwóch dysków (partycji) z przeplotem danych, zwiększa
+ się wydajność w porównaniu z pojedynczym dyskiem, obniża
+ odporność na awarie dysków.
+ </para>
+ </listitem>
+ <listitem>
+ <para>
+ RAID 1 (raid1, 1, mirror) - kopie lustrzane, dyski
+ są w dwóch jednakowych kopiach w przypadku awarii
+ jednego drugi przejmuje role pierwszego, wydajność
+ tak jak pojedynczy dysk, duże bezpieczeństwo, wadą
+ duża strata pojemności (n-liczba dysków w macierzy,
+ n/2)
+ </para>
+ </listitem>
+ <listitem>
+ <para>
+ RAID 4 (raid4, 4) - dane są zapisywane na kolejnych
+ dyskach a na ostatnim zapisywane są dane parzystości,
+ zwiększone bezpieczeństwo danych przy zachowaniu
+ dużej pojemności (n-1), wydajność ograniczona
+ przez dysk parzystości.
+ </para>
+ </listitem>
+ <listitem>
+ <para>
+ RAID 5 (raid5, 5) - podobnie jak RAID 4 tyle, że
+ dane parzystości rozkładane są na wszystkie dyski dzięki
+ czemu wydajność jest wyższa niż w RAID 4.
+ </para>
+ </listitem>
+ <listitem>
+ <para>
+ RAID 6 (raid6, 6) - jest to rzadko stosowana,
+ rozbudowana macierz typu 5. Jedyną różnicą jest
+ zapisanie sum kontrolnych na dwóch urządzeniach. Dzięki
+ temu macierz może bez utraty danych przetrwać
+ awarię dwóch dysków.
+ </para>
+ </listitem>
+ <listitem>
+ <para>
+ linear - tryb liniowy czyli połączenie dwóch
+ dysków w jeden w ten sposób że koniec pierwszego
+ jest początkiem drugiego, nie zapewnia absolutnie
+ żadnego bezpieczeństwa a wręcz obniża odporność na
+ awarie dysków.
+ </para>
+ </listitem>
+ </itemizedlist>
+ </para>
+
+ <section id="soft_raid_instalacja">
+ <title>Instalacja</title>
+ <para>
+ Instalujemy następujące pakiety:
+ <screen># poldek -i mdadm</screen>
+ A jeśli zaplanowaliśmy umieszczenie głównego systemu plików
+ (/) na macierzy, musimy dodatkowo zainstalować pakiet
+ mdadm-initrd:
+
+ <screen># poldek -i mdadm-initrd</screen>
+
+ oraz możemy opcjonalnie dla dysków ATA przy korzystaniu z
+ device-mapera zainstalować dodatkowo:
+
+ <screen># poldek -i dmraid</screen>
+ </para>
+ </section>
+
+
+ <section id="soft_raid_partycje">
+ <title>Podział na partycje</title>
+ <para>
+ Zaczynamy od założenia na każdym dysku który ma wchodzić w
+ skład macierzy RAID takich samych równych partycji, 1 lub
+ kilku na każdym dysku którego chcemy użyć. na przykład: mamy
+ 4 dyski podłączone do interfejsu SATA
+<screen># fdisk /dev/sda
+Command (m for help): n
+Command action
+ l logical (5 or over)
+ p primary partition (1-4)
+p
+Selected partition (1-4)
+1</screen>
+
+ podajemy rozmiar pierwszej i tak dla każdej następnej (mogą
+ być 4 partycje primary ) po skończeniu dajemy:
+
+<screen>Command (m for help): p
+ Device Boot Start End
+/dev/sda1 1 382
+/dev/sda2 383 3326
+/dev/sda3 3327 3737
+/dev/sda4 3737 8700</screen>
+
+ zapisujemy sobie podział według cylindrów (start i end) potem
+ już wpisujemy tylko przy zakładaniu następnych partycji numer
+ 1 cylindra i ostatniego (partycje powinny być równe gdyż i tak
+ w przeciwnym razie wielkość macierzy będzie wyznaczana przez
+ najmniejszą partycję i najlepiej na) dajemy:
+
+ <screen>Command (m for help): w</screen>
+
+ następuje zapisanie tablicy partycji na dysk
+ i tak dla każdego pozostałego dysku który chcemy użyć do
+ stworzenia macierzy.
+ </para>
+ </section>
+
+ <section id="soft_raid_macierz">
+ <title>Tworzenie macierzy RAID</title>
+ <para>
+ Przystępujemy do zakładania macierzy na partycjach za pomocą
+ polecenia mdadm:
+ </para>
+ <para>
+ <emphasis>mdadm -C {$dev_RAID} --level={$rodzaj} --raid-devices={$ilość_partycji} {$lista_partycji}</emphasis>
+ </para>
+ <para>
+ <itemizedlist>
+ <listitem><para>-C, --create - utwórz nową macierz.</para></listitem>
+ <listitem><para>-l, --level - ustaw poziom RAID np: linear,
+ raid0, 0, stripe, raid1, 1, mirror, raid4, 4, raid5, 5, raid6,
+ 6; Jak możemy zauważyć niektóre opcje są synonimami.
+ Przy opcji Building pierwsze mogą być użyte: raid0, raid1, raid4, raid5.
+ </para></listitem>
+ <listitem><para>-n, --raid-devices - liczba aktywnych
+ urządzeń (dysków) w macierzy
+ </para></listitem>
+ <listitem><para>-x, --spare-devices - liczba zapasowych (eXtra)
+ urządzeń w tworzonej macierzy. Zapasowe dyski można dodawać i
+ usuwać także później.</para></listitem>
+ <listitem><para>-v --verbose - tryb "gadatliwy"</para></listitem>
+ </itemizedlist>
+ </para>
+ <para>
+ Przykłady tworzenia macierzy różnego typu:
+
+ <itemizedlist>
+ <listitem>
+ <para>
+ RAID0 na dwóch partycjach -
+ <filename>/dev/sda1</filename> i
+ <filename>/dev/sdb1</filename> jako
+ <filename>/dev/md0</filename>
+ <screen># mdadm --create --verbose /dev/md0 --level=0 --raid-devices=2 /dev/sda1 /dev/sdb1</screen>
+ </para>
+ </listitem>
+ <listitem>
+ <para>
+ RAID1 na dwóch partycjach - <filename>/dev/sdc1</filename>
+ i <filename>/dev/sdd1</filename> jako <filename>/dev/md1</filename>
+ <screen># mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sdc1 /dev/sdd1</screen>
+ </para>
+ </listitem>
+ <listitem>
+ <para>
+ RAID5 na 4 partycjach w tym jedna jako zapasowa
+ (spare), jeśli nie podasz ile ma być zapasowych
+ partycji domyślnie 1 zostanie zarezerwowana na
+ zapasową
+ <screen># mdadm --create --verbose /dev/md2 --level=5 --raid-devices=4 --spare-devices=1 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3</screen>
+ </para>
+ </listitem>
+ </itemizedlist>
+ </para>
+ <para>
+ następnie musimy dodać odpowiednie wpisy w
+ <filename>/etc/mdadm.conf</filename> np. dla utworzonego
+ wyżej RAID5 i RAID1:
+
+<screen>DEVICE /dev/sd[abcd][123]
+ARRAY /dev/md0 devices=/dev/sda1,/dev/sdb1
+ARRAY /dev/md1 devices=/dev/sdc1,/dev/sdd1
+ARRAY /dev/md2 devices=/dev/sda3,/dev/sdb3,/dev/sdc3,/dev/sdd3</screen>
+
+
+ Pierwszy wpis definiuje jakie partycje wchodzą do kolejnych macierzy,
+ kolejne zaś definiują poszczególne macierze. To samo uzyskamy stosując wedle
+ dokumentacji mdadm polecenie:
+ <screen># mdadm --detail --scan >> /etc/mdadm.conf:</screen>
+ </para>
+
+ <para>
+ Mając dwie macierze RAID0 np: <filename>/dev/md0</filename> i
+ <filename>/dev/md1</filename>, możemy utworzyć macierz RAID10
+ jako <filename>/dev/md2</filename>
+ <screen># mdadm --create --verbose /dev/md2 --level=1 --raid-devices=2 /dev/md0 /dev/md1</screen>
+ analogicznie RAID01 tworzymy mając dwie macierze RAID1
+
+ po utworzeniu macierzy postępujemy z nią dalej jak z partycją
+ czyli zakładamy system plików i odwołujemy się do niej np: jako
+ <filename>/dev/md0</filename>
+ </para>
+ </section>
+
+
+
+
+
+ <section id="soft_raid_bootloader">
+ <title>Konfiguracja bootloadera</title>
+ <para>
+ Jeśli chcemy by system startował z macierzy musimy
+ skonfigurować bootloader, w przypadku <productname>LILO</productname>
+ w <filename>/etc/lilo.conf</filename> należy podać odpowiednie
+ urządzenie dla opcji "root=" i "boot=":
+<screen>boot=/dev/md0
+ raid-extra-boot="/dev/sda,/dev/sdb"
+
+ image=/boot/vmlinuz
+ label=pld
+ root=/dev/md0
+ initrd=/boot/initrd</screen>
+ Po zmodyfikowaniu konfiguracji musimy zaktualizować bootloader
+ poleceniem <command>lilo</command>.
+ </para>
+
+ <para>
+ Jeśli używamy <productname>Grub-a</productname> wywołujemy
+ ze powłoki:
+
+<screen># grub
+grub></screen>
+
+ następnie szukamy gdzie znajdują sie pliki bootloadera,
+ <screen>grub>find /boot/grub/stage1</screen> jeśli
+ <filename>/boot</filename> jest oddzielną partycją to
+ <filename>/grub/stage1</filename> i otrzymujemy wynik, np:
+
+<screen>(hd0,0)
+(hd1,0)
+
+
+Now you want to make sure that grub gets installed into the master boot
+record of your additional raid drives so that if id0 is gone then the next
+drive has a mbr loaded with grub ready to go. Systems will automatically go
+in drive order for both ide and scsi and use the first mbr and active
+partitions it finds so you can have multiple drives that have mbr's as well
+as active partitions and it won't affect your system booting at all.
+
+So using what was shown with the find above and already knowing that hd0
+already has grub in mbr, we then run:
+
+Grub>device (hd0)/dev/sda (/dev/hda for ide)
+Grub>root (hd0,0)
+Grub>setup (hd0)</screen>
+
+ i to samo dla dysku drugiego czyli:
+
+
+<screen>Grub>device (hd1) /dev/sdb (/dev/hdb for ide)
+Grub>root (hd1,0)
+Grub>setup (hd1)
+
+Grub will then spit out all the commands it runs in the background of setup
+and will end with a successful embed command and then install command and
+end with .. succeeded on both of these commands and then Done returning to
+the grub> prompt.
+
+Notice that we made the second drive device 0. Why is that you ask?
+Because device 0 is going to be the one with mbr on the drive so passing
+these commands to grub temporarily puts the 2nd mirror drive as 0 and will
+put a bootable mbr on the drive and when you quit grub you still have the
+original mbr on sda and will still boot to it till it is missing from the
+system.
+
+You have then just succeeded in installing grub to the mbr of your other
+mirrored drive and marked the boot partition on it active as well. This
+will insure that if id0 fails that you can still boot to the os with id0
+pulled and not have to have an emergency boot floppy.</screen>
+
+ </para>
+ </section>
+
+
+ <section id="soft_raid_dodatki">
+ <title>Dodatki</title>
+ <para>
+ Uruchomienie macierzy z np: <productname>PLD Live CD</productname>
+ <screen># mdadm -A /dev/md0 /dev/hda /dev/hdb</screen>
+ </para>
+ <para>
+ Literatura:
+ <itemizedlist>
+ <listitem>
+ <para><ulink url="http://lists.us.dell.com/pipermail/linux-poweredge/2003-July/008898.html">http://lists.us.dell.com/pipermail/linux-poweredge/2003-July/008898.html</ulink></para>
+ </listitem>
+ <listitem>
+ <para><ulink url="http://www.linuxsa.org.au/mailing-list/2003-07/1270.html">http://www.linuxsa.org.au/mailing-list/2003-07/1270.html</ulink></para>
+ </listitem>
+ <listitem>
+ <para><ulink url="http://gentoo-wiki.com/HOWTO_Gentoo_Install_on_Software_RAID">http://gentoo-wiki.com/HOWTO_Gentoo_Install_on_Software_RAID</ulink></para>
+ </listitem>
+ <listitem>
+ <para><ulink url="http://gentoo-wiki.com/HOWTO_Install_Gentoo_on_an_LVM2_root_partition">http://gentoo-wiki.com/HOWTO_Install_Gentoo_on_an_LVM2_root_partition</ulink></para>
+ </listitem>
+ <listitem>
+ <para><ulink url="http://gentoo-wiki.com/HOWTO_Gentoo_Install_on_Software_RAID_mirror_and_LVM2_on_top_of_RAID">http://gentoo-wiki.com/HOWTO_Gentoo_Install_on_Software_RAID_mirror_and_LVM2_on_top_of_RAID</ulink></para>
+ </listitem>
+ </itemizedlist>
+ </para>
+ </section>
+</section>
Modified: PLD-doc/book/pl_book__master.docb
==============================================================================
--- PLD-doc/book/pl_book__master.docb (original)
+++ PLD-doc/book/pl_book__master.docb Thu Jun 16 21:40:54 2005
@@ -37,6 +37,7 @@
<!ENTITY konfiguracja_pldconf SYSTEM "pl_book__konfiguracja/pl_konfiguracja__pldconf.sec">
<!ENTITY konfiguracja_pliki_kluczowe SYSTEM "pl_book__konfiguracja/pl_konfiguracja__pliki_kluczowe.sec">
<!ENTITY konfiguracja_zmienne_srodowiskowe SYSTEM "pl_book__konfiguracja/pl_konfiguracja__zmienne_srodowiskowe.sec">
+<!ENTITY konfiguracja_soft_raid SYSTEM "pl_book__konfiguracja/pl_konfiguracja__soft_raid.sec">
<!ENTITY konfiguracja__sysconfig___console SYSTEM "pl_book__konfiguracja/sysconfig/console.sec">
<!ENTITY konfiguracja__sysconfig___internacjonalizacja SYSTEM "pl_book__konfiguracja/sysconfig/internacjonalizacja.sec">
<!ENTITY konfiguracja__sysconfig___mysz SYSTEM "pl_book__konfiguracja/sysconfig/mysz.sec">
Więcej informacji o liście dyskusyjnej pld-doc