kaskadowy start/stop klastra dyskowego.
Paweł Sikora
pluto w agmk.net
Czw, 22 Lip 2010, 20:54:30 CEST
On Sunday 11 July 2010 21:21:50 Łukasz Jagiełło wrote:
> W dniu 11 lipca 2010 18:00 użytkownik Paweł Sikora <pluto w agmk.net> napisał:
> >> R10-over-eth.
> >> ^ ^ ^ ^ ^ ^
> >> master: | | | | | |
> >> -------------------------------------------------------
> >> +--|----|--+ +--|----|--+ +--|----|--+ AoE (ata-over-eth)
> >> slaves: | hd0 hd1 | | hd0 hd1 | | hd0 hd1 |
> >> +----------+ +----------+ +----------+
> >
> > i wszystko prawie fajnie, tylko jak teraz taki softwarowy raid10
> > podpiac na stacjach klienckich zeby nie stracic zbytnio na szybkosci?
> > ktos moze praktycznie eksperymentowal?
>
> Nie wiem jak twoje rozwiązanie, ale od pewnego czasu poszukuje
> wydajnego rozwiązania pod NFS(lub coś na ten gust) które będzie
> skalowalne i odpowiednio odporne na awarie. Dodatkowo planowałem
> zrobić to nie wydając setek tysięcy złotych na macierz. Po testach
> aktualnie najlepiej wygląda Gluster Storage Platform
> (http://www.gluster.com/), całkiem ładnie to działa i nie ma dużego
> impaktu na wydajność nawet jeżeli łącze się z użyciem ich natywnego
> protokołu po fuse. No i można robić RAID pomiędzy maszynami. RAID10
> nie zrobisz, ale może wystarczy kilka RAID1 z różnych maszyn.
ja zrobilem tak:
fefnascie maszyn (kazda z 2 dyskami) eksportuje dyski przez AoE
do gigowego switacha 3com. jeden master (poki co na sieciowce z plyty,
a docelowo na 2/4 kanalowym intelu) spina w mdadm/raid10 dyski AoE tak,
aby mirrory powstawaly miedzy sasiednimi komputerami (przez takie
spiecie w razie strzalu napiecia z zasilacza padaja tylko fragmenty
dwoch mirrorow i macierz-10 dziala nadal). w optymistycznym padzie
moze zginac (n/2)-1 komputerow (co drugi sasiad) i calosc bedzie dzialac
jako stripe na zdegradowanych mirrorach. w pesymistycznym padzie gina
dwa sasiadujace kompy, ze stripe-a wypada caly mirror, macierz robi halt,
ocfs2 sie ladnie rozlacza.
fault tolerance przyzwoity, koszty niskie, jak na plac dla developerow
mi wystarczay :)
Więcej informacji o liście dyskusyjnej pld-users-pl