software raid 1 + LVM

Grzegorz Saracki sarak w gisz.net.pl
Czw, 8 Mar 2007, 09:22:19 CET


Dnia 2007.03.07 21:37:11 +0000, Przemysław Backiel napisał(a):
> Andrzej Zawadzki napisał(a):
> > Grzegorz Saracki wrote:
> >> Witam
> >>
> >> Wiec staram się uruchomić konfigurację w której jest lvm uruchomiony na
> >> software raid 1, katalog /boot jest poza lvm na osobnej macierzy
> >>
> >> Doszedłem do momentu w którym przy starcie dostaje cos w tym stylu
> >> (przepisywane na szybko, mogą być literówki itp):
> > A ja mam zdjęcie ;-)
> >> lvm vgchange --ignore -ay mojvg
> >> + LVM_SYSTEM_DIR=/tmp lvm lvdisplay --ignorelockingfailure -c /dev/mojvg/root
> >> + majmin = Warning. Locking disabled. Be careful! This could corrupt your data
> >> + majmin = Warning. Locking disabled. Be careful! This could corrupt your data
> >> + majmin = Warning. Locking disabled. Be careful! This could corrupt your data
> >> + major = Warning.
> >> + minor = Locking disabled. Be careful! This could corrupt your data
> >> /linuxrc:61 Syntaxerror:256 * Warning. * Locking disabled. Be careful! This could corrupt your data
> >> romfs: unable to read superblock
> >> ReiserFS: md_d0: Warning: sh-2006: read_super_block bread failed (dev mc_d0 block2,size4096)
> >> Kernel Panic
> >>
> >> Oczywiście wolumin /dev/mojvg/root montuje się bezbłędnie po uruchomieniu z zewnętrznego nośnika. 
> >>
> >> Proszę o pomoc w interpretacji w/w ;)
> >> Kilka razy pojawia się komunikat "Warning. Locking disabled. ..."
> >> Czy to jest powodem panica, jeżeli tak to czemu znajduje się ta opcja ----ignorelockingfailure. 
> >> Będę wdzięczny za wszelkie sugestie jak można to poprawić.
> > Sugestii brak (no może downgrade mdadm a w zasadzie wersji initrd)
> > Podobno pomaga kopia z rescuecd. Powodem tych błędów jest (chyba) brak
> > startu md na której
> > masz lvm.
> > Generalnie mam to samo i jutro chcę to pomęczyć - (ten serwer tak wolno
> > wstaje, że mnie coś strzela
> > jak mam to badać...)
> > BTW. Mam dwie identyczne maszyny: jedna wstaje, druga instalowana 2-3
> > tygodnie później już nie ;-)
> > 
> yeah,
> 
> mam tak samo :)

Masz też lvm na raid 1 ?

> 4 tygodnie temu - RAID wstaje :)
> 10 dni temu - podmiana mdadm z rescue pomaga tylko :)

Chodzi ci o podmianę binarki mdadm z rpm na wersje która znajduje się na rescuecd ?
Testowałeś to rozwiązanie z rescue z 2006-06-05 ?
 
> babol mam taki sam jak ty, więc obstawiam wine mdadm :)
> 
Ja intuicyjnie stawiałem na cos z lvm, bo przecież najpierw jest składana macierz a dopiero 
później z niej powstają woluminy lvm. Wydaje się że polecenie 
lvm vgchange --ignore -ay mojvg
wykonuje się bez błędu, więc /dev/md1 powinien już istnieć.

pozdrawiam
-- 
+ Grzegorz Saracki aka Sarak
+ mail: sarak [at] gisz.net.pl   
+ irc: sarak(IRCNet), sarak(irc.gisz.net.pl)
+ jabber: sarak [at] chrome.pl, gg: 134390 


Więcej informacji o liście dyskusyjnej pld-users-pl