software raid 1 + LVM

Przemysław Backiel przemyslaw.backiel w backiel.com.pl
Czw, 8 Mar 2007, 15:45:12 CET


Grzegorz Saracki napisał(a):
> Dnia 2007.03.07 21:37:11 +0000, Przemysław Backiel napisał(a):
>> Andrzej Zawadzki napisał(a):
>>> Grzegorz Saracki wrote:
>>>> Witam
>>>>
>>>> Wiec staram się uruchomić konfigurację w której jest lvm uruchomiony na
>>>> software raid 1, katalog /boot jest poza lvm na osobnej macierzy
>>>>
>>>> Doszedłem do momentu w którym przy starcie dostaje cos w tym stylu
>>>> (przepisywane na szybko, mogą być literówki itp):
>>> A ja mam zdjęcie ;-)
>>>> lvm vgchange --ignore -ay mojvg
>>>> + LVM_SYSTEM_DIR=/tmp lvm lvdisplay --ignorelockingfailure -c /dev/mojvg/root
>>>> + majmin = Warning. Locking disabled. Be careful! This could corrupt your data
>>>> + majmin = Warning. Locking disabled. Be careful! This could corrupt your data
>>>> + majmin = Warning. Locking disabled. Be careful! This could corrupt your data
>>>> + major = Warning.
>>>> + minor = Locking disabled. Be careful! This could corrupt your data
>>>> /linuxrc:61 Syntaxerror:256 * Warning. * Locking disabled. Be careful! This could corrupt your data
>>>> romfs: unable to read superblock
>>>> ReiserFS: md_d0: Warning: sh-2006: read_super_block bread failed (dev mc_d0 block2,size4096)
>>>> Kernel Panic
>>>>
>>>> Oczywiście wolumin /dev/mojvg/root montuje się bezbłędnie po uruchomieniu z zewnętrznego nośnika. 
>>>>
>>>> Proszę o pomoc w interpretacji w/w ;)
>>>> Kilka razy pojawia się komunikat "Warning. Locking disabled. ..."
>>>> Czy to jest powodem panica, jeżeli tak to czemu znajduje się ta opcja ----ignorelockingfailure. 
>>>> Będę wdzięczny za wszelkie sugestie jak można to poprawić.
>>> Sugestii brak (no może downgrade mdadm a w zasadzie wersji initrd)
>>> Podobno pomaga kopia z rescuecd. Powodem tych błędów jest (chyba) brak
>>> startu md na której
>>> masz lvm.
>>> Generalnie mam to samo i jutro chcę to pomęczyć - (ten serwer tak wolno
>>> wstaje, że mnie coś strzela
>>> jak mam to badać...)
>>> BTW. Mam dwie identyczne maszyny: jedna wstaje, druga instalowana 2-3
>>> tygodnie później już nie ;-)
>>>
>> yeah,
>>
>> mam tak samo :)
> 
> Masz też lvm na raid 1 ?
> 
nie, miałem boje z raid1 :)

>> 4 tygodnie temu - RAID wstaje :)
>> 10 dni temu - podmiana mdadm z rescue pomaga tylko :)
> 
> Chodzi ci o podmianę binarki mdadm z rpm na wersje która znajduje się na rescuecd ?
tak jest
podmiana mdassemble i wygenerowanie initrd ponownie
i smiga ok...

> Testowałeś to rozwiązanie z rescue z 2006-06-05 ?
nie, z tym z lutego 07

zobacz czy po mdassemble nie masz mdstop czy jakoś tak..
>  
>> babol mam taki sam jak ty, więc obstawiam wine mdadm :)
>>
> Ja intuicyjnie stawiałem na cos z lvm, bo przecież najpierw jest składana macierz a dopiero 
> później z niej powstają woluminy lvm. Wydaje się że polecenie 
> lvm vgchange --ignore -ay mojvg
> wykonuje się bez błędu, więc /dev/md1 powinien już istnieć.
ja lvm nie znam...


-- 
Z powazaniem
Przemyslaw Backiel


Więcej informacji o liście dyskusyjnej pld-users-pl