vserver, vpoldek i odtworzenie cache poldka

Jacek Osiecki josiecki w silvercube.pl
Śro, 20 Sty 2016, 11:51:52 CET


Witam,

Korzystałem dotąd z przepisu na przenoszenie/przemianowanie vservera zgodnie z tym tutaj:

https://www.pld-linux.org/docs/vserver <https://www.pld-linux.org/docs/vserver>

Wszystko super, jednak w końcu coś przestało działać:

root w juliett ~> vpoldek  ko-python
Wczytywanie [pndir]th...
Wczytywanie [pndir]th...
Przeczytano 25117 pakietów
Usunięto 15 zdublowanych pakietów z listy dostępnych
błąd: nie można otworzyć indeksu Packages(0): Nie ma takiego pliku ani katalogu(2)
	DB: Berkeley DB 5.2.42: (February 29, 2012)
błąd: //vservers/ko-python/.rpmdb: nie można otworzyć rpmowej bazy

Porównując co się da, doszedłem do tego że problem pojawia się tutaj:

W katalogu /etc/vservers/.defaults/cachebase/poldek dla każdej wirtualki mamy pliki typu:

packages.rpmdbcache.vservers.ko-www..rpmdb.gz
packages.rpmdbcache.vservers.ko-www..rpmdb.gz.md5
packages.rpmdbcache.vservers.ko-www..rpmdb.md

oraz katalog:

_vservers.ko-www..rpmdb

Po skopiowaniu plików ko-www do ko-python i stworzeniu katalogu _vservers.ko-python..rpmdb

vpoldek ruszył. A raczej „ruszył”, bo widać że pakiety ma z tej drugiej wirtualki:

root w juliett ~> vpoldek ko-python
[ciach]
poldek:/all-avail> ls -I ImageMagick
ImageMagick-6.9.0.10-6.x86_64
1 pakiet

Tymczasem tak naprawdę:
root w juliett ~> vrpm ko-python -- -qa|grep ImageMagick-[0-9]
ImageMagick-6.8.7.6-2.x86_64

Co mogę zrobić żeby poldek zobaczył prawdziwą listę pakietów? Bo ta jak najbardziej jest, w /vservers/.pkg/ko-python/rpm/state/

Druga sprawa, wypadałoby poprawić komendę do kopiowania/przenoszenia maszyny na https://www.pld-linux.org/docs/vserver <https://www.pld-linux.org/docs/vserver>

# tar --exclude '/vservers/test/var/lib/mysql/*' -cSf /www/vs-test.tar \
/{etc/vservers,vservers,vservers/.pkg}/test /etc/vservers/.defaults/cachebase/poldek/*test*

Pozdrawiam,
-- 
Jacek Osiecki
josiecki w silvercube.pl

Silvercube s.c.
ul. Makuszynskiego 4
31-752 Kraków
+48 (12) 684 21 00



Więcej informacji o liście pld-users-pl