виртуализаторам вопрос

Все, что вы хотели знать о программизме, но боялись спросить.
Ответить
Аватара пользователя
Waterbyte
Графоман
Сообщения: 47948
Зарегистрирован: 10 авг 2007, 13:43

Re: виртуализаторам вопрос

Сообщение Waterbyte »

Шэф писал(а):
Stanislav писал(а):Проще просто руками перенести эту бекапную хрень
я об етом ещё на первой странице, месач # 4
а я об этом ещё раньше, что не умею. так что отпадает.
borei
Маньяк
Сообщения: 4866
Зарегистрирован: 18 авг 2008, 14:51

Re: виртуализаторам вопрос

Сообщение borei »

Stanislav писал(а):
borei писал(а): Ну я как бы предлагал установить с нуля. Однако было сказано что де ящик сильно уж черный.
Вотер - бух, для него все боксы - черные :-)
borei писал(а): Интересен факт - какого она не взлетает.
Ну оно же тебе на чистом английском пишет - не смог найти VG, т.е. грубо говоря - sdb у тебя нет. :roll:
rescue cd видит sdb и LV на нем.
те диск-то есть.
изначальная конфигурация была только с sda и двуми партициями там - sda1 (boot), sda2 (все остальное).
конвертор нафига-то сделал sdb и запихал туда LV. Кстати вотербайт не сказал какие диски приаттачены к виртуалке со стороны vmware.
здается что два должно быть.
где-то засада с pvscan/vgscan/lvscan
хорошо бы глянуть конфигурацию /etc/lvm/lvm.conf на виртуалке.
Аватара пользователя
Waterbyte
Графоман
Сообщения: 47948
Зарегистрирован: 10 авг 2007, 13:43

Re: виртуализаторам вопрос

Сообщение Waterbyte »

borei писал(а):Кстати вотербайт не сказал какие диски приаттачены к виртуалке со стороны vmware.
здается что два должно быть.
где-то засада с pvscan/vgscan/lvscan
хорошо бы глянуть конфигурацию /etc/lvm/lvm.conf на виртуалке.
не понимаю вопроса.
borei
Маньяк
Сообщения: 4866
Зарегистрирован: 18 авг 2008, 14:51

Re: виртуализаторам вопрос

Сообщение borei »

В свойствах вирт машины в vmware (не знаю где, надо тыкаться по менюшкам) будет информация какие диски к ней относятся.
хорошо бы проверить что там.
и /etc/lvm/lvm.conf - этот файлик бы вытянуть. Можно и с физического хоста.
Аватара пользователя
Waterbyte
Графоман
Сообщения: 47948
Зарегистрирован: 10 авг 2007, 13:43

Re: виртуализаторам вопрос

Сообщение Waterbyte »

borei писал(а):В свойствах вирт машины в vmware (не знаю где, надо тыкаться по менюшкам) будет информация какие диски к ней относятся.
хорошо бы проверить что там.
переконвертю назад в 9-ю версию - покажу. в 10-й требует веб-клиента, а у меня его нету.
borei писал(а):и /etc/lvm/lvm.conf - этот файлик бы вытянуть. Можно и с физического хоста.
какой командой это можно сделать?
borei
Маньяк
Сообщения: 4866
Зарегистрирован: 18 авг 2008, 14:51

Re: виртуализаторам вопрос

Сообщение borei »

cat /etc/lvm/lvm.conf
Аватара пользователя
Waterbyte
Графоман
Сообщения: 47948
Зарегистрирован: 10 авг 2007, 13:43

Re: виртуализаторам вопрос

Сообщение Waterbyte »

borei писал(а):cat /etc/lvm/lvm.conf
там очень много, всё в экранный буфер не влезает, виден только хвост:

Код: Выделить всё

    # Use 1 for Yes; 0 for No.
    # On by default.  Think very hard before turning this off.
    archive = 1

    # Where should archived files go ?
    # Remember to back up this directory regularly!
    archive_dir = "/etc/lvm/archive"

    # What is the minimum number of archive files you wish to keep ?
    retain_min = 10

    # What is the minimum time you wish to keep an archive file for ?
    retain_days = 30
}

# Settings for the running LVM2 in shell (readline) mode.
shell {

    # Number of lines of history to store in ~/.lvm_history
    history_size = 100
}


# Miscellaneous global LVM2 settings
global {

    # The file creation mask for any files and directories created.
    # Interpreted as octal if the first digit is zero.
    umask = 077

    # Allow other users to read the files
    #umask = 022

    # Enabling test mode means that no changes to the on disk metadata
    # will be made.  Equivalent to having the -t option on every
    # command.  Defaults to off.
    test = 0

    # Default value for --units argument
    units = "h"

    # Whether or not to communicate with the kernel device-mapper.
    # Set to 0 if you want to use the tools to manipulate LVM metadata
    # without activating any logical volumes.
    # If the device-mapper kernel driver is not present in your kernel
    # setting this to 0 should suppress the error messages.
    activation = 1

    # If we can't communicate with device-mapper, should we try running
    # the LVM1 tools?
    # This option only applies to 2.4 kernels and is provided to help you
    # switch between device-mapper kernels and LVM1 kernels.
    # The LVM1 tools need to be installed with .lvm1 suffices
    # e.g. vgscan.lvm1 and they will stop working after you start using
    # the new lvm2 on-disk metadata format.
    # The default value is set when the tools are built.
    # fallback_to_lvm1 = 0

    # The default metadata format that commands should use - "lvm1" or "lvm2".
    # The command line override is -M1 or -M2.
    # Defaults to "lvm1" if compiled in, else "lvm2".
    # format = "lvm1"

    # Location of proc filesystem
    proc = "/proc"

    # Type of locking to use. Defaults to local file-based locking (1).
    # Turn locking off by setting to 0 (dangerous: risks metadata corruption
    # if LVM2 commands get run concurrently).
    # Type 2 uses the external shared library locking_library.
    # Type 3 uses built-in clustered locking.
    locking_type = 1

    # If using external locking (type 2) and initialisation fails,
    # with this set to 1 an attempt will be made to use the built-in
    # clustered locking.
    # If you are using a customised locking_library you should set this to 0.
    fallback_to_clustered_locking = 1

    # If an attempt to initialise type 2 or type 3 locking failed, perhaps
    # because cluster components such as clvmd are not running, with this set
    # to 1 an attempt will be made to use local file-based locking (type 1).
    # If this succeeds, only commands against local volume groups will proceed.
    # Volume Groups marked as clustered will be ignored.
    fallback_to_local_locking = 1

    # Local non-LV directory that holds file-based locks while commands are
    # in progress.  A directory like /tmp that may get wiped on reboot is OK.
    locking_dir = "/var/lock/lvm"

    # Other entries can go here to allow you to load shared libraries
    # e.g. if support for LVM1 metadata was compiled as a shared library use
    #   format_libraries = "liblvm2format1.so"
    # Full pathnames can be given.

    # Search this directory first for shared libraries.
    #   library_dir = "/lib"

    # The external locking library to load if locking_type is set to 2.
    #   locking_library = "liblvm2clusterlock.so"
}

activation {
    # Device used in place of missing stripes if activating incomplete volume.
    # For now, you need to set this up yourself first (e.g. with 'dmsetup')
    # For example, you could make it return I/O errors using the 'error'
    # target or make it return zeros.
    missing_stripe_filler = "/dev/ioerror"

    # How much stack (in KB) to reserve for use while devices suspended
    reserved_stack = 256

    # How much memory (in KB) to reserve for use while devices suspended
    reserved_memory = 8192

    # Nice value used while devices suspended
    process_priority = -18

    # If volume_list is defined, each LV is only activated if there is a
    # match against the list.
    #   "vgname" and "vgname/lvname" are matched exactly.
    #   "@tag" matches any tag set in the LV or VG.
    #   "@*" matches if any tag defined on the host is also set in the LV or VG
    #
    # volume_list = [ "vg1", "vg2/lvol1", "@tag1", "@*" ]

    # Size (in KB) of each copy operation when mirroring
    mirror_region_size = 512

    # 'mirror_image_fault_policy' and 'mirror_log_fault_policy' define
    # how a device failure affecting a mirror is handled.
    # A mirror is composed of mirror images (copies) and a log.
    # A disk log ensures that a mirror does not need to be re-synced
    # (all copies made the same) every time a machine reboots or crashes.
    #
    # In the event of a failure, the specified policy will be used to
    # determine what happens:
    #
    # "remove" - Simply remove the faulty device and run without it.  If
    #            the log device fails, the mirror would convert to using
    #            an in-memory log.  This means the mirror will not
    #            remember its sync status across crashes/reboots and
    #            the entire mirror will be re-synced.  If a
    #            mirror image fails, the mirror will convert to a
    #            non-mirrored device if there is only one remaining good
    #            copy.
    #
    # "allocate" - Remove the faulty device and try to allocate space on
    #            a new device to be a replacement for the failed device.
    #            Using this policy for the log is fast and maintains the
    #            ability to remember sync state through crashes/reboots.
    #            Using this policy for a mirror device is slow, as it
    #            requires the mirror to resynchronize the devices, but it
    #            will preserve the mirror characteristic of the device.
    #            This policy acts like "remove" if no suitable device and
    #            space can be allocated for the replacement.
    #            Currently this is not implemented properly and behaves
    #            similarly to:
    #
    # "allocate_anywhere" - Operates like "allocate", but it does not
    #            require that the new space being allocated be on a
    #            device is not part of the mirror.  For a log device
    #            failure, this could mean that the log is allocated on
    #            the same device as a mirror device.  For a mirror
    #            device, this could mean that the mirror device is
    #            allocated on the same device as another mirror device.
    #            This policy would not be wise for mirror devices
    #            because it would break the redundant nature of the
    #            mirror.  This policy acts like "remove" if no suitable
    #            device and space can be allocated for the replacement.

    mirror_log_fault_policy = "allocate"
    mirror_device_fault_policy = "remove"
}


####################
# Advanced section #
####################

# Metadata settings
#
# metadata {
    # Default number of copies of metadata to hold on each PV.  0, 1 or 2.
    # You might want to override it from the command line with 0
    # when running pvcreate on new PVs which are to be added to large VGs.

    # pvmetadatacopies = 1

    # Approximate default size of on-disk metadata areas in sectors.
    # You should increase this if you have large volume groups or
    # you want to retain a large on-disk history of your metadata changes.

    # pvmetadatasize = 255

    # List of directories holding live copies of text format metadata.
    # These directories must not be on logical volumes!
    # It's possible to use LVM2 with a couple of directories here,
    # preferably on different (non-LV) filesystems, and with no other
    # on-disk metadata (pvmetadatacopies = 0). Or this can be in
    # addition to on-disk metadata areas.
    # The feature was originally added to simplify testing and is not
    # supported under low memory situations - the machine could lock up.
    #
    # Never edit any files in these directories by hand unless you
    # you are absolutely sure you know what you are doing! Use
    # the supplied toolset to make changes (e.g. vgcfgrestore).

    # dirs = [ "/etc/lvm/metadata", "/mnt/disk2/lvm/metadata2" ]
#}

# Event daemon
#
# dmeventd {
    # mirror_library is the library used when monitoring a mirror device.
    #
    # "libdevmapper-event-lvm2mirror.so" attempts to recover from failures.
    # It removes failed devices from a volume group and reconfigures a
    # mirror as necessary.
    #
    # mirror_library = "libdevmapper-event-lvm2mirror.so"
#}

[root@western ~]#
Аватара пользователя
Stanislav
Mr. Minority Report
Сообщения: 43462
Зарегистрирован: 19 окт 2005, 16:33
Откуда: Moscow - Richmond - New Wesт - Burnaby

Re: виртуализаторам вопрос

Сообщение Stanislav »

borei писал(а): rescue cd видит sdb и LV на нем.
те диск-то есть.

Конвертер использует свой хелпер для создания дисков (и LVM), а потом копирует туда всю хрень. (см. скриншот конвертера)
т.е. если ты берешь рескью - он видит LVM, а если взять FC rescue той же версии, что на боксе - он эту LVM тоже не увидит.
borei писал(а): изначальная конфигурация была только с sda и двуми партициями там - sda1 (boot), sda2 (все остальное).
конвертор нафига-то сделал sdb и запихал туда LV. Кстати вотербайт не сказал какие диски приаттачены к виртуалке со стороны vmware.
здается что два должно быть.
Конвертор так работает :-) Пару раз конвертировал - мне не удалось его заставить конвертировать в один диск - и действительно болтается два диска на виртуалке.
borei
Маньяк
Сообщения: 4866
Зарегистрирован: 18 авг 2008, 14:51

Re: виртуализаторам вопрос

Сообщение borei »

хрень какая-то.
имеем виртуальную машину с двуми дисками, второй диск для машины является сюрпризом, но на нем корневая файловая система.
машина загружается, те с первым диском вродь все ок. корневая сидит на LVM. но сканирование дисков ни к чему не приводит - sdb не видится в упор. Вопрос - почему ??? Какие на то основания что линукс не видит диск ???
Ответ - а как этот самый sdb прикручивается к виртуалке, какие настройки в биосе виртуалки ?
Если скормить sdb через драйвер о котором виртуалка ни сном ни духом - тогда да она его не увидит.
Рескью сд ведь видит все нормально. Или он поновей и в него напихано всего дофига. Какая версия ядра на рескью диске ?

Дурацкая идея - взять ядро и инитрамфс с рескью диска и запихать его в /boot виртуалки, и подправить grub.conf.

съедит что-нибудь другое, сеть например, но попробывать стоит.

это уже мысли в слух.
Аватара пользователя
Waterbyte
Графоман
Сообщения: 47948
Зарегистрирован: 10 авг 2007, 13:43

Re: виртуализаторам вопрос

Сообщение Waterbyte »

borei писал(а):какие диски приаттачены к виртуалке со стороны vmware.
здается что два должно быть.
два и есть:
Изображение

Изображение
borei
Маньяк
Сообщения: 4866
Зарегистрирован: 18 авг 2008, 14:51

Re: виртуализаторам вопрос

Сообщение borei »

попробуй вот это

For ESX use the VirtualCenter Client
- Shutdown the VM
- Right click on the VM and select Edit Settings from the context menu
- Select SCSI Controller 0 and click the Change Type button
- Select the BusLogic radio button and click OK
- Click OK to exit the Virtual Machine Properties
- Power on the VM
- Answer the "change the adapter type for scsi0:0 disk" by selecting the Yes radio button and clicking OK
borei
Маньяк
Сообщения: 4866
Зарегистрирован: 18 авг 2008, 14:51

Re: виртуализаторам вопрос

Сообщение borei »

для обоих дисков
Аватара пользователя
Waterbyte
Графоман
Сообщения: 47948
Зарегистрирован: 10 авг 2007, 13:43

Re: виртуализаторам вопрос

Сообщение Waterbyte »

borei писал(а):- Answer the "change the adapter type for scsi0:0 disk" by selecting the Yes radio button and clicking OK
никто у меня ничего такого не спрашивал. оно там само без спроса всё подменило, судя по мелькающим надписям на консоли. да, а результат - тот же.
borei
Маньяк
Сообщения: 4866
Зарегистрирован: 18 авг 2008, 14:51

Re: виртуализаторам вопрос

Сообщение borei »

если не влом - попробуй вот эту хрень
http://theether.net/kb/100038

Я дернул только последний пункт, надо походу пройти весь путь :-)
Аватара пользователя
Waterbyte
Графоман
Сообщения: 47948
Зарегистрирован: 10 авг 2007, 13:43

Re: виртуализаторам вопрос

Сообщение Waterbyte »

так, отбой тревоги. скачал рескю-сиди для седьмой федоры, а не для какого-то левого редхата, что был у меня под рукой, загрузился с него, он сам нашёл всё, что нужно, и после этого последовательность команд
chroot /mnt/sysimage
mkinitrd xxx.img xxx
exit
reboot
подняла мою сконвертированную виртуалку на раз.
всем спасибо за ценные советы.
Ответить