Здравейте,
покрай една лекция на Мариан Маринов свързана с курса по Линукс администрация в Телерик и твърдението му, че софтуерен RAID и LVM много понижават performance стигах до извода, че съм направил нещо подобно вкъщи... седнах малко, поразмислих и се сетих, че LVM също поддържа mirroring на logical volume (при AIX това може да се прави с цяла volume group) ... и реших да тествам.
Инсталирах си един CEntOS 6.4, добавих му 2 диска по 16GB и на първия направих статични дялове без LVM, за boot и /, след това остана един дял 10GB който направих LVM physical device и на него създадох една LVM volume group..
Направих и един partition на 2-рия диск, направих го LVM physical device и реално групата се намира на двата диска. Така пуснах инсталатора - щото аз не видях от къде може до като инсталираш CentoS да си направиш mirror-нат logical volume.
Инсталирах OS-a и създадох дяла, всичко беше окей, реших да откача единия диск (не системния) и да пробвам да съживя логическия дял.. уви без успех.
Вероятно имам генерална грешка с концепцията, но затова съм тук :0 да се уча.
[root@centos ~]# lvchange -a y /dev/vg_centos/testlv
Couldn't find device with uuid Wf1X3v-h1u5-2Wgt-QKs8-ZBNs-w4aY-N7Fo2Y.
Refusing activation of partial LV testlv. Use --partial to override.
[root@centos ~]# lvchange -a y --partial /dev/vg_centos/testlv
PARTIAL MODE. Incomplete logical volumes will be processed.
Couldn't find device with uuid Wf1X3v-h1u5-2Wgt-QKs8-ZBNs-w4aY-N7Fo2Y.
^C
^C^C
^C^C
.... няма спиране :-)
А в sysloga:
Aug 2 09:43:04 centos kernel: device-mapper: raid1: Write error during recovery (error = 0x1)
Aug 2 09:43:04 centos kernel: device-mapper: raid1: Write error during recovery (error = 0x1)
Aug 2 09:45:12 centos kernel: INFO: task lvchange:1274 blocked for more than 120 seconds.
Aug 2 09:45:12 centos kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Aug 2 09:45:12 centos kernel: lvchange D 0000000000000000 0 1274 1253 0x00000080
Aug 2 09:45:12 centos kernel: ffff880037cb1b68 0000000000000086 ffff880037cb1b88 ffffffffa000a01a
Aug 2 09:45:12 centos kernel: ffff880037cb1ad8 ffffffffa0009bf0 ffffffffa0009b60 00000000810a1aa9
Aug 2 09:45:12 centos kernel: ffff880037ae2638 ffff880037cb1fd8 000000000000fb88 ffff880037ae2638
Aug 2 09:45:12 centos kernel: Call Trace:
Aug 2 09:45:12 centos kernel: [<ffffffffa000a01a>] ? dispatch_io+0x28a/0x2c0 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffffa0009bf0>] ? vm_get_page+0x0/0x70 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffffa0009b60>] ? vm_next_page+0x0/0x30 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffff810a1aa9>] ? ktime_get_ts+0xa9/0xe0
Aug 2 09:45:12 centos kernel: [<ffffffff8150de73>] io_schedule+0x73/0xc0
Aug 2 09:45:12 centos kernel: [<ffffffffa000a0e5>] sync_io+0x95/0x110 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffffa000a387>] dm_io+0x1b7/0x1c0 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffffa0009bf0>] ? vm_get_page+0x0/0x70 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffffa0009b60>] ? vm_next_page+0x0/0x30 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffffa001fa50>] disk_resume+0x190/0x310 [dm_log]
Aug 2 09:45:12 centos kernel: [<ffffffffa002d456>] mirror_resume+0x36/0x60 [dm_mirror]
Aug 2 09:45:12 centos kernel: [<ffffffffa00041f2>] dm_table_resume_targets+0x82/0xa0 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffffa000260d>] dm_resume+0x9d/0xf0 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffffa0008c3c>] dev_suspend+0x1bc/0x250 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffffa00099d4>] ctl_ioctl+0x1b4/0x270 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffffa0008a80>] ? dev_suspend+0x0/0x250 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffffa0009aa3>] dm_ctl_ioctl+0x13/0x20 [dm_mod]
Aug 2 09:45:12 centos kernel: [<ffffffff81194ed2>] vfs_ioctl+0x22/0xa0
Aug 2 09:45:12 centos kernel: [<ffffffff81195074>] do_vfs_ioctl+0x84/0x580
Aug 2 09:45:12 centos kernel: [<ffffffff811955f1>] sys_ioctl+0x81/0xa0
Aug 2 09:45:12 centos kernel: [<ffffffff810dc565>] ? __audit_syscall_exit+0x265/0x290