LVMを語らせていただけませんか? at LINUX
[2ch|▼Menu]
[前50を表示]
150:135
04/05/06 23:59 zmQQH789
■PVを跨がない場合のリカバリ

破壊したhda6と同サイズ・同パーティションタイプ(LinuxLVM:8e)のhda7を使ってリカバリ

# pvcreate /dev/hda7
pvcreate -- physical volume "/dev/hda7" successfully created

○hda6のメタデータをhda7にリストアする。
# vgcfgrestore -n testvg -o /dev/hda6 /dev/hda7
vgcfgrestore -- INFO: using backup file "/etc/lvmconf/testvg.conf"
vgcfgrestore -- VGDA for "testvg" successfully restored to physical volume "/dev/hda7"

# /sbin/vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- found inactive volume group "testvg"
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group

# /sbin/vgchange -ay
vgchange -- volume group "testvg" successfully activated

# mount /dev/testvg/hda5lv /mnt/test/

全ファイル生還・md5一致

151:135
04/05/07 00:04 moBi7VqE
■PVを跨った場合の仕込み&リカバリ

PV,VGの作成は同じなので省略
以下のようなLVを使用してテスト。hda5/hda6から512Mずつ使用
# lvdisplay -v /dev/testvg/mixlv の結果(一部)

--- Distribution of logical volume on 2 physical volumes ---
PV Name         PE on PV   reads   writes
/dev/hda5        16      0     2
/dev/hda6        16      0     0

hda6の破壊方法とその後のリカバリ方法は上と同じなので省略
mount前にreiserfsck --checkすると、"--rebuild-treeを実行しろ"と言われるの実行

# reiserfsck --rebuild-tree /dev/testvg/mixlv
# mount -o ro /dev/testvg/mixlv /mnt/test

結果
全175ファイル
復旧 96 ( うち33ファイルはlost+foundに数字のファイル名で救出)
破壊 79 ( 消失17 + md5不一致62)

ファイルはmp3でサイズはまちまち。
計算してないけどファイルサイズ的には半分だと思う

152:135
04/05/07 00:14 moBi7VqE
★PVを跨がない場合・仕込み(LVM2)
Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1)
device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19)

(1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成

(2)LV & ファイルシステム作成(hda5のみ使用)
# lvcreate -L1g -n hda5lv testvg /dev/hda5
# mkfs.reiserfs /dev/testvg/hda5lv

(3)他のファイルシステムから適当にコピー

(4)umount→testvg停止後、ddでhda6を0で埋める
# vgchange -an testvg
# dd if=/dev/zero of=/dev/hda6

(5)testvgをactiveに変更しようとするが、当然エラー
# vgchange -ay testvg
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find all physical volumes for volume group testvg.
Unable to find volume group "testvg"

153:135
04/05/07 00:17 moBi7VqE
★方法(a):代替PVを用意してvgcfgrestoreでメタデータをリストアする。(LVM2)

(a)-(1)破壊したhda6と同サイズのhda7でPVを作成。この際、hda6で使用していたUUIDを指定する。
# pvcreate --uuid MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa /dev/hda7
No physical volume label read from /dev/hda7
Physical volume "/dev/hda7" successfully created

(a)-(2)testvgの情報をリストアする。
# vgcfgrestore -f /etc/lvm/backup/testvg testvg
Restored volume group testvg

(a)-(3)testvgをactiveにする。
# vgchange -ay testvg
1 logical volume(s) in volume group "testvg" now active

(a)-(4)mountする

☆全ファイル生還。md5一致

154:135
04/05/07 00:18 moBi7VqE
★方法(b):生きてるPV(hda5)だけでtestvgをactiveにする。(LVM2)

(b)-(1)vgchangeに"-P"オプション(Partial mode)を追加して実行
# vgchange -ay -P testvg
Partial mode. Incomplete volume groups will be activated read-only.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
1 logical volume(s) in volume group "testvg" now active

(b)-(2)mountする
# mount /dev/testvg/hda5lv /mnt/test
mount: block device /dev/testvg/hda5lv is write-protected, mounting read-only

☆全ファイル生還。md5一致

155:135
04/05/07 00:23 moBi7VqE
★PVを跨いだ場合(LVM2)

PV,VG作成方法は同じなので省略
LV作成では両方のPVから512Mずつ使用
# lvdisplay -v --maps /dev/testvg/mixlvの結果(一部)
--- Segments ---
Logical extent 0 to 127:
Type linear
Physical volume /dev/hda5
Physical extents 0 to 127

Logical extent 128 to 255:
Type linear
Physical volume /dev/hda6
Physical extents 0 to 127

破壊の方法はPVを跨がない場合と同じ(hda6を破壊)
リカバリ方法は(a)の代替PVを使う方法しか使えない模様
(b)の方法だと(テストした環境では)
device-mapper ioctl cmd 9 failed: Invalid argument
と表示される。
結果:全176ファイル => 生還83 / 消失12 / md5不一致 81

あと、(a),(b)いずれの場合もvgchange一発で/dev以下にファイルができない現象が
頻発したけど、もう1回すると問題なくできた。

156:135
04/05/07 00:31 moBi7VqE
あと、LVM2限定で結果だけ。
ReiserFS+hda5破壊 = 12ファイル生還(ただしlost+foundに数字のファイル名)
XFS+hda5破壊 = 65ファイル生還
XFS+hda6破壊 = 66ファイル生還
(ファイル数はいずれも176でサイズバラバラのmp3)

おしまい。

157:login:Penguin
04/05/07 20:23 JJMbJYW4
SoftRAID(RAID1)上にLVを切ろうとしています。
切ること自体はできたのですが、起動時に自動検出してくれません。
起動時のメッセージは
Starting up RAID device: md0(skipped) md1(skipped)
です。
起動後、raidstartとvgscanをやれば、有効になるんですが・・・

fstabで、LVをマウントするようにしています。
OSはRedHat9です。

何かわかりますかねぇ

158:login:Penguin
04/05/07 23:28 saczY0qF
initrd作りなおせオマンコ

159:login:Penguin
04/05/08 11:16 J2fTDgwN
157です。
mkinitrdやってみましたが、結果ダメです。
手順は以下のとおり。
1./etc/modules.confに以下の行追加
alias md-personality-3 raid1
alias block-major-58 lvm-mod
alias block-major-109 lvm-mod

2.mkinitrd
mkinitrd -v -f /boot/initrd_raid-2.4.22-1.2188.nptl.img \
$(uname -r)

3.grub.confをeditし、initrd_raidをロードするようにする

4.再起動

dmesgでは以下のようなメッセージが出ており、うまくいっているように
見えます。
RAMDISK: Compressed image found at block 0
Freeing initrd memory: 168k freed
VFS: Mounted root (ext2 filesystem).
Journalled Block Device driver loaded
md: raid1 personality registered as nr 3
kjournald starting.  Commit interval 5 seconds
EXT3-fs: mounted filesystem with ordered data mode.

ちなみに上はfedoraでやってみました。
うーん、何がおかしいんでしょう。

160:login:Penguin
04/05/08 13:33 9BQlLz7P
raidstartしてからmkinitrdしたマンコか?
mkinitrdは/proc/mdstatを見てオマンコよ。
だから/etc/modules.confを編集する必要はないマンコ。

161:157
04/05/08 14:45 pmAGqXMP
すばらしい!うまくいったです。オマンコさん、どうもありがとう。

もうLVMの話じゃないですが、ついでに教えてください。
ひょっとして、mdxデバイスを追加するたびに、mkinitrdしなきゃダメですか?
#まあやってみりゃいいんですが。

162:login:Penguin
04/05/08 16:22 9BQlLz7P
>>161
悲しい事に追加や変更のたびにやらにゃいかマンコ。っていいかげんこの語尾やめたいw
カーネルを再構築してRAID関係をモジュールにしなければ自動認識になるよ。
FC2でどうなってるのかは未確認。

163:login:Penguin
04/05/08 21:10 5z7Jk+RY
157っす
>>162
うーん、つかえねえToT
カーネル再構築は、やったことないし、up2dateが使えなくなりそうなので、やめときます。
まあとりあえず現状で満足することにします。
どうもありがとう。

164:login:Penguin
04/05/16 14:46 VitpnX4s
lvm上に作ったファイルシステムって
WindowsのExplore2fsとかから見えるのかな。

165:login:Penguin
04/05/16 15:02 aVnYK0wB
見エマセぬ

166:login:Penguin
04/05/18 20:07 aktDVrQJ
>>148-156
非常に参考になったわ。
こんなにLVMの事を検証している人を見たのは貴殿が初めてだわ。
これはLVM HOWTOに載せて欲しいぐらいの内容だね。

167:login:Penguin
04/05/28 23:19 PYZd4d/f
pv→HDD3本でひとつのvgを組んでます。
ここから生成されたlvはreiserfsでフォーマットされています。
で、最近 fsck.reiserfsをすると
ディスクにハード障害があります云々いわれます。

この場合、
1.やっぱりHDDに物理的な障害がある。
2.vgになんかの障害がある。

1にせよ2にせよ、fsck以外の修復コマンドとかって存在するのでしょうか??

もしあれば、誰か助けてください。。。。
いま、めちゃブルーです。


168:login:Penguin
04/05/29 03:10 Xtz3Va5J
>>167

3.ファイルシステムが壊れているとか

reiserfsckはデフォルトではcheckだけじゃないの?
--rebuild-treeとか付けんと。>>151みたいに
もちろん、やる前にはバックアップとってな。

HDDの物理的障害だったらdmesgになんか出てると思うけど

>>147
VGじゃなくてLVでしょ。
Unix Magazine 2004年6月号で2.5TBのLV作ってるよ

169:167
04/05/30 23:48 OnGdtw98
>>168
回答ありがとうございます。

いろいろ試してみたのですが、拉致があかなかったため、とうとう
rebuild-treeしたところ、途中でrebuild-treeがAbortしてしました。

bread: Cannot read the block (31329): (Input/output error).
Aborted

ただ、以下のメッセージが出ていることから/dev/hddの物理障害は間違いないっぽいです。。。

hdd: dma_intr: error=0x40 { UncorrectableError }, LBAsect=251175, high=0, low=251175, sector=251175
end_request: I/O error, dev hdd, sector 251175
Buffer I/O error on device dm-0, logical block 31341

そこで、badblocksコマンドにてlv(/dev/lvm/hogehoge)のbadblockを書き出して、
badblocks -o out.txt /dev/lvm/hogehoge

再びreiserfsckをかけました。
reiserfsck --badblocks out.txt --rebuild-tree /dev/lvm/hogehoge

が、上記と同様にAbortされてしまいます。

reiserfsck --rebuild-treeは、不良ブロックがあるために、強制終了されているように見えます。


reiserfsck --rebuild-treeを最後まで終了させるよい方法はないでしょうか??


170:login:Penguin
04/05/31 01:30 hhvzfuis
>>169
dd_rescueでバックアップを作成し、reiserfsckする

「Bad block handling in ReiserFS」
URLリンク(namesys.com)

[dd_rescue]
URLリンク(www.garloff.de)


171:login:Penguin
04/05/31 02:48 lsYmUrdk
dd_rescueなんてあるんですね。
LVM使ってないけど、reiserfsのパーティションが壊れたときは、
私もrebuild-treeが途中で失敗してしまう状況でした。
結局、普通のddで何とかしましたけど。
結構なファイルがlost+found行きになりました。

172:login:Penguin
04/05/31 06:23 OXeGSEwS
えー、ここはLilyVMのスレということで異論ありませんね?


はい、ないようなのでLilyVMスレ@Linux板と決定いたします。

UNIX板のスレはこちら。
【Usermode】LilyVMってどうですか 01【NetBSD】
スレリンク(unix板)

173:login:Penguin
04/05/31 06:29 cSlLkb+0
↓何事も無かったかのように次どうぞ

174:login:Penguin
04/05/31 07:03 OXeGSEwS
URLリンク(lilyvm.sf.net)

IPAの金で作られたUsermodeなNetBSDでつ。Linuxだとそのまま動くけどNetBSDではパッチが必要。
どうですか。

175:良い子のお約束
04/05/31 13:00 KXn0+fEs
(1)日本人が作ったものは40%割り引いて考える。
(2)IPAの金で作られたものは信用しない。
(3)任天堂のゲームには近付かない。

176:login:Penguin
04/06/20 02:44 M3ZdqO8W
インストーラでlvmが使えると楽やね。

177:login:Penguin
04/06/26 21:41 NWOwsSX3
PE Sizeのことで質問させてください。

PE Size = x として、作成するLVは、x * n (0 < n < 65535)なので、
たとえば、PEが4MBのときは、作成できるLVのサイズが4MBの倍数になり、
32MBのときは、32MBの倍数になる。

PE = 4MB の時は、36MBとかのLVを無駄なく作成できるが、
PE = 32MB のときは、LVが32MBか、次は64MBになってしまうので無駄が出来る、、
という理解で正しいでしょうか。

inodeの最小ファイルサイズ(アロケーションサイズ)とは無関係、、ですよね?(^-^:;
PEを32MBで作った後で「PEが大きすぎると無駄が生じやすくなる」とか書かれてる
記事を見つけて焦ってしまったんですが。


178:login:Penguin
04/07/01 12:02 Ua6cWiFK
無駄無駄無駄ぁぁぁ!!!

179:login:Penguin
04/08/31 17:29 mhv4SZxs
LVMって生で使うより重いの?

180:login:Penguin
04/09/01 01:21 hMUQSwG3
>>179
軽い道理が無いだろ(w
でも386や486クラスでもなきゃ、あんまり変わったような気はしないが。

181:login:Penguin
04/09/13 22:02:18 vib1TXoh
LVをルート(/)にマウントしている場合、そのLVをいじりたいときはどうしますか?
ファイルシステムはext3、ディストリはFedora2です。

/boot /dev/hda1
/    /dev/mapper/Volume00-LogVol00

/dev/hda1がext3
/dev/hda2がLinux LVM
/dev/hda3がswap

KNOPPIX3.4をCD-ROM起動して、pvscan,vgscanを試しましたがダメでした。(エラーのメッセージはメモり忘れたスマソ)

182:login:Penguin
04/09/13 22:51:09 vO7Y51N9
ちょっと考えれば、/でlvmを使う意味が無いことくらい気が付くからな。


183:181
04/09/14 21:29:21 PwK9BewZ
でも既にこの構成になってしまっているのですよ。
なにか方法ないですかね?


184:login:Penguin
04/09/14 21:54:41 16qryvOq
FS自体壊れてはいないんだよね?
漏れだったら、dump/restore でLVとパーティションを切り直す。
>>182の言うとおり、/ をLVMにするのは後々にも無用な手間がかかるだけだし。
まあ、勉強と思ってなんとかする方法を考えてみるのもいいけど(この後役に立つ場面があるかどうか・・・)。


185:181
04/09/15 01:11:51 KT7pbieC
>>184
壊れてないです。
方法がなければ切り直そうかと思ってるんですけど、

>勉強と思ってなんとかする方法を考えてみる
ってことでココに書き込んでみた次第でございます。


186:login:Penguin
04/09/17 20:59:29 b4dp+fcm
SLVMって使えんの?

187:login:Penguin
04/09/18 10:22:30 Nmvwrsgi
>>181
スワップを/にして、LVMから/をはずしとけ。スワップはLVMの中にでも
作りなおせ。

188:login:Penguin
04/09/21 23:05:19 F8lCx2GU
>>181

亀レスですまんが、KNOPPIX3.4でもLVMは使えるぞ。

カーネルモジュールがロードされてないギミなので depmod -a して modprobe lvm-mod してみれ。


189:login:Penguin
04/09/22 02:04:49 tY0jOet7
>>188
KNOPPIXのLVMってLVM1じゃなかったっけ?

以前、LVM2環境をミスって起動不能にした時、
データ抜き出そうとして使ったけど、LVM2を操作できなかったと思う
(結局、LVM2環境を新しく作ってHD繋げて吸い出した)

>>181
新しく/用にLV作って必要なものコピー、
そっちを/にマウントするようにして起動ってのは?
Fedoraでどうやるか知らないけど。

FedoraのLVM2環境の起動の仕組みって↓とは全然違う?
URLリンク(www.poochiereds.net)


190:181
04/09/24 01:19:17 JORLx4Uz
>>188
なるほど。試してみたいんだけど、もうパーティションを切りなおしてしまいますた。。。

>>189
そうゆう手がありましたか。でも例えば/の容量を増やしたい場合は、
/のLVの容量 + 増やしたい容量
のLVを作らないといけないんですよねぇ。一時的に倍以上のHDDが必要になるのはちょっとムリぽ。。。

191:login:Penguin
04/09/27 13:12:09 mojAcgNu
そういった事態を想定して、PVは細切れ(数GB単位)で作ってVGに登録しておくことを
学んでおくことにしましょうね >>190

私も一昨年ぐらいにそれを経験して、それ以降/は非LVMな素のパーティションにしました。


192:login:Penguin
04/09/30 00:26:14 9J1+0UZc
オンラインリサイズできるファイルシステム(Reiserfs,xfs)を
使い、各LVは必要最小限のサイズで作りませう

私は/boot+swap+PV1個の3パーティションで節約生活してますよ
(´-`).。oO(なんかさ、LVM使ってるとケチになるよね…)

193:login:Penguin
04/10/04 00:33:55 PdEJi7TQ
 

194:login:Penguin
04/10/17 02:02:36 HoEJPIc+
lvmかますことによってパフォーマンス落ちる?
導入を検討しとるのだが、ディスクアクセスが遅くなるなら躊躇する。

195:login:Penguin
04/10/17 03:54:32 IwSy/hON
>>194
>>179-180

196:login:Penguin
04/10/18 00:06:23 CENiT07H
定期チェックでfreiserfs@LVMにfsckかけたら
bad sectorが出てAbortしてしまう・・・
複数のHDDがVG登録されていて
物理的にどのHDDがbad sector出してるのか判別もできず・・・
こんな場合どいった手順で復旧していけばいいんでしょうか?

197:login:Penguin
04/10/18 00:07:07 CENiT07H
× freiserfs
○ reiserfs
うぅ・・・

198:login:Penguin
04/10/18 00:58:41 IHK36xr/
>>196
そのファイルシステムがmount可能なら
今すぐバックアップを作る。
その後で>>170かな

人柱になって報告したいなら>>151

199:196
04/10/20 07:26:55 GE+TE0oK
壊れてるHDDが物理的にどれなのかを判別できたんですが
新しくHDD買ってきてPV増やした上で
このHDDをpvmoveしたりするのは自殺行為・・・・ですよね?

syslogにガンガンエラー吐いてるけど復旧する時間が無い〜
週末まで耐えてくれ・・・

おとなしく
>>198
でいくべきかな、やはり

200:login:Penguin
04/10/22 20:13:06 6KWwn4ly
>>199
無事?
とりあえず、バックアップとった後で
pvmove試してくれるなら是非人柱希望

ただし、LVM1で"/"がLVM上にあるような環境の場合はヤバいと思う
pvmove中、不良セクタ踏んだ瞬間にフリーズ
→仕方ないので電プチ
→PV死亡。VG活動化できず起動不能
ってなるかも

201:196=199
04/10/23 02:49:17 U8sO2JHE
とりあえず、物理的にどのHDDがBadSector出してるのかを判別できたので

・新しく買ったHDDに新しいVG割り当て
・BadSectorの出るHDDの含まれたVGの読めるデータを買ってきたHDDのVGに移動
・空きが増えたらresize_reiserfsして縮小
・lvのサイズを縮小
・HDD一個分のVGの空きができたらBadSectorの出ているHDD以外のやつをpvmove
・壊れたHDDのVGから切り離して新しく買って来た側のVGに割り当て
・上を繰り返して壊れたHDDのみがVGに登録されている状態にする

という感じで玉突きしてみようかと検討してますが
resize_reiserfsでコケる気が激しくする・・・

アイオーのLinkPlayer+Einキャプチャ機+Samba
でレコーダー代わりにしてたデータ領域で
HDDが4台、データ領域が1TB近くある・・・


202:201
04/10/24 03:56:24 SET3wOLA
壊れたHDDと同じVGに所属しているが壊れたデータの格納されていないLVの
データ避難・LV削除はできましたが
壊れたデータの入ってるLVのresize_reiserfsできず・・・・

203:login:Penguin
04/10/27 11:21:45 EqiaD7Nc
/home にあったデータが一瞬で消えた・・・orz

83→データいれる→8e したら駄目だったのか・・・?


204:login:Penguin
04/10/27 16:44:35 pDldRhuo
そりゃ駄目だ。

205:login:Penguin
04/10/27 17:27:20 lhKPiB/N
やっちまったな

206:login:Penguin
04/12/02 00:01:54 BsejacY+
linuxのmdでraid5デバイスを作成して、その上にLVをきろうと思います。
この場合、ディスク増設>raid5再構築>LV拡張>パーティション拡張等
をオンラインでデータを保持したまま出来るものなのでしょうか。
また、こういうmd上のLVの拡張、VG切り離しなどの情報など有用なURLが
あれば教えていただけないでしょうか。

207:login:Penguin
04/12/02 00:31:11 ZSpotIbt
>>206
そもそもLinuxのmdはraid5の構成を変更して再構築なんか出来たっけ?


208:login:Penguin
04/12/02 07:36:22 LnTTlRFZ
linuxというか、そもそも一般的なraid5でそんなことできるのかどうか。

209:login:Penguin
04/12/02 07:43:07 Bm8JDMsv
raidreconf使えば例えば250GB x 3を250GB x 4にするは出来る
Arrayをオンラインのままでは無理だったかと
250GB x 3を300GB x 3に、は知らんけど
RAIDカードもオンライン拡張可能と書いてあれば大体出来るんじゃない?

210:login:Penguin
04/12/03 02:01:38 du/UIkAw
>>207
URLリンク(www.heart-pot.co.jp)
ここに事例がありました。
しかしmdの上にLVMって普通やらないのでしょうか。
raidカード要らずでメリットが大きいと思うのですが。

211:login:Penguin
04/12/04 02:07:45 BbxGDoDA
> こういうmd上のLVの拡張、VG切り離しなどの情報など

LVとVGはmd上かどうかは関係ないだろ。普通にLVやVG作った場合と同じやりかたでOKだと思う。
問題は、

> ディスク増設>raid5再構築

によって、PV(に割当ててるパーティション)のサイズが増えること。
LVM側でもいろいろ操作が必要。vgcfgbackupして、pvcreate -uして、vgcfgresoreするとか。
ただし、raid5の再構築といい、それにからんだLVMの操作といい、全データが吹っ飛ぶ
可能性が十分考えられるから普通やらない。少々ディスク効率が悪かろうが、別途mdを構成して、
PVに割り当てる方が賢明。
バックアップをちゃんととって、md上の全データ吹っ飛ぶ覚悟ができてるならやってもいいが。

> しかしmdの上にLVMって普通やらないのでしょうか。

普通にやるとおもうけど。raid LVMとかでぐぐってみ。
その場合に、raidを再構築するのがレアなだけ。


212:login:Penguin
04/12/04 17:22:52 BTKpaP2z
>>211
なるほど。そもそもraidとバックアップをきちんと考えわけ
ないといけないですね。
とりあえずディスクが2つあいているので、ミラーセットをつ
くっていろいろ試してみます。

213:login:Penguin
04/12/12 19:04:45 AoK/hzny
複数のPVが1つのVGとLVで構成されているデータ領域の
HDD一台がdでしまいました。
復旧にあたって死んでいない残り3台のHDDのデータを
救い出しつつ復旧するにはどうすればよいでしょうか?

来週末までに壊れたHDDよりも容量の大きいHDDを買ってきて
vgrestoreする予定なのですが
これだと死んでないHDD3台のデータも拾えないんでしたっけ?

214:login:Penguin
04/12/12 19:29:21 sTtCJRM0
dd_rescue

215:login:Penguin
04/12/13 02:06:30 PGw1X2t2
>>213
コマンドはvgcfgrestore
>>149以降でテストしてる

生きてるHDD上のデータは救出できるけど
あまり期待しない方がいいよ
死んだHDDにちょっとでも乗っていたファイルは
助からないはず

216:login:Penguin
04/12/26 23:53:59 kkeu0ykE
仕事上必要があってwindows XP 64bit-editionを入れたら
見事に別ディスクのLVM領域は破壊してくれた
何でこういうイヤガラセするかなぁ


217:login:Penguin
05/01/03 02:58:23 mM5fO6TV
Redhat9のkernelを2.6に上げたのでdevice-mapper+LVM2をインストールして
/sbin/mkdmnodで、/dev/mapper/controlをつくりました。
これで起動スクリプトにvgchange -a などを追記して既存ボリュームを認識し
てくれたのですが、以降rebootやシャットダウンの度に最後に
「md0: switching to read-only mode」〜「md1X: switching to ...」
というmd関連のメッセージがずらっと表示されるようになりました。
LVMはVer1.Xを使っていますがmd(raid)なんか一個も組んでいません。
これは何が悪いのでしょうか。
どうもカーネルモジュールのmd.cにそういうメッセージを出すところがあ
るみたいですが私ではそれをどうしてよいかもわからないんです。

218:
05/01/28 00:00:53 O4GA9oN8
スナップショットをとる
しばらくその後スナップショット時点の状態に戻すことは可能?

管理情報は残ってるわけだからできそうなんだけど


219:login:Penguin
05/01/28 00:11:59 inuf15bo
★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
在宅ワーカー募集します!!日給7800円以上可能!!

詳しいことはホームページに書いてあるのでご覧下さい。

URLリンク(advanced7success.fc2web.com)

尚、お申込みの際は

ID『sa01』が必要になります。

★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★

220:login:Penguin
05/02/24 12:40:30 FPH7Nh1+
保守

221:login:Penguin
05/03/04 02:17:33 DeSP1Kyo
補修

222:login:Penguin
05/03/31 15:24:49 chtc/3VW
ほちゅ

223:login:Penguin
05/03/31 16:18:41 7faVLxYM
RHEL4でext2onlineがサポートされて、だいぶ使いやすくなったけど、
LVMでext3ってどうよ?


224:login:Penguin
05/04/11 19:50:02 1cYagJnp
カーネル2.6のLVM2ってIO負荷が重い状態でボリュームのスナップショットを取ると
メモリ不足でハングアップしてしまうがこれの解決はまだか。

225:login:Penguin
05/04/26 16:16:45 PT/DpSg5
保守

226:login:Penguin
05/04/30 20:18:09 mAb4X/xF
教えてママン

160GBのHDDをFireWireで二つ直列に繋いだ状態で動作しているのですが、
LVMでこの二つをまとめて一つにして(無問題で?)パフォーマンスでるのかしらん?

ためしゃいいじゃんっていうかもしれんが、160GBもデータが入ってると試すのが鬱でね・・・

227:login:Penguin
05/04/30 20:22:21 47MVGwh5
あんまり出ないだろうな。
ファイルシステムが跨る分だけ、安全性に不安があるし。

228:login:Penguin
05/05/01 12:54:41 +L1YW0MG
lvcreate すると以下のようなエラーが出てしまいます。

lvcreate --size 10M --snapshot --name snap /dev/VolGroup00/LogVol_01

Rounding up size to full physical extent 32.00 MB
device-mapper ioctl cmd 9 failed: メモリを確保できません
Couldn't load device 'VolGroup00-snap'.
Problem reactivating origin LogVol_01

物理メモリの残りが少ない時に同事象が発生するようなのですが、出来る時もあり、規則性がありません。
swapも1Gぐらいにしてみましたが同じです。

( >>224 の事象と同じ?)

なにか解決方法はないでしょうか。

229:& ◆R7PNoCmXUc
05/05/01 22:09:16 D6WravXD
金曜日の夜 土曜日の昼 土曜日の夜 日曜日の昼 日曜日の夕 日曜日の夜
    ↓     ↓      ↓        ↓      ↓     ↓
                            ┃::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
   ∧ ∧   ∧∧     ∧ ∧   ┃::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
   (・∀・)  ∩∀・)    (・∀・)∩  ┃:::∧∧::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
   / ⊃⊃ ヽ  ⊃ノ   /⊃ /  ....┃:::('д` )::::::::::::::∧∧:::::::::::::::::::::::::::::::::::
 〜(  (    ヽ  )つ 〜( ヽノ  ......┃:::と  ヽ::::::::: ('д` ):::::::(   )⌒ヽ;::::::::::
   (/(/'      (/     し^ J  ......┃:::⊂,,_UO〜:::(∩∩ ):::::|/.|/uと  )〜:::::
                                         ↑ 今このへん

230:login:Penguin
05/05/08 02:56:13 5XzYn+h8
>>228
2.6カーネルのsnapshotは不安定で実用に耐えないから諦めろ。

231:login:Penguin
05/05/11 10:01:20 5vDYgAyC
>>230
了解。もう諦めて kernel2.4に戻しました。

232:login:Penguin
05/05/17 11:15:10 Ck8u3X4H
# vpvmove /dev/sda15
なんてして
No extents available for allocation
このエラーが出る場合、何を確保してやれば移動が可能になるんでしょうか

233:login:Penguin
05/05/17 11:53:52 vyhwtx4J
>>232
extents for allocation、つまり空き領域。
マウント中のファイルシステムをpvmoveすると固まるのはなんとかならんかなぁ。
snapshotが固まるのと原因同じ気がする。

234:login:Penguin
05/05/17 13:32:14 Ck8u3X4H
>>233
お返事どうもありがとうございました。
lvextend -L-hogeGして減らします。>232はs/vpvmove/pvmove/でした。
そういえば、pvmoveするときはアンマウントしてからやってました。
関係ありませんが、xfsはサイズを増やすことはできても減らすことができないと知って後悔しました。



235:login:Penguin
05/05/23 09:18:37 Ja/BWgyJ
保守

236:login:Penguin
05/05/30 14:02:18 d6Jlq03m
lvm3マダー?

237:login:Penguin
05/06/02 04:36:32 0Nz4wDQN
Fedora2でLVM使ってファイルサーバー立ててますが、quotaを使う必要があり、
fstabにLVMをつかっている/homeの箇所にquotaに記述して、再起動かけたら、
quotaつかえない旨のメッセージがでてきました。
Kernelのquota機能とLVMって共存できないんでしょうか?
以下書き換えた場所です。

LABEL=/ /   ext3 defaults 1 1
LABEL=/boot /boot   ext3 defaults 1 2
none     /dev/pts devpts gid=5,mode=620 0 0
none /dev/shm tmpfs defaults 0 0
/dev/Volume00/LogVol00 /home ext3 defaults 1 2 ←ここにquotaを記述
none /proc proc defaults 0 0
none /sys sysfs defaults 0 0
LABEL=/tmp /tmp ext3 defaults 1 2
LABEL=/var /var ext3 defaults 1 2
/dev/hda2 swap swap defaults 0 0
/dev/cdrom /mnt/cdrom udf,iso9660 noauto,owner,kudzu,ro 0 0

(読みづらかったらごめんなさい)

238:login:Penguin
05/06/03 22:23:53 HOSvdRwa
SGI-XLV移植キボンヌ

239:login:Penguin
05/06/16 18:09:58 Szie+yKv
保守

240:login:Penguin
05/06/30 18:33:39 +uN+drXM
ほちゅ

241:login:Penguin
05/07/12 17:40:23 1+WKcMXD
LVM

242:login:Penguin
05/07/26 19:12:00 GY/+NBD0
LVM2


243:login:Penguin
05/08/25 21:00:10 fWErEiK8
LVM2上にXFSのパーティションがあって、snapshot取りたいんだけど、
xfs_freeze -fしてlvcreate --snapshotすると固まってしまいます。別ttyでxfs_freeze -uするとlvcreateできましたが。
もしかしてxfs_freeze不要?kernelは2.6.12.5ですけどまだ不安定なのかな?

244:login:Penguin
05/08/30 22:24:46 IOjQmEM/
>243
まずはぐぐれよ。
URLリンク(marc.theaimsgroup.com)
あと、MLとのマルチポスト禁止な。


245:login:Penguin
05/09/02 17:34:27 jSBJjcXW
>>228です。
CentOS4.1(2.6.9-11)で久しぶりに試してみたらsnapshot普通にできるように
なっていました!!
lvm2-2.01.08-1.0RHEL4

改善されたんですね。よかった^^

246:login:Penguin
05/09/03 22:06:00 bax3TQFR
>>245
え〜〜〜っと。やっぱりダメでした。
ちょっとスペックの悪いPCで試してみたらまったくダメだ(>_<)

kernel2.4のlvmできちんと動いたPCなんですけどね。ぬか喜びだった(泣)

247:login:Penguin
05/09/13 10:05:53 ERgf6oSn
ほちゅちゅ

248:login:Penguin
05/09/24 11:03:27 2QiD6Syt
HDD 10G の PC を入手したので Debian をインストールしています。

/dev/hda1 256M /
/dev/hda5 512M swap

として残りの 9G で LVM を使って /usr や /var, /home にしてみようと考え
ています。

そこで疑問なのですが、残りのパーティションの切り方は 9G を1つにしちゃっ
ていいんでしょうか。2G 程度をいくつか切ったりするほうがいい?
それぞれのメリット/デメリットがいまいち判らんとです…。

249:login:Penguin
05/09/24 11:51:02 fVJogvpr
/tmpはええのん?

250:login:Penguin
05/09/24 11:55:07 2QiD6Syt
>>249
あ、/tmp も LVM で作るつもり。

251:login:Penguin
05/09/24 12:17:33 frt9ybjp
DebianでLVMはやめたほうがいいよ。壊れるから。

252:login:Penguin
05/09/24 12:39:50 2QiD6Syt
>>251
うは、マジすか? あんまり聞いたことないけど、いままで LVM に縁が無かっ
たから見逃したかな…。ちょっとググってみるす。

253:login:Penguin
05/09/24 12:44:01 96A0EVGi
>>251
ソースは?

254:login:Penguin
05/09/24 14:10:44 UWNeNGSP
LVM2ってもう安定した?

255:login:Penguin
05/09/24 14:27:37 frt9ybjp
LVM2は開発が止まっているようだ。EVMSにしとけばよかったのに。

256:login:Penguin
05/09/24 17:50:45 fVJogvpr
ところで、そんな小さい容量のディスク1本でLVMするメリットなんてあんの?

257:login:Penguin
05/09/25 18:33:45 QLhf2tye
debian potatoからLVM使ってるからもう5年くらいになるが一度も壊れたことないぞ。
LVMも当然 1.0→2.0になってるけど移行時でも問題無かったし。

258:login:Penguin
05/09/25 18:38:59 NYE4yBcb
DebianはLVMが不安定は釣りネタだろうけど
5年間一度も壊れたことないも嘘くせぇw

259:login:Penguin
05/09/25 20:54:57 QLhf2tye
LVM2のsnapshotが安定しないのは閉口ものだが破壊は無かったな。
御疑いなら耐久テストでもしてみることだ。
5年といってもlogical volumeの構成を替える頻度は知れているから、
script組んで耐久テストすることは時間がかかることでは無いわけだし。

260:login:Penguin
05/10/17 03:26:25 llqPomCQ
保守

261:login:Penguin
05/11/08 19:53:15 XbU3MUL4
ほっしゅ

262:login:Penguin
05/11/08 20:41:33 Fqaji/ZY
snapshotってLVMだけでできるん?
FSがサポートしてなきゃだめなんちゃう?

263:login:Penguin
05/11/08 23:16:09 g/AaqPIy
nbd+LVM運用してる人いますか?

264:login:Penguin
05/11/16 12:21:22 jdJfJmQO
vgexportしないでHDD外してしまって、マシンはすでにない
場合、別のマシンに差して中を見る手段はないのかな。
PVがあることは認識出来るんだけど・・・


265:login:Penguin
05/11/16 21:31:24 NvCPL6WD
vgimport じゃ駄目なの?

266:264
05/11/16 22:25:30 rFvkJp3N
VGの情報が見つからない、みたいなことを言われて
駄目だった。(いま別の場所なので、詳細なエラー
メッセージは忘れたが)
vgexportしてないからだと思う。。。

267:login:Penguin
05/11/16 22:35:17 Vdp/hGgb
>>266

#man vgimport

VGIMPORT(8)

NAME
vgimport - make volume groups known to the system

OPTIONS
-f, --force
Force import of volume group even though it is not flagged exported. This
option allows the importing of volume groups from broken systems.

この辺りドウヨ?
(もちろん自己責任で宜しく)


268:264
05/11/17 12:26:25 1Ik63xyP
アドバイスありがとう。

でもダメですた。
-fオプションつけても、
Unable to find exported volume group "hogehoge"
だって。そうだよなあ、exportしてないもんなあ...orz

269:login:Penguin
05/11/17 16:35:43 UqsPVSxa
だめなんかぁ。

新しいシステムでpvscanをしてVG情報を確認後、
vginmport -f VGname
でなんとかなるんじゃ無いかと思っていただけに驚き。

270:login:Penguin
05/11/21 09:39:13 SEUWJCPL
ちょっと納得いかん挙動やね。
じゃぁ、なんで起動時にドライブスキャンするんだろ。


271:login:Penguin
05/11/21 09:57:12 fSDPZtCV
仕様に虐ギレカコヨス


272:login:Penguin
05/12/10 09:21:32 APO7XYXK
保守

273:login:Penguin
05/12/23 01:04:08 1o/HU5Zy
hoshu

274:login:Penguin
06/01/16 08:49:38 oy3iDMab
fedora core 4 のデフォルトインストールでLVMを使用して80GのHDDに
/dev/VolGroup00/LogVol00
を/(ルート)にマウントされてます。
今回160GのHDDを追加してWebminでPV追加。
コマンドでlvextend -L+100Gで論理ボリュームを拡張まで成功しました。
あとはファイルシステムの拡張だけですが、ext2onlineで
JBD: ext2online wants too many credits (2050 > 2048)
ext2online: ext2_ioctl: No space left on device
とエラーメッセージが出てできない。ググってみたが英語でバグ報告みたいなのが
あるだけでよくわからない。
resize2fsを使おうとしてinit 1でシングルユーザーモードにして
umount /dev/VolGroup00/LogVol00
としてから
resize2fs /dev/VolGroup00/LogVol00
とすると
/dev/VolGroup00/LogVol00 is mounted; can't resize a mounted filesystem!
とでてアンマウントできていない様子。
/bootにCDしてからやっても同じ。
LVMそのものに悩むんじゃなくてこんなところでつまずくとは思わなかった。
もう少し修行してきます。

275:login:Penguin
06/01/16 12:37:43 ojCdqT7z
>>274
間違ってたらごめんなさい。
FC4 の rescue disk を使って、起動時に /mnt/sysimage にマウントするか?と
聞いてくるので、マウントしないで起動する。
その状態だと VG が INACTIVE な状態にあるので、
lvm vgchange -a y とかやって、/dev/VolGroup00/LogVol00 が見えるようにしてやる。
そして、resize2fs 実行。
私はこんな感じで LVM 管理下の / (ルートパーティション) を lvreduce (危険を承知で orz) できました。

276:login:Penguin
06/01/16 13:00:11 oy3iDMab
おお!情報ありがとうございます。
まさに私がやりたいことです。
漠然とKNNOPIXなど使わないといけないのかなと思っていましたが、VGに関する
注意点まで書いていただいて感謝です。
一度やってみます。もちろん自己責任で。

277:login:Penguin
06/01/20 12:23:32 aqSLHR49
 _, ,_
( ゚∀゚)

278:login:Penguin
06/01/28 19:17:57 VUb2MggI
 _, ,_
( ゚∀゚)

279:login:Penguin
06/02/13 01:36:33 gjfNOHrh
いままで素のRAID1でmd0(hda1+hdc1)、md1(hda2+hdc2)とパーティションを
作り、定期バックアップを同容量のディスクに

 dd if=/dev/hda of=/dev/hde

として取っていたんだけど、RAID1+LVM にしてもこの方法有効ですか?

上では hde1, hde2 がそれぞれマウント可能なパーティションとして
バックアップされるのだけど、LVM が上に載ってくると、PV 自体は
md0, md1 の上にある形になるので、hde 単体でデータアクセス可能か
不安に思ってます。

同様の経験がある方、いかがでしょうか?


280:login:Penguin
06/02/13 01:46:10 3S74cKwo
LVMがあろうが無かろうが同じ事。完全にコピー出来ていれば動く。
しかし単純にコピーするとhdaとhdeに同じ名前のVGを検出して混乱する。

281:login:Penguin
06/02/13 02:21:49 gjfNOHrh
なるほど、考えてみれば RAID の方の autodetect で hde 上の RAID を
検出しておかしくならなかったのは

dd if=/dev/md1 of=/dev/hde2

と実際にはパーティション個別に dd して、hde* の partition type が
Linux RAID autodetect にならないようにしていたためでした。

今回だと md1 -> hde2 のようにパーティション単位で dd すると
partition type をどれにしても問題が生じる(Linux LVM にすれば
混乱するし、しない場合は hde 単独稼動できない)ので、

dd if=/dev/vgname/volname of=/dev/hde2

で hde の partition type を Linux とするのが唯一の解でしょうか。
ただ、これだとボリューム構成が変わるとバックアップ側の hde の
パーティション構成も追随させないといけないので、結局この簡易
バックアップ手段は RAID1+LVM では使えないかな。

とりあえずやるだけやってみて、駄目なら LVM は諦める事にします。


282:login:Penguin
06/02/13 02:36:25 3S74cKwo
コピー先のボリューム構成を自動的にコピー元に合わせるスクリプト書けばいい

283:login:Penguin
06/02/13 10:22:07 gjfNOHrh
ちょっとチラシの裏っぽくなってきてすみません。

どうやら vgchange -an で autodetect 無効にしてやれば
いけそうです。RAID の方は autodetect にしておいて、
lvm.conf の方には /dev/md* だけをスキャン対象として
書けばバックアップデバイスの hde は完全無視でいってくれそう。

週が明けてしまったので後になると思いますが、できたら
報告しますです。

284:login:Penguin
06/02/24 12:31:49 9ziRUFrf
だいぶ前から不思議に思っていたんだが、
fedoraとかのインストール時に、自動でパーティションを
区切らせると、swapをLVMに置きやがる。

どうせパーティションなんて、手動で区切るから、無視してたんですが、
もしかして、swapをLVM上に置くと、なんかよいことあるんですかね?


285:login:Penguin
06/02/24 12:43:11 AVQ1/ICR
swap領域を簡単に大きく出来る。
swap専用のパーティションが不要。
Solarisパーティションに間違える心配が無くなる。
LVM上に置く事のデメリットが特に無い。
俺は手動で切る時もLVMを使っている。

286:login:Penguin
06/02/25 11:31:04 QwNemt6b
むむ、最近は swap も LVM 上に取るのがトレンドなのか。思い付かなかったな。

287:login:Penguin
06/02/25 15:43:08 CRfylwA+
suspend, resume にswap領域を使うというのはどうなったんでしょう。
今もそうなら使い方によってはマズそう。

288:login:Penguin
06/02/25 15:49:54 XYGtXGls
LVMのスワップにもsuspend出来るようになったけど、それはつい最近の事だからな

289:login:Penguin
06/02/25 18:52:59 vFrh6tPm
swapを万が一のときのためのプライマリィパーティションとして
を使うからなぁ。LVMにはできん


290:login:Penguin
06/02/25 19:56:32 f8TziOip
>>289
万が一って例えばどんなとき?


291:login:Penguin
06/02/25 19:59:39 RKgmengN
業務用なんかでLinux専用で使うんであれば、swapは単独で切っとくな。
rootと/usr以外と外付けは必ずLVMにするだろうけど。


292:login:Penguin
06/02/25 21:29:42 QwNemt6b
>>291
んーと root と /usr は LVM にしないってことか。それはなにゆえ?

293:login:Penguin
06/02/25 21:51:44 7D7kEu1i
/と/usrは大きく容量が増えたりしないからLVMで管理する必要が無いって事だろ。
/と/usrを後生大事にするのは王より飛車を可愛がるようなもんだがな。

294:login:Penguin
06/02/25 23:35:46 f8TziOip
ってことは /usr/local とかは別パーテーションにするのかい?

295:login:Penguin
06/02/27 20:43:44 E8yShcwl
最近swapはファイルで済ませちゃってるな。
LVM使うのは/homeだけだ。

296:login:Penguin
06/02/27 23:45:15 ogY+RzDz
>>294
業務用で実運用中に/usr/localが増えるのはどうかと

297:login:Penguin
06/03/17 16:47:29 pa0JYMTy
ほちゅん

298:login:Penguin
06/03/20 00:40:08 Z/stLUW1
# vgcreate test /dev/hdb2 /dev/hda3
とやって、2つのPVにまたがったVGを作りました。

んで、lvcreate で LVを作るとき、/dev/hda3 だけに作ってくれとか
そういう指定はできない??


299:login:Penguin
06/03/20 00:44:19 3FBcKPyB
>>298
VGの後にPV指定すればいい

300:login:Penguin
06/03/20 00:54:16 Z/stLUW1
>>299
うお、まじで〜。

ってmanみたら書いてありました・・・すまんす。



301:login:Penguin
06/03/20 09:18:30 NKUFVZgB
>>298
参考のためになんでhda3だけにLV作ろうと思ったの?
なんか有るならおしえてほぢい。

302:login:Penguin
06/03/20 20:33:13 Z/stLUW1
>>301
実際には hda4 と hdd1 にまたがったVGで hdd は後で追加した。
hdd1 の最後のほうに LV を作りたかった。

hdd が hda に比べて古い HD なので、遅いし、いつ壊れるかわからん。
HDの後ろのほうはさらに遅いので、ここにゴミデータをおきたかった。

てなかんじの、あまり参考にならん理由です。


303:login:Penguin
06/03/20 22:46:38 NKUFVZgB
>>302
なるほど。ありがとう。

304:login:Penguin
06/03/21 05:54:10 qn7ptd8S
>>285
便乗質問で悪いけど
LVMの中にswapパーティション置いても2GBの制限はなくならないよね?

> swap領域を簡単に大きく出来る。
を誤解してるわけじゃないです

305:login:Penguin
06/03/21 06:33:54 GNxk/W6H
>>304
なくならない


306:login:Penguin
06/03/21 10:59:31 qn7ptd8S
>>305
ありがとう

307:login:Penguin
06/03/23 16:32:23 zYoXh2XX
LVMとは直接関係ないことだけど swap の話が出たので。

うちはメモリーを512MB以上積むようになってからは、
swapパーティションを切らないようになった。
現在はアプリケーションサーバとしては動かしていなので
問題は起きてないのですが、メモリ食いのアプリを
動かすようになったら考慮しないといけないかも。

ファイルサーバーやWebサーバー、DNSやルーター程度なら不要だよね?

308:login:Penguin
06/03/23 18:03:00 dgXyXwqo
俺んちFC4だが、swapの2GB制限ないよ〜?
1つのパーティションでswap 3GB に設定してあって
今、実験してみたら3GBフルに使えた。


309:login:Penguin
06/03/24 20:40:48 oFxp8fco
Linuxの場合、LVMとソフトRAIDが別機能ってのが、わかりづらいな。
VG作るときにミラーとかストライピングが指定できるようになれば、かなり使いやすくなるのになぁ。


310:login:Penguin
06/03/25 02:03:59 ldYGxjMi
>>310
何言ってんのかわからん。MirrorDisk/UXだって別売りだろ?

311:login:Penguin
06/03/25 03:01:06 VNcGuME2
確かに、VxVMやDiskSuiteなんかは、LVMとSW-RAIDを明確に分けてないな。
物理ディスクをまとめるときに、普通にミラーやらRAID5を指定して作れる。


312:login:Penguin
06/03/25 12:01:24 ldYGxjMi
VxVやMDiskSuiteに、LVMは含まれてないと思うんだが。

313:login:Penguin
06/03/25 12:47:07 jFeUU+q+
LVMに相当する機能のことだろ。
DiskSuiteの用語で言えば、「ソフトパーティション」
それにSolaris9からは、DiskSuiteのこと自体を「LVM」と詠んでるしな。


314:login:Penguin
06/03/26 23:53:14 +ilWfbVR
「くだらねえ質問は…」から引っ越してきました。
元の質問はこれです。
スレリンク(linux板:827番)
で、いろいろやりとりがあったわけですが、…
スレリンク(linux板:881番)
スレリンク(linux板:884番)
スレリンク(linux板:888番)
スレリンク(linux板:889番)
スレリンク(linux板:892番)
スレリンク(linux板:893番)
vgchange -a y VolGroup00 をやりましたが、/dev 以下には
何の変化もないようです。

あと、向こうのスレで書き忘れていたことを書いておきます。
現在インストールされているOSはFC5で、これはこれでLVMに
なっています(/bootが/dev/hda1で/dev/hda2がLVM。その中に
swap と /)。で、外付けに付いているディスクは FC3 で使用
していたものですが、構成は同じです(/dev/sda1 が /boot で
/dev/sda2 が LVM。その中に swap と /)。

ということで、この現在外付けにある LVM の中の / をマウント
する方法を教えてください。よろしくお願いします。


315:login:Penguin
06/03/27 00:15:20 J/oPtjaT
1. とりあえず祈る。
2. 古いディスク(/dev/sda)で起動する。
3. lvm情報を消す。(vgchange -a n VolGropu00したあと、vgexport VolGropu00)
4. 新しいディスク(/dev/hda)で起動する。
5. 古いディスクを付ける。
6. vgimport vg01 /dev/sda2、 vgchange -a y vg01
7. /dev/vg01/???をマウント。

URLリンク(www.linux.or.jp)
日頃の行いが良いことを願え。

もしくはもっと安全な方法を誰かが教えてくれることを。

316:login:Penguin
06/03/27 00:17:58 J/oPtjaT
しかし、マウントしているディスクは vgchange -a n
できないんじゃないかなぁ。

なんとなく、もう1回インスコしなおしてインストール時に
VG名を変えた方が簡単な気がする。

317:login:Penguin
06/03/27 00:26:17 J/oPtjaT
>>316
knoppixとかを起動してlvm情報を消すの方がいいかも。


318:login:Penguin
06/03/27 00:31:22 LGc9eKUw
Knoppixなぞ使わんでFedoraのインストールCDでレスキューモードに入ればいい。
その時一時的にBIOSで/dev/hdaを殺しておくといいだろうな。
そのうえでvgrenameで/dev/sda上のVGを変名。
あとは普通に起動してlvscanすれば見えるはず。

319:login:Penguin
06/03/27 00:40:04 J/oPtjaT
>>218
ありがとう。俺も参考になったよ。

320:314
06/03/27 01:10:03 SywC2/7h
皆様いろいろありがとうございます。
レスキューモードためしてみます。


321:314
06/03/27 02:28:07 SywC2/7h
ダメでした。
BIOS で内蔵HDDをNoneにしてからレスキューで起動すると
外付けHDDがマウントされるんですが、vgrename は vgchange -an
をした後でないとできません。しかし mount されているので
vgchange はエラーとなります。umount すればいいんでしょうが、
そうすると vg* のコマンドがレスキューに入っていない、というか、
それ以前の問題として、/etc 以下が見えなくなります。



次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

4643日前に更新/243 KB
担当:undef