1 名前:login:Penguin [02/06/15 15:28 ID:7xlbr7s1] ワタクシ、Linus V Minusというものです。 LVM(Logical Volume Manager)なんてものに興味を持っています。ちょっとニッチなんですが。 こんな、小さなスレッドですが、にちゃんねるに作成してもよろしいでしょうか? いえいえ、ワタクシの周りに使っているものがいないもので。(周りは年寄りばかりで、新しいことは躊躇されます) 以上、よろしくお願いします。
148 名前:135 mailto:sage [04/05/06 23:53 ID:zmQQH789] >>145 のreiserfsがOpenLVとしてカウントされない現象ですが、 以下の環境をゼロから作り直したら解消しました。原因は調べてませんが。 Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1) device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19) で、正直に白状すると俺は135なんだけど、>>135 のレスはアホでした。 >>134 には謝っておきます。すまんでした。 _o_ お詫びに以下のURLの情報をテストしてみた。 ttp://www.redhat.com/archives/linux-lvm/2003-January/msg00204.html
149 名前:135 mailto:sage [04/05/06 23:56 ID:zmQQH789] ■PVを跨がない場合の仕込み Debian(woody) / Linux 2.4.25 / lvm_1.0.8 (1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成 (2)LV&ファイルシステム作成(hda5のみ使用) # lvcreate -L1g -n hda5lv testvg /dev/hda5 # mkreiserfs /dev/testvg/hda5lv (3)適当にファイルコピー (4)umount→testvgを停止後、ddでhda6(全PE未使用)を埋める # vgchange -an testvg # dd if=/dev/zero of=/dev/hda6 (5)testvgをactiveにしようとするが当然エラー # /sbin/vgscan vgscan -- reading all physical volumes (this may take a while...) vgscan -- ERROR "vg_read_with_pv_and_lv(): current PV" can't get data of volume group "testvg" from physical volume(s) vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created vgscan -- WARNING: This program does not do a VGDA backup of your volume group # /sbin/vgchange -ay vgchange -- no volume groups found 以前はここで止めてたんで>>135 みたいなレスだった。
150 名前:135 mailto:sage [04/05/06 23:59 ID:zmQQH789] ■PVを跨がない場合のリカバリ 破壊したhda6と同サイズ・同パーティションタイプ(LinuxLVM:8e)のhda7を使ってリカバリ # pvcreate /dev/hda7 pvcreate -- physical volume "/dev/hda7" successfully created ○hda6のメタデータをhda7にリストアする。 # vgcfgrestore -n testvg -o /dev/hda6 /dev/hda7 vgcfgrestore -- INFO: using backup file "/etc/lvmconf/testvg.conf" vgcfgrestore -- VGDA for "testvg" successfully restored to physical volume "/dev/hda7" # /sbin/vgscan vgscan -- reading all physical volumes (this may take a while...) vgscan -- found inactive volume group "testvg" vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created vgscan -- WARNING: This program does not do a VGDA backup of your volume group # /sbin/vgchange -ay vgchange -- volume group "testvg" successfully activated # mount /dev/testvg/hda5lv /mnt/test/ 全ファイル生還・md5一致
151 名前:135 mailto:sage [04/05/07 00:04 ID:moBi7VqE] ■PVを跨った場合の仕込み&リカバリ PV,VGの作成は同じなので省略 以下のようなLVを使用してテスト。hda5/hda6から512Mずつ使用 # lvdisplay -v /dev/testvg/mixlv の結果(一部) --- Distribution of logical volume on 2 physical volumes --- PV Name PE on PV reads writes /dev/hda5 16 0 2 /dev/hda6 16 0 0 hda6の破壊方法とその後のリカバリ方法は上と同じなので省略 mount前にreiserfsck --checkすると、"--rebuild-treeを実行しろ"と言われるの実行 # reiserfsck --rebuild-tree /dev/testvg/mixlv # mount -o ro /dev/testvg/mixlv /mnt/test 結果 全175ファイル 復旧 96 ( うち33ファイルはlost+foundに数字のファイル名で救出) 破壊 79 ( 消失17 + md5不一致62) ファイルはmp3でサイズはまちまち。 計算してないけどファイルサイズ的には半分だと思う
152 名前:135 mailto:sage [04/05/07 00:14 ID:moBi7VqE] ★PVを跨がない場合・仕込み(LVM2) Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1) device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19) (1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成 (2)LV & ファイルシステム作成(hda5のみ使用) # lvcreate -L1g -n hda5lv testvg /dev/hda5 # mkfs.reiserfs /dev/testvg/hda5lv (3)他のファイルシステムから適当にコピー (4)umount→testvg停止後、ddでhda6を0で埋める # vgchange -an testvg # dd if=/dev/zero of=/dev/hda6 (5)testvgをactiveに変更しようとするが、当然エラー # vgchange -ay testvg Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'. Couldn't find all physical volumes for volume group testvg. Unable to find volume group "testvg"
153 名前:135 mailto:sage [04/05/07 00:17 ID:moBi7VqE] ★方法(a):代替PVを用意してvgcfgrestoreでメタデータをリストアする。(LVM2) (a)-(1)破壊したhda6と同サイズのhda7でPVを作成。この際、hda6で使用していたUUIDを指定する。 # pvcreate --uuid MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa /dev/hda7 No physical volume label read from /dev/hda7 Physical volume "/dev/hda7" successfully created (a)-(2)testvgの情報をリストアする。 # vgcfgrestore -f /etc/lvm/backup/testvg testvg Restored volume group testvg (a)-(3)testvgをactiveにする。 # vgchange -ay testvg 1 logical volume(s) in volume group "testvg" now active (a)-(4)mountする ☆全ファイル生還。md5一致
154 名前:135 mailto:sage [04/05/07 00:18 ID:moBi7VqE] ★方法(b):生きてるPV(hda5)だけでtestvgをactiveにする。(LVM2) (b)-(1)vgchangeに"-P"オプション(Partial mode)を追加して実行 # vgchange -ay -P testvg Partial mode. Incomplete volume groups will be activated read-only. Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'. Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'. Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'. 1 logical volume(s) in volume group "testvg" now active (b)-(2)mountする # mount /dev/testvg/hda5lv /mnt/test mount: block device /dev/testvg/hda5lv is write-protected, mounting read-only ☆全ファイル生還。md5一致
155 名前:135 mailto:sage [04/05/07 00:23 ID:moBi7VqE] ★PVを跨いだ場合(LVM2) PV,VG作成方法は同じなので省略 LV作成では両方のPVから512Mずつ使用 # lvdisplay -v --maps /dev/testvg/mixlvの結果(一部) --- Segments --- Logical extent 0 to 127: Type linear Physical volume /dev/hda5 Physical extents 0 to 127 Logical extent 128 to 255: Type linear Physical volume /dev/hda6 Physical extents 0 to 127 破壊の方法はPVを跨がない場合と同じ(hda6を破壊) リカバリ方法は(a)の代替PVを使う方法しか使えない模様 (b)の方法だと(テストした環境では) device-mapper ioctl cmd 9 failed: Invalid argument と表示される。 結果:全176ファイル => 生還83 / 消失12 / md5不一致 81 あと、(a),(b)いずれの場合もvgchange一発で/dev以下にファイルができない現象が 頻発したけど、もう1回すると問題なくできた。
156 名前:135 mailto:sage [04/05/07 00:31 ID:moBi7VqE] あと、LVM2限定で結果だけ。 ReiserFS+hda5破壊 = 12ファイル生還(ただしlost+foundに数字のファイル名) XFS+hda5破壊 = 65ファイル生還 XFS+hda6破壊 = 66ファイル生還 (ファイル数はいずれも176でサイズバラバラのmp3) おしまい。
157 名前:login:Penguin [04/05/07 20:23 ID:JJMbJYW4] SoftRAID(RAID1)上にLVを切ろうとしています。 切ること自体はできたのですが、起動時に自動検出してくれません。 起動時のメッセージは Starting up RAID device: md0(skipped) md1(skipped) です。 起動後、raidstartとvgscanをやれば、有効になるんですが・・・ fstabで、LVをマウントするようにしています。 OSはRedHat9です。 何かわかりますかねぇ
158 名前:login:Penguin mailto:sage [04/05/07 23:28 ID:saczY0qF] initrd作りなおせオマンコ
159 名前:login:Penguin mailto:sage [04/05/08 11:16 ID:J2fTDgwN] 157です。 mkinitrdやってみましたが、結果ダメです。 手順は以下のとおり。 1./etc/modules.confに以下の行追加 alias md-personality-3 raid1 alias block-major-58 lvm-mod alias block-major-109 lvm-mod 2.mkinitrd mkinitrd -v -f /boot/initrd_raid-2.4.22-1.2188.nptl.img \ $(uname -r) 3.grub.confをeditし、initrd_raidをロードするようにする 4.再起動 dmesgでは以下のようなメッセージが出ており、うまくいっているように 見えます。 RAMDISK: Compressed image found at block 0 Freeing initrd memory: 168k freed VFS: Mounted root (ext2 filesystem). Journalled Block Device driver loaded md: raid1 personality registered as nr 3 kjournald starting. Commit interval 5 seconds EXT3-fs: mounted filesystem with ordered data mode. ちなみに上はfedoraでやってみました。 うーん、何がおかしいんでしょう。
160 名前:login:Penguin mailto:sage [04/05/08 13:33 ID:9BQlLz7P] raidstartしてからmkinitrdしたマンコか? mkinitrdは/proc/mdstatを見てオマンコよ。 だから/etc/modules.confを編集する必要はないマンコ。
161 名前:157 mailto:sage [04/05/08 14:45 ID:pmAGqXMP] すばらしい!うまくいったです。オマンコさん、どうもありがとう。 もうLVMの話じゃないですが、ついでに教えてください。 ひょっとして、mdxデバイスを追加するたびに、mkinitrdしなきゃダメですか? #まあやってみりゃいいんですが。
162 名前:login:Penguin mailto:sage [04/05/08 16:22 ID:9BQlLz7P] >>161 悲しい事に追加や変更のたびにやらにゃいかマンコ。っていいかげんこの語尾やめたいw カーネルを再構築してRAID関係をモジュールにしなければ自動認識になるよ。 FC2でどうなってるのかは未確認。
163 名前:login:Penguin mailto:sage [04/05/08 21:10 ID:5z7Jk+RY] 157っす >>162 うーん、つかえねえToT カーネル再構築は、やったことないし、up2dateが使えなくなりそうなので、やめときます。 まあとりあえず現状で満足することにします。 どうもありがとう。
164 名前:login:Penguin [04/05/16 14:46 ID:VitpnX4s] lvm上に作ったファイルシステムって WindowsのExplore2fsとかから見えるのかな。
165 名前:login:Penguin mailto:sage [04/05/16 15:02 ID:aVnYK0wB] 見エマセぬ
166 名前:login:Penguin mailto:sage [04/05/18 20:07 ID:aktDVrQJ] >>148-156 非常に参考になったわ。 こんなにLVMの事を検証している人を見たのは貴殿が初めてだわ。 これはLVM HOWTOに載せて欲しいぐらいの内容だね。
167 名前:login:Penguin [04/05/28 23:19 ID:PYZd4d/f] pv→HDD3本でひとつのvgを組んでます。 ここから生成されたlvはreiserfsでフォーマットされています。 で、最近 fsck.reiserfsをすると ディスクにハード障害があります云々いわれます。 この場合、 1.やっぱりHDDに物理的な障害がある。 2.vgになんかの障害がある。 1にせよ2にせよ、fsck以外の修復コマンドとかって存在するのでしょうか?? もしあれば、誰か助けてください。。。。 いま、めちゃブルーです。
168 名前:login:Penguin mailto:sage [04/05/29 03:10 ID:Xtz3Va5J] >>167 3.ファイルシステムが壊れているとか reiserfsckはデフォルトではcheckだけじゃないの? --rebuild-treeとか付けんと。>>151 みたいに もちろん、やる前にはバックアップとってな。 HDDの物理的障害だったらdmesgになんか出てると思うけど >>147 VGじゃなくてLVでしょ。 Unix Magazine 2004年6月号で2.5TBのLV作ってるよ
169 名前:167 [04/05/30 23:48 ID:OnGdtw98] >>168 回答ありがとうございます。 いろいろ試してみたのですが、拉致があかなかったため、とうとう rebuild-treeしたところ、途中でrebuild-treeがAbortしてしました。 bread: Cannot read the block (31329): (Input/output error). Aborted ただ、以下のメッセージが出ていることから/dev/hddの物理障害は間違いないっぽいです。。。 hdd: dma_intr: error=0x40 { UncorrectableError }, LBAsect=251175, high=0, low=251175, sector=251175 end_request: I/O error, dev hdd, sector 251175 Buffer I/O error on device dm-0, logical block 31341 そこで、badblocksコマンドにてlv(/dev/lvm/hogehoge)のbadblockを書き出して、 badblocks -o out.txt /dev/lvm/hogehoge 再びreiserfsckをかけました。 reiserfsck --badblocks out.txt --rebuild-tree /dev/lvm/hogehoge が、上記と同様にAbortされてしまいます。 reiserfsck --rebuild-treeは、不良ブロックがあるために、強制終了されているように見えます。 reiserfsck --rebuild-treeを最後まで終了させるよい方法はないでしょうか??
170 名前:login:Penguin mailto:sage [04/05/31 01:30 ID:hhvzfuis] >>169 dd_rescueでバックアップを作成し、reiserfsckする 「Bad block handling in ReiserFS」 ttp://namesys.com/bad-block-handling.html [dd_rescue] ttp://www.garloff.de/kurt/linux/ddrescue/
171 名前:login:Penguin mailto:sage [04/05/31 02:48 ID:lsYmUrdk] dd_rescueなんてあるんですね。 LVM使ってないけど、reiserfsのパーティションが壊れたときは、 私もrebuild-treeが途中で失敗してしまう状況でした。 結局、普通のddで何とかしましたけど。 結構なファイルがlost+found行きになりました。
172 名前:login:Penguin mailto:sage [04/05/31 06:23 ID:OXeGSEwS] えー、ここはLilyVMのスレということで異論ありませんね? はい、ないようなのでLilyVMスレ@Linux板と決定いたします。 UNIX板のスレはこちら。 【Usermode】LilyVMってどうですか 01【NetBSD】 pc5.2ch.net/test/read.cgi/unix/1079170498/
173 名前:login:Penguin mailto:sage [04/05/31 06:29 ID:cSlLkb+0] ↓何事も無かったかのように次どうぞ
174 名前:login:Penguin mailto:sage [04/05/31 07:03 ID:OXeGSEwS] lilyvm.sf.net/ IPAの金で作られたUsermodeなNetBSDでつ。Linuxだとそのまま動くけどNetBSDではパッチが必要。 どうですか。
175 名前:良い子のお約束 mailto:sage [04/05/31 13:00 ID:KXn0+fEs] (1)日本人が作ったものは40%割り引いて考える。 (2)IPAの金で作られたものは信用しない。 (3)任天堂のゲームには近付かない。
176 名前:login:Penguin [04/06/20 02:44 ID:M3ZdqO8W] インストーラでlvmが使えると楽やね。
177 名前:login:Penguin mailto:sage [04/06/26 21:41 ID:NWOwsSX3] PE Sizeのことで質問させてください。 PE Size = x として、作成するLVは、x * n (0 < n < 65535)なので、 たとえば、PEが4MBのときは、作成できるLVのサイズが4MBの倍数になり、 32MBのときは、32MBの倍数になる。 PE = 4MB の時は、36MBとかのLVを無駄なく作成できるが、 PE = 32MB のときは、LVが32MBか、次は64MBになってしまうので無駄が出来る、、 という理解で正しいでしょうか。 inodeの最小ファイルサイズ(アロケーションサイズ)とは無関係、、ですよね?(^-^:; PEを32MBで作った後で「PEが大きすぎると無駄が生じやすくなる」とか書かれてる 記事を見つけて焦ってしまったんですが。
178 名前:login:Penguin [04/07/01 12:02 ID:Ua6cWiFK] 無駄無駄無駄ぁぁぁ!!!
179 名前:login:Penguin mailto:sage [04/08/31 17:29 ID:mhv4SZxs] LVMって生で使うより重いの?
180 名前:login:Penguin mailto:sage [04/09/01 01:21 ID:hMUQSwG3] >>179 軽い道理が無いだろ(w でも386や486クラスでもなきゃ、あんまり変わったような気はしないが。
181 名前:login:Penguin [04/09/13 22:02:18 ID:vib1TXoh] LVをルート(/)にマウントしている場合、そのLVをいじりたいときはどうしますか? ファイルシステムはext3、ディストリはFedora2です。 /boot /dev/hda1 / /dev/mapper/Volume00-LogVol00 /dev/hda1がext3 /dev/hda2がLinux LVM /dev/hda3がswap KNOPPIX3.4をCD-ROM起動して、pvscan,vgscanを試しましたがダメでした。(エラーのメッセージはメモり忘れたスマソ)
182 名前:login:Penguin mailto:sage [04/09/13 22:51:09 ID:vO7Y51N9] ちょっと考えれば、/でlvmを使う意味が無いことくらい気が付くからな。
183 名前:181 [04/09/14 21:29:21 ID:PwK9BewZ] でも既にこの構成になってしまっているのですよ。 なにか方法ないですかね?
184 名前:login:Penguin mailto:sage [04/09/14 21:54:41 ID:16qryvOq] FS自体壊れてはいないんだよね? 漏れだったら、dump/restore でLVとパーティションを切り直す。 >>182 の言うとおり、/ をLVMにするのは後々にも無用な手間がかかるだけだし。 まあ、勉強と思ってなんとかする方法を考えてみるのもいいけど(この後役に立つ場面があるかどうか・・・)。
185 名前:181 [04/09/15 01:11:51 ID:KT7pbieC] >>184 壊れてないです。 方法がなければ切り直そうかと思ってるんですけど、 >勉強と思ってなんとかする方法を考えてみる ってことでココに書き込んでみた次第でございます。
186 名前:login:Penguin mailto:sage [04/09/17 20:59:29 ID:b4dp+fcm] SLVMって使えんの?
187 名前:login:Penguin [04/09/18 10:22:30 ID:Nmvwrsgi] >>181 スワップを/にして、LVMから/をはずしとけ。スワップはLVMの中にでも 作りなおせ。
188 名前:login:Penguin [04/09/21 23:05:19 ID:F8lCx2GU] >>181 亀レスですまんが、KNOPPIX3.4でもLVMは使えるぞ。 カーネルモジュールがロードされてないギミなので depmod -a して modprobe lvm-mod してみれ。
189 名前:login:Penguin mailto:sage [04/09/22 02:04:49 ID:tY0jOet7] >>188 KNOPPIXのLVMってLVM1じゃなかったっけ? 以前、LVM2環境をミスって起動不能にした時、 データ抜き出そうとして使ったけど、LVM2を操作できなかったと思う (結局、LVM2環境を新しく作ってHD繋げて吸い出した) >>181 新しく/用にLV作って必要なものコピー、 そっちを/にマウントするようにして起動ってのは? Fedoraでどうやるか知らないけど。 FedoraのLVM2環境の起動の仕組みって↓とは全然違う? ttp://www.poochiereds.net/svn/lvm2/
190 名前:181 mailto:sage [04/09/24 01:19:17 ID:JORLx4Uz] >>188 なるほど。試してみたいんだけど、もうパーティションを切りなおしてしまいますた。。。 >>189 そうゆう手がありましたか。でも例えば/の容量を増やしたい場合は、 /のLVの容量 + 増やしたい容量 のLVを作らないといけないんですよねぇ。一時的に倍以上のHDDが必要になるのはちょっとムリぽ。。。
191 名前:login:Penguin [04/09/27 13:12:09 ID:mojAcgNu] そういった事態を想定して、PVは細切れ(数GB単位)で作ってVGに登録しておくことを 学んでおくことにしましょうね >>190 私も一昨年ぐらいにそれを経験して、それ以降/は非LVMな素のパーティションにしました。
192 名前:login:Penguin mailto:sage [04/09/30 00:26:14 ID:9J1+0UZc] オンラインリサイズできるファイルシステム(Reiserfs,xfs)を 使い、各LVは必要最小限のサイズで作りませう 私は/boot+swap+PV1個の3パーティションで節約生活してますよ (´-`).。oO(なんかさ、LVM使ってるとケチになるよね…)
193 名前:login:Penguin mailto:sage [04/10/04 00:33:55 ID:PdEJi7TQ]
194 名前:login:Penguin [04/10/17 02:02:36 ID:HoEJPIc+] lvmかますことによってパフォーマンス落ちる? 導入を検討しとるのだが、ディスクアクセスが遅くなるなら躊躇する。
195 名前:login:Penguin mailto:sage [04/10/17 03:54:32 ID:IwSy/hON] >>194 >>179-180
196 名前:login:Penguin mailto:sage [04/10/18 00:06:23 ID:CENiT07H] 定期チェックでfreiserfs@LVMにfsckかけたら bad sectorが出てAbortしてしまう・・・ 複数のHDDがVG登録されていて 物理的にどのHDDがbad sector出してるのか判別もできず・・・ こんな場合どいった手順で復旧していけばいいんでしょうか?
197 名前:login:Penguin mailto:sage [04/10/18 00:07:07 ID:CENiT07H] × freiserfs ○ reiserfs うぅ・・・
198 名前:login:Penguin mailto:sage [04/10/18 00:58:41 ID:IHK36xr/] >>196 そのファイルシステムがmount可能なら 今すぐバックアップを作る。 その後で>>170 かな 人柱になって報告したいなら>>151
199 名前:196 mailto:sage [04/10/20 07:26:55 ID:GE+TE0oK] 壊れてるHDDが物理的にどれなのかを判別できたんですが 新しくHDD買ってきてPV増やした上で このHDDをpvmoveしたりするのは自殺行為・・・・ですよね? syslogにガンガンエラー吐いてるけど復旧する時間が無い〜 週末まで耐えてくれ・・・ おとなしく >>198 でいくべきかな、やはり
200 名前:login:Penguin mailto:sage [04/10/22 20:13:06 ID:6KWwn4ly] >>199 無事? とりあえず、バックアップとった後で pvmove試してくれるなら是非人柱希望 ただし、LVM1で"/"がLVM上にあるような環境の場合はヤバいと思う pvmove中、不良セクタ踏んだ瞬間にフリーズ →仕方ないので電プチ →PV死亡。VG活動化できず起動不能 ってなるかも
201 名前:196=199 mailto:sage [04/10/23 02:49:17 ID:U8sO2JHE] とりあえず、物理的にどのHDDがBadSector出してるのかを判別できたので ・新しく買ったHDDに新しいVG割り当て ・BadSectorの出るHDDの含まれたVGの読めるデータを買ってきたHDDのVGに移動 ・空きが増えたらresize_reiserfsして縮小 ・lvのサイズを縮小 ・HDD一個分のVGの空きができたらBadSectorの出ているHDD以外のやつをpvmove ・壊れたHDDのVGから切り離して新しく買って来た側のVGに割り当て ・上を繰り返して壊れたHDDのみがVGに登録されている状態にする という感じで玉突きしてみようかと検討してますが resize_reiserfsでコケる気が激しくする・・・ アイオーのLinkPlayer+Einキャプチャ機+Samba でレコーダー代わりにしてたデータ領域で HDDが4台、データ領域が1TB近くある・・・
202 名前:201 mailto:sage [04/10/24 03:56:24 ID:SET3wOLA] 壊れたHDDと同じVGに所属しているが壊れたデータの格納されていないLVの データ避難・LV削除はできましたが 壊れたデータの入ってるLVのresize_reiserfsできず・・・・
203 名前:login:Penguin mailto:sage [04/10/27 11:21:45 ID:EqiaD7Nc] /home にあったデータが一瞬で消えた・・・orz 83→データいれる→8e したら駄目だったのか・・・?
204 名前:login:Penguin mailto:sage [04/10/27 16:44:35 ID:pDldRhuo] そりゃ駄目だ。
205 名前:login:Penguin mailto:sage [04/10/27 17:27:20 ID:lhKPiB/N] やっちまったな
206 名前:login:Penguin [04/12/02 00:01:54 ID:BsejacY+] linuxのmdでraid5デバイスを作成して、その上にLVをきろうと思います。 この場合、ディスク増設>raid5再構築>LV拡張>パーティション拡張等 をオンラインでデータを保持したまま出来るものなのでしょうか。 また、こういうmd上のLVの拡張、VG切り離しなどの情報など有用なURLが あれば教えていただけないでしょうか。
207 名前:login:Penguin mailto:sage [04/12/02 00:31:11 ID:ZSpotIbt] >>206 そもそもLinuxのmdはraid5の構成を変更して再構築なんか出来たっけ?
208 名前:login:Penguin mailto:sage [04/12/02 07:36:22 ID:LnTTlRFZ] linuxというか、そもそも一般的なraid5でそんなことできるのかどうか。
209 名前:login:Penguin mailto:sage [04/12/02 07:43:07 ID:Bm8JDMsv] raidreconf使えば例えば250GB x 3を250GB x 4にするは出来る Arrayをオンラインのままでは無理だったかと 250GB x 3を300GB x 3に、は知らんけど RAIDカードもオンライン拡張可能と書いてあれば大体出来るんじゃない?
210 名前:login:Penguin [04/12/03 02:01:38 ID:du/UIkAw] >>207 www.heart-pot.co.jp/lworg.html ここに事例がありました。 しかしmdの上にLVMって普通やらないのでしょうか。 raidカード要らずでメリットが大きいと思うのですが。
211 名前:login:Penguin [04/12/04 02:07:45 ID:BbxGDoDA] > こういうmd上のLVの拡張、VG切り離しなどの情報など LVとVGはmd上かどうかは関係ないだろ。普通にLVやVG作った場合と同じやりかたでOKだと思う。 問題は、 > ディスク増設>raid5再構築 によって、PV(に割当ててるパーティション)のサイズが増えること。 LVM側でもいろいろ操作が必要。vgcfgbackupして、pvcreate -uして、vgcfgresoreするとか。 ただし、raid5の再構築といい、それにからんだLVMの操作といい、全データが吹っ飛ぶ 可能性が十分考えられるから普通やらない。少々ディスク効率が悪かろうが、別途mdを構成して、 PVに割り当てる方が賢明。 バックアップをちゃんととって、md上の全データ吹っ飛ぶ覚悟ができてるならやってもいいが。 > しかしmdの上にLVMって普通やらないのでしょうか。 普通にやるとおもうけど。raid LVMとかでぐぐってみ。 その場合に、raidを再構築するのがレアなだけ。
212 名前:login:Penguin [04/12/04 17:22:52 ID:BTKpaP2z] >>211 なるほど。そもそもraidとバックアップをきちんと考えわけ ないといけないですね。 とりあえずディスクが2つあいているので、ミラーセットをつ くっていろいろ試してみます。
213 名前:login:Penguin mailto:sage [04/12/12 19:04:45 ID:AoK/hzny] 複数のPVが1つのVGとLVで構成されているデータ領域の HDD一台がdでしまいました。 復旧にあたって死んでいない残り3台のHDDのデータを 救い出しつつ復旧するにはどうすればよいでしょうか? 来週末までに壊れたHDDよりも容量の大きいHDDを買ってきて vgrestoreする予定なのですが これだと死んでないHDD3台のデータも拾えないんでしたっけ?
214 名前:login:Penguin mailto:sage [04/12/12 19:29:21 ID:sTtCJRM0] dd_rescue
215 名前:login:Penguin mailto:sage [04/12/13 02:06:30 ID:PGw1X2t2] >>213 コマンドはvgcfgrestore >>149 以降でテストしてる 生きてるHDD上のデータは救出できるけど あまり期待しない方がいいよ 死んだHDDにちょっとでも乗っていたファイルは 助からないはず
216 名前:login:Penguin mailto:sage [04/12/26 23:53:59 ID:kkeu0ykE] 仕事上必要があってwindows XP 64bit-editionを入れたら 見事に別ディスクのLVM領域は破壊してくれた 何でこういうイヤガラセするかなぁ
217 名前:login:Penguin [05/01/03 02:58:23 ID:mM5fO6TV] Redhat9のkernelを2.6に上げたのでdevice-mapper+LVM2をインストールして /sbin/mkdmnodで、/dev/mapper/controlをつくりました。 これで起動スクリプトにvgchange -a などを追記して既存ボリュームを認識し てくれたのですが、以降rebootやシャットダウンの度に最後に 「md0: switching to read-only mode」〜「md1X: switching to ...」 というmd関連のメッセージがずらっと表示されるようになりました。 LVMはVer1.Xを使っていますがmd(raid)なんか一個も組んでいません。 これは何が悪いのでしょうか。 どうもカーネルモジュールのmd.cにそういうメッセージを出すところがあ るみたいですが私ではそれをどうしてよいかもわからないんです。
218 名前: [05/01/28 00:00:53 ID:O4GA9oN8] スナップショットをとる しばらくその後スナップショット時点の状態に戻すことは可能? 管理情報は残ってるわけだからできそうなんだけど
219 名前:login:Penguin [05/01/28 00:11:59 ID:inuf15bo] ★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★ 在宅ワーカー募集します!!日給7800円以上可能!! 詳しいことはホームページに書いてあるのでご覧下さい。 advanced7success.fc2web.com/ 尚、お申込みの際は ID『sa01』が必要になります。 ★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
220 名前:login:Penguin mailto:sage [05/02/24 12:40:30 ID:FPH7Nh1+] 保守
221 名前:login:Penguin mailto:sage [05/03/04 02:17:33 ID:DeSP1Kyo] 補修
222 名前:login:Penguin mailto:sage [2005/03/31(木) 15:24:49 ID:chtc/3VW] ほちゅ
223 名前:login:Penguin mailto:sage [2005/03/31(木) 16:18:41 ID:7faVLxYM] RHEL4でext2onlineがサポートされて、だいぶ使いやすくなったけど、 LVMでext3ってどうよ?
224 名前:login:Penguin mailto:sage [2005/04/11(月) 19:50:02 ID:1cYagJnp] カーネル2.6のLVM2ってIO負荷が重い状態でボリュームのスナップショットを取ると メモリ不足でハングアップしてしまうがこれの解決はまだか。
225 名前:login:Penguin mailto:sage [2005/04/26(火) 16:16:45 ID:PT/DpSg5] 保守
226 名前:login:Penguin [2005/04/30(土) 20:18:09 ID:mAb4X/xF] 教えてママン 160GBのHDDをFireWireで二つ直列に繋いだ状態で動作しているのですが、 LVMでこの二つをまとめて一つにして(無問題で?)パフォーマンスでるのかしらん? ためしゃいいじゃんっていうかもしれんが、160GBもデータが入ってると試すのが鬱でね・・・
227 名前:login:Penguin mailto:sage [2005/04/30(土) 20:22:21 ID:47MVGwh5] あんまり出ないだろうな。 ファイルシステムが跨る分だけ、安全性に不安があるし。
228 名前:login:Penguin [2005/05/01(日) 12:54:41 ID:+L1YW0MG] lvcreate すると以下のようなエラーが出てしまいます。 lvcreate --size 10M --snapshot --name snap /dev/VolGroup00/LogVol_01 Rounding up size to full physical extent 32.00 MB device-mapper ioctl cmd 9 failed: メモリを確保できません Couldn't load device 'VolGroup00-snap'. Problem reactivating origin LogVol_01 物理メモリの残りが少ない時に同事象が発生するようなのですが、出来る時もあり、規則性がありません。 swapも1Gぐらいにしてみましたが同じです。 ( >>224 の事象と同じ?) なにか解決方法はないでしょうか。
229 名前:& ◆R7PNoCmXUc [2005/05/01(日) 22:09:16 ID:D6WravXD] 金曜日の夜 土曜日の昼 土曜日の夜 日曜日の昼 日曜日の夕 日曜日の夜 ↓ ↓ ↓ ↓ ↓ ↓ ┃:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: ∧ ∧ ∧∧ ∧ ∧ ┃:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: (・∀・) ∩∀・) (・∀・)∩ ┃:::∧∧:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: / ⊃⊃ ヽ ⊃ノ /⊃ / ....┃:::('д` )::::::::::::::∧∧::::::::::::::::::::::::::::::::::: 〜( ( ヽ )つ 〜( ヽノ ......┃:::と ヽ::::::::: ('д` ):::::::( )⌒ヽ;:::::::::: (/(/' (/ し^ J ......┃:::⊂,,_UO〜:::(∩∩ ):::::|/.|/uと )〜::::: ↑ 今このへん
230 名前:login:Penguin mailto:sage [2005/05/08(日) 02:56:13 ID:5XzYn+h8] >>228 2.6カーネルのsnapshotは不安定で実用に耐えないから諦めろ。
231 名前:login:Penguin [2005/05/11(水) 10:01:20 ID:5vDYgAyC] >>230 了解。もう諦めて kernel2.4に戻しました。
232 名前:login:Penguin mailto:sage [2005/05/17(火) 11:15:10 ID:Ck8u3X4H] # vpvmove /dev/sda15 なんてして No extents available for allocation このエラーが出る場合、何を確保してやれば移動が可能になるんでしょうか
233 名前:login:Penguin mailto:sage [2005/05/17(火) 11:53:52 ID:vyhwtx4J] >>232 extents for allocation、つまり空き領域。 マウント中のファイルシステムをpvmoveすると固まるのはなんとかならんかなぁ。 snapshotが固まるのと原因同じ気がする。
234 名前:login:Penguin mailto:sage [2005/05/17(火) 13:32:14 ID:Ck8u3X4H] >>233 お返事どうもありがとうございました。 lvextend -L-hogeGして減らします。>232はs/vpvmove/pvmove/でした。 そういえば、pvmoveするときはアンマウントしてからやってました。 関係ありませんが、xfsはサイズを増やすことはできても減らすことができないと知って後悔しました。
235 名前:login:Penguin mailto:sage [2005/05/23(月) 09:18:37 ID:Ja/BWgyJ] 保守
236 名前:login:Penguin [2005/05/30(月) 14:02:18 ID:d6Jlq03m] lvm3マダー?
237 名前:login:Penguin mailto:sage [2005/06/02(木) 04:36:32 ID:0Nz4wDQN] Fedora2でLVM使ってファイルサーバー立ててますが、quotaを使う必要があり、 fstabにLVMをつかっている/homeの箇所にquotaに記述して、再起動かけたら、 quotaつかえない旨のメッセージがでてきました。 Kernelのquota機能とLVMって共存できないんでしょうか? 以下書き換えた場所です。 LABEL=/ / ext3 defaults 1 1 LABEL=/boot /boot ext3 defaults 1 2 none /dev/pts devpts gid=5,mode=620 0 0 none /dev/shm tmpfs defaults 0 0 /dev/Volume00/LogVol00 /home ext3 defaults 1 2 ←ここにquotaを記述 none /proc proc defaults 0 0 none /sys sysfs defaults 0 0 LABEL=/tmp /tmp ext3 defaults 1 2 LABEL=/var /var ext3 defaults 1 2 /dev/hda2 swap swap defaults 0 0 /dev/cdrom /mnt/cdrom udf,iso9660 noauto,owner,kudzu,ro 0 0 (読みづらかったらごめんなさい)
238 名前:login:Penguin mailto:sage [2005/06/03(金) 22:23:53 ID:HOSvdRwa] SGI-XLV移植キボンヌ
239 名前:login:Penguin mailto:sage [2005/06/16(木) 18:09:58 ID:Szie+yKv] 保守
240 名前:login:Penguin mailto:sage [2005/06/30(木) 18:33:39 ID:+uN+drXM] ほちゅ
241 名前:login:Penguin mailto:sage [2005/07/12(火) 17:40:23 ID:1+WKcMXD] LVM
242 名前:login:Penguin mailto:sage [2005/07/26(火) 19:12:00 ID:GY/+NBD0] LVM2
243 名前:login:Penguin mailto:sage [2005/08/25(木) 21:00:10 ID:fWErEiK8] LVM2上にXFSのパーティションがあって、snapshot取りたいんだけど、 xfs_freeze -fしてlvcreate --snapshotすると固まってしまいます。別ttyでxfs_freeze -uするとlvcreateできましたが。 もしかしてxfs_freeze不要?kernelは2.6.12.5ですけどまだ不安定なのかな?
244 名前:login:Penguin mailto:sage [2005/08/30(火) 22:24:46 ID:IOjQmEM/] >243 まずはぐぐれよ。 marc.theaimsgroup.com/?l=linux-lvm&m=111014382900031&w=2 あと、MLとのマルチポスト禁止な。
245 名前:login:Penguin [2005/09/02(金) 17:34:27 ID:jSBJjcXW] >>228 です。 CentOS4.1(2.6.9-11)で久しぶりに試してみたらsnapshot普通にできるように なっていました!! lvm2-2.01.08-1.0RHEL4 改善されたんですね。よかった^^
246 名前:login:Penguin [2005/09/03(土) 22:06:00 ID:bax3TQFR] >>245 え〜〜〜っと。やっぱりダメでした。 ちょっとスペックの悪いPCで試してみたらまったくダメだ(>_<) kernel2.4のlvmできちんと動いたPCなんですけどね。ぬか喜びだった(泣)
247 名前:login:Penguin mailto:sage [2005/09/13(火) 10:05:53 ID:ERgf6oSn] ほちゅちゅ
248 名前:login:Penguin [2005/09/24(土) 11:03:27 ID:2QiD6Syt] HDD 10G の PC を入手したので Debian をインストールしています。 /dev/hda1 256M / /dev/hda5 512M swap として残りの 9G で LVM を使って /usr や /var, /home にしてみようと考え ています。 そこで疑問なのですが、残りのパーティションの切り方は 9G を1つにしちゃっ ていいんでしょうか。2G 程度をいくつか切ったりするほうがいい? それぞれのメリット/デメリットがいまいち判らんとです…。