1 名前:login:Penguin [02/06/15 15:28 ID:7xlbr7s1] ワタクシ、Linus V Minusというものです。 LVM(Logical Volume Manager)なんてものに興味を持っています。ちょっとニッチなんですが。 こんな、小さなスレッドですが、にちゃんねるに作成してもよろしいでしょうか? いえいえ、ワタクシの周りに使っているものがいないもので。(周りは年寄りばかりで、新しいことは躊躇されます) 以上、よろしくお願いします。
123 名前:login:Penguin mailto:sage [04/02/10 21:59 ID:ZJuqC/70] >122 すまん、スレ違い。レスは該当スレにヨロシク。
124 名前:login:Penguin [04/02/12 12:17 ID:Rdb56AUc] vgextendでVGに割り当てたディスクをVGから外すとき、pvremoveしても問題ない?
125 名前:login:Penguin [04/02/12 13:31 ID:0EKzsiYE] 以前使っていたマシーンからvgexportでVGを取り出して 新しいシステムに移し、vgimportを実行しましたが上手く取り込めないのです。 vgscan vgscan -- reading all physical volumes (this may take a while...) vgscan -- found exported volume group "discPV_EXPPV_EXPPV_EXP" vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created vgscan -- WARNING: This program does not do a VGDA backup of your volume group vgimport disc /dev/hd[bdefh]1 vgimport -- ERROR: wrong number of physical volumes to import volume group "disc" こんなエラーが出てしまうのです。 そもそも何故"discPV_EXPPV_EXPPV_EXP"になってしまったのが解らないのですが・・・ vgimport discPV_EXP /dev/hd[bdefh]1 vgimport discPV_EXPPV_EXP /dev/hd[bdefh]1 試しにこのようにしてみたのですが結果は同上でした。
126 名前:125 [04/02/12 13:32 ID:0EKzsiYE] 必要なディスクは全てあるのを確認しております。 --- List of physical volume UUIDs --- 001: cigRmZ-xMzR-PzV5-tk47-EmFy-pB9z-0BCuTA 002: sdtuUo-ayhh-MdWh-JYZv-67HD-uE6r-kc250p 003: nIF6Zr-uE5h-Fq6W-n8FY-eD50-4E2D-ZZko4z 004: ExsNWE-DOb6-k2NN-cOfs-Qxl8-6GtZ-UZ9elq 005: YruuGn-NAQR-5RWy-YFaU-bBaz-qxa6-0MPCoF PV Name /dev/hdb1 PV UUID nIF6Zr-uE5h-Fq6W-n8FY-eD50-4E2D-ZZko4z PV Name /dev/hdd1 PV UUID ExsNWE-DOb6-k2NN-cOfs-Qxl8-6GtZ-UZ9elq PV Name /dev/hde1 PV UUID sdtuUo-ayhh-MdWh-JYZv-67HD-uE6r-kc250p PV Name /dev/hdf1 PV UUID cigRmZ-xMzR-PzV5-tk47-EmFy-pB9z-0BCuTA PV Name /dev/hdh1 PV UUID YruuGn-NAQR-5RWy-YFaU-bBaz-qxa6-0MPCoF 何が悪い(原因)なのかお心当たり有る方、是非ご教授頂けませんでしょうか? よろしくお願いします。VGに納められているデータは絶望的なのでしょうか・・・
127 名前:login:Penguin mailto:sage [04/02/12 14:00 ID:oIFlb4da] >>125 PV_EXPはvgexportするときにLVMがつけるようですね。 www.spinics.net/lists/lvm/msg11071.html LVMのバグでimport出来ない場合があるようです。 www.spinics.net/lists/lvm/msg10876.html
128 名前:125 [04/02/12 14:21 ID:0EKzsiYE] >>127 フォローどうもです。 私も色々調べていたのですが、如何せん英語が苦手で・・・ PV_EXPの件は問題なさそうですね。データはまだ生きているのだろうか・・・ ちなみにimport出来ない件ですが・・・ Use 1.0.7. と教えて頂いたサイトには書いてありましたが私が使っているDebianの woodyでは lvm10_1.0.4-4_i386.deb (Source Code: [lvm10_1.0.4.orig.tar.gz]) なので 1.0.8 以降の sarge で無いとインポート出来ないのですか・・・ woodyで作ったものをインポート出来ないのはかなり辛いですね。 とりあえず、まだデータは生きている可能性が高そうなので希望を捨てずに 頑張ってみます。
129 名前:125 [04/02/12 14:43 ID:0EKzsiYE] 感激感謝雨霰 >>127 さん本当にありがとうございました。 とりあえずDebianをsargeにアップグレードして lvmを1.0.8にアップグレード後vgimportを行うと 今までの不安と失望を吹き飛ばすぐらいあっさりと importすることが出来ました。 もうダメだろうと思って一からやり直そうと9割方データ を諦めていて、最後にlvmを導入するきっかけになった このスレに戻り、思い切って質問させて頂いたのですが 本当に良かったです。 本当に、本当にありがとうございました。
130 名前:login:Penguin mailto:sage [04/02/12 21:31 ID:NYEuOy2Y] >>129 よかったね。一番恐い不具合だよなぁ。 # バックア…ま、ひとのことは言えない
131 名前:login:Penguin mailto:sage [04/03/31 08:45 ID:p4gnyIqI] 保守あげ
132 名前:login:Penguin [04/03/31 08:45 ID:p4gnyIqI] 下げてた 首吊ってきます
133 名前:login:Penguin mailto:sage [04/03/31 21:19 ID:FzS93x89] LVMはすごく情報が少ないような気がする
134 名前:login:Penguin [04/04/06 16:27 ID:EUJs3rTZ] 質問させて下さい。 二台のHDDでLVMを利用しVGを構成しているのですが 片方のHDDが電源を入れても動かなくなりました。 こういう場合、電源が入る片方のHDDに有るデータで 無事なものを抜き出すことは可能ですか?それとも 全データを失ってしまったのでしょうか?
135 名前:login:Penguin mailto:sage [04/04/07 02:09 ID:Wbtjz5Vb] >>134 多分無理だと思う。 テストで、 1)2つのパーティションをPVにしてVG作成 2)LVを2つのPVを跨ぐように作成&ファイルシステム作成 3)VGを非活動化してから、ddで片方のパーティション上書き 4)vgchange -a y でVGを活動化できず。VG死亡 2)でPVを跨がなかった場合は試してない とりあえず生き残った方の中身をddでバックアップor別ディスクにコピーしてから vgchangeが効くかどうか試してみては?
136 名前:login:Penguin [04/04/07 19:35 ID:yMwiLEKO] >>135 レスありがとうございました・・・。 でも、どんなに頑張っても無理でした・・・。 もちろんバックアップを取っていない私が悪いのですが(TT 今後はバックアップを取るように気をつけます・・・。
137 名前:login:Penguin mailto:sage [04/04/07 21:04 ID:tbnmpj7T] >>135-136 www.linux.or.jp/JF/JFdocs/LVM-HOWTO-8.html 8.2 なぜストライピングしないのか ストライピングだけを行うと、「ビット単位」で破壊が起こる危険が出てきます。ディスクが駄目になると、 論理ボリュームの内容がおしゃかになってしまいます。 データを連続して置いてあれば、ファイルシステムの一部だけで済ませられます。 Stripingしてなかったらファイルシステムの一部を失うだけで助かるんじゃないの?? 俺はずっとそう思っていたんだが。もしそうじゃなかったら俺も今すぐバックアップ 取らないと行けないな。かなり油断していた。 ソフトウエアRAID(md)と組み合わせてLVM作るのが一番無難か??
138 名前:login:Penguin mailto:sage [04/04/07 21:20 ID:YkSh897y] えっ、やってないの?
139 名前:login:Penguin mailto:sage [04/04/08 17:21 ID:KVyl6Huz] >>137 linux.msede.com/lvm_mlist/archive/2004/01/0123.html 壊れたドライブにデータが無かったら大丈夫らしい(?)が 複数のドライブで一つのパーテーションを実現するような使い方をしているとダメ臭いね。 やっぱり何はともあれバックアップが重要って事で。
140 名前:login:Penguin mailto:sage [04/04/08 17:23 ID:KVyl6Huz] 上で>>135 が言ってるけど 2)でPVを跨がなかった場合は試してない これに関してはMailing Listの書き込みを見る限り大丈夫っぽい って事追記するの忘れてた。 連続ポストスマソ。
141 名前:login:Penguin mailto:sage [04/04/08 20:49 ID:MyiCZN16] 正直、PV をまたいだ LV で fs を使うのは危険だと思ってます。 リカバリ時に意味のある単位で backup できないから。 PV の I/O error がでた部分にどのファイルが書かれていたか、 あとからわからない限りはダメだと思ってるんですが。
142 名前:141 mailto:sage [04/04/08 20:52 ID:MyiCZN16] ところで、 kernel-2.6.5 の device-mapper で、 LV を 13個以上切って使えてる香具師いますか? なんで 13なのか とつっこまれそうだが、漏れがその辺りから使えなかったので ...
143 名前:login:Penguin mailto:sage [04/04/09 19:49 ID:sJAe50d2] LVMって実際に使い物になるの?AIXでもクリティカルな用途では それほど、使われてないって聞いたけど。
144 名前:login:Penguin mailto:sage [04/04/10 06:25 ID:i9h2mmLK] >>143 使ったことないだけ? 使い方知らないだけ? 逆にAIXでLVM使わないでFS作る方法を教えてほしいっすよ。 漏れは、LinuxでもインストーラがLVM+ReiserFSに対応してないのは使う気になれんが。
145 名前:login:Penguin mailto:sage [04/04/11 17:37 ID:Z/hVhcsh] >>142 微妙に環境違うと思うけど、以下の環境でLV26個できてるよ。 Debian(sarge) Linux 2.6.5-mm2 + Device-mapper unstable(2.6.5-udm3) device-mapper 1.00.15 / LVM2 2.00.11(2004-04-08) 試してて気づいたんだけど、reiserfsがのってるLVをmountしても Open LVとしてカウントされないんだけど。。。ウチだけ? ↓26LV全部mountしてもOpenLVが16になってる # vgdisplay --- Volume group --- VG Name rootvg System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 75 VG Access read/write VG Status resizable MAX LV 255 Cur LV 26 Open LV 16 Max PV 255 Cur PV 1 Act PV 1 VG Size 111.25 GB PE Size 32.00 MB Total PE 3560 Alloc PE / Size 1608 / 50.25 GB Free PE / Size 1952 / 61.00 GB VG UUID bnxgSD-J5Hb-70Io-TUic-EJGu-y0X5-mnvXRB
146 名前:141 mailto:sage [04/04/14 10:53 ID:uDiO3j/8] >>145 情報ありがトン。 udm の patch を調べて別のマシンで実験してみます。 っていうか、こんな機能使うのに kernel-ML をチェックしていなかった漏れがバカでした(;_;
147 名前:login:Penguin mailto:sage [04/05/03 23:05 ID:xF+EBQEG] 結局のところVGサイズが最大2TBの制限って解決したんでしょうか??
148 名前:135 mailto:sage [04/05/06 23:53 ID:zmQQH789] >>145 のreiserfsがOpenLVとしてカウントされない現象ですが、 以下の環境をゼロから作り直したら解消しました。原因は調べてませんが。 Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1) device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19) で、正直に白状すると俺は135なんだけど、>>135 のレスはアホでした。 >>134 には謝っておきます。すまんでした。 _o_ お詫びに以下のURLの情報をテストしてみた。 ttp://www.redhat.com/archives/linux-lvm/2003-January/msg00204.html
149 名前:135 mailto:sage [04/05/06 23:56 ID:zmQQH789] ■PVを跨がない場合の仕込み Debian(woody) / Linux 2.4.25 / lvm_1.0.8 (1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成 (2)LV&ファイルシステム作成(hda5のみ使用) # lvcreate -L1g -n hda5lv testvg /dev/hda5 # mkreiserfs /dev/testvg/hda5lv (3)適当にファイルコピー (4)umount→testvgを停止後、ddでhda6(全PE未使用)を埋める # vgchange -an testvg # dd if=/dev/zero of=/dev/hda6 (5)testvgをactiveにしようとするが当然エラー # /sbin/vgscan vgscan -- reading all physical volumes (this may take a while...) vgscan -- ERROR "vg_read_with_pv_and_lv(): current PV" can't get data of volume group "testvg" from physical volume(s) vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created vgscan -- WARNING: This program does not do a VGDA backup of your volume group # /sbin/vgchange -ay vgchange -- no volume groups found 以前はここで止めてたんで>>135 みたいなレスだった。
150 名前:135 mailto:sage [04/05/06 23:59 ID:zmQQH789] ■PVを跨がない場合のリカバリ 破壊したhda6と同サイズ・同パーティションタイプ(LinuxLVM:8e)のhda7を使ってリカバリ # pvcreate /dev/hda7 pvcreate -- physical volume "/dev/hda7" successfully created ○hda6のメタデータをhda7にリストアする。 # vgcfgrestore -n testvg -o /dev/hda6 /dev/hda7 vgcfgrestore -- INFO: using backup file "/etc/lvmconf/testvg.conf" vgcfgrestore -- VGDA for "testvg" successfully restored to physical volume "/dev/hda7" # /sbin/vgscan vgscan -- reading all physical volumes (this may take a while...) vgscan -- found inactive volume group "testvg" vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created vgscan -- WARNING: This program does not do a VGDA backup of your volume group # /sbin/vgchange -ay vgchange -- volume group "testvg" successfully activated # mount /dev/testvg/hda5lv /mnt/test/ 全ファイル生還・md5一致
151 名前:135 mailto:sage [04/05/07 00:04 ID:moBi7VqE] ■PVを跨った場合の仕込み&リカバリ PV,VGの作成は同じなので省略 以下のようなLVを使用してテスト。hda5/hda6から512Mずつ使用 # lvdisplay -v /dev/testvg/mixlv の結果(一部) --- Distribution of logical volume on 2 physical volumes --- PV Name PE on PV reads writes /dev/hda5 16 0 2 /dev/hda6 16 0 0 hda6の破壊方法とその後のリカバリ方法は上と同じなので省略 mount前にreiserfsck --checkすると、"--rebuild-treeを実行しろ"と言われるの実行 # reiserfsck --rebuild-tree /dev/testvg/mixlv # mount -o ro /dev/testvg/mixlv /mnt/test 結果 全175ファイル 復旧 96 ( うち33ファイルはlost+foundに数字のファイル名で救出) 破壊 79 ( 消失17 + md5不一致62) ファイルはmp3でサイズはまちまち。 計算してないけどファイルサイズ的には半分だと思う
152 名前:135 mailto:sage [04/05/07 00:14 ID:moBi7VqE] ★PVを跨がない場合・仕込み(LVM2) Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1) device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19) (1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成 (2)LV & ファイルシステム作成(hda5のみ使用) # lvcreate -L1g -n hda5lv testvg /dev/hda5 # mkfs.reiserfs /dev/testvg/hda5lv (3)他のファイルシステムから適当にコピー (4)umount→testvg停止後、ddでhda6を0で埋める # vgchange -an testvg # dd if=/dev/zero of=/dev/hda6 (5)testvgをactiveに変更しようとするが、当然エラー # vgchange -ay testvg Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'. Couldn't find all physical volumes for volume group testvg. Unable to find volume group "testvg"
153 名前:135 mailto:sage [04/05/07 00:17 ID:moBi7VqE] ★方法(a):代替PVを用意してvgcfgrestoreでメタデータをリストアする。(LVM2) (a)-(1)破壊したhda6と同サイズのhda7でPVを作成。この際、hda6で使用していたUUIDを指定する。 # pvcreate --uuid MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa /dev/hda7 No physical volume label read from /dev/hda7 Physical volume "/dev/hda7" successfully created (a)-(2)testvgの情報をリストアする。 # vgcfgrestore -f /etc/lvm/backup/testvg testvg Restored volume group testvg (a)-(3)testvgをactiveにする。 # vgchange -ay testvg 1 logical volume(s) in volume group "testvg" now active (a)-(4)mountする ☆全ファイル生還。md5一致
154 名前:135 mailto:sage [04/05/07 00:18 ID:moBi7VqE] ★方法(b):生きてるPV(hda5)だけでtestvgをactiveにする。(LVM2) (b)-(1)vgchangeに"-P"オプション(Partial mode)を追加して実行 # vgchange -ay -P testvg Partial mode. Incomplete volume groups will be activated read-only. Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'. Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'. Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'. 1 logical volume(s) in volume group "testvg" now active (b)-(2)mountする # mount /dev/testvg/hda5lv /mnt/test mount: block device /dev/testvg/hda5lv is write-protected, mounting read-only ☆全ファイル生還。md5一致
155 名前:135 mailto:sage [04/05/07 00:23 ID:moBi7VqE] ★PVを跨いだ場合(LVM2) PV,VG作成方法は同じなので省略 LV作成では両方のPVから512Mずつ使用 # lvdisplay -v --maps /dev/testvg/mixlvの結果(一部) --- Segments --- Logical extent 0 to 127: Type linear Physical volume /dev/hda5 Physical extents 0 to 127 Logical extent 128 to 255: Type linear Physical volume /dev/hda6 Physical extents 0 to 127 破壊の方法はPVを跨がない場合と同じ(hda6を破壊) リカバリ方法は(a)の代替PVを使う方法しか使えない模様 (b)の方法だと(テストした環境では) device-mapper ioctl cmd 9 failed: Invalid argument と表示される。 結果:全176ファイル => 生還83 / 消失12 / md5不一致 81 あと、(a),(b)いずれの場合もvgchange一発で/dev以下にファイルができない現象が 頻発したけど、もう1回すると問題なくできた。
156 名前:135 mailto:sage [04/05/07 00:31 ID:moBi7VqE] あと、LVM2限定で結果だけ。 ReiserFS+hda5破壊 = 12ファイル生還(ただしlost+foundに数字のファイル名) XFS+hda5破壊 = 65ファイル生還 XFS+hda6破壊 = 66ファイル生還 (ファイル数はいずれも176でサイズバラバラのmp3) おしまい。
157 名前:login:Penguin [04/05/07 20:23 ID:JJMbJYW4] SoftRAID(RAID1)上にLVを切ろうとしています。 切ること自体はできたのですが、起動時に自動検出してくれません。 起動時のメッセージは Starting up RAID device: md0(skipped) md1(skipped) です。 起動後、raidstartとvgscanをやれば、有効になるんですが・・・ fstabで、LVをマウントするようにしています。 OSはRedHat9です。 何かわかりますかねぇ
158 名前:login:Penguin mailto:sage [04/05/07 23:28 ID:saczY0qF] initrd作りなおせオマンコ
159 名前:login:Penguin mailto:sage [04/05/08 11:16 ID:J2fTDgwN] 157です。 mkinitrdやってみましたが、結果ダメです。 手順は以下のとおり。 1./etc/modules.confに以下の行追加 alias md-personality-3 raid1 alias block-major-58 lvm-mod alias block-major-109 lvm-mod 2.mkinitrd mkinitrd -v -f /boot/initrd_raid-2.4.22-1.2188.nptl.img \ $(uname -r) 3.grub.confをeditし、initrd_raidをロードするようにする 4.再起動 dmesgでは以下のようなメッセージが出ており、うまくいっているように 見えます。 RAMDISK: Compressed image found at block 0 Freeing initrd memory: 168k freed VFS: Mounted root (ext2 filesystem). Journalled Block Device driver loaded md: raid1 personality registered as nr 3 kjournald starting. Commit interval 5 seconds EXT3-fs: mounted filesystem with ordered data mode. ちなみに上はfedoraでやってみました。 うーん、何がおかしいんでしょう。
160 名前:login:Penguin mailto:sage [04/05/08 13:33 ID:9BQlLz7P] raidstartしてからmkinitrdしたマンコか? mkinitrdは/proc/mdstatを見てオマンコよ。 だから/etc/modules.confを編集する必要はないマンコ。
161 名前:157 mailto:sage [04/05/08 14:45 ID:pmAGqXMP] すばらしい!うまくいったです。オマンコさん、どうもありがとう。 もうLVMの話じゃないですが、ついでに教えてください。 ひょっとして、mdxデバイスを追加するたびに、mkinitrdしなきゃダメですか? #まあやってみりゃいいんですが。
162 名前:login:Penguin mailto:sage [04/05/08 16:22 ID:9BQlLz7P] >>161 悲しい事に追加や変更のたびにやらにゃいかマンコ。っていいかげんこの語尾やめたいw カーネルを再構築してRAID関係をモジュールにしなければ自動認識になるよ。 FC2でどうなってるのかは未確認。
163 名前:login:Penguin mailto:sage [04/05/08 21:10 ID:5z7Jk+RY] 157っす >>162 うーん、つかえねえToT カーネル再構築は、やったことないし、up2dateが使えなくなりそうなので、やめときます。 まあとりあえず現状で満足することにします。 どうもありがとう。
164 名前:login:Penguin [04/05/16 14:46 ID:VitpnX4s] lvm上に作ったファイルシステムって WindowsのExplore2fsとかから見えるのかな。
165 名前:login:Penguin mailto:sage [04/05/16 15:02 ID:aVnYK0wB] 見エマセぬ
166 名前:login:Penguin mailto:sage [04/05/18 20:07 ID:aktDVrQJ] >>148-156 非常に参考になったわ。 こんなにLVMの事を検証している人を見たのは貴殿が初めてだわ。 これはLVM HOWTOに載せて欲しいぐらいの内容だね。
167 名前:login:Penguin [04/05/28 23:19 ID:PYZd4d/f] pv→HDD3本でひとつのvgを組んでます。 ここから生成されたlvはreiserfsでフォーマットされています。 で、最近 fsck.reiserfsをすると ディスクにハード障害があります云々いわれます。 この場合、 1.やっぱりHDDに物理的な障害がある。 2.vgになんかの障害がある。 1にせよ2にせよ、fsck以外の修復コマンドとかって存在するのでしょうか?? もしあれば、誰か助けてください。。。。 いま、めちゃブルーです。
168 名前:login:Penguin mailto:sage [04/05/29 03:10 ID:Xtz3Va5J] >>167 3.ファイルシステムが壊れているとか reiserfsckはデフォルトではcheckだけじゃないの? --rebuild-treeとか付けんと。>>151 みたいに もちろん、やる前にはバックアップとってな。 HDDの物理的障害だったらdmesgになんか出てると思うけど >>147 VGじゃなくてLVでしょ。 Unix Magazine 2004年6月号で2.5TBのLV作ってるよ
169 名前:167 [04/05/30 23:48 ID:OnGdtw98] >>168 回答ありがとうございます。 いろいろ試してみたのですが、拉致があかなかったため、とうとう rebuild-treeしたところ、途中でrebuild-treeがAbortしてしました。 bread: Cannot read the block (31329): (Input/output error). Aborted ただ、以下のメッセージが出ていることから/dev/hddの物理障害は間違いないっぽいです。。。 hdd: dma_intr: error=0x40 { UncorrectableError }, LBAsect=251175, high=0, low=251175, sector=251175 end_request: I/O error, dev hdd, sector 251175 Buffer I/O error on device dm-0, logical block 31341 そこで、badblocksコマンドにてlv(/dev/lvm/hogehoge)のbadblockを書き出して、 badblocks -o out.txt /dev/lvm/hogehoge 再びreiserfsckをかけました。 reiserfsck --badblocks out.txt --rebuild-tree /dev/lvm/hogehoge が、上記と同様にAbortされてしまいます。 reiserfsck --rebuild-treeは、不良ブロックがあるために、強制終了されているように見えます。 reiserfsck --rebuild-treeを最後まで終了させるよい方法はないでしょうか??
170 名前:login:Penguin mailto:sage [04/05/31 01:30 ID:hhvzfuis] >>169 dd_rescueでバックアップを作成し、reiserfsckする 「Bad block handling in ReiserFS」 ttp://namesys.com/bad-block-handling.html [dd_rescue] ttp://www.garloff.de/kurt/linux/ddrescue/
171 名前:login:Penguin mailto:sage [04/05/31 02:48 ID:lsYmUrdk] dd_rescueなんてあるんですね。 LVM使ってないけど、reiserfsのパーティションが壊れたときは、 私もrebuild-treeが途中で失敗してしまう状況でした。 結局、普通のddで何とかしましたけど。 結構なファイルがlost+found行きになりました。
172 名前:login:Penguin mailto:sage [04/05/31 06:23 ID:OXeGSEwS] えー、ここはLilyVMのスレということで異論ありませんね? はい、ないようなのでLilyVMスレ@Linux板と決定いたします。 UNIX板のスレはこちら。 【Usermode】LilyVMってどうですか 01【NetBSD】 pc5.2ch.net/test/read.cgi/unix/1079170498/
173 名前:login:Penguin mailto:sage [04/05/31 06:29 ID:cSlLkb+0] ↓何事も無かったかのように次どうぞ
174 名前:login:Penguin mailto:sage [04/05/31 07:03 ID:OXeGSEwS] lilyvm.sf.net/ IPAの金で作られたUsermodeなNetBSDでつ。Linuxだとそのまま動くけどNetBSDではパッチが必要。 どうですか。
175 名前:良い子のお約束 mailto:sage [04/05/31 13:00 ID:KXn0+fEs] (1)日本人が作ったものは40%割り引いて考える。 (2)IPAの金で作られたものは信用しない。 (3)任天堂のゲームには近付かない。
176 名前:login:Penguin [04/06/20 02:44 ID:M3ZdqO8W] インストーラでlvmが使えると楽やね。
177 名前:login:Penguin mailto:sage [04/06/26 21:41 ID:NWOwsSX3] PE Sizeのことで質問させてください。 PE Size = x として、作成するLVは、x * n (0 < n < 65535)なので、 たとえば、PEが4MBのときは、作成できるLVのサイズが4MBの倍数になり、 32MBのときは、32MBの倍数になる。 PE = 4MB の時は、36MBとかのLVを無駄なく作成できるが、 PE = 32MB のときは、LVが32MBか、次は64MBになってしまうので無駄が出来る、、 という理解で正しいでしょうか。 inodeの最小ファイルサイズ(アロケーションサイズ)とは無関係、、ですよね?(^-^:; PEを32MBで作った後で「PEが大きすぎると無駄が生じやすくなる」とか書かれてる 記事を見つけて焦ってしまったんですが。
178 名前:login:Penguin [04/07/01 12:02 ID:Ua6cWiFK] 無駄無駄無駄ぁぁぁ!!!
179 名前:login:Penguin mailto:sage [04/08/31 17:29 ID:mhv4SZxs] LVMって生で使うより重いの?
180 名前:login:Penguin mailto:sage [04/09/01 01:21 ID:hMUQSwG3] >>179 軽い道理が無いだろ(w でも386や486クラスでもなきゃ、あんまり変わったような気はしないが。
181 名前:login:Penguin [04/09/13 22:02:18 ID:vib1TXoh] LVをルート(/)にマウントしている場合、そのLVをいじりたいときはどうしますか? ファイルシステムはext3、ディストリはFedora2です。 /boot /dev/hda1 / /dev/mapper/Volume00-LogVol00 /dev/hda1がext3 /dev/hda2がLinux LVM /dev/hda3がswap KNOPPIX3.4をCD-ROM起動して、pvscan,vgscanを試しましたがダメでした。(エラーのメッセージはメモり忘れたスマソ)
182 名前:login:Penguin mailto:sage [04/09/13 22:51:09 ID:vO7Y51N9] ちょっと考えれば、/でlvmを使う意味が無いことくらい気が付くからな。
183 名前:181 [04/09/14 21:29:21 ID:PwK9BewZ] でも既にこの構成になってしまっているのですよ。 なにか方法ないですかね?
184 名前:login:Penguin mailto:sage [04/09/14 21:54:41 ID:16qryvOq] FS自体壊れてはいないんだよね? 漏れだったら、dump/restore でLVとパーティションを切り直す。 >>182 の言うとおり、/ をLVMにするのは後々にも無用な手間がかかるだけだし。 まあ、勉強と思ってなんとかする方法を考えてみるのもいいけど(この後役に立つ場面があるかどうか・・・)。
185 名前:181 [04/09/15 01:11:51 ID:KT7pbieC] >>184 壊れてないです。 方法がなければ切り直そうかと思ってるんですけど、 >勉強と思ってなんとかする方法を考えてみる ってことでココに書き込んでみた次第でございます。
186 名前:login:Penguin mailto:sage [04/09/17 20:59:29 ID:b4dp+fcm] SLVMって使えんの?
187 名前:login:Penguin [04/09/18 10:22:30 ID:Nmvwrsgi] >>181 スワップを/にして、LVMから/をはずしとけ。スワップはLVMの中にでも 作りなおせ。
188 名前:login:Penguin [04/09/21 23:05:19 ID:F8lCx2GU] >>181 亀レスですまんが、KNOPPIX3.4でもLVMは使えるぞ。 カーネルモジュールがロードされてないギミなので depmod -a して modprobe lvm-mod してみれ。
189 名前:login:Penguin mailto:sage [04/09/22 02:04:49 ID:tY0jOet7] >>188 KNOPPIXのLVMってLVM1じゃなかったっけ? 以前、LVM2環境をミスって起動不能にした時、 データ抜き出そうとして使ったけど、LVM2を操作できなかったと思う (結局、LVM2環境を新しく作ってHD繋げて吸い出した) >>181 新しく/用にLV作って必要なものコピー、 そっちを/にマウントするようにして起動ってのは? Fedoraでどうやるか知らないけど。 FedoraのLVM2環境の起動の仕組みって↓とは全然違う? ttp://www.poochiereds.net/svn/lvm2/
190 名前:181 mailto:sage [04/09/24 01:19:17 ID:JORLx4Uz] >>188 なるほど。試してみたいんだけど、もうパーティションを切りなおしてしまいますた。。。 >>189 そうゆう手がありましたか。でも例えば/の容量を増やしたい場合は、 /のLVの容量 + 増やしたい容量 のLVを作らないといけないんですよねぇ。一時的に倍以上のHDDが必要になるのはちょっとムリぽ。。。
191 名前:login:Penguin [04/09/27 13:12:09 ID:mojAcgNu] そういった事態を想定して、PVは細切れ(数GB単位)で作ってVGに登録しておくことを 学んでおくことにしましょうね >>190 私も一昨年ぐらいにそれを経験して、それ以降/は非LVMな素のパーティションにしました。
192 名前:login:Penguin mailto:sage [04/09/30 00:26:14 ID:9J1+0UZc] オンラインリサイズできるファイルシステム(Reiserfs,xfs)を 使い、各LVは必要最小限のサイズで作りませう 私は/boot+swap+PV1個の3パーティションで節約生活してますよ (´-`).。oO(なんかさ、LVM使ってるとケチになるよね…)
193 名前:login:Penguin mailto:sage [04/10/04 00:33:55 ID:PdEJi7TQ]
194 名前:login:Penguin [04/10/17 02:02:36 ID:HoEJPIc+] lvmかますことによってパフォーマンス落ちる? 導入を検討しとるのだが、ディスクアクセスが遅くなるなら躊躇する。
195 名前:login:Penguin mailto:sage [04/10/17 03:54:32 ID:IwSy/hON] >>194 >>179-180
196 名前:login:Penguin mailto:sage [04/10/18 00:06:23 ID:CENiT07H] 定期チェックでfreiserfs@LVMにfsckかけたら bad sectorが出てAbortしてしまう・・・ 複数のHDDがVG登録されていて 物理的にどのHDDがbad sector出してるのか判別もできず・・・ こんな場合どいった手順で復旧していけばいいんでしょうか?
197 名前:login:Penguin mailto:sage [04/10/18 00:07:07 ID:CENiT07H] × freiserfs ○ reiserfs うぅ・・・
198 名前:login:Penguin mailto:sage [04/10/18 00:58:41 ID:IHK36xr/] >>196 そのファイルシステムがmount可能なら 今すぐバックアップを作る。 その後で>>170 かな 人柱になって報告したいなら>>151
199 名前:196 mailto:sage [04/10/20 07:26:55 ID:GE+TE0oK] 壊れてるHDDが物理的にどれなのかを判別できたんですが 新しくHDD買ってきてPV増やした上で このHDDをpvmoveしたりするのは自殺行為・・・・ですよね? syslogにガンガンエラー吐いてるけど復旧する時間が無い〜 週末まで耐えてくれ・・・ おとなしく >>198 でいくべきかな、やはり
200 名前:login:Penguin mailto:sage [04/10/22 20:13:06 ID:6KWwn4ly] >>199 無事? とりあえず、バックアップとった後で pvmove試してくれるなら是非人柱希望 ただし、LVM1で"/"がLVM上にあるような環境の場合はヤバいと思う pvmove中、不良セクタ踏んだ瞬間にフリーズ →仕方ないので電プチ →PV死亡。VG活動化できず起動不能 ってなるかも
201 名前:196=199 mailto:sage [04/10/23 02:49:17 ID:U8sO2JHE] とりあえず、物理的にどのHDDがBadSector出してるのかを判別できたので ・新しく買ったHDDに新しいVG割り当て ・BadSectorの出るHDDの含まれたVGの読めるデータを買ってきたHDDのVGに移動 ・空きが増えたらresize_reiserfsして縮小 ・lvのサイズを縮小 ・HDD一個分のVGの空きができたらBadSectorの出ているHDD以外のやつをpvmove ・壊れたHDDのVGから切り離して新しく買って来た側のVGに割り当て ・上を繰り返して壊れたHDDのみがVGに登録されている状態にする という感じで玉突きしてみようかと検討してますが resize_reiserfsでコケる気が激しくする・・・ アイオーのLinkPlayer+Einキャプチャ機+Samba でレコーダー代わりにしてたデータ領域で HDDが4台、データ領域が1TB近くある・・・
202 名前:201 mailto:sage [04/10/24 03:56:24 ID:SET3wOLA] 壊れたHDDと同じVGに所属しているが壊れたデータの格納されていないLVの データ避難・LV削除はできましたが 壊れたデータの入ってるLVのresize_reiserfsできず・・・・
203 名前:login:Penguin mailto:sage [04/10/27 11:21:45 ID:EqiaD7Nc] /home にあったデータが一瞬で消えた・・・orz 83→データいれる→8e したら駄目だったのか・・・?
204 名前:login:Penguin mailto:sage [04/10/27 16:44:35 ID:pDldRhuo] そりゃ駄目だ。
205 名前:login:Penguin mailto:sage [04/10/27 17:27:20 ID:lhKPiB/N] やっちまったな
206 名前:login:Penguin [04/12/02 00:01:54 ID:BsejacY+] linuxのmdでraid5デバイスを作成して、その上にLVをきろうと思います。 この場合、ディスク増設>raid5再構築>LV拡張>パーティション拡張等 をオンラインでデータを保持したまま出来るものなのでしょうか。 また、こういうmd上のLVの拡張、VG切り離しなどの情報など有用なURLが あれば教えていただけないでしょうか。
207 名前:login:Penguin mailto:sage [04/12/02 00:31:11 ID:ZSpotIbt] >>206 そもそもLinuxのmdはraid5の構成を変更して再構築なんか出来たっけ?
208 名前:login:Penguin mailto:sage [04/12/02 07:36:22 ID:LnTTlRFZ] linuxというか、そもそも一般的なraid5でそんなことできるのかどうか。
209 名前:login:Penguin mailto:sage [04/12/02 07:43:07 ID:Bm8JDMsv] raidreconf使えば例えば250GB x 3を250GB x 4にするは出来る Arrayをオンラインのままでは無理だったかと 250GB x 3を300GB x 3に、は知らんけど RAIDカードもオンライン拡張可能と書いてあれば大体出来るんじゃない?
210 名前:login:Penguin [04/12/03 02:01:38 ID:du/UIkAw] >>207 www.heart-pot.co.jp/lworg.html ここに事例がありました。 しかしmdの上にLVMって普通やらないのでしょうか。 raidカード要らずでメリットが大きいと思うのですが。
211 名前:login:Penguin [04/12/04 02:07:45 ID:BbxGDoDA] > こういうmd上のLVの拡張、VG切り離しなどの情報など LVとVGはmd上かどうかは関係ないだろ。普通にLVやVG作った場合と同じやりかたでOKだと思う。 問題は、 > ディスク増設>raid5再構築 によって、PV(に割当ててるパーティション)のサイズが増えること。 LVM側でもいろいろ操作が必要。vgcfgbackupして、pvcreate -uして、vgcfgresoreするとか。 ただし、raid5の再構築といい、それにからんだLVMの操作といい、全データが吹っ飛ぶ 可能性が十分考えられるから普通やらない。少々ディスク効率が悪かろうが、別途mdを構成して、 PVに割り当てる方が賢明。 バックアップをちゃんととって、md上の全データ吹っ飛ぶ覚悟ができてるならやってもいいが。 > しかしmdの上にLVMって普通やらないのでしょうか。 普通にやるとおもうけど。raid LVMとかでぐぐってみ。 その場合に、raidを再構築するのがレアなだけ。
212 名前:login:Penguin [04/12/04 17:22:52 ID:BTKpaP2z] >>211 なるほど。そもそもraidとバックアップをきちんと考えわけ ないといけないですね。 とりあえずディスクが2つあいているので、ミラーセットをつ くっていろいろ試してみます。
213 名前:login:Penguin mailto:sage [04/12/12 19:04:45 ID:AoK/hzny] 複数のPVが1つのVGとLVで構成されているデータ領域の HDD一台がdでしまいました。 復旧にあたって死んでいない残り3台のHDDのデータを 救い出しつつ復旧するにはどうすればよいでしょうか? 来週末までに壊れたHDDよりも容量の大きいHDDを買ってきて vgrestoreする予定なのですが これだと死んでないHDD3台のデータも拾えないんでしたっけ?
214 名前:login:Penguin mailto:sage [04/12/12 19:29:21 ID:sTtCJRM0] dd_rescue
215 名前:login:Penguin mailto:sage [04/12/13 02:06:30 ID:PGw1X2t2] >>213 コマンドはvgcfgrestore >>149 以降でテストしてる 生きてるHDD上のデータは救出できるけど あまり期待しない方がいいよ 死んだHDDにちょっとでも乗っていたファイルは 助からないはず
216 名前:login:Penguin mailto:sage [04/12/26 23:53:59 ID:kkeu0ykE] 仕事上必要があってwindows XP 64bit-editionを入れたら 見事に別ディスクのLVM領域は破壊してくれた 何でこういうイヤガラセするかなぁ
217 名前:login:Penguin [05/01/03 02:58:23 ID:mM5fO6TV] Redhat9のkernelを2.6に上げたのでdevice-mapper+LVM2をインストールして /sbin/mkdmnodで、/dev/mapper/controlをつくりました。 これで起動スクリプトにvgchange -a などを追記して既存ボリュームを認識し てくれたのですが、以降rebootやシャットダウンの度に最後に 「md0: switching to read-only mode」〜「md1X: switching to ...」 というmd関連のメッセージがずらっと表示されるようになりました。 LVMはVer1.Xを使っていますがmd(raid)なんか一個も組んでいません。 これは何が悪いのでしょうか。 どうもカーネルモジュールのmd.cにそういうメッセージを出すところがあ るみたいですが私ではそれをどうしてよいかもわからないんです。
218 名前: [05/01/28 00:00:53 ID:O4GA9oN8] スナップショットをとる しばらくその後スナップショット時点の状態に戻すことは可能? 管理情報は残ってるわけだからできそうなんだけど
219 名前:login:Penguin [05/01/28 00:11:59 ID:inuf15bo] ★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★ 在宅ワーカー募集します!!日給7800円以上可能!! 詳しいことはホームページに書いてあるのでご覧下さい。 advanced7success.fc2web.com/ 尚、お申込みの際は ID『sa01』が必要になります。 ★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
220 名前:login:Penguin mailto:sage [05/02/24 12:40:30 ID:FPH7Nh1+] 保守
221 名前:login:Penguin mailto:sage [05/03/04 02:17:33 ID:DeSP1Kyo] 補修
222 名前:login:Penguin mailto:sage [2005/03/31(木) 15:24:49 ID:chtc/3VW] ほちゅ
223 名前:login:Penguin mailto:sage [2005/03/31(木) 16:18:41 ID:7faVLxYM] RHEL4でext2onlineがサポートされて、だいぶ使いやすくなったけど、 LVMでext3ってどうよ?