LVMを語らせていただけませんか?
at LINUX
[前50を表示]
100:login:Penguin
04/01/04 01:25 I17XrOfv
>>99
virtual group 全体が破壊されるはず
LVMにはオリジナルのような冗長性は無い
信頼性を要求される場合はRAIDと組合せて使うべし
101:login:Penguin
04/01/04 03:31 KwBJysVL
LVM便利に使っております。
ところでいま、
/dev/hda ReiserFS /
/dev/hdb これと /dev/hdc の二つでLVMを利用してReiserFSで /home
を作っております。
今度新しいマシーンにこの LVM で作った /home を持って行こうと思うの
ですが、新しいマシーンのKernelでLVMを使う設定にしておき、fstab を
編集しておく以外に何かしておかないといけないことは有りますでしょうか?
(向こうの環境、及び現在の環境で)
予定では新しいマシーンの /dev/hdc と /dev/hdd になる予定です。
102:login:Penguin
04/01/04 11:00 hx26I4ba
マシーン
103:login:Penguin
04/01/04 11:28 uI2yZvZN
>>101
LVM HOWTO - Moving a volume group to another system
URLリンク(tldp.org)
>>100
s/virtual/volume/
104:login:Penguin
04/01/04 12:16 KwBJysVL
>>103
なんと・・・日本語のHOWTOには書いてなかったので
よくわからなかったのですが、英語の方には書いてありましたか。
レスありがとうございました。非常に助かりました。
105:104
04/01/11 09:39 al7cuK4x
vgを非アクティブにしてvgexportで切り出し
新しいマシーンでpvscan後にvgimportであっさり移動でました!
106:login:Penguin
04/01/12 00:31 pzefXv4F
サイズ計算間違えて余ってしまった PE がもったいなくて
lvresize -L+10G vg_main/lv_home
とやるつもりが、
lvresize -L10G vg_main/lv_home
とやってしまって、次に出た質問につい惰性でyと答えてもうた。
(このプロンプト、さりげなさすぎ)
150G ちかくつかってた /home があぼーん。
FSがつかってるサイズより小さくできないようにならないものか。
なにが痛いって、CVSリポジトリ飛ばしたのがいたかった。。。
107:login:Penguin
04/01/12 16:24 rTgBW3xV
>>106
"lvresize"じゃなくて拡張専用の"lvextend"使えばエラーで止まってくれるよ。こんな感じで。
lvextend -- New size given (8 extents) not larger than existing size (16 extents)
ってか"lvresize"ってLVM2だよね?
大事なデータは置かない方がいいんじゃ…
108:login:Penguin
04/01/20 19:55 ZxauvQQl
LVMを語る香具師少ないな。
109:login:Penguin
04/01/23 17:10 K7VtDfy4
素人向けに書かれたページないすかねぇ?
110:login:Penguin
04/01/23 18:17 /TnM4T0Z
>>109
俺はLVM HOWTOで解ったし、後は旧ZDNETの記事で
LVMのこと全く知らなかったけど解ったよ。
111:login:Penguin
04/01/28 16:00 p//kBex1
ようするにこれってハードディスクを2つ以上持ってないと意味ない機能ですか?
112:login:Penguin
04/01/28 16:01 EAGjJ7Q+
(゚Д゚)ハァ?
113:login:Penguin
04/01/28 16:07 p//kBex1
RAIDの話とかでてるし、この図見てたらハードディスク1つの人には
関係ない話なのかなぁと思っただけ。
URLリンク(www.itmedia.co.jp)
おもしろそうだからさっそく試してみるか。
114:login:Penguin
04/01/28 22:42 B1flgUdw
>>113
ディスク1本でもパーティション分けてる人は有効だよん
動的に拡張できるし
115:login:Penguin
04/02/05 17:55 N4wUKkZN
TabとSpaceとEnterで操作できる工具が欲しいよぅ
116:login:Penguin
04/02/05 19:28 pweqheS2
質問というか確認。kernel 2.4.21 での LVM1 は PE サイズを大きくしても
2TB 以上の LV を作れないようだが、
[mona@2ch mona]# /sbin/vgcreate -s256m work /dev/sda1
vgcreate -- INFO: maximum logical volume size is 2 Terabyte
vgcreate -- doing automatic backup of volume group "work"
vgcreate -- volume group "work" successfully created and activated
これはそういうものなのかな? ちょうど 3TB (fs の制限にはひっか
からない) の Volume を作りたいのだが。
対案も募集。LVM2 だと幸せになれたりする?
117:login:Penguin
04/02/05 19:41 pweqheS2
ついでに LVM のうれしさについて一席ぶつ。
旧来は、disk 容量たりなくなったー、といったら新しい disk を
/home1,/home2,/home3 とか増やしていって、容量の調整の mv で
無駄な時間を費やしていたわけだ。これはどこにおいたらいいんだ?
もストレス。
これを単一の /home にまとめて扱えて、しかも動的に増やしたり
減らしたり(あまりないけど) できたら便利だと思わないか。
つーかふつー LVM
使うだけなら >>110 の言うこの2文書読めば死角なし。細かい
用語はそのうちわかってくる。ただし、冗長化はしないので、
>>100 の言う通り、raid1,5 の上で使うのがベストではある。
URLリンク(www.linux.or.jp)
URLリンク(www.itmedia.co.jp)
118:login:Penguin
04/02/06 12:49 OjypMQGg
LVMにreiserfs作ろうとすると
reiserfs_create_journal: cannot create a journal of 8193 blocks with 18 offset on 8192 blocks
って出て失敗するんだけど、どうしたらいいの?
ちなみにPEは32Mでext3とxfsは問題なく作れる
119:login:Penguin
04/02/08 16:28 aFzkEREw
>>116
man vgcreateによれば、Block Deviceのサイズ制限(2TB)らしいが。
2.6系ならCONFIG_LBDがある。2TBなんてディスク無いんで未確認だけど。
>CONFIG_LBD:
>Say Y here if you want to attach large (bigger than 2TB) discs to
>your machine, or if you want to have a raid or loopback device
>bigger than 2TB. Otherwise say N.
ただ、LVM2(device-mapper)がまだ怪しいんで、単一のファイルが
2TBを越えないなら2.4系で複数のLVに分けた方がいいと思う。
俺はかなり久しぶりにファイルシステム壊した。
2.6.0の頃の話なので、最新Versionでは改善してるかもしれんが…
LVM2でやったらレポート希望
120:login:Penguin
04/02/09 22:29 KbcU0gyW
>>119
むー、単にファイルサーバじゃなく 上でじゃがじゃがやるマシンなので、
LVM2/2.6.x はヤメとくことにした。情報ありがとう。
まだマシンの本稼働までには時間があるので、時間があれば試すだけは試してみる。
121:login:Penguin
04/02/10 19:37 t+3Za9lM
家はLVM2/2.6.2だけど全然問題ないよ
122:login:Penguin
04/02/10 21:58 ZJuqC/70
2.4のXFSでたまに気がつくとファイルの中身が全部0になっていること
があるんだか、そんな経験ないですか?うちは覚えているだけで2回目。
/boot以外全部XFSでのマシンで。
123:login:Penguin
04/02/10 21:59 ZJuqC/70
>122
すまん、スレ違い。レスは該当スレにヨロシク。
124:login:Penguin
04/02/12 12:17 Rdb56AUc
vgextendでVGに割り当てたディスクをVGから外すとき、pvremoveしても問題ない?
125:login:Penguin
04/02/12 13:31 0EKzsiYE
以前使っていたマシーンからvgexportでVGを取り出して
新しいシステムに移し、vgimportを実行しましたが上手く取り込めないのです。
vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- found exported volume group "discPV_EXPPV_EXPPV_EXP"
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group
vgimport disc /dev/hd[bdefh]1
vgimport -- ERROR: wrong number of physical volumes to import volume group "disc"
こんなエラーが出てしまうのです。
そもそも何故"discPV_EXPPV_EXPPV_EXP"になってしまったのが解らないのですが・・・
vgimport discPV_EXP /dev/hd[bdefh]1
vgimport discPV_EXPPV_EXP /dev/hd[bdefh]1
試しにこのようにしてみたのですが結果は同上でした。
126:125
04/02/12 13:32 0EKzsiYE
必要なディスクは全てあるのを確認しております。
--- List of physical volume UUIDs ---
001: cigRmZ-xMzR-PzV5-tk47-EmFy-pB9z-0BCuTA
002: sdtuUo-ayhh-MdWh-JYZv-67HD-uE6r-kc250p
003: nIF6Zr-uE5h-Fq6W-n8FY-eD50-4E2D-ZZko4z
004: ExsNWE-DOb6-k2NN-cOfs-Qxl8-6GtZ-UZ9elq
005: YruuGn-NAQR-5RWy-YFaU-bBaz-qxa6-0MPCoF
PV Name /dev/hdb1
PV UUID nIF6Zr-uE5h-Fq6W-n8FY-eD50-4E2D-ZZko4z
PV Name /dev/hdd1
PV UUID ExsNWE-DOb6-k2NN-cOfs-Qxl8-6GtZ-UZ9elq
PV Name /dev/hde1
PV UUID sdtuUo-ayhh-MdWh-JYZv-67HD-uE6r-kc250p
PV Name /dev/hdf1
PV UUID cigRmZ-xMzR-PzV5-tk47-EmFy-pB9z-0BCuTA
PV Name /dev/hdh1
PV UUID YruuGn-NAQR-5RWy-YFaU-bBaz-qxa6-0MPCoF
何が悪い(原因)なのかお心当たり有る方、是非ご教授頂けませんでしょうか?
よろしくお願いします。VGに納められているデータは絶望的なのでしょうか・・・
127:login:Penguin
04/02/12 14:00 oIFlb4da
>>125
PV_EXPはvgexportするときにLVMがつけるようですね。
URLリンク(www.spinics.net)
LVMのバグでimport出来ない場合があるようです。
URLリンク(www.spinics.net)
128:125
04/02/12 14:21 0EKzsiYE
>>127
フォローどうもです。
私も色々調べていたのですが、如何せん英語が苦手で・・・
PV_EXPの件は問題なさそうですね。データはまだ生きているのだろうか・・・
ちなみにimport出来ない件ですが・・・
Use 1.0.7.
と教えて頂いたサイトには書いてありましたが私が使っているDebianの
woodyでは lvm10_1.0.4-4_i386.deb (Source Code: [lvm10_1.0.4.orig.tar.gz])
なので 1.0.8 以降の sarge で無いとインポート出来ないのですか・・・
woodyで作ったものをインポート出来ないのはかなり辛いですね。
とりあえず、まだデータは生きている可能性が高そうなので希望を捨てずに
頑張ってみます。
129:125
04/02/12 14:43 0EKzsiYE
感激感謝雨霰
>>127さん本当にありがとうございました。
とりあえずDebianをsargeにアップグレードして
lvmを1.0.8にアップグレード後vgimportを行うと
今までの不安と失望を吹き飛ばすぐらいあっさりと
importすることが出来ました。
もうダメだろうと思って一からやり直そうと9割方データ
を諦めていて、最後にlvmを導入するきっかけになった
このスレに戻り、思い切って質問させて頂いたのですが
本当に良かったです。
本当に、本当にありがとうございました。
130:login:Penguin
04/02/12 21:31 NYEuOy2Y
>>129
よかったね。一番恐い不具合だよなぁ。
# バックア…ま、ひとのことは言えない
131:login:Penguin
04/03/31 08:45 p4gnyIqI
保守あげ
132:login:Penguin
04/03/31 08:45 p4gnyIqI
下げてた
首吊ってきます
133:login:Penguin
04/03/31 21:19 FzS93x89
LVMはすごく情報が少ないような気がする
134:login:Penguin
04/04/06 16:27 EUJs3rTZ
質問させて下さい。
二台のHDDでLVMを利用しVGを構成しているのですが
片方のHDDが電源を入れても動かなくなりました。
こういう場合、電源が入る片方のHDDに有るデータで
無事なものを抜き出すことは可能ですか?それとも
全データを失ってしまったのでしょうか?
135:login:Penguin
04/04/07 02:09 Wbtjz5Vb
>>134
多分無理だと思う。
テストで、
1)2つのパーティションをPVにしてVG作成
2)LVを2つのPVを跨ぐように作成&ファイルシステム作成
3)VGを非活動化してから、ddで片方のパーティション上書き
4)vgchange -a y でVGを活動化できず。VG死亡
2)でPVを跨がなかった場合は試してない
とりあえず生き残った方の中身をddでバックアップor別ディスクにコピーしてから
vgchangeが効くかどうか試してみては?
136:login:Penguin
04/04/07 19:35 yMwiLEKO
>>135
レスありがとうございました・・・。
でも、どんなに頑張っても無理でした・・・。
もちろんバックアップを取っていない私が悪いのですが(TT
今後はバックアップを取るように気をつけます・・・。
137:login:Penguin
04/04/07 21:04 tbnmpj7T
>>135-136
URLリンク(www.linux.or.jp)
8.2 なぜストライピングしないのか
ストライピングだけを行うと、「ビット単位」で破壊が起こる危険が出てきます。ディスクが駄目になると、
論理ボリュームの内容がおしゃかになってしまいます。
データを連続して置いてあれば、ファイルシステムの一部だけで済ませられます。
Stripingしてなかったらファイルシステムの一部を失うだけで助かるんじゃないの??
俺はずっとそう思っていたんだが。もしそうじゃなかったら俺も今すぐバックアップ
取らないと行けないな。かなり油断していた。
ソフトウエアRAID(md)と組み合わせてLVM作るのが一番無難か??
138:login:Penguin
04/04/07 21:20 YkSh897y
えっ、やってないの?
139:login:Penguin
04/04/08 17:21 KVyl6Huz
>>137
URLリンク(linux.msede.com)
壊れたドライブにデータが無かったら大丈夫らしい(?)が
複数のドライブで一つのパーテーションを実現するような使い方をしているとダメ臭いね。
やっぱり何はともあれバックアップが重要って事で。
140:login:Penguin
04/04/08 17:23 KVyl6Huz
上で>>135が言ってるけど
2)でPVを跨がなかった場合は試してない
これに関してはMailing Listの書き込みを見る限り大丈夫っぽい
って事追記するの忘れてた。
連続ポストスマソ。
141:login:Penguin
04/04/08 20:49 MyiCZN16
正直、PV をまたいだ LV で fs を使うのは危険だと思ってます。
リカバリ時に意味のある単位で backup できないから。
PV の I/O error がでた部分にどのファイルが書かれていたか、
あとからわからない限りはダメだと思ってるんですが。
142:141
04/04/08 20:52 MyiCZN16
ところで、 kernel-2.6.5 の device-mapper で、
LV を 13個以上切って使えてる香具師いますか?
なんで 13なのか とつっこまれそうだが、漏れがその辺りから使えなかったので ...
143:login:Penguin
04/04/09 19:49 sJAe50d2
LVMって実際に使い物になるの?AIXでもクリティカルな用途では
それほど、使われてないって聞いたけど。
144:login:Penguin
04/04/10 06:25 i9h2mmLK
>>143
使ったことないだけ?
使い方知らないだけ?
逆にAIXでLVM使わないでFS作る方法を教えてほしいっすよ。
漏れは、LinuxでもインストーラがLVM+ReiserFSに対応してないのは使う気になれんが。
145:login:Penguin
04/04/11 17:37 Z/hVhcsh
>>142
微妙に環境違うと思うけど、以下の環境でLV26個できてるよ。
Debian(sarge) Linux 2.6.5-mm2 + Device-mapper unstable(2.6.5-udm3)
device-mapper 1.00.15 / LVM2 2.00.11(2004-04-08)
試してて気づいたんだけど、reiserfsがのってるLVをmountしても
Open LVとしてカウントされないんだけど。。。ウチだけ?
↓26LV全部mountしてもOpenLVが16になってる
# vgdisplay
--- Volume group ---
VG Name rootvg
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 75
VG Access read/write
VG Status resizable
MAX LV 255
Cur LV 26
Open LV 16
Max PV 255
Cur PV 1
Act PV 1
VG Size 111.25 GB
PE Size 32.00 MB
Total PE 3560
Alloc PE / Size 1608 / 50.25 GB
Free PE / Size 1952 / 61.00 GB
VG UUID bnxgSD-J5Hb-70Io-TUic-EJGu-y0X5-mnvXRB
146:141
04/04/14 10:53 uDiO3j/8
>>145
情報ありがトン。
udm の patch を調べて別のマシンで実験してみます。
っていうか、こんな機能使うのに kernel-ML をチェックしていなかった漏れがバカでした(;_;
147:login:Penguin
04/05/03 23:05 xF+EBQEG
結局のところVGサイズが最大2TBの制限って解決したんでしょうか??
148:135
04/05/06 23:53 zmQQH789
>>145のreiserfsがOpenLVとしてカウントされない現象ですが、
以下の環境をゼロから作り直したら解消しました。原因は調べてませんが。
Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1)
device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19)
で、正直に白状すると俺は135なんだけど、>>135のレスはアホでした。
>>134には謝っておきます。すまんでした。 _o_
お詫びに以下のURLの情報をテストしてみた。
URLリンク(www.redhat.com)
149:135
04/05/06 23:56 zmQQH789
■PVを跨がない場合の仕込み
Debian(woody) / Linux 2.4.25 / lvm_1.0.8
(1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成
(2)LV&ファイルシステム作成(hda5のみ使用)
# lvcreate -L1g -n hda5lv testvg /dev/hda5
# mkreiserfs /dev/testvg/hda5lv
(3)適当にファイルコピー
(4)umount→testvgを停止後、ddでhda6(全PE未使用)を埋める
# vgchange -an testvg
# dd if=/dev/zero of=/dev/hda6
(5)testvgをactiveにしようとするが当然エラー
# /sbin/vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- ERROR "vg_read_with_pv_and_lv(): current PV" can't get data of volume group "testvg" from physical volume(s)
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group
# /sbin/vgchange -ay
vgchange -- no volume groups found
以前はここで止めてたんで>>135みたいなレスだった。
150:135
04/05/06 23:59 zmQQH789
■PVを跨がない場合のリカバリ
破壊したhda6と同サイズ・同パーティションタイプ(LinuxLVM:8e)のhda7を使ってリカバリ
# pvcreate /dev/hda7
pvcreate -- physical volume "/dev/hda7" successfully created
○hda6のメタデータをhda7にリストアする。
# vgcfgrestore -n testvg -o /dev/hda6 /dev/hda7
vgcfgrestore -- INFO: using backup file "/etc/lvmconf/testvg.conf"
vgcfgrestore -- VGDA for "testvg" successfully restored to physical volume "/dev/hda7"
# /sbin/vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- found inactive volume group "testvg"
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group
# /sbin/vgchange -ay
vgchange -- volume group "testvg" successfully activated
# mount /dev/testvg/hda5lv /mnt/test/
全ファイル生還・md5一致
151:135
04/05/07 00:04 moBi7VqE
■PVを跨った場合の仕込み&リカバリ
PV,VGの作成は同じなので省略
以下のようなLVを使用してテスト。hda5/hda6から512Mずつ使用
# lvdisplay -v /dev/testvg/mixlv の結果(一部)
--- Distribution of logical volume on 2 physical volumes ---
PV Name PE on PV reads writes
/dev/hda5 16 0 2
/dev/hda6 16 0 0
hda6の破壊方法とその後のリカバリ方法は上と同じなので省略
mount前にreiserfsck --checkすると、"--rebuild-treeを実行しろ"と言われるの実行
# reiserfsck --rebuild-tree /dev/testvg/mixlv
# mount -o ro /dev/testvg/mixlv /mnt/test
結果
全175ファイル
復旧 96 ( うち33ファイルはlost+foundに数字のファイル名で救出)
破壊 79 ( 消失17 + md5不一致62)
ファイルはmp3でサイズはまちまち。
計算してないけどファイルサイズ的には半分だと思う
152:135
04/05/07 00:14 moBi7VqE
★PVを跨がない場合・仕込み(LVM2)
Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1)
device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19)
(1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成
(2)LV & ファイルシステム作成(hda5のみ使用)
# lvcreate -L1g -n hda5lv testvg /dev/hda5
# mkfs.reiserfs /dev/testvg/hda5lv
(3)他のファイルシステムから適当にコピー
(4)umount→testvg停止後、ddでhda6を0で埋める
# vgchange -an testvg
# dd if=/dev/zero of=/dev/hda6
(5)testvgをactiveに変更しようとするが、当然エラー
# vgchange -ay testvg
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find all physical volumes for volume group testvg.
Unable to find volume group "testvg"
153:135
04/05/07 00:17 moBi7VqE
★方法(a):代替PVを用意してvgcfgrestoreでメタデータをリストアする。(LVM2)
(a)-(1)破壊したhda6と同サイズのhda7でPVを作成。この際、hda6で使用していたUUIDを指定する。
# pvcreate --uuid MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa /dev/hda7
No physical volume label read from /dev/hda7
Physical volume "/dev/hda7" successfully created
(a)-(2)testvgの情報をリストアする。
# vgcfgrestore -f /etc/lvm/backup/testvg testvg
Restored volume group testvg
(a)-(3)testvgをactiveにする。
# vgchange -ay testvg
1 logical volume(s) in volume group "testvg" now active
(a)-(4)mountする
☆全ファイル生還。md5一致
154:135
04/05/07 00:18 moBi7VqE
★方法(b):生きてるPV(hda5)だけでtestvgをactiveにする。(LVM2)
(b)-(1)vgchangeに"-P"オプション(Partial mode)を追加して実行
# vgchange -ay -P testvg
Partial mode. Incomplete volume groups will be activated read-only.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
1 logical volume(s) in volume group "testvg" now active
(b)-(2)mountする
# mount /dev/testvg/hda5lv /mnt/test
mount: block device /dev/testvg/hda5lv is write-protected, mounting read-only
☆全ファイル生還。md5一致
155:135
04/05/07 00:23 moBi7VqE
★PVを跨いだ場合(LVM2)
PV,VG作成方法は同じなので省略
LV作成では両方のPVから512Mずつ使用
# lvdisplay -v --maps /dev/testvg/mixlvの結果(一部)
--- Segments ---
Logical extent 0 to 127:
Type linear
Physical volume /dev/hda5
Physical extents 0 to 127
Logical extent 128 to 255:
Type linear
Physical volume /dev/hda6
Physical extents 0 to 127
破壊の方法はPVを跨がない場合と同じ(hda6を破壊)
リカバリ方法は(a)の代替PVを使う方法しか使えない模様
(b)の方法だと(テストした環境では)
device-mapper ioctl cmd 9 failed: Invalid argument
と表示される。
結果:全176ファイル => 生還83 / 消失12 / md5不一致 81
あと、(a),(b)いずれの場合もvgchange一発で/dev以下にファイルができない現象が
頻発したけど、もう1回すると問題なくできた。
156:135
04/05/07 00:31 moBi7VqE
あと、LVM2限定で結果だけ。
ReiserFS+hda5破壊 = 12ファイル生還(ただしlost+foundに数字のファイル名)
XFS+hda5破壊 = 65ファイル生還
XFS+hda6破壊 = 66ファイル生還
(ファイル数はいずれも176でサイズバラバラのmp3)
おしまい。
157:login:Penguin
04/05/07 20:23 JJMbJYW4
SoftRAID(RAID1)上にLVを切ろうとしています。
切ること自体はできたのですが、起動時に自動検出してくれません。
起動時のメッセージは
Starting up RAID device: md0(skipped) md1(skipped)
です。
起動後、raidstartとvgscanをやれば、有効になるんですが・・・
fstabで、LVをマウントするようにしています。
OSはRedHat9です。
何かわかりますかねぇ
158:login:Penguin
04/05/07 23:28 saczY0qF
initrd作りなおせオマンコ
159:login:Penguin
04/05/08 11:16 J2fTDgwN
157です。
mkinitrdやってみましたが、結果ダメです。
手順は以下のとおり。
1./etc/modules.confに以下の行追加
alias md-personality-3 raid1
alias block-major-58 lvm-mod
alias block-major-109 lvm-mod
2.mkinitrd
mkinitrd -v -f /boot/initrd_raid-2.4.22-1.2188.nptl.img \
$(uname -r)
3.grub.confをeditし、initrd_raidをロードするようにする
4.再起動
dmesgでは以下のようなメッセージが出ており、うまくいっているように
見えます。
RAMDISK: Compressed image found at block 0
Freeing initrd memory: 168k freed
VFS: Mounted root (ext2 filesystem).
Journalled Block Device driver loaded
md: raid1 personality registered as nr 3
kjournald starting. Commit interval 5 seconds
EXT3-fs: mounted filesystem with ordered data mode.
ちなみに上はfedoraでやってみました。
うーん、何がおかしいんでしょう。
160:login:Penguin
04/05/08 13:33 9BQlLz7P
raidstartしてからmkinitrdしたマンコか?
mkinitrdは/proc/mdstatを見てオマンコよ。
だから/etc/modules.confを編集する必要はないマンコ。
161:157
04/05/08 14:45 pmAGqXMP
すばらしい!うまくいったです。オマンコさん、どうもありがとう。
もうLVMの話じゃないですが、ついでに教えてください。
ひょっとして、mdxデバイスを追加するたびに、mkinitrdしなきゃダメですか?
#まあやってみりゃいいんですが。
162:login:Penguin
04/05/08 16:22 9BQlLz7P
>>161
悲しい事に追加や変更のたびにやらにゃいかマンコ。っていいかげんこの語尾やめたいw
カーネルを再構築してRAID関係をモジュールにしなければ自動認識になるよ。
FC2でどうなってるのかは未確認。
163:login:Penguin
04/05/08 21:10 5z7Jk+RY
157っす
>>162
うーん、つかえねえToT
カーネル再構築は、やったことないし、up2dateが使えなくなりそうなので、やめときます。
まあとりあえず現状で満足することにします。
どうもありがとう。
164:login:Penguin
04/05/16 14:46 VitpnX4s
lvm上に作ったファイルシステムって
WindowsのExplore2fsとかから見えるのかな。
165:login:Penguin
04/05/16 15:02 aVnYK0wB
見エマセぬ
166:login:Penguin
04/05/18 20:07 aktDVrQJ
>>148-156
非常に参考になったわ。
こんなにLVMの事を検証している人を見たのは貴殿が初めてだわ。
これはLVM HOWTOに載せて欲しいぐらいの内容だね。
167:login:Penguin
04/05/28 23:19 PYZd4d/f
pv→HDD3本でひとつのvgを組んでます。
ここから生成されたlvはreiserfsでフォーマットされています。
で、最近 fsck.reiserfsをすると
ディスクにハード障害があります云々いわれます。
この場合、
1.やっぱりHDDに物理的な障害がある。
2.vgになんかの障害がある。
1にせよ2にせよ、fsck以外の修復コマンドとかって存在するのでしょうか??
もしあれば、誰か助けてください。。。。
いま、めちゃブルーです。
168:login:Penguin
04/05/29 03:10 Xtz3Va5J
>>167
3.ファイルシステムが壊れているとか
reiserfsckはデフォルトではcheckだけじゃないの?
--rebuild-treeとか付けんと。>>151みたいに
もちろん、やる前にはバックアップとってな。
HDDの物理的障害だったらdmesgになんか出てると思うけど
>>147
VGじゃなくてLVでしょ。
Unix Magazine 2004年6月号で2.5TBのLV作ってるよ
169:167
04/05/30 23:48 OnGdtw98
>>168
回答ありがとうございます。
いろいろ試してみたのですが、拉致があかなかったため、とうとう
rebuild-treeしたところ、途中でrebuild-treeがAbortしてしました。
bread: Cannot read the block (31329): (Input/output error).
Aborted
ただ、以下のメッセージが出ていることから/dev/hddの物理障害は間違いないっぽいです。。。
hdd: dma_intr: error=0x40 { UncorrectableError }, LBAsect=251175, high=0, low=251175, sector=251175
end_request: I/O error, dev hdd, sector 251175
Buffer I/O error on device dm-0, logical block 31341
そこで、badblocksコマンドにてlv(/dev/lvm/hogehoge)のbadblockを書き出して、
badblocks -o out.txt /dev/lvm/hogehoge
再びreiserfsckをかけました。
reiserfsck --badblocks out.txt --rebuild-tree /dev/lvm/hogehoge
が、上記と同様にAbortされてしまいます。
reiserfsck --rebuild-treeは、不良ブロックがあるために、強制終了されているように見えます。
reiserfsck --rebuild-treeを最後まで終了させるよい方法はないでしょうか??
170:login:Penguin
04/05/31 01:30 hhvzfuis
>>169
dd_rescueでバックアップを作成し、reiserfsckする
「Bad block handling in ReiserFS」
URLリンク(namesys.com)
[dd_rescue]
URLリンク(www.garloff.de)
171:login:Penguin
04/05/31 02:48 lsYmUrdk
dd_rescueなんてあるんですね。
LVM使ってないけど、reiserfsのパーティションが壊れたときは、
私もrebuild-treeが途中で失敗してしまう状況でした。
結局、普通のddで何とかしましたけど。
結構なファイルがlost+found行きになりました。
172:login:Penguin
04/05/31 06:23 OXeGSEwS
えー、ここはLilyVMのスレということで異論ありませんね?
はい、ないようなのでLilyVMスレ@Linux板と決定いたします。
UNIX板のスレはこちら。
【Usermode】LilyVMってどうですか 01【NetBSD】
スレリンク(unix板)
173:login:Penguin
04/05/31 06:29 cSlLkb+0
↓何事も無かったかのように次どうぞ
174:login:Penguin
04/05/31 07:03 OXeGSEwS
URLリンク(lilyvm.sf.net)
IPAの金で作られたUsermodeなNetBSDでつ。Linuxだとそのまま動くけどNetBSDではパッチが必要。
どうですか。
175:良い子のお約束
04/05/31 13:00 KXn0+fEs
(1)日本人が作ったものは40%割り引いて考える。
(2)IPAの金で作られたものは信用しない。
(3)任天堂のゲームには近付かない。
176:login:Penguin
04/06/20 02:44 M3ZdqO8W
インストーラでlvmが使えると楽やね。
177:login:Penguin
04/06/26 21:41 NWOwsSX3
PE Sizeのことで質問させてください。
PE Size = x として、作成するLVは、x * n (0 < n < 65535)なので、
たとえば、PEが4MBのときは、作成できるLVのサイズが4MBの倍数になり、
32MBのときは、32MBの倍数になる。
PE = 4MB の時は、36MBとかのLVを無駄なく作成できるが、
PE = 32MB のときは、LVが32MBか、次は64MBになってしまうので無駄が出来る、、
という理解で正しいでしょうか。
inodeの最小ファイルサイズ(アロケーションサイズ)とは無関係、、ですよね?(^-^:;
PEを32MBで作った後で「PEが大きすぎると無駄が生じやすくなる」とか書かれてる
記事を見つけて焦ってしまったんですが。
178:login:Penguin
04/07/01 12:02 Ua6cWiFK
無駄無駄無駄ぁぁぁ!!!
179:login:Penguin
04/08/31 17:29 mhv4SZxs
LVMって生で使うより重いの?
180:login:Penguin
04/09/01 01:21 hMUQSwG3
>>179
軽い道理が無いだろ(w
でも386や486クラスでもなきゃ、あんまり変わったような気はしないが。
181:login:Penguin
04/09/13 22:02:18 vib1TXoh
LVをルート(/)にマウントしている場合、そのLVをいじりたいときはどうしますか?
ファイルシステムはext3、ディストリはFedora2です。
/boot /dev/hda1
/ /dev/mapper/Volume00-LogVol00
/dev/hda1がext3
/dev/hda2がLinux LVM
/dev/hda3がswap
KNOPPIX3.4をCD-ROM起動して、pvscan,vgscanを試しましたがダメでした。(エラーのメッセージはメモり忘れたスマソ)
182:login:Penguin
04/09/13 22:51:09 vO7Y51N9
ちょっと考えれば、/でlvmを使う意味が無いことくらい気が付くからな。
183:181
04/09/14 21:29:21 PwK9BewZ
でも既にこの構成になってしまっているのですよ。
なにか方法ないですかね?
184:login:Penguin
04/09/14 21:54:41 16qryvOq
FS自体壊れてはいないんだよね?
漏れだったら、dump/restore でLVとパーティションを切り直す。
>>182の言うとおり、/ をLVMにするのは後々にも無用な手間がかかるだけだし。
まあ、勉強と思ってなんとかする方法を考えてみるのもいいけど(この後役に立つ場面があるかどうか・・・)。
185:181
04/09/15 01:11:51 KT7pbieC
>>184
壊れてないです。
方法がなければ切り直そうかと思ってるんですけど、
>勉強と思ってなんとかする方法を考えてみる
ってことでココに書き込んでみた次第でございます。
186:login:Penguin
04/09/17 20:59:29 b4dp+fcm
SLVMって使えんの?
187:login:Penguin
04/09/18 10:22:30 Nmvwrsgi
>>181
スワップを/にして、LVMから/をはずしとけ。スワップはLVMの中にでも
作りなおせ。
188:login:Penguin
04/09/21 23:05:19 F8lCx2GU
>>181
亀レスですまんが、KNOPPIX3.4でもLVMは使えるぞ。
カーネルモジュールがロードされてないギミなので depmod -a して modprobe lvm-mod してみれ。
189:login:Penguin
04/09/22 02:04:49 tY0jOet7
>>188
KNOPPIXのLVMってLVM1じゃなかったっけ?
以前、LVM2環境をミスって起動不能にした時、
データ抜き出そうとして使ったけど、LVM2を操作できなかったと思う
(結局、LVM2環境を新しく作ってHD繋げて吸い出した)
>>181
新しく/用にLV作って必要なものコピー、
そっちを/にマウントするようにして起動ってのは?
Fedoraでどうやるか知らないけど。
FedoraのLVM2環境の起動の仕組みって↓とは全然違う?
URLリンク(www.poochiereds.net)
190:181
04/09/24 01:19:17 JORLx4Uz
>>188
なるほど。試してみたいんだけど、もうパーティションを切りなおしてしまいますた。。。
>>189
そうゆう手がありましたか。でも例えば/の容量を増やしたい場合は、
/のLVの容量 + 増やしたい容量
のLVを作らないといけないんですよねぇ。一時的に倍以上のHDDが必要になるのはちょっとムリぽ。。。
191:login:Penguin
04/09/27 13:12:09 mojAcgNu
そういった事態を想定して、PVは細切れ(数GB単位)で作ってVGに登録しておくことを
学んでおくことにしましょうね >>190
私も一昨年ぐらいにそれを経験して、それ以降/は非LVMな素のパーティションにしました。
192:login:Penguin
04/09/30 00:26:14 9J1+0UZc
オンラインリサイズできるファイルシステム(Reiserfs,xfs)を
使い、各LVは必要最小限のサイズで作りませう
私は/boot+swap+PV1個の3パーティションで節約生活してますよ
(´-`).。oO(なんかさ、LVM使ってるとケチになるよね…)
193:login:Penguin
04/10/04 00:33:55 PdEJi7TQ
194:login:Penguin
04/10/17 02:02:36 HoEJPIc+
lvmかますことによってパフォーマンス落ちる?
導入を検討しとるのだが、ディスクアクセスが遅くなるなら躊躇する。
195:login:Penguin
04/10/17 03:54:32 IwSy/hON
>>194
>>179-180
196:login:Penguin
04/10/18 00:06:23 CENiT07H
定期チェックでfreiserfs@LVMにfsckかけたら
bad sectorが出てAbortしてしまう・・・
複数のHDDがVG登録されていて
物理的にどのHDDがbad sector出してるのか判別もできず・・・
こんな場合どいった手順で復旧していけばいいんでしょうか?
197:login:Penguin
04/10/18 00:07:07 CENiT07H
× freiserfs
○ reiserfs
うぅ・・・
198:login:Penguin
04/10/18 00:58:41 IHK36xr/
>>196
そのファイルシステムがmount可能なら
今すぐバックアップを作る。
その後で>>170かな
人柱になって報告したいなら>>151
199:196
04/10/20 07:26:55 GE+TE0oK
壊れてるHDDが物理的にどれなのかを判別できたんですが
新しくHDD買ってきてPV増やした上で
このHDDをpvmoveしたりするのは自殺行為・・・・ですよね?
syslogにガンガンエラー吐いてるけど復旧する時間が無い〜
週末まで耐えてくれ・・・
おとなしく
>>198
でいくべきかな、やはり
200:login:Penguin
04/10/22 20:13:06 6KWwn4ly
>>199
無事?
とりあえず、バックアップとった後で
pvmove試してくれるなら是非人柱希望
ただし、LVM1で"/"がLVM上にあるような環境の場合はヤバいと思う
pvmove中、不良セクタ踏んだ瞬間にフリーズ
→仕方ないので電プチ
→PV死亡。VG活動化できず起動不能
ってなるかも
201:196=199
04/10/23 02:49:17 U8sO2JHE
とりあえず、物理的にどのHDDがBadSector出してるのかを判別できたので
・新しく買ったHDDに新しいVG割り当て
・BadSectorの出るHDDの含まれたVGの読めるデータを買ってきたHDDのVGに移動
・空きが増えたらresize_reiserfsして縮小
・lvのサイズを縮小
・HDD一個分のVGの空きができたらBadSectorの出ているHDD以外のやつをpvmove
・壊れたHDDのVGから切り離して新しく買って来た側のVGに割り当て
・上を繰り返して壊れたHDDのみがVGに登録されている状態にする
という感じで玉突きしてみようかと検討してますが
resize_reiserfsでコケる気が激しくする・・・
アイオーのLinkPlayer+Einキャプチャ機+Samba
でレコーダー代わりにしてたデータ領域で
HDDが4台、データ領域が1TB近くある・・・
202:201
04/10/24 03:56:24 SET3wOLA
壊れたHDDと同じVGに所属しているが壊れたデータの格納されていないLVの
データ避難・LV削除はできましたが
壊れたデータの入ってるLVのresize_reiserfsできず・・・・
203:login:Penguin
04/10/27 11:21:45 EqiaD7Nc
/home にあったデータが一瞬で消えた・・・orz
83→データいれる→8e したら駄目だったのか・・・?
204:login:Penguin
04/10/27 16:44:35 pDldRhuo
そりゃ駄目だ。
205:login:Penguin
04/10/27 17:27:20 lhKPiB/N
やっちまったな
206:login:Penguin
04/12/02 00:01:54 BsejacY+
linuxのmdでraid5デバイスを作成して、その上にLVをきろうと思います。
この場合、ディスク増設>raid5再構築>LV拡張>パーティション拡張等
をオンラインでデータを保持したまま出来るものなのでしょうか。
また、こういうmd上のLVの拡張、VG切り離しなどの情報など有用なURLが
あれば教えていただけないでしょうか。
207:login:Penguin
04/12/02 00:31:11 ZSpotIbt
>>206
そもそもLinuxのmdはraid5の構成を変更して再構築なんか出来たっけ?
208:login:Penguin
04/12/02 07:36:22 LnTTlRFZ
linuxというか、そもそも一般的なraid5でそんなことできるのかどうか。
209:login:Penguin
04/12/02 07:43:07 Bm8JDMsv
raidreconf使えば例えば250GB x 3を250GB x 4にするは出来る
Arrayをオンラインのままでは無理だったかと
250GB x 3を300GB x 3に、は知らんけど
RAIDカードもオンライン拡張可能と書いてあれば大体出来るんじゃない?
210:login:Penguin
04/12/03 02:01:38 du/UIkAw
>>207
URLリンク(www.heart-pot.co.jp)
ここに事例がありました。
しかしmdの上にLVMって普通やらないのでしょうか。
raidカード要らずでメリットが大きいと思うのですが。
211:login:Penguin
04/12/04 02:07:45 BbxGDoDA
> こういうmd上のLVの拡張、VG切り離しなどの情報など
LVとVGはmd上かどうかは関係ないだろ。普通にLVやVG作った場合と同じやりかたでOKだと思う。
問題は、
> ディスク増設>raid5再構築
によって、PV(に割当ててるパーティション)のサイズが増えること。
LVM側でもいろいろ操作が必要。vgcfgbackupして、pvcreate -uして、vgcfgresoreするとか。
ただし、raid5の再構築といい、それにからんだLVMの操作といい、全データが吹っ飛ぶ
可能性が十分考えられるから普通やらない。少々ディスク効率が悪かろうが、別途mdを構成して、
PVに割り当てる方が賢明。
バックアップをちゃんととって、md上の全データ吹っ飛ぶ覚悟ができてるならやってもいいが。
> しかしmdの上にLVMって普通やらないのでしょうか。
普通にやるとおもうけど。raid LVMとかでぐぐってみ。
その場合に、raidを再構築するのがレアなだけ。
212:login:Penguin
04/12/04 17:22:52 BTKpaP2z
>>211
なるほど。そもそもraidとバックアップをきちんと考えわけ
ないといけないですね。
とりあえずディスクが2つあいているので、ミラーセットをつ
くっていろいろ試してみます。
213:login:Penguin
04/12/12 19:04:45 AoK/hzny
複数のPVが1つのVGとLVで構成されているデータ領域の
HDD一台がdでしまいました。
復旧にあたって死んでいない残り3台のHDDのデータを
救い出しつつ復旧するにはどうすればよいでしょうか?
来週末までに壊れたHDDよりも容量の大きいHDDを買ってきて
vgrestoreする予定なのですが
これだと死んでないHDD3台のデータも拾えないんでしたっけ?
214:login:Penguin
04/12/12 19:29:21 sTtCJRM0
dd_rescue
215:login:Penguin
04/12/13 02:06:30 PGw1X2t2
>>213
コマンドはvgcfgrestore
>>149以降でテストしてる
生きてるHDD上のデータは救出できるけど
あまり期待しない方がいいよ
死んだHDDにちょっとでも乗っていたファイルは
助からないはず
216:login:Penguin
04/12/26 23:53:59 kkeu0ykE
仕事上必要があってwindows XP 64bit-editionを入れたら
見事に別ディスクのLVM領域は破壊してくれた
何でこういうイヤガラセするかなぁ
217:login:Penguin
05/01/03 02:58:23 mM5fO6TV
Redhat9のkernelを2.6に上げたのでdevice-mapper+LVM2をインストールして
/sbin/mkdmnodで、/dev/mapper/controlをつくりました。
これで起動スクリプトにvgchange -a などを追記して既存ボリュームを認識し
てくれたのですが、以降rebootやシャットダウンの度に最後に
「md0: switching to read-only mode」〜「md1X: switching to ...」
というmd関連のメッセージがずらっと表示されるようになりました。
LVMはVer1.Xを使っていますがmd(raid)なんか一個も組んでいません。
これは何が悪いのでしょうか。
どうもカーネルモジュールのmd.cにそういうメッセージを出すところがあ
るみたいですが私ではそれをどうしてよいかもわからないんです。
218:
05/01/28 00:00:53 O4GA9oN8
スナップショットをとる
しばらくその後スナップショット時点の状態に戻すことは可能?
管理情報は残ってるわけだからできそうなんだけど
219:login:Penguin
05/01/28 00:11:59 inuf15bo
★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
在宅ワーカー募集します!!日給7800円以上可能!!
詳しいことはホームページに書いてあるのでご覧下さい。
URLリンク(advanced7success.fc2web.com)
尚、お申込みの際は
ID『sa01』が必要になります。
★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
220:login:Penguin
05/02/24 12:40:30 FPH7Nh1+
保守
221:login:Penguin
05/03/04 02:17:33 DeSP1Kyo
補修
222:login:Penguin
05/03/31 15:24:49 chtc/3VW
ほちゅ
223:login:Penguin
05/03/31 16:18:41 7faVLxYM
RHEL4でext2onlineがサポートされて、だいぶ使いやすくなったけど、
LVMでext3ってどうよ?
224:login:Penguin
05/04/11 19:50:02 1cYagJnp
カーネル2.6のLVM2ってIO負荷が重い状態でボリュームのスナップショットを取ると
メモリ不足でハングアップしてしまうがこれの解決はまだか。
225:login:Penguin
05/04/26 16:16:45 PT/DpSg5
保守
226:login:Penguin
05/04/30 20:18:09 mAb4X/xF
教えてママン
160GBのHDDをFireWireで二つ直列に繋いだ状態で動作しているのですが、
LVMでこの二つをまとめて一つにして(無問題で?)パフォーマンスでるのかしらん?
ためしゃいいじゃんっていうかもしれんが、160GBもデータが入ってると試すのが鬱でね・・・
227:login:Penguin
05/04/30 20:22:21 47MVGwh5
あんまり出ないだろうな。
ファイルシステムが跨る分だけ、安全性に不安があるし。
228:login:Penguin
05/05/01 12:54:41 +L1YW0MG
lvcreate すると以下のようなエラーが出てしまいます。
lvcreate --size 10M --snapshot --name snap /dev/VolGroup00/LogVol_01
Rounding up size to full physical extent 32.00 MB
device-mapper ioctl cmd 9 failed: メモリを確保できません
Couldn't load device 'VolGroup00-snap'.
Problem reactivating origin LogVol_01
物理メモリの残りが少ない時に同事象が発生するようなのですが、出来る時もあり、規則性がありません。
swapも1Gぐらいにしてみましたが同じです。
( >>224 の事象と同じ?)
なにか解決方法はないでしょうか。
229:& ◆R7PNoCmXUc
05/05/01 22:09:16 D6WravXD
金曜日の夜 土曜日の昼 土曜日の夜 日曜日の昼 日曜日の夕 日曜日の夜
↓ ↓ ↓ ↓ ↓ ↓
┃::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
∧ ∧ ∧∧ ∧ ∧ ┃::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
(・∀・) ∩∀・) (・∀・)∩ ┃:::∧∧::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
/ ⊃⊃ ヽ ⊃ノ /⊃ / ....┃:::('д` )::::::::::::::∧∧:::::::::::::::::::::::::::::::::::
〜( ( ヽ )つ 〜( ヽノ ......┃:::と ヽ::::::::: ('д` ):::::::( )⌒ヽ;::::::::::
(/(/' (/ し^ J ......┃:::⊂,,_UO〜:::(∩∩ ):::::|/.|/uと )〜:::::
↑ 今このへん
230:login:Penguin
05/05/08 02:56:13 5XzYn+h8
>>228
2.6カーネルのsnapshotは不安定で実用に耐えないから諦めろ。
231:login:Penguin
05/05/11 10:01:20 5vDYgAyC
>>230
了解。もう諦めて kernel2.4に戻しました。
232:login:Penguin
05/05/17 11:15:10 Ck8u3X4H
# vpvmove /dev/sda15
なんてして
No extents available for allocation
このエラーが出る場合、何を確保してやれば移動が可能になるんでしょうか
233:login:Penguin
05/05/17 11:53:52 vyhwtx4J
>>232
extents for allocation、つまり空き領域。
マウント中のファイルシステムをpvmoveすると固まるのはなんとかならんかなぁ。
snapshotが固まるのと原因同じ気がする。
234:login:Penguin
05/05/17 13:32:14 Ck8u3X4H
>>233
お返事どうもありがとうございました。
lvextend -L-hogeGして減らします。>232はs/vpvmove/pvmove/でした。
そういえば、pvmoveするときはアンマウントしてからやってました。
関係ありませんが、xfsはサイズを増やすことはできても減らすことができないと知って後悔しました。
235:login:Penguin
05/05/23 09:18:37 Ja/BWgyJ
保守
236:login:Penguin
05/05/30 14:02:18 d6Jlq03m
lvm3マダー?
237:login:Penguin
05/06/02 04:36:32 0Nz4wDQN
Fedora2でLVM使ってファイルサーバー立ててますが、quotaを使う必要があり、
fstabにLVMをつかっている/homeの箇所にquotaに記述して、再起動かけたら、
quotaつかえない旨のメッセージがでてきました。
Kernelのquota機能とLVMって共存できないんでしょうか?
以下書き換えた場所です。
LABEL=/ / ext3 defaults 1 1
LABEL=/boot /boot ext3 defaults 1 2
none /dev/pts devpts gid=5,mode=620 0 0
none /dev/shm tmpfs defaults 0 0
/dev/Volume00/LogVol00 /home ext3 defaults 1 2 ←ここにquotaを記述
none /proc proc defaults 0 0
none /sys sysfs defaults 0 0
LABEL=/tmp /tmp ext3 defaults 1 2
LABEL=/var /var ext3 defaults 1 2
/dev/hda2 swap swap defaults 0 0
/dev/cdrom /mnt/cdrom udf,iso9660 noauto,owner,kudzu,ro 0 0
(読みづらかったらごめんなさい)
238:login:Penguin
05/06/03 22:23:53 HOSvdRwa
SGI-XLV移植キボンヌ
239:login:Penguin
05/06/16 18:09:58 Szie+yKv
保守
240:login:Penguin
05/06/30 18:33:39 +uN+drXM
ほちゅ
241:login:Penguin
05/07/12 17:40:23 1+WKcMXD
LVM
242:login:Penguin
05/07/26 19:12:00 GY/+NBD0
LVM2
243:login:Penguin
05/08/25 21:00:10 fWErEiK8
LVM2上にXFSのパーティションがあって、snapshot取りたいんだけど、
xfs_freeze -fしてlvcreate --snapshotすると固まってしまいます。別ttyでxfs_freeze -uするとlvcreateできましたが。
もしかしてxfs_freeze不要?kernelは2.6.12.5ですけどまだ不安定なのかな?
次ページ最新レス表示スレッドの検索類似スレ一覧話題のニュースおまかせリスト▼オプションを表示暇つぶし2ch
4643日前に更新/243 KB
担当:undef