[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 2chのread.cgiへ]
Update time : 10/11 12:51 / Filesize : 203 KB / Number-of Response : 591
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

RAID総合スレッド No.5



1 名前:login:Penguin mailto:sage [2009/09/16(水) 23:34:35 ID:JK/kMdkU]
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 pc11.2ch.net/test/read.cgi/linux/1168487758/
スレ 4 pc11.2ch.net/test/read.cgi/linux/1208263754/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.com/ja-JP/_common/os_support/linux/

Linux EVMS 一般
ttp://evms.sourceforge.net/

Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。
... あと続けてくらさい。

232 名前:login:Penguin mailto:sage [2010/11/15(月) 19:22:57 ID:gNCbtYKe]
質問いいですか
win7とubuntuあたりでRAID構成を共有したいのですが、できますかね

233 名前:login:Penguin mailto:sage [2010/11/16(火) 11:08:25 ID:HeKRLUlf]
>>232
一台でマルチブートって事?
ならオンボのRAIDドライバはどちらでも使える。

234 名前:login:Penguin mailto:sage [2010/11/16(火) 21:29:52 ID:JnnqGF7a]
test


235 名前:login:Penguin mailto:sage [2010/11/16(火) 21:33:44 ID:VWoXCYbw]
DELL SAS6/iR RAIDカード
で、
WD20EARS-00MVWB0
で、
ソフトRAID6いけるかな?

236 名前:login:Penguin mailto:sage [2010/11/16(火) 22:39:33 ID:Szhcfl18]
8台くらいで構成したmdのraid5or6or10のベンチマークするとどの程度パフォーマンスが出るもんです?
そのうち自分でも試すつもりだけど参考用のデータとかあったりします?

237 名前:login:Penguin mailto:sage [2010/11/17(水) 21:34:48 ID:j19cjkTS]
エスパー
RAIDするメディアにもよる

238 名前:login:Penguin mailto:sage [2010/11/20(土) 19:44:31 ID:cFLVa63Z]
速度はあんまり出ないよ
シーゲートの7200回転1.5TB x 6 のRAID6
hdparm -ft /dev/md1
/dev/md1:
Timing buffered disk reads: 418 MB in 3.00 seconds = 139.15 MB/sec

239 名前:login:Penguin mailto:sage [2010/11/21(日) 00:09:27 ID:1IPGonEa]
骨董品の幕の6L(250GB)*8本のRAID6で

/dev/md1:
Timing buffered disk reads: 874 MB in 3.00 seconds = 291.07 MB/sec

250〜300弱の間でふらふらする


240 名前:login:Penguin mailto:sage [2010/11/21(日) 11:17:38 ID:zCTXq4aL]
情報サンクス。
今4台のRAID5でkvmのホストやらせてるがゲスト7つ起動するとdisk i/oで詰まってる感じがするので台数増やしたら改善できないかなと思ったのだけれど。
cpu負荷との兼ね合いもあるけどチャレンジしてみようかと思います。

これでkvm自体がボトルネックだったら泣けるなあ。



241 名前:login:Penguin mailto:sage [2010/11/21(日) 22:40:45 ID:jxLFhocQ]
>>240
ゲスト毎に違うHDD用意するのが幸せになれるんじゃないの?
って、7台+システム1台はさすがに厳しいな

242 名前:login:Penguin mailto:sage [2010/11/28(日) 19:06:34 ID:gL5KRMCh]
>>116
激しく遅レスだけど、WD20EARSでmd RAIDやるならポイント2つ押さえておけば大丈夫。

green-rabbit.sakura.ne.jp/blog/2010/11/27/2191/

- RAIDのデータ開始位置をセクタの区切りに合わせる
- LVMのデータ開始位置をRAIDのチャンクサイズに合わせる

ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。
(パーティションはRAIDディスクに対してLVMで管理)

243 名前:login:Penguin mailto:sage [2010/11/28(日) 22:00:44 ID:RmwuvbbY]
6台のraid6をmdadmで構築していました。
1台FailになったのでHDDを交換して復旧させようとしたら
次々とHDDがFailになり復旧できなくなりました。

これってもうダメなのでしょうか?
dmesg見るとHDD自体は認識しているようなのですが。


244 名前:login:Penguin mailto:sage [2010/11/28(日) 22:25:22 ID:5Q0sCNVi]
それってコントローラーかマザーボード/CPUが死んでるんじゃ…

245 名前:login:Penguin mailto:sage [2010/11/28(日) 22:27:33 ID:OW3cc9+0]
同ロットのHDDで揃えてたんだろ。良い教訓。

246 名前:login:Penguin mailto:sage [2010/11/28(日) 22:31:24 ID:Tsm3YN7+]
>>242
linux初心者にわかりやすくコマンドください
WD20EARS8台でRAID6にしたいのです

247 名前:login:Penguin mailto:sage [2010/11/28(日) 22:51:00 ID:RmwuvbbY]
すみません。ちょっとパニくってましたw

mdadm --assemble --force /dev/md0
したら、とりあえず4台で再構築が始まったみたいです。

>>245
全部同じではないけれど半分くらいは同じだったかも。


248 名前:login:Penguin mailto:sage [2010/11/28(日) 22:54:14 ID:ZKkrEg8g]
>>246
リンク先のエントリを読んで解らんヤツにれいどろくなど宝の持ち腐れである!

アレが解らん人間にディスクがお釈迦ってデグったアレイを復旧できるとは思えんなw

249 名前:login:Penguin mailto:sage [2010/11/28(日) 23:25:31 ID:Tsm3YN7+]
キモは2つか

250 名前:login:Penguin mailto:sage [2010/11/28(日) 23:34:15 ID:hDElDxYb]
>ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。

どうやるの?



251 名前:login:Penguin mailto:sage [2010/11/28(日) 23:57:43 ID:ZKkrEg8g]
>>250
パーティションを指定する代わりにデバイス全体を指定すればいいだけ。

252 名前:login:Penguin mailto:sage [2010/11/29(月) 00:16:37 ID:5KK7FVso]
パーティションタイプでfd(Linux RAID Auto Detect) を使う必要があるのかと思い、
1ディスク1パーティションの時でもパーティションを切っていたよ。。。。

253 名前:login:Penguin mailto:sage [2010/11/29(月) 00:36:55 ID:C+YWZRYM]
>>252
/dev/sda1とかパーティションを切ったのに

mdadm --create -n 4 -l 5 /dev/sd[abcd]

でパーティションテーブルを吹っ飛ばす、というのはお約束なドジの一つだよねorz


254 名前:login:Penguin mailto:sage [2010/11/29(月) 05:05:30 ID:hkKkYSLf]
でも、微妙な容量差を揃えられるように
1領域でもパーティションにした方が良いんじゃないかね。

255 名前:login:Penguin mailto:sage [2010/11/29(月) 20:05:55 ID:BBunKmhs]
>>254 確かに。そのあたりは、下記でも触れられていますね。
https://raid.wiki.kernel.org/index.php/Partition_Types

個人的には、交換用に新しく買ったディスクのサイズがちょっと小さかったら、
そのとき対処すれば良いんじゃないかなー、と思ってます。

mdadm --grow --size= でサイズ変更するだけなので。

あ、RAID1以外だと時間かかりそうだし障害時にやるのはあれだから、
--create するときにあらかじめ --size しておけば良いんじゃないのかなー。

256 名前:login:Penguin mailto:sage [2010/11/29(月) 20:37:16 ID:NGnnNc2T]
>ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。
6台でRAID6とかでも関係ない?

257 名前:login:Penguin mailto:sage [2010/11/29(月) 20:57:34 ID:BBunKmhs]
>>256
関係ないよ。

>>255でも書いたけど、RAID6ならRAID構築するときにサイズ指定しておくと良いよ。
(サイズは HDD の容量から 100MB程度引いておく)

% mdadm --create --size=サイズ(ディスク1台当たりに使用するサイズ[kb],64の倍数)

そうじゃないとHDDこけて交換しようと思ったときに、
同一モデルHDDでも容量が少なかった場合に困る。

258 名前:login:Penguin mailto:sage [2010/11/29(月) 20:59:28 ID:rjjhbUoR]
容量ちょっとだけ大きいの買ってくるだけでいいやん

259 名前:login:Penguin mailto:sage [2010/11/29(月) 21:03:21 ID:BBunKmhs]
>>258
でも、2TB使ってそういう状況になったら、2.5TB とか 3.0TBとかになって、GB単価違いすぎて泣ける気が

260 名前:login:Penguin mailto:sage [2010/11/30(火) 09:57:13 ID:366LkoAx]
結局後から面倒事が出てきて対処対処
パテ切ってるのと変わらんなw



261 名前:login:Penguin mailto:sage [2010/11/30(火) 22:54:26 ID:xrENs+QS]
WD20EARSを8台買ってきた。
組む時間がないから放置することになるが、
正月休みぐらいに対処しようかと。
ソフトウエアRAID6に挑戦予定。

262 名前:login:Penguin mailto:sage [2010/11/30(火) 23:52:09 ID:leruRje6]
>>260
パーティションきるのに比べたら、RAID構築時にオプション1個つけるだけのほうが楽だとおもうのだけれども。

切りたいのなら切れば良いと思うけど、物理セクタサイズ4096のHDDが何台かある場合、
ただ手間なだけな気がする。

263 名前:login:Penguin mailto:sage [2010/12/05(日) 13:14:20 ID:S0mL6ghv]
LinuxのソフトウェアRAIDって、起動ディスクにはRAID0か1しか使えない?
ディスク丸ごとRAID(RAID5)を組もうと思ったけど、
その場合は起動ディスクは別に用意しないとダメでしょうか。

264 名前:login:Penguin mailto:sage [2010/12/05(日) 13:39:00 ID:VXlrPkOO]
>>263
RAIDじゃなくて、ブートローダーの話だな
ttp://grub.enbug.org/LVMandRAID
>Version 1.97 and older only support RAID-0, RAID-1, and RAID-5. Version 1.98 adds support for RAID-4, RAID-6, and RAID-10.

265 名前:263 mailto:sage [2010/12/05(日) 14:24:33 ID:S0mL6ghv]
早速ありがとうございます。

grubが対応してればOkなんですね。
Cent5.5は0.97の模様。。。
近々出ると言うCentOS6を選択肢に入れたとしても、RHEL6が0.97。
ttp://distrowatch.com/table.php?distribution=redhat

ディスク丸ごとは諦めて、パーティション毎のRAIDにしようかと思います。


266 名前:263 mailto:sage [2010/12/05(日) 14:35:29 ID:S0mL6ghv]
すみません、読み間違えてました。1.97以前でもRAID5まではOkですね。


267 名前:login:Penguin mailto:sage [2010/12/05(日) 14:48:47 ID:jj4aKBuD]
おーい、そりゃsince version 1.95の話だぞ
0.9xのGRUB Legacyと1.9xのGRUB 2を一緒にしちゃいかん

268 名前:263 mailto:sage [2010/12/05(日) 15:04:53 ID:S0mL6ghv]
度々すみません。ありがとうございます。

もっときちんと調べてから書き込まないと、ダメですね。。。。


269 名前:login:Penguin mailto:sage [2010/12/05(日) 23:43:26 ID:JVWK3etV]
Fedora13/14だとgrubとは別にgrub2ってパッケージあるね

270 名前:login:Penguin mailto:sage [2010/12/21(火) 23:25:16 ID:/W3bFROY]
アフォな質問だけど誰か教えて。
遊び用で富士通のRX100 S6ってのが手に入った。
BIOS に RAID の項目あるし、ブート時に LSI MegaRaid とか表示される
から SATA のハードウェアRAID だと思って、BIOS でミラーリングにして
CentOS 入れてからディスクをぶっこ抜いてみたら死んだw
調べるとどうやらフェイクRAIDってやつらしい。
dmesg 見ると dmraid で動いてるみたいだけど、フェイクRAIDって
片肺では動かないもの?

遊び用じゃない 3com のハードウェアRAIDだと障害発生時には
ホットスワップでディスク交換すればリビルドが自動で走るんだけど、
その感覚では使えない?



271 名前:login:Penguin mailto:sage [2010/12/21(火) 23:54:25 ID:dF/NfV63]
こんなレベルのがハードウェアRAIDがどうこうソフトウェアRAIDがどうこう語れるのか・・・
いい時代だなぁ

272 名前:login:Penguin mailto:sage [2010/12/22(水) 00:04:06 ID:qSGG/Y5L]
3com?3ware?

273 名前:login:Penguin mailto:sage [2010/12/22(水) 02:57:06 ID:7dCZswWv]
>>270
RX100 56がホットスワップに対応してるかどうかをなぜ真っ先に調べんのだ。
>フェイクRAIDって 片肺では動かないもの?
片肺で動かなければRAIDの意味がないではないか。それとホットスワップ対応は別問題。

>>271
ディスクが安くなったからねー。


274 名前:login:Penguin mailto:sage [2010/12/23(木) 09:37:49 ID:KkUvrI/e]
>>273
下らん質問にレスありがとう。
WEBにはRX100 S6のホットスワップの情報はないんだけど
ひとつ前のRX100 S5や他の3400チップ積んだ製品では
ホットスワップできてるみたいなんで、S6でもいけるかと思って。

275 名前:login:Penguin mailto:sage [2010/12/26(日) 01:51:39 ID:QJg0e+k3]
>>257
新品2TB8台でRAID6しようとしたんだが、一番容量が小さいHDDってどうやって知るのかな?
サイズ指定(1664000000KBまで下げても)しても
largest drive (/dev/sdb) exceeds size (1664000000K) by more than 1%
と出ます
hdparm -I /dev/sd*
で調べても
同じセクタ数、同じdeviceサイズ(MB)なんでよくわからないんですが?


276 名前:275 mailto:sage [2010/12/26(日) 11:11:24 ID:xJ7Ntxe/]
自己解決
-zの値を大きくすればいいのね

WD 2TB
mdadm: /dev/sdb is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdc is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdd is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sde is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdf is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdg is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdh is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdi is smaller than given size. 1953513344K < 2000000000K + metadata

当たり前かもしれんが8台とも同じだった


277 名前:login:Penguin mailto:sage [2010/12/26(日) 14:55:25 ID:xJ7Ntxe/]
マウントまでいったんで、ベンチとってみた

ソフトウエアRAID6
WD20EARS-00MVWB0 *8
md0
READ 平均 388.27MB/s
WRITE 平均 159.583MB/s

まぁまぁだね

278 名前:login:Penguin mailto:sage [2010/12/27(月) 22:30:26 ID:2q1P0bSa]
同じドライブを4台でmdadmのRAID5だが
Timing buffered disk reads: 996 MB in 3.00 seconds = 331.61 MB/sec

8台もある割にそんなでもないような…?

279 名前:login:Penguin [2010/12/28(火) 03:28:15 ID:HcJKc7c2]
アホな質問ですが
mdraidで不良マーク→再起動→自動removeされちゃったデバイスを
--addして新たに書き直すんじゃ無くて
不良じゃなかった事にしてしれっとアレイメンバに戻す手ってありますか
Failったのは論理エラーでデバイス内データもHDDそのものの物理故障も無いって仮定で

280 名前:login:Penguin mailto:sage [2010/12/28(火) 05:35:16 ID:ddFMmW8s]
mdadm --manage --re-add --force /dev/mdなんちゃら /dev/sdはずしたデバイス でどうでしょうか




281 名前:login:Penguin mailto:sage [2010/12/31(金) 01:43:34 ID:6jMIk7Lq]
とりあえず2Tx4でRAID6を作ってみたので一応メモ。

まず、>>211-222のようなUSBメモリ起動を考えていた。
が、>>254-262のように全領域をRAIDにしようとしても、
結局ははRAID領域としないほうがよい微小な容量が残る。
ならば、それを/bootやswapとしてしまえばよい。
そのためには結局パーティションを切る必要があるが
それによって起動に必要な他のデバイスを省略できる。
また、>>263-268の疑問は、「/をRAIDにする」という意味ならば大丈夫。
起動時のカーネルは、/boot内にあるものを読みこみ
なおかつその時の/はinitrdから作ったRAMディスクだから。

というわけで、慣れないこともあって(AFT対応もあって)手間取ったし
トラぶってやり直しなんかもしたけど
なんとかCent5が起動はするようになった。

282 名前:login:Penguin mailto:sage [2011/01/06(木) 10:37:11 ID:LqVz0e3h]
毎月第1日曜の00:57に実行されるmdadmのcheckarrayって
ものすごく負荷が掛かるんだけど、そもそもこれって必要なの?

283 名前:login:Penguin mailto:sage [2011/01/06(木) 10:40:13 ID:90P8MSkY]
自分が最高に神に祝福されていると信じているなら不要

284 名前:login:Penguin mailto:sage [2011/01/06(木) 10:50:14 ID:LqVz0e3h]
ietdで常時読み書きしているので負荷が上がるとエラーになるんだよね。
いい方法ないかしら。

285 名前:login:Penguin mailto:sage [2011/01/06(木) 18:58:21 ID:8qh0aVCJ]
神に祈る

286 名前:login:Penguin mailto:sage [2011/01/06(木) 19:49:54 ID:GZ4wMjWn]
>>284
checkarrayスクリプトの中でioniceを使ってIOスケジュールのクラスを'idle'にしてる
それでもエラーになるってことは、IO性能の限界。
キャッシュをたくさん積んだRAIDカードと早いDISK or SSDに置き換えた方がいい

287 名前:login:Penguin mailto:sage [2011/01/06(木) 20:01:12 ID:90P8MSkY]
>checkarrayスクリプトの中でioniceを使って
???

288 名前:login:Penguin mailto:sage [2011/01/16(日) 20:13:56 ID:9TjvYxG+]
すごく初歩的な質問かもしれませんが教えてください。
インテルマザーボードオンボードのICHのRaidに2台のSATAのHDDで組んだRaid0と、
コレガのCG-HDC2EU3100なんかの外付けRaidケースにe-sataで2台入れて組んだRaid0では
速度はどのくらい違いが出てしまうものなのでしょうか?
使用するHDDは同じ7200rpmのHDDです。

289 名前:login:Penguin mailto:sage [2011/01/16(日) 21:02:50 ID:5wcN0kGW]
知らんけど、体感的な違いはゼロに近いと思う。

290 名前:login:Penguin mailto:sage [2011/01/16(日) 23:05:02 ID:9TjvYxG+]
ありがとうございます。
つまり外付けでも内蔵と同じRaid0としての速度は出ると考えていいのですね!?



291 名前:login:Penguin mailto:sage [2011/01/16(日) 23:15:56 ID:UjUVBlql]
2chに念押しとかw

292 名前:login:Penguin mailto:sage [2011/01/16(日) 23:21:07 ID:5wcN0kGW]
>>290
1台より速いんじゃないかなという感じの速度アップはできる。
ベンチマークソフト使えば、数値で目に見えた違いを出してくれる。
だけど、2台でRAID0やって、理論的には2倍になるというのは幻想。

そういう意味で、「RAID0としての速度が出る」と言ってるのなら
その考え方は間違ってる。

293 名前:login:Penguin mailto:sage [2011/01/17(月) 10:30:12 ID:awRc0mEw]
バスが律速しないとして2倍にならない例って何?

294 名前:login:Penguin mailto:sage [2011/01/18(火) 17:49:41 ID:AMRrBiFO]
mdraidでミラーリングしているんですが、
いずれか1台が故障しても読み書きは継続できますよね?
ファイルシステムのエラーでハングアップになったもんで。

295 名前:login:Penguin mailto:sage [2011/01/18(火) 17:51:59 ID:270hrEVr]
>>294
そうだよ。だからスレ違い。

296 名前:login:Penguin mailto:sage [2011/01/18(火) 20:00:47 ID:cWlOgZar]
スレ違いではないけどな

297 名前:login:Penguin mailto:sage [2011/01/21(金) 23:23:46 ID:AKhU4TB8]
いったいどれがsdaでどれがsdbなんだか

298 名前:login:Penguin mailto:sage [2011/01/22(土) 02:34:45 ID:zK0YGrGX]
匂いを嗅いでみて、甘い匂いのするのがsda。
ちょっと舐めてみて酸っぱいのがsdbだよ。

299 名前:login:Penguin mailto:sage [2011/01/23(日) 19:01:57 ID:h1RbTWKL]
両方酸っぱくて甘い匂いがしたらどうすんだw

シリアル控えてあるかバラして分かってるなら、
Redhatのディスクユーティリティー使えばひと目で分かるよ。
ls /dev/disk/by-id -l と cat /proc/mdstat でも
シリアルとの対応は分かる。dmraid だと知らん。

300 名前:login:Penguin mailto:sage [2011/01/23(日) 23:53:48 ID:hECcvXVM]
300げっと

ちょっと前、電源死んでHDDが見えたり見えなくなったりATA2モードになったり止まったり
したんだがソフトウェアRAID1組んでたから普通に使えて「あーなんかカッコンカンッコン言ってるな〜」
って感じだった。ソフトウェアRAIDって何気にすげーなって思ったぜ。



301 名前:login:Penguin mailto:sage [2011/01/24(月) 13:56:32 ID:1YcBp3Oq]
>>300
しかし、同じロットは同時に逝きやすいという法則は越えられない。
こないだ、2発同時にあぼんしたw いまは日立とWDを混ぜている。

302 名前:login:Penguin mailto:sage [2011/01/29(土) 01:19:33 ID:oOHVlAzH]
>>297
同じ疑問抱えてます。

アレイ内のHDDが壊れたとして、物理的に壊れたHDDがどれなのか特定すんのはどうしてるんだろう。

ケーブル外して取り外すときにオペレーションミスして
生きてるHDDを取り外さないための仕掛け&工夫実践例キボン。


303 名前:login:Penguin mailto:sage [2011/01/29(土) 02:30:47 ID:7snxt3L1]
基本的にはシリアルNoから判別するしかないんじゃない?
オレは、hdparm -i /dev/sd* でシリアルNo確かめて、あとは>>299

304 名前:login:Penguin mailto:sage [2011/02/07(月) 01:19:12 ID:/w2VBTzF]
CentOS 5.5でRAID6のオンライン領域拡張したいんだけど、カーネル2.6.21以上でないとダメとか見つけたんだ。
カーネルだけ入れ替えるしかないのかな?

305 名前:login:Penguin mailto:sage [2011/02/07(月) 02:47:43 ID:lo2w1dHg]
俺も同じくCentOS5でRAID6をgrowしようとした。

最新カーネルを自力で作って起動するかテスト
・・・というのをVM上で一応やってみて大丈夫そうだとは思ったが
俺の場合はオンラインである必要は無かったので
結局、FedoraのliveCDを使ってgrowした。

ちなみに、(当然ながら)マザー次第だとは思うけど
俺の場合はnodmraidをつけなくて
いくつかのディスクがraidから除外されていたり
リムーバルと認識されて/dev/md127になったりと
結構トラぶった。

306 名前:login:Penguin mailto:sage [2011/02/07(月) 04:04:23 ID:/w2VBTzF]
あれ?俺がいるw
自分もFedoraなら行けるんじゃねと思って、LiveCD使ったんだけどアレイからHDDが外れていた。
リビルドして領域拡張したけど、CentOS5.5に戻ってきたらアレイが元に戻っていた。
だからFedoraも意味がなかった。
>305 はCentOSに戻してもアレイはそのままだったのかな?

# そこまでやるならFedoraに移行しろよ。というツッコミはなしで。

307 名前:305 mailto:sage [2011/02/07(月) 18:09:58 ID:lo2w1dHg]
いや、ちゃんと拡張した状態で動いてるよ。
ただし、当然だけど完了するまで待ってそれからCentOSを起動したから。

308 名前:login:Penguin mailto:sage [2011/02/07(月) 19:40:45 ID:/w2VBTzF]
自分もリビルドが終わるまで待ったんだけどな。

マザボ:GA-EP45-UD3R
OS用HDD:WD1001FALS 1発
データ用HDD:WD20EARS 5発(Dx2, Px2, Sx1)
でFedora LiveCDで拡張したんだけど。

今は卒論で忙しいので、今月下旬に再度試してみるわ。


309 名前:305 mailto:sage [2011/02/07(月) 20:00:12 ID:lo2w1dHg]
じゃあ、2-3日のうちに、俺が>>281>>305
どんなトラブルに見舞われたか
一通り書き殴ってみるよ。
これからやろうとする人の参考になるかもしれないし。

使ってるのはGT110bで、2台買って(1台をデスクトップ用にCPU等を交換増設)
もう一台との間でメモリとHDDをトレードしたもの。
これからDVDを外してEARSx6をHDC-503であわせて使ってる。

310 名前:login:Penguin mailto:sage [2011/02/08(火) 03:25:43 ID:39VFhAxA]
Linux のソフトウェア RAID って、ホットスペアだけをローパワーで動かして、
スペアからアクティブになった時に自動的に回転数を戻す。
みたいな設定って出来ますか?



311 名前:login:Penguin mailto:sage [2011/02/08(火) 22:26:27 ID:VOG+hcst]
>>310
「アレイがデグったら、待機状態にしといたスペアディスクを起こしてアレイに追加する」
みたいな処理をcronで定期的に回せばいいんじゃない?

312 名前:login:Penguin mailto:sage [2011/02/09(水) 00:21:30 ID:AadTX+NK]
可変回転数のHDDなんかねーよ
普通にスピンダウンしとけ

313 名前:login:Penguin mailto:sage [2011/02/09(水) 00:28:53 ID:OE9NS2jv]
>>312
ascii.jp/elem/000/000/078/78783/
あるのに…

314 名前:login:Penguin mailto:sage [2011/02/09(水) 00:55:07 ID:nTLzEdJ5]
WDのやつは、可変ではない。
非常に短い時間(デフォルト7秒)のアイドルでスピンダウンするだけだったはず

315 名前:login:Penguin mailto:sage [2011/02/09(水) 01:05:02 ID:megP14EQ]
>>312
手動でスピンダウン/アップとかめんどくさいじゃん?
だから RAID ソフト側でホットスペア中は低回転でまわしてくれれば嬉しいなと

316 名前:login:Penguin mailto:sage [2011/02/09(水) 10:01:23 ID:47tkCJ4E]
回転数5400~7200ってロットによって違うとかそんなんじゃねww

317 名前:login:Penguin mailto:sage [2011/02/09(水) 10:28:45 ID:megP14EQ]
1つのモデルでスペック上は普遍の回転数が、
個体差でそこまで振り幅あれば不良品でしょww

318 名前:login:Penguin mailto:sage [2011/02/09(水) 11:08:41 ID:AadTX+NK]
>>313
やっぱり出たなマスコミに騙されるバカ

319 名前:login:Penguin mailto:sage [2011/02/13(日) 13:45:27 ID:SdB2eGXj]
LinuxのソフトウェアRAIDをGUIで管理できるようなので使いやすいのはあるんでしょうか。
webminくらいしかそもそもモノが無いですかね?

320 名前:login:Penguin mailto:sage [2011/02/13(日) 14:47:55 ID:GH/CmMZb]
>>319
使ったことないけどpalimpsest disk utility



321 名前:login:Penguin mailto:sage [2011/02/13(日) 15:38:06 ID:L1HNmD3l]
webmin楽かもしれんけどweb管理がもっさりすぎてやめた


322 名前:login:Penguin mailto:sage [2011/02/18(金) 17:24:44 ID:yGretxv7]
ぶっちゃけ、個人PCの安全対策にRAID1組みたいだけなら
CG-HDC4EU3500 とか買ったほうが楽っすよね。

323 名前:login:Penguin mailto:sage [2011/02/18(金) 17:50:39 ID:A1GNzXog]
弄るのが面倒と考えるならそれでいいんじゃないの?
俺はいじるのが好きだから PC 組むことからやったけど・・・

324 名前:login:Penguin [2011/02/19(土) 15:18:20 ID:RMwt7Pff]
>>322
最初の手順はラクだろうな…

けど、ドツボにはまった時のはまり具合もあるからな。
個人向けなら融通の利くmdadmでの管理がお勧めな気がするぜ。

例えば、2個でRAID1を組んでて、1個あぼ〜んしたときに、どうやってHDDを準備する?
仕事ならスペアディスクが準備してあったりするけど、個人でそれやってる人は少ないでしょ。

適当なHDDをLVMなりmdadmでつなげて元のアレイに加えたり、他の容量があまってる
storageから切り分で容量貰ってきたのを流用したり、と。そう言う面もあるからなぁ。

325 名前:login:Penguin mailto:sage [2011/02/20(日) 00:27:21.40 ID:yCXNWgeV]
あるからなぁ

と言われても

326 名前:login:Penguin mailto:sage [2011/02/20(日) 01:46:06.77 ID:s4CzjA8f]
ミラーの片割れがあぼーんしたらバックアップを取って二台とも廃棄処分だろ。んで、新規に二台買ってきてリストア。

327 名前:login:Penguin mailto:sage [2011/02/20(日) 14:44:10.36 ID:RGevxh5h]
>>326
「可用性」はどこ行ったんだよw

328 名前:login:Penguin mailto:sage [2011/02/20(日) 15:06:22.78 ID:s4CzjA8f]
>327
即死しなかったおかげで緊急メンテでバックアップを実行できて最新の最終のデータを失わずにすむだろ。
ディスクを二台とも廃棄するのは同じ環境で同じように酷使されたディスクなんて信頼性はもう無いと見た方が安心できる。
あと無停止システムにしたいなら二方向ミラーの一組だけでどうにかしろってのは無理だし。

329 名前:login:Penguin mailto:sage [2011/02/20(日) 22:40:50.93 ID:Mnk/k141]
最近は別メーカーとか別製品のHDD二台組み合わせて
遺伝的アルゴリズム風に運用するのが流行りだしてね?

330 名前:login:Penguin mailto:sage [2011/02/20(日) 22:53:05.59 ID:uoxofCdd]
三台でミラーリングして定期的に一台交換する、とか



331 名前:login:Penguin mailto:sage [2011/02/21(月) 01:31:02.60 ID:/mh8pAHw]
LVM ってプールみたいなもん?

332 名前:login:Penguin mailto:sage [2011/02/22(火) 22:32:44.57 ID:d4GHXSIo]
>>331
うんにゃ、AIXの論理ボリューム管理みたいなもん。

333 名前:login:Penguin mailto:sage [2011/02/24(木) 08:28:42.23 ID:UZbhA2qj]
320GBのHDDでarray作って思った
320GBがいつまで新製品で買えるのかとw
せめて500GBにしときゃよかった。。。

334 名前:login:Penguin [2011/02/24(木) 08:57:55.75 ID:+LhVKrWL]
mdadmだと、気にせず個々に大きいHDDに取り替えていけばいいんじゃね?
で、全部が320GB overになったらgrowしてみる、と。

335 名前:login:Penguin mailto:sage [2011/02/26(土) 01:13:09.50 ID:AjpK4IVQ]
アレイの構築中の負荷で他に影響を与えないようにioniceやniceコマンドを
mdadmコマンド実行時に前段に追加して実行してもダメなんすね。

実際に仕事してるのは別プロセスのようなので、(md0_raid5とかmd0_resyncとか)
mdadm実行後に立ち上がったプロセスをreniceとioniceで後から優先度を変更するしか
アレイ構築やチェックの処理優先度を下げさせることできないんでしょうか?

336 名前:login:Penguin mailto:sage [2011/02/26(土) 01:29:23.11 ID:vu/EQK7u]
man 4 md


337 名前:login:Penguin mailto:sage [2011/02/26(土) 12:05:23.19 ID:l2UEaSXl]
manってアレイごとの
/sys/block/mdN/md/
が抜けてるよね

338 名前:login:Penguin mailto:sage [2011/02/26(土) 23:26:00.10 ID:YHKS4Qz2]
あれぃ?

339 名前:login:Penguin mailto:sage [2011/03/03(木) 23:19:11.12 ID:aPgrBUX+]
HDD3台で構成されてるRAID5の/devmd0に
ディスクを--addで追加してスペアディスクとして組み込んだ状態から
RAID60レベル変更にしたいのですが、

# mdadm --grow --level=6 --raid-disks=4 /dev/md0
mdadm: /dev/md0: Cannot reshape array without increasing size (yet).

# mdadm --grow --level=6 --raid-disks=4 --size=max /dev/md0
mdadm: can change at most one of size, raiddisks, bitmap, and layout

という感じでエラーになります。引数に何が足りないんでしょうか?
もしくはmdadm.confに予め何か設定しておく必要があったりしますか?


340 名前:login:Penguin mailto:sage [2011/03/04(金) 22:31:20.60 ID:dpTfiBPG]
>>339
上のコマンド打った後以下コマンド実行で動かない?
# echo raid6 > /sys/block/md0/md/level

参考このへん: ttp://xblog.hellokitty68.main.jp/?eid=1016578




341 名前:login:Penguin mailto:sage [2011/03/06(日) 04:55:31.91 ID:RPfF2gcb]
mdadmってどう呼んでる?
マダドム?マダッドム?
マダムとダッドの合体語?

342 名前:login:Penguin mailto:sage [2011/03/06(日) 11:09:04.36 ID:9frQ4hTx]
エムディエイディエム

343 名前:login:Penguin mailto:sage [2011/03/06(日) 11:10:44.71 ID:Zh9h7jx2]
自分では
エム ディー アドミン

人に伝えるときは
エム ディー エー ディー エム
あくまでも個人的な意見。

344 名前:399 mailto:sage [2011/03/06(日) 19:51:57.84 ID:JhgND8E+]
>>340
行けました!
RAIDレベル変更の拡張の場合はmdadm側のコマンドで変更後のレベル指定するんじゃなくて
/sys/block/mdX/md/level
の中の記載を書き換えることで実現するんすねー。

345 名前:login:Penguin mailto:sage [2011/03/07(月) 10:14:23.53 ID:OwxqRXoH]
エムディーアダモステ

346 名前:login:Penguin mailto:sage [2011/03/18(金) 10:29:31.58 ID:aNs3epMu]
質問。
mdadmでraid1を作っているんだが、sdbで不良セクタ発生。
再構築をしたいのだが、今は計画停電期間中。
停電が終わってから最長でも18時間で必ず次の停電が来てしまう。

dev.raid.*を設定しても18時間じゃ1.4TBのパーティションの同期完了が厳しい
(丸一日くらいかかった気がする)。
UPSは2台あるが3時間の停電はとても耐えられない。

計画停電が終わるまで再構成はムリかな?

347 名前:login:Penguin [2011/03/18(金) 10:42:54.87 ID:ekMBduVz]
先月のだからもう解決済みかもなあ。

>>335
md の resync の下限と上限は

/proc/sys/dev/raid/speed_limit_min
/proc/sys/dev/raid/speed_limit_max

をそれぞれ sudo echo xxxxx > ファイル、で数値を直に書き換えられる。
まずは cat して現在値を確認のこと。max はデフォルト値 200000 kB/s。
再起動すると元に戻るのでご注意を。
(個々のデバイスだと /sys/blocks/md*/md/sync_* あたりらしいけど使ったことない)

ファイルのパス込みの正式名をどうしても覚えられないので、
設定が必要になるたびggりなおしてるw


>>341
エムディーアダム。
原義からするとアドムのほうが近いんだろうけど、語感が好きじゃないのでアダム。

348 名前:347 [2011/03/18(金) 10:48:09.76 ID:ekMBduVz]
>>346
347 に書いた方法で制限速度(limix_max)は上げられるけど、
小手先だし間に合わないんじゃないかなあ。
過負荷でアレイが壊れてかまわないなら、まずはレッツトライ。

349 名前:346 mailto:sage [2011/03/18(金) 11:09:00.33 ID:aNs3epMu]
>>348
レス有難う。
dev.raid.speed_limit_minやdev.raid.speed_limit_maxをageまくって丸一日なんだ。
アレイが壊れるのは困るから…方法がないなら放置かな。
不良セクタ箇所以外は生きている(はずだ)し。

350 名前:login:Penguin mailto:sage [2011/03/18(金) 11:46:35.90 ID:YwOrhI0Y]
>>349
案1
ディスクをもう1組用意して、パーティションを何個か切る(sdc1-4, sdd1-4とか)。
それぞれのパーティションでアレイを組んで(sdc1+sdd1->md1,...)1組ごとに同期をとる。
できたmdをLVMでくっつけて、縮退したアレイのデータが収まる大きさまで育ったらデータをコピる。

案2
バックアップとったら電源落として、のんびりする。




351 名前:346 mailto:sage [2011/03/18(金) 14:28:59.63 ID:aNs3epMu]
>>350
ありがとう。案1は私の力じゃ作業に不安があるな。

今日の二回目の停電が中止になって30時間以上間が開いたから、
ソッコーで同期始めた。
>>348,350ありがとう。

352 名前:login:Penguin mailto:sage [2011/03/26(土) 00:36:56.81 ID:NFqGjfij]
>>346
bitmap作ればできなくない?

353 名前:login:Penguin mailto:sage [2011/03/26(土) 11:31:47.15 ID:xd62/6A8]
ディスクが1発死んだときに、新しいディスクに交換してリビルドする前にバックアップとるとすると、
バックアップ先のハードウェアって何にしてる?
容量の大きなRAID組んでると、バックアップ先もでかい容量が必要になると思うんだけど、USBの外付け
ハードディスク買ってきても、いいとこ3TBだし。


354 名前:login:Penguin mailto:sage [2011/03/27(日) 10:51:40.31 ID:C3vM+KLD]
別PCにバックアップ用のアレイを組んでるよ


355 名前:login:Penguin mailto:sage [2011/03/28(月) 01:12:47.84 ID:9esJblgo]
質問です。
HDD1台のみでスパニングモードのアレイを設定(マザボ付属のraid)して、
その後にアレイを解除した場合、データは消去されたのでしょうか?

2TBのHDDを誤ってスパニング設定し、解除してしまったところです。
ウィンドウズの「ディスク管理」では「ディスク1 ベーシック 1863.01GB オンライン 未割り当て」、
Nvidiaの「ストレージ設定表示」では「基本ディスク」と表示されています。
マザボはGF8100 M2+SEです。

よろしくお願いします。

356 名前:login:Penguin mailto:sage [2011/03/28(月) 16:43:40.09 ID:g1P3BYn9]
同じ設定で組めば OK

357 名前:355 mailto:sage [2011/03/29(火) 09:18:30.95 ID:G7JKKN1D]
>>356
ありがとうございます。
本日試してみます。

358 名前:355 mailto:sage [2011/03/31(木) 10:30:36.15 ID:rUfaoVMQ]
355です。結果報告です。
アレイ同じ構成に戻してもウィンドウズ上からは認識されませんでした。
そこでtestdiskを使い、HDDは復旧しました。

359 名前:login:Penguin mailto:sage [2011/04/10(日) 00:06:51.69 ID:NuOE1clz]
質問させていただきます。
CentOSでRAID5を組んでいるのですが、共有ディレクトリにアクセスしようとすると、異様に時間がかかり、
Linuxマシン側に糞長いエラーログが出ます。
ata6.00: status: { DRDY }
とか出ているので、構成アレイの最後の一本にアクセスしようとして失敗しているっぽいです。
ただ、cat /proc/mdstatしても[5/5] [UUUUU]ですし、mdadm -D /dev/md0しても active syncです。
しかし、怪しい構成アレイはsmartctlもできなくなっていますし、RAIDから切り離すとアクセスが安定します。
これはHDD自体が死んでいるのでしょうか?

360 名前:login:Penguin mailto:sage [2011/04/10(日) 00:48:54.94 ID:sZ+yw5+B]
>>359
その糞SATAケーブルを交感してから試してみやがれこの糞野郎
とエスパーしてみたり




361 名前:login:Penguin mailto:sage [2011/04/18(月) 14:03:20.39 ID:LohzKB9l]
NEC Express5800/GT110b に HDD 4台で RAID 組もうとしているんですが、マザボの SATA に2系統あるようで、
 SATA0 (赤): sda
 SATA1 (青): sdc
 SATA2 (赤): sdb
 SATA3 (青): sdd
のようになります (赤・青はボード上のソケットの色)。
この場合、RAID1 を2セット組むとしたら sda-sdb, sdc-sdd で組むべき? sda-sdc, sdb-sdd で組むべき?
なお、/boot は作成する RAID1 (md0) に入れるつもりです。

362 名前:login:Penguin mailto:sage [2011/04/18(月) 14:42:10.50 ID:bX7LZUHN]
なぜ自分で計測しないの?

363 名前:login:Penguin mailto:sage [2011/04/18(月) 15:51:50.84 ID:LohzKB9l]
>>362
計測?
sda, sdb ... と順に組んでくのがいいのか、SATA の系統をまたいで組むのが良いのか、作法を聞きたいのですが。
ググってみたのですが、あまりこの辺について書いているものを見つけられませんでした。

364 名前:login:Penguin mailto:sage [2011/04/18(月) 16:13:58.59 ID:mCb2yyO9]
奇数偶数でワンセットにしたい人もいるだろうし、
連番でワンセットにしたい人もいる。


やりたいよいにやればいい。

365 名前:login:Penguin mailto:sage [2011/04/18(月) 16:59:09.56 ID:Pmlfe7XY]
チップセットのブロック図くらい読んでこいや

366 名前:login:Penguin mailto:sage [2011/04/18(月) 17:47:19.26 ID:Hd6IlzqC]
俺なら同じ色同士でやる

367 名前:login:Penguin mailto:sage [2011/04/18(月) 18:03:37.68 ID:Pmlfe7XY]
言っておくが赤を切ると爆発するぞ

368 名前:login:Penguin mailto:sage [2011/04/18(月) 18:09:14.12 ID:bX7LZUHN]
作法というなら、単一障害点を減らすのがRAIDの基本だべ

369 名前:361 mailto:sage [2011/04/18(月) 18:21:17.58 ID:LohzKB9l]
sda-sdc, sdb-sdd でやってみることにしました。

370 名前:login:Penguin mailto:sage [2011/04/20(水) 16:15:57.39 ID:HQS7YCBa]
>>360
回答ありがとうございます。
ケーブル交換では修正できなかったので、拡張PCIカードの不良を疑って交換したら見事に治りました。
ありがとうございます。



371 名前:login:Penguin mailto:sage [2011/04/30(土) 11:12:50.28 ID:ZWLOhJze]
既存のHDDを使ってRAID5あたりを組もうと思っているんですが
もともと中にあったファイルを保持したままRAIDを組むっていうのは無理ですよね

372 名前:login:Penguin mailto:sage [2011/04/30(土) 14:46:46.73 ID:lxU/ZmU/]
>>371
やり方は色々あるけどできるよ

373 名前:login:Penguin mailto:sage [2011/04/30(土) 19:57:43.37 ID:ZWLOhJze]
>>372
マジですか
ぜひともやり方を教えていただけると…

374 名前:login:Penguin mailto:sage [2011/04/30(土) 20:00:40.12 ID:U5mQf/ym]
>>373
HDDに結構な負荷かかるから古いHDDだと構築時に逝くかもしれないぜ?

375 名前:login:Penguin mailto:sage [2011/04/30(土) 20:27:08.48 ID:ZWLOhJze]
古いと言っても1~2年なので多分大丈夫だと思います

376 名前:login:Penguin mailto:sage [2011/04/30(土) 21:49:53.47 ID:ajiH1WGa]
>>373
エスパーじゃないから元の環境と(ボリューム数とかLVM使用の有無とか)
RAID5にしたい時のボリューム数がわからんので何も助言できない


377 名前:login:Penguin mailto:sage [2011/04/30(土) 22:03:22.26 ID:IxyBD6MT]
>>371
LinuxのソフトウェアRAIDなら以下の手順で出来るよ。

1.新しいディスクを2台買ってきて取り付ける
2.新しいディスク2台で縮退状態のアレイを作る
3.アレイに既存のディスクの中身(ファイルシステム、論理ボリュームなど)をコピーする
4.既存のディスクをアレイに追加して、同期が終わるまでじっと待つ

注意事項は、新しいディスクが既存のディスクより大容量な場合、アレイを作る際に丸ごと使わないこと。

新しいディスクが3台以上あるなら普通に新しいディスクだけでアレイを作ってデータをコピーし、
最後に領域拡張するという手もある。

378 名前:login:Penguin mailto:sage [2011/04/30(土) 22:56:21.61 ID:ZWLOhJze]
>>376
環境はとりあえず今からRAIDができるOSを入れようと思っています
なのでなんでもいいです

ボリューム数は5
LVMは使えば複数HDDを一つに見せることが可能という認識でいいでしょうか
であればぜひ使いたいです

>>377
やっぱりいくつか買い足さないと駄目ですかね?
出来れば買い足さず今あるHDDで済ませたいのですが…

379 名前:377 mailto:sage [2011/04/30(土) 23:14:28.57 ID:IxyBD6MT]
>>378
え、ひょっとして手持ちのディスクをデータをそのままにRAID5のアレイにまとめようとか考えてる?

380 名前:login:Penguin mailto:sage [2011/04/30(土) 23:18:38.64 ID:3faszs44]
そうとしか読み取れなかったが



381 名前:377 mailto:sage [2011/04/30(土) 23:34:22.61 ID:IxyBD6MT]
>>380
いや、手持ちのディスク1台のデータを保ったままRAID5アレイに移行するってのはアリだけど、
よもや5台全部のデータをそのままRAID5に移行したいなんて物理的に無理なことを考えてるとは思わなくて。

382 名前:login:Penguin mailto:sage [2011/04/30(土) 23:43:04.11 ID:ajiH1WGa]
空きディスク1発あればRAID1縮退作って1発分移動して
RAID1→RAID5変換してファイル移動して空いたディスクをRAID5にaddしてgrowしてを繰り返せば理論上できなくもないけど
変換だけで実時間3・4日くらい使うぞ


383 名前:login:Penguin mailto:sage [2011/05/01(日) 00:07:10.63 ID:bc06QFlz]
やっぱり無理ですよね…
素人で申し訳ないです

384 名前:login:Penguin mailto:sage [2011/05/01(日) 01:36:51.51 ID:Gb8UNBEf]
あまったRAIDカードと容量バラバラのHDD8台でRAID5組んで遊びで運用してるけど、一向に不具合こない
RAIDは同じ型番のHDDでって思ってたけどそこまで関係ないものなのかな

385 名前:質問 [2011/05/08(日) 16:46:59.11 ID:iKVL8NzG]
CentOS5.4でのソフトウェアRAID5を勉強中ですが、ディスクの交換のところでうまくいきません。
下記手順で進めていきましたが、ディスク交換→mdの再構築まではうまくいくのですが、
再起動をかけるとRAID5の構成デバイスがまた元に戻ってしまいます。
再起動後でもhdd7がRAID5のアクティブデバイスであるためには何か必要なのでしょうか?
いろいろ調べてみたのですが、どのサイトにもそのようなことが書かれておらず困っています。


RAIDデイバス作成
# mdadm -C -a yes -l raid5 -n3 -x1 /dev/md0 /dev/hda2 /dev/hdd1 /dev/hdd5 /dev/hdd6

確認
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd5[2] hdd6[3](S) hdd1[1] hda2[0]
1975680 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

フォーマットとマウントして、利用できることを確認
# mkfs -t ext3 /dev/md0
# mount /dev/md0 /test1

fstabに登録
# vi /etc/fstab
/dev/md0 /test1 ext3 defaults 1 2

再起動しても利用できることを確認
# shutdown -r now

(本文が長いとでるのでこの後続きます)


386 名前:385 [2011/05/08(日) 16:48:44.75 ID:iKVL8NzG]
(続きです)

検証のため2台のデバイスを削除
# mdadm --manage /dev/md0 -f /dev/hda2
# mdadm --manage /dev/md0 -f /dev/hdd1
# mdadm --manage /dev/md0 -r /dev/hda2
# mdadm --manage /dev/md0 -r /dev/hdd1

# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd6[0] hdd5[2]
1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U]

予備で用意していた/dev/hdd7があることを確認
# fdisk -l/dev/hdd
/dev/hdd1 1 123 987966 fd Linux raid 自動検出
/dev/hdd2 124 3042 23446867+ 5 拡張領域
/dev/hdd3 3043 9122 48837600 83 Linux
/dev/hdd4 9123 11555 19543072+ 83 Linux
/dev/hdd5 124 246 987966 fd Linux raid 自動検出
/dev/hdd6 247 369 987966 fd Linux raid 自動検出
/dev/hdd7 370 492 987966 fd Linux raid 自動検出

387 名前:385 [2011/05/08(日) 16:49:04.87 ID:iKVL8NzG]
(つづきです)
/dev/hdd7を追加
# mdadm --manage /dev/md0 -a /dev/hdd7

しばらくして確認
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd7[1] hdd6[0] hdd5[2]
1975680 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

再起動しても問題ないか確認
# shutdown -r now

↓なぜかhdd7が消えている
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd6[0] hdd5[2]
1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U]

388 名前:login:Penguin mailto:sage [2011/05/08(日) 18:32:50.44 ID:dbrlUN8D]
リビルド

389 名前:login:Penguin mailto:sage [2011/05/09(月) 01:28:01.10 ID:S+FHQdJ2]
>>387
/dev/hdd7 が拡張領域の最後のパーティションであるところが臭いな。
それでスーパーブロックの自動認識がコケてるんじゃないのかな。
実験で使わない /dev/hdd8 を作ってみればどうだろう。
パーティションタイプは fd 以外で。

390 名前:login:Penguin mailto:sage [2011/05/09(月) 05:38:07.68 ID:Mo4D+3QG]
起動後にdmesgとかは見た?



391 名前:login:Penguin mailto:sage [2011/05/09(月) 17:20:30.78 ID:NP2vgjMG]
>>385 を見ると
最初の段階では hda1/2/5 の3台でボリューム作ってて
hdd6がスペアだよね?
で、>>386では hda1/2 を抜いたように見えるんだが…
3台構成中の2台抜いちゃったらボリュームの再構成はできないのでは。

書いてないけど、1台抜く→リビルド終了→もう1台抜く
てな段取りでやったのかな?

392 名前:login:Penguin mailto:sage [2011/05/09(月) 18:43:18.57 ID:MY5ZQwLA]
RAID5
hda2、hdd1、hdd5、hdd6 (スペア)

この状態で hda2、hdd1 を外したら、RAID5 は消滅してるよね?
それとも、hda2 を抜いたあとのスペアを使ってのリビルドを終えてから hdd1 を外してるってこと?

393 名前:login:Penguin mailto:sage [2011/05/09(月) 22:06:58.52 ID:8NVZ92rG]
>>385
とりあえずmdadm.confをチェックしたらいいんじゃないかと思うが。

394 名前:login:Penguin mailto:sage [2011/05/09(月) 23:41:17.38 ID:ljI9s1dP]
arrayぶっ壊した祭りキタ━━━━(°Д°)━━━━?

395 名前:login:Penguin mailto:sage [2011/05/11(水) 20:56:17.03 ID:zBKnKrbv]
S-ATAのRAIDカードで、
RAID組まずにS-ATAのHDD2台増設として使用できますか?
この玄人志向カードです。
www.kuroutoshikou.com/modules/display/?iid=86


また、複数毎挿しは可能でしょうか?

396 名前:395 mailto:sage [2011/05/11(水) 20:58:32.96 ID:zBKnKrbv]


OSはWindows7
M/BはG31M7-TE、G31MX-Kを考えています。

397 名前:login:Penguin mailto:sage [2011/05/11(水) 23:25:01.38 ID:GMmHnJqe]
帰れ

398 名前:login:Penguin [2011/05/12(木) 08:32:00.30 ID:IfSMMkdB]
kuroutoshikou.com/modules/kurobbs/?tid=1839
SiliconImage社から配布されているファームウェアで、
bから始まるものを当てると、RAID機能が無効になり、ただのSATAカードと認識されます。
逆にrから始まる物を当てれば、再びRAID機能が有効になり、RAIDボードとして認識します。

ちなみに、私が使ったのはb4384.binというファームでした。



399 名前:login:Penguin [2011/05/12(木) 09:27:14.34 ID:IfSMMkdB]
www.siliconimage.com/support/searchresults.aspx?pid=29&cat=15
BIOS-003512-xxx-4384
にrがある。

400 名前:login:Penguin mailto:sage [2011/05/12(木) 21:00:26.48 ID:tVRwKmAN]
リビルド 言っただろ
案の定、リビルド終わってないんじゃないかと言う意見たくさん出てるな



401 名前:login:Penguin mailto:sage [2011/05/13(金) 22:54:16.70 ID:BHN+ryP5]
>>395
SiI3512 - PCI to 2 Port SATA150
www.siliconimage.com/products/product.aspx?pid=29
これって3TB対応してるのかな?

402 名前:385 [2011/05/14(土) 11:47:25.61 ID:eKhgKtI/]
みなさん、貴重なご意見ありがとうございます。
ひとつずつ検証して結果をレスさせていただきます。
なにぶん、1週間たつと頭が真っ白になっていますので・・・


その前に、386の訂正です

デバイスをいきなり2台削除したのではなく、
# mdadm --manage /dev/md0 -f /dev/hda2
でスペアのhdd6がアクティブ(同期される)ことを/proc/mdstatで確認

# mdadm --manage /dev/md0 -f /dev/hdd1

# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd5[2] hdd6[0] hdd1[3](F) hda2[4](F)
1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U]
を確認 (3台構成のうち2台が生きている状態)

その後で、
# mdadm --manage /dev/md0 -r /dev/hda2
# mdadm --manage /dev/md0 -r /dev/hdd1

403 名前:login:Penguin mailto:sage [2011/05/14(土) 12:12:03.65 ID:ASYKen8E]
>>402だけ見て適当な意見
raid5で2台をFにしていいの?

404 名前:385 mailto:sage [2011/05/14(土) 12:15:03.42 ID:eKhgKtI/]
>>402は >>391 >>392さんからの意見をみての訂正です。

>書いてないけど、1台抜く→リビルド終了→もう1台抜く
>てな段取りでやったのかな?

>それとも、hda2 を抜いたあとのスペアを使ってのリビルドを終えてから hdd1 を外してるってこと?
ご指摘通りです。

質問をしておいて肝心な部分を省略してしまいました。大変失礼しました。

405 名前:login:Penguin mailto:sage [2011/05/14(土) 12:22:25.52 ID:aKnDiMTq]
mdadm.confが見当たらないが?

406 名前:385 mailto:sage [2011/05/14(土) 12:42:23.63 ID:eKhgKtI/]
>>403
今回の検証の目的として、
@1台がこけたときに、スペアが自動的にアクティブとなって同期するか?
Aさらに1台がこけて3台のうち2台構成であっても、RAID5として機能するか?
Bあらかじめ用意していたディスクをRAID5に追加しても機能するか?
なんですが、
@の検証のためにまずはhda2をFにしました
つづいてAの検証のためにhdd1もFにしました
そのため表示上は2台がF状態ですが、>>402の手順では3台のうち常に2台は
アクティブ状態なのでRAID5としては大丈夫だと思っていますが・・

407 名前:login:Penguin mailto:sage [2011/05/14(土) 12:47:18.94 ID:GMaEcG2w]
物理的に抜かないといけないんじゃなかったか?

408 名前:385 mailto:sage [2011/05/14(土) 12:51:45.16 ID:eKhgKtI/]
>>405
今回は特にmdadm.confは使用していません。
理由として、
mdadmコマンドでは、mdadm.confが無くてもRAIDの構成ができるということと、
もしディスク構成が変わったときにmdadm.confの情報が古いため、再起動があったときに問題が生じる可能性がある
と思ったからです。

ただし今回の問題においては、ディスク構成が変わったときにmdadm.confにも構成情報を記述したら、
再起動時にmdadm.confを参照してうまくいくのでは?と思ってやってみたのですがうまくいきませんでした。
今回もう一度チャレンジしてみる予定です。

409 名前:385 mailto:sage [2011/05/14(土) 12:59:59.86 ID:eKhgKtI/]
>>407
肝心の交換する物理的なディスクがないんです・・
そこで、論理パーティション(fd用)を作成してこれを交換用ディスクと仮定して検証しています。

ん・・
今思ったのですが、RAID5構成が2/3になった場合、本来は
RAID5障害 → shutdown → ディスク交換 → 起動 → パーティション作成 → RAID5再構築と思いますが、
自分のやり方だと、
RAID5障害 → RAID5再構築 となって、一番肝心の再起動をすっとばしています
RAID障害と再構築の間でshutdownが必要なのかも? ちょっと後で検証してみます。


410 名前:login:Penguin mailto:sage [2011/05/14(土) 15:09:30.64 ID:MxTWk7g0]
/dev/hdd? ってことはPATAだよね。
SATAでやった方がいいんじゃね?
要再起動ではRAIDの価値半減では。



411 名前:login:Penguin mailto:sage [2011/05/14(土) 15:50:35.85 ID:MxTWk7g0]
ん?
よく見たら
一台の物理HDDをパーティション切ってRAIDにしてるんだw
リビルドとか何それHDDいじめ? w

単なる実験だとしても
RAMディスク上に小さいディスクイメージを必要数作って
VM上のLinuxにマウントしてやるとかの方が
実用的な実験になるんでないか?

412 名前:385 mailto:sage [2011/05/14(土) 20:03:03.74 ID:eKhgKtI/]
>>411
15年前のPC(メモリ192MB)には残酷です すでにGUIインスト・起動もできなくなるほどの老体ですので・・

413 名前:385 mailto:sage [2011/05/14(土) 20:13:54.14 ID:eKhgKtI/]
>>390
基本となるログ確認を忘れていました。
dmesgだとタイムスタンプが表示されないので、syslog経由で/var/log/dmesgに記録するようにしました

が、すみません
387のようにhdd7をmd0に参加させてアクティブにして、3/3構成になっていることを確認後、
shutdownし、その後のdmesgを確認しようとしたのですが、
なぜか起動する時点で、
RAID5に必要なデバイスが2個しかないので/dev/md0の作成ができない、
だからfsckできない
/dev/md0開けない、スーバーブロックの〜〜がおかしい
とかエラーになって起動に失敗するようになりました。

朝はちゃんとできていたんですけど・・やったといえば空の/etc/mdadm.confを削除したぐらい?
/etc/mdadm.confはいる子なんですかね。


414 名前:login:Penguin mailto:sage [2011/05/14(土) 20:42:06.54 ID:x6YKLIxD]
>>413
手でmdadm.confを書いて再起動してみ。

415 名前:login:Penguin mailto:sage [2011/05/14(土) 20:54:54.56 ID:VCCnnm+r]
mdadm.conf
名前からして mdadm の設定ファイル

そりゃ無くしちゃ駄目だろうw

416 名前:385 mailto:sage [2011/05/14(土) 21:01:22.65 ID:eKhgKtI/]
今回の件に関してリビルドという書き込みがあるのですが、
>>402 にもあるように、
@/dev/hda2をFにすると、予備の/dev/hdd6がアクティブとなりデータが復元される
 それを/proc/mdstatで完了したことを確認し、さらに/dev/hdd1をFにする
 このときはすでに予備のディスクが無いので/proc/mdstatでは、3/2表示
A/dev/hdd7をmd0に参加させて、/dev/hdd7にデータが復元される
 /proc/mdstatで確認すると3/3の状態に戻っている
この@、Aのときに起こっていることがRAID5でのリビルド(再構築)ではないのですか?

417 名前:login:Penguin mailto:sage [2011/05/14(土) 23:23:21.58 ID:Wn3DLmQA]
?なこと
RAID5 4台構成+スペア1
RAID5 4台構成のうち2台外す

RAID5は2台外したら機能しないよ
2台外した後に1台スペア追加したからって再構築もできないよ

スペア有る状態で構築してある2台外す→データあぼーん

やるなら、
スペア有る状態で構築してある1台外す→スペアを使って再構築→もう1台外す→データ生きてる
って感じじゃないのか?


418 名前:login:Penguin mailto:sage [2011/05/15(日) 02:02:46.54 ID:KURhrqN1]
>>412
ttp://nttxstore.jp/_II_HP13476513 でも買ったら?
送料無料12800円でdual core
メモリも2GB載ってる

419 名前:login:Penguin mailto:sage [2011/05/20(金) 22:03:27.94 ID:Hx10u45z]
スレ違いも甚だしいのだけど、
 ttp://nttxstore.jp/_II_HP13476513
の「メーカ HP(旧コンパック)」の(旧コンパック)表記は未だに必要なのだろうか、と疑問に思ったw



420 名前:login:Penguin mailto:sage [2011/05/21(土) 02:16:43.53 ID:MIbSZT6Q]
(1) OS (例えば CentOS 5.5) インストール時に RAID5 で Array 作成
(2) 作った Array にとりあえず色々ファイル書き込む
(3) OS の入ったディスクをわざと消して、OS (例えば CentOS 5.6) を再インストール
Linux のソフトウェア RAID は、こんな風に OS が入れ替わっても Array の入ってた
ディスクの設定とかを弄らなければ普通に認識してくれるもんなんでしょうか?



421 名前:login:Penguin mailto:sage [2011/05/21(土) 02:19:02.64 ID:jo2LkPkL]
>>420
何がRAIDをコントロールしているかを考えれ・・・・・・。

422 名前:login:Penguin mailto:sage [2011/05/21(土) 10:46:47.58 ID:/ULFXKmI]
RAIDで使ったHDDの一片をUSBに持っていったり
一片を別なPCに付けてiSCSIで接続しても元に戻るよ


423 名前:login:Penguin mailto:sage [2011/05/21(土) 11:05:29.19 ID:MIbSZT6Q]
戻らねぇよカスw

424 名前:login:Penguin mailto:sage [2011/05/21(土) 11:15:10.45 ID:/ULFXKmI]
やってみるといいよカス

425 名前:login:Penguin mailto:sage [2011/05/21(土) 20:16:06.77 ID:H1P/c5OE]
>>420
使用したOS内蔵のソフトウェアRAIDに互換性があれば再認識させる事はできる。
USBだろうがiSCSIだろうがRAID構成に使用できるデバイスとして見えるなら元のアレイを取り戻す事はできる。
その気になればRAIDを構成するディスクすべてをそれぞれ別のマシンのiSCSIターゲットから提供してもらって構築する事もできる。

もちろんCentOSでできるかどうかは自分で調べてくれ。

426 名前:login:Penguin mailto:sage [2011/05/21(土) 21:06:15.97 ID:/nyg0oy0]
横から失礼

LinuxのSoftwareRAIDって結構柔軟なんですね。
構成に必要な設定はそれぞれのHDDに含まれてて、ディスクが揃えば構成は元に戻る。

って事なんかな?

それともmdadm.confが残ってること(また自力でなんとか書き起こせた場合)が前提?

427 名前:login:Penguin mailto:sage [2011/05/21(土) 22:53:08.25 ID:cuk2hA/s]
>>422
ソフトウエアRAIDだと戻りそうだが、ハードウエアRAIDだと戻らないだろうね

428 名前:login:Penguin mailto:sage [2011/05/21(土) 23:10:09.49 ID:cuk2hA/s]
>>426
以前オレがやったこと。
その1
マザー4ポートとRAIDカード4ポートにHDDを接続してソフトウエアRAIDで構築

RAIDカード8ポートのものに交換

何も考えずHDD8台接続

起動したらそのまま使えた

その2
OSドライブにUSBメモリを使い debian 5.0 lennyでソフトウエアRAID組んで運用

OSドライブを交換するため、USBメモリを外すと同時にソフトウエアRAIDを組んでたドライブを全部外す

HDDに交換 debian 6.0 squeeze クリーンインスコ

ソフトウエアRAID組んでたドライブを取り付ける

再構築

マウントしたら、データ残ってて普通に使えた


429 名前:login:Penguin mailto:sage [2011/05/22(日) 01:24:19.56 ID:mz99SHzs]
ふむふむ


てことは、Linuxから認識が出来て、
パーティションをいじらない限りは
普通に使えそうですね。



430 名前:login:Penguin mailto:sage [2011/05/22(日) 17:17:48.63 ID:UuMWPsxa]
>>426 >>429
パーティションなりディスクボリュームなりの最後にスーパーブロックがあって、
そこにマジック書き込んであって認識される。
RAIDのどのタイプか、何番目のディスクか、動作状態は健全かデグレートか等々。
したがってRAIDから外したディスクを再利用するつもりなら --zero-superblock
しとかないと、既存のRAIDの一部とみなされて後々変なトラブルが出る。

>>427
ハードウェアRAIDでも同じ。ディスクのどこかに「しるし」を書き込むよ。



431 名前:login:Penguin mailto:sage [2011/05/22(日) 17:24:17.90 ID:UuMWPsxa]
追記。
「変なトラブル」の大半は、RAIDボリュームの一部なのに他と合わないので
RAID構成から外すとかRAIDの方も停止状態にした、というもの。

各ディスクには出来上がったRAIDボリュームのUUIDと動作状態の
チェックサムも記録されているので、偶然の一致は無い。

432 名前:login:Penguin mailto:sage [2011/05/22(日) 19:03:12.62 ID:2Faawrj0]
>>430
> ハードウェアRAIDでも同じ。ディスクのどこかに「しるし」を書き込むよ。

無責任に一般化するなよw

433 名前:login:Penguin mailto:sage [2011/05/22(日) 20:09:37.56 ID:GBnvxDPM]
>>432
無知乙

434 名前:login:Penguin mailto:sage [2011/05/23(月) 00:19:26.19 ID:7v6SLhKz]
>>433
無知とか何とかって話ではなく、
この話がそもそも >420 からの続きだってこと
理解してるのか?

つか一言でハードウェアRAIDったって
例えば3wareとRocketRAIDじゃ
全然違うだろうに
更に言えば機種後との互換性すら
メーカーごとに全然扱いが違うんだが

435 名前:login:Penguin mailto:sage [2011/05/23(月) 01:49:04.69 ID:8su/jpd5]
>>433
メーカーAのカードでハードウエアRAID組んだドライブを
メーカーBのカードにつないでハードウエアRAIDにしても問題なく今までのデータ使えるんだ?w

436 名前:login:Penguin mailto:sage [2011/05/23(月) 01:57:47.85 ID:+Ld7qqz/]
その「しるし」がハード固有だって事ぐらい分かるだろ?
それを挙げ足取りみたいにして喜んでさ、根暗だよね〜。

437 名前:login:Penguin [2011/05/23(月) 07:51:45.28 ID:WeXZ1aBl]
>>434-435
ここまで頭のわるいやつらだったとは

438 名前:login:Penguin mailto:sage [2011/05/23(月) 10:38:53.40 ID:b7qa5pVu]
>>420にはソフトウェアRAIDって書いてあるのに
延々とハードウェアRAID基準で語るとか
日本語が不自由な奴が多いのか


439 名前:login:Penguin mailto:sage [2011/05/23(月) 20:49:21.35 ID:T2qGWxDH]
>>437
ソフトウエアRAIDの話をしているのにハードウエアRAIDの話に持っていく
そして、ハードウエアRAID固有の問題を挙げると揚げ足取りとか言う
馬鹿なのかアホなのか



440 名前:login:Penguin mailto:sage [2011/05/23(月) 22:21:48.36 ID:BzlQ03Y+]
次スレ案
【ハードも】RAID総合スレッド No.6【ソフトも】



441 名前:login:Penguin mailto:sage [2011/05/23(月) 22:25:37.02 ID:JXT2n+qb]
ハードも可とすると、自作PC板の
hibari.2ch.net/test/read.cgi/jisaku/1303039530/
との住み分けも考える必要がありそうすね。


442 名前:login:Penguin mailto:sage [2011/05/23(月) 22:35:49.44 ID:BzlQ03Y+]
次スレ案2
【ソフトでも】Linux de RAIDスレ No.6【ハードでも】

443 名前:login:Penguin mailto:sage [2011/05/23(月) 22:39:06.68 ID:LESgUC77]
ハードウェアRAIDの最低ラインはMegaSASにしようぜ(w

444 名前:login:Penguin mailto:sage [2011/05/23(月) 23:16:44.85 ID:c0/6JENF]
>>442
懐かしすぎて吹いた


445 名前:login:Penguin mailto:sage [2011/05/23(月) 23:19:26.81 ID:c0/6JENF]
>>443
ハードウエアRAIDは使ってないからわかんないけど、
ハードウエアRAIDをLinux板でやる意味はあるの?
自作PC板かハードウェア板でやったほうが有意義では?

446 名前:login:Penguin mailto:sage [2011/05/24(火) 09:57:13.61 ID:uNp2NbCh]
自作板にはすでにRAIDカードのスレがあるよ。

RAIDカードあれこれ 43枚目
ttp://hibari.2ch.net/test/read.cgi/jisaku/1303039530/

447 名前:login:Penguin mailto:sage [2011/05/24(火) 12:37:53.94 ID:rRC5sbA8]
総合スレなんだから総合らしくやればいいだけのこと

448 名前:login:Penguin mailto:sage [2011/05/24(火) 21:39:57.63 ID:3OuK7Gis]
ハードウエアRAIDでアレイ構築してるのにlinux板のRAIDスレで何聞くんだろ?


449 名前:login:Penguin mailto:sage [2011/05/25(水) 03:45:59.14 ID:3S9STLoJ]
ドライバ関係とかツールのインストール関係とか
Linux依存の話はいろいろあると思うが

450 名前:login:Penguin mailto:sage [2011/05/25(水) 10:35:24.97 ID:61mBVb84]
次スレ談議は950あたりでやればいいよ。



451 名前:430 mailto:sage [2011/05/26(木) 13:11:33.96 ID:WzPNJ81w]
>>434-436
異方式での互換?「藁人形論法」なんて幼稚な事しなさんな。

ソフトウェアRAID込みでRAID共通化の提言は確かインテル主導で
(アンド、mdadmの人も入ってる)だいぶ前からあるはずだけど、
はたしてまとまるのかねえ。

>>432
ではその事例を挙げるべし。教えてもらえると助かるよ。

>>445
dmraidがあるんだから、語ればいいと思う。

452 名前:login:Penguin mailto:sage [2011/05/26(木) 15:18:08.67 ID:Vlfbg01s]
アホは放置の方向で

453 名前:login:Penguin mailto:sage [2011/05/26(木) 23:10:45.61 ID:2O6Wds09]
なんだ、反論できないからアホ呼ばわりかw

454 名前:login:Penguin mailto:sage [2011/05/27(金) 21:26:08.03 ID:SK+T648j]
mdraidのsuperblockを修正するツールのraidzapについてなんだけど。
これって、superblock1.0にも対応してる?
先日、謎の瞬断で四本のディスクで構成していたraid5アレイが崩壊してしまい修復を図っているところなんだけど、ツールだとno superblockとかなってしまう。
でも、mdadm --exmineだとちゃんと表示されるんだよな〜。
1.0系と0.9系のsuperblockでは書き込まれている場所が違うからなんじゃないかと思っているんだけど。
ソースみても読み込み位置を指定する部分がよくわからない。。。


455 名前:login:Penguin mailto:sage [2011/05/27(金) 23:34:46.71 ID:LfJimWf2]
>>454
対応していない

0.9と1.xではsuperblockの構造体が違う
raidzapは0.9系の構造体使ってる

位置は末尾決め打ち


456 名前:login:Penguin mailto:sage [2011/05/28(土) 02:11:28.82 ID:DR8xEqFb]
>>454
なるほど、ありがとう。

だが・・・困ったなぁ。。。
md.cに何かヒントないかな。


457 名前:login:Penguin mailto:sage [2011/05/28(土) 02:12:55.99 ID:DR8xEqFb]
455へのレスだった・・・ごめんなす。

458 名前:login:Penguin mailto:sage [2011/05/28(土) 13:01:46.86 ID:17piUe8k]
>>454
mdadm -A -l<level> dev dev...
とかやって無理やりassembleしてもだめだった?


459 名前:454 mailto:sage [2011/05/28(土) 15:22:38.14 ID:DR8xEqFb]
>>458
--forceとかつけてやってみたんだけど、ダメだった。。。
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : inactive sdb1[1](S) sdd1[5](S) sda1[4](S) sdc1[2](S)
7813690476 blocks super 1.2

全部、なぜかスペア扱いwwww


460 名前:454 mailto:sage [2011/05/28(土) 15:34:46.55 ID:DR8xEqFb]
ちょっと情報が少なかったので補足。
・もともと、sd[abcd]1でRAID5を構築していた。
・東京電力が謎の瞬断。
・ログを見ると、sdaとsddが外れていた。
・assembleかけてみたが、なぜかスペアで組み込まれてしまう。。。

ログを見ると、(ほとんど差は無いが)時間的にはsda、sddの順で外れていたので、
復旧の方向性としては、まずなんとかsddを組み込んで縮退状態での起動を
目指す…でいいよね?




461 名前:login:Penguin mailto:sage [2011/05/28(土) 17:00:28.23 ID:o/JG/Ps/]
RAID組んでるならUPSぐらい……

# 今まで日本は恵まれていたんだよ。これからは海外並みにUPSが当たり前。

462 名前:login:Penguin mailto:sage [2011/05/28(土) 17:48:01.24 ID:17piUe8k]
>>460
-A sd[bcd]1が無理なら--createする時に縮退で組めば
resyncが発生せずにメタデータ上書きだけでデータ本体はそのまま残る。
--createするときはチャンクサイズとかレイアウトとかも要設定。
まずは仮想マシンで手順とか確認。


463 名前:454 mailto:sage [2011/05/28(土) 22:41:58.42 ID:DR8xEqFb]
>>461
まぁ、それを言われちゃうと申し訳ないとしか言えないが…
計画停電もあったし、アキバで中古のUPS買おうとは思ってたんだけどなぁ。

>>462
createは最後にやってみようと思う。
おそらく、そこは失敗すると二度と戻れない手順ですよね。
もう少し、Faultyフラグを書き換える方法をいろいろ調べてみます。
ちなみにcreateする場合、自分の場合だと構成デバイスはsddだけにして、missing にsd[abc]入れる感じ?

464 名前:login:Penguin mailto:sage [2011/05/28(土) 23:42:14.88 ID:17piUe8k]
>>463
各ボリュームがどこの位置にあったのかは-E /dev/ボリュームのDeviceRoleでわかる
Device Role : Active device 0
Array State : AAAA ('A' == active, '.' == missing)

createする時のdevicesは--detailのRaidDevice順になるからアレイから見て抜きたいところにmissing入れる
なので元々dev.No = sda.0/sdb.1/sdc.2/sdd.3
となっていてsddがDevice Role=3で新規アレイの3の位置に戻して-Cするなら
-C (中略) -l5 -n4 missing missing missing /dev/sdd
になる。dev.noは上のままと仮定して0抜きの1/2/3で縮退-Cでstartする場合のdevicesは
missing /dev/sdb /dev/sdc /dev/sdd
になる
失敗してもアレイのメタデータが飛ぶだけでLVM/PVに使っていてもそのメタデータが
破損する亊はないけどその状態で書くと多分死ぬ
各アレイの頭4096 sectorsずつくらいddでコピーして仮想マシンで試すとかいうのも手


465 名前:454 mailto:sage [2011/05/29(日) 03:09:04.90 ID:HSES09fA]
>>464
まじですごい!!!
createで復活したよ!!!
いくら、礼を言っても足りないくらいだ。
最初、lvmがinactiveになっていてactivateする必要はあったけど、見事に復活しました。
mount直後にext4の自動修正が走ったので、多少はデータに欠損があったのかもしれないが、いまのところ壊れたファイルは無さそうです。

466 名前:454 mailto:sage [2011/05/29(日) 03:34:13.70 ID:HSES09fA]
これは素晴らしいノウハウなので、復旧した流れををちょっと書き記します。
ちょっとログが流れてしまったので、一部記憶を頼りに書いています。

> 各ボリュームがどこの位置にあったのかは-E /dev/ボリュームのDeviceRoleでわかる
> Device Role : Active device 0
> Array State : AAAA ('A' == active, '.' == missing)
# mdadm -E /dev/sd[abcd]1 | grep Role
Device Role : Active device 0
Device Role : Active device 1
Device Role : Active device 2
Device Role : Active device 3

# mdadm -E /dev/sd[abcd]1 | grep State
Array State : AAA. ('A' == active, '.' == missing)
Array State : AAA. ('A' == active, '.' == missing)
Array State : AAA. ('A' == active, '.' == missing)
Array State : .AA. ('A' == active, '.' == missing)

> createする時のdevicesは--detailのRaidDevice順になるからアレイから見て抜きたいところにmissing入れる
# mdadm --detail /dev/md1
(中略)
Layout : left-symmetric
Chunk Size : 512K
(中略)
Number Major Minor RaidDevice State
4 8 1 0 failure
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
3 8 49 3 failure
5 ? ? ? spare /dev/sda1
6 ? ? ? spare /dev/sdd1


467 名前:login:Penguin mailto:sage [2011/05/29(日) 03:37:10.10 ID:HSES09fA]
# mdadm -C /dev/md1 -c512 -l5 --layout=left-symmetric -n4 missing /dev/sdb1 /dev/sdc1 /dev/sdd1
以下、復活後の確認
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : active raid5 sdd1[3] sdc1[2] sdb1[1]
ちょっと怖いが、sdaも瞬断で外れただけで、壊れていないと判断してスペアに組み込んだ。
# mdadm --detail /dev/md1
Version : 1.2
Creation Time : Sun May 29 02:46:23 2011
Raid Level : raid5
Array Size : 5860267008 (5588.79 GiB 6000.91 GB)
Used Dev Size : 1953422336 (1862.93 GiB 2000.30 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun May 29 03:29:10 2011
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Rebuild Status : 6% complete
Name : sa22c:1 (local to host sa22c)
UUID : edb063f2:f934a5bb:1bf36d16:54d746ca
Events : 7
Number Major Minor RaidDevice State
4 8 1 0 spare rebuilding /dev/sda1
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
3 8 49 3 active sync /dev/sdd1

468 名前:454 mailto:sage [2011/05/29(日) 03:47:51.48 ID:HSES09fA]
それにしてもHDDは、まだ買ってから3〜4ヶ月のWD20EARSなのに外れなのかなぁ。。。
5本買って、1週間で1本ぶっ飛んで交換してもらったというのに。
とりあえず、sdaとsddの2本は心配なので早急に換装を検討します。

もう、WDは買わない。

あらためて、464には本当にお世話になりました。
有難うございました!

469 名前:login:Penguin mailto:sage [2011/05/31(火) 14:33:41.81 ID:XlrTIdtB]
WD20EARS 5本を常用してる私が来ましたよ。
454さんのような復旧時にはresync必須だけど、その逆で。

create/assemble 時に state:clean にして sync を省くオプション。
--assume-clean

xfs@64bit がスタック問題で固まってた頃に多用しました。

470 名前:login:Penguin mailto:sage [2011/05/31(火) 17:32:00.62 ID:t1HBdX4P]
こうやって問題が解決したときに結果を報告してくれる人ってのはすばらしいと思う

お疲れ様&情報ありがとう。



471 名前:login:Penguin mailto:sage [2011/05/31(火) 20:30:44.98 ID:IpyDmIcQ]
https://raid.wiki.kernel.org/index.php/Initial_Array_Creation
そういやどっかのPerl MongerがRAID5構築時に無責任に--assume-clean勧めてたっけ

472 名前:login:Penguin mailto:sage [2011/06/01(水) 20:11:08.58 ID:68ZL2HmJ]
無責任艦長

473 名前:login:Penguin mailto:sage [2011/06/01(水) 22:36:50.36 ID:pRX2jIbT]
タイラー!!!

474 名前:login:Penguin [2011/07/02(土) 09:21:27.65 ID:Gf0bFLPz]
RAID10のリビルドはRAID6と比べて早いのではと想像しているのですが、
この考えは正しいでしょうか?

全部同一の2TBディスクを使ってのLinuxソフトウェアRAIDですが、
・6本でRAID6
を、
・8本でRAID10
に変更した場合、容量がざっくりレベルで同じになってリビルドが早くなるなら
変更したいと考えています。
現状のRAID6だと故障からリビルド完了までに丸2日近くかかっています。
構成は、Pen4マザーにPCI-SATAカード4枚刺しにしてディスクを分散して
います。この構成を変えずにリビルド時間を短縮するのが目的です。
アドバイスお願いします。

475 名前:474 [2011/07/02(土) 09:24:02.18 ID:Gf0bFLPz]
補足ですが、データは全て別マシンにフルバックアップがあります。
変更といいつつアレイががっさり再構築になることは理解しています。

476 名前:login:Penguin mailto:sage [2011/07/09(土) 11:02:10.07 ID:Zeh7W9MH]
>>474
その「リビルド」とやらを、一体システムの何が律速してるのか調べろよ。

ちょっと考えるだけでも

・パリティ計算を行うCPU
・SATAコントローラがぶら下がるPCIバスの帯域幅
・SATAコントローラ自体の性能
・SATAの帯域幅
・ハードディスクの速度

あたりが律速する要因だろう、と見当はつくだろ。
CPUが律速してないのにRAIDの構成いじってもあまり意味は無いぞ。

あと、Linuxのmdアレイはリビルドだけでマシンパワーを使い切らないようにリミッターが
かかってるから、その辺もありうるな。

477 名前:login:Penguin mailto:sage [2011/07/09(土) 11:17:58.17 ID:6cpMxatu]
>>474
他にもボトルネックになっている可能性はあるけど、PCIバスが確実にボトルネックになるので
構成変えずに頑張っても大して効果はない。
ちなみにうちの2TBx5(RAID5)でのリビルドは、半日はかからなかったはず。


478 名前:login:Penguin mailto:sage [2011/07/10(日) 06:14:38.03 ID:pX9rtczw]
ちょっと質問です
>RAID5はRAIDボリュームクラッシュ時に手の打ちようがない
>RAID10の方がまだマシだからRAID10にしておいた方が良い
と言う話を聞いた事があるんだけど、RAIDボリュームクラッシュ時からの
回復率ってRAID5(RAID6,RAID-Z等含む)とRAID10で変わるのかな?

479 名前:login:Penguin mailto:sage [2011/07/11(月) 23:29:52.79 ID:OOaET+Az]
>>478
簡単に計算してみる。
RAID5は10台中2台以上破損で回復できない。
RAID10は10台中6台以上破損で回復できない。

480 名前:login:Penguin mailto:sage [2011/07/11(月) 23:36:04.41 ID:48uiNmM9]
>>479
A-A'
B-B'
C-C'
D-D'
E-E'

A-A'が同時に壊れる可能性もあるわけだ。
そう考えると簡単な計算すら難しくなりそう。
ちなみに、俺には計算出来ない。数学は高一で放棄したから



481 名前:login:Penguin mailto:sage [2011/07/12(火) 00:40:57.00 ID:2zy6hBSr]
RAID6+スペア2台で任意の4台までOKですよ(リビルト中に壊れない限り)
スペア2台は一台目死亡時点でで気づく様な仕組みにしておけよ、と思ってしまうけど

482 名前:login:Penguin mailto:sage [2011/07/12(火) 01:02:43.08 ID:LDQ+b/Dh]
>>481
つauto rebuild

483 名前:login:Penguin mailto:sage [2011/07/12(火) 01:23:02.33 ID:bzOh2LuE]
HDD4 RAID6 / Hot Spare 6

そうそう壊れないだろw

484 名前:login:Penguin mailto:sage [2011/07/12(火) 01:35:42.33 ID:KnVTEP27]
アレイのI/Fが2つ以上に分かれていて
そのうち1つのI/F死ぬとコロっといくかもな

485 名前:login:Penguin mailto:sage [2011/07/12(火) 03:30:30.00 ID:bzOh2LuE]
それはどのRAIDでも言えること

486 名前:login:Penguin mailto:sage [2011/07/16(土) 23:21:39.73 ID:RQME3r/e]
初心者です。質問させて下さい。
HDD2台でRaid0を組んだ場合のバックアップの取り方なんですが、どのようにされていますか?
Raid対応のバックアップソフトが市販されてますが、やはりバックアップ用のHDDも2台必要なのでしょうか。
できれば費用を節約して1台に集約したいのですが。



487 名前:login:Penguin mailto:sage [2011/07/16(土) 23:42:33.24 ID:pf3M1bS/]
・・・

488 名前:login:Penguin mailto:sage [2011/07/17(日) 00:09:54.21 ID:l0XJkxsN]
>>486
1GB HDD×2のものを2GB×1にバックアップしたいって意味?


…じゃなさそうだな…

489 名前:login:Penguin mailto:sage [2011/07/17(日) 02:07:20.16 ID:O6oORdmv]
>>488
いえ、その通りです。
2台のHDDにストライピングしたデータを1台のHDDでバックアップしたいのです。

490 名前:login:Penguin mailto:sage [2011/07/17(日) 02:21:53.74 ID:T2Qdi5fJ]
そんなの、十分な容量のバックアップ先にコピーでも何でも好きにすりゃいいんじゃない?
その容量なら、その辺で売ってる安いUSBメモリでも間に合うぜ?



491 名前:login:Penguin mailto:sage [2011/07/17(日) 09:40:59.84 ID:8HtPnhxy]
>>490
それは単位間違いじゃないか。
そもそも、1GBうんぬんは質問者の >>486 が言っているわけじゃなく、>>488 のコメントだし。

>>486
このスレだと、RAID"0" はバックアップいらないデータの置き場所っていう感じあるからなぁ。
1台で容量足りないならバックアップ先も RAID 組むしか無い。
そもそも RAID0 でバックアップもとりたいなら RAID10 組むことが多い気がする。





492 名前:login:Penguin mailto:sage [2011/07/17(日) 09:44:41.92 ID:8HtPnhxy]
ところで、ubuntu 道場で NAS の話が出ていて、
ttp://ascii.jp/elem/000/000/619/619406/index-4.html
RAID 組んだら定期的に dd of=/dev/null if=/dev/sda とかでデータなめておいた方が
いいとかあるんだけど、結構常識だったりする?
はじめて聞いたんだけど。

493 名前:login:Penguin mailto:sage [2011/07/17(日) 11:07:52.82 ID:euYEF6jy]
その理由を書いていないのでオカルト。
そもそもddでなくてもmdにアレイの整合性をチェックさせて
問題があればエラーを吐かせる為のメソッドがsysfsに用意されてるし

494 名前:login:Penguin mailto:sage [2011/07/17(日) 12:31:49.13 ID:O6oORdmv]
>>491

>>486で質問した者です。
十分な容量のHDDさえ用意できれば1台でバックアップ取れるのでしょうか?つまり、
ストライピングでHDD2台に分散させたデータを通常の形のデータ(Raid0構成でないシステムでも読めるデータ)に戻してHDD1台に保存できるのでしょうか?


495 名前:login:Penguin mailto:sage [2011/07/17(日) 12:52:44.01 ID:C0QOi8+q]
いや普通にバックアップとればいいんじゃないの?
何悩んでるかしらんが

496 名前:login:Penguin mailto:sage [2011/07/17(日) 17:24:13.10 ID:sAxoGETv]
>>494
RAIDを実際に使ったことないの?

使えば分かるがRAIDってのは大雑把に言って
「複数のHDDを一つのHDDとして扱う技術」だ。
OSからはまとめて一つのHDDに見えてるんだから
扱いとしてはHDD 1対1のコピーと何も変わらんぞ。
むしろ構成してる物理HDD別々にバックアップをする方が大変。

497 名前:login:Penguin mailto:sage [2011/07/17(日) 17:50:22.73 ID:O6oORdmv]
>>495
>>496
まだ実際にRaidで組んだことがないもので・・。アホな質問で申し訳ありませんでした。
普通にできるんですね。
どうもありがとうございました。

498 名前:login:Penguin mailto:sage [2011/07/19(火) 14:08:40.91 ID:YOk0NYds]
RAIDに詳しい人が多いようなので質問します。
今、センチュリーのCRIB35EU3という外付ケースを利用してRAID5を組んでいるのですが
先日、バックアップをとろうと電源を入れ、アクセスしようとすると
フォーマットされていませんというメッセージが表示されるようになりました。
おそらく論理障害だと思いますが、簡単に直す方法などありますでしょうか?
※FINALDATAでは中身を見ることができました。ただいまバックアップをとっています。

499 名前:login:Penguin mailto:sage [2011/07/19(火) 14:28:35.01 ID:EEEP93x/]
板名音読しろ

500 名前:login:Penguin mailto:sage [2011/07/19(火) 14:39:11.43 ID:9QgtZQ/U]
OK牧場かYahoo痴恵袋行け



501 名前: 【東電 67.6 %】 忍法帖【Lv=31,xxxPT】 [2011/08/01(月) 19:05:41.74 ID:ddnJTrg6]
Ubuntu初心者板でも匙投げられたのでどうかご教授お願いします

【初心者スレ】Ubuntu Linux 67
hibari.2ch.net/test/read.cgi/linux/1311389692/351

> 恐れ入ります
> 私のマシンは少し構成が入り組んでいるのですが、Ubuntuをどのような手順で入れればいいでしょうか
> 特に4ポートのRAIDボードが邪魔をして、この間もWindowsXPとのデュアルブートを試みたのですが
> ブートドライブにインストールされないで、他のRAID1を破壊するだけの結果におわりました
> ご指導よろしくお願いします
>
> マザーボード:P7P55D-E
> メモリ:2Gbyte×2
>
> 現在オンボードはIDEモードでSATA→eSATA変換ブラケットで2台HDDが外付けになっている
> ただし、それらはブートドライブには使わない
>
> PCI及びPCI-exスロットの並び
> 1:HighPoint Rocket RAID 3120(それにHDD2台でRAID1)→ブートドライブ
> 2:玄人志向 GF210-LE512HD(nVidiaグラフィックボード)
> 3:玄人志向GbE-PCIe(LANボード)
> 4:カノープスMTV1200FX(使用禁止にする予定)
> 5:空き(SATA→eSATA変換ブラケット×2にて2台ハードウェアRAIDを装着中)
> 6:CMI8738-4CHPCI(サウンドボード)
> 7:HighPoint Rocket RAID 2300(それにHDD4台でRAID1×2セット)→データドライブメインとバックアップ
>
> 音も鳴るのにどうしてこうなった…orz
>
厳密には3120がハードウェアRAIDボードで2300はソフトウェアRAIDボードなのにUbuntu板ではそう思っていないようです


502 名前:login:Penguin mailto:sage [2011/08/01(月) 19:18:25.37 ID:MoOsZ/eN]
そう思っていないとは、どう思っているのかがその文からは全然わからん


503 名前:login:Penguin mailto:sage [2011/08/01(月) 20:22:31.58 ID:LMFTrc05]
ブートに使うドライブだけ付けて OS をインストールして、
インストールが終わったら順番に付けろ。
そもそも OS インストールを助けるスレじゃねぇぞ。と。

504 名前:login:Penguin mailto:sage [2011/08/02(火) 23:14:34.99 ID:10Xubh93]
>>501
> Ubuntu板ではそう思っていないようです
すでに手放して久しいんだが、RocketRAID(めんどくさいから以下RR)2300はHighPointのドライバ入れないと
「Marvell製コントローラを搭載したnon-RAIDなSATAアダプタ」として認識されるんじゃなかったかな?
今でもそうだったら、Ubuntuスレが正しい。

RR3120のアレイにインストールできないのはよく知らん。
HighPointのサイト見たら「Ubuntu 8.10以降ならカーネルにRR3120のドライバ入ってます」とかゆってるけど。

505 名前:login:Penguin mailto:sage [2011/08/09(火) 10:03:24.01 ID:hTCbJlvG]
RAID童貞です。Windowsなんですけどここでいいですか?
いいとして質問します。もし他に適当なスレがあれば誘導してください。

現在データは全て外付けHDDに入れて、もう1台の外付けHDDにバックアップソフトで
定期的にミラーリングしています。
それだとちょっと面倒なのでRAID1でミラーリングしたいです。
ちなみにこれを使う予定です。
buffalo.jp/product/hdd/external/hd-wlu3_r1/

本文が長すぎると2chに怒られたので分割します。

506 名前:login:Penguin mailto:sage [2011/08/09(火) 10:04:52.77 ID:hTCbJlvG]
続き

質問1
RAID1を構成した2台のHDDは、PCからは1台のHDDとして見えるとのことですが、
他のPCに繋いでも同じように動作するのでしょうか。

質問2
RAID1を構成した2台のどちらか一方または両方を、後でRAIDではなく普通の
外付けHDDとして読み書き削除したり、それを再度RAID化したりできるのでしょうか。

質問3
一方のHDDが壊れてももう一方が生きていればそのまま問題なく使えるのはいいのですが、
壊れたことはどうやって知るのでしょうか。

質問4
RAID1の2台のHDDをTrueCryptで暗号化した場合、ヘッダは2台共通でしょうか、別々でしょうか。
また、壊れた場合の復旧も含めて、暗号化しない場合と全てにおいてまったく同じように使えるのでしょうか。
それとも何か制限があるのでしょうか。


以上初歩的な質問で申し訳ありませんがよろしくお願いいたします。

507 名前:login:Penguin mailto:sage [2011/08/09(火) 10:21:30.30 ID:8OkAJdZz]
Linux板で
>Windowsなんですけどここでいいですか?
とか、ネタなら笑いどころがわからないし、本気なら人生やり直しが必要

508 名前:login:Penguin mailto:sage [2011/08/09(火) 10:24:12.41 ID:NGWTHhbE]
>>506
回答1-4
HDD買って自分で全て試してから質問しろ
まあがんばれ

509 名前:login:Penguin mailto:sage [2011/08/09(火) 10:25:09.82 ID:dChPzCWQ]
(1)YES
(2)NO (参考:ttp://www.touki.info/howto/howtoReadRAID1.html)
(3)外付けならBEEPが鳴ったり、付属ツールで知ります (HW RAID I/F の場合は、それら機能はカード側に有り)
(4)仮想ドライブの実態はファイルです(これで意味が分からなければ TrueCrypt は使わないほうが良いかな?)

510 名前:login:Penguin mailto:sage [2011/08/09(火) 11:03:22.91 ID:NGWTHhbE]
>>509
ブロックデバイスそのものをTruecryptで暗号化できるぞ。その上でext3,4なりxfsなりでフォーマット可能



511 名前:506 mailto:sage [2011/08/09(火) 19:01:28.28 ID:hTCbJlvG]
>>509
何か問題が生じたときに面倒そうですね。
やっぱり私にはRAIDは敷居が高そうなので、今まで通り、暗号化したHDD2台を
手動でちまちまミラーリングすることにします。
ありがとうございました。

512 名前:login:Penguin mailto:sage [2011/08/09(火) 22:51:15.48 ID:ZNuJPM5g]
手動バックアップできるならそのほうがいいよ。
操作ミスで消してしまってもバックアップから戻せるし。
RAIDだと両方同時に消えちゃうんだぜ。

513 名前:login:Penguin mailto:sage [2011/08/09(火) 23:11:11.55 ID:qheaWxpd]
highpoint RR2740で起こっている症状なんですが、おしえてください。
RAID5
windows7 ultimate64 2TBX4 アレイ3個で運用していたのですが
増設して3TBX4のアレイを追加したのですが
再起動するとアレイが消滅してlegacy の表示になっていました。
2740のwindowsドライバをアップデートしたらアレイが消滅することはなくなったのですが
bios画面では相変わらずlegacyの単独ドライブが2個表示される異常な状態
でも、windows 上ではアレイが認識されて使用出来ます。
3TBはまだ完全に対応しきってない、ということなのでしょうか?

514 名前:login:Penguin mailto:sage [2011/08/10(水) 00:09:19.62 ID:zijbgalB]
板違いだつってんだろクソが

515 名前:login:Penguin mailto:sage [2011/08/10(水) 10:38:40.00 ID:3blPM5vJ]
>>513
1.ハードディスクを窓から投げ捨てる
2.RR2740を電子レンジで30秒ほどチンする
3.Linuxに入れ替えてからこのスレを再訪する

これで君を悩ます諸問題は解決だ。おめでとう。

516 名前:login:Penguin mailto:sage [2011/08/10(水) 15:24:41.67 ID:LTIBIK6s]
ZFSで運用した場合、トランザクション管理されるため、
RAID 5書き込みホールの問題は起こらないという認識で間違いないですか?

517 名前:login:Penguin mailto:sage [2011/08/10(水) 19:17:02.70 ID:N8zlOHLY]
Native ZFS for Linux
ってもう使ってる人多いのかな?

518 名前:login:Penguin mailto:sage [2011/08/10(水) 20:20:33.31 ID:xLNWbyKZ]
>>513 ですがぼーっとしてた ごめん。

519 名前:login:Penguin mailto:sage [2011/08/18(木) 20:06:21.02 ID:C6hWIJ/5]
>>509
質問2はRAIDカードによるよね?

520 名前:login:Penguin mailto:sage [2011/08/19(金) 00:14:26.66 ID:/dF3zyqQ]
RAIDカードによらずともマウントする際に色々パラメータ弄ってやればマウントはどれも可能なはず




521 名前:login:Penguin mailto:sage [2011/09/02(金) 13:50:56.07 ID:DvSMkTFj]
mdraidは最初は対応してなかったraid6に対応したみたいに、raidZ対応したりしないのかな
それだとext4であと5年は戦えるきがするんだ
resize2fs(resize4fs?)が16Tの壁乗り越えてくれればだけど

522 名前:login:Penguin mailto:sage [2011/09/05(月) 03:13:11.48 ID:Gem/5tJp]
mdadmで構成したHDD4台のRAID5アレイでhdd側に障害が発生。
一時的に構成しているHDDが通電していない状態になったようなのですが、
瞬断と思い電源コネクタを付け直してサーバの再起動をしました。

すると/proc/mdstat上で構成しているHDD4台全てが
[S]が付いて全台スペアディスクになってしまっているようです。
おそらくこれが原因でmdadm.confに記入していても自動で起動できず inactive の状態からアレイを起動できません。
強制的にアレイの起動をかけても、 no superblock assembly のエラーを吐いてしまう状態です。

スペアディスクの属性をクリアできればよいような気がするのですが、ここからの復旧方法についてアドバイスいただけないでしょうか。



523 名前:522 mailto:sage [2011/09/05(月) 03:35:07.39 ID:Gem/5tJp]
詳細1

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : inactive sdh1[4](S) sdg1[2](S) sde1[1](S) sdb1[0](S)
7814049792 blocks super 1.2

md127 : active raid5 sdd1[3] sdc1[0] sdf1[1]
5860528128 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

unused devices: <none>


524 名前:522 mailto:sage [2011/09/05(月) 03:36:18.11 ID:Gem/5tJp]
詳細2
# mdadm --examine /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Name : ubuntu:0 (local to host ubuntu)
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Raid Devices : 4

Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 11721071616 (5589.04 GiB 6001.19 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : active
Device UUID : 8c8ddf45:f164c9ed:a130b98c:2d811627

Update Time : Sun Sep 4 23:10:41 2011
Checksum : fdf9230e - correct
Events : 83

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 0
Array State : AAAA ('A' == active, '.' == missing)


525 名前:522 mailto:sage [2011/09/05(月) 03:37:04.14 ID:Gem/5tJp]
詳細3
# mdadm --examine /dev/sde1
/dev/sde1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Name : ubuntu:0 (local to host ubuntu)
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Raid Devices : 4

Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 11721071616 (5589.04 GiB 6001.19 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : active
Device UUID : 5198bcfd:a5d03642:14c34e0b:06a622d4

Update Time : Sun Sep 4 23:14:18 2011
Checksum : 35e6562b - correct
Events : 1234

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 1
Array State : .AAA ('A' == active, '.' == missing)


526 名前:522 mailto:sage [2011/09/05(月) 03:37:48.24 ID:Gem/5tJp]
詳細4
# mdadm --examine /dev/sdg1
/dev/sdg1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Name : ubuntu:0 (local to host ubuntu)
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Raid Devices : 4

Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 11721071616 (5589.04 GiB 6001.19 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : active
Device UUID : 256bfd77:421f8083:95a02e33:19164d06

Update Time : Sun Sep 4 23:14:18 2011
Checksum : 4b7ac530 - correct
Events : 1234

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 2
Array State : .AAA ('A' == active, '.' == missing)


527 名前:login:Penguin mailto:sage [2011/09/05(月) 03:38:29.46 ID:Gem/5tJp]
詳細5
# mdadm --examine /dev/sdh1
/dev/sdh1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Name : ubuntu:0 (local to host ubuntu)
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Raid Devices : 4

Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 11721071616 (5589.04 GiB 6001.19 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : active
Device UUID : e81fc343:3e114959:003c90b1:e8d210c6

Update Time : Sun Sep 4 23:14:18 2011
Checksum : 2b2ec42c - correct
Events : 1234

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 3
Array State : .AAA ('A' == active, '.' == missing)


528 名前:522 mailto:sage [2011/09/05(月) 03:41:43.66 ID:Gem/5tJp]
おそらくは/dev/sdb1のみが
Array State : AAAA ('A' == active, '.' == missing)
と成っていてHDD4台ともActiveと認識しているのに対し
残り3台は
Array State : .AAA ('A' == active, '.' == missing)
となっているあたりが原因のような気がしています。

529 名前:login:Penguin mailto:sage [2011/09/06(火) 03:20:24.29 ID:pUNE1oun]
ナルホド('A'

530 名前:login:Penguin mailto:sage [2011/09/06(火) 08:21:56.98 ID:znO8rUOJ]
>>528
Update Timeから、/dev/sdb1が真っ先にアクセス不能になったのは分かるけど、
spareになるのは想像つかん

superblockのフォーマット↓
ttps://raid.wiki.kernel.org/index.php/RAID_superblock_formats
dev_rolesが0xFFFFになってるのがスペア

異常なDiskと正常(?)なDiskのsuperblockを見比べて見ると何か分かるかも
# dd if=/dev/sdb1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
# dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc




531 名前:522 mailto:sage [2011/09/06(火) 22:35:23.61 ID:Bbl4LkEB]
>>530
アドバイスありがとうございます。実行してみました。

# dd if=/dev/sdb1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
001000 a92b4efc 00000001 00000000 00000000
001010 b1034723 c5fe4c5d bb05fc95 2f0d1678
001020 6e756275 303a7574 00000000 00000000
001030 00000000 00000000 00000000 00000000
001040 4e2c3138 00000000 00000005 00000002
001050 e8e07400 00000000 00000400 00000004
001060 00000000 00000000 00000000 00000000
001070 00000000 00000000 00000000 00000000
001080 00000800 00000000 e8e07800 00000000
001090 00000008 00000000 00000000 00000000
0010a0 00000000 00000000 45df8d8c edc964f1
0010b0 8cb930a1 2716812d 00000000 00000000
0010c0 4e6386e1 00000000 00000053 00000000
0010d0 00000000 00000000 fdf9230e 00000180
0010e0 00000000 00000000 00000000 00000000
0010f0 00000000 00000000 00000000 00000000
001100 00010000 fffe0002 fffe0003 fffefffe
001110 fffefffe fffefffe fffefffe fffefffe

# dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
#

/dev/sdb1 側にのみ a92b4efc が存在しているようです。

532 名前:login:Penguin mailto:sage [2011/09/07(水) 00:39:07.00 ID:0NsdsTrQ]
>>531
sde1のsuperblock飛んでる?
だとするとmdadm --examineで表示されるのが変なんだけど

同様に↓は?
# dd if=/dev/sdg1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
# dd if=/dev/sdh1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc


533 名前:522 mailto:sage [2011/09/07(水) 00:50:40.62 ID:6aXKWA2G]
>>532
大変失礼しました。 # も含めてコピペしてコメント扱いになっているだけでした。残り3台分の実行結果です。

# dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
001000 a92b4efc 00000001 00000000 00000000
001010 b1034723 c5fe4c5d bb05fc95 2f0d1678
001020 6e756275 303a7574 00000000 00000000
001030 00000000 00000000 00000000 00000000
001040 4e2c3138 00000000 00000005 00000002
001050 e8e07400 00000000 00000400 00000004
001060 00000000 00000000 00000000 00000000
001070 00000000 00000000 00000000 00000000
001080 00000800 00000000 e8e07800 00000000
001090 00000008 00000000 00000000 00000000
0010a0 00000001 00000000 fdbc9851 4236d0a5
0010b0 0b4ec314 d422a606 00000000 00000000
0010c0 4e6387ba 00000000 000004d2 00000000
0010d0 00000000 00000000 35e6562b 00000180
0010e0 00000000 00000000 00000000 00000000
0010f0 00000000 00000000 00000000 00000000
001100 0001fffe fffe0002 fffe0003 fffefffe
001110 fffefffe fffefffe fffefffe fffefffe


534 名前:522 mailto:sage [2011/09/07(水) 00:51:21.93 ID:6aXKWA2G]
# dd if=/dev/sdg1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
001000 a92b4efc 00000001 00000000 00000000
001010 b1034723 c5fe4c5d bb05fc95 2f0d1678
001020 6e756275 303a7574 00000000 00000000
001030 00000000 00000000 00000000 00000000
001040 4e2c3138 00000000 00000005 00000002
001050 e8e07400 00000000 00000400 00000004
001060 00000000 00000000 00000000 00000000
001070 00000000 00000000 00000000 00000000
001080 00000800 00000000 e8e07800 00000000
001090 00000008 00000000 00000000 00000000
0010a0 00000002 00000000 77fd6b25 83801f42
0010b0 332ea095 064d1619 00000000 00000000
0010c0 4e6387ba 00000000 000004d2 00000000
0010d0 00000000 00000000 4b7ac530 00000180
0010e0 00000000 00000000 00000000 00000000
0010f0 00000000 00000000 00000000 00000000
001100 0001fffe fffe0002 fffe0003 fffefffe
001110 fffefffe fffefffe fffefffe fffefffe


535 名前:522 mailto:sage [2011/09/07(水) 00:52:03.35 ID:6aXKWA2G]
# dd if=/dev/sdh1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
001000 a92b4efc 00000001 00000000 00000000
001010 b1034723 c5fe4c5d bb05fc95 2f0d1678
001020 6e756275 303a7574 00000000 00000000
001030 00000000 00000000 00000000 00000000
001040 4e2c3138 00000000 00000005 00000002
001050 e8e07400 00000000 00000400 00000004
001060 00000000 00000000 00000000 00000000
001070 00000000 00000000 00000000 00000000
001080 00000800 00000000 e8e07800 00000000
001090 00000008 00000000 00000000 00000000
0010a0 00000004 00000000 43c31fe8 5949113e
0010b0 b1903c00 c610d2e8 00000000 00000000
0010c0 4e6387ba 00000000 000004d2 00000000
0010d0 00000000 00000000 2b2ec42c 00000180
0010e0 00000000 00000000 00000000 00000000
0010f0 00000000 00000000 00000000 00000000
001100 0001fffe fffe0002 fffe0003 fffefffe
001110 fffefffe fffefffe fffefffe fffefffe


536 名前:login:Penguin mailto:sage [2011/09/08(木) 00:02:44.15 ID:O6bwqAQc]
superblock上ではスペアになっているDISKは無い
/proc/mdstatで"(S)"になってるのは起動時のチェックで
エラーがあったからだと思う
起動時のログに何かエラー出てない?

あと、↓は実行出来る?
# mdadm --detail /dev/md126

sdb1外して再起動すれば復活するような気がするんだけど

537 名前:522 mailto:sage [2011/09/08(木) 01:10:05.32 ID:X3JJWFjL]
>>536
度々ありがとうございます。 /var/log/dmesg 上のログ全ては出し切れないので怪しそうな部分の抜粋です。

↓/dev/md127に関するログは当然あるが、 /dev/md126に関するログが何も出ていない(エラー系のものも含めて)

[ 6.544320] sd 1:0:5:0: [sdg] Attached SCSI disk
[ 6.593606] md: bind<sdf1>
[ 6.597609] md: bind<sdc1>
[ 6.606304] md: bind<sdb1>
[ 6.612664] md: bind<sde1>
[ 6.619733] md: bind<sdd1>
[ 6.622390] bio: create slab <bio-1> at 1
[ 6.622417] md/raid:md127: device sdd1 operational as raid disk 2
[ 6.622420] md/raid:md127: device sdc1 operational as raid disk 0
[ 6.622423] md/raid:md127: device sdf1 operational as raid disk 1
[ 6.622951] md/raid:md127: allocated 3230kB
[ 6.623015] md/raid:md127: raid level 5 active with 3 out of 3 devices, algorithm 2
[ 6.623019] RAID conf printout:
[ 6.623021] --- level:5 rd:3 wd:3
[ 6.623024] disk 0, o:1, dev:sdc1
[ 6.623026] disk 1, o:1, dev:sdf1
[ 6.623028] disk 2, o:1, dev:sdd1
[ 6.623064] md127: detected capacity change from 0 to 6001180803072
[ 6.639598] EXT4-fs (sda1): mounted filesystem with ordered data mode. Opts: (null)
[ 6.651689] md: bind<sdg1>
[ 6.662636] md127: p1
[ 6.674039] md: bind<sdh1>
[ 6.963670] ses 1:0:7:0: Attached Enclosure device
[ 38.039547] Adding 1325356k swap on /dev/sda5. Priority:-1 extents:1 across:1325356k


538 名前:522 mailto:sage [2011/09/08(木) 01:17:27.06 ID:X3JJWFjL]
気になるログその2 ATA14のHDDでエラー。こいつが今件の初発の原因??

[ 5.680895] /build/buildd/linux-2.6.38/drivers/scsi/mvsas/mv_sas.c 1388:found dev[6:5] is gone.
[ 5.685621] ata14.00: ATA-8: WDC WD20EARS-00MVWB0, 51.0AB51, max UDMA/133
[ 5.685624] ata14.00: 3907029168 sectors, multi 0: LBA48 NCQ (depth 31/32)
[ 5.689622] ata14.00: configured for UDMA/133
[ 5.689676] scsi 1:0:5:0: Direct-Access ATA WDC WD20EARS-00M 51.0 PQ: 0 ANSI: 5
[ 5.693872] /build/buildd/linux-2.6.38/drivers/scsi/mvsas/mv_sas.c 1388:found dev[7:5] is gone.

[ 39.559395] ata14: translated ATA stat/err 0x01/04 to SCSI SK/ASC/ASCQ 0xb/00/00
[ 39.559400] ata14: status=0x01 { Error }
[ 39.559403] ata14: error=0x04 { DriveStatusError }
[ 39.564298] ata14: translated ATA stat/err 0x51/04 to SCSI SK/ASC/ASCQ 0xb/00/00
[ 39.564303] ata14: status=0x51 { DriveReady SeekComplete Error }
[ 39.564307] ata14: error=0x04 { DriveStatusError }
[ 39.564735] ata14: translated ATA stat/err 0x01/04 to SCSI SK/ASC/ASCQ 0xb/00/00
[ 39.564739] ata14: status=0x01 { Error }
[ 39.564742] ata14: error=0x04 { DriveStatusError }

あと、以前も試して同じ結果でしたが
# mdadm --detail /dev/md126
mdadm: md device /dev/md126 does not appear to be active.
でした。

正常に動作しているmd127は、/dev/md/以下に別名のアレイ名称のシンボリックリンクが作成されていますが
md126については、シンボリックリンクは作成されていませんが、 /dev/md126 自体は生成されている状態になっています。


539 名前:522 mailto:sage [2011/09/10(土) 13:46:51.44 ID:NMszAiJM]
復旧を継続して試みていますが、 sdb1 のHDDを取り外して起動しなおしても状況は変わりませんでした。
# mdadm -D /dev/md126
/dev/md126:
Version : 1.2
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB)
Raid Devices : 4
Total Devices : 3
Persistence : Superblock is persistent

Update Time : Sun Sep 4 23:14:18 2011
State : active, degraded, Not Started
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 512K

Name : ubuntu:0 (local to host ubuntu)
UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Events : 1234

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 65 1 active sync /dev/sde1
2 8 97 2 active sync /dev/sdg1
4 8 113 3 active sync /dev/sdh1

540 名前:522 mailto:sage [2011/09/10(土) 13:50:59.81 ID:NMszAiJM]
sdb1のHDDを

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 65 1 active sync /dev/sde1
2 8 97 2 active sync /dev/sdg1
4 8 113 3 active sync /dev/sdh1

のremovedの位置に認識させられればアレイを起動できる状態になりそうなのですが、
一旦sdb1のsuperblockを飛ばすなり、パーティションを作成しなおしてからでないとスペアとして組み込めないのですかね・・・?



541 名前:login:Penguin mailto:sage [2011/09/10(土) 16:18:48.11 ID:efd1VIH5]
>>540
取り外したDISKがremovedになってるのは当然

これの↓実行結果は?
# cat /sys/block/md126/md/array_state

あと、/proc/mdstatでまだ"(S)"付いてる?

542 名前:522 mailto:sage [2011/09/10(土) 16:27:16.54 ID:NMszAiJM]
なんとか sdb1 をスペアに組み込むところまではたどり着きました。
再起動を何回か実施しているので、 md126 が md127 に入り繰りになってます。

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid5 sdd1[3] sdf1[1] sdc1[0]
5860528128 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

md127 : inactive sdg1[2] sdh1[4] sde1[1] sdb1[5](S)
7814049792 blocks super 1.2




543 名前:522 mailto:sage [2011/09/10(土) 16:28:11.25 ID:NMszAiJM]
# mdadm --detail /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Sun Sep 4 23:14:18 2011
State : active, degraded, Not Started
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1

Layout : left-symmetric
Chunk Size : 512K

Name : ubuntu:0 (local to host ubuntu)
UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Events : 1234

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 65 1 active sync /dev/sde1
2 8 97 2 active sync /dev/sdg1
4 8 113 3 active sync /dev/sdh1

5 8 17 - spare /dev/sdb1

544 名前:522 mailto:sage [2011/09/10(土) 16:30:05.08 ID:NMszAiJM]
>>541
# cat /sys/block/md127/md/array_state
inactive

mdstatの各HDについていた (S) は無くなりました。

ただ、この状態からでもアレイの起動はできずの状態です。
# mdadm -R /dev/md127
mdadm: failed to run array /dev/md127: Input/output error

545 名前:login:Penguin mailto:sage [2011/09/10(土) 17:25:26.05 ID:efd1VIH5]
>>544
sdbって新品?
元々使ってた奴なら、アレイに追加する前に単体で読み書きテストした?

とりあえず、強制的にactive
# echo active > /sys/block/md127/md/array_state

ttp://lxr.linux.no/#linux+v3.0.4/drivers/md/md.c#L3354


546 名前:522 mailto:sage [2011/09/11(日) 11:24:57.03 ID:AqZU9mQD]
>>545
sdbは使い回しています。 まだメーカーのHDDチェックツールでのHDD単体全体のスキャンチェックは完了していませんが、読み込みは問題ないようです。
# hdparm -Tt /dev/sdb

/dev/sdb:
Timing cached reads: 2108 MB in 2.00 seconds = 1054.63 MB/sec
Timing buffered disk reads: 366 MB in 3.00 seconds = 121.99 MB/sec

復旧できなくなる要員になるようなことは極力避けようと思い、sdbへの書き込みチェックはまだ実施していません。

547 名前:522 mailto:sage [2011/09/11(日) 11:27:14.34 ID:AqZU9mQD]
強制activeを試みましたが原因不明の入出力エラーの状態で、ここにアレイを起動できない原因があるのかもしれません。
# ls -l /sys/block/md127/md/array_state
-rw-r--r-- 1 root root 4096 2011-09-11 11:15 /sys/block/md127/md/array_state

# cat /sys/block/md127/md/array_state
inactive

# echo active > /sys/block/md127/md/array_state
bash: echo: 書き込みエラー: 入力/出力エラーです

# ls -l /sys/block/md127/md/
合計 0
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 array_size
-rw-r--r-- 1 root root 4096 2011-09-11 11:18 array_state
drwxr-xr-x 2 root root 0 2011-09-11 11:00 bitmap
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 chunk_size
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 component_size
drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdb1
drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sde1
drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdg1
drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdh1
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 layout
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 level
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 max_read_errors
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 metadata_version
--w------- 1 root root 4096 2011-09-11 11:00 new_dev
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 raid_disks
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 reshape_position
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 resync_start
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 safe_mode_delay

548 名前:login:Penguin mailto:sage [2011/09/11(日) 23:05:24.48 ID:lb+4D791]
>>547
んじゃ、↓で。"active"と違って縮退状態のままアレイ開始
# echo clean > /sys/block/md127/md/array_state

ここまで動かないと、ハードウェア側を疑いたくなるんだけど


549 名前:login:Penguin mailto:sage [2011/09/12(月) 13:01:15.87 ID:Bts/njAy]
たった4台のraid5でなにを大騒ぎしてんだろ……
ステータスのクリーンは筋が悪い。

b1が腐ってるんだろ?

新台入れるか(パチンコみたいだなw)
普通に
mdadm -S /dev/md127
mdadm -A /dev/md(新しい数字) -a /dev/sd(e, g, h)1
これが通ったら、
mdadm --zero-superblock /dev/sdb1 ←ここがポイントのはず
mdadm -A /dev/md(新しい数字) -a /dev/sdb1
でよかないか?

書き換えるのが怖いなら/dev/sdbをコピーとってからやればよい。

550 名前:login:Penguin mailto:sage [2011/09/12(月) 13:08:18.91 ID:Bts/njAy]
蛇足。
mdadm -A /dev/md(新しい数字) -a /dev/sd(e, g, h)1
この記法ってあってたかどうか自信ない。

素直に
mdadm -A /dev/md(新しい数字) -a /dev/sde1 /dev/sdg1 /dev/sdh1
にすべきか。



551 名前:login:Penguin mailto:sage [2011/09/12(月) 21:29:15.15 ID:5pzJNgRd]
>>550
# mdadm -A /dev/md(新しい数字) -a /dev/sd[egh]1
では?
www.ioss.jp/sohodiy/mdadm8-1_5.html
だと、
# mdadm -A /dev/md(新しい数字) -a /dev/sd['egh']1
だけど。

552 名前:550 mailto:sage [2011/09/15(木) 08:13:23.76 ID:sKBE5Whs]
ああ、思い出した。 >>551 の前者で正しい。
-C の場合は認識順が意図した順番と違っちゃうけど、 -A なら問題ない。

553 名前:login:Penguin mailto:sage [2011/09/16(金) 23:15:29.48 ID:BraekazM]
ARC-1880ix-24の"Advanced Configurations"に関するドキュメントってどっかに無いですかね。




554 名前:login:Penguin mailto:sage [2011/10/02(日) 17:50:56.90 ID:kYnPDMiF]
mdadmによるRAID6でchunkサイズの違いによるパフォーマンスを計測したのでチラ裏を。
 ML110G6
 WD25EZRX-00MMMB0を4台(OSは別HDD)
 CentOS 5.7(x86_64)
 mdadm-2.6.9-3.el5
 各HDD上で2GB領域を作成しmd0を構成
 ext3フォーマット

WRITE:# dd if=/dev/zero of=/storage/1GB.img bs=1M count=1024
READ :# hdparm -t /dev/md0

計測結果は次レスで。
(ほかにもいろいろテストしたかったけど疲れたのでw)

555 名前:login:Penguin mailto:sage [2011/10/02(日) 17:54:55.86 ID:kYnPDMiF]
■chunk 4k
READ :Timing buffered disk reads: 332 MB in 3.01 seconds = 110.46 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 2.25816 seconds, 475 MB/s

■chunk 64K (default)
READ :Timing buffered disk reads: 488 MB in 3.00 seconds = 162.43 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 2.77056 seconds, 388 MB/s

■chunk 128K
READ :Timing buffered disk reads: 548 MB in 3.00 seconds = 182.54 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 1.72971 seconds, 621 MB/s

556 名前:login:Penguin mailto:sage [2011/10/02(日) 17:58:51.36 ID:kYnPDMiF]
■chunk 256K
READ :Timing buffered disk reads: 546 MB in 3.00 seconds = 181.93 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 1.92294 seconds, 558 MB/s

■chunk 512K
READ :Timing buffered disk reads: 522 MB in 3.01 seconds = 173.50 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 2.23327 seconds, 481 MB/s

■chunk 1024K
READ :Timing buffered disk reads: 542 MB in 3.02 seconds = 179.54 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 4.35082 seconds, 247 MB/s

557 名前:login:Penguin mailto:sage [2011/10/02(日) 18:04:10.65 ID:XKBCXxnC]
RAIDなし単体でのベンチマークと見比べたかったな。

558 名前:login:Penguin mailto:sage [2011/10/02(日) 18:22:22.99 ID:kYnPDMiF]
/dev/sdb1 として 2GB 領域を作成し ext3 フォーマット、コマンドは同じで。

READ :Timing buffered disk reads: 304 MB in 3.01 seconds = 100.83 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 3.07366 seconds, 349 MB/s

559 名前:login:Penguin mailto:sage [2011/10/04(火) 23:51:41.62 ID:2uRB3/YB]
こないだ作ったraid5は、過去256kだったのをなんとなく
128kに変えたけど、それで無難だったのか。

560 名前:login:Penguin mailto:sage [2011/10/25(火) 11:37:42.73 ID:9XR7fcw7]
>>492,493
> そもそもddでなくてもmdにアレイの整合性をチェックさせて
> 問題があればエラーを吐かせる為のメソッドがsysfsに用意されてるし
読んだ時なるほどれならリビルドの時の障害起きにくくなるなと思ったんだけどそもそもシステムにそういう機能があるからやらなくてok てこと?




561 名前:login:Penguin mailto:sage [2011/10/25(火) 16:54:38.88 ID:/PmSxWz5]
機能があっても使われなきゃ意味が無い
RedHat系なら自分で仕込むまでもなくcron.weeklyにraid-checkが入れられる
Ubuntuには無いみたいだけどね

562 名前:login:Penguin mailto:sage [2011/10/25(火) 20:32:10.73 ID:RuQRT1PJ]
>>561
てことはUbuntu(Debian も?)だとraid-check というのを自分で設定するか,dd で舐めるとかしなきゃ駄目ってことなのかな
raid-check 調べてみる

563 名前:login:Penguin [2011/11/25(金) 02:01:00.42 ID:DfspjuOn]
HDD2台のraid0とHDD4台のraid5について質問です。
ベンチマークとか見るとHDD2台のraid0が200MB/s、HDD4台のraid5が150MB/sくらいになってるけど、
実際の体感速度はどうなんでしょう? 主に動画編集などで使います。


564 名前:login:Penguin mailto:sage [2011/11/25(金) 04:47:32.00 ID:x3Tq0gHW]
体感速度は自分で確かめるしかないべ、マジで。

565 名前:login:Penguin mailto:sage [2011/11/25(金) 16:51:59.33 ID:FaCKtUuk]
編集だから書き込み速度はあまり気にしなくてもいいのかもしれないけど、
それ読み込み速度でしょ。

巨大なストレージの確保で見たら RAID5 でいいんじゃないのかなと。

566 名前:login:Penguin mailto:sage [2011/11/27(日) 23:08:23.83 ID:CjNOkzQ7]
1TBのHDD×4でRAID0組んでみた
seq READ 400MB/s WRITE 350MB/s
ってがんばってる方?

567 名前:login:Penguin mailto:sage [2011/11/28(月) 01:54:44.62 ID:zJmMr8wx]
良い成績だと思うよ
ブロックサイズは64KBだっけ?の方が良い成績が残ったような気がする。

568 名前:login:Penguin [2011/11/28(月) 14:31:17.43 ID:SzpgZCSv]
だれか助けてください。
CentOS5.7からScientificLinux6.1への乗り換えのさい、
CentOSで運用していたRAID5のアレイがScientificLinuxでmd127と認識されたのが気に入らず、

# mdadm /dev/md127 -f /dev/sd[bcd]1
# mdadm --misc --stop /dev/md127
# mdadm -C /dev/md0 -l 5 -n 3 /dev/sd[bcd]1

としたところ、データが飛びましたorz
どうにかしてサルベージすることはできませんか・・・・


569 名前:568 [2011/11/28(月) 14:42:31.84 ID:SzpgZCSv]
現在分かっていることは、CentOS5.7とScientificLinux6.1では
アレイを作る際のメタデータのバージョンが違うようです。
CentOSは0.9で、Scientificでは1.2です。

また、無指定でアレイを構築した際の、chunksizeも違うようです。
CentOSは64K、Scientificは512Kのようです。

もともと64Kだったchunksizeが512Kで構築しなおされてしまったようです。
なんとか助ける方法はありませんか

570 名前:568 [2011/11/28(月) 14:50:52.12 ID:SzpgZCSv]
連投すみません。
仮想環境で
# mdadm -C /dev/md0 --chunk 64K -l 5 -n 3 /dev/sd[bcd]1
とすればデータは無傷だったということは確認しました。

また、一旦chunksize=512Kで構築されたアレイを解除して、
64Kで作り直してもデータは復旧しませんでした。



571 名前:568 [2011/11/28(月) 15:01:22.13 ID:SzpgZCSv]
はたまた連投すみません
512Kで再構築されてしまった場合でも、mkfsなど余計なことしなければ

# mdadm /dev/md0 -f /dev/sd[bcd]1
# mdadm --misc --stop /dev/md0
# mdadm -C /dev/md0 --chunk 64K -l 5 -n 3 /dev/sd[bcd]1
で仮想環境では復旧しました。
一人で勝手に騒いですみません。
現実環境のリビルドが完了したら試してみようと思います。

おっちょこちょいな自分の失敗が誰かの役に立てばと思います。

572 名前:568 [2011/11/28(月) 15:38:35.38 ID:SzpgZCSv]
現実環境でやってみましたがダメでした。
メタデータのバージョンが同じでないとうまくいかないような感じです。
CentOSで64kで構築

Scientificで512kで構築

Scientificで64kで再構築

ダメ ←いまここ

です。
これからCentOSで64kで再構築してみます。
まずは仮想環境でやってみようと思います。

573 名前:568 [2011/11/28(月) 16:23:08.43 ID:SzpgZCSv]
バージョンによってメタデータの書き込まれる場所が違うことがわかりました
hellokitty68.main.jp/wiki/Mdadm#metadata
ここにあるように、0.9と1.2ではずいぶんと違うようです。
これは困りました。
さらに、これだけがわかっても自分にはどうしたらいいのかわかりません。

574 名前:login:Penguin mailto:sage [2011/11/28(月) 16:47:50.20 ID:zJmMr8wx]
dd でディスク毎に吸い上げて処理したほうが早くないか?

575 名前:568 [2011/11/28(月) 16:54:58.39 ID:SzpgZCSv]
>>574
現在、本番環境でのddでの吸い上げ先がない状態ですが、
ddで吸い上げた後にどう処理すればいいのか教えていただけますか?

metadataがあると思われる部分をddでファイルに書き出して
hexdumpなんてしてみましたが、どうしたらいいのかさっぱりわかりませんでした。

576 名前:login:Penguin mailto:sage [2011/11/28(月) 18:43:29.50 ID:GpepBfXK]
dd で吸い出してそこで作業したら失敗してもやり直しが効く
そのデータがどのくらい大事かに寄るね
失ってもいいのであれば実HDDで作業してもいいかも

577 名前:login:Penguin mailto:sage [2011/11/28(月) 19:55:43.30 ID:nPrmxBAd]
>>575
losetupでloopデバイスを割り当てる

ddで吸い上げたイメージをdisk1.img, disk2.imgとすると
↓こんな感じでloopデバイスを割り当てられる(未使用のloopデバイスはlosetup -f で確認)
# losetup /dev/loop0 disk1.img
# losetup /dev/loop1 disk2.img

/dev/sd*の代わりに、このloopデバイスでRAID1を作ったり出来る
# mdadm --create /dev/md0 --raid-devices=2 --level=1 --verbose /dev/loop0 /dev/loop1
mdadm: size set to 131008K
mdadm: array /dev/md0 started.

578 名前:login:Penguin mailto:sage [2011/11/29(火) 10:25:15.02 ID:00jPXJK8]
吸い上げたイメージ同士でデータとメタデータ領域が重なってるので、稀だけど壊れることないか。
真面目にするならメタデータ領域分は切り貼りして揃えてから再構築、かな?

579 名前:login:Penguin mailto:sage [2011/11/29(火) 12:25:33.10 ID:Yf0+yFDJ]
RAID0組んでるHDDにOS再インストールするときって、そのままOSインストール作業する?
それとも、一度、Delete RAID Volumeで崩してからCreate RAID VolumeでまたRAID構築してからOSインストールしてる?

580 名前:login:Penguin mailto:sage [2011/11/29(火) 15:13:40.75 ID:iTSjKJPG]
バージョンが同じならそのまま
違う場合は別の環境でテストしてOKならそのまま
違うなら別のPCを用意
かな



581 名前:568 [2011/11/29(火) 15:46:31.33 ID:nWLFZrGz]
>>577
わざわざ丁寧にありがとうございます。
その方法ももちろん考えたのですが、
いかんせん、退避場所がありません。
タイの洪水でHDDの価格が高騰しているため手軽に買えない状況です・・・

582 名前:568 [2011/11/29(火) 15:54:45.87 ID:nWLFZrGz]
さて、今日もシコシコと仮想環境で試行錯誤していましたら、
もしかしたら、完全復活はできなくても
一部の復活はできるかもしれない方法を見つけました。

簡単に言うとアレイをバージョン0.9のメタデータで構築しなおし、
思い切ってfsckをかける方法です。
仮想環境でやってみたところ、とりあえずデータの復活を確認しました。
後は本番環境ですが、>>581に書いたとおり、HDDが高くてすぐには実行できません。
アレイのサイズが1TBが3台のRAID5なので、余裕を持って2TBを
2本ほどRAID0で動かして作業をしたいところです。
それか、2TB1本にして縮退状態でやるかといった感じです。

ちなみにメタデータ、chunksizeを指定してアレイを構築する場合は以下のようになります

mdadm -C /dev/md0 -l 5 -n 3 --chunk=64K --metadata=0.9 /dev/sd[bcd]1

583 名前:login:Penguin mailto:sage [2011/11/30(水) 10:23:52.58 ID:/CGQEQQw]
md127の何が気にくわないのか。
自分はそのまま使ってるぞ。
直すスキルがないってのは内緒・・・

584 名前:login:Penguin mailto:sage [2011/11/30(水) 13:28:21.02 ID:OuQeDi8o]
>>583
ちゃんと流れを読めよw

585 名前:login:Penguin mailto:sage [2011/12/03(土) 20:43:01.66 ID:TtU/rjkx]
127が気に入らないならアレイ止めてからこれだけでよかったのにずいぶん余計なことを

mdadm -A /dev/md0 /dev/sd[bcd]1

586 名前:login:Penguin mailto:sage [2011/12/05(月) 23:56:34.31 ID:6e/+yMbn]
/boot を RAID1, swap を RAID0 にして、
あと全部 / で RAID1 にして普通にインストール成功 (ScientificLinux)
再起動してみるとBIOS直後から何も表示せず立ち上がらない。
どうしてかわかる人いる?

587 名前:login:Penguin mailto:sage [2011/12/06(火) 16:20:07.48 ID:D33FO92h]
>>586
ドライバが足りなくて
> /boot を RAID1
のとこで転けてるんじゃ?

588 名前:login:Penguin mailto:sage [2011/12/06(火) 22:50:52.50 ID:ICuP3dI/]
>>586
レイドパーティションを/bootにする場合は、メタデータを0.90にしないと
だめだよ。それかメタデータを1.2にして、grubを1.0以上にする。

589 名前:586 mailto:sage [2011/12/08(木) 19:52:18.26 ID:Hmnoh3H0]
>>587-588
ありがとう。インストーラのバグなのか
grub が default では /dev/md0 に入ってしまっていた。
オプションで grub を /dev/sda1 の MBR に書くと起動した。
片方が死んだときのために
RAID 構成ディスクの /dev/sdb1 にも grub を入れた。
これで大丈夫だといいんだが。

590 名前:login:Penguin mailto:sage [2011/12/09(金) 00:31:48.61 ID:u1j4XOSq]
/bootなんか、わざわざRAIDに置かずに別途USBメモリに保存したほうが
トラブルも無く、運用も楽。
そりゃ、万一の時は多少手間が増えるが。








[ 新着レスの取得/表示 (agate) ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<203KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef