RAID総合スレッド No. ..
[2ch|▼Menu]
357:login:Penguin
07/10/26 23:39:11 VCuGyTp8
>>350
rsync同期だと、同期作業中は停止(=他に何もできない)時間になる。
LVMレベルで掃き寄せれば、停止時間は壊れた(ことにした)旧ディスク抜く作業時間だけ。

358:login:Penguin
07/10/27 00:11:21 4ZTrW6oo
-> LVMに加入させ、新ディスクへファイルを掃き寄せる

こんなこと出来たっけ。
lvcreateでpvを指定する?そもそもファイルシステムの拡張は?
lvmあまり解かってないので〜

359:login:Penguin
07/10/27 00:25:02 US/tv6oE
つ pvmove

360:login:Penguin
07/10/27 00:35:04 4ZTrW6oo
理解しました。
ありがとう。

361:login:Penguin
07/10/27 07:28:26 HMAtdp9w
>>354
最初からcleanなアレイ作るよりfail -> resyncする方が速いから嫌なら--force付けろ
ってmanに書いてあるのに読まずにblogとかで騒いでるのたまにいるよね


362:login:Penguin
07/10/27 18:22:59 GzcOi8yc
ところで mdのパフォーマンスってあまり実測乗ってないよね

URLリンク(www.linux.or.jp)
によると
RAID-0 : パフォーマンスは N * P MB/s に近くなります。
RAID-1 : 読み込みのパフォーマンスは N * P に近い値になりますが、書きこみはデバイスが 1 台の場合と同等以下
RAID-5 : 読み書き両方ともにパフォーマンスは向上
などと書いてあって、新たな知見を得たというかなんというか・・・
これはあれか、RAID1の4台構成で、readだけはraid0並で無駄に強固なアレイ、とか作れるのかw

というのはともかく、同時n本のアクセスでどの程度の速度出ますよグラフが見あたらない。
H/Wのボードだとたまに有るんだけど。RAID5の同時5本read程度なら速度落ちない体感はある。
mdでRAID10や5の詳細ベンチ結果落ちてたら教えてください。


# 「RAID-5 のための合理的な chunk-size は 128 KB ですが」とか書いてあって凹んだorz

363:login:Penguin
07/10/27 20:25:18 TpR9h4x8
>>362
RAID1だけど速くならないよ(下はHDD単体)

# hdparm -tT /dev/md0
/dev/md0:
Timing cached reads: 5944 MB in 2.00 seconds = 2975.51 MB/sec
Timing buffered disk reads: 192 MB in 3.01 seconds = 63.84 MB/sec

# hdparm -tT /dev/sdc
/dev/sdc:
Timing cached reads: 5888 MB in 2.00 seconds = 2947.58 MB/sec
Timing buffered disk reads: 196 MB in 3.01 seconds = 65.11 MB/sec

364:321
07/10/27 20:38:03 HbBH9mvu
>>362
たしかに、私もMTUと同じのノリでchunksizeを大きく設定してRAID5組んだら
さっぱり速度が出なくてがっかりした。その後何度か変えてみた。
で、128KBより256KBのほうが、微妙に書き込みが速いと思って、そのまま使っている。

性能条件は、CPU1コアのHT無し環境だと、いろいろ条件は変わるだろうから
CPU負荷を変えながら、テストできるツールがあるといいな。

ベンチマークオフ会やるにはRAID編成に時間かかるもんね。


365:login:Penguin
07/10/27 20:45:42 9wm9rUig
なんか、面白そうね。
俺もちょっとhdparmで速度測定してくる!

366:365
07/10/27 20:52:22 9wm9rUig
# hdparm -tT /dev/md0
Timing cached reads: 2096 MB in 2.00 seconds = 1047.58 MB/sec
Timing buffered disk reads: 318 MB in 3.01 seconds = 105.50 MB/sec

# hdparm -tT /dev/sda
Timing cached reads: 2168 MB in 2.00 seconds = 1084.36 MB/sec
Timing buffered disk reads: 190 MB in 3.01 seconds = 63.03 MB/sec

# hdparm -tT /dev/sdb
Timing cached reads: 2368 MB in 2.00 seconds = 1184.16 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.68 MB/sec

# hdparm -tT /dev/sdc
Timing cached reads: 2348 MB in 2.00 seconds = 1174.73 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.83 MB/sec

# hdparm -tT /dev/sdd
Timing cached reads: 2812 MB in 2.00 seconds = 1406.45 MB/sec
Timing buffered disk reads: 184 MB in 3.00 seconds = 61.26 MB/sec

# hdparm -tT /dev/sde
Timing cached reads: 2076 MB in 2.00 seconds = 1037.62 MB/sec
Timing buffered disk reads: 160 MB in 3.00 seconds = 53.26 MB/sec

# hdparm -tT /dev/sdf
Timing cached reads: 3032 MB in 2.00 seconds = 1516.29 MB/sec
Timing buffered disk reads: 190 MB in 3.03 seconds = 62.69 MB/sec

md0の要素全てに試してみたけど、なぜかsdeだけが遅いぞ・・・?
死兆星が光ってる?

367:362
07/10/28 00:59:50 71qYpNbN
すまぬ、引用が不十分ででした。そして503で書き込めない間に長文化
「Read performance is good, especially if you have multiple readers or seek-intensive workloads.
 The RAID code employs a rather good read-balancing algorithm, that will simply let the disk
 whose heads are closest to the wanted disk position perform the read operation.」
ということで、複数同時readとかrandom readで速くなるよ、ということらしい>RAID1
で、hdparm -T & だとたぶんキャッシュに乗ってしまうと思うし、ddか何かを同時数本走らせるか、rreadするプログラムが必要かもしれない。
計測方法の定番が無いあたりが1つ目の問題のような・・・
chunk sizeや/procのstripe_cache_sizeやqueue/schedulerも実験してみたいんだけど、シーケンシャルreadなベンチじゃ効果が見えんです。

>>364
おお、実験されましたか。
Win系のように(良くも悪くも)デファクトなベンチツールが有るといいんですが。
timeと簡単スクリプトで、と思ったけど意外に難しく断念w
ディスク空き容量がデカければ巨大ファイル作って好きにseek発生出来るんですが、/dev直はなんか怖いっす。
どうなんでしょ、/dev/md0にrreadするだけなんですがどなたか書けますか?

368: ◆Zsh/ladOX.
07/10/28 02:27:22 DiHVZTpi
過去スレでmdのチューニングの話が出てたお

369:321
07/10/28 21:46:34 PihVE9KW
hdbenchクローンはあるんよね。

ただ、コンパイルできない時に、どうしたらいいのか戸惑ったりもする。
今、メインとノートのVine4.1環境にはhdbench入れてあるけど
新造のVine4.0のままのRAID5機ではコンパイルエラーで後回しになってる。

hdbenchのためにファイルサーバー機にXも入れといたのにさ。
GbEごしにhdbenchで見ても、GbEのドライバーがボトルネックの状況だし…


370:login:Penguin
07/10/28 23:11:58 8YMFjw47
hdparm の実行例が、たとえば >>366 にあるが、シーケンシャルリードだけなのかな?

適当にぐぐると、iozone、bonnie++ をみつけたが(そういえば聞いたことがあるな)
妥当かどうかはよくわからない。

371:login:Penguin
07/10/28 23:30:15 PnOUhN2H
方々で見かけるし、bonnie++かなぁ。

うちの宅鯖も測り直したいが、クローラのデータエリアとして
24h稼働中なんでなかなか止められない……

372:362
07/10/30 00:00:50 1HogexSN
ざっと走らせてみたものの

bonnie++
これってFSとかキャッシュ・・・syncなオプションを使えと言うことか。
出力結果がややこい

dbench
クライアントの挙動をsimったプロセス数を指定、みたいな。
dbench NでNに1〜30あたりまで放り込んでみるとRAIDらしさが・・・出てないな。-sS必須か。
何故かシングルドライブの方が速い。わからねえ。Verによって挙動違うし。tbenchはまだ読んでない。

stress
cpu,mem,io,disk等に分けてN fork。でもベンチにならんよねこれ

tiobench
Nスレッドでベーシックなディスクベンチ。これが一番いいかも。問題は使い方がよくわから(ry
LatencyやCPU使用率の一覧比較を出してくれて便利。

その他 apt-cache search benchmark

373:login:Penguin
07/10/30 09:07:47 34EF8s3m
postmarkがおすすめ。
ただディスクベンチではなくファイルシステムベンチマークだけど・・・
同じファイルシステムを使っていれば相互比較はできるはず。

374:login:Penguin
07/10/30 10:05:05 D9D8Yw5C
postmarkはZFS専用。

まぁ同じベンチソフト使っていれば、ファイルシステム間での
比較はできるけどな。
ベンチマークソフトによって特定のファイルシステムで
特別性能がよかったり悪かったりするから、
何をベンチするか考えてから。

375:login:Penguin
07/11/01 12:34:00 7nciWttU
>>366
同一モデルでプラッタ容量違いの外れを引いただけ。

376:login:Penguin
07/11/01 13:12:38 62ZK10ox
>>366
# hdparm -tT /dev/md0
Timing cached reads: 1834 MB in 2.00 seconds = 916.99 MB/sec
Timing buffered disk reads: 400 MB in 3.00 seconds = 133.12 MB/sec
# hdparm -tT /dev/sdb
Timing cached reads: 1834 MB in 2.00 seconds = 916.90 MB/sec
Timing buffered disk reads: 220 MB in 3.01 seconds = 73.18 MB/sec
# hdparm -tT /dev/sdc
Timing cached reads: 1824 MB in 2.00 seconds = 912.33 MB/sec
Timing buffered disk reads: 224 MB in 3.02 seconds = 74.08 MB/sec
# hdparm -tT /dev/sdd
Timing cached reads: 1822 MB in 2.00 seconds = 910.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.34 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1842 MB in 2.00 seconds = 920.98 MB/sec
Timing buffered disk reads: 200 MB in 3.02 seconds = 66.24 MB/sec
# hdparm -tT /dev/sdf
Timing cached reads: 1822 MB in 2.00 seconds = 910.41 MB/sec
Timing buffered disk reads: 216 MB in 3.02 seconds = 71.42 MB/sec
# hdparm -tT /dev/sdg
Timing cached reads: 1820 MB in 2.00 seconds = 909.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.47 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1820 MB in 2.00 seconds = 910.07 MB/sec
Timing buffered disk reads: 222 MB in 3.02 seconds = 73.51 MB/sec

というわけでたまたまじゃない?
もっかいやってみれば?

377:login:Penguin
07/11/01 14:01:44 1iefkY+v
>>366
シングルユーザモードで起動してますよね?
通常だとデーモンとか動いて、20-30%は簡単に変わるので。。。

378:366
07/11/01 18:47:22 Gt+V+zuD
たくさんのレスありがとうです。

たまたまかもしれませんし。
フツーにマルチでやってたんで、今度シングルで試してみます〜。

379:login:Penguin
07/11/02 04:20:45 QaC2YeMr
CentOS5でインストールの段階でmdadmを使用してHDD2台(sda,sdbとして)をRAID1に設定した後に、
片方が破損して取り外したという仮定をして実験をしてみたんですが、
HDD1台(sda)で起動させようとすると「GRUB Hard Disk Error」で止まるorz
もう一台(sdb)だけを繋いで起動すると普通に起動してくるんだけど、何故だろう。
2台繋いだ状態で起動して、sdaに # /sbin/grub-install /dev/sda としても状態変わらず。
接続ポート入れ替えてもダメでした。
パーティション情報や grub.conf も晒した方が良いなら晒します。
誰か分かる方いたらご教示下さい。

380:379
07/11/02 06:02:03 QaC2YeMr
自己解決?
なんとなくGRUBに直接どちらからでも起動できるように書いてやればいい気がしてきた。
今シンク中なので終わったらやってみます。

381:login:Penguin
07/11/02 06:29:50 oty1mOnF
>>381
DOSのブートローダをいれて、
両方のHDDでブートパーティションをアクティブに設定、とか。

382:login:Penguin
07/11/02 11:11:28 7sg8THe2
0x80と認識されるか0x81と認識されるのかでブートコードが違う必要がある

383:379
07/11/02 18:53:15 QaC2YeMr
遅くなりましたが出来ました。
>>381さんの手も良いかなと思ったのですが、以下のような感じでOKでした。

# grub
 grub> root (hd0,0)
 grub> setup (hd0)
 grub> root (hd1,0)
 grub> setup (hd1)

こんな感じでどちらからも起動できるようにしたら一発。
grub-install では、こういう風には入力されないんですね。

384:login:Penguin
07/11/03 02:06:07 toJHQDFC
Linux で 3ware 9550SX-8LP を RAID 5で使ってるんですが、
既に作られてるユニットの容量をCLIで変更する方法をどなたか教えていただけないでしょうか。

現在以下のように 500GB×3 + spare という状態です。

Unit UnitType Status     %Cmpl Stripe Size(GB) Cache AVerify IgnECC
------------------------------------------------------------------------------
u0  RAID-5  OK       -   64K   931.303  ON   OFF   OFF
u1  SPARE   OK       -   -    465.753  -   OFF   -

Port  Status      Unit  Size    Blocks      Serial
---------------------------------------------------------------
p0   OK        u0   465.76 GB  976773168   H8******
p1   OK        -   465.76 GB  976773168   9Q******
p2   OK        u0   465.76 GB  976773168   H8******
p3   OK        u0   465.76 GB  976773168   H8******
p4   OK        u1   465.76 GB  976773168   9Q******
p5   NOT-PRESENT   -   -      -       -
p6   NOT-PRESENT   -   -      -       -
p7   NOT-PRESENT   -   -      -       -

このu0 に使われていない p1を足して p0-3で 500GB×4 + spareにしたいのです。
CLIのマニュアル(P.62)に従って

# tw_cli /c0/u0 migrate type=raid5 disk=0-3

とやってみたのですが、
Error: (CLI:008) Invalid ID specified. Found a specified ID is already in use.
とエラーになってしまいます。
何がまずいのでしょう?

385:login:Penguin
07/11/03 22:23:32 rg+D7DYl
>>384
RAID再構築

386:login:Penguin
07/11/04 04:56:40 QRh/db2g
>>385
URLリンク(japan.3ware.com)
3ware 9550SXの特徴
オンライン容量増設および RAID レベルマイグレーション機能搭載

387:login:Penguin
07/11/04 15:41:59 cbkyEPJh
HDL4-G1.0を買ってルーターに問題なく接続できました。共有はMICROSOFT式にして
XPの方ではドライブを割り当てしました。XPからのコピーや読み取りは問題
なかったです。Linuxでは、Sambaでマウントして、色々試してみたら読み取りでも
コピーでもXPの倍ぐらいになった。1.2Gbぐらいのファイルはなんと8分かかる場合
ありました。50GbのMP3フォルダーはAmarokでスキャンしようとしたら一晩中
やってもおきたら22%しか読めなかったです。

本体のBiosには変な設定あるかな。このハードで経験がある人がいたら
手伝ってください。

388:login:Penguin
07/11/04 17:09:06 eI5sYsvU
これのどこがRAIDの話題なんだ? (もしかしてマルチ?)

389:login:Penguin
07/11/04 17:26:28 cbkyEPJh
ごめん、マルチでないです。
RAID設定が原因になっているかと思って。書き忘れてすみませんでした。
初期設定のRAID5です。そんなに重くならないはずでしょう?
RAIDよりSAMBAだと思うけど、LINUX→RAIDなしのXPへの書き込みは
遅くならないで。

390:321
07/11/05 14:37:32 bQ+V7ACj
うちも、HDL4-G1.0が遅くて、放棄作業中。
その放棄作業(つまり新規PC RAID5 serverへのファイル転送)が
通信途絶頻発で難航しているほど。

Linuxからの接続で、必要な設定変更はあるのかもしれないけど
これといった情報は見つかっていないし、RAID5やっていく上で
(HDD4機の発熱とCPU発熱の比率とか)RAID5 NASに魅力を感じなくなった。

…そっか、見たらLinux板にはSambaスレ無いのな。
UNIX板にあるみたいだから、ヲレも調べてみるか…
あと、HDL4担当のスレはハードウェア板にある。


391:login:Penguin
07/11/05 21:06:17 6eGjWErn
>>387
もう少し整理してわかりやすく書こうや
・何が問題なのか
・何をどうやったら問題が起きたのか
・他に何を試したのか
・その他、主観で気になること

>>390 の状況も加味すると、「窓から投げ捨てろ」で一蹴されるのがオチだぞ


392:384
07/11/07 12:34:29 j1cRifCj
その後の報告。
月曜朝サポートが動き出したところで電話して聞きました。
どうもマニュアルの記述が間違っているようで、RAIDを構成するドライブを全部指定するのではなく、
新たに追加するドライブだけを記述するのが正解らしい。
>>384の場合、tw_cli /c0/u0 migrate type=raid5 disk=1 で桶、と。

実行にどれくらい時間がかかるのか聞いてみたところ「おおよそ1GBあたり1分」との返事。
1.5TBだと1500分……25時間かよっ!!
とゆーことで、月曜夜から実行したら今朝がたようやく終わりました。約28時間。
バックグラウンド動作だからいいんだけど。

393:384
07/11/07 12:36:06 j1cRifCj
さて、無事 1.5TBになったのですが、今度はパーティションを拡張しなけりゃいけません。
Partedを使う予定なのですが、これがどのくらい時間がかかるかご存じの方いらっしゃいませんか?
GParted等でもいいのですが、実際にやったことのある方で、××GB→○○GBのサイズ変更が
約△△時間かかった、など実例を教えて頂けるとありがたいのですが。

パーティションサイズの変更は、当然 unmountしないとできないんで、どれくらいの時間
利用不能になるのか見当をつけておきたいのです。
数時間〜半日程度なら夜間にやれば問題ないけど、丸一日以上とかって話なら代替ドライブを
用意しないといけないので。

くだ質の方で聞いたのだけど、有意な返答を得られませんでした。
こちらの方がこういった処理を経験した方が多そうなので、いささかスレ違いではありますが
よろしくお願いします。

394:login:Penguin
07/11/07 12:55:52 ZtZ/usYi
>>393
だれも普通そんなことしないから、有意な回答なんて得られない。
普通はlvm+xfsで一瞬


395:login:Penguin
07/11/07 13:15:20 RKolPaG2
よく喋るやっちゃ
たいていの場合>>394かmdadmでgrow。どちらも君の構成じゃ使えん。

396:login:Penguin
07/11/07 18:15:39 n5tC8Tis
ハードウェアRAIDを使うのが普通ではないという意見は
あまり普通ではないと思うが。

ハードウェアRAID使ってて、容量不足になったとき
その機能があれば、容量の拡張も普通にするんでね?

397:login:Penguin
07/11/07 20:23:33 yncetdk8
実際答える奴いないじゃん。やってることがマイナーすぎて。

398:login:Penguin
07/11/07 21:53:15 o+RGikEz
>>395
fsの話とブロックデバイスの話がごっちゃになってるぞお前

399:login:Penguin
07/11/07 22:49:11 7ekDkmZj
>>396
真のハードウェアRAIDならもちろん普通に使うけど、問題は
ディスクにRAID BIOSが書き込んだ構成情報をOSが読んで認識しないと
いけないとか、実はCPUがRAID処理してます、とかのエセHardwareRAIDが
世の中多すぎ(なんちゃってRAIDカード群の大多数)。

そういう「なんちゃってHW」を使うと性能はよくないわ、別カードへの
可搬性がないわで最悪なので、カーネル側のMD使うのが常識ってだけでは。

 真のHW-RAID >>> Linux MD >>>越えられない壁>>> なんちゃってHW-RAID

という感じになるのかな。


400:login:Penguin
07/11/07 23:02:05 ZtZ/usYi
>>399
まぁ3ware 9550SX-8LPは真のHW RAIDカードだけど、
多機能になればなるほど、こなれてない機能が多い訳で、
例えばマニュアルの誤記のように問題に当たりやすい。

だから、デフォルト以上のこと(RAID5にスペア1本)を
やらせるのはお勧めしない。やるなら検証してからで、
間違っても本番データを運用したままやらない。

401:login:Penguin
07/11/08 10:19:08 3bsJieVy
>398
なんでブロックデバイスの話が出るんだ?
パーティションとかボリュームなら言いたいことは理解できなくもないが
それでもごっちゃにはなってないし…

402:login:Penguin
07/11/08 12:55:16 0yMQ2DaJ
今使っている分の後ろに空きブロックが増えるだけじゃないの?
1パーティションに拘らなければ、lvmでなんとかなるべ。

403:login:Penguin
07/11/08 20:27:40 IZN1X0G5
raid1
grub> device (hd0) /dev/hdb
grub> root (hd0,0)
grub> install /grub/stage1 (hd0) /grub/stage2 p /grub/grub.conf

で hda差し替えてをリビルドした後にこんどは hda のみでで起動できるの?


404:login:Penguin
07/11/08 21:27:48 IZN1X0G5
hda から起動できず、結局またリビルド

今度は
grub> device (hd0) /dev/hda
grub> root (hd0,0)
grub> setup (hd0)
したけど Kernel Panic になります。


405:login:Penguin
07/11/08 21:56:35 IZN1X0G5
md0 (boot) と md1 (/とswap)両方リビルドして
リブートしたら直った^^ よかった。
さっきは md0だけリビルドしてブートしたからパニックになっただけかも。


406:login:Penguin
07/11/08 23:31:13 13192VKA
ここはお前の日記帳じゃねえんだ

407:login:Penguin
07/11/11 14:42:23 Kss4jt32
今回初めて160GBx2でRAID0を組んでみようと思うんですが、単体HDDでの使用だとパーテはC:Dと切れたんですが
RAID0で2つのHDDを使うと1つのHDDとして見えますが、これにはパーテ切れるんでしょうか?

408:login:Penguin
07/11/11 14:58:54 EBagQV5F
> パーテはC:D
Windows板にカエレ

409:login:Penguin
07/11/11 14:59:41 aTKX43hi
md使うんだよな?
1日色々勉強してみて

410:login:Penguin
07/11/15 13:43:28 Ay00Jbql
すいません、質問させてください。
arecaのarc-1120使ってるんですけどconfigを保存することってできますか?
raidの設定コンフィグなんてものはないですか?
壊れたので同じものを買って入れ替えたいんです。

411:login:Penguin
07/11/15 14:00:49 kt6gqmw9
修理したら?新規に買うより安くなるはずだが

412:login:Penguin
07/11/15 15:24:02 wCvoExs2
修理だと時間かかるじゃん。

areca使ってないけど、興味あったんでマニュアル見てみたけど、
設定のファイルへの書き出し/読み込みなんて機能はなさそ。

ただ、設定つーても、使うドライブの登録とRAID Levelくらいなもんじゃないの?
あとはビープを鳴らす・鳴らさないとか管理者パスワードの登録くらいか。
ゼロからやっても数分で終わりそうだけど。
毎回やるのが面倒だと思ったらCLIで作業して、バッチ化しておくとか。

既に作られてるRAIDボリュームは正常だったら(普通は)設定後そのまま認識されると思うけど、
不安だったらサポートに聞いてみた方がいいと思うよ。
このスレ、最近はソフトウェアRAIDマンセーの人がほとんどだし。

413:login:Penguin
07/11/15 18:00:18 Ay00Jbql
>>411,412
ありがとうございます。

save configとかそういう項目ないのでやっぱりないんですかね。
一応サポートにも連絡してみます。


414:login:Penguin
07/11/16 01:17:15 1eXgzPsD
RAIDボリュームの情報はHDD側に持つものもあるし、
実装次第だと思う
なんで、サポに聞くのが一番いいね

415:login:Penguin
07/11/17 14:53:05 1ihUsYxQ
RAID 1 はリード性能が向上するというイメージがあったのに
mdadm で RAID 1 化した HDD はリード性能が微妙に下がってるんだよね…

416:login:Penguin
07/11/17 17:14:37 1ihUsYxQ
>>368
kwsk

417:login:Penguin
07/11/18 01:00:05 YtGpqr3X
なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

418:login:Penguin
07/11/18 01:09:55 32uNERa2
そんなに知恵が足りない事をひけらかさなくてもいいのに

419:login:Penguin
07/11/18 02:39:12 HcFap/DP
確かに知識というか知恵があれば分かるよなあ…

>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

2 台の HDD でミラーリングしてる場合
両方の HDD から並列に別のデータを読めるから

420:login:Penguin
07/11/18 03:14:37 31wlS8LP
> 2 台の HDD でミラーリングしてる場合
> 両方の HDD から並列に別のデータを読めるから

これぢゃ、こわれててもわかんないんじゃないかな



421:login:Penguin
07/11/18 03:24:33 7DZoPkDC
なぜそんな話に飛躍する?
しかも意味が分からん。
RAID1で1台壊れて読めなくなってどうする?

RAIDの障害はsnmpやメールで通知するんだよ。

422:login:Penguin
07/11/18 05:35:44 HcFap/DP
>>420
セクタ単位のデータ破損を言ってる?
そうだとしたら、どちらにせよ RAID 1 じゃデータは救えんよ
2 台の HDD のセクタが不一致だとして、どちらのセクタが正しいと信じるんだい?

423:login:Penguin
07/11/18 10:15:29 w3f8FT8B
>>417
man md
してから書けよ
Changes are written to all devices in parallel. Data is read from any one device.
The driver attempts to distribute read requests across all devices to maximise performance.

上の方で同時アクセス数云々のベンチがあったが、確かにRAID1でも耐久力有りそうだな


>>420
お前の脳内でRAID1ならどうやって片方が壊れてると判断できるのか教えてくれw それともドライブ3台以上が前提か?
予め言っておくがRAID5でも一致確認してません、よー

424:login:Penguin
07/11/18 10:44:16 KXIawyII
元の >417 がイタイのはおいといて

>422
普通は HDD 内部でエラーチェックで救いきれないという状態になって
バケデータを吐くのでなくエラー通知をしてくるから
どちらを信じればいいかは分かる

そうならなかったとしたら相当運が悪いので
どのみち生きていても仕方ない…


425:login:Penguin
07/11/18 10:56:59 w3f8FT8B
ハードのパリティを信用するかどうかってことで現状は使うハード次第だわな
安価ハードを信頼性向上目的でソフトで多重化チェックすると最低3倍構成になるからペイしないんだろうなぁ

ところで3といえば、3ドライブでRAID10やってみた報告がそろそろ欲しいな。既出?

426:login:Penguin
07/11/18 11:28:10 /HzRs9GI
2台構成だとセクタ単位以下の信頼性は下位層に依存、
それ以上の信頼性がほしい場合は3台構成で自前チェックって感じか。

銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な
場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ

427:login:Penguin
07/11/18 12:24:10 JtepkghF
下位層でできないことは上位層でやればいい、っていこうとでは?
ということで、ZFSドゾー


428:login:Penguin
07/11/18 16:20:10 HcFap/DP
>銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な
>場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ

発注先とかソフトウェア部分も多数決な

429:3台
07/11/18 17:54:46 KXIawyII
メルキオール、バルタザール、カスパー…

ごめんなさいごめんなさいごめんなさい

430:login:Penguin
07/11/19 03:13:03 +PzRhB/C
蒸し返すようだけど、ハードウェアRAID(fake raid ではなく)の場合、
RAID 1 にしても、read のときは双方のHDDから読み込みをやっているわけではないと思う。

5年ぐらい前、Escalade 7210 と HGST 180GXP で RAID0 と RAID1 のアレイを組んで
それぞれベンチを図ってみたが、RAID0 と RAID1 で同じ読み込み速度にはならなかった。
URLリンク(members.jcom.home.ne.jp)
URLリンク(members.jcom.home.ne.jp)

md の場合は、>>423 にあるとおり RAID1 の場合は内部で双方のHDDから読み込みをやっている
ようだけどね。

431:login:Penguin
07/11/19 04:36:45 YZqmzVs9
>>427
> 下位層でできないことは上位層でやればいい、っていこうとでは?

それ結局意味ないから。

RAIDは各セクタが完全に読めるか全く読めないかどちらかであることを仮定してる。
通常、パリティはセクタより小さい単位のエラー検出には使われず、セクタ単位の
エラーが検出された後データ再生成に使われる実装になってる。全部かどうかは知らん。
セクタエラーとして検出されないセクタ未満のデータ破損については多数決方式で
エラー訂正する以外になくて、結局、起源の異なる(パリティによる補完関係にない)
セクタが最低3つ必要になる。それは下位層でやろうと上位層でやろうと変わりない。
もちろんZFSなら2台構成のうえで仮想ブロック1つに実ブロックを3つ以上割り当てる
こともできるけど、それじゃRAIDの意味ない。

432:login:Penguin
07/11/19 15:57:45 1xeYiL1w
>>430
実装による。シーケンシャルなread1本時の挙動と、同2本や10本の速度も測ってみると良い。
ついでだからmdでRAID10組むときのnear/far/offsetのあたりも理解しておくとよい>仕組みと読み込み速度
URLリンク(en.wikipedia.org)
URLリンク(en.wikipedia.org)

// 日本語wikipediaは酷いなぁ

433:login:Penguin
07/11/19 19:28:24 LSsBOoW2
>>430
3wareにだってかつてTwinStorという名前で実装していたのがあってな(ry

434:417
07/11/20 14:41:38 WUpQPj2Z
イタイ417だけど
ああ、ここって特定のソフトウェアレイド前提なのね。話通じないはずだ。
定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
本来は片方からしか読まないよ。そういう拡張された実装って部分的にはあるけど
全面的なやつは珍しいかも。
(そのmdって両方読むのね?よく知らんけど。実際はRAID0+1みたいなかんじ?)
だからそういった意味ではRAID1で高速化するってありえないよ。
RAID0かぶせない限りはね。
>>430,432が正解だと思う。
わたしゃ高速化のためにRAID0使用中だよ。リスキーでも倍速w


435:login:Penguin
07/11/20 14:42:39 6fbP/JrB
アイタタタタタタタタw

436:login:Penguin
07/11/20 15:44:28 +5gXhNB9
あたああああああああ

437:login:Penguin
07/11/20 16:12:43 6fbP/JrB
あーあ
そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに
そもそも最初にRAIDを提唱した1988年の論文でも
RAID1でread性能が向上する事が指摘されてるんだよね

438:login:Penguin
07/11/20 16:38:37 0X6vxiqf
>>437
URLリンク(www.eecs.berkeley.edu)
その論文の基となるレポートがこれだけど
確かにRAID1でparallel readに言及してるな.
abstract読めば判るけど,当初のRAIDは可用性向上よりも
性能向上が目的だからな.

>>432にあるWikipedia英語版も読んでみたけど,
RAID1でreadは速くなるって書いてあるじゃん


439:login:Penguin
07/11/20 17:59:10 WUpQPj2Z
>>438
めんどくさ。まぁ今更どうでもいいがな、>>432から引用すると
>Many older IDE RAID 1 controllers read only from one disk in the pair,
>so their read performance is always that of a single disk.
>Some older RAID 1 implementations would also read both disks
>simultaneously and compare the data to detect errors.
だとさ。結局実装次第ちゅーこっちゃね。


440:login:Penguin
07/11/20 18:06:26 WUpQPj2Z
つーか、実際にレイド組んでベンチとってみるといいかもね。
ごたくならべてないでさ。そのmdってのが優秀なら問題ないんだろからさ。

441:login:Penguin
07/11/20 18:09:41 6fbP/JrB
見苦しい

442:login:Penguin
07/11/20 18:12:21 WUpQPj2Z
>>441
なんだググっても反論見つからなかったか?w なんつてな。
正直もうどうでもいいな。

443:login:Penguin
07/11/20 19:20:47 MSD+3qt7
なら何も書かなきゃいいのに。
書けば書くほど見苦しくなる。

437に同意。
>そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに

444:login:Penguin
07/11/20 20:45:33 286gsJhP
はいはいプロユースプロユース。

てか本気で見苦しいな。
RAID総合スレに来ておいて、今やコンシューマ向けRAID搭載NASの殆んどを占めるmdを「特定の」やら「知らない」とか言われてもな。
んなもん持ってなくてもRAID語るなら自宅鯖でLINUXでmdくらいはやってて(試していて)当然の話じゃねえの?


445:login:Penguin
07/11/20 21:41:26 hSn6K+RS
>>434
せっかく>>432書いたのに全く読んでない
ものすごく好意的にエスパーしたとしても、単独負荷と並列負荷をわざと曖昧に書いて煽ってるようにしか読めん。
つまり絡みたい気分だったのだろう。そっと放置しておいてやろう、な。

446:login:Penguin
07/11/20 23:37:47 Pk03JSkS
>>434
>定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
>本来は片方からしか読まないよ。

と「本来の RAID 1 は並行読み込みしないと定義されている」とほのめかしておいて
>>438 で論破されたのに

>>439
>めんどくさ。まぁ今更どうでもいいがな、>>432から引用すると
> >Many older IDE RAID 1 controllers read only from one disk in the pair,
> >so their read performance is always that of a single disk.
> >Some older RAID 1 implementations would also read both disks
> >simultaneously and compare the data to detect errors.
>だとさ。結局実装次第ちゅーこっちゃね。

と「過去の実装例」で「定義」の議論に対して反論したつもりになって

>>417
>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

での知恵の無さを誤魔化す >>417 = >>440 = >>442 はとてつもなく痛い

447:login:Penguin
07/11/21 00:27:24 PIy6cxhg
このへんで勘弁してあげようよ

448:login:Penguin
07/11/21 01:12:12 YL4Okhmu
417はもう出てこれないに500ペソ

449:login:Penguin
07/11/21 01:21:04 66AMPoKv
過去レスを読んでいれば、このスレが md がメインなこともわかると思うんだが。
ただスレタイに md とも書かれてないし、ハードウェアRAIDを Linux で使う場合の話も
ここでしたいので、その場合はその旨一言触れておいたほうがいいな。

あときりわけが難しいけど、上に乗っかるOSは関係なく、ハードウェアそのものについての話になるなら
自作PC板にいったほうがいい。
ただしこういうストレージカードの場合、ハードウェア / fakeRAID ともにデバイスドライバが密接に絡むので
むずかしいけど。

長文ごめんなさい

450:login:Penguin
07/11/21 01:56:35 PIy6cxhg
前スレまではハードウェアRAIDの話題も結構出てたんだけどね。
このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。

まぁ >>417の件はそれとは関係なく、単にナニだっただけなんだけどw

451:login:Penguin
07/11/21 02:39:21 WhtoZStV
ひさびさに痛い奴でした

452:login:Penguin
07/11/22 00:43:36 x2PaICsY
どーでもいい。次。


453:login:Penguin
07/11/22 04:34:50 4v8j5/xa
>>450
そうかなぁ?
アレイ拡張など運用の柔軟性とか、HW-RAIDだと対応が難しい要求を
HW-RAIDに求める奴が出ては諭されしてるだけかと。

454:login:Penguin
07/11/22 05:10:47 b7H+VhqY
Linuxの場合は、HW-RAIDにしたらしたで、
ちゃんとミドルウェアというかユーティリティが対応しているかっていうのは大きな問題でしょ。
ユーティリティなしで済まそうとすると、障害通知とかどうしたらいい?ってことになるからね。


455:login:Penguin
07/11/22 08:46:26 NB0e892q
大きな問題ではあるけど、そんなのベンダが提供してるかしてないかであって
話題になるようなポイントではないのでは?わざわざ高いHW-RAID入れるのに
まともなサポートツールがないもの選ぶことはないし。

456:login:Penguin
07/11/22 12:00:33 e1x8OZuz
>>453
お前HW-RAID使ったことないんだろw

457:login:Penguin
07/11/22 16:43:40 4v8j5/xa
>>456
少なくとも、ここで出てくるHW-RAIDはいわゆる民生用で、
高いHW-RAIDみたいなサポートもユーティリティもないでしょ。

高いの使えばそりゃシームレスでも柔軟性でも出るけど、
そういう話が「ここで」出てたかはかなり疑問。

458:login:Penguin
07/11/22 17:18:20 kotZkAiy
>>457
>>453は過去に一体どんなハードウェアRAID使ってきたのよ。
よほどの大昔か?

少なくともここで最近このスレで出てきた3wareやarecaだったら
「アレイ拡張など」はwebブラウザ経由で簡単にできるぞ。
この価格クラスのものでも、信頼性は十分あるし、普通にRAIDを利用・管理
(故障したドライブの交換やエラー時のメール通知等含め)したり、容量を拡張する
くらいの操作する分にはソフトウェアRAIDよりも「簡単・確実」なのは確かだよ。
RAIDの知識があれば、買ってきてすぐ、ほとんどマニュアル読まずに使える。
仮にOSが落ちてても、通電さえしてりゃrebuildとか勝手に続けてくれるってな
安心感もある。

ソフトウェアRAIDにもハードウェアRAIDにもそれぞれの長所・短所はあるんで、
それぞれ理解して使い分けりゃいいだけの話。
RAIDに求めるものは使用目的によって変わってくるんだから、どちらか一方を
無理矢理否定するこたーない。

459:login:Penguin
07/11/22 17:21:32 kotZkAiy
諭され云々は多分>>384のこと言ってるんだろうけど、>>384が特殊だったのは
CLIでやろうとしたからだよ。あとはファイルシステムの拡張でRAIDとは無関係。
CLIは既にメーカー側でもオマケ扱いで、サポート側もほとんどノウハウないし、
マニュアルの記入ミスが何年も放置されっぱなしだったりしてる。
ほとんど使う人がいないんだから「やってることが特殊」と言われてもしょうがない。

460:login:Penguin
07/11/22 20:16:50 e1x8OZuz
>>457
で、たとえばどんなことがHW-RAIDでできないと思ってるの?
アレイ拡張など、以外に。

461:login:Penguin
07/11/22 20:18:20 Ai+8+9Qs
( ´ー`)y━・~~~

462:login:Penguin
07/11/23 18:35:28 Jp++BsDp
ワロタ
ここお笑いスレ化してるな。

> このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。

なんか絵に描いたようなw

463:login:Penguin
07/11/23 19:42:52 GS8px4nS
md の RAID 1 でリード性能を高速化する方法ってないのかな?
方法自体がないなら諦めないといけないけど…

464:login:Penguin
07/11/23 21:43:27 T6tLpng3
お前は何を言ってるんだ

465:login:Penguin
07/11/23 23:38:14 ediOoBUE
だから並列負荷耐性は上がるとmanにも書いてあるだろうに

466:login:Penguin
07/11/23 23:56:04 dksFbx1S
そこの解釈の差が論争の原因だね。man mdだと

> Data is read from any one device.
> The driver attempts to distribute read requests across all devices to maximise performance.

と最初の文が意味深だが、解釈は曖昧。で、ソース見ると

> * Don't change to another disk for sequential reads:

とあるので、おそらく単体のリードはディスク一台分の速度、ただし
別のリードは別のディスクに分散できるのでスループットが台数に
比例して伸びる、なのでは?

467:login:Penguin
07/11/24 01:21:05 NU+60JyU
なるほど。


468:login:Penguin
07/11/24 02:25:30 Rw3nYGM/
>>466
hdparm でリード性能が伸びてないのは
単発リードコマンドになってるってこと?

469:465
07/11/24 02:28:51 lC7phVQh
>The driver attempts to distribute read requests across all devices to maximise performance
複数の読み取り命令を全てのデバイスに割り振って高速化しようとするよ
じゃないの? 単一read時のことは書いてないよ。

470:login:Penguin
07/11/24 03:09:26 /QheRAnN
>Data is read from any one device.
データは一つのデバイスから読まれる。
こっちが単発リードのことをいっているんだろ。


471:login:Penguin
07/11/24 04:35:21 wJBOH4En
なおのこと単発リードが高速化するようには読めんが

472:login:Penguin
07/11/24 11:53:59 /QheRAnN
だから速くならないって言ってるだろw

473:login:Penguin
07/11/24 14:19:03 Rw3nYGM/
状況を整理するよ

hdparm による md の RAID 1 に対するベンチマークで
リード性能が単体 HDD に比べて向上していない
(自分を含めて 2 〜 3 人が報告)

これは
・hdparm によるベンチマークは単発リードコマンドしか発行していない
・そもそも md の RAID 1 ではリード性能は向上しない
のどちら (あるいは両方?) なんだろう?ということ

474:login:Penguin
07/11/24 14:22:10 1cLiYWi3
同時に複数のファイル(とは限らんが)の読み込み要求があったときには
できる限りドライブを分散させて、パフォーマンスが向上するようにしている。
各ファイル(とは限らんが)のシーケンシャルな読み込みは単一のドライブから。

だね。

475:login:Penguin
07/11/24 14:24:48 /QheRAnN
ふむふむ。

476:login:Penguin
07/11/24 15:12:57 lC7phVQh
>>473
その2択が正しいかどうかは置いといて、hdparmは単発readでしょ。
なんだか話がループしてそうなんだが>>362- は読んだ?

477:login:Penguin
07/11/24 15:36:38 Rw3nYGM/
おお >>367 にそれらしい答えが出てるね

478:login:Penguin
07/11/24 16:16:33 lC7phVQh
チラ裏だが

ディスクベンチっていうと
URLリンク(www.iozone.org)
みたいにパラメータ変えつつやるもんかと。
特にRAIDボードで組んで評価って話でよく挙げられてる単純なベンチは
あれで参考になるんかと思うわけだが、口出すようなことでもないわけで。
単純化指向は良い面もあるしな。tiobenchくらいが結果貼りやすいかもしれん

479:login:Penguin
07/11/29 06:03:49 7uM8bIDi
なんかmdの話ばかりでハードウェアRAIDがスレ違いな話題と化しているようだけど…

それはさておき、なんでLinuxってOpenBSDやNetBSDのRAIDframeのような
kernel & userlandを含めたフレームワークがきちんと整備されていないんだろう?
ドライバがkernelにとりこまれても、各種ユーティリティはRAIDカードベンダまかせで、
それらが使えないディストリビューションの場合は途方に暮れるしかないっていうのは
悲しすぎる。

OpenBSDならBIOSレベルで設定しないといけないもの以外は、基本的にraidctlコマンドで
統一的に使えるのになぁ…

あと、どうでもいい余談だけど、ちょっと前、mdとLVMを組み合わせるのは複雑だなんて
話があったけど、ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に
扱える。

あと、このスレからソフトウェアRAIDの話が撲滅されるというメリットもあるw

480:login:Penguin
07/11/29 10:17:09 krpLIoSe
>>479
>フレームワークがきちんと整備されていないんだろう?
ニーズがないから。
OpenBSDのように遊びでHW-RAID使っている訳では無いから。

481:login:Penguin
07/11/29 10:36:45 r5r946d6
>>479
つ dmraid

>>480
しったか乙

482:login:Penguin
07/11/29 15:45:08 yTYjvc/A
>>481
dmraidって既に
「きちんと整備されてい」るの?

単に知らないから聞いてるんだが。

483:login:Penguin
07/11/29 19:19:21 0m6dyEiu
>>479
お前みたいなのが居るからmd以外の話題が低レベル化するんだよ


484:login:Penguin
07/11/29 19:41:18 3Mr68e1S
>>482
いまだにrcのまんまとはいえ、開発は続いているね。最新版は今年の5月に出た。

>>483
必死だな

485:login:Penguin
07/11/30 00:10:15 revYtBrt
>>479
> ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に扱える。

ニーズがわかってないな。ZFSで全部、じゃシステム部品としての粒度が大きくて、
導入しづらくてたまらん。「これで全部解決」ってのは大抵成功しないよ。

486:login:Penguin
07/11/30 03:03:09 Mn/yUmHF
mdとLVMとの組み合わせだと、機能かぶりまくりで無意味に複雑化する上に
オーバーヘッドだってあるんだから、よほど素性は悪い罠

487:login:Penguin
07/11/30 10:28:41 N6HYB90j
ま、それがLinuxの性

488:login:Penguin
07/11/30 18:30:10 hZ7jSyzu
>>479
上のほうで複雑すぎる、って書いた奴です。

ZFSは見た目は簡単(?)だけど単純ではない。複雑なものを隠して簡単そうに
見せているだけ。なんで、トラブルになったとき対処に必要なアレイ構成とかの
情報も結局ZFSの中に隠されるから対応しづらい。そこが嫌で原則使わないことにしてる。

RaidFrameとLinux mdは、どちらも一長一短だけど、
ニーズにあった自由な組み合わせが必要ならhw-raid/md/LVM/fs等で、
ワンストップで操作できる点やドライバの充実をとるならRaidFrameが有利、
ってところか。

自分以外の視点で考える練習もした方が良いかもね。

489:login:Penguin
07/12/01 08:04:30 gB0tzcfY
>>485
> システム部品としての粒度が大きくて、
> 導入しづらくてたまらん。

これに禿胴する人は多いと思う。

490:login:Penguin
07/12/01 11:45:16 ywEZfGgX
>>486
どこがかぶってるんだ?

491:login:Penguin
07/12/01 11:57:19 s/h51g0g
おちん○ちんの皮

492:login:Penguin
07/12/06 05:13:41 ap4dDKTJ
たまたま、この記事を読んで気になり、
mdによるRaidで整合性検査をしてみようと思ったのですが、
どのようなコマンドがあるのでしょうか?
(ぐぐっても、見つからなかったもので・・・

URLリンク(itpro.nikkeibp.co.jp)

493:login:Penguin
07/12/06 08:53:48 TPTZjUe/
>>492
整合性検査って、consistency check っていうんだよ。
URLリンク(gentoo-wiki.com)

With a modern kernel, >=2.6.16, this command will initiate a data consistency check
and a unreadable block check: reading all blocks, checking them for consistency,
and attempting to rewrite unreadable blocks:

# echo check >> /sys/block/mdX/md/sync_action

You can monitor the progress of the check with:

# watch -n .1 cat /proc/mdstat


494:492
07/12/06 15:26:20 ap4dDKTJ
>>493
ありがとうございます、実験用領域を組んで試してみます。

495:login:Penguin
07/12/06 22:44:34 XmDmS+kB
mdで第一日曜に自動チェックとかいう話ってなんだっけ?

496:login:Penguin
07/12/07 01:00:01 0L1bQ/rX
debianのデフォルトじゃね?

497:login:Penguin
07/12/07 17:07:07 V8m/lKoM
そんなん有るんだ。
ってググってもヒットしないし

498:login:Penguin
07/12/11 21:54:14 EizmHdyt
今、250GB*6本でmdによるRAID5を作っています。
名前はmd0です。

今度500GB*6本でmdによるRAID5を作ろうと思います。
新しく作るRAIDをmd0にして、既存のRAIDをmd1にリネームしたいのですが
リネームの操作が分かりません。

まだHDD買って来てないんで実験できないのですが、要領をご存知の方が
いたら教えてください。

ディストリはCentOS5です。


499:login:Penguin
07/12/11 23:00:07 f5+2aQ7y
1.旧md0を停止して
2.新md0を作成して
3.旧md0をmd1としてアセンブルして
4.好きなとこにマウント

じゃだめヶ?
新HDD買う前に1と3だけ試せる。

500:login:Penguin
07/12/11 23:05:57 f5+2aQ7y
あ、ごめん>>498宛てね。
それと今止めてもいいmdがないので試せなくてスマソ。
多分問題なく出来るとは思うけど。

501:login:Penguin
07/12/12 11:28:43 PJ2mXbUE
>>498
mdadm.confのARRAY行書き換えて再起動でmd0がmd1になるから、改めてmd0をcreate
fstabとか関連のファイルも同時に変更する必要があるんで注意
あと確認は十二分にしたほうがいい

Persistent Superblock内ってアレイのデバイス名(md0)まで
埋め込まれるんだっけ?それともUUIDだけ?

502:498
07/12/12 12:26:42 6F5R6X/A
みなさん、どうもありがとうございます。
まだ実機のmd0をバックアップ取れていないので、virtualpc内にlinux入れて
教えていただいた手段を試してみます。

503:498
07/12/12 13:18:37 6F5R6X/A
CentOS4がインストールされたVirtualPCイメージがあったので、それで試してみました。

○作業前
/dev/md0: 要素 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4

○手順
# mdadm --misc --stop /dev/md0
# mdadm -C /dev/md0 -a -l 5 -n 4 /dev/hdd1 /dev/hdd2 /dev/hdd3 /dev/hdd4
# mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
# shutdown -r 0

○作業後(再起動後)
[root@centos ~]# cat /proc/mdstat
Personalities : [raid5]
md1 : active raid5 hdb4[3] hdb3[2] hdb2[1] hdb1[0]
29952 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

md0 : active raid5 hdd4[3] hdd3[2] hdd2[1] hdd1[0]
60096 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

unused devices: <none>

無事にmdの名称が変わりました。
今度HDDを買ってきたら、本番マシンで試してみたいと思います。
どうもありがとうございました。

>>501
# mdadm -E /dev/hdb1
をしてみた所、md?の記述はなかったので、HDD要素自体には自分がどのmdに属すのかという
情報は持っていないのかもしれません。
あと、mdadm.confをfindで検索してみましたが、存在しませんでした

504:login:Penguin
07/12/12 15:43:25 kEBRgtVd
>>503
横から失礼。
自分も昨晩レスキュー用のKanotix使って
md*の名前を変更したのだけど、

古い mdadm (1.*.*) だと再構成(assemble)段で
# mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
 を
# mdadm -A /dev/md1 -a /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
とかやらないと上手く認識しないみたい。
今時のは(2.*.*)で問題ないけど。


次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

4315日前に更新/300 KB
担当:undef