1 名前:login:Penguin [2007/01/11(木) 12:55:58 ID:rL+q6m/Y] Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.co.jp/product/raid/os_support_list.html Linux EVMS 一般 ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html ttp://evms.sourceforge.net/ ... あと続けてくらさい。
337 名前:login:Penguin mailto:sage [2007/10/21(日) 21:13:13 ID:CyPL93bH] 質問があります。 HDD4台を買って来ました。システム領域とは別に、4台でSoftwareRAID5を組もうと思っています。 このスレと過去スレを見ると、mdadm + LVM と組み合わせている人が多いようですが、 その理由(メリット)がわかりません。どう幸せになるのか、教えてください。 LVMを使わない場合は、4台ともディスク丸ごと fdisk で、パーティションタイプを fd でフォーマットして、 # mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 とやればおしまいですよね。 4台のRAID5 から 5台のRAID5 にする場合は、 ・HDDを買ってきて増設。パーティション丸ごと fd でフォーマットする ・# mdadm /dev/md0 --add /dev/hde1 これでアレイは大きくなるが、ファイルシステムは自動的には増えてくれないので、 resize_reiserfs とかでファイルシステムを大きくする。 こうすれば、LVM は必要ない気がするのですが、どうして LVM と組み合わせる人が多いのでしょうか?
338 名前:login:Penguin mailto:sage [2007/10/21(日) 21:15:43 ID:ccIALbTr] >>337 pvmoveで死にかけのドライブを交換できる。
339 名前:337 mailto:sage [2007/10/21(日) 21:35:04 ID:CyPL93bH] >>338 レスどうもありがとうございます。 md を使わず、LVMのみで HDD4台とかで大きい単一のパーティションを作った場合、 たとえば不良なHDDを交換したいときに、pvmove で不良なHDD上に乗っかっているデータを追い出し (PEをほかのVGに追い出し)、新しいHDDとさしかえる、というのはわかります。 しかし md を使っている場合、不良なドライブがあれば、mdadm --fail で不良扱いにし、 mdadm --remove で取り外し、mdadm --add で好感して追加すればいいので、 やはり LVM と組み合わせる理由がわからないのですが・・・
340 名前:login:Penguin mailto:sage [2007/10/21(日) 21:51:55 ID:ccIALbTr] >>339 そうだね。今のmdadmはいろいろと出来るみたいだね。 俺の場合は慣れなかな。 mdadmが出る前(raidtoolsの頃)からlvmで色々と出来てたからね。 ところで、RAID0でも mdadm /dev/md0 --add /dev/sda1 --fail /dev/sdb1 --remove /dev/sdb1 でいけるの?
341 名前:login:Penguin mailto:sage [2007/10/21(日) 22:19:12 ID:Py2daiOH] ゆとり教育世代には仮想化や論理化のメリットが理解困難なようだ
342 名前: ◆Zsh/ladOX. mailto:sage [2007/10/21(日) 22:36:32 ID:beoHAJJS] 漏れも>>337 と同じ意見。 LVM使ったこと無いorz
343 名前:login:Penguin mailto:sage [2007/10/22(月) 02:51:20 ID:+aosTp7W] つーか>>337 、addだけじゃ駄目だろ
344 名前:337 mailto:sage [2007/10/22(月) 03:23:03 ID:wCu8JRMx] LVM を間に挟んでおけば、以下のようなことができるかと考えてみました。 ・ >>337 のように 4台でRAIDを組む。とりあえず LVM を構成してからパーティションを作る。 ・1台故障した(例:/dev/sdd)のでもう一台買ってきたが、同じ値段で容量の大きなHDDが買えた。 ・新しく買ってきた HDD に、以前と同じ容量の /dev/sdd1 をつくり、mdadm --add /dev/sdd1 する ・新しく買ってきたHDDの、残りの容量を /dev/sdd2 として fdisk で確保。パーティションIDは 8e とする。 /dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、ファイルシステムを保持したまま、 HDDを余すところなく使えるかな。ただしこの時点では /dev/sdd2 は冗長化されてないですが。 >>343 add するだけでリビルドが始まると思っていたのだけど、もうすこしコマンドが必要なのでしたっけ?
345 名前:login:Penguin mailto:sage [2007/10/22(月) 03:47:32 ID:RbFtcdsq] できるかもしれんが、 > /dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、 これやったら駄目じゃね? sdd2は単独で使うのが良いと思われ。
346 名前:login:Penguin mailto:sage [2007/10/22(月) 06:25:14 ID:afLW6y8j] 片方のドライブが壊れたなど問題が起きたときにメールで送信してくれるユーティルティソフトはありませんか?
347 名前:login:Penguin mailto:sage [2007/10/22(月) 09:14:07 ID:xtIOR2qi] >>344 grow >>346 mdadm
348 名前:login:Penguin mailto:sage [2007/10/24(水) 20:03:46 ID:bA8/b9hE] >>337 250GBと500GBの混在で、ソフトウェアRAID5のPCサーバーを作っています。 Vineだし、慣れでext3で行っていますが reiserFSだと将来拡張できてウマーという認識でいいのでしょうか? 立て続けHDD故障のリスクを抑えるためにも RAID1の240GBと、RAID5の240GB*4として運用しています。 まぁマーフィの法則的には、500GB二つが立て続けに逝くでしょうが… LVMは、LVMもmdadmも使い慣れない状態で LVM導入は無駄にリスクを増すと思って、私もLVMは使っていません。 むしろ、LVM使いたくなかったから、慣れたVineで行った次第。 なお、起動デバイスはCFをSATA変換してそのまま。 実験の都合で、RAIDと別ディスクにしたかったし、電力消費面で(略) 私用だし、設定終わった時点で、ddでバックアップしておけばいいや発想。
349 名前:login:Penguin mailto:sage [2007/10/25(木) 02:23:44 ID:SbJgUcvr] >>348 単にresizeするだけなら対応していないfsの方が少ないはず。 それはともかく、LVMはたしかに柔軟性があっていいんだけど、どうも 機能過剰感があるし台数的に少ない個人レベルでは物理ディスク単位で 管理する単純性の方を優先して漏れも使ってない。 HDDやパーティションに縛られない柔軟性は便利といえば便利だけど、 ブロックの切り出しはファイルをloopbackとかnbdで晒せば同様のことが できなくもないし、HDD更新時のアップグレードとかも RAID時: 新HDDをRAIDに追加 -> 同期が終わったら、旧ディスクは壊れたことにして外す -> RAIDをresizeして完了 RAID+LVM時: 新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す と手順は違うものの、最近は同程度のゴールは達成できるようになってるから まあいいかと。LVMを併用すれば選択肢は確かに増える(例:パーティションを 細かく切っても後悔せずにすむ自由とか)のだけど、構築ポリシと運用ポリシで そこは我慢(という程不満でもないけど)して、より少ない知識で動かせたほうが いいかなと。仕事じゃないし。
350 名前:login:Penguin mailto:sage [2007/10/25(木) 05:36:25 ID:a7PkADFx] > RAID+LVM時: > 新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す mdを新規に組むなら、わざわざLVMに追加しなくても良いのでは? 別個にLVM作成して、rsyncで。
351 名前:login:Penguin mailto:sage [2007/10/25(木) 11:57:18 ID:nruqF/xu] 使った事が無い奴に限ってあーだこーだ文句言うんだよな 単なる食わず嫌いだよ LVMが面倒くさいと思ったことは無いね
352 名前:login:Penguin mailto:sage [2007/10/25(木) 12:08:55 ID:D3bEYjzi] 仕事でUnixさわってりゃ、嫌でも使うもんだしなw
353 名前:login:Penguin [2007/10/25(木) 12:11:33 ID:OJWp8+U0] はいはい
354 名前:login:Penguin mailto:sage [2007/10/25(木) 19:23:40 ID:8UJAa78q] とりあえず LVM を使わずに4台を RAID5 にしようとしたが、 # mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 をやったあと、cat /proc/mdstat すると、 # cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid5 sda1[0] sdd1[4] sdc1[2] sdb1[1] 937705728 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_] [===>.................] recovery = 17.9% (56190968/312568576) finish=64.8min speed=65860K/sec となって、なぜか一台が fail 扱いになってリビルドが走っている。 しかも必ず途中でOSが固まってリセットせざるを得なくなる。 リセットすると、またリビルドが走る→OSが固まる。 ・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう ・なぜリビルドが最後までできないんだよう HDD、ほぼ新品で、Windows で使っていたときにはフォーマットまで終わったのに。 もう一度 fdisk からやりなおそうかな。
355 名前:login:Penguin mailto:sage [2007/10/26(金) 13:10:51 ID:2kfwd15n] >>354 >・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう これは、そういうもの。 前に何が書かれているか判らないから、最初に一回、 全部のブロックに対して辻褄合わせをする必要がある。 >・なぜリビルドが最後までできないんだよう こりゃ変だな。 ハードウエアかソフトがどっか壊れてるかも。
356 名前:login:Penguin mailto:sage [2007/10/26(金) 22:51:06 ID:2+3v138+] >>351 複雑な構成はトラブルの元だよ。仕事ならなおさら。 自分にしか迷惑かからないんなら別に問題ないけど。 分からなければ引き継ぎとかトラブルシューティングの苦労考えてみるといい。
357 名前:login:Penguin mailto:sage [2007/10/26(金) 23:39:11 ID:VCuGyTp8] >>350 rsync同期だと、同期作業中は停止(=他に何もできない)時間になる。 LVMレベルで掃き寄せれば、停止時間は壊れた(ことにした)旧ディスク抜く作業時間だけ。
358 名前:login:Penguin mailto:sage [2007/10/27(土) 00:11:21 ID:4ZTrW6oo] -> LVMに加入させ、新ディスクへファイルを掃き寄せる こんなこと出来たっけ。 lvcreateでpvを指定する?そもそもファイルシステムの拡張は? lvmあまり解かってないので〜
359 名前:login:Penguin mailto:sage [2007/10/27(土) 00:25:02 ID:US/tv6oE] つ pvmove
360 名前:login:Penguin mailto:sage [2007/10/27(土) 00:35:04 ID:4ZTrW6oo] 理解しました。 ありがとう。
361 名前:login:Penguin mailto:sage [2007/10/27(土) 07:28:26 ID:HMAtdp9w] >>354 最初からcleanなアレイ作るよりfail -> resyncする方が速いから嫌なら--force付けろ ってmanに書いてあるのに読まずにblogとかで騒いでるのたまにいるよね
362 名前:login:Penguin mailto:sage [2007/10/27(土) 18:22:59 ID:GzcOi8yc] ところで mdのパフォーマンスってあまり実測乗ってないよね www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.txt によると RAID-0 : パフォーマンスは N * P MB/s に近くなります。 RAID-1 : 読み込みのパフォーマンスは N * P に近い値になりますが、書きこみはデバイスが 1 台の場合と同等以下 RAID-5 : 読み書き両方ともにパフォーマンスは向上 などと書いてあって、新たな知見を得たというかなんというか・・・ これはあれか、RAID1の4台構成で、readだけはraid0並で無駄に強固なアレイ、とか作れるのかw というのはともかく、同時n本のアクセスでどの程度の速度出ますよグラフが見あたらない。 H/Wのボードだとたまに有るんだけど。RAID5の同時5本read程度なら速度落ちない体感はある。 mdでRAID10や5の詳細ベンチ結果落ちてたら教えてください。 # 「RAID-5 のための合理的な chunk-size は 128 KB ですが」とか書いてあって凹んだorz
363 名前:login:Penguin mailto:sage [2007/10/27(土) 20:25:18 ID:TpR9h4x8] >>362 RAID1だけど速くならないよ(下はHDD単体) # hdparm -tT /dev/md0 /dev/md0: Timing cached reads: 5944 MB in 2.00 seconds = 2975.51 MB/sec Timing buffered disk reads: 192 MB in 3.01 seconds = 63.84 MB/sec # hdparm -tT /dev/sdc /dev/sdc: Timing cached reads: 5888 MB in 2.00 seconds = 2947.58 MB/sec Timing buffered disk reads: 196 MB in 3.01 seconds = 65.11 MB/sec
364 名前:321 [2007/10/27(土) 20:38:03 ID:HbBH9mvu] >>362 たしかに、私もMTUと同じのノリでchunksizeを大きく設定してRAID5組んだら さっぱり速度が出なくてがっかりした。その後何度か変えてみた。 で、128KBより256KBのほうが、微妙に書き込みが速いと思って、そのまま使っている。 性能条件は、CPU1コアのHT無し環境だと、いろいろ条件は変わるだろうから CPU負荷を変えながら、テストできるツールがあるといいな。 ベンチマークオフ会やるにはRAID編成に時間かかるもんね。
365 名前:login:Penguin mailto:sage [2007/10/27(土) 20:45:42 ID:9wm9rUig] なんか、面白そうね。 俺もちょっとhdparmで速度測定してくる!
366 名前:365 mailto:sage [2007/10/27(土) 20:52:22 ID:9wm9rUig] # hdparm -tT /dev/md0 Timing cached reads: 2096 MB in 2.00 seconds = 1047.58 MB/sec Timing buffered disk reads: 318 MB in 3.01 seconds = 105.50 MB/sec # hdparm -tT /dev/sda Timing cached reads: 2168 MB in 2.00 seconds = 1084.36 MB/sec Timing buffered disk reads: 190 MB in 3.01 seconds = 63.03 MB/sec # hdparm -tT /dev/sdb Timing cached reads: 2368 MB in 2.00 seconds = 1184.16 MB/sec Timing buffered disk reads: 198 MB in 3.01 seconds = 65.68 MB/sec # hdparm -tT /dev/sdc Timing cached reads: 2348 MB in 2.00 seconds = 1174.73 MB/sec Timing buffered disk reads: 198 MB in 3.01 seconds = 65.83 MB/sec # hdparm -tT /dev/sdd Timing cached reads: 2812 MB in 2.00 seconds = 1406.45 MB/sec Timing buffered disk reads: 184 MB in 3.00 seconds = 61.26 MB/sec # hdparm -tT /dev/sde Timing cached reads: 2076 MB in 2.00 seconds = 1037.62 MB/sec Timing buffered disk reads: 160 MB in 3.00 seconds = 53.26 MB/sec # hdparm -tT /dev/sdf Timing cached reads: 3032 MB in 2.00 seconds = 1516.29 MB/sec Timing buffered disk reads: 190 MB in 3.03 seconds = 62.69 MB/sec md0の要素全てに試してみたけど、なぜかsdeだけが遅いぞ・・・? 死兆星が光ってる?
367 名前:362 mailto:sage [2007/10/28(日) 00:59:50 ID:71qYpNbN] すまぬ、引用が不十分ででした。そして503で書き込めない間に長文化 「Read performance is good, especially if you have multiple readers or seek-intensive workloads. The RAID code employs a rather good read-balancing algorithm, that will simply let the disk whose heads are closest to the wanted disk position perform the read operation.」 ということで、複数同時readとかrandom readで速くなるよ、ということらしい>RAID1 で、hdparm -T & だとたぶんキャッシュに乗ってしまうと思うし、ddか何かを同時数本走らせるか、rreadするプログラムが必要かもしれない。 計測方法の定番が無いあたりが1つ目の問題のような・・・ chunk sizeや/procのstripe_cache_sizeやqueue/schedulerも実験してみたいんだけど、シーケンシャルreadなベンチじゃ効果が見えんです。 >>364 おお、実験されましたか。 Win系のように(良くも悪くも)デファクトなベンチツールが有るといいんですが。 timeと簡単スクリプトで、と思ったけど意外に難しく断念w ディスク空き容量がデカければ巨大ファイル作って好きにseek発生出来るんですが、/dev直はなんか怖いっす。 どうなんでしょ、/dev/md0にrreadするだけなんですがどなたか書けますか?
368 名前: ◆Zsh/ladOX. mailto:sage [2007/10/28(日) 02:27:22 ID:DiHVZTpi] 過去スレでmdのチューニングの話が出てたお
369 名前:321 [2007/10/28(日) 21:46:34 ID:PihVE9KW] hdbenchクローンはあるんよね。 ただ、コンパイルできない時に、どうしたらいいのか戸惑ったりもする。 今、メインとノートのVine4.1環境にはhdbench入れてあるけど 新造のVine4.0のままのRAID5機ではコンパイルエラーで後回しになってる。 hdbenchのためにファイルサーバー機にXも入れといたのにさ。 GbEごしにhdbenchで見ても、GbEのドライバーがボトルネックの状況だし…
370 名前:login:Penguin mailto:sage [2007/10/28(日) 23:11:58 ID:8YMFjw47] hdparm の実行例が、たとえば >>366 にあるが、シーケンシャルリードだけなのかな? 適当にぐぐると、iozone、bonnie++ をみつけたが(そういえば聞いたことがあるな) 妥当かどうかはよくわからない。
371 名前:login:Penguin mailto:sage [2007/10/28(日) 23:30:15 ID:PnOUhN2H] 方々で見かけるし、bonnie++かなぁ。 うちの宅鯖も測り直したいが、クローラのデータエリアとして 24h稼働中なんでなかなか止められない……
372 名前:362 mailto:sage [2007/10/30(火) 00:00:50 ID:1HogexSN] ざっと走らせてみたものの bonnie++ これってFSとかキャッシュ・・・syncなオプションを使えと言うことか。 出力結果がややこい dbench クライアントの挙動をsimったプロセス数を指定、みたいな。 dbench NでNに1〜30あたりまで放り込んでみるとRAIDらしさが・・・出てないな。-sS必須か。 何故かシングルドライブの方が速い。わからねえ。Verによって挙動違うし。tbenchはまだ読んでない。 stress cpu,mem,io,disk等に分けてN fork。でもベンチにならんよねこれ tiobench Nスレッドでベーシックなディスクベンチ。これが一番いいかも。問題は使い方がよくわから(ry LatencyやCPU使用率の一覧比較を出してくれて便利。 その他 apt-cache search benchmark
373 名前:login:Penguin mailto:sage [2007/10/30(火) 09:07:47 ID:34EF8s3m] postmarkがおすすめ。 ただディスクベンチではなくファイルシステムベンチマークだけど・・・ 同じファイルシステムを使っていれば相互比較はできるはず。
374 名前:login:Penguin mailto:sage [2007/10/30(火) 10:05:05 ID:D9D8Yw5C] postmarkはZFS専用。 まぁ同じベンチソフト使っていれば、ファイルシステム間での 比較はできるけどな。 ベンチマークソフトによって特定のファイルシステムで 特別性能がよかったり悪かったりするから、 何をベンチするか考えてから。
375 名前:login:Penguin mailto:sage [2007/11/01(木) 12:34:00 ID:7nciWttU] >>366 同一モデルでプラッタ容量違いの外れを引いただけ。
376 名前:login:Penguin mailto:sage [2007/11/01(木) 13:12:38 ID:62ZK10ox] >>366 # hdparm -tT /dev/md0 Timing cached reads: 1834 MB in 2.00 seconds = 916.99 MB/sec Timing buffered disk reads: 400 MB in 3.00 seconds = 133.12 MB/sec # hdparm -tT /dev/sdb Timing cached reads: 1834 MB in 2.00 seconds = 916.90 MB/sec Timing buffered disk reads: 220 MB in 3.01 seconds = 73.18 MB/sec # hdparm -tT /dev/sdc Timing cached reads: 1824 MB in 2.00 seconds = 912.33 MB/sec Timing buffered disk reads: 224 MB in 3.02 seconds = 74.08 MB/sec # hdparm -tT /dev/sdd Timing cached reads: 1822 MB in 2.00 seconds = 910.65 MB/sec Timing buffered disk reads: 224 MB in 3.01 seconds = 74.34 MB/sec # hdparm -tT /dev/sde Timing cached reads: 1842 MB in 2.00 seconds = 920.98 MB/sec Timing buffered disk reads: 200 MB in 3.02 seconds = 66.24 MB/sec # hdparm -tT /dev/sdf Timing cached reads: 1822 MB in 2.00 seconds = 910.41 MB/sec Timing buffered disk reads: 216 MB in 3.02 seconds = 71.42 MB/sec # hdparm -tT /dev/sdg Timing cached reads: 1820 MB in 2.00 seconds = 909.65 MB/sec Timing buffered disk reads: 224 MB in 3.01 seconds = 74.47 MB/sec # hdparm -tT /dev/sde Timing cached reads: 1820 MB in 2.00 seconds = 910.07 MB/sec Timing buffered disk reads: 222 MB in 3.02 seconds = 73.51 MB/sec というわけでたまたまじゃない? もっかいやってみれば?
377 名前:login:Penguin mailto:sage [2007/11/01(木) 14:01:44 ID:1iefkY+v] >>366 シングルユーザモードで起動してますよね? 通常だとデーモンとか動いて、20-30%は簡単に変わるので。。。
378 名前:366 mailto:sage [2007/11/01(木) 18:47:22 ID:Gt+V+zuD] たくさんのレスありがとうです。 たまたまかもしれませんし。 フツーにマルチでやってたんで、今度シングルで試してみます〜。
379 名前:login:Penguin mailto:sage [2007/11/02(金) 04:20:45 ID:QaC2YeMr] CentOS5でインストールの段階でmdadmを使用してHDD2台(sda,sdbとして)をRAID1に設定した後に、 片方が破損して取り外したという仮定をして実験をしてみたんですが、 HDD1台(sda)で起動させようとすると「GRUB Hard Disk Error」で止まるorz もう一台(sdb)だけを繋いで起動すると普通に起動してくるんだけど、何故だろう。 2台繋いだ状態で起動して、sdaに # /sbin/grub-install /dev/sda としても状態変わらず。 接続ポート入れ替えてもダメでした。 パーティション情報や grub.conf も晒した方が良いなら晒します。 誰か分かる方いたらご教示下さい。
380 名前:379 mailto:sage [2007/11/02(金) 06:02:03 ID:QaC2YeMr] 自己解決? なんとなくGRUBに直接どちらからでも起動できるように書いてやればいい気がしてきた。 今シンク中なので終わったらやってみます。
381 名前:login:Penguin mailto:sage [2007/11/02(金) 06:29:50 ID:oty1mOnF] >>381 DOSのブートローダをいれて、 両方のHDDでブートパーティションをアクティブに設定、とか。
382 名前:login:Penguin mailto:sage [2007/11/02(金) 11:11:28 ID:7sg8THe2] 0x80と認識されるか0x81と認識されるのかでブートコードが違う必要がある
383 名前:379 mailto:sage [2007/11/02(金) 18:53:15 ID:QaC2YeMr] 遅くなりましたが出来ました。 >>381 さんの手も良いかなと思ったのですが、以下のような感じでOKでした。 # grub grub> root (hd0,0) grub> setup (hd0) grub> root (hd1,0) grub> setup (hd1) こんな感じでどちらからも起動できるようにしたら一発。 grub-install では、こういう風には入力されないんですね。
384 名前:login:Penguin mailto:sage [2007/11/03(土) 02:06:07 ID:toJHQDFC] Linux で 3ware 9550SX-8LP を RAID 5で使ってるんですが、 既に作られてるユニットの容量をCLIで変更する方法をどなたか教えていただけないでしょうか。 現在以下のように 500GB×3 + spare という状態です。 Unit UnitType Status %Cmpl Stripe Size(GB) Cache AVerify IgnECC ------------------------------------------------------------------------------ u0 RAID-5 OK - 64K 931.303 ON OFF OFF u1 SPARE OK - - 465.753 - OFF - Port Status Unit Size Blocks Serial --------------------------------------------------------------- p0 OK u0 465.76 GB 976773168 H8****** p1 OK - 465.76 GB 976773168 9Q****** p2 OK u0 465.76 GB 976773168 H8****** p3 OK u0 465.76 GB 976773168 H8****** p4 OK u1 465.76 GB 976773168 9Q****** p5 NOT-PRESENT - - - - p6 NOT-PRESENT - - - - p7 NOT-PRESENT - - - - このu0 に使われていない p1を足して p0-3で 500GB×4 + spareにしたいのです。 CLIのマニュアル(P.62)に従って # tw_cli /c0/u0 migrate type=raid5 disk=0-3 とやってみたのですが、 Error: (CLI:008) Invalid ID specified. Found a specified ID is already in use. とエラーになってしまいます。 何がまずいのでしょう?
385 名前:login:Penguin mailto:sage [2007/11/03(土) 22:23:32 ID:rg+D7DYl] >>384 RAID再構築
386 名前:login:Penguin mailto:sage [2007/11/04(日) 04:56:40 ID:QRh/db2g] >>385 japan.3ware.com/products/serial_ata2.asp 3ware 9550SXの特徴 オンライン容量増設および RAID レベルマイグレーション機能搭載
387 名前:login:Penguin [2007/11/04(日) 15:41:59 ID:cbkyEPJh] HDL4-G1.0を買ってルーターに問題なく接続できました。共有はMICROSOFT式にして XPの方ではドライブを割り当てしました。XPからのコピーや読み取りは問題 なかったです。Linuxでは、Sambaでマウントして、色々試してみたら読み取りでも コピーでもXPの倍ぐらいになった。1.2Gbぐらいのファイルはなんと8分かかる場合 ありました。50GbのMP3フォルダーはAmarokでスキャンしようとしたら一晩中 やってもおきたら22%しか読めなかったです。 本体のBiosには変な設定あるかな。このハードで経験がある人がいたら 手伝ってください。
388 名前:login:Penguin mailto:sage [2007/11/04(日) 17:09:06 ID:eI5sYsvU] これのどこがRAIDの話題なんだ? (もしかしてマルチ?)
389 名前:login:Penguin [2007/11/04(日) 17:26:28 ID:cbkyEPJh] ごめん、マルチでないです。 RAID設定が原因になっているかと思って。書き忘れてすみませんでした。 初期設定のRAID5です。そんなに重くならないはずでしょう? RAIDよりSAMBAだと思うけど、LINUX→RAIDなしのXPへの書き込みは 遅くならないで。
390 名前:321 mailto:sage [2007/11/05(月) 14:37:32 ID:bQ+V7ACj] うちも、HDL4-G1.0が遅くて、放棄作業中。 その放棄作業(つまり新規PC RAID5 serverへのファイル転送)が 通信途絶頻発で難航しているほど。 Linuxからの接続で、必要な設定変更はあるのかもしれないけど これといった情報は見つかっていないし、RAID5やっていく上で (HDD4機の発熱とCPU発熱の比率とか)RAID5 NASに魅力を感じなくなった。 …そっか、見たらLinux板にはSambaスレ無いのな。 UNIX板にあるみたいだから、ヲレも調べてみるか… あと、HDL4担当のスレはハードウェア板にある。
391 名前:login:Penguin mailto:sage [2007/11/05(月) 21:06:17 ID:6eGjWErn] >>387 もう少し整理してわかりやすく書こうや ・何が問題なのか ・何をどうやったら問題が起きたのか ・他に何を試したのか ・その他、主観で気になること >>390 の状況も加味すると、「窓から投げ捨てろ」で一蹴されるのがオチだぞ
392 名前:384 mailto:sage [2007/11/07(水) 12:34:29 ID:j1cRifCj] その後の報告。 月曜朝サポートが動き出したところで電話して聞きました。 どうもマニュアルの記述が間違っているようで、RAIDを構成するドライブを全部指定するのではなく、 新たに追加するドライブだけを記述するのが正解らしい。 >>384 の場合、tw_cli /c0/u0 migrate type=raid5 disk=1 で桶、と。 実行にどれくらい時間がかかるのか聞いてみたところ「おおよそ1GBあたり1分」との返事。 1.5TBだと1500分……25時間かよっ!! とゆーことで、月曜夜から実行したら今朝がたようやく終わりました。約28時間。 バックグラウンド動作だからいいんだけど。
393 名前:384 mailto:sage [2007/11/07(水) 12:36:06 ID:j1cRifCj] さて、無事 1.5TBになったのですが、今度はパーティションを拡張しなけりゃいけません。 Partedを使う予定なのですが、これがどのくらい時間がかかるかご存じの方いらっしゃいませんか? GParted等でもいいのですが、実際にやったことのある方で、××GB→○○GBのサイズ変更が 約△△時間かかった、など実例を教えて頂けるとありがたいのですが。 パーティションサイズの変更は、当然 unmountしないとできないんで、どれくらいの時間 利用不能になるのか見当をつけておきたいのです。 数時間〜半日程度なら夜間にやれば問題ないけど、丸一日以上とかって話なら代替ドライブを 用意しないといけないので。 くだ質の方で聞いたのだけど、有意な返答を得られませんでした。 こちらの方がこういった処理を経験した方が多そうなので、いささかスレ違いではありますが よろしくお願いします。
394 名前:login:Penguin mailto:sage [2007/11/07(水) 12:55:52 ID:ZtZ/usYi] >>393 だれも普通そんなことしないから、有意な回答なんて得られない。 普通はlvm+xfsで一瞬
395 名前:login:Penguin mailto:sage [2007/11/07(水) 13:15:20 ID:RKolPaG2] よく喋るやっちゃ たいていの場合>>394 かmdadmでgrow。どちらも君の構成じゃ使えん。
396 名前:login:Penguin mailto:sage [2007/11/07(水) 18:15:39 ID:n5tC8Tis] ハードウェアRAIDを使うのが普通ではないという意見は あまり普通ではないと思うが。 ハードウェアRAID使ってて、容量不足になったとき その機能があれば、容量の拡張も普通にするんでね?
397 名前:login:Penguin mailto:sage [2007/11/07(水) 20:23:33 ID:yncetdk8] 実際答える奴いないじゃん。やってることがマイナーすぎて。
398 名前:login:Penguin mailto:sage [2007/11/07(水) 21:53:15 ID:o+RGikEz] >>395 fsの話とブロックデバイスの話がごっちゃになってるぞお前
399 名前:login:Penguin mailto:sage [2007/11/07(水) 22:49:11 ID:7ekDkmZj] >>396 真のハードウェアRAIDならもちろん普通に使うけど、問題は ディスクにRAID BIOSが書き込んだ構成情報をOSが読んで認識しないと いけないとか、実はCPUがRAID処理してます、とかのエセHardwareRAIDが 世の中多すぎ(なんちゃってRAIDカード群の大多数)。 そういう「なんちゃってHW」を使うと性能はよくないわ、別カードへの 可搬性がないわで最悪なので、カーネル側のMD使うのが常識ってだけでは。 真のHW-RAID >>> Linux MD >>>越えられない壁>>> なんちゃってHW-RAID という感じになるのかな。
400 名前:login:Penguin mailto:sage [2007/11/07(水) 23:02:05 ID:ZtZ/usYi] >>399 まぁ3ware 9550SX-8LPは真のHW RAIDカードだけど、 多機能になればなるほど、こなれてない機能が多い訳で、 例えばマニュアルの誤記のように問題に当たりやすい。 だから、デフォルト以上のこと(RAID5にスペア1本)を やらせるのはお勧めしない。やるなら検証してからで、 間違っても本番データを運用したままやらない。
401 名前:login:Penguin mailto:sage [2007/11/08(木) 10:19:08 ID:3bsJieVy] >398 なんでブロックデバイスの話が出るんだ? パーティションとかボリュームなら言いたいことは理解できなくもないが それでもごっちゃにはなってないし…
402 名前:login:Penguin mailto:sage [2007/11/08(木) 12:55:16 ID:0yMQ2DaJ] 今使っている分の後ろに空きブロックが増えるだけじゃないの? 1パーティションに拘らなければ、lvmでなんとかなるべ。
403 名前:login:Penguin [2007/11/08(木) 20:27:40 ID:IZN1X0G5] raid1 grub> device (hd0) /dev/hdb grub> root (hd0,0) grub> install /grub/stage1 (hd0) /grub/stage2 p /grub/grub.conf で hda差し替えてをリビルドした後にこんどは hda のみでで起動できるの?
404 名前:login:Penguin [2007/11/08(木) 21:27:48 ID:IZN1X0G5] hda から起動できず、結局またリビルド 今度は grub> device (hd0) /dev/hda grub> root (hd0,0) grub> setup (hd0) したけど Kernel Panic になります。
405 名前:login:Penguin [2007/11/08(木) 21:56:35 ID:IZN1X0G5] md0 (boot) と md1 (/とswap)両方リビルドして リブートしたら直った^^ よかった。 さっきは md0だけリビルドしてブートしたからパニックになっただけかも。
406 名前:login:Penguin mailto:sage [2007/11/08(木) 23:31:13 ID:13192VKA] ここはお前の日記帳じゃねえんだ
407 名前:login:Penguin mailto:sage [2007/11/11(日) 14:42:23 ID:Kss4jt32] 今回初めて160GBx2でRAID0を組んでみようと思うんですが、単体HDDでの使用だとパーテはC:Dと切れたんですが RAID0で2つのHDDを使うと1つのHDDとして見えますが、これにはパーテ切れるんでしょうか?
408 名前:login:Penguin mailto:sage [2007/11/11(日) 14:58:54 ID:EBagQV5F] > パーテはC:D Windows板にカエレ
409 名前:login:Penguin mailto:sage [2007/11/11(日) 14:59:41 ID:aTKX43hi] md使うんだよな? 1日色々勉強してみて
410 名前:login:Penguin [2007/11/15(木) 13:43:28 ID:Ay00Jbql] すいません、質問させてください。 arecaのarc-1120使ってるんですけどconfigを保存することってできますか? raidの設定コンフィグなんてものはないですか? 壊れたので同じものを買って入れ替えたいんです。
411 名前:login:Penguin mailto:sage [2007/11/15(木) 14:00:49 ID:kt6gqmw9] 修理したら?新規に買うより安くなるはずだが
412 名前:login:Penguin mailto:sage [2007/11/15(木) 15:24:02 ID:wCvoExs2] 修理だと時間かかるじゃん。 areca使ってないけど、興味あったんでマニュアル見てみたけど、 設定のファイルへの書き出し/読み込みなんて機能はなさそ。 ただ、設定つーても、使うドライブの登録とRAID Levelくらいなもんじゃないの? あとはビープを鳴らす・鳴らさないとか管理者パスワードの登録くらいか。 ゼロからやっても数分で終わりそうだけど。 毎回やるのが面倒だと思ったらCLIで作業して、バッチ化しておくとか。 既に作られてるRAIDボリュームは正常だったら(普通は)設定後そのまま認識されると思うけど、 不安だったらサポートに聞いてみた方がいいと思うよ。 このスレ、最近はソフトウェアRAIDマンセーの人がほとんどだし。
413 名前:login:Penguin mailto:sage [2007/11/15(木) 18:00:18 ID:Ay00Jbql] >>411 ,412 ありがとうございます。 save configとかそういう項目ないのでやっぱりないんですかね。 一応サポートにも連絡してみます。
414 名前:login:Penguin mailto:sage [2007/11/16(金) 01:17:15 ID:1eXgzPsD] RAIDボリュームの情報はHDD側に持つものもあるし、 実装次第だと思う なんで、サポに聞くのが一番いいね
415 名前:login:Penguin mailto:sage [2007/11/17(土) 14:53:05 ID:1ihUsYxQ] RAID 1 はリード性能が向上するというイメージがあったのに mdadm で RAID 1 化した HDD はリード性能が微妙に下がってるんだよね…
416 名前:login:Penguin mailto:sage [2007/11/17(土) 17:14:37 ID:1ihUsYxQ] >>368 kwsk
417 名前:login:Penguin mailto:sage [2007/11/18(日) 01:00:05 ID:YtGpqr3X] なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。
418 名前:login:Penguin mailto:sage [2007/11/18(日) 01:09:55 ID:32uNERa2] そんなに知恵が足りない事をひけらかさなくてもいいのに
419 名前:login:Penguin mailto:sage [2007/11/18(日) 02:39:12 ID:HcFap/DP] 確かに知識というか知恵があれば分かるよなあ… >なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。 2 台の HDD でミラーリングしてる場合 両方の HDD から並列に別のデータを読めるから
420 名前:login:Penguin mailto:sage [2007/11/18(日) 03:14:37 ID:31wlS8LP] > 2 台の HDD でミラーリングしてる場合 > 両方の HDD から並列に別のデータを読めるから これぢゃ、こわれててもわかんないんじゃないかな
421 名前:login:Penguin mailto:sage [2007/11/18(日) 03:24:33 ID:7DZoPkDC] なぜそんな話に飛躍する? しかも意味が分からん。 RAID1で1台壊れて読めなくなってどうする? RAIDの障害はsnmpやメールで通知するんだよ。
422 名前:login:Penguin mailto:sage [2007/11/18(日) 05:35:44 ID:HcFap/DP] >>420 セクタ単位のデータ破損を言ってる? そうだとしたら、どちらにせよ RAID 1 じゃデータは救えんよ 2 台の HDD のセクタが不一致だとして、どちらのセクタが正しいと信じるんだい?
423 名前:login:Penguin mailto:sage [2007/11/18(日) 10:15:29 ID:w3f8FT8B] >>417 man md してから書けよ Changes are written to all devices in parallel. Data is read from any one device. The driver attempts to distribute read requests across all devices to maximise performance. 上の方で同時アクセス数云々のベンチがあったが、確かにRAID1でも耐久力有りそうだな >>420 お前の脳内でRAID1ならどうやって片方が壊れてると判断できるのか教えてくれw それともドライブ3台以上が前提か? 予め言っておくがRAID5でも一致確認してません、よー
424 名前:login:Penguin mailto:sage [2007/11/18(日) 10:44:16 ID:KXIawyII] 元の >417 がイタイのはおいといて >422 普通は HDD 内部でエラーチェックで救いきれないという状態になって バケデータを吐くのでなくエラー通知をしてくるから どちらを信じればいいかは分かる そうならなかったとしたら相当運が悪いので どのみち生きていても仕方ない…
425 名前:login:Penguin mailto:sage [2007/11/18(日) 10:56:59 ID:w3f8FT8B] ハードのパリティを信用するかどうかってことで現状は使うハード次第だわな 安価ハードを信頼性向上目的でソフトで多重化チェックすると最低3倍構成になるからペイしないんだろうなぁ ところで3といえば、3ドライブでRAID10やってみた報告がそろそろ欲しいな。既出?
426 名前:login:Penguin mailto:sage [2007/11/18(日) 11:28:10 ID:/HzRs9GI] 2台構成だとセクタ単位以下の信頼性は下位層に依存、 それ以上の信頼性がほしい場合は3台構成で自前チェックって感じか。 銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な 場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ
427 名前:login:Penguin mailto:sage [2007/11/18(日) 12:24:10 ID:JtepkghF] 下位層でできないことは上位層でやればいい、っていこうとでは? ということで、ZFSドゾー
428 名前:login:Penguin mailto:sage [2007/11/18(日) 16:20:10 ID:HcFap/DP] >銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な >場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ 発注先とかソフトウェア部分も多数決な
429 名前:3台 mailto:sage [2007/11/18(日) 17:54:46 ID:KXIawyII] メルキオール、バルタザール、カスパー… ごめんなさいごめんなさいごめんなさい
430 名前:login:Penguin mailto:sage [2007/11/19(月) 03:13:03 ID:+PzRhB/C] 蒸し返すようだけど、ハードウェアRAID(fake raid ではなく)の場合、 RAID 1 にしても、read のときは双方のHDDから読み込みをやっているわけではないと思う。 5年ぐらい前、Escalade 7210 と HGST 180GXP で RAID0 と RAID1 のアレイを組んで それぞれベンチを図ってみたが、RAID0 と RAID1 で同じ読み込み速度にはならなかった。 members.jcom.home.ne.jp/makky55/raid0-test1.gif members.jcom.home.ne.jp/makky55/raid1-test1.gif md の場合は、>>423 にあるとおり RAID1 の場合は内部で双方のHDDから読み込みをやっている ようだけどね。
431 名前:login:Penguin mailto:sage [2007/11/19(月) 04:36:45 ID:YZqmzVs9] >>427 > 下位層でできないことは上位層でやればいい、っていこうとでは? それ結局意味ないから。 RAIDは各セクタが完全に読めるか全く読めないかどちらかであることを仮定してる。 通常、パリティはセクタより小さい単位のエラー検出には使われず、セクタ単位の エラーが検出された後データ再生成に使われる実装になってる。全部かどうかは知らん。 セクタエラーとして検出されないセクタ未満のデータ破損については多数決方式で エラー訂正する以外になくて、結局、起源の異なる(パリティによる補完関係にない) セクタが最低3つ必要になる。それは下位層でやろうと上位層でやろうと変わりない。 もちろんZFSなら2台構成のうえで仮想ブロック1つに実ブロックを3つ以上割り当てる こともできるけど、それじゃRAIDの意味ない。
432 名前:login:Penguin mailto:sage [2007/11/19(月) 15:57:45 ID:1xeYiL1w] >>430 実装による。シーケンシャルなread1本時の挙動と、同2本や10本の速度も測ってみると良い。 ついでだからmdでRAID10組むときのnear/far/offsetのあたりも理解しておくとよい>仕組みと読み込み速度 en.wikipedia.org/wiki/Standard_RAID_levels#RAID_1_performance en.wikipedia.org/wiki/Non-standard_RAID_levels#Linux_MD_RAID_10 // 日本語wikipediaは酷いなぁ
433 名前:login:Penguin mailto:sage [2007/11/19(月) 19:28:24 ID:LSsBOoW2] >>430 3wareにだってかつてTwinStorという名前で実装していたのがあってな(ry
434 名前:417 mailto:sage [2007/11/20(火) 14:41:38 ID:WUpQPj2Z] イタイ417だけど ああ、ここって特定のソフトウェアレイド前提なのね。話通じないはずだ。 定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で 本来は片方からしか読まないよ。そういう拡張された実装って部分的にはあるけど 全面的なやつは珍しいかも。 (そのmdって両方読むのね?よく知らんけど。実際はRAID0+1みたいなかんじ?) だからそういった意味ではRAID1で高速化するってありえないよ。 RAID0かぶせない限りはね。 >>430 ,432が正解だと思う。 わたしゃ高速化のためにRAID0使用中だよ。リスキーでも倍速w
435 名前:login:Penguin mailto:sage [2007/11/20(火) 14:42:39 ID:6fbP/JrB] アイタタタタタタタタw
436 名前:login:Penguin mailto:sage [2007/11/20(火) 15:44:28 ID:+5gXhNB9] あたああああああああ
437 名前:login:Penguin mailto:sage [2007/11/20(火) 16:12:43 ID:6fbP/JrB] あーあ そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに そもそも最初にRAIDを提唱した1988年の論文でも RAID1でread性能が向上する事が指摘されてるんだよね