[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 2chのread.cgiへ]
Update time : 03/25 17:52 / Filesize : 300 KB / Number-of Response : 996
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

RAID総合スレッド No.3



1 名前:login:Penguin [2007/01/11(木) 12:55:58 ID:rL+q6m/Y]
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.co.jp/product/raid/os_support_list.html

Linux EVMS 一般
ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html
ttp://evms.sourceforge.net/

... あと続けてくらさい。

351 名前:login:Penguin mailto:sage [2007/10/25(木) 11:57:18 ID:nruqF/xu]
使った事が無い奴に限ってあーだこーだ文句言うんだよな
単なる食わず嫌いだよ
LVMが面倒くさいと思ったことは無いね

352 名前:login:Penguin mailto:sage [2007/10/25(木) 12:08:55 ID:D3bEYjzi]
仕事でUnixさわってりゃ、嫌でも使うもんだしなw


353 名前:login:Penguin [2007/10/25(木) 12:11:33 ID:OJWp8+U0]
はいはい

354 名前:login:Penguin mailto:sage [2007/10/25(木) 19:23:40 ID:8UJAa78q]
とりあえず LVM を使わずに4台を RAID5 にしようとしたが、

# mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1

をやったあと、cat /proc/mdstat すると、

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sda1[0] sdd1[4] sdc1[2] sdb1[1]
   937705728 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
   [===>.................] recovery = 17.9% (56190968/312568576) finish=64.8min speed=65860K/sec

となって、なぜか一台が fail 扱いになってリビルドが走っている。
しかも必ず途中でOSが固まってリセットせざるを得なくなる。
リセットすると、またリビルドが走る→OSが固まる。

・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう
・なぜリビルドが最後までできないんだよう

HDD、ほぼ新品で、Windows で使っていたときにはフォーマットまで終わったのに。
もう一度 fdisk からやりなおそうかな。



355 名前:login:Penguin mailto:sage [2007/10/26(金) 13:10:51 ID:2kfwd15n]
>>354
>・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう

これは、そういうもの。
前に何が書かれているか判らないから、最初に一回、
全部のブロックに対して辻褄合わせをする必要がある。

>・なぜリビルドが最後までできないんだよう
こりゃ変だな。
ハードウエアかソフトがどっか壊れてるかも。


356 名前:login:Penguin mailto:sage [2007/10/26(金) 22:51:06 ID:2+3v138+]
>>351
複雑な構成はトラブルの元だよ。仕事ならなおさら。
自分にしか迷惑かからないんなら別に問題ないけど。
分からなければ引き継ぎとかトラブルシューティングの苦労考えてみるといい。


357 名前:login:Penguin mailto:sage [2007/10/26(金) 23:39:11 ID:VCuGyTp8]
>>350
rsync同期だと、同期作業中は停止(=他に何もできない)時間になる。
LVMレベルで掃き寄せれば、停止時間は壊れた(ことにした)旧ディスク抜く作業時間だけ。

358 名前:login:Penguin mailto:sage [2007/10/27(土) 00:11:21 ID:4ZTrW6oo]
-> LVMに加入させ、新ディスクへファイルを掃き寄せる

こんなこと出来たっけ。
lvcreateでpvを指定する?そもそもファイルシステムの拡張は?
lvmあまり解かってないので〜

359 名前:login:Penguin mailto:sage [2007/10/27(土) 00:25:02 ID:US/tv6oE]
つ pvmove



360 名前:login:Penguin mailto:sage [2007/10/27(土) 00:35:04 ID:4ZTrW6oo]
理解しました。
ありがとう。

361 名前:login:Penguin mailto:sage [2007/10/27(土) 07:28:26 ID:HMAtdp9w]
>>354
最初からcleanなアレイ作るよりfail -> resyncする方が速いから嫌なら--force付けろ
ってmanに書いてあるのに読まずにblogとかで騒いでるのたまにいるよね


362 名前:login:Penguin mailto:sage [2007/10/27(土) 18:22:59 ID:GzcOi8yc]
ところで mdのパフォーマンスってあまり実測乗ってないよね

www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.txt
によると
RAID-0 : パフォーマンスは N * P MB/s に近くなります。
RAID-1 : 読み込みのパフォーマンスは N * P に近い値になりますが、書きこみはデバイスが 1 台の場合と同等以下
RAID-5 : 読み書き両方ともにパフォーマンスは向上
などと書いてあって、新たな知見を得たというかなんというか・・・
これはあれか、RAID1の4台構成で、readだけはraid0並で無駄に強固なアレイ、とか作れるのかw

というのはともかく、同時n本のアクセスでどの程度の速度出ますよグラフが見あたらない。
H/Wのボードだとたまに有るんだけど。RAID5の同時5本read程度なら速度落ちない体感はある。
mdでRAID10や5の詳細ベンチ結果落ちてたら教えてください。


# 「RAID-5 のための合理的な chunk-size は 128 KB ですが」とか書いてあって凹んだorz

363 名前:login:Penguin mailto:sage [2007/10/27(土) 20:25:18 ID:TpR9h4x8]
>>362
RAID1だけど速くならないよ(下はHDD単体)

# hdparm -tT /dev/md0
/dev/md0:
Timing cached reads: 5944 MB in 2.00 seconds = 2975.51 MB/sec
Timing buffered disk reads: 192 MB in 3.01 seconds = 63.84 MB/sec

# hdparm -tT /dev/sdc
/dev/sdc:
Timing cached reads: 5888 MB in 2.00 seconds = 2947.58 MB/sec
Timing buffered disk reads: 196 MB in 3.01 seconds = 65.11 MB/sec

364 名前:321 [2007/10/27(土) 20:38:03 ID:HbBH9mvu]
>>362
たしかに、私もMTUと同じのノリでchunksizeを大きく設定してRAID5組んだら
さっぱり速度が出なくてがっかりした。その後何度か変えてみた。
で、128KBより256KBのほうが、微妙に書き込みが速いと思って、そのまま使っている。

性能条件は、CPU1コアのHT無し環境だと、いろいろ条件は変わるだろうから
CPU負荷を変えながら、テストできるツールがあるといいな。

ベンチマークオフ会やるにはRAID編成に時間かかるもんね。


365 名前:login:Penguin mailto:sage [2007/10/27(土) 20:45:42 ID:9wm9rUig]
なんか、面白そうね。
俺もちょっとhdparmで速度測定してくる!

366 名前:365 mailto:sage [2007/10/27(土) 20:52:22 ID:9wm9rUig]
# hdparm -tT /dev/md0
Timing cached reads: 2096 MB in 2.00 seconds = 1047.58 MB/sec
Timing buffered disk reads: 318 MB in 3.01 seconds = 105.50 MB/sec

# hdparm -tT /dev/sda
Timing cached reads: 2168 MB in 2.00 seconds = 1084.36 MB/sec
Timing buffered disk reads: 190 MB in 3.01 seconds = 63.03 MB/sec

# hdparm -tT /dev/sdb
Timing cached reads: 2368 MB in 2.00 seconds = 1184.16 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.68 MB/sec

# hdparm -tT /dev/sdc
Timing cached reads: 2348 MB in 2.00 seconds = 1174.73 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.83 MB/sec

# hdparm -tT /dev/sdd
Timing cached reads: 2812 MB in 2.00 seconds = 1406.45 MB/sec
Timing buffered disk reads: 184 MB in 3.00 seconds = 61.26 MB/sec

# hdparm -tT /dev/sde
Timing cached reads: 2076 MB in 2.00 seconds = 1037.62 MB/sec
Timing buffered disk reads: 160 MB in 3.00 seconds = 53.26 MB/sec

# hdparm -tT /dev/sdf
Timing cached reads: 3032 MB in 2.00 seconds = 1516.29 MB/sec
Timing buffered disk reads: 190 MB in 3.03 seconds = 62.69 MB/sec

md0の要素全てに試してみたけど、なぜかsdeだけが遅いぞ・・・?
死兆星が光ってる?

367 名前:362 mailto:sage [2007/10/28(日) 00:59:50 ID:71qYpNbN]
すまぬ、引用が不十分ででした。そして503で書き込めない間に長文化
「Read performance is good, especially if you have multiple readers or seek-intensive workloads.
 The RAID code employs a rather good read-balancing algorithm, that will simply let the disk
 whose heads are closest to the wanted disk position perform the read operation.」
ということで、複数同時readとかrandom readで速くなるよ、ということらしい>RAID1
で、hdparm -T & だとたぶんキャッシュに乗ってしまうと思うし、ddか何かを同時数本走らせるか、rreadするプログラムが必要かもしれない。
計測方法の定番が無いあたりが1つ目の問題のような・・・
chunk sizeや/procのstripe_cache_sizeやqueue/schedulerも実験してみたいんだけど、シーケンシャルreadなベンチじゃ効果が見えんです。

>>364
おお、実験されましたか。
Win系のように(良くも悪くも)デファクトなベンチツールが有るといいんですが。
timeと簡単スクリプトで、と思ったけど意外に難しく断念w
ディスク空き容量がデカければ巨大ファイル作って好きにseek発生出来るんですが、/dev直はなんか怖いっす。
どうなんでしょ、/dev/md0にrreadするだけなんですがどなたか書けますか?

368 名前: ◆Zsh/ladOX. mailto:sage [2007/10/28(日) 02:27:22 ID:DiHVZTpi]
過去スレでmdのチューニングの話が出てたお

369 名前:321 [2007/10/28(日) 21:46:34 ID:PihVE9KW]
hdbenchクローンはあるんよね。

ただ、コンパイルできない時に、どうしたらいいのか戸惑ったりもする。
今、メインとノートのVine4.1環境にはhdbench入れてあるけど
新造のVine4.0のままのRAID5機ではコンパイルエラーで後回しになってる。

hdbenchのためにファイルサーバー機にXも入れといたのにさ。
GbEごしにhdbenchで見ても、GbEのドライバーがボトルネックの状況だし…




370 名前:login:Penguin mailto:sage [2007/10/28(日) 23:11:58 ID:8YMFjw47]
hdparm の実行例が、たとえば >>366 にあるが、シーケンシャルリードだけなのかな?

適当にぐぐると、iozone、bonnie++ をみつけたが(そういえば聞いたことがあるな)
妥当かどうかはよくわからない。

371 名前:login:Penguin mailto:sage [2007/10/28(日) 23:30:15 ID:PnOUhN2H]
方々で見かけるし、bonnie++かなぁ。

うちの宅鯖も測り直したいが、クローラのデータエリアとして
24h稼働中なんでなかなか止められない……

372 名前:362 mailto:sage [2007/10/30(火) 00:00:50 ID:1HogexSN]
ざっと走らせてみたものの

bonnie++
これってFSとかキャッシュ・・・syncなオプションを使えと言うことか。
出力結果がややこい

dbench
クライアントの挙動をsimったプロセス数を指定、みたいな。
dbench NでNに1〜30あたりまで放り込んでみるとRAIDらしさが・・・出てないな。-sS必須か。
何故かシングルドライブの方が速い。わからねえ。Verによって挙動違うし。tbenchはまだ読んでない。

stress
cpu,mem,io,disk等に分けてN fork。でもベンチにならんよねこれ

tiobench
Nスレッドでベーシックなディスクベンチ。これが一番いいかも。問題は使い方がよくわから(ry
LatencyやCPU使用率の一覧比較を出してくれて便利。

その他 apt-cache search benchmark

373 名前:login:Penguin mailto:sage [2007/10/30(火) 09:07:47 ID:34EF8s3m]
postmarkがおすすめ。
ただディスクベンチではなくファイルシステムベンチマークだけど・・・
同じファイルシステムを使っていれば相互比較はできるはず。

374 名前:login:Penguin mailto:sage [2007/10/30(火) 10:05:05 ID:D9D8Yw5C]
postmarkはZFS専用。

まぁ同じベンチソフト使っていれば、ファイルシステム間での
比較はできるけどな。
ベンチマークソフトによって特定のファイルシステムで
特別性能がよかったり悪かったりするから、
何をベンチするか考えてから。

375 名前:login:Penguin mailto:sage [2007/11/01(木) 12:34:00 ID:7nciWttU]
>>366
同一モデルでプラッタ容量違いの外れを引いただけ。

376 名前:login:Penguin mailto:sage [2007/11/01(木) 13:12:38 ID:62ZK10ox]
>>366
# hdparm -tT /dev/md0
Timing cached reads: 1834 MB in 2.00 seconds = 916.99 MB/sec
Timing buffered disk reads: 400 MB in 3.00 seconds = 133.12 MB/sec
# hdparm -tT /dev/sdb
Timing cached reads: 1834 MB in 2.00 seconds = 916.90 MB/sec
Timing buffered disk reads: 220 MB in 3.01 seconds = 73.18 MB/sec
# hdparm -tT /dev/sdc
Timing cached reads: 1824 MB in 2.00 seconds = 912.33 MB/sec
Timing buffered disk reads: 224 MB in 3.02 seconds = 74.08 MB/sec
# hdparm -tT /dev/sdd
Timing cached reads: 1822 MB in 2.00 seconds = 910.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.34 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1842 MB in 2.00 seconds = 920.98 MB/sec
Timing buffered disk reads: 200 MB in 3.02 seconds = 66.24 MB/sec
# hdparm -tT /dev/sdf
Timing cached reads: 1822 MB in 2.00 seconds = 910.41 MB/sec
Timing buffered disk reads: 216 MB in 3.02 seconds = 71.42 MB/sec
# hdparm -tT /dev/sdg
Timing cached reads: 1820 MB in 2.00 seconds = 909.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.47 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1820 MB in 2.00 seconds = 910.07 MB/sec
Timing buffered disk reads: 222 MB in 3.02 seconds = 73.51 MB/sec

というわけでたまたまじゃない?
もっかいやってみれば?

377 名前:login:Penguin mailto:sage [2007/11/01(木) 14:01:44 ID:1iefkY+v]
>>366
シングルユーザモードで起動してますよね?
通常だとデーモンとか動いて、20-30%は簡単に変わるので。。。

378 名前:366 mailto:sage [2007/11/01(木) 18:47:22 ID:Gt+V+zuD]
たくさんのレスありがとうです。

たまたまかもしれませんし。
フツーにマルチでやってたんで、今度シングルで試してみます〜。

379 名前:login:Penguin mailto:sage [2007/11/02(金) 04:20:45 ID:QaC2YeMr]
CentOS5でインストールの段階でmdadmを使用してHDD2台(sda,sdbとして)をRAID1に設定した後に、
片方が破損して取り外したという仮定をして実験をしてみたんですが、
HDD1台(sda)で起動させようとすると「GRUB Hard Disk Error」で止まるorz
もう一台(sdb)だけを繋いで起動すると普通に起動してくるんだけど、何故だろう。
2台繋いだ状態で起動して、sdaに # /sbin/grub-install /dev/sda としても状態変わらず。
接続ポート入れ替えてもダメでした。
パーティション情報や grub.conf も晒した方が良いなら晒します。
誰か分かる方いたらご教示下さい。



380 名前:379 mailto:sage [2007/11/02(金) 06:02:03 ID:QaC2YeMr]
自己解決?
なんとなくGRUBに直接どちらからでも起動できるように書いてやればいい気がしてきた。
今シンク中なので終わったらやってみます。

381 名前:login:Penguin mailto:sage [2007/11/02(金) 06:29:50 ID:oty1mOnF]
>>381
DOSのブートローダをいれて、
両方のHDDでブートパーティションをアクティブに設定、とか。

382 名前:login:Penguin mailto:sage [2007/11/02(金) 11:11:28 ID:7sg8THe2]
0x80と認識されるか0x81と認識されるのかでブートコードが違う必要がある

383 名前:379 mailto:sage [2007/11/02(金) 18:53:15 ID:QaC2YeMr]
遅くなりましたが出来ました。
>>381さんの手も良いかなと思ったのですが、以下のような感じでOKでした。

# grub
 grub> root (hd0,0)
 grub> setup (hd0)
 grub> root (hd1,0)
 grub> setup (hd1)

こんな感じでどちらからも起動できるようにしたら一発。
grub-install では、こういう風には入力されないんですね。

384 名前:login:Penguin mailto:sage [2007/11/03(土) 02:06:07 ID:toJHQDFC]
Linux で 3ware 9550SX-8LP を RAID 5で使ってるんですが、
既に作られてるユニットの容量をCLIで変更する方法をどなたか教えていただけないでしょうか。

現在以下のように 500GB×3 + spare という状態です。

Unit UnitType Status     %Cmpl Stripe Size(GB) Cache AVerify IgnECC
------------------------------------------------------------------------------
u0  RAID-5  OK       -   64K   931.303  ON   OFF   OFF
u1  SPARE   OK       -   -    465.753  -   OFF   -

Port  Status      Unit  Size    Blocks      Serial
---------------------------------------------------------------
p0   OK        u0   465.76 GB  976773168   H8******
p1   OK        -   465.76 GB  976773168   9Q******
p2   OK        u0   465.76 GB  976773168   H8******
p3   OK        u0   465.76 GB  976773168   H8******
p4   OK        u1   465.76 GB  976773168   9Q******
p5   NOT-PRESENT   -   -      -       -
p6   NOT-PRESENT   -   -      -       -
p7   NOT-PRESENT   -   -      -       -

このu0 に使われていない p1を足して p0-3で 500GB×4 + spareにしたいのです。
CLIのマニュアル(P.62)に従って

# tw_cli /c0/u0 migrate type=raid5 disk=0-3

とやってみたのですが、
Error: (CLI:008) Invalid ID specified. Found a specified ID is already in use.
とエラーになってしまいます。
何がまずいのでしょう?

385 名前:login:Penguin mailto:sage [2007/11/03(土) 22:23:32 ID:rg+D7DYl]
>>384
RAID再構築

386 名前:login:Penguin mailto:sage [2007/11/04(日) 04:56:40 ID:QRh/db2g]
>>385
japan.3ware.com/products/serial_ata2.asp
3ware 9550SXの特徴
オンライン容量増設および RAID レベルマイグレーション機能搭載

387 名前:login:Penguin [2007/11/04(日) 15:41:59 ID:cbkyEPJh]
HDL4-G1.0を買ってルーターに問題なく接続できました。共有はMICROSOFT式にして
XPの方ではドライブを割り当てしました。XPからのコピーや読み取りは問題
なかったです。Linuxでは、Sambaでマウントして、色々試してみたら読み取りでも
コピーでもXPの倍ぐらいになった。1.2Gbぐらいのファイルはなんと8分かかる場合
ありました。50GbのMP3フォルダーはAmarokでスキャンしようとしたら一晩中
やってもおきたら22%しか読めなかったです。

本体のBiosには変な設定あるかな。このハードで経験がある人がいたら
手伝ってください。

388 名前:login:Penguin mailto:sage [2007/11/04(日) 17:09:06 ID:eI5sYsvU]
これのどこがRAIDの話題なんだ? (もしかしてマルチ?)

389 名前:login:Penguin [2007/11/04(日) 17:26:28 ID:cbkyEPJh]
ごめん、マルチでないです。
RAID設定が原因になっているかと思って。書き忘れてすみませんでした。
初期設定のRAID5です。そんなに重くならないはずでしょう?
RAIDよりSAMBAだと思うけど、LINUX→RAIDなしのXPへの書き込みは
遅くならないで。



390 名前:321 mailto:sage [2007/11/05(月) 14:37:32 ID:bQ+V7ACj]
うちも、HDL4-G1.0が遅くて、放棄作業中。
その放棄作業(つまり新規PC RAID5 serverへのファイル転送)が
通信途絶頻発で難航しているほど。

Linuxからの接続で、必要な設定変更はあるのかもしれないけど
これといった情報は見つかっていないし、RAID5やっていく上で
(HDD4機の発熱とCPU発熱の比率とか)RAID5 NASに魅力を感じなくなった。

…そっか、見たらLinux板にはSambaスレ無いのな。
UNIX板にあるみたいだから、ヲレも調べてみるか…
あと、HDL4担当のスレはハードウェア板にある。


391 名前:login:Penguin mailto:sage [2007/11/05(月) 21:06:17 ID:6eGjWErn]
>>387
もう少し整理してわかりやすく書こうや
・何が問題なのか
・何をどうやったら問題が起きたのか
・他に何を試したのか
・その他、主観で気になること

>>390 の状況も加味すると、「窓から投げ捨てろ」で一蹴されるのがオチだぞ


392 名前:384 mailto:sage [2007/11/07(水) 12:34:29 ID:j1cRifCj]
その後の報告。
月曜朝サポートが動き出したところで電話して聞きました。
どうもマニュアルの記述が間違っているようで、RAIDを構成するドライブを全部指定するのではなく、
新たに追加するドライブだけを記述するのが正解らしい。
>>384の場合、tw_cli /c0/u0 migrate type=raid5 disk=1 で桶、と。

実行にどれくらい時間がかかるのか聞いてみたところ「おおよそ1GBあたり1分」との返事。
1.5TBだと1500分……25時間かよっ!!
とゆーことで、月曜夜から実行したら今朝がたようやく終わりました。約28時間。
バックグラウンド動作だからいいんだけど。

393 名前:384 mailto:sage [2007/11/07(水) 12:36:06 ID:j1cRifCj]
さて、無事 1.5TBになったのですが、今度はパーティションを拡張しなけりゃいけません。
Partedを使う予定なのですが、これがどのくらい時間がかかるかご存じの方いらっしゃいませんか?
GParted等でもいいのですが、実際にやったことのある方で、××GB→○○GBのサイズ変更が
約△△時間かかった、など実例を教えて頂けるとありがたいのですが。

パーティションサイズの変更は、当然 unmountしないとできないんで、どれくらいの時間
利用不能になるのか見当をつけておきたいのです。
数時間〜半日程度なら夜間にやれば問題ないけど、丸一日以上とかって話なら代替ドライブを
用意しないといけないので。

くだ質の方で聞いたのだけど、有意な返答を得られませんでした。
こちらの方がこういった処理を経験した方が多そうなので、いささかスレ違いではありますが
よろしくお願いします。

394 名前:login:Penguin mailto:sage [2007/11/07(水) 12:55:52 ID:ZtZ/usYi]
>>393
だれも普通そんなことしないから、有意な回答なんて得られない。
普通はlvm+xfsで一瞬


395 名前:login:Penguin mailto:sage [2007/11/07(水) 13:15:20 ID:RKolPaG2]
よく喋るやっちゃ
たいていの場合>>394かmdadmでgrow。どちらも君の構成じゃ使えん。

396 名前:login:Penguin mailto:sage [2007/11/07(水) 18:15:39 ID:n5tC8Tis]
ハードウェアRAIDを使うのが普通ではないという意見は
あまり普通ではないと思うが。

ハードウェアRAID使ってて、容量不足になったとき
その機能があれば、容量の拡張も普通にするんでね?

397 名前:login:Penguin mailto:sage [2007/11/07(水) 20:23:33 ID:yncetdk8]
実際答える奴いないじゃん。やってることがマイナーすぎて。

398 名前:login:Penguin mailto:sage [2007/11/07(水) 21:53:15 ID:o+RGikEz]
>>395
fsの話とブロックデバイスの話がごっちゃになってるぞお前

399 名前:login:Penguin mailto:sage [2007/11/07(水) 22:49:11 ID:7ekDkmZj]
>>396
真のハードウェアRAIDならもちろん普通に使うけど、問題は
ディスクにRAID BIOSが書き込んだ構成情報をOSが読んで認識しないと
いけないとか、実はCPUがRAID処理してます、とかのエセHardwareRAIDが
世の中多すぎ(なんちゃってRAIDカード群の大多数)。

そういう「なんちゃってHW」を使うと性能はよくないわ、別カードへの
可搬性がないわで最悪なので、カーネル側のMD使うのが常識ってだけでは。

 真のHW-RAID >>> Linux MD >>>越えられない壁>>> なんちゃってHW-RAID

という感じになるのかな。




400 名前:login:Penguin mailto:sage [2007/11/07(水) 23:02:05 ID:ZtZ/usYi]
>>399
まぁ3ware 9550SX-8LPは真のHW RAIDカードだけど、
多機能になればなるほど、こなれてない機能が多い訳で、
例えばマニュアルの誤記のように問題に当たりやすい。

だから、デフォルト以上のこと(RAID5にスペア1本)を
やらせるのはお勧めしない。やるなら検証してからで、
間違っても本番データを運用したままやらない。

401 名前:login:Penguin mailto:sage [2007/11/08(木) 10:19:08 ID:3bsJieVy]
>398
なんでブロックデバイスの話が出るんだ?
パーティションとかボリュームなら言いたいことは理解できなくもないが
それでもごっちゃにはなってないし…

402 名前:login:Penguin mailto:sage [2007/11/08(木) 12:55:16 ID:0yMQ2DaJ]
今使っている分の後ろに空きブロックが増えるだけじゃないの?
1パーティションに拘らなければ、lvmでなんとかなるべ。

403 名前:login:Penguin [2007/11/08(木) 20:27:40 ID:IZN1X0G5]
raid1
grub> device (hd0) /dev/hdb
grub> root (hd0,0)
grub> install /grub/stage1 (hd0) /grub/stage2 p /grub/grub.conf

で hda差し替えてをリビルドした後にこんどは hda のみでで起動できるの?


404 名前:login:Penguin [2007/11/08(木) 21:27:48 ID:IZN1X0G5]
hda から起動できず、結局またリビルド

今度は
grub> device (hd0) /dev/hda
grub> root (hd0,0)
grub> setup (hd0)
したけど Kernel Panic になります。


405 名前:login:Penguin [2007/11/08(木) 21:56:35 ID:IZN1X0G5]
md0 (boot) と md1 (/とswap)両方リビルドして
リブートしたら直った^^ よかった。
さっきは md0だけリビルドしてブートしたからパニックになっただけかも。


406 名前:login:Penguin mailto:sage [2007/11/08(木) 23:31:13 ID:13192VKA]
ここはお前の日記帳じゃねえんだ

407 名前:login:Penguin mailto:sage [2007/11/11(日) 14:42:23 ID:Kss4jt32]
今回初めて160GBx2でRAID0を組んでみようと思うんですが、単体HDDでの使用だとパーテはC:Dと切れたんですが
RAID0で2つのHDDを使うと1つのHDDとして見えますが、これにはパーテ切れるんでしょうか?

408 名前:login:Penguin mailto:sage [2007/11/11(日) 14:58:54 ID:EBagQV5F]
> パーテはC:D
Windows板にカエレ

409 名前:login:Penguin mailto:sage [2007/11/11(日) 14:59:41 ID:aTKX43hi]
md使うんだよな?
1日色々勉強してみて



410 名前:login:Penguin [2007/11/15(木) 13:43:28 ID:Ay00Jbql]
すいません、質問させてください。
arecaのarc-1120使ってるんですけどconfigを保存することってできますか?
raidの設定コンフィグなんてものはないですか?
壊れたので同じものを買って入れ替えたいんです。

411 名前:login:Penguin mailto:sage [2007/11/15(木) 14:00:49 ID:kt6gqmw9]
修理したら?新規に買うより安くなるはずだが

412 名前:login:Penguin mailto:sage [2007/11/15(木) 15:24:02 ID:wCvoExs2]
修理だと時間かかるじゃん。

areca使ってないけど、興味あったんでマニュアル見てみたけど、
設定のファイルへの書き出し/読み込みなんて機能はなさそ。

ただ、設定つーても、使うドライブの登録とRAID Levelくらいなもんじゃないの?
あとはビープを鳴らす・鳴らさないとか管理者パスワードの登録くらいか。
ゼロからやっても数分で終わりそうだけど。
毎回やるのが面倒だと思ったらCLIで作業して、バッチ化しておくとか。

既に作られてるRAIDボリュームは正常だったら(普通は)設定後そのまま認識されると思うけど、
不安だったらサポートに聞いてみた方がいいと思うよ。
このスレ、最近はソフトウェアRAIDマンセーの人がほとんどだし。

413 名前:login:Penguin mailto:sage [2007/11/15(木) 18:00:18 ID:Ay00Jbql]
>>411,412
ありがとうございます。

save configとかそういう項目ないのでやっぱりないんですかね。
一応サポートにも連絡してみます。


414 名前:login:Penguin mailto:sage [2007/11/16(金) 01:17:15 ID:1eXgzPsD]
RAIDボリュームの情報はHDD側に持つものもあるし、
実装次第だと思う
なんで、サポに聞くのが一番いいね

415 名前:login:Penguin mailto:sage [2007/11/17(土) 14:53:05 ID:1ihUsYxQ]
RAID 1 はリード性能が向上するというイメージがあったのに
mdadm で RAID 1 化した HDD はリード性能が微妙に下がってるんだよね…

416 名前:login:Penguin mailto:sage [2007/11/17(土) 17:14:37 ID:1ihUsYxQ]
>>368
kwsk

417 名前:login:Penguin mailto:sage [2007/11/18(日) 01:00:05 ID:YtGpqr3X]
なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

418 名前:login:Penguin mailto:sage [2007/11/18(日) 01:09:55 ID:32uNERa2]
そんなに知恵が足りない事をひけらかさなくてもいいのに

419 名前:login:Penguin mailto:sage [2007/11/18(日) 02:39:12 ID:HcFap/DP]
確かに知識というか知恵があれば分かるよなあ…

>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

2 台の HDD でミラーリングしてる場合
両方の HDD から並列に別のデータを読めるから



420 名前:login:Penguin mailto:sage [2007/11/18(日) 03:14:37 ID:31wlS8LP]
> 2 台の HDD でミラーリングしてる場合
> 両方の HDD から並列に別のデータを読めるから

これぢゃ、こわれててもわかんないんじゃないかな



421 名前:login:Penguin mailto:sage [2007/11/18(日) 03:24:33 ID:7DZoPkDC]
なぜそんな話に飛躍する?
しかも意味が分からん。
RAID1で1台壊れて読めなくなってどうする?

RAIDの障害はsnmpやメールで通知するんだよ。

422 名前:login:Penguin mailto:sage [2007/11/18(日) 05:35:44 ID:HcFap/DP]
>>420
セクタ単位のデータ破損を言ってる?
そうだとしたら、どちらにせよ RAID 1 じゃデータは救えんよ
2 台の HDD のセクタが不一致だとして、どちらのセクタが正しいと信じるんだい?

423 名前:login:Penguin mailto:sage [2007/11/18(日) 10:15:29 ID:w3f8FT8B]
>>417
man md
してから書けよ
Changes are written to all devices in parallel. Data is read from any one device.
The driver attempts to distribute read requests across all devices to maximise performance.

上の方で同時アクセス数云々のベンチがあったが、確かにRAID1でも耐久力有りそうだな


>>420
お前の脳内でRAID1ならどうやって片方が壊れてると判断できるのか教えてくれw それともドライブ3台以上が前提か?
予め言っておくがRAID5でも一致確認してません、よー

424 名前:login:Penguin mailto:sage [2007/11/18(日) 10:44:16 ID:KXIawyII]
元の >417 がイタイのはおいといて

>422
普通は HDD 内部でエラーチェックで救いきれないという状態になって
バケデータを吐くのでなくエラー通知をしてくるから
どちらを信じればいいかは分かる

そうならなかったとしたら相当運が悪いので
どのみち生きていても仕方ない…


425 名前:login:Penguin mailto:sage [2007/11/18(日) 10:56:59 ID:w3f8FT8B]
ハードのパリティを信用するかどうかってことで現状は使うハード次第だわな
安価ハードを信頼性向上目的でソフトで多重化チェックすると最低3倍構成になるからペイしないんだろうなぁ

ところで3といえば、3ドライブでRAID10やってみた報告がそろそろ欲しいな。既出?

426 名前:login:Penguin mailto:sage [2007/11/18(日) 11:28:10 ID:/HzRs9GI]
2台構成だとセクタ単位以下の信頼性は下位層に依存、
それ以上の信頼性がほしい場合は3台構成で自前チェックって感じか。

銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な
場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ

427 名前:login:Penguin mailto:sage [2007/11/18(日) 12:24:10 ID:JtepkghF]
下位層でできないことは上位層でやればいい、っていこうとでは?
ということで、ZFSドゾー


428 名前:login:Penguin mailto:sage [2007/11/18(日) 16:20:10 ID:HcFap/DP]
>銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な
>場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ

発注先とかソフトウェア部分も多数決な

429 名前:3台 mailto:sage [2007/11/18(日) 17:54:46 ID:KXIawyII]
メルキオール、バルタザール、カスパー…

ごめんなさいごめんなさいごめんなさい



430 名前:login:Penguin mailto:sage [2007/11/19(月) 03:13:03 ID:+PzRhB/C]
蒸し返すようだけど、ハードウェアRAID(fake raid ではなく)の場合、
RAID 1 にしても、read のときは双方のHDDから読み込みをやっているわけではないと思う。

5年ぐらい前、Escalade 7210 と HGST 180GXP で RAID0 と RAID1 のアレイを組んで
それぞれベンチを図ってみたが、RAID0 と RAID1 で同じ読み込み速度にはならなかった。
members.jcom.home.ne.jp/makky55/raid0-test1.gif
members.jcom.home.ne.jp/makky55/raid1-test1.gif

md の場合は、>>423 にあるとおり RAID1 の場合は内部で双方のHDDから読み込みをやっている
ようだけどね。

431 名前:login:Penguin mailto:sage [2007/11/19(月) 04:36:45 ID:YZqmzVs9]
>>427
> 下位層でできないことは上位層でやればいい、っていこうとでは?

それ結局意味ないから。

RAIDは各セクタが完全に読めるか全く読めないかどちらかであることを仮定してる。
通常、パリティはセクタより小さい単位のエラー検出には使われず、セクタ単位の
エラーが検出された後データ再生成に使われる実装になってる。全部かどうかは知らん。
セクタエラーとして検出されないセクタ未満のデータ破損については多数決方式で
エラー訂正する以外になくて、結局、起源の異なる(パリティによる補完関係にない)
セクタが最低3つ必要になる。それは下位層でやろうと上位層でやろうと変わりない。
もちろんZFSなら2台構成のうえで仮想ブロック1つに実ブロックを3つ以上割り当てる
こともできるけど、それじゃRAIDの意味ない。

432 名前:login:Penguin mailto:sage [2007/11/19(月) 15:57:45 ID:1xeYiL1w]
>>430
実装による。シーケンシャルなread1本時の挙動と、同2本や10本の速度も測ってみると良い。
ついでだからmdでRAID10組むときのnear/far/offsetのあたりも理解しておくとよい>仕組みと読み込み速度
en.wikipedia.org/wiki/Standard_RAID_levels#RAID_1_performance
en.wikipedia.org/wiki/Non-standard_RAID_levels#Linux_MD_RAID_10

// 日本語wikipediaは酷いなぁ

433 名前:login:Penguin mailto:sage [2007/11/19(月) 19:28:24 ID:LSsBOoW2]
>>430
3wareにだってかつてTwinStorという名前で実装していたのがあってな(ry

434 名前:417 mailto:sage [2007/11/20(火) 14:41:38 ID:WUpQPj2Z]
イタイ417だけど
ああ、ここって特定のソフトウェアレイド前提なのね。話通じないはずだ。
定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
本来は片方からしか読まないよ。そういう拡張された実装って部分的にはあるけど
全面的なやつは珍しいかも。
(そのmdって両方読むのね?よく知らんけど。実際はRAID0+1みたいなかんじ?)
だからそういった意味ではRAID1で高速化するってありえないよ。
RAID0かぶせない限りはね。
>>430,432が正解だと思う。
わたしゃ高速化のためにRAID0使用中だよ。リスキーでも倍速w


435 名前:login:Penguin mailto:sage [2007/11/20(火) 14:42:39 ID:6fbP/JrB]
アイタタタタタタタタw

436 名前:login:Penguin mailto:sage [2007/11/20(火) 15:44:28 ID:+5gXhNB9]
あたああああああああ

437 名前:login:Penguin mailto:sage [2007/11/20(火) 16:12:43 ID:6fbP/JrB]
あーあ
そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに
そもそも最初にRAIDを提唱した1988年の論文でも
RAID1でread性能が向上する事が指摘されてるんだよね

438 名前:login:Penguin mailto:sage [2007/11/20(火) 16:38:37 ID:0X6vxiqf]
>>437
www.eecs.berkeley.edu/Pubs/TechRpts/1987/5853.html
その論文の基となるレポートがこれだけど
確かにRAID1でparallel readに言及してるな.
abstract読めば判るけど,当初のRAIDは可用性向上よりも
性能向上が目的だからな.

>>432にあるWikipedia英語版も読んでみたけど,
RAID1でreadは速くなるって書いてあるじゃん


439 名前:login:Penguin mailto:sage [2007/11/20(火) 17:59:10 ID:WUpQPj2Z]
>>438
めんどくさ。まぁ今更どうでもいいがな、>>432から引用すると
>Many older IDE RAID 1 controllers read only from one disk in the pair,
>so their read performance is always that of a single disk.
>Some older RAID 1 implementations would also read both disks
>simultaneously and compare the data to detect errors.
だとさ。結局実装次第ちゅーこっちゃね。




440 名前:login:Penguin mailto:sage [2007/11/20(火) 18:06:26 ID:WUpQPj2Z]
つーか、実際にレイド組んでベンチとってみるといいかもね。
ごたくならべてないでさ。そのmdってのが優秀なら問題ないんだろからさ。

441 名前:login:Penguin mailto:sage [2007/11/20(火) 18:09:41 ID:6fbP/JrB]
見苦しい

442 名前:login:Penguin mailto:sage [2007/11/20(火) 18:12:21 ID:WUpQPj2Z]
>>441
なんだググっても反論見つからなかったか?w なんつてな。
正直もうどうでもいいな。

443 名前:login:Penguin mailto:sage [2007/11/20(火) 19:20:47 ID:MSD+3qt7]
なら何も書かなきゃいいのに。
書けば書くほど見苦しくなる。

437に同意。
>そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに

444 名前:login:Penguin mailto:sage [2007/11/20(火) 20:45:33 ID:286gsJhP]
はいはいプロユースプロユース。

てか本気で見苦しいな。
RAID総合スレに来ておいて、今やコンシューマ向けRAID搭載NASの殆んどを占めるmdを「特定の」やら「知らない」とか言われてもな。
んなもん持ってなくてもRAID語るなら自宅鯖でLINUXでmdくらいはやってて(試していて)当然の話じゃねえの?


445 名前:login:Penguin mailto:sage [2007/11/20(火) 21:41:26 ID:hSn6K+RS]
>>434
せっかく>>432書いたのに全く読んでない
ものすごく好意的にエスパーしたとしても、単独負荷と並列負荷をわざと曖昧に書いて煽ってるようにしか読めん。
つまり絡みたい気分だったのだろう。そっと放置しておいてやろう、な。

446 名前:login:Penguin mailto:sage [2007/11/20(火) 23:37:47 ID:Pk03JSkS]
>>434
>定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
>本来は片方からしか読まないよ。

と「本来の RAID 1 は並行読み込みしないと定義されている」とほのめかしておいて
>>438 で論破されたのに

>>439
>めんどくさ。まぁ今更どうでもいいがな、>>432から引用すると
> >Many older IDE RAID 1 controllers read only from one disk in the pair,
> >so their read performance is always that of a single disk.
> >Some older RAID 1 implementations would also read both disks
> >simultaneously and compare the data to detect errors.
>だとさ。結局実装次第ちゅーこっちゃね。

と「過去の実装例」で「定義」の議論に対して反論したつもりになって

>>417
>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

での知恵の無さを誤魔化す >>417 = >>440 = >>442 はとてつもなく痛い

447 名前:login:Penguin mailto:sage [2007/11/21(水) 00:27:24 ID:PIy6cxhg]
このへんで勘弁してあげようよ

448 名前:login:Penguin mailto:sage [2007/11/21(水) 01:12:12 ID:YL4Okhmu]
417はもう出てこれないに500ペソ

449 名前:login:Penguin mailto:sage [2007/11/21(水) 01:21:04 ID:66AMPoKv]
過去レスを読んでいれば、このスレが md がメインなこともわかると思うんだが。
ただスレタイに md とも書かれてないし、ハードウェアRAIDを Linux で使う場合の話も
ここでしたいので、その場合はその旨一言触れておいたほうがいいな。

あときりわけが難しいけど、上に乗っかるOSは関係なく、ハードウェアそのものについての話になるなら
自作PC板にいったほうがいい。
ただしこういうストレージカードの場合、ハードウェア / fakeRAID ともにデバイスドライバが密接に絡むので
むずかしいけど。

長文ごめんなさい



450 名前:login:Penguin mailto:sage [2007/11/21(水) 01:56:35 ID:PIy6cxhg]
前スレまではハードウェアRAIDの話題も結構出てたんだけどね。
このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。

まぁ >>417の件はそれとは関係なく、単にナニだっただけなんだけどw

451 名前:login:Penguin [2007/11/21(水) 02:39:21 ID:WhtoZStV]
ひさびさに痛い奴でした






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<300KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef