RAID総合スレッド No. ..
[2ch|▼Menu]
394:login:Penguin
07/11/07 12:55:52 ZtZ/usYi
>>393
だれも普通そんなことしないから、有意な回答なんて得られない。
普通はlvm+xfsで一瞬


395:login:Penguin
07/11/07 13:15:20 RKolPaG2
よく喋るやっちゃ
たいていの場合>>394かmdadmでgrow。どちらも君の構成じゃ使えん。

396:login:Penguin
07/11/07 18:15:39 n5tC8Tis
ハードウェアRAIDを使うのが普通ではないという意見は
あまり普通ではないと思うが。

ハードウェアRAID使ってて、容量不足になったとき
その機能があれば、容量の拡張も普通にするんでね?

397:login:Penguin
07/11/07 20:23:33 yncetdk8
実際答える奴いないじゃん。やってることがマイナーすぎて。

398:login:Penguin
07/11/07 21:53:15 o+RGikEz
>>395
fsの話とブロックデバイスの話がごっちゃになってるぞお前

399:login:Penguin
07/11/07 22:49:11 7ekDkmZj
>>396
真のハードウェアRAIDならもちろん普通に使うけど、問題は
ディスクにRAID BIOSが書き込んだ構成情報をOSが読んで認識しないと
いけないとか、実はCPUがRAID処理してます、とかのエセHardwareRAIDが
世の中多すぎ(なんちゃってRAIDカード群の大多数)。

そういう「なんちゃってHW」を使うと性能はよくないわ、別カードへの
可搬性がないわで最悪なので、カーネル側のMD使うのが常識ってだけでは。

 真のHW-RAID >>> Linux MD >>>越えられない壁>>> なんちゃってHW-RAID

という感じになるのかな。


400:login:Penguin
07/11/07 23:02:05 ZtZ/usYi
>>399
まぁ3ware 9550SX-8LPは真のHW RAIDカードだけど、
多機能になればなるほど、こなれてない機能が多い訳で、
例えばマニュアルの誤記のように問題に当たりやすい。

だから、デフォルト以上のこと(RAID5にスペア1本)を
やらせるのはお勧めしない。やるなら検証してからで、
間違っても本番データを運用したままやらない。

401:login:Penguin
07/11/08 10:19:08 3bsJieVy
>398
なんでブロックデバイスの話が出るんだ?
パーティションとかボリュームなら言いたいことは理解できなくもないが
それでもごっちゃにはなってないし…

402:login:Penguin
07/11/08 12:55:16 0yMQ2DaJ
今使っている分の後ろに空きブロックが増えるだけじゃないの?
1パーティションに拘らなければ、lvmでなんとかなるべ。

403:login:Penguin
07/11/08 20:27:40 IZN1X0G5
raid1
grub> device (hd0) /dev/hdb
grub> root (hd0,0)
grub> install /grub/stage1 (hd0) /grub/stage2 p /grub/grub.conf

で hda差し替えてをリビルドした後にこんどは hda のみでで起動できるの?


404:login:Penguin
07/11/08 21:27:48 IZN1X0G5
hda から起動できず、結局またリビルド

今度は
grub> device (hd0) /dev/hda
grub> root (hd0,0)
grub> setup (hd0)
したけど Kernel Panic になります。


405:login:Penguin
07/11/08 21:56:35 IZN1X0G5
md0 (boot) と md1 (/とswap)両方リビルドして
リブートしたら直った^^ よかった。
さっきは md0だけリビルドしてブートしたからパニックになっただけかも。


406:login:Penguin
07/11/08 23:31:13 13192VKA
ここはお前の日記帳じゃねえんだ

407:login:Penguin
07/11/11 14:42:23 Kss4jt32
今回初めて160GBx2でRAID0を組んでみようと思うんですが、単体HDDでの使用だとパーテはC:Dと切れたんですが
RAID0で2つのHDDを使うと1つのHDDとして見えますが、これにはパーテ切れるんでしょうか?

408:login:Penguin
07/11/11 14:58:54 EBagQV5F
> パーテはC:D
Windows板にカエレ

409:login:Penguin
07/11/11 14:59:41 aTKX43hi
md使うんだよな?
1日色々勉強してみて

410:login:Penguin
07/11/15 13:43:28 Ay00Jbql
すいません、質問させてください。
arecaのarc-1120使ってるんですけどconfigを保存することってできますか?
raidの設定コンフィグなんてものはないですか?
壊れたので同じものを買って入れ替えたいんです。

411:login:Penguin
07/11/15 14:00:49 kt6gqmw9
修理したら?新規に買うより安くなるはずだが

412:login:Penguin
07/11/15 15:24:02 wCvoExs2
修理だと時間かかるじゃん。

areca使ってないけど、興味あったんでマニュアル見てみたけど、
設定のファイルへの書き出し/読み込みなんて機能はなさそ。

ただ、設定つーても、使うドライブの登録とRAID Levelくらいなもんじゃないの?
あとはビープを鳴らす・鳴らさないとか管理者パスワードの登録くらいか。
ゼロからやっても数分で終わりそうだけど。
毎回やるのが面倒だと思ったらCLIで作業して、バッチ化しておくとか。

既に作られてるRAIDボリュームは正常だったら(普通は)設定後そのまま認識されると思うけど、
不安だったらサポートに聞いてみた方がいいと思うよ。
このスレ、最近はソフトウェアRAIDマンセーの人がほとんどだし。

413:login:Penguin
07/11/15 18:00:18 Ay00Jbql
>>411,412
ありがとうございます。

save configとかそういう項目ないのでやっぱりないんですかね。
一応サポートにも連絡してみます。


414:login:Penguin
07/11/16 01:17:15 1eXgzPsD
RAIDボリュームの情報はHDD側に持つものもあるし、
実装次第だと思う
なんで、サポに聞くのが一番いいね

415:login:Penguin
07/11/17 14:53:05 1ihUsYxQ
RAID 1 はリード性能が向上するというイメージがあったのに
mdadm で RAID 1 化した HDD はリード性能が微妙に下がってるんだよね…

416:login:Penguin
07/11/17 17:14:37 1ihUsYxQ
>>368
kwsk

417:login:Penguin
07/11/18 01:00:05 YtGpqr3X
なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

418:login:Penguin
07/11/18 01:09:55 32uNERa2
そんなに知恵が足りない事をひけらかさなくてもいいのに

419:login:Penguin
07/11/18 02:39:12 HcFap/DP
確かに知識というか知恵があれば分かるよなあ…

>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

2 台の HDD でミラーリングしてる場合
両方の HDD から並列に別のデータを読めるから

420:login:Penguin
07/11/18 03:14:37 31wlS8LP
> 2 台の HDD でミラーリングしてる場合
> 両方の HDD から並列に別のデータを読めるから

これぢゃ、こわれててもわかんないんじゃないかな



421:login:Penguin
07/11/18 03:24:33 7DZoPkDC
なぜそんな話に飛躍する?
しかも意味が分からん。
RAID1で1台壊れて読めなくなってどうする?

RAIDの障害はsnmpやメールで通知するんだよ。

422:login:Penguin
07/11/18 05:35:44 HcFap/DP
>>420
セクタ単位のデータ破損を言ってる?
そうだとしたら、どちらにせよ RAID 1 じゃデータは救えんよ
2 台の HDD のセクタが不一致だとして、どちらのセクタが正しいと信じるんだい?

423:login:Penguin
07/11/18 10:15:29 w3f8FT8B
>>417
man md
してから書けよ
Changes are written to all devices in parallel. Data is read from any one device.
The driver attempts to distribute read requests across all devices to maximise performance.

上の方で同時アクセス数云々のベンチがあったが、確かにRAID1でも耐久力有りそうだな


>>420
お前の脳内でRAID1ならどうやって片方が壊れてると判断できるのか教えてくれw それともドライブ3台以上が前提か?
予め言っておくがRAID5でも一致確認してません、よー

424:login:Penguin
07/11/18 10:44:16 KXIawyII
元の >417 がイタイのはおいといて

>422
普通は HDD 内部でエラーチェックで救いきれないという状態になって
バケデータを吐くのでなくエラー通知をしてくるから
どちらを信じればいいかは分かる

そうならなかったとしたら相当運が悪いので
どのみち生きていても仕方ない…


425:login:Penguin
07/11/18 10:56:59 w3f8FT8B
ハードのパリティを信用するかどうかってことで現状は使うハード次第だわな
安価ハードを信頼性向上目的でソフトで多重化チェックすると最低3倍構成になるからペイしないんだろうなぁ

ところで3といえば、3ドライブでRAID10やってみた報告がそろそろ欲しいな。既出?

426:login:Penguin
07/11/18 11:28:10 /HzRs9GI
2台構成だとセクタ単位以下の信頼性は下位層に依存、
それ以上の信頼性がほしい場合は3台構成で自前チェックって感じか。

銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な
場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ

427:login:Penguin
07/11/18 12:24:10 JtepkghF
下位層でできないことは上位層でやればいい、っていこうとでは?
ということで、ZFSドゾー


428:login:Penguin
07/11/18 16:20:10 HcFap/DP
>銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な
>場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ

発注先とかソフトウェア部分も多数決な

429:3台
07/11/18 17:54:46 KXIawyII
メルキオール、バルタザール、カスパー…

ごめんなさいごめんなさいごめんなさい

430:login:Penguin
07/11/19 03:13:03 +PzRhB/C
蒸し返すようだけど、ハードウェアRAID(fake raid ではなく)の場合、
RAID 1 にしても、read のときは双方のHDDから読み込みをやっているわけではないと思う。

5年ぐらい前、Escalade 7210 と HGST 180GXP で RAID0 と RAID1 のアレイを組んで
それぞれベンチを図ってみたが、RAID0 と RAID1 で同じ読み込み速度にはならなかった。
URLリンク(members.jcom.home.ne.jp)
URLリンク(members.jcom.home.ne.jp)

md の場合は、>>423 にあるとおり RAID1 の場合は内部で双方のHDDから読み込みをやっている
ようだけどね。

431:login:Penguin
07/11/19 04:36:45 YZqmzVs9
>>427
> 下位層でできないことは上位層でやればいい、っていこうとでは?

それ結局意味ないから。

RAIDは各セクタが完全に読めるか全く読めないかどちらかであることを仮定してる。
通常、パリティはセクタより小さい単位のエラー検出には使われず、セクタ単位の
エラーが検出された後データ再生成に使われる実装になってる。全部かどうかは知らん。
セクタエラーとして検出されないセクタ未満のデータ破損については多数決方式で
エラー訂正する以外になくて、結局、起源の異なる(パリティによる補完関係にない)
セクタが最低3つ必要になる。それは下位層でやろうと上位層でやろうと変わりない。
もちろんZFSなら2台構成のうえで仮想ブロック1つに実ブロックを3つ以上割り当てる
こともできるけど、それじゃRAIDの意味ない。

432:login:Penguin
07/11/19 15:57:45 1xeYiL1w
>>430
実装による。シーケンシャルなread1本時の挙動と、同2本や10本の速度も測ってみると良い。
ついでだからmdでRAID10組むときのnear/far/offsetのあたりも理解しておくとよい>仕組みと読み込み速度
URLリンク(en.wikipedia.org)
URLリンク(en.wikipedia.org)

// 日本語wikipediaは酷いなぁ

433:login:Penguin
07/11/19 19:28:24 LSsBOoW2
>>430
3wareにだってかつてTwinStorという名前で実装していたのがあってな(ry

434:417
07/11/20 14:41:38 WUpQPj2Z
イタイ417だけど
ああ、ここって特定のソフトウェアレイド前提なのね。話通じないはずだ。
定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
本来は片方からしか読まないよ。そういう拡張された実装って部分的にはあるけど
全面的なやつは珍しいかも。
(そのmdって両方読むのね?よく知らんけど。実際はRAID0+1みたいなかんじ?)
だからそういった意味ではRAID1で高速化するってありえないよ。
RAID0かぶせない限りはね。
>>430,432が正解だと思う。
わたしゃ高速化のためにRAID0使用中だよ。リスキーでも倍速w


435:login:Penguin
07/11/20 14:42:39 6fbP/JrB
アイタタタタタタタタw

436:login:Penguin
07/11/20 15:44:28 +5gXhNB9
あたああああああああ

437:login:Penguin
07/11/20 16:12:43 6fbP/JrB
あーあ
そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに
そもそも最初にRAIDを提唱した1988年の論文でも
RAID1でread性能が向上する事が指摘されてるんだよね

438:login:Penguin
07/11/20 16:38:37 0X6vxiqf
>>437
URLリンク(www.eecs.berkeley.edu)
その論文の基となるレポートがこれだけど
確かにRAID1でparallel readに言及してるな.
abstract読めば判るけど,当初のRAIDは可用性向上よりも
性能向上が目的だからな.

>>432にあるWikipedia英語版も読んでみたけど,
RAID1でreadは速くなるって書いてあるじゃん


439:login:Penguin
07/11/20 17:59:10 WUpQPj2Z
>>438
めんどくさ。まぁ今更どうでもいいがな、>>432から引用すると
>Many older IDE RAID 1 controllers read only from one disk in the pair,
>so their read performance is always that of a single disk.
>Some older RAID 1 implementations would also read both disks
>simultaneously and compare the data to detect errors.
だとさ。結局実装次第ちゅーこっちゃね。


440:login:Penguin
07/11/20 18:06:26 WUpQPj2Z
つーか、実際にレイド組んでベンチとってみるといいかもね。
ごたくならべてないでさ。そのmdってのが優秀なら問題ないんだろからさ。

441:login:Penguin
07/11/20 18:09:41 6fbP/JrB
見苦しい

442:login:Penguin
07/11/20 18:12:21 WUpQPj2Z
>>441
なんだググっても反論見つからなかったか?w なんつてな。
正直もうどうでもいいな。

443:login:Penguin
07/11/20 19:20:47 MSD+3qt7
なら何も書かなきゃいいのに。
書けば書くほど見苦しくなる。

437に同意。
>そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに

444:login:Penguin
07/11/20 20:45:33 286gsJhP
はいはいプロユースプロユース。

てか本気で見苦しいな。
RAID総合スレに来ておいて、今やコンシューマ向けRAID搭載NASの殆んどを占めるmdを「特定の」やら「知らない」とか言われてもな。
んなもん持ってなくてもRAID語るなら自宅鯖でLINUXでmdくらいはやってて(試していて)当然の話じゃねえの?


445:login:Penguin
07/11/20 21:41:26 hSn6K+RS
>>434
せっかく>>432書いたのに全く読んでない
ものすごく好意的にエスパーしたとしても、単独負荷と並列負荷をわざと曖昧に書いて煽ってるようにしか読めん。
つまり絡みたい気分だったのだろう。そっと放置しておいてやろう、な。

446:login:Penguin
07/11/20 23:37:47 Pk03JSkS
>>434
>定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
>本来は片方からしか読まないよ。

と「本来の RAID 1 は並行読み込みしないと定義されている」とほのめかしておいて
>>438 で論破されたのに

>>439
>めんどくさ。まぁ今更どうでもいいがな、>>432から引用すると
> >Many older IDE RAID 1 controllers read only from one disk in the pair,
> >so their read performance is always that of a single disk.
> >Some older RAID 1 implementations would also read both disks
> >simultaneously and compare the data to detect errors.
>だとさ。結局実装次第ちゅーこっちゃね。

と「過去の実装例」で「定義」の議論に対して反論したつもりになって

>>417
>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

での知恵の無さを誤魔化す >>417 = >>440 = >>442 はとてつもなく痛い

447:login:Penguin
07/11/21 00:27:24 PIy6cxhg
このへんで勘弁してあげようよ

448:login:Penguin
07/11/21 01:12:12 YL4Okhmu
417はもう出てこれないに500ペソ

449:login:Penguin
07/11/21 01:21:04 66AMPoKv
過去レスを読んでいれば、このスレが md がメインなこともわかると思うんだが。
ただスレタイに md とも書かれてないし、ハードウェアRAIDを Linux で使う場合の話も
ここでしたいので、その場合はその旨一言触れておいたほうがいいな。

あときりわけが難しいけど、上に乗っかるOSは関係なく、ハードウェアそのものについての話になるなら
自作PC板にいったほうがいい。
ただしこういうストレージカードの場合、ハードウェア / fakeRAID ともにデバイスドライバが密接に絡むので
むずかしいけど。

長文ごめんなさい

450:login:Penguin
07/11/21 01:56:35 PIy6cxhg
前スレまではハードウェアRAIDの話題も結構出てたんだけどね。
このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。

まぁ >>417の件はそれとは関係なく、単にナニだっただけなんだけどw

451:login:Penguin
07/11/21 02:39:21 WhtoZStV
ひさびさに痛い奴でした

452:login:Penguin
07/11/22 00:43:36 x2PaICsY
どーでもいい。次。


453:login:Penguin
07/11/22 04:34:50 4v8j5/xa
>>450
そうかなぁ?
アレイ拡張など運用の柔軟性とか、HW-RAIDだと対応が難しい要求を
HW-RAIDに求める奴が出ては諭されしてるだけかと。

454:login:Penguin
07/11/22 05:10:47 b7H+VhqY
Linuxの場合は、HW-RAIDにしたらしたで、
ちゃんとミドルウェアというかユーティリティが対応しているかっていうのは大きな問題でしょ。
ユーティリティなしで済まそうとすると、障害通知とかどうしたらいい?ってことになるからね。


455:login:Penguin
07/11/22 08:46:26 NB0e892q
大きな問題ではあるけど、そんなのベンダが提供してるかしてないかであって
話題になるようなポイントではないのでは?わざわざ高いHW-RAID入れるのに
まともなサポートツールがないもの選ぶことはないし。

456:login:Penguin
07/11/22 12:00:33 e1x8OZuz
>>453
お前HW-RAID使ったことないんだろw

457:login:Penguin
07/11/22 16:43:40 4v8j5/xa
>>456
少なくとも、ここで出てくるHW-RAIDはいわゆる民生用で、
高いHW-RAIDみたいなサポートもユーティリティもないでしょ。

高いの使えばそりゃシームレスでも柔軟性でも出るけど、
そういう話が「ここで」出てたかはかなり疑問。

458:login:Penguin
07/11/22 17:18:20 kotZkAiy
>>457
>>453は過去に一体どんなハードウェアRAID使ってきたのよ。
よほどの大昔か?

少なくともここで最近このスレで出てきた3wareやarecaだったら
「アレイ拡張など」はwebブラウザ経由で簡単にできるぞ。
この価格クラスのものでも、信頼性は十分あるし、普通にRAIDを利用・管理
(故障したドライブの交換やエラー時のメール通知等含め)したり、容量を拡張する
くらいの操作する分にはソフトウェアRAIDよりも「簡単・確実」なのは確かだよ。
RAIDの知識があれば、買ってきてすぐ、ほとんどマニュアル読まずに使える。
仮にOSが落ちてても、通電さえしてりゃrebuildとか勝手に続けてくれるってな
安心感もある。

ソフトウェアRAIDにもハードウェアRAIDにもそれぞれの長所・短所はあるんで、
それぞれ理解して使い分けりゃいいだけの話。
RAIDに求めるものは使用目的によって変わってくるんだから、どちらか一方を
無理矢理否定するこたーない。

459:login:Penguin
07/11/22 17:21:32 kotZkAiy
諭され云々は多分>>384のこと言ってるんだろうけど、>>384が特殊だったのは
CLIでやろうとしたからだよ。あとはファイルシステムの拡張でRAIDとは無関係。
CLIは既にメーカー側でもオマケ扱いで、サポート側もほとんどノウハウないし、
マニュアルの記入ミスが何年も放置されっぱなしだったりしてる。
ほとんど使う人がいないんだから「やってることが特殊」と言われてもしょうがない。

460:login:Penguin
07/11/22 20:16:50 e1x8OZuz
>>457
で、たとえばどんなことがHW-RAIDでできないと思ってるの?
アレイ拡張など、以外に。

461:login:Penguin
07/11/22 20:18:20 Ai+8+9Qs
( ´ー`)y━・~~~

462:login:Penguin
07/11/23 18:35:28 Jp++BsDp
ワロタ
ここお笑いスレ化してるな。

> このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。

なんか絵に描いたようなw

463:login:Penguin
07/11/23 19:42:52 GS8px4nS
md の RAID 1 でリード性能を高速化する方法ってないのかな?
方法自体がないなら諦めないといけないけど…

464:login:Penguin
07/11/23 21:43:27 T6tLpng3
お前は何を言ってるんだ

465:login:Penguin
07/11/23 23:38:14 ediOoBUE
だから並列負荷耐性は上がるとmanにも書いてあるだろうに

466:login:Penguin
07/11/23 23:56:04 dksFbx1S
そこの解釈の差が論争の原因だね。man mdだと

> Data is read from any one device.
> The driver attempts to distribute read requests across all devices to maximise performance.

と最初の文が意味深だが、解釈は曖昧。で、ソース見ると

> * Don't change to another disk for sequential reads:

とあるので、おそらく単体のリードはディスク一台分の速度、ただし
別のリードは別のディスクに分散できるのでスループットが台数に
比例して伸びる、なのでは?

467:login:Penguin
07/11/24 01:21:05 NU+60JyU
なるほど。


468:login:Penguin
07/11/24 02:25:30 Rw3nYGM/
>>466
hdparm でリード性能が伸びてないのは
単発リードコマンドになってるってこと?

469:465
07/11/24 02:28:51 lC7phVQh
>The driver attempts to distribute read requests across all devices to maximise performance
複数の読み取り命令を全てのデバイスに割り振って高速化しようとするよ
じゃないの? 単一read時のことは書いてないよ。

470:login:Penguin
07/11/24 03:09:26 /QheRAnN
>Data is read from any one device.
データは一つのデバイスから読まれる。
こっちが単発リードのことをいっているんだろ。


471:login:Penguin
07/11/24 04:35:21 wJBOH4En
なおのこと単発リードが高速化するようには読めんが

472:login:Penguin
07/11/24 11:53:59 /QheRAnN
だから速くならないって言ってるだろw

473:login:Penguin
07/11/24 14:19:03 Rw3nYGM/
状況を整理するよ

hdparm による md の RAID 1 に対するベンチマークで
リード性能が単体 HDD に比べて向上していない
(自分を含めて 2 〜 3 人が報告)

これは
・hdparm によるベンチマークは単発リードコマンドしか発行していない
・そもそも md の RAID 1 ではリード性能は向上しない
のどちら (あるいは両方?) なんだろう?ということ

474:login:Penguin
07/11/24 14:22:10 1cLiYWi3
同時に複数のファイル(とは限らんが)の読み込み要求があったときには
できる限りドライブを分散させて、パフォーマンスが向上するようにしている。
各ファイル(とは限らんが)のシーケンシャルな読み込みは単一のドライブから。

だね。

475:login:Penguin
07/11/24 14:24:48 /QheRAnN
ふむふむ。

476:login:Penguin
07/11/24 15:12:57 lC7phVQh
>>473
その2択が正しいかどうかは置いといて、hdparmは単発readでしょ。
なんだか話がループしてそうなんだが>>362- は読んだ?

477:login:Penguin
07/11/24 15:36:38 Rw3nYGM/
おお >>367 にそれらしい答えが出てるね

478:login:Penguin
07/11/24 16:16:33 lC7phVQh
チラ裏だが

ディスクベンチっていうと
URLリンク(www.iozone.org)
みたいにパラメータ変えつつやるもんかと。
特にRAIDボードで組んで評価って話でよく挙げられてる単純なベンチは
あれで参考になるんかと思うわけだが、口出すようなことでもないわけで。
単純化指向は良い面もあるしな。tiobenchくらいが結果貼りやすいかもしれん

479:login:Penguin
07/11/29 06:03:49 7uM8bIDi
なんかmdの話ばかりでハードウェアRAIDがスレ違いな話題と化しているようだけど…

それはさておき、なんでLinuxってOpenBSDやNetBSDのRAIDframeのような
kernel & userlandを含めたフレームワークがきちんと整備されていないんだろう?
ドライバがkernelにとりこまれても、各種ユーティリティはRAIDカードベンダまかせで、
それらが使えないディストリビューションの場合は途方に暮れるしかないっていうのは
悲しすぎる。

OpenBSDならBIOSレベルで設定しないといけないもの以外は、基本的にraidctlコマンドで
統一的に使えるのになぁ…

あと、どうでもいい余談だけど、ちょっと前、mdとLVMを組み合わせるのは複雑だなんて
話があったけど、ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に
扱える。

あと、このスレからソフトウェアRAIDの話が撲滅されるというメリットもあるw

480:login:Penguin
07/11/29 10:17:09 krpLIoSe
>>479
>フレームワークがきちんと整備されていないんだろう?
ニーズがないから。
OpenBSDのように遊びでHW-RAID使っている訳では無いから。

481:login:Penguin
07/11/29 10:36:45 r5r946d6
>>479
つ dmraid

>>480
しったか乙

482:login:Penguin
07/11/29 15:45:08 yTYjvc/A
>>481
dmraidって既に
「きちんと整備されてい」るの?

単に知らないから聞いてるんだが。

483:login:Penguin
07/11/29 19:19:21 0m6dyEiu
>>479
お前みたいなのが居るからmd以外の話題が低レベル化するんだよ


484:login:Penguin
07/11/29 19:41:18 3Mr68e1S
>>482
いまだにrcのまんまとはいえ、開発は続いているね。最新版は今年の5月に出た。

>>483
必死だな

485:login:Penguin
07/11/30 00:10:15 revYtBrt
>>479
> ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に扱える。

ニーズがわかってないな。ZFSで全部、じゃシステム部品としての粒度が大きくて、
導入しづらくてたまらん。「これで全部解決」ってのは大抵成功しないよ。

486:login:Penguin
07/11/30 03:03:09 Mn/yUmHF
mdとLVMとの組み合わせだと、機能かぶりまくりで無意味に複雑化する上に
オーバーヘッドだってあるんだから、よほど素性は悪い罠

487:login:Penguin
07/11/30 10:28:41 N6HYB90j
ま、それがLinuxの性

488:login:Penguin
07/11/30 18:30:10 hZ7jSyzu
>>479
上のほうで複雑すぎる、って書いた奴です。

ZFSは見た目は簡単(?)だけど単純ではない。複雑なものを隠して簡単そうに
見せているだけ。なんで、トラブルになったとき対処に必要なアレイ構成とかの
情報も結局ZFSの中に隠されるから対応しづらい。そこが嫌で原則使わないことにしてる。

RaidFrameとLinux mdは、どちらも一長一短だけど、
ニーズにあった自由な組み合わせが必要ならhw-raid/md/LVM/fs等で、
ワンストップで操作できる点やドライバの充実をとるならRaidFrameが有利、
ってところか。

自分以外の視点で考える練習もした方が良いかもね。

489:login:Penguin
07/12/01 08:04:30 gB0tzcfY
>>485
> システム部品としての粒度が大きくて、
> 導入しづらくてたまらん。

これに禿胴する人は多いと思う。

490:login:Penguin
07/12/01 11:45:16 ywEZfGgX
>>486
どこがかぶってるんだ?

491:login:Penguin
07/12/01 11:57:19 s/h51g0g
おちん○ちんの皮

492:login:Penguin
07/12/06 05:13:41 ap4dDKTJ
たまたま、この記事を読んで気になり、
mdによるRaidで整合性検査をしてみようと思ったのですが、
どのようなコマンドがあるのでしょうか?
(ぐぐっても、見つからなかったもので・・・

URLリンク(itpro.nikkeibp.co.jp)

493:login:Penguin
07/12/06 08:53:48 TPTZjUe/
>>492
整合性検査って、consistency check っていうんだよ。
URLリンク(gentoo-wiki.com)

With a modern kernel, >=2.6.16, this command will initiate a data consistency check
and a unreadable block check: reading all blocks, checking them for consistency,
and attempting to rewrite unreadable blocks:

# echo check >> /sys/block/mdX/md/sync_action

You can monitor the progress of the check with:

# watch -n .1 cat /proc/mdstat


494:492
07/12/06 15:26:20 ap4dDKTJ
>>493
ありがとうございます、実験用領域を組んで試してみます。

495:login:Penguin
07/12/06 22:44:34 XmDmS+kB
mdで第一日曜に自動チェックとかいう話ってなんだっけ?

496:login:Penguin
07/12/07 01:00:01 0L1bQ/rX
debianのデフォルトじゃね?

497:login:Penguin
07/12/07 17:07:07 V8m/lKoM
そんなん有るんだ。
ってググってもヒットしないし

498:login:Penguin
07/12/11 21:54:14 EizmHdyt
今、250GB*6本でmdによるRAID5を作っています。
名前はmd0です。

今度500GB*6本でmdによるRAID5を作ろうと思います。
新しく作るRAIDをmd0にして、既存のRAIDをmd1にリネームしたいのですが
リネームの操作が分かりません。

まだHDD買って来てないんで実験できないのですが、要領をご存知の方が
いたら教えてください。

ディストリはCentOS5です。


499:login:Penguin
07/12/11 23:00:07 f5+2aQ7y
1.旧md0を停止して
2.新md0を作成して
3.旧md0をmd1としてアセンブルして
4.好きなとこにマウント

じゃだめヶ?
新HDD買う前に1と3だけ試せる。

500:login:Penguin
07/12/11 23:05:57 f5+2aQ7y
あ、ごめん>>498宛てね。
それと今止めてもいいmdがないので試せなくてスマソ。
多分問題なく出来るとは思うけど。

501:login:Penguin
07/12/12 11:28:43 PJ2mXbUE
>>498
mdadm.confのARRAY行書き換えて再起動でmd0がmd1になるから、改めてmd0をcreate
fstabとか関連のファイルも同時に変更する必要があるんで注意
あと確認は十二分にしたほうがいい

Persistent Superblock内ってアレイのデバイス名(md0)まで
埋め込まれるんだっけ?それともUUIDだけ?

502:498
07/12/12 12:26:42 6F5R6X/A
みなさん、どうもありがとうございます。
まだ実機のmd0をバックアップ取れていないので、virtualpc内にlinux入れて
教えていただいた手段を試してみます。

503:498
07/12/12 13:18:37 6F5R6X/A
CentOS4がインストールされたVirtualPCイメージがあったので、それで試してみました。

○作業前
/dev/md0: 要素 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4

○手順
# mdadm --misc --stop /dev/md0
# mdadm -C /dev/md0 -a -l 5 -n 4 /dev/hdd1 /dev/hdd2 /dev/hdd3 /dev/hdd4
# mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
# shutdown -r 0

○作業後(再起動後)
[root@centos ~]# cat /proc/mdstat
Personalities : [raid5]
md1 : active raid5 hdb4[3] hdb3[2] hdb2[1] hdb1[0]
29952 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

md0 : active raid5 hdd4[3] hdd3[2] hdd2[1] hdd1[0]
60096 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

unused devices: <none>

無事にmdの名称が変わりました。
今度HDDを買ってきたら、本番マシンで試してみたいと思います。
どうもありがとうございました。

>>501
# mdadm -E /dev/hdb1
をしてみた所、md?の記述はなかったので、HDD要素自体には自分がどのmdに属すのかという
情報は持っていないのかもしれません。
あと、mdadm.confをfindで検索してみましたが、存在しませんでした

504:login:Penguin
07/12/12 15:43:25 kEBRgtVd
>>503
横から失礼。
自分も昨晩レスキュー用のKanotix使って
md*の名前を変更したのだけど、

古い mdadm (1.*.*) だと再構成(assemble)段で
# mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
 を
# mdadm -A /dev/md1 -a /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
とかやらないと上手く認識しないみたい。
今時のは(2.*.*)で問題ないけど。

505:login:Penguin
07/12/12 15:56:54 PFZrlHwL
>>504
さらに横レスw そうだったのかー。知らなかったよサンクス。
先日上手くいかなかったんでmdadmを1から2にうpしちゃったばかりの俺です。

あ、ついでに、HDD4台とかで台数多いときは
# mdam -A 1/dev/md0 /dev/sd[abcd]1
で省略出来るお。この指定だと間違いにくいんでオヌヌメ。
知ってたらごめん。

506:訂正
07/12/12 15:57:50 PFZrlHwL
○  # mdam -A 1/dev/md0 /dev/sd[abcd]1
×  # mdam -A /dev/md0 /dev/sd[abcd]1

507:498
07/12/12 16:09:33 6F5R6X/A
-aって、「必要ならばデバイスファイルを作る」っていうオプションですよね。
付けなくても動作しましたが、付けるほうが正解な気がします。

508:login:Penguin
07/12/14 01:18:21 XaTc4CNr
>>503
>あと、mdadm.confをfindで検索してみましたが、存在しませんでした

アレイ障害時に管理者にメールを投げる機能、とかの設定保存ファイルがどこかにあると思う。
man mdadm
man mdadm.conf
して出てこないとかなら使ってる鳥が別名にしてるんだろう

509:login:Penguin
07/12/19 17:03:00 bGUYO486
ICH8DHのraidはlinuxでも使えますか?

現在raid1でWindows(XPとVista)を使っていますが、ハードディスクの後ろの方を空けて、そこにlinuxを入れてみたいと思っています。
この場合、raid1ままで使えますでしょうか?ich8,raid,linuxなどでggって見ましたがよく分かりませんでした。よろしくお願いします。


510:login:Penguin
07/12/19 17:07:14 MVsxWy2g
>>509
>>192

511:509
07/12/19 17:31:25 bGUYO486
>>510 ありがとうございます。
mdadmというのが有るのですね。

今回のようにハードディスク前半のWin領域はそのままraid1で、
後半のlinux領域もraid1にしたい時は、
raid1状態にlinuxをインストールするのは無理でしょうか?
RaidのBIOSでハードディスク後半は通常状態に戻し、
片方のハードディスク(の後半)にインストールして、
そのシステムで起動してから、raid1の設定をする、
という感じのなるのでしょうか?
#質問が分かりづらかったらスイマセン。
#そもそもmdadmのraid1の領域から起動することはできない?

512:login:Penguin
07/12/19 17:50:49 UvMw/7fp
mdadmで同期するとメモリーが増え続ける(メモリーリーク)

何が原因だろう・・・

外すと増えない・・・

あぁ、折角Raid組んだのに・・・

513:login:Penguin
07/12/19 23:56:27 dXqKwU0p
>>511
ああまた一番面倒な構成を・・・

LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
後ろ半分だけmdすれば使える。アクセスするのなら、Windows側から見える
RAID構成と整合性を保つため、mdではなくベンダ依存ソフトRAIDドライバが
必要。正直お勧めできない。

ブートはmdの場合は別に問題なくできると思う。

お勧めは100% LinuxかWindowsにして、片方はVMwareとかで動かすことだな・・・
当然RAIDはLinuxもしくはWindowsが標準で持ってる標準のSoftRAIDドライバで、
チップセットの機能は殺して使う。

514:513
07/12/19 23:58:47 dXqKwU0p
> LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
> 後ろ半分だけmdすれば使える。

嘘です。ごめんなさい。チップセットのなんちゃってRAID機能が
どういうディスクレイアウトでHDD記録面使ってるかLinuxから
知りようがないので、「後ろ半分だけmd」は不可能です。

あきらめてベンダのSoftRAIDドライバで頑張るか、もっとベターな
ベンダドライバは捨てて片方は仮想化で稼動がおすすめ。



515:login:Penguin
07/12/20 01:06:41 ah4LLGVs
つかいまどきHDDなんてクソ安いんだから
ひとつのHDD分割してそれぞれRAIDなどと
金払ってわざわざ面倒を買うようなことはやめて
HDDひとつ増設しろ、というのが
全うなアドバイスだと思うが。

わざわざ面倒を買いたいMの人なら
ここで聞かずに、自力でMるべき。
その方が長期間楽しめる。

516:login:Penguin
07/12/20 01:15:18 7Ear3seQ
その話だけど、HDDって最近あんま下がんないよね。
500GBを春先に大量買いしたんだけど、ついこないだ1本追加したらほとんど値段一緒だった。

517:login:Penguin
07/12/20 11:59:43 9JqjcHOR
去年の夏に買った MaxLine Proの500GBは約2.8万円だった。
後継機種(?)の Barracuda ESの500GBは現在約1.6万円で買える。

このクラスは既に十分安くなったのだと思う。
過去の例から見ると、どんな容量でも 1.5万くらいで低下速度がにぶり、
その後ジワジワと1.0万前後まで下がって、消えていくパターンでは。
(最低容量路線 1製品だけは例外としてその後も残す感じ)

現在価格低下中なのは、もっと大きい容量のものだと思う。
URLリンク(www.watch.impress.co.jp)
URLリンク(www.watch.impress.co.jp)

518:login:Penguin
07/12/20 17:11:44 bKOgxsVo
>>513-515
オンボードRAIDでパーティションを切って(複数の)Windowsを入れる場合には全然面倒な事は無いのですが、
その内1つでもLinuxを入れようとすると、とたんに凄く面倒なことになるみたいですね。
その事がハッキリしてよかったです。
Linuxは仮想化で使用する方向で検討します。ありがとうございました。

519:login:Penguin
07/12/20 17:31:46 PCc7T4fL
たぶんすごく勘違いしてる気がするけどまあいっか…

520:login:Penguin
07/12/21 00:27:42 2IO5/NZD
きっと >>518 は微妙に勘違いしてるね。

勘違いしてる場合、>>518 はチップのRAID機能を相変わらず有効にしたまま
ベンダ提供ドライバで使ってるはず。ちゃんと理解してるなら、チップは
ただのインタフェースチップとして使って、RAID自体はWindowsのSoftRAID機能で
実現してるはず(それができるチップなら、だけど)。

なんちゃってRAIDを使うことの面倒(&危険=ボード変えたらあぼん)さと、
Windows/Linuxの双方で共通のディスクレイアウト情報を共有する面倒さの
2つがあることは理解されたのだろうか・・・

521:login:Penguin
07/12/21 08:17:35 vT/e4/3W
>>520
アドバイスはあり難いのですが、Win上の仮想環境でのLinuxの使用が思いのほか快適ですし、
ホストOSがWinなのでオンボードRaidに関しても面倒がありません。
この環境を捨てて、かつWin領域までSoftRAIDで再構成しなおしてまで、
Win/Linuxの切り替えboot環境に移行する気が起きません。悪しからず。

なお、ICHの世代が変わっても下位互換性は確保されているようですし、
M/Bのメーカーが変わってもサウスがICHなら問題ないはずですので、
「ボード変えたらあぼん」は言いすぎかと。

なお、FakeRAIDがSoftRAIDに勝っている点として、
(1)BIOSが起動した時点からRAID機能が使える,
(2)BIOS側の設定だけでRAIDが使えてしまう
と下記では言っています。これが一般に受け入れられる主張かどうかは知りませんが参考まで。
URLリンク(itpro.nikkeibp.co.jp)

522:login:Penguin
07/12/21 10:14:34 BvrFe3Un
結局ソフトウェア的なRAIDについてはWinとLinuxで互換性を取るのはムリだから
何をチョイスしたところで諦めるしかないわ。

523:login:Penguin
07/12/21 10:48:48 4VlKmS8l
>>521
とりあえず、仮想化は構成を複雑にしないって意味で正解だと思う。

BIOSレベルでミラーとか作れるのは便利だと思うけど、
OSからまともに使えない場合はまったく意味がないからなぁ…。
ドライバがまともならFakeも良いだろうね。
Linuxだとその条件が以外に難しいからSW使ってる人も多い。
(dmraidとかだと結構ちゃんと使えます?>使ってる方)

あとBIOSでアレイいじってる間はOS起動しないから
可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。

524:login:Penguin
07/12/21 16:03:13 vT/e4/3W
>>523
可用性という言葉は知りませんでした。

URLリンク(e-words.jp)
可用性、つまりシステムの壊れにくさのこと。
障害の発生しにくさや、障害発生時の修復速度などによって計られる。

> あとBIOSでアレイいじってる間はOS起動しないから
> 可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。
Intel matrix storage manager というのがあってOS稼動したままRaid1のアレイの復旧も出来るようです。
もちろん復旧中はHDアクセスは非常に重くなったりしますし、
世の中にはもっと可用性の高いシステムもあるのでしょうが、
デスクトップPCの可用性としては、現状で個人的には充分です。
# 可用性が重要視されるであろうサーバー機だったら、
# Win上のLinuxで運用などしませんしw

> (dmraidとかだと結構ちゃんと使えます?>使ってる方)
使ってませんが、ggってみた限りではdmraidの出来はあまり良くないような印象を受けます。
というかlinuxのFakeRaidとSontRaidに関しては、既に>>192で結論が…。

525:login:Penguin
07/12/21 18:40:58 DRFyI6f4
今時OSが起動しない状態でしかリビルド出来ないようなのはねえよ

526:login:Penguin
07/12/24 14:03:23 brxL+xQV
そのせいでリビルド中に何回壊れたことやら。

527:login:Penguin
07/12/24 16:20:29 pkkqmlH/
関係ないだろ馬鹿か?

528:login:Penguin
07/12/27 00:40:51 rLyRK7d3
RAID1,5は可用性をあげる目的と考えた方がいい

故障時に可用性よりデータ保全を最優先する場合、冗長性が無くなった段階で

ジャーナリングログでデータ部分を別ディスクにバックアップしている場合はそのままリビルド

そうじゃない場合リビルドで壊れる可能性を考慮して、

 RAID1の場合一台外してバックアップする
 RAID5の場合全台外してバックアップする

RAID5よりRAID1のリビルドの方が負荷が少ないのでリビルド中にRAID5ほどは壊れない


故障時に可用性とデータ保全を両立させるためにはRAID6なりを用意するのがよい
データ保全を考えるなら2台壊れたら停止させることになるけど。

529:login:Penguin
07/12/27 00:43:25 rLyRK7d3
こっちのほうが全然分かりやすいorz
Wikipedia項目リンク

530:login:Penguin
07/12/27 01:16:49 K2qSwS4Z
>>528
529に書いてあるとおり、データ保全は基本的にバックアップの仕事だね

ただ、バックアップは定期的にとるものであって、アレイが縮退して初めてとるのでは遅いよ。
バックアップの読み出しでアレイが壊れるリスクに対応できない。読み出し成功すれば問題ないんだけど。
ま、数台くらいまでならあまり気にしなくていいリスクなんだけどね。

531:login:Penguin
08/01/05 15:15:32 MAvpolV9
mdadmの話なんですが現在320Gを6台でRAID5組んでる
んですが、少し容量足りなくなってきたんで1Tを2個
追加して

320>|RAID0(1T)
320>|--------→>|
320>|     

320>|RAID0(1T)
320>|--------→>|RAID5(3T)
320>|

1T-------------→>|

1T-------------→>|

こんなの考えてるんですが、mdだけで構築できますかね?
やっぱりLVM使わないとダメ?


532:login:Penguin
08/01/05 15:48:37 gm0qG86Q
上から順番にmd0、md1、md2として。

もし仮に出来たとしても、md0〜2まで同時にactiveになるけど
その際md2の要素が1つ欠けているわけで、立ち上げる度に
md2のリビルドが発生しないだろうか?

面白そうだから、実験してみては。

533:login:Penguin
08/01/05 17:02:09 MAvpolV9
アレイの組みあがる順番が問題ですよね。
そのあたりデレィさせることができないかな?...と。

しかし、よく4台のHDDでRAID0+1とかで組んでるという
話聞くんですがあれもこれと似たような話のような気がする。


534:login:Penguin
08/01/07 15:40:04 dghccbSz
Virtual PCでやってみた。
まず64MBのパーテション2個をRAID0にしてその後に
128MBの別のパーテション2個でRAID5組んで見た。
64MB> |raid0(128MB)
64MB> |--------------→>|
128MB-------------------→>|raid5(384MB)
128MB-------------------→>|
結果>OK
ちゃんとmd0作ってからRAID5作成してくれてるみたい。
fstabで自動的にマウントもできた。
それではと、さらに64MBのraid0パーテション追加してみる
64MB> |raid0(128MB)
64MB> |--------------→>|
128MB-------------------→>|raid5(512MB)
128MB-------------------→>|
64MB> |raid0(128MB)
64MB> |--------------→>|
追加自体は問題なく、パーテションの拡大もできた。
が、再起動すると最後に追加した方のraid0が外れて
Raid5は3セットで動作してる......orz
どうもログ見て見ると単純にアレイ作成順番で認識
してるようで後ろのraid0も起動後はアレイとして
作成されているが、Raid5構築時認識されてないので
外されてしまったみたい。
なんとか、アレイの起動順番変えられないものか...

535:login:Penguin
08/01/07 16:57:20 /TlGVyIM
>>534
mdadm.confの記述を変えるんじゃダメなの?
アレイのUUID(orデバイス群)とデバイス名(md*)の対応情報が
mdadm.confなんだからそこを書き換える。
予想としてはmd0から順に起動するだろうから、
新しい64MB/raid0をmd1、512MB/raid5をmd2に直せば問題ないと思われ
# 当方debianなんで流儀違ってるかもしれない。

536:login:Penguin
08/01/07 17:31:09 dghccbSz
>>534
テスト環境はdebian etchっす。
漏れもそう思って順番変えてみたんだがmdadm.confの
情報はアレイの構成情報じゃなくてモニタリングする
時の比較情報に使うものみたいで、状況変わらなかった。

そもそも
64MB> |raid0(128MB,md2)
64MB> |--------------→>|
128MB-------------------→>|raid5(512MB,md0)
128MB-------------------→>|
64MB> |raid0(128MB,md1)
64MB> |--------------→>|

md2→md0→md1の順番で作成してるんだ。
で、md2とmd0のだけの時は問題なかった。

mdadmのアレイ構成情報はどこに記述されてるんだろ。
mdadm.confって無くても動作するし、どこか別の所に
設定されてるはずなんだが、、、、。

537:login:Penguin
08/01/07 18:14:22 /TlGVyIM
>>536
そうか、力になれなくてすまん
/etc/init.d/mdadm-raidあたりを覗くと、
mdadm --assemble --scanとかやった出力を各行で処理してるんで、
ずっとmdadm.confで制御してると思ってたよ

mdadm.confを読まない場合は、アレイ構成情報はPersistent Superblock
(構成パーティションの最後の方)に入ってるはず。mdadmのオプションで見れる
ただデバイスの起動順までそこに入れる、ってのは非合理なんだよなぁ……

538:login:Penguin
08/01/07 18:25:08 dghccbSz
>>537
すまんできた。

少し考えれば分かることだがraidの構成はinitdの起動スクリプトは
の中にあるんだな。ダイレクトにイメージ開いて編集して構成順番を
md2→md1→md0に書き換えたらOKだった。

initrd.imgを作り直す時にmdadm.confを参考にしてイメージ作り直し
してるみたいね。だから単にmdadm.conf書き換えようが消そうが
raidは構成されるわけだ。

明日、1TB2個買ってきて実機でやってみよ。


539:login:Penguin
08/01/07 18:47:31 /TlGVyIM
>>538
おつ。ちなみにこっちで調べた感じだと、
起動はPersisten Superblock内にあるsuper-minor値の小さい順?な感じ
(後から作った64MB/raid0はsuper-minor値が大きいので、
/dev/md*の数字が小さくても後に起動される)
initrd.img作るときにmdadm.conf読むってのは初耳だなぁ。
あとで調べてみよう。

540:login:Penguin
08/01/07 18:51:45 6LLk5psJ
>>539
grep mdadm.conf /sbin/mkinitrd

541:login:Penguin
08/01/07 18:54:15 /TlGVyIM
>>540
THX

542:login:Penguin
08/01/08 17:53:05 OGlZLqVZ
スワップ領域って同期する必要ってあるの?

543:login:Penguin
08/01/08 21:32:25 kFPjRcz2
なぜ同期を取らなくても良いと思ったのですか?

544:login:Penguin
08/01/09 09:16:36 nJLLxpTq
バックアップする必要性がないと思ったからです

545:login:Penguin
08/01/09 20:10:34 vhzJqQMp
どうも釣りではなく、真面目な質問のようなのでお答えします。

稼動中のOSにとって、SWAPパーティションの存在はメモリと同じ位に大事です。
もしもSWAPパーティションをミラーしていない場合に、SWAPパーティションが存在する
HDDが不良になった場合、SWAPパーティションが見えなくなります。
これは稼動中のOSにとっては、メモリにアクセスできなくなるのと同じ意味です。
試したことはありませんが、きっとkernel panic行きでしょう。

SWAPパーティションがRAID内に存在していれば、HDDの不良が発生していても
冗長が保たれている限り、OSはSWAPパーティションにアクセスできます。
結果、OSは問題なく稼動することができます。

システムの安定稼動を目的にするシステムならば、SWAPパーティションは絶対に
RAID内に含むべきです。

システムの安定稼動よりもデータ用の容量が優先ならばSWAPパーティションを
RAID内に含ませなくてもいいでしょう。

こんな所でおけ?


次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

4323日前に更新/300 KB
担当:undef