RAID総合スレッド No. ..
[2ch|▼Menu]
511:509
07/12/19 17:31:25 bGUYO486
>>510 ありがとうございます。
mdadmというのが有るのですね。

今回のようにハードディスク前半のWin領域はそのままraid1で、
後半のlinux領域もraid1にしたい時は、
raid1状態にlinuxをインストールするのは無理でしょうか?
RaidのBIOSでハードディスク後半は通常状態に戻し、
片方のハードディスク(の後半)にインストールして、
そのシステムで起動してから、raid1の設定をする、
という感じのなるのでしょうか?
#質問が分かりづらかったらスイマセン。
#そもそもmdadmのraid1の領域から起動することはできない?

512:login:Penguin
07/12/19 17:50:49 UvMw/7fp
mdadmで同期するとメモリーが増え続ける(メモリーリーク)

何が原因だろう・・・

外すと増えない・・・

あぁ、折角Raid組んだのに・・・

513:login:Penguin
07/12/19 23:56:27 dXqKwU0p
>>511
ああまた一番面倒な構成を・・・

LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
後ろ半分だけmdすれば使える。アクセスするのなら、Windows側から見える
RAID構成と整合性を保つため、mdではなくベンダ依存ソフトRAIDドライバが
必要。正直お勧めできない。

ブートはmdの場合は別に問題なくできると思う。

お勧めは100% LinuxかWindowsにして、片方はVMwareとかで動かすことだな・・・
当然RAIDはLinuxもしくはWindowsが標準で持ってる標準のSoftRAIDドライバで、
チップセットの機能は殺して使う。

514:513
07/12/19 23:58:47 dXqKwU0p
> LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
> 後ろ半分だけmdすれば使える。

嘘です。ごめんなさい。チップセットのなんちゃってRAID機能が
どういうディスクレイアウトでHDD記録面使ってるかLinuxから
知りようがないので、「後ろ半分だけmd」は不可能です。

あきらめてベンダのSoftRAIDドライバで頑張るか、もっとベターな
ベンダドライバは捨てて片方は仮想化で稼動がおすすめ。



515:login:Penguin
07/12/20 01:06:41 ah4LLGVs
つかいまどきHDDなんてクソ安いんだから
ひとつのHDD分割してそれぞれRAIDなどと
金払ってわざわざ面倒を買うようなことはやめて
HDDひとつ増設しろ、というのが
全うなアドバイスだと思うが。

わざわざ面倒を買いたいMの人なら
ここで聞かずに、自力でMるべき。
その方が長期間楽しめる。

516:login:Penguin
07/12/20 01:15:18 7Ear3seQ
その話だけど、HDDって最近あんま下がんないよね。
500GBを春先に大量買いしたんだけど、ついこないだ1本追加したらほとんど値段一緒だった。

517:login:Penguin
07/12/20 11:59:43 9JqjcHOR
去年の夏に買った MaxLine Proの500GBは約2.8万円だった。
後継機種(?)の Barracuda ESの500GBは現在約1.6万円で買える。

このクラスは既に十分安くなったのだと思う。
過去の例から見ると、どんな容量でも 1.5万くらいで低下速度がにぶり、
その後ジワジワと1.0万前後まで下がって、消えていくパターンでは。
(最低容量路線 1製品だけは例外としてその後も残す感じ)

現在価格低下中なのは、もっと大きい容量のものだと思う。
URLリンク(www.watch.impress.co.jp)
URLリンク(www.watch.impress.co.jp)

518:login:Penguin
07/12/20 17:11:44 bKOgxsVo
>>513-515
オンボードRAIDでパーティションを切って(複数の)Windowsを入れる場合には全然面倒な事は無いのですが、
その内1つでもLinuxを入れようとすると、とたんに凄く面倒なことになるみたいですね。
その事がハッキリしてよかったです。
Linuxは仮想化で使用する方向で検討します。ありがとうございました。

519:login:Penguin
07/12/20 17:31:46 PCc7T4fL
たぶんすごく勘違いしてる気がするけどまあいっか…

520:login:Penguin
07/12/21 00:27:42 2IO5/NZD
きっと >>518 は微妙に勘違いしてるね。

勘違いしてる場合、>>518 はチップのRAID機能を相変わらず有効にしたまま
ベンダ提供ドライバで使ってるはず。ちゃんと理解してるなら、チップは
ただのインタフェースチップとして使って、RAID自体はWindowsのSoftRAID機能で
実現してるはず(それができるチップなら、だけど)。

なんちゃってRAIDを使うことの面倒(&危険=ボード変えたらあぼん)さと、
Windows/Linuxの双方で共通のディスクレイアウト情報を共有する面倒さの
2つがあることは理解されたのだろうか・・・

521:login:Penguin
07/12/21 08:17:35 vT/e4/3W
>>520
アドバイスはあり難いのですが、Win上の仮想環境でのLinuxの使用が思いのほか快適ですし、
ホストOSがWinなのでオンボードRaidに関しても面倒がありません。
この環境を捨てて、かつWin領域までSoftRAIDで再構成しなおしてまで、
Win/Linuxの切り替えboot環境に移行する気が起きません。悪しからず。

なお、ICHの世代が変わっても下位互換性は確保されているようですし、
M/Bのメーカーが変わってもサウスがICHなら問題ないはずですので、
「ボード変えたらあぼん」は言いすぎかと。

なお、FakeRAIDがSoftRAIDに勝っている点として、
(1)BIOSが起動した時点からRAID機能が使える,
(2)BIOS側の設定だけでRAIDが使えてしまう
と下記では言っています。これが一般に受け入れられる主張かどうかは知りませんが参考まで。
URLリンク(itpro.nikkeibp.co.jp)

522:login:Penguin
07/12/21 10:14:34 BvrFe3Un
結局ソフトウェア的なRAIDについてはWinとLinuxで互換性を取るのはムリだから
何をチョイスしたところで諦めるしかないわ。

523:login:Penguin
07/12/21 10:48:48 4VlKmS8l
>>521
とりあえず、仮想化は構成を複雑にしないって意味で正解だと思う。

BIOSレベルでミラーとか作れるのは便利だと思うけど、
OSからまともに使えない場合はまったく意味がないからなぁ…。
ドライバがまともならFakeも良いだろうね。
Linuxだとその条件が以外に難しいからSW使ってる人も多い。
(dmraidとかだと結構ちゃんと使えます?>使ってる方)

あとBIOSでアレイいじってる間はOS起動しないから
可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。

524:login:Penguin
07/12/21 16:03:13 vT/e4/3W
>>523
可用性という言葉は知りませんでした。

URLリンク(e-words.jp)
可用性、つまりシステムの壊れにくさのこと。
障害の発生しにくさや、障害発生時の修復速度などによって計られる。

> あとBIOSでアレイいじってる間はOS起動しないから
> 可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。
Intel matrix storage manager というのがあってOS稼動したままRaid1のアレイの復旧も出来るようです。
もちろん復旧中はHDアクセスは非常に重くなったりしますし、
世の中にはもっと可用性の高いシステムもあるのでしょうが、
デスクトップPCの可用性としては、現状で個人的には充分です。
# 可用性が重要視されるであろうサーバー機だったら、
# Win上のLinuxで運用などしませんしw

> (dmraidとかだと結構ちゃんと使えます?>使ってる方)
使ってませんが、ggってみた限りではdmraidの出来はあまり良くないような印象を受けます。
というかlinuxのFakeRaidとSontRaidに関しては、既に>>192で結論が…。

525:login:Penguin
07/12/21 18:40:58 DRFyI6f4
今時OSが起動しない状態でしかリビルド出来ないようなのはねえよ

526:login:Penguin
07/12/24 14:03:23 brxL+xQV
そのせいでリビルド中に何回壊れたことやら。

527:login:Penguin
07/12/24 16:20:29 pkkqmlH/
関係ないだろ馬鹿か?

528:login:Penguin
07/12/27 00:40:51 rLyRK7d3
RAID1,5は可用性をあげる目的と考えた方がいい

故障時に可用性よりデータ保全を最優先する場合、冗長性が無くなった段階で

ジャーナリングログでデータ部分を別ディスクにバックアップしている場合はそのままリビルド

そうじゃない場合リビルドで壊れる可能性を考慮して、

 RAID1の場合一台外してバックアップする
 RAID5の場合全台外してバックアップする

RAID5よりRAID1のリビルドの方が負荷が少ないのでリビルド中にRAID5ほどは壊れない


故障時に可用性とデータ保全を両立させるためにはRAID6なりを用意するのがよい
データ保全を考えるなら2台壊れたら停止させることになるけど。

529:login:Penguin
07/12/27 00:43:25 rLyRK7d3
こっちのほうが全然分かりやすいorz
Wikipedia項目リンク

530:login:Penguin
07/12/27 01:16:49 K2qSwS4Z
>>528
529に書いてあるとおり、データ保全は基本的にバックアップの仕事だね

ただ、バックアップは定期的にとるものであって、アレイが縮退して初めてとるのでは遅いよ。
バックアップの読み出しでアレイが壊れるリスクに対応できない。読み出し成功すれば問題ないんだけど。
ま、数台くらいまでならあまり気にしなくていいリスクなんだけどね。

531:login:Penguin
08/01/05 15:15:32 MAvpolV9
mdadmの話なんですが現在320Gを6台でRAID5組んでる
んですが、少し容量足りなくなってきたんで1Tを2個
追加して

320>|RAID0(1T)
320>|--------→>|
320>|     

320>|RAID0(1T)
320>|--------→>|RAID5(3T)
320>|

1T-------------→>|

1T-------------→>|

こんなの考えてるんですが、mdだけで構築できますかね?
やっぱりLVM使わないとダメ?


532:login:Penguin
08/01/05 15:48:37 gm0qG86Q
上から順番にmd0、md1、md2として。

もし仮に出来たとしても、md0〜2まで同時にactiveになるけど
その際md2の要素が1つ欠けているわけで、立ち上げる度に
md2のリビルドが発生しないだろうか?

面白そうだから、実験してみては。

533:login:Penguin
08/01/05 17:02:09 MAvpolV9
アレイの組みあがる順番が問題ですよね。
そのあたりデレィさせることができないかな?...と。

しかし、よく4台のHDDでRAID0+1とかで組んでるという
話聞くんですがあれもこれと似たような話のような気がする。


534:login:Penguin
08/01/07 15:40:04 dghccbSz
Virtual PCでやってみた。
まず64MBのパーテション2個をRAID0にしてその後に
128MBの別のパーテション2個でRAID5組んで見た。
64MB> |raid0(128MB)
64MB> |--------------→>|
128MB-------------------→>|raid5(384MB)
128MB-------------------→>|
結果>OK
ちゃんとmd0作ってからRAID5作成してくれてるみたい。
fstabで自動的にマウントもできた。
それではと、さらに64MBのraid0パーテション追加してみる
64MB> |raid0(128MB)
64MB> |--------------→>|
128MB-------------------→>|raid5(512MB)
128MB-------------------→>|
64MB> |raid0(128MB)
64MB> |--------------→>|
追加自体は問題なく、パーテションの拡大もできた。
が、再起動すると最後に追加した方のraid0が外れて
Raid5は3セットで動作してる......orz
どうもログ見て見ると単純にアレイ作成順番で認識
してるようで後ろのraid0も起動後はアレイとして
作成されているが、Raid5構築時認識されてないので
外されてしまったみたい。
なんとか、アレイの起動順番変えられないものか...

535:login:Penguin
08/01/07 16:57:20 /TlGVyIM
>>534
mdadm.confの記述を変えるんじゃダメなの?
アレイのUUID(orデバイス群)とデバイス名(md*)の対応情報が
mdadm.confなんだからそこを書き換える。
予想としてはmd0から順に起動するだろうから、
新しい64MB/raid0をmd1、512MB/raid5をmd2に直せば問題ないと思われ
# 当方debianなんで流儀違ってるかもしれない。

536:login:Penguin
08/01/07 17:31:09 dghccbSz
>>534
テスト環境はdebian etchっす。
漏れもそう思って順番変えてみたんだがmdadm.confの
情報はアレイの構成情報じゃなくてモニタリングする
時の比較情報に使うものみたいで、状況変わらなかった。

そもそも
64MB> |raid0(128MB,md2)
64MB> |--------------→>|
128MB-------------------→>|raid5(512MB,md0)
128MB-------------------→>|
64MB> |raid0(128MB,md1)
64MB> |--------------→>|

md2→md0→md1の順番で作成してるんだ。
で、md2とmd0のだけの時は問題なかった。

mdadmのアレイ構成情報はどこに記述されてるんだろ。
mdadm.confって無くても動作するし、どこか別の所に
設定されてるはずなんだが、、、、。

537:login:Penguin
08/01/07 18:14:22 /TlGVyIM
>>536
そうか、力になれなくてすまん
/etc/init.d/mdadm-raidあたりを覗くと、
mdadm --assemble --scanとかやった出力を各行で処理してるんで、
ずっとmdadm.confで制御してると思ってたよ

mdadm.confを読まない場合は、アレイ構成情報はPersistent Superblock
(構成パーティションの最後の方)に入ってるはず。mdadmのオプションで見れる
ただデバイスの起動順までそこに入れる、ってのは非合理なんだよなぁ……

538:login:Penguin
08/01/07 18:25:08 dghccbSz
>>537
すまんできた。

少し考えれば分かることだがraidの構成はinitdの起動スクリプトは
の中にあるんだな。ダイレクトにイメージ開いて編集して構成順番を
md2→md1→md0に書き換えたらOKだった。

initrd.imgを作り直す時にmdadm.confを参考にしてイメージ作り直し
してるみたいね。だから単にmdadm.conf書き換えようが消そうが
raidは構成されるわけだ。

明日、1TB2個買ってきて実機でやってみよ。


539:login:Penguin
08/01/07 18:47:31 /TlGVyIM
>>538
おつ。ちなみにこっちで調べた感じだと、
起動はPersisten Superblock内にあるsuper-minor値の小さい順?な感じ
(後から作った64MB/raid0はsuper-minor値が大きいので、
/dev/md*の数字が小さくても後に起動される)
initrd.img作るときにmdadm.conf読むってのは初耳だなぁ。
あとで調べてみよう。

540:login:Penguin
08/01/07 18:51:45 6LLk5psJ
>>539
grep mdadm.conf /sbin/mkinitrd

541:login:Penguin
08/01/07 18:54:15 /TlGVyIM
>>540
THX

542:login:Penguin
08/01/08 17:53:05 OGlZLqVZ
スワップ領域って同期する必要ってあるの?

543:login:Penguin
08/01/08 21:32:25 kFPjRcz2
なぜ同期を取らなくても良いと思ったのですか?

544:login:Penguin
08/01/09 09:16:36 nJLLxpTq
バックアップする必要性がないと思ったからです

545:login:Penguin
08/01/09 20:10:34 vhzJqQMp
どうも釣りではなく、真面目な質問のようなのでお答えします。

稼動中のOSにとって、SWAPパーティションの存在はメモリと同じ位に大事です。
もしもSWAPパーティションをミラーしていない場合に、SWAPパーティションが存在する
HDDが不良になった場合、SWAPパーティションが見えなくなります。
これは稼動中のOSにとっては、メモリにアクセスできなくなるのと同じ意味です。
試したことはありませんが、きっとkernel panic行きでしょう。

SWAPパーティションがRAID内に存在していれば、HDDの不良が発生していても
冗長が保たれている限り、OSはSWAPパーティションにアクセスできます。
結果、OSは問題なく稼動することができます。

システムの安定稼動を目的にするシステムならば、SWAPパーティションは絶対に
RAID内に含むべきです。

システムの安定稼動よりもデータ用の容量が優先ならばSWAPパーティションを
RAID内に含ませなくてもいいでしょう。

こんな所でおけ?

546:login:Penguin
08/01/09 23:10:36 QSyCJota
>>545
解説乙です。

むかし同じ疑問を持って、起動中にスワップパーティションを
削除してみたところKernel Panicになりましたw それ以来、
まともな鯖の構築では必ずスワップのミラーもするようにしてます。

547:login:Penguin
08/01/10 07:10:57 Xl1xx6Km
それミラーとか関係ないお前のミスじゃん

548:542
08/01/10 09:17:31 Y4ukHsPA
>>545
勉強になりました
分かりやすい解説ありがとうございました

549:login:Penguin
08/01/11 05:10:20 pC8cgKoa
>>547
いちいちレスするのもくだらないですが
ミスじゃなくて実験ですよ


550:login:Penguin
08/01/11 10:15:26 bKTO3W/i
>>549
何にでも文句つけたがる年頃なんでしょう。
脱初心者ぐらいの。

551:login:Penguin
08/01/11 10:31:57 1u4+JVGt
そういった輩はしつこいからスルー推奨

552:login:Penguin
08/01/11 17:00:47 oau76v1R
Kernel Panicとか馬鹿じゃねーの

553:login:Penguin
08/01/11 23:06:14 nnTIF6b/
>1
出直して来い!

って、ちょうど1年前・・・


554:login:Penguin
08/01/14 00:42:46 X6gV4HK4
FC6でSATAのHDD*4でソフトのRAID5を組んでNASとして使ってるんですが
ネットワーク上からアクセスできなくなり調べてみたところ4台ともRAIDのアレイからリムーブされていました
再起動してみたところ最初は正常に動いているのですがしばらくするとまた停止してしまいます
この場合4台とも壊れているとは考えにくいのですがどのように確認、リビルドしたらいいでしょうか?

555:login:Penguin
08/01/14 09:04:43 6ov9yz32
>554
SATAケーブルが緩んでいる可能性あるかも
外してみて抜けやすかったら寿命


556:login:Penguin
08/01/14 09:10:28 lY+WgiSQ
/var/log/messages見たら、何かログが残ってるんでは?

557:login:Penguin
08/01/15 12:43:56 eGPzviNd
URLリンク(www.owltech.co.jp)
VIA C7のPadLock ACEでTrueCrypt暗号処理 + RAID5とかすると
かっこよさそうだけど、電源がACアダプタ 120Wでは...

558:login:Penguin
08/01/18 10:32:12 Onzb7zVS
URLリンク(orz.4chan.org)

559:login:Penguin
08/01/18 22:19:59 /N+doRnf
3ware 9500S-4LPを
構成250G×4でRAID5、Debian etchで使用してます
今はまだ余裕がありますが今後容量が少なくなってきたら
オンライン拡張とやらで
例えばRAID5のまま全部500G等に入れ替え容量を増やすことができる物なのでしょうか
よくわからないのでご存じの方教えて下さい。


560:login:Penguin
08/01/18 23:31:10 wp/0tR8X
一台入れ替える→リビルド
これを4回繰り返してドライブを全部入れ替える
その後オンライン拡張で増量。
結構手間&ヒマはかかる。

で、増えた分を別パーティションとするなら問題ないけど
ファイルシステムを拡張(既存のパーティションを大きくする)
となると LVMを使ってない場合にはかなり大変。
LVM未使用の場合、一旦全部バックアップを取って、
ドライブ入れ替え→丸々新しくRAID構成→リストア
の方が断然早いし、楽。

561:login:Penguin
08/01/18 23:42:23 wp/0tR8X
ん? 待てよ。
オンライン拡張ってドライブ単位のみだったか?
マニュアル読んでみたけど、
そもそも使用してるドライブに空きがあるという前提は存在しないから…
確実なことは、サポートに聞いた方がいいと思う。

が、俺だったら、一旦バックアップ取ってゼロかやるな。
ほんの数時間で終わる作業だし。

562:login:Penguin
08/01/19 10:41:26 KPd9mEy8
>>561
ありがとうございます
私もよくわからなかったのがそこなんですよ
ドライブ単位の追加だと空きがない時点で
できないですからね。
新たに4ポート以上の物に交換するか
一からやり直すかですね。


563:login:Penguin
08/01/20 12:30:39 Kq5k1NMa
SCSIでRAID組むと高いんですか?

564:login:Penguin
08/01/20 13:03:30 VSFaVtzp
HDD の値段見てみりゃ大体わかりそうなもんだが...

565:login:Penguin
08/01/20 19:43:13 f+pgQsPW
安いよ。

566:login:Penguin
08/01/20 20:35:48 /mh+B85/
バッファローのTeraStationってLinux md?

567:鯖”管理”者
08/01/20 20:50:05 ZhP37dc/
先生方、ご教授ください。
先日、RAID1のDELLサーバのシステムボードが故障したので、電源を落とした。
交換後、電源投入するもOSが起動不可。レジストリが壊れたみたいなmesage
なぜ、こんな事に??RAID1なら、片方おかしくなっても、読み取り可能ディスク
からREADしにいくのではないんですか?


568:login:Penguin
08/01/20 21:50:07 iSaKK8Ey
>>567

RAIDとて、どのディスクをどのような構成で組み立てるのかの管理情報
がいる。管理情報がBIOSか何かのフラッシュなどに書かれていて、それが
飛んだじゃない? その「レジストリが壊れたみたいなmessage」をここに
書いてみ?


>>566

そうだよ。

569:login:Penguin
08/01/20 21:52:27 VSFaVtzp
RAID だから OS に変なレジストリを書けと言われたら、両方の HDD
に変なレジストリを書き込みにいく。

仕様通りですが何か?

570:login:Penguin
08/01/20 22:27:46 Kq5k1NMa
アドバイスお願いします。
RAID10を組んだサーバを、LinuxでデータベースとNAS(というかファイルサーバ)
として運用したいと考えています。
そこで、このマシンはデータ領域専用としNFSを立てて、別途RDBMS、ファイル共有は
マシン(ML115とかの格安機)を用意してデータをNFSで共有する案を思いついたのですが、
こういうやり方ってどうでしょう? パフォーマンス悪いかな

571:login:Penguin
08/01/20 22:39:57 k9dIsucL
RDBMS (Oracle とか PostgreSQL)とかの本体は別マシンで動かし、データ領域だけファイルサーバをマウントして、そこに表領域とかを置くってこと?
遅いと思うよ。

たてる RDBMS にどれくらいの性能を求めるか、同時アクセス数にもよるけど、RDBMS でアホな SQL を投げると
CPU 100% 持ってかれることもあるし、大量の件数をさまざまなテーブルから取ってくるような SQL だとディスクアクセスをもっていかれる。
おれは開発環境では、DBサーバとファイルサーバは物理的に分けてるよ。


572:login:Penguin
08/01/20 22:47:36 M6/8RitH
DBはクエリをon memoryが基本なんじゃないのか?

573:login:Penguin
08/01/20 22:53:04 k9dIsucL
>>572
理想はそうだけど、更新系のSQLも使うし(そのアプリケーションの性格や、一回に更新するデータ量にもよるけど)、
開発やテスト時だったら、export / import もひんぱんにやることもあるだろうから、いずれにせよ
データ領域を NFS 越しに使うというのは、あまりお勧めできないと思う。

574:login:Penguin
08/01/20 23:50:53 VSFaVtzp
> (データベースの) データをNFSで共有する案を思いついたのですが、

実運用なら、まずありえない...

575:login:Penguin
08/01/21 00:12:27 qM82RYen
自分も最初は工エエェェ(´д`)ェェエエ工って感じだったが、
最近はRACなんかだとNASを共有ディスクとして使う例が増えてきている。
SANなどのブロックアクセスに比べて扱いが簡単になるしね。


576:login:Penguin
08/01/21 01:03:14 /80iiPEb
パフォーマンスが云々より,ロックとか問題ないの?


577:login:Penguin
08/01/21 01:10:59 hxdOAtHc
>>576
だからそれをちゃんと意識してるのがクラスタFSって奴。

578:login:Penguin
08/01/21 02:59:00 RnyPYnCW
OracleとかでNetApp等をファイルサーバにしてNFS越しに使うっていうのは
かなり昔からやられていたことだからなぁ

579:login:Penguin
08/01/21 05:24:08 fkuqhVfb
>>570
どのあたりまで共用したいのかによるだろうけど
iSCSIならそんなに遅くならなかったよ

580:570
08/01/21 09:14:01 ABezklEe
>>570です、みなさんどうも
自宅サーバでの運用でそこまでやるものどうかと思ってるんですよね…

581:login:Penguin
08/01/21 10:37:28 qM82RYen
>>577
それはちょっと意味が違う。
クラスタFSの代わりとしてNFSを使う。
クラスタFSは、複数ノードから直接マウントしてブロックアクセスさせるために使うものだし。


582:login:Penguin
08/01/21 18:46:11 Ml+uIs4Z
RAID10をみくびっていた、これはいいわ。

583:login:Penguin
08/01/21 18:56:42 5oPPsRCb
>>582
mdadm?

584:login:Penguin
08/01/21 19:13:44 psEK2uGZ
たしかに金銭面と実装台数と容量の兼ね合いが問題なければ10が速度も安定性もあって一番いいな
何よりリビルド時の故障率の低いし

585:login:Penguin
08/01/21 22:46:15 d8TwXO3z
漢ならRAID0だろ

586:login:Penguin
08/01/21 23:00:49 hxdOAtHc
>>581
ああロックって普通のNFS上のファイルロックの話だったか。


587:login:Penguin
08/01/22 01:50:08 j1simr6K
>>580
iSCSI簡単だよ
md+LVMにiSCSI target LV用意してMacから使ってるよ。

588:login:Penguin
08/01/22 03:49:38 d+IS9wuL
yes
お手軽なので試してみては?>iSCSI >>570


589:login:Penguin
08/01/22 03:53:10 d6P1Z5B2
>>585
RAID0はRAIDにあらず

590:login:Penguin
08/01/22 10:04:27 ByANW+Kw
そーいう揉める元を言わない方が・・・

591:login:Penguin
08/01/22 10:11:08 +9P7njkg
RAID0使うやつは人間のクズ。

592:login:Penguin
08/01/22 13:10:01 ByANW+Kw
だからさぁ

593:login:Penguin
08/01/22 13:56:21 eslKqOkh
あのさぁ

594:login:Penguin
08/01/22 16:33:32 rk9O7CGm
>>589
事実ではあるが
流れ的に
あえて書くことでもない

ネタニマジレス

595:login:Penguin
08/01/22 18:30:28 mkmfUeTP
デスクトップのシステム用のHDDなんかはストライピングだな
週一回自動で鯖にバックアップ取らせてるし問題ない

596:login:Penguin
08/01/22 19:07:13 l4R+Ipoe
バックアップが日曜だったら土曜日にRAID0が壊れる件

597:login:Penguin
08/01/22 19:15:30 mkmfUeTP
システム用のアレイなんか大して大事なもんないからいいよ
ゲームのセーブデータやブラウザの履歴が古くなるぐらいだし
メールもケータイとデスクトップとノートと鯖に同じものが行くようにしてあるしね
困るのは鯖がRAID5なんだがリビルドはすべて新しいディスクにドライブイメージをコピーしてからするようにしてるんだけどそれでも2台目がコピー中に死ぬ可能性があるということだ

598:login:Penguin
08/01/22 20:27:49 igDhRHFt
RAID6 にすりゃいいじゃん。

599:login:Penguin
08/01/23 23:04:52 H/ZtqkUt
>>595
おお、俺がいる。
うちはバックアップのあとシャットダウンするスクリプト書いて
毎日バックアップだけど。

600:login:Penguin
08/01/24 16:46:17 7c4gJd41
カッコンカッコン…

601:login:Penguin
08/01/24 19:35:26 d7j3JduP
アッー!

602:login:Penguin
08/01/25 03:19:34 eST0kDMC
mdadmでRAID10を構築しようと思ってるんだが、
どのディスクとディスクがミラーリング構成になるか指定ってできないんですかね?
sda1とsdb1でストライピング、hda1とhdb1でストライピング、みたいな形にしたいんですが・・・
レイアウトのnearとかfarとかが関係してそうな感じなんですが、英語がわかんね

このアドレス見たけど全然わからん・・・
URLリンク(en.wikipedia.org)

603:login:Penguin
08/01/25 09:13:14 Ywyn1H84
>>602
--createで並べた順じゃね?
--create /dev/md0 --level=10 /dev/sda1 /dev/hda1/dev/sdb1 /dev/hdb1
これで -n2 のレイアウトでAAが sda1とhda1, BBがsdb1とhdb1

604:login:Penguin
08/01/25 09:15:26 Ywyn1H84
すまん
>これで -n2 のレイアウトでA1,A1が sda1とhda1, A2,A2がsdb1とhdb1



605:login:Penguin
08/01/25 19:21:32 V+xKWgCR
createしてみればすぐわかることで、しかも直後にやり直せる話なので詳しい話が見あたらないのかもね

606:login:Penguin
08/01/25 20:40:45 eST0kDMC
thx、ちとためしてきまっす
ついでに質問、ディスク4本で容量使用率50%の場合、RAID10、RAID5+予備1、RAID6どれがパフォーマンス一番いいんだろ?
ライト、リード、ランダムライト、ランダムリードあたりがどういう順番になるのかなーと

信頼性はRAID6>RAID5+1>RAID10だとは思うんだが・・・

607:login:Penguin
08/01/25 20:51:52 3TQL9c8W
RAID10>RAID6>RAID5
スペアなんて個人で使うなら使ってもあまり意味がないぜ
1台死んでからリビルドするまではアクセスなんてそんなにしない(できない)だろうし
RAID5で壊れたときの対処としては経年的な寿命の場合リビルドする前に同じ台数の新品のドライブを用意して
そこにドライブイメージを写してすべて新しいドライブにしてからリビルドしたほうがリスクは大幅に減る
吸い出した寿命の近い可能性のあるドライブはヤフオクなり祖父やドスパラで処分すれば新品のドライブ代の少しは回収できる

608:login:Penguin
08/01/26 00:05:54 OimhjIZ5
>>607
プライベートといえど漏洩は困るから、
なるべく中古には流さない運用にしてるなぁ
事実上大丈夫なんだろうけど、可能性は摘んでおく

>>606
信頼性=アレイが壊れない確率ってことだとして、4台構成でランダム選択で壊れるとすると、
RAID10 → 1台目の破損では生存(リビルドのリスク有)。2台目の破損時1/3の確率で死亡(リビルドのリスク有)。3台目の破損時100%死亡。
RAID6 → 1台目の破損では生存(リビルドのリスク無)。2台目の破損では生存(リビルドのリスク有)。3台目の破損で100%死亡
RAID5(スペア1) → 1台目の破損では生存(リビルドのリスク有)。リビルド前なら2台目の破損で100%死亡。

って感じになる。詳しくはリビルド時の破損確率とか、本当にランダム破損か、
とかいろいろ確定しないと。あとコントローラ故障は考えてなかったり、
セクタ単位のエラー検出は確実に行われる、という仮定があったり。

609:login:Penguin
08/01/26 02:06:29 VmtKdJVs
>>608
zero-fillしちゃえばFBI等の専門機関でも厳しいみたいだよ
IBMやHITACHIのドライブならIBMのDiskManagerでさらに強力な初期化コマンドがあったと思う

610:login:Penguin
08/01/26 12:43:25 ShBosd97
6台で10Nしようぜ

611:login:Penguin
08/01/26 17:27:02 nkamkNao
合計ディスク台数が4台で、RAID5+1とRAID6を視野に入れてるなら、大概の用途でRAID10だと思うぞ。
パフォーマンスについても、RAID1要素があれば同時readには強くなるがアクセスが1本の場合には速くならん。
RAID10だとmdのfar/nearのあたり読んだらいいが、作り方によってパフォーマンス特性変わる。

612:login:Penguin
08/01/26 17:59:20 bPajQjx1
パフォーマンスの話する割には、md 前提なの?

613:login:Penguin
08/01/26 18:01:03 mwRJnWKL
U320の15krpmなHDD6台でRAID5マジオヌヌメ

614:login:Penguin
08/01/26 18:19:52 OimhjIZ5
>>609
そうなのかー。情報サンクス。
そのあたり情報収集甘かったから、きちんと調べてみる。

615:login:Penguin
08/01/26 21:53:22 nkamkNao
>>612
>>602

616:login:Penguin
08/01/27 15:12:51 T5/DDvID
>>612
最近CPUって速いしマルチコアだからね。

617:login:Penguin
08/01/27 18:52:46 yrfH7ugV
wikiの/near/far/offset必死で読んでみました、ついでに他にも読んでみた
間違ってたら指摘よろ

chunkは構成ドライブに順番
nearが同一chunkを連続何回書き込むかのパラメータ
4ドライブでn2なら2回同じデータが書き込まれる(2台でRAID1のイメージ)
4ドライブでn4なら4回同じデータが書かれる(=4台全てでRAID1)

farがドライブ的に遠い所にデータを書き込む処理を何度やるか。その際chunkの順番を変える
(A1 A2 A3 A4だったのを2回目はA4 A1 A2 A3みたいな)
使い道としては
 ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある
 chunkの順番が変わるため、アレイ内の破損ドライブ許容数が調整可能
 4ドライブでf4なら1台でも生きていればアレイが崩れない?

offsetがfarを近距離でやるのかな?よくわからん

4ドライブ構成に限って言えば
 n2だと通常の1+0、2台目破損時で1/3で読み取り不可
 n2f2だと1台でも生きていれば読み取り可能
 f3は2台まではどの組み合わせでも読み取り可能、3台目破損時100%読み取り不可
 f4は1台でも生きていれば読み取り可能

パフォーマンスはわからん・・・実際試せば良いんだろうが、VM上でやっても意味無さそう

618:login:Penguin
08/01/27 21:25:28 Zwy096+O
fatの使い道ってそんなこと書いてあった? 流し読みだけど、
>This is designed for rarely-written data; writes are slower because they are scattered, but the first 1/f of each drive is a standard RAID-0 array. Thus you can get striping performance on a mirrored set of only 2 disks.
だから、場所が分散されて遅くなるのでカキコが希なデータ向けだが、各ドライブのfar数分の1の領域はRAID0化されるから例えば2ドライブのミラーリングでもs-readはストライピングの速度期待できるよ
という話じゃないけ。offsetだと場所が遠くなりすぎないのでwriteペナルティは軽減されると。台数分の0相当のread得られるんなら10ユーザは積極的にoffset使えばいいんじゃないかね。

>ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある
read err出たらそのドライブごと切り離しそうなもんだがなー
どっからが推測か書いといてw

冗長性の話は実験した方がいいと思うのと、容量1/2未満になるのはどうかと思うわけで、たぶんあまりテストされてないよ。offsetだけでいいんじゃないかね

619:login:Penguin
08/01/28 00:21:35 Bd7bwdVe
ああごめんごめん
シリンダうんぬんは推測で、他はググってるときにどっかでみたんだが・・・
どこだったかまではちょっとわからん

速度は分からんが、ひとまず冗長性だけVMで試してみます

620:login:Penguin
08/01/30 12:49:19 6dHf0JHT
すみません質問させてください。

IODATAのNAS、HDL-GTでHDD4台-RAID5で構成していたんですが、
今日起動しなくなってLED全部が赤点灯状態になり、
データを救いたくてあれこれやってみているところです。

WEB設定画面には入って見てみると、
「RAID崩壊」「ハードディスクのシステムの内容が一致していない」
と出ています。

そこでKNOPPIX機に繋いでmdadmアセンブルモードしようとしましたが、
--uuid指定では「uuidが無い」、/dev/sd[abcd]6指定だと「superblockが無い」と蹴られます。

例のリコンストラクタで取ったイメージファイルにxfsrepair -f してみましたが、
これはエラーで途中で終了してしまいました。
イメージではなく直接ディスクに貼り付けてみても同じです。

ぼくのかわいそうなオツムではこのあたりまでしか思いつくところもなく手詰まりとなっている次第です。
どっか間違ってる部分とか他にやってみることとかありましたらご指摘お願いします。

621:login:Penguin
08/01/30 14:15:06 gOhDQINq
自分は使ったこと無いので基本事項の確認のみ。
的外れかもだけど。

> /dev/sd[abcd]6

HDL-GTのmdはパーティション6番目使うのが普通なの?

622:login:Penguin
08/01/30 16:28:35 p8UdA4TA
今更こっそり>393にレスしてみる。
44GBを30GBにするのに15時間かかった。まぁ
|sda1(16GB)|sda2(44GB)| なのを
|sda1(16GB)|sda2(30GB)|free(14GB)| にして
|sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから
|sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。

なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので
たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。

623:login:Penguin
08/01/30 16:29:18 p8UdA4TA
今更こっそり>393にレスしてみる。GParted使用。
44GBを30GBにするのに15時間かかった。まぁ
|sda1(16GB)|sda2(44GB)| なのを
|sda1(16GB)|sda2(30GB)|free(14GB)| にして
|sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから
|sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。

なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので
たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。

624:login:Penguin
08/01/30 16:30:02 p8UdA4TA
ぬああああああああああああ二重送信してしまった

ちんこ切ってくる

625:login:Penguin
08/01/30 18:05:47 PeD2J8tS
>>621
> > /dev/sd[abcd]6
> HDL-GTのmdはパーティション6番目使うのが普通なの?

はい、

sda1 204MB
sda2 400MB
sda3 1GB
sda4(拡張)
├sda5 518MB
└sda6 230GB ←ここがRAID5でXFS

このようになっています。
他のパーティーションはRAID1で組まれててext3だったりします。

626:login:Penguin
08/01/30 21:32:01 wxcklNQA
なんか妙にパーティションをたくさん切られてるよね。

普通のmdとは違う実装方法をしていたら、手が出せないよねえ。

627:login:Penguin
08/01/30 22:06:13 wxcklNQA
とりあえず
# mdadm -E /dev/sda6
で状態は見れるんでしょうか?

628:login:Penguin
08/01/30 23:34:24 x5QwYMj+
mdのoffsetとnear試しました(冗長性)

ディスクは全部4台構成(全て2G)

mdadm --create /dev/md0 --level=raid10 --layout=n2 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
md0のサイズは4G、利用可能率50%
sdb、sdc、sdd、sde1つをVMから見えなくする→問題なし
sdb、sdcをVMから見えなくする→アレイ崩れる
sdb、sddをVMから見えなくする→問題なし
sdb、sdeをVMから見えなくする→問題なし
sdc、sddをVMから見えなくする→問題なし
sdc、sdeをVMから見えなくする→問題なし
sdd、sdeをVMから見えなくする→アレイ崩れる
結果:1台障害は100%問題なし、2台目障害は1/3の確率でアウト
  やっぱり1台目と2台目、3台目と4台目でRAID1だったようです
wikiの書き込みから推定するに、下の図のようなレイアウト(左側から1台目、2台目・・・)
1 1 2 2
3 3 4 4
5 5 6 6
7 7 8 8

629:login:Penguin
08/01/30 23:37:26 x5QwYMj+
mdadm --create /dev/md0 --level=raid10 --layout=o2 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
md0のサイズは4G、利用可能率50%
sdb、sdc、sdd、sde1つをVMから見えなくする→問題なし
sdb、sdcをVMから見えなくする→アレイ崩れる
sdb、sddをVMから見えなくする→問題なし
sdb、sdeをVMから見えなくする→問題なしに見えたが、re-addで無限ループになってアウト
sdc、sddをVMから見えなくする→アレイ崩れる
sdc、sdeをVMから見えなくする→問題なし
sdd、sdeをVMから見えなくする→アレイ崩れる
結果:sdb、sdeをアレイ崩れとしたら1台障害は100%問題なし、2台目障害は2/3の確率でアウト
 どうも不安定な気がする。sdb、sde意外にもsdcsdeあたりでも変になって再構築してます・・・
wikiの書き込みから推定するに、下の図のようなレイアウト(左側から1台目、2台目・・・)
1 2 3 4
4 1 2 3
5 6 7 8
8 5 6 7


n3とo3もやりたかったんだが、アレイ構築の最後でVMがハング。うちのバージョンが古いせいかも
推定としてはn3とo3両方2台障害でも100%大丈夫なんだがなあ

o2を使う場合は実環境で事前テストしてください、今回の印象だとどーにも動作怪しい
パフォーマンス差についてもさっぱり。レイアウトから想像すると、o2のほうがn2より早そうな予感がするかなーってところ

630:login:Penguin
08/01/31 12:23:09 SwZ0bbCA
>>627
レスありがとうございます。

全てのディスクで、
mdadm: No superblock detected on /dev/sd*
と出ます。

631:login:Penguin
08/01/31 17:05:31 KV+A+s93
超基本的な質問があるんだけど

2台でハードウエアRAID1組んでて1台が壊れた場合、
残った1台も取り出してSATA→USBケーブルか何かつないで普通にアクセスできる?

632:login:Penguin
08/01/31 17:11:08 KSncdjll
できる
けどHDDがPATAだと無理

633:login:Penguin
08/01/31 17:16:31 KV+A+s93
うほ!即効ありがとう。

じゃSATA使ってる
URLリンク(buffalo.jp)
とかなら大丈夫なのか。。買うかな。


634:login:Penguin
08/01/31 19:21:58 jIoJh5GZ
>>630
う〜ん。。。
正直なところダメだこりゃ、と言いたい。

パーティション情報は残っているのにRAIDの情報だけが消去されるってのはおかしな話よね。
壊れているんじゃなくて、何かが誤動作してRAID情報だけを消してしまったのかな?
素直に一度メーカーに問い合わせてみた方がいいかも。

635:login:Penguin
08/02/01 00:10:42 skbei6UK
3wareもしくはその他でハードウェアRAIDが組めるインタフェースカード
安価でおすすめのものを教えてもらえませんか?
動作環境はCentOSでRAID10で運用したいです

636:login:Penguin
08/02/01 01:28:03 r8ITSzIN
>>630 >>634
古い LInux 使ってて /dev/sd** のはずが、 /dev/hd** になってたりして。

637:login:Penguin
08/02/01 10:11:44 gycrWFaA
> けどHDDがPATAだと無理
なぜ?
SATAとPATAって運用上はデバイス名が違うだけだと思っていたのですが…
だとするといまPATAでミラーしてるけど万一を考えてSATAで組み直した方が良いのかな?

638:login:Penguin
08/02/01 10:15:09 EV/CxyDO
PATAにSATA→USBケーブルは使えないな確かに

639:login:Penguin
08/02/01 10:18:14 dBBUm++4
自宅マシンでミラーリングとかお前ら余裕あるなー。
俺はRAID5で精一杯だよ。

640:login:Penguin
08/02/01 11:29:09 r8ITSzIN
>>637
インターフェースが何でもソフトウェアraidなら問題ないよ。
DVD-RAMでやった人もいるくらいなんだから。
ただし、認識タイミングの違いでraid自動認識がこけることがある。

641:login:Penguin
08/02/01 13:11:43 3oRMUEgb
>>635
「安価」っていくら位を想定してるの?
3wareがOKってことは10万以下とか?

642:login:Penguin
08/02/01 13:12:39 GwcDPWoT
>>641
アンカーつけて教えてくださいの意味w

643:login:Penguin
08/02/01 14:43:27 UDB5KdfE
>>639
RAID5組むくらいなら普通に4台マウントさせて
2台分バックアップ用にしたほうがまだマシ。
コエーぞ5は。

644:login:Penguin
08/02/01 14:51:08 3oRMUEgb
何がどう怖いのか詳しくplz

645:login:Penguin
08/02/01 14:51:41 qDeRbLmC
>>643
バックアップはバックアップとして別に用意するでしょ。

646:login:Penguin
08/02/01 15:07:40 myloF96k
もしかして、RAIDがバックアップ装置の代わりになると思ってると思ってるヤツがLinux板に居るの?

647:login:Penguin
08/02/01 15:09:46 N4C2bCGe
>>644

一台死ぬ→raid5だから平気さ(w。
入れ替えてリビルドする→生き残りの全てが高負荷状態に。
raidの仲間はたいてい同じロットの同じ製品。一台が死ぬころ
にはみんな寿命が近くても不思議ではない。
生き残りのうちの一台が……
全滅orz。

ってことが起こりやすい。っていうか割と起きる。

リビルド時に負荷がかかるのが、生き残りのうちの片割れな、
10の方がそういった意味では安心。

648:login:Penguin
08/02/01 15:10:28 3oRMUEgb
怖いかどうかはともかく、大容量のドライブがここまで安くなってしまうと、
台数が増えるほど有利になる RAID5 の価値が低下してるのは確かだね。
同じ750GB 4台なら 3台でRAID5 + 1台 spare より
RAID1 + 0 の方が速度も安心感もあって使える容量は同じ 1.5TBだもんね。

RAID5が有利になるのは 5台以上で構成する場合だろうけど、
個人の利用ではそんなに容量デカくする必要ない人が多いだろうし。
まぁ今現在なら 500GB×5 で RAID5 + spare という選択肢の方が安いのは確かだけど、
750GBのだってすぐに安くなるだろうし。
物理的な台数は少ない方が故障発生率も下がるし。

649:login:Penguin
08/02/01 15:13:50 N4C2bCGe
>>647
訂正。

>>644
上にスクロールしてみろ。

650:635
08/02/01 15:15:13 skbei6UK
>>641
やっぱり10万くらいになってしまいますか
安価とはいえ、5万以内には収めたいと思っているんですが、ちゃんとしたハードウェアRAIDで1+0を組んでみたいと思っているので、
10万ほどなら予算を用意したいと思います。

651:login:Penguin
08/02/01 15:15:42 3oRMUEgb
>>647
「割と」起きる?
俺は一度も経験したことないな〜。
3wareのハードウェアRAID5構成のPCが
4台24時間稼働してるけど。

もっとも、ハードディスクをまとめて買うときは
最低でも最低2軒以上で分けて購入してるけどね。

652:login:Penguin
08/02/01 15:16:39 3oRMUEgb
ありゃ「最低」一つ消し忘れw

653:login:Penguin
08/02/01 15:17:53 myloF96k
>>650
とりあえず、誤爆を謝罪してこい

654:login:Penguin
08/02/01 15:18:44 3oRMUEgb
>>650
いや、なってしまいますか、ではなく、
予算とかスペック(必要なポート数など)とか分からんと
誰にも答えられないよ、と。

655:login:Penguin
08/02/01 15:21:22 r8ITSzIN
>643
リビルドの速度制限しとけば、それほどでも無いと思うがなあ。

656:login:Penguin
08/02/01 15:21:49 N4C2bCGe
>>651
幸運なだけかと思ったら、

> もっとも、ハードディスクをまとめて買うときは
> 最低でも最低2軒以上で分けて購入してるけどね。

しっかり気をつかっていらっしゃるのですね。
見習います。

657:login:Penguin
08/02/01 15:24:43 r8ITSzIN
>648
4台でraid5なら2台容量1台スペアより
普通に3台容量の構成にするだろjk。

658:login:Penguin
08/02/01 15:26:30 3oRMUEgb
>>656
あと、これは当然のことながら、RAIDでは「サーバー向け」のドライブしか使わない。
以前なら Maxtor の MaxLineシリーズ。
最近は Seagate の Barracuda ESシリーズ。

「4台」のうち、一番古くから動いてる PCは 丸5年くらい稼働させてるけど、
rebuild中のトラブルでデータを失ったことは一度もない。

659:login:Penguin
08/02/01 15:27:47 3oRMUEgb
>>657
それこそ危険極まりないと思うけど。
RAID使ってる意味がほとんど意味がないような。

660:login:Penguin
08/02/01 15:28:14 3oRMUEgb
あ〜〜〜またダブった!!!
落ち着け > 俺

661:login:Penguin
08/02/01 15:39:25 r8ITSzIN
>659
一台死んでも余裕があるよ。リビルドのリスクに関しては >655

662:login:Penguin
08/02/01 15:46:24 3oRMUEgb
俺が気にしてるのは rebuild ではなく、 degraded のリスクなんだけどね。
ドライブが故障したとき、「即座」に次のドライブが入手できるか分からんので。
要するに、故障した時点でスペアのドライブを買ってくるか、予め買っておくかの違いだよね。
ケチケチしないで、一台くらい余分に買っておこうよ。せっかくRAID使うんだったら。

ドライブの大容量・低価格化時代でのRAID5の一番のメリットは、
容量不足になったとき、柔軟に容量増加が可能である、ということだと思う。
後で容量が不足する可能性があるならば、
スタート時点には無駄と思える「4台でRAID5 + spare」にも意味がある訳で。
(後で5台、6台と増やすことを前提に)

663:login:Penguin
08/02/01 15:48:48 o1JkhWu7
>>662
なんでそれをRAIDのフレームワークでやらにゃならんの?
lvmがあるのに。

664:login:Penguin
08/02/01 15:50:41 3oRMUEgb
RAIDとLVMは用途が全然違うんだけど?
当然RAID上にLVMですよ。
でないと「柔軟に容量変更」できないじゃん。

665:login:Penguin
08/02/01 15:58:45 r8ITSzIN
>662
自分は500Gディスクなら十進数の500Gを狙ってfdiskで毎回
パーティション確保して、それからraid構成してるので、
少なくとも「メーカーやモデルによる容量の差」が原因の
入手性で問題出たこと無いよ。

他に入手性に影響のある要素ってあるだろうか。

666:login:Penguin
08/02/01 16:02:01 o1JkhWu7
>>664
すまん。じゃ、RAID5のメリットをもう一度別の表現で説明してくれないか。

667:login:Penguin
08/02/01 16:15:09 dBBUm++4
RAID5にスペア用意するぐらいならRAID6でいいんじゃないの?

668:login:Penguin
08/02/01 16:19:29 r8ITSzIN
>667
だよね。
管理の手間が単純化できるし、デグレードしたからといって
急にゴリゴリする必要もない。


669:login:Penguin
08/02/01 16:24:39 3oRMUEgb
>>665
例えば「今出張中で、帰るのは一週間後」てのは?
クソ忙しくて再来週末まで買い物なんか行く暇がない! なんてことはよくあるのでは。
俺は東京在住だが、「サーバ向け」のドライブはやっぱりアキバ以外ではあまり置いてない。
(あってもゲロ高い)
地方に住んでりゃもっと大変だろうね。
あるいは「給料前で金がない」とかw
「すぐに入手できない」状況なんていくらでも思いつく。
hot spareはその間ハラハラしないで済む保険代だと思えばいいのでは。

容量については、最悪ひとつ大きいのを買えばいいんで
確かにあまり問題にはならないでしょう。

670:login:Penguin
08/02/01 16:25:34 3oRMUEgb
>>666
このスレ頭から読み直してください。

>>667
まぁそうだね。
話の流れが >>639 (ミラーリング : RAID5)から来てるだけで。

671:login:Penguin
08/02/01 16:30:45 r8ITSzIN
>669
サーバ向けね。確かにそれだと入手性はあるかもな。
半日〜二日ほどデグレード状態でドキドキってのも
そりゃあったし。

672:login:Penguin
08/02/01 17:10:17 dBBUm++4
なんかだんだんRAID6にしたくなってきたなー。
mdでRAID5から移行できればいいのに。

673:login:Penguin
08/02/01 19:45:04 qr3ykgm1
俺はHPの6連装DDS4ドライブつけてるから、RAID5でも別に怖くない。
オートチェンジャーとして動くようにスクリプトも作ったし。

一度だけHDDが壊れたことがあったけど、HDD交換する前にすかさず
dumpでバックアップ取った。
いいよDDSいいよ。

最近LTOが欲しいけど。


次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

4319日前に更新/300 KB
担当:undef