RAID総合スレッド No. ..
[2ch|▼Menu]
562:login:Penguin
09/01/28 13:57:54 3QasENir
よく分からんけど、
単にhdeが故障してfaultyになっただけなんでわ。
hde交換してみれば?

>>431みたいなこともあるし、
SW-RAIDのハードウェア異常時の表示は
あまり信頼しない方がいい。

563:login:Penguin
09/01/28 13:59:12 3QasENir
なんか変だな。

× あまり信頼しない方がいい。
○ あまり信頼できない。

だね。

564:login:Penguin
09/01/29 01:18:01 PTiNMDCX
>>561
他のデバイスもexamineしてみると、違いから何か分かるかもしれない。
あと新規構築時にはパリティが不整合の状態なのでresyncするのが通常動作。
でもresync時の追加パーティションってspare表示になる仕様だったっけか?

565:login:Penguin
09/01/29 06:27:34 12B6/rA+
mdadmでRAID5を設定してるんですが、RAIDを構成してる各ディスクを
hdparmでスタンバイに移行するように設定しても大丈夫でしょうか?

566:561
09/01/29 07:16:39 WiRmM86x
[UUU_]でリビルド完了を待ったところ[UUUU]になって
sde1[3]になりました。原因はよくわかりません。

567:login:Penguin
09/01/29 19:37:09 PTiNMDCX
>>566
たぶん構築時リビルドだろう
ためしに1台をfaulty removeしてもう一回追加、同じ現象になったら間違いない

568:561
09/01/30 21:48:37 pZmCaYyi
>>567
今回は初めての事象なんですが
Linuxかmdadmがアレイ対象のドライブではないどこかに情報覚えてるってことですよね
それを消せればいいような気がします

569:login:Penguin
09/01/31 21:10:43 INV0scHx
>>568
調べるとしたら設定ファイルとしてはmdadm.conf
場所は/etcとか/etc/mdadmとか

570:login:Penguin
09/02/08 22:42:30 Ey2JVBl4
全国のmdadmファンのじょしこうせいのみなさ〜ん
みんな知ってるかなぁ?RAID0ってgrowでボリュームを大きくできないんですよ。
で、当然のごとく、RAID10もできないのですよ。

4wayのRAID5をでかいHDDに差し替えていって、grow機能で
250GBx4から500GBx4に移行したことがあったんだけど…

今回は1TBx4に差し替えつつ500GBパーティションx4の
RAID5とRAID10を作った上で、データを移し
1TBパーティションx4に移行しようとして
いざそこまできてgrowできないことを知ったという orz

こういうのをトホホって言うんだと思った。
まぁ、reiserfsからXFSへの切り替えもあったし
なんとかmissing付きでRAID10を起動したりして片付けた。

将来もっとでかいHDDに移行するときは
それなりの用意をせざるをえないなぁ…


571:login:Penguin
09/02/08 23:27:56 Nj6iWNXA
えらくピンポイントだなw

572:login:Penguin
09/02/09 12:39:22 9FAXyoAI
LVM組み合わせれば
RAID自体のボリューム拡張できなくても
実用上は問題ないんじゃ

573:login:Penguin
09/02/09 12:46:53 Eg6suWBI
>>571,572
えらいおっさん臭いじょしこうせいだな

574:初心者の通りすがり
09/02/16 21:37:32 4jXnyPos
お忙しいところ恐縮ですが、質問があるのですが、
誰かお助けを・・

1、mdadmなどのソフトウェアRAIDで、HDDの不良セクタを自動回避するプログラムは組み込まれているのでしょうか?
それとも、セクタ不良の箇所が出た時点で、HDD交換になってしまうのでしょうか?

2、もし、上記のシステムが組まれている場合、HDDに標準で搭載されている機能として、実際に使用者が確認出来る不良セクタは
ハードディスクの隠れ領域の余裕空間に代替された不良セクタがそれ以上代替出来る空間がなくなって現れる使用(いまどきのHDDはみなそうですよね?)はずですが、
代替のセクタが現れている時点でセクタのゆとりがなくなっているわけで、そのため、そのセクタを不良セクタとして認識する必要があると思います。
しかし、RAIDの場合、すべてのHDDの同じアドレスのセクタを使用不能にする必要(仮に他のHDDのセクタが正常でも、1うのHDDが以上であれば)があると考えられますが、
これらの対応はされているのでしょうか?

3、可能であれば、RAIDとしてアレイに組み込む前に、HDDのセクタチェックをしてから、アレイに組み込めればと思うのですが、
そのようなLinuxプログラムはあるのでしょうか?(ものすごい時間かかるPGのような気がしますが・・)

RAIDその他に関して、初心者で的外れな質問の可能性がありますが、お教えいただければ幸いです。
よろしくお願いします。



575:初心者の通りすがり
09/02/17 01:22:44 FIlRA3Ek
自己レスです。
3、のセクタチェックは、mkfs の -c オプションがその任を担っている事が分かりました。
またbadblocks という同じ機能を持つものも発見しました。ただどうやらRead checkだけのようです。


576:login:Penguin
09/02/17 01:34:14 rlTL3AkS
つ badblocks -w

577:login:Penguin
09/02/17 01:56:17 ljmr48rY
>>574
1: 不良セクタの回避は通常HDDファームのレイヤの仕事。
mdのレイヤだと特になし。FSは実装次第。
SMARTで異常値が出るような状態なら普通は交換処置。

2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合
そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。
従って
>すべてのHDDの同じアドレスのセクタを使用不能にする必要
はない

3: 上に書いたようにセクタチェックは別のレイヤの仕事。
RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。
ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが

578:login:Penguin
09/02/17 02:17:44 IoPZgIsc
rebuild 時に sw RAID1 が壊れたという話をちらほら聞くけど、
これどうなってるの

579:初心者の通りすがり
09/02/17 02:26:38 FIlRA3Ek
お返事ありがとうございます!

> 1: 不良セクタの回避は通常HDDファームのレイヤの仕事。
> mdのレイヤだと特になし。FSは実装次第。
> SMARTで異常値が出るような状態なら普通は交換処置。
なるほど、それではRAIDにおける致命的なHDDの時期というのは、HDDが認識しなくなったような場合だけと
いうことでしょうか?(ここでの質問では適切なHDD交換時期、不良セクタが多くなった場合などを考慮せず、
まったく使えないという状態におけるHDDの交換についての件です)

ここで、疑問なのですがinode領域などのセクタにおいても、RAID 1なり5なりでデータを復旧できる場合には、
問題なく利用できると考えても大丈夫なのでしょうか?

また無学で恐縮なのですが、このSMARTについて少しご教授いただけませんか?

> 2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合
> そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。
> 従って
> >すべてのHDDの同じアドレスのセクタを使用不能にする必要
> はない



580:初心者の通りすがり
09/02/17 02:28:11 FIlRA3Ek
認識が違っているかもしれませんが・・
このLBAの自動交換は、HDDの代替セクタがある場合そうだと思うのですが、すでに代替
セクタが無い場合、表に見えてしまうと思いますが、mdadmなどはブロックデバイスとして
活動しているということは、LBA(シリンダとセクタから計算されるやつですよね、たしか・・)
を基準に管理されているとなれば、ミラーリングなどで、データをそっくりコピーする仕組みのもの
などは、不良セクタによって、大きな問題になるのではないでしょうか?

よくWEBでも見かけるのは、死んだHDDの代わりにスペアHDDをいれて、Rebuildしている最中に、
不良セクタが発見されて、両方死んでしまったという話も聞きます。

ここでもし、不良セクタ(セクタという言い方が悪いかもしれませんのが、LBA(Logical Block Address)と読み替えていただければ幸いです)
を発見したときに、正常なHDD側のデータを他の未使用セクタに移動させ、不良セクタとして使用不可にして、すべてのセクタの同期を取ることができれば、問題は小さいのではと
考えた次第です。

> 3: 上に書いたようにセクタチェックは別のレイヤの仕事。
> RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。
> ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが

すみません、そうですよね・・mkfsではRAID構築後なのでどのような動きになるのか、
ちょっと分かりませんが、RAIDシステムがセクタ不良とか見えなくしてしまいますよね。
ちょっと勘違いをしていました。ということは、HDDをセクタ単位でチェックするして
、不良セクタがあったら故障フラグを立てる機能のものはない感じでしょうか?

こんな遅い時間にお答えいただきすみません。


581:初心者の通りすがり
09/02/17 02:48:36 FIlRA3Ek
SMART分かりました!
URLリンク(hddbancho.co.jp)

なるほど、HDDの持っている情報のことだったんですね。
このページの考え方からすと、代替セクタがなくなったら、HDDは故障と見做すため、
RAIDシステムでは、このような表に出てきたセクタ不良を解決できていない可能性が高いですね。
ただ、ここにもあるように定期的なリフレッシュが無いと唐突なセクタ不良が、代替セクタの有無に関係なく
でるので、やはり本当はRAIDで対応したほうがよい気がします。(役割的に)

もちろん、Googleの研究成果(不良セクタが出始めたら(代替セクタがなくなったら)HDDの寿命が2次曲線的に劣化する)
もあるのでHDDの交換時期については議論が分かれると思いますが、上記の問題はちょっと違う気もします。


582:HDDからSSDへ
09/03/12 09:35:49 yKkrCTUa
SSDを使うようになれば、もうRAIDは必要なくないですか。



583:login:Penguin
09/03/12 10:14:53 sI0gyPRm
必要ないと思うならそれでいいんじゃないの。

584:login:Penguin
09/03/12 11:55:03 nculPVj6
>582
つ冗長化

585:login:Penguin
09/03/12 12:24:21 unsLfwpp
そうだね。
SSDは故障することは
絶対にないから
RAIDなんて不要になるね。
すばらしいことだね。

586:login:Penguin
09/03/12 22:00:05 yKkrCTUa
SSDの書き込み速度はともかく、読み込み速度は、SLCではかなり高速なので、
冗長化のために、RAIDを使うという意味合いも薄れてくるように思える。
これから、SSDの容量も現在のHDD並に増えていくだろうと思う。

RAIDとSSDとの関係は本当にどうなるのだろう。


587:login:Penguin
09/03/12 22:03:50 f8xSmkwI
>>586
冗長化の意味間違って覚えていないか?

588:login:Penguin
09/03/12 22:21:41 yKkrCTUa
あっ、ごめん。
今読み返したら、おかしいって思った。

ssdは壊れないので冗長化する必要はない、と使うべき。
でも、ストライピングのことは日本語でなんていうんだろう。



589:login:Penguin
09/03/12 22:47:16 nculPVj6
へー壊れないの?すごいね

590:login:Penguin
09/03/12 23:17:36 ZcXhWDBc
春だなぁ

591:login:Penguin
09/03/12 23:36:46 xwF18dEu
まだ基幹システムとかではフラッシュメモリのSSDは使われていないからね
あの分野でのSSDといえばDRAMをバックアップ電源で保護しているものだからな

592:login:Penguin
09/03/13 00:18:53 xF/8kpEU
>>591
Acard ANS-9010ですね。わかります。

593:login:Penguin
09/03/13 00:21:33 gAax1MH3
今普及している方のバックアップ電源不要のSSD(SLCタイプ)の寿命は伸びているし、
そもそも、稼動部分がないので、壊れないと考えてもいいんじゃないですかね。



594:login:Penguin
09/03/13 00:24:13 khYqmRB3
               .|   |  | |   |    |  | |   |   |   || | |
               .|   |  | レ  |    |  | |   |  J   || | |
    ∩___∩    |   |  |     J    |  | |  し     || | |
    | ノ\   ,_ ヽ  .|   レ |      |  レ|       || J |
   /  ●゛  ● |   .J      し         |     |       ||   J
   | ∪  ( _●_) ミ             .|    し         J|
  彡、   |∪|   |              .J                レ
 /     ∩ノ ⊃  ヽ
 (  \ / _ノ |  |
  \  "  /  | |
   \ / ̄ ̄ ̄ /

595:login:Penguin
09/03/13 00:31:59 HFjGgXnG
ID:gAax1MH3

596:login:Penguin
09/03/13 00:34:36 gAax1MH3
不良セクタですか?


597:login:Penguin
09/03/13 00:37:05 FglLNM8V
SSDの仕組みの説明だけ読んで
長所短所の説明は読んでいない人っている?

そもそもWindowsだとRAID0がRAIDの中心みたいに考えている人も多いけど
一般的にはRAIDの中心にあるのは、可用性の向上にあるわけで
SSDを用いることで、RAIDが不要になるってことは、かけらほどにも無い要素でしょ?

速度面では、SSDがSATAの速度を満たしたとしても
メモリーバスよりはるかに遅いストレージにストライピングが不要ということは無いし
大容量のものほど割高なストレージの特性からも、ストライピングは有用。

可用性においては、フラッシュメモリーSSDの耐久性は
無限なわけでもなく、加速テスト的な使い方で壊して見せている人もいる。
RAID1,5,10が不要なわけがない。
というか、たとえDRAMだって、壊れることはあるし
SSDの制御基盤レベルの故障だって、理論上はある。

#まじれすかこわるい


598:login:Penguin
09/03/13 00:39:47 E2+gGF86
まじれすかっこいい

599:login:Penguin
09/03/13 00:48:09 gAax1MH3
>>597
私は、リナックスでソフトレイドで、ミラーリングしか使ったことがありません。

SSDでも物理レベルで壊れるんですか。
ということは、SSDでさえもミラーリングが要りますね。
すみません。マジレスありがとうございます。

でもわからない点がいくつか。

可用性とはどういう意味なのでしょうか。耐久性の向上という意味なのでしょうか。
マジで、意味がわかりません。可用という単語を私は日本人なのですが辞書で引きました。
載っていません。直訳してみれば、「用いることができる性質」ということですよね。
専門用語らしいので、どういう意味を一般的に指すのかピンときません。



600:login:Penguin
09/03/13 01:02:52 nEmQi6SY
>>599
「可用性」でぐぐれよ……。最初に答えが出てきてるのに。
つか、RAIDを語るのに可用性を知らんて、議論以前の問題だろ。

あと、SSDが壊れないってどれだけ頭がお花畑ー。
データセンタじゃ、HDDどころか、電源もマザーもCPUもメモリもRAIDコントローラもネットワークカードも毎日のように壊れてるぞ。

601:login:Penguin
09/03/13 01:17:57 gAax1MH3
>電源もマザーもCPUもメモリもRAIDコントローラもネットワークカードも毎日のように壊れてるぞ

密封固体コンデンサになったんで、もう、茶色い花が咲くことはないだろうと喜んでいたんですが、
やっぱりこれも甘いですか。

でも、いったいどうして、それらのデバイスは壊れるんでしょうかねえ。
どうして、見たところどうもなっていない電源が壊れているのかわかりません。
どこが物理的に壊れているんでしょう。

ソフトウェアは壊れない。ハードウェアが壊れるんだ。
私のつくったソフトは壊れたことがないですが、ハードウェアが壊れるんで、
放っておくことができなくひどく残念です。
ハードウェアさえ壊れなければ、安泰なのになあ。
(すみません、Windowsと、Linuxが壊れてしまったら私のもだめですよね)



602:login:Penguin
09/03/13 02:45:00 IObRXwbU
gAax1MH3が壊れてる件について

603:login:Penguin
09/03/13 02:56:17 gAax1MH3
ついに、ばれたかー。602は、なかなか鋭いな。

そう、わたしの本体は、ハカセがつくった人工知能プログラム。
だから、低レイヤーのことはアクセスできず何もわからないんだー。

以上の冗談はおいて、おいて、
>>601について、マジレスを希望しています。



604:login:Penguin
09/03/13 04:37:32 B/yX40Kk
ソニータイマーと同じ。
以上


605:login:Penguin
09/03/13 05:41:36 HFjGgXnG
>>602
それをニヨニヨしながら見守るのが今の流れです

606:login:Penguin
09/03/13 07:13:37 gAax1MH3
>ソニータイマー

そういうのもあるんですね。初めて知りました。
でも、たとえば半導体なら、どういう機序で破壊されていくのでしょうかねえ。
タイマーが短い素子ってなんでしょうか。

CPUや、DRAMのタイマーは何がそうしているんでしょうか。内部の細い線の蒸発?



607:login:Penguin
09/03/13 12:09:30 4rdjPXAi
形あるものは、何であれ、いずれは壊れるよ。
こんな当たり前のことを知らないなんて、
リアル小学生か?

608:login:Penguin
09/03/13 15:23:16 HSB+9X6W
SSDでもHDDでもRAIDで雑誌に取り上げられるのはRAID0での性能ばかり
なんでRAID0使う理由があるの?冗長性が無いじゃん

609:login:Penguin
09/03/13 16:13:48 6eQQWDsF
スレが妙な流れなので、清めます。

もっちゃらへっぴ〜もけもけさ〜

610:login:Penguin
09/03/13 22:55:58 OBlhHJW3
SSDはディスククラッシュはないから、SMARTでの寿命予測の信頼性が
上がって、結果としてRAID0でもOKOKとなる可能性はあるね。それでも
事故時には全部吹っ飛ぶけど、最大の事故要因が潰れるだけでも
従来のRAID0よりははるかに安心できる。

611:login:Penguin
09/03/13 23:34:38 HSB+9X6W
性能を上げたければRAID0+1にすればいいのに
なんで冗長性の無いRAID0にするのか良く分からん

612:login:Penguin
09/03/14 00:18:48 AaTK9Cfj
そこはそれ、RAID10(0+1ではなく1+0)が注目されたのは
HDDの低価格化がより進んだ最近のことだから
まだ、雑誌記事としての啓蒙が進んでいないんじゃないかな。

うちは今年になってから
500GBx4のRAID5を1TBx4のRAID10に切り替えた。
WDのgreenを選んだから、読み出しは500GB(7200rpm)の頃と
比較していないけど、書き込みは速くなって満足してる。


個人的には、動画のCMカット(無再圧縮加工)には
少しでも速いストレージが欲しいと思ったことがある。
Windowsだと、起動速度に執着している人が多いかのように思える。
そういうところにRAID0需要はあるんだと思う。

一基のHDDで大容量を求めるのは、割高でありながら…
故障時のダメージも相対的に大きくなるから
RAIDで複数のHDDをまとめつつ、可用性も高めてウマー
(1TBのRAID10は2TBのRAID1より安上がりって話)



613:login:Penguin
09/03/14 03:04:45 +IDPI/cW
>>611
01なんて普通なら使わないです。
信頼性を考慮すると10が常識。

614:login:Penguin
09/03/14 06:40:18 eu5MmVwN
IBMとかは01しか対応していなかった気がする。

615:login:Penguin
09/03/14 15:38:20 2/177OkX
RAIDの0+1と1+0、10と01はどっちがどっちか定義が無いのでは?
普通はボリュームの故障の確率が低い方の実装にしているのでは?

616:login:Penguin
09/03/14 16:54:41 eu5MmVwN
>>615
正式な定義はないけど、1の0か、0の1か使い分ける人は多い。
可用性が違うからね。

617:login:Penguin
09/03/14 17:18:40 Knf4U3C2
普通は複数のミラーセットに対してストライプするもんじゃないの?

618:login:Penguin
09/03/15 01:26:01 olaDXg82
そうでないメーカーがあるから困る。


619:login:Penguin
09/03/15 08:21:40 Fo/VUGZ3
そうでないパターンって、複数のストライプセットに対してミラーするってことだよな、
それは嫌だな… 例えばどこのメーカ?

620:login:Penguin
09/03/24 04:51:17 Fl6r1xEy
>>610
raidなしでssdだけでも、hddを用いる場合に比べれば、
はるかにましですよね。


621:login:Penguin
09/03/24 06:54:13 GdGyk/Hx
SSDをそれだけ信じる根拠がどこにあるのかな?

加速試験で壊して見せている人はいるわけで
壊れないわけでは無いことはわかっている。

それに対して、SMARTが万全の予測情報を
提供できているか?が鍵だと思います。

"HDDよりはまし"とするためには
もっと実績が積み上げられた後で
やっと言えることだと思います。

HDDにおいてもSMART信者を裏切る結果は
部品の突発故障によるところが大きかったとして
電子部品の突発故障が無いわけではありませんし…

SSDだからといって、設置環境を甘く考えることもできないと思います。




622:login:Penguin
09/03/24 06:59:52 yXjFESP8
>>620
頻度が低かろうが、故障時にサービス停止するんだから全然ましじゃないだろ

623:login:Penguin
09/03/24 20:14:58 VoImn6kH
Linux(CentOS5.2) のソフトウェアRAIDで以下のことができますか?

今ある 1TB HDD のデータを
3台の 1T RAID5 に移動
移動後に RAID5 を4台にマイグレーション

624:login:Penguin
09/03/25 09:41:42 sNgyW6do
>>623
mdadm -C /dev/md0 -l 5 -n 4 /dev/sda{2,3,4} missing
mdadm /dev/md0 -a /dev/sda1

かな。要するに構築時に1台missingという名前でエントリだけ確保して、
後から突っ込んでやればいい。




625:login:Penguin
09/03/25 20:13:36 1HBgtKKu
Tyan の h2000m に sil3124 と sil3132 をさしてますが、
共に UDMA100 で connection?link? を張っているようです。
HDD は UDMA133 capable です。133 にする方法、
ご存知でしたら是非教えてください。
kernel-2.6.27 です。


626:625
09/03/26 00:48:23 s/iQ1Fg+
well known issue のようですね。
じぶんで sata_sil24.c をごにょごにょします。。


627:login:Penguin
09/03/28 18:21:28 xjWJzCpR
320x5→1Tx5に移行中
12時間以上経過してるぉ

628:login:Penguin
09/03/29 06:55:07 caGsjIVd
>>627
Raid5 1TBx4 を 1TBx5 に grow したときは丸一日
かかったかなあ。5400rpm だし遅くて遅くて。

>>624
-C (create) には -f (force) が要るかも。忘れちゃった。
あと /dev/sd[a-c]1 missing とかじゃね?

629:login:Penguin
09/03/29 20:58:56 pjONbMZq
>>628
フォロートン。間違えてた。/dev/sd[a-c]1だね。
まあ機能的にはこんな感じだよってことで後は元質問者ガンガレ。

630:login:Penguin
09/04/03 07:34:17 WOwrcBYH

URLリンク(pc.nikkeibp.co.jp)
こんなシステム作ったときにバックアップってどうするの
同じ構成のシステムでミラーするとか?

631:login:Penguin
09/04/03 08:12:11 xpbRoEEl
ミラーはバックアップじゃないよ
間違えてファイル消したらミラー間同期で全部消えちゃう

普通のRAID装置は筐体に運用とバックアップと複数ボリュームを用意できる

つーかこの記事の著者はバカだろ
RAID5や6は1台、2台の冗長ディスクで理論上は10台でも100台でもRAIDボリューム作れるけど
普通は故障率を減らしたり、縮退時の性能低下を抑えるため
1ボリュームでせいぜい10台ぐらいだよ

632:login:Penguin
09/04/03 08:33:56 tezpleBo
>>630
ディスク台数が多いとRAID6の2台まで故障OK程度ではまったく信頼できないと思うのだが・・・

結局RAIDはRAID1が一番使いやすいような。RAID1+LVMで書き込みも散らせるし。

633:login:Penguin
09/04/03 09:56:06 OmCEVJsy
まぁ個人で作る規模では・・・と言ってるし
バックアップも取ってるみたいだからいいんじゃね?

会社の仕事でこれやられたらたまらんがw

634:login:Penguin
09/04/03 10:41:28 yNfGsC6L
会社だったら普通にまともなRAIDユニット使うだろうな。それならRAID6で24ユニット位は
別に珍しくも何ともない。


635:login:Penguin
09/04/03 14:12:28 xpbRoEEl
まともなベンダーじゃメンバーの台数に制限を設けるよ
24台でRAID6組むにしても 22+2というボリュームは避けるね
普通は 10+2のボリュームを2つ用意して結合するかストライピング

636:login:Penguin
09/04/03 14:20:53 TXPhg+u+
>>630
バックアップ、俺だったら同一構成のマシンもう一台組むかな。
10万ちょっとくらいでできるし、rsyncあたりで同期。

637:login:Penguin
09/04/03 23:06:15 KMrkK/Q+
>>632
激しく同意。いろいろ試したけど、特に小さめのサーバで
汎用性、運用性を取るとRAID1+LVM(+backup)なんだよね。

しかし630は地震に弱そうだなぁ…

638:login:Penguin
09/04/05 13:51:20 zpl00iwc
質問です
URLリンク(comp.ddo.jp)
centosで上のサイトを参考にRAID1を構築したいのですが、
LVM構成環境でも同様にいけるのでしょうか。
またコピーソフトを使用し、パーティションのコピーでも可能ですか?

お手数ですが、ご教示願います。

デバイス Boot Start End Blocks Id System
/dev/sda1 * 1 13 104391 83 Linux
/dev/sda2 14 182401 1465031610 8e Linux LVM

デバイス Boot Start End Blocks Id System
/dev/sdb1 * 1 13 104391 fd Linux raid 自動検出
/dev/sdb2 14 182401 1465031610 fd Linux raid 自動検出


639:login:Penguin
09/04/05 16:20:38 XMqVMXVw
ちょいと質問させてください。

今のサーバは3wareのRAIDカードを刺して運用しているのですが
サーバの置き換えでPCI-Xスロットが無いM/Bに換えようと思っています。

んで、3wareのRAIDカードを買い換える金は無いので
M/BのSW RAID5にするか、mdadmでRAID5にするか迷っています。
mdadmにするメリットとかってあるのでしょうか?
ネットワーク越しのファイルサーバとして使うので、速度はそこまで
重要視していません。

640:login:Penguin
09/04/05 16:27:54 xPY/iy8j
つか、
むしろM/BのSW RAIDのメリットって何?
と思うけど。

641:639
09/04/05 16:51:29 XMqVMXVw
ごめんなさい。M/BのBIOSでRAIDを組むのは
FakeRAIDという名称なのですね。

>>640
>>98さんが纏めてるように、コマンド打たなくていい。
ってぐらいじゃないかなぁ、と思っています。

642:login:Penguin
09/04/05 17:22:54 ialTtN9O
>637

>630のは容量もだが、速度を稼ぐ目的じゃないの? それならRAID1+0ならともかく、LVMは
目的に合わないと思われ。

>639
M/Bのにしろ、3wareのにしろ、お金がなくて予備のH/Wを用意できないのならmdadmでやってる方が
いいんじゃないかな。CPUパワーはかなり喰うけど、速度を重視しないのなら特に。


643:login:Penguin
09/04/05 20:39:11 Z+OjEuCD
500GBとか1TBのHDDのRAIDってrebuildどれくらいかかるわけ?
丸1日とかかかりそうだけど本当に大丈夫なの?
縮退状態で丸1日ってやばくね?

644:login:Penguin
09/04/05 23:43:50 n2oOwvTn
>>642
なるほど。
目的は推測するしかないけど、確かに元記事は速度すごいだろ的に読めるね

645:login:Penguin
09/04/06 01:58:46 MR94bHSC
>>643
1Tで5時間ぐらいかな
ICH使うのは論外

646:login:Penguin
09/04/11 09:10:29 bo5CTwmV
>>645
> ICH使うのは論外

詳しく。

647:login:Penguin
09/04/19 10:07:29 wrQxf8K5
>>638
亀レスだけど
1 /boot を RAID1 (/dev/md0)にしる
2 VG を作業用 PV に払いだして/dev/md1を作る
3 pvcreate /dev/md1 して戻せば桶
拡張性ならば RAID5 が吉

648:login:Penguin
09/04/21 14:59:51 o1qVLXZy
drbdがここでいいか分からんが教えて。
片肺状態で構築するにはどうしたらいいでつか。

649:login:Penguin
09/04/27 18:30:59 rJwiNuMr
RAID0組もうと思っているんですが
故障しやすくなると知って少し不安なのですが
実際のところどうなのでしょうか?
2〜3台で組む予定です

650:login:Penguin
09/04/27 18:34:03 Pc3Uwn5l
故障率が2〜3倍になるだけです

651:login:Penguin
09/04/27 18:44:31 f1/NPYvZ
台数が一緒なら、3台のHDDを別々に使おうがRAID 0で組もうが故障率は一緒。
ただ、失うデータがHDDひとつ分で済むか、全部失うかの違いだけ。


652:login:Penguin
09/04/27 22:26:58 VORtme39
その「全部失う」ってのが、アレイとしての故障率の上昇って事だろ

653:login:Penguin
09/04/27 22:33:22 f1/NPYvZ
>652
RAID 0でもRAID 1でも構成する台数によって故障率は同じように上がる。
異なるのはデータロストの確率。基本だよ。


654:login:Penguin
09/04/27 22:35:19 Pc3Uwn5l
>>649のレベルに合わせた回答してやれよww

655:login:Penguin
09/04/27 22:51:56 VORtme39
>>653
そのデータロストの確率ってのとアレイとしての故障率ってのは
どこが違うんだ?よっぽど悔しかったのかもしれんが

656:login:Penguin
09/04/27 23:12:04 QtSElZiO
>>649
1年間での1台の故障率が10%だとすると。
3台のRAID0だと27%くらいになる。
RAID0っていうのは壊れてもかまないから少しでも速くっていう特殊用途か、奇人向け。
普通の壊れると困る人はRAID1かRAID5を選ぶ。

657:login:Penguin
09/04/27 23:40:57 f1/NPYvZ
>655
なんでRAIDを語る時に耐故障性って話が出てくると思ってるんだ?
構成しているHDDが飛んでりゃ、そのアレイは「故障している」って言うんだよ。世間ではね。
そもそもRAIDは故障率を下げる機構ではないんだぞ。


658:login:Penguin
09/04/27 23:57:58 VORtme39
>>657
結局自分では何も語らないし、ただの話題逸らしか。
基本とか世間とか、いつもの荒らし君だね。

ちゃんと体系立てて説明してくれ。そうしたら納得する。

659:login:Penguin
09/04/28 00:09:05 m/CYeeS7
>>657
デグレードしていると言います。

660:login:Penguin
09/04/28 07:29:52 Lv17PKpw
raid1で組んだときに、接続しているハードディスクの
どちらに不具合が生じているか分かりません。

どうやって、見極めますか?



661:login:Penguin
09/04/28 08:56:00 BT3qbNMV
>658
> ちゃんと体系立てて説明してくれ。そうしたら納得する。

別にあなたに納得して貰う必要はない。必要なのは理解することだろ。
情報処理試験の最初の方にも出てくる話なんだから、自分で調べろ。



662:login:Penguin
09/04/28 10:55:11 HfafcQt/
>>661
OK
結局君は分かっていないことが証明された

663:login:Penguin
09/04/28 11:12:19 HfafcQt/
流れを追うのが面倒な人のために解説しておくと、

>RAID0組もうと思っているんですが故障しやすくなると知って少し不安なのですが

> ただ、失うデータがHDDひとつ分で済むか、全部失うかの違いだけ。

> その「全部失う」ってのが、アレイとしての故障率の上昇って事だろ

> RAID 0でもRAID 1でも構成する台数によって故障率は同じように上がる。

途中からアレイとしての故障率の話ってのが確定したのに、ずーっとデバイスの話。

> そのデータロストの確率ってのとアレイとしての故障率ってのはどこが違うんだ?

> なんでRAIDを語る時に耐故障性って話が出てくると思ってるんだ?
> 構成しているHDDが飛んでりゃ、そのアレイは「故障している」って言うんだよ。

質問には答えず、質問を返す。
やっとアレイの故障の話になったと思ったら、当たり前の定義やそもそも論を
振りかざして相手が分かっていないような雰囲気にしようとする。
以下>>658 >>661 辺りを読めば、結局f1/NPYvZは自分では何も説明していない。

>>660
mdレベルで故障が認識されてたら
$ cat /proc/mdstat
に出てくる。
そうでなければsmartctlでテストしたりヘルスステータスを確認とかかなぁ。

664:login:Penguin
09/04/28 11:20:43 3tR1STAF
結論

RAID0使う人は他のRAIDレベル使う人に比べてヴァカが多い

665:login:Penguin
09/04/28 11:26:37 m/CYeeS7
「ハードディスクが壊れてデータを失うのはしょうがない」と思っている人と、
「ハードディスクが壊れてたくらいでデータを失うなんてとんでもない」と
思っている人との違い。
後者の人が求めるソリューションとしてRAIDは生まれたが、前者の人がRAID
というものに興味を持つと何故かRAID0に目が行く。

666:login:Penguin
09/04/28 19:07:20 HfafcQt/
その通りだねぇ
メリットデメリットきちんと検討できれば何をやっても
そうそう問題にはならないのだけれど。

667:login:Penguin
09/04/28 22:31:34 zjwSq6nf
レベルの低い話題はいつまで続くんだ?

668:login:Penguin
09/04/29 01:03:34 AiwhrIEV
単発ID荒らしクンが消えるまで

669:login:Penguin
09/04/29 13:22:08 wsYO6vIH
>663
アレイとしての故障率なんて俺様基準を出してなにを語っているつもりなんだろうな。
いつからRAIDスレってこんなアホが来るようになったんだ。



670:660
09/04/29 14:21:27 TizG24a/
raid1を組んでいます。
エラーになっていて取り替えるときにsda, sdbが
実際のハードディスクのどちらか分かりません。

どうやってどちらのHDDか調べるのでしょうか。


671:login:Penguin
09/04/29 14:36:33 AiwhrIEV
>>670
smartctl -a あたりでドライブのシリアル番号が出るから、
それと実機の表面に書いてあるのを照合する。
ケースに入れたりして見づらくなる場合は、メモしておくなり対策を。

>>669
特徴が>>663が言ってるそのまんまだね。

672:login:Penguin
09/04/30 11:46:54 aZ37y/uJ
>>670
どのデバイス(/dev/sd?)がどのポートに繋がってるのかは
/dev/disk/by-pathを見れば分かるよ。
リンクが張ってある。

つか、
SATAのドライブの場合、/dev/sd?のデバイス名は起動時に繋がってるデバイス次第でデバイス名がずれてしまう
(未接続のポートは飛ばして存在するものだけがaから順に前詰めされて割り振られる)んで、
RAIDで使う場合は /dev/disk/by-path下にあるデバイス名で指定した方がいいと思う。
いろいろと安心。

673:login:Penguin
09/04/30 14:16:11 bMQ/vl6u
誰か >>648 に回答して

674:670
09/04/30 16:21:01 zlL3XbN1
>>671,672
ありがとう!

675:login:Penguin
09/04/30 22:15:32 uX7rBT51
>>673
missing


676:login:Penguin
09/05/04 02:51:31 t65Z7O61
>>674
人間様には把握し辛いが大事なのにはUUID指定してやるのがいいんでは

677:login:Penguin
09/05/04 22:00:58 KCRGJA9J

software RAID1+LVMでフォーマットしたドライブがあります。
その片一方のドライブをUSB経由で別のPCでマウントしたいのですが、
マウントできません。
/dev/sdcでドライブ自体は認識されています。ファイルシステムをうまく
認識できないようですが、どうすれば/dev/sdcへアクセスできますでしょうか。

678:login:Penguin
09/05/04 23:54:14 pV+AMzaA
おとなしくnfsででも使ってれば?


679:login:Penguin
09/05/05 11:37:36 zBjAoobd
>>676
UUIDで指定した場合ドライブ交換しても
そのまま設定いじらずにrebuildできる?

680:login:Penguin
09/05/05 12:06:19 SKBlHzFp
>>676
それだと物理的なドライブを特定できない

681:login:Penguin
09/05/06 01:13:22 oUg9NO+Q
ぜんぜんRAIDと関係ないんだけど
Linuxでblock deviceをSCSI tapeに化けさせる方法ってない?
VTS(Virtual Tape Server)みたいなのをオープンソースでできるといいんだけど・・・

682:login:Penguin
09/05/06 02:09:11 xcd8qE0t
スレ違い

683:677
09/05/06 09:09:26 TSWAO7wk

すみません。

やはりraid1で組んだドライブの片肺は他のPCで中身を見ることは
出来ないのでしょうか。


684:login:Penguin
09/05/06 09:44:48 DkHoxEB5
ふつうは見れるよ。

685:login:Penguin
09/05/06 10:09:36 xcd8qE0t
>>683
最後の方にsuperblockが書き込まれるだけの普通のパーティションだから普通に読めるが、
mdを経由しない場合等でsuperblockのところに書き込むと壊れる

686:login:Penguin
09/05/06 16:21:21 8ZZPhWYr
むしろ問題はLVM関係でおきていない?


687:login:Penguin
09/05/07 15:44:36 LFqnfI5H
CentOS5.3で全てのパーティションをSoftwareRAID10にしたいのですが
インストール時点で選択出来ない為、HDD1からHDD4のうち、HDD1に
インストールした後、mdadmを使ってHDD2とHDD4の二台でRAID10を構築
HDD1のパーティション、各データをmdデバイスにコピー、起動後
HDD1、HDD3をmdデバイスに追加という流れになるのかなと勝手に
想像しているのですが、もっと簡単な方法はあるのでしょうか。

/bootや/の起動パーティションも含めたRAID構築方法があればご教示下さい。

688:login:Penguin
09/05/07 18:24:04 N8WvPmPV
>>687
やったことないけど、インストール時にコンソールに移ってmdadmコマンド叩けばいいんじゃない?

689:login:Penguin
09/05/08 12:48:13 GZ/pWQnU
グラフィカルインストール中に切り替えが可能なのでしょうか?
方法を教えて頂けないでしょうか?

690:login:Penguin
09/05/08 14:14:40 gIDrHRnX
コンソールにはCtrl+Alt+F2で移れるけど、centosのインストーラがraid10.koを持っていないな。
つくづくカスなディストリだ。

691:login:Penguin
09/05/08 15:36:13 GZ/pWQnU
>>690
有り難うございました。
>centosのインストーラがraid10.koを持っていないな。
その様な文献は見かけました。(Debianも同じようです)
URLリンク(hobby.sugio-garden.com)

上記の通りでCentOSでもインストール出来ればいいのですが、そもそも
RAID5同様、RAID10デバイスにgrubや/bootを入れてはいけないのか不安に
なってきました…。(grubは全てのディスクに入れてもいいものか…?)

もう少し情報量があればいいのですが…。orz

692:login:Penguin
09/05/08 15:52:38 gIDrHRnX
>>691
ダメに決まってんじゃん。

693:login:Penguin
09/05/08 16:26:07 GZ/pWQnU
>>692
ぇ、そうなんですか…。ここ数日の努力は一体…。orz
Windows程手軽ではありませんね…。

694:login:Penguin
09/05/08 17:12:04 0CuaNTWB
そもそも /boot をraid10にする必要性を見直そう

695:login:Penguin
09/05/08 18:43:47 GZ/pWQnU
うーん。手軽にシステム復旧できていいかなと思ったんですが…。
起動ディスクがとんだ場合の復旧方法を纏めてあるサイトとかありますか?

696:login:Penguin
09/05/08 18:46:12 12vZl4Iq
/bootだけUSBメモリに入れとく

697:login:Penguin
09/05/08 18:48:09 RNjlyMME
>695
だから、/bootなんて多く見積もっても100MBもあれば十分で、ほとんど書き換えなんてしないんだから、
「『RAID 1』で必要にして十分。RAID 1+0にしてわざわざ耐障害性を落とす需要がないだろう?」
ということだよ。

HDD 4本使って/bootをRAID 10にするくらいなら、2本をミラーで残りをspareにでもしておいた方が
ずっと気が利いているでしょ。


698:login:Penguin
09/05/08 19:01:27 0CuaNTWB
>>695 いや、だからなんでRAID10でなきゃ駄目なのさ。

それに、/boot を software RAIDを組んで、ディスク障害が起きた時に本当にちゃんとboot
するかどうかちゃんと確認したいだろうが、起動しているディスクを意図的に壊すのは結構
大変なので確認そのものがそれなりに難しいよ。

ちなみにうちで、あるメーカー製サーバー機でsoftware RAIDを組んでいた時には、ディスクが故障したと
思われるタイミングでOSがフリーズ、リモートからのIPMIによるリセットや電源再投入でもOSが
起きてこなかった。この時は、BIOSがS.M.A.R.T..エラーのあるディスクを見つけて、起動前に警告画面を
出して止まっていた。結局、このマシンのBIOSでは、S.M.A.R.T.エラーのあるディスクを物理的に
切り離さないと、起動時にキーボード入力待ちにならずにbootさせることができないことがその後判った。

サーバー購入する前にここまで確認するのは結構大変。だから、リモートKVMなどが使えないなら、
手が届かないサーバールームに置くようなマシンの場合、ディスクエラー時の挙動がそれなりに判って
いるハードウェアRAIDボードなりを買ったほうが結局は良いと自分は思う。

699:login:Penguin
09/05/08 19:33:00 9KKZ6BOr
H/W RAIDカードは予備も一緒に買っておかないと不安なのが、個人で使うには
ハードルが高めですな。

まぁ、H/WだろうがS/Wだろうが、初めての機種やディス鳥でのRAIDの設定は
1度は抜いて試してみるってのは鉄則だということですね。
mdadmそのものの設定はOKだと思っても、ubuntuとかさ、起動時にHDDが
こけてるとbusy_boxに落ちるって挙動に設定されているのもあったりするから…。


700:login:Penguin
09/05/09 00:44:21 ZpbYLtpb
最近のdebianはinst時にraid10設定できた(/bootじゃないですよ)が、
ubuntuのserver 8あたりはできんかったと思う。raid5は選択肢にあったと思うので謎だけど。
でまぁ/bootは4本でも6本でも束ねてriad1でいいよ。あとgrubとかinst忘れんようになー


701:login:Penguin
09/05/09 01:17:43 SW2MG53c
皆さん有り難う御座いました。
色々調べてみましたが、せっかく買ったHDD4本は余すことなく使いたいので
仰るとおりRAID1を切って/bootを入れる方向で行こうかと思います。

後は下記サイトなどを参考に頑張ってみたいと思います。

URLリンク(d.hatena.ne.jp)
URLリンク(rewse.jp)

重ねて有り難う御座いました。

702:login:Penguin
09/05/09 06:53:18 g2MAqT6x
>>682
あーやっぱりスレ違いですか
でもおまいらバックアップはどうしてるの?
RAIDではバックアップにはならんよな?

703:login:Penguin
09/05/09 08:26:01 a99IzaMs
スレ違い

704:login:Penguin
09/05/09 08:29:14 50sBA7v3
>>700
debian系はdebootstrapがあるから、デフォルトのインストーラが対応していなくても、どうとでもなる。

705:login:Penguin
09/05/09 08:30:23 50sBA7v3
>>702
pdumpfsでもcronで回しとけ

706:login:Penguin
09/05/13 21:18:57 Dxfkh9+9
ギブアップなので質問させてください

只今ハードRAIDをミラーリングで構築しています

linux dd でRAIDドライバディケットを読み込ませてインストールを進めているのですが

HDDを認識しないです…

ddオプションを使用せずインストールするとHDDを認識するのですが
ドライバが入っていないのでRAID構成が出来ません

windowsでは成功しているのでBIOS設定は間違いないと思います

どなたかお助けください

707:login:Penguin
09/05/13 21:39:30 B0dJX3uS
意味がよく分からなかったので「ドライバディケット」とか
「ddオプション」とかぐぐってみたけど、やっぱり分からなかった。

DDオプション……???
URLリンク(goroumaru-dd-blog.cocolog-nifty.com)
URLリンク(www.volks.co.jp)

708:login:Penguin
09/05/13 21:59:09 DyZoiBpp
>>706
ddってのは何かのインストーラの起動オプションか?
はっきり言って、全く意味が分からない。
ちゃんとした回答を求めているのなら、
・RAIDカードのメーカーと型番
・使用するディストリの名前のバージョン
せめて、それくらいはちゃんと書くべし。

まぁ、エスパーすると本当はハードウェアRAIDじゃないんだろうけどな。

709:login:Penguin
09/05/13 22:05:29 ekdM9VHa
>>706-707
ひょっとして日本語が不自由ではありませんか?
もし英語が得意なら英語でもおk?

710:login:Penguin
09/05/13 22:12:28 lxBosufO
>>709
何処にでもこういうこと言うやついるな。同一人物かね。

711:login:Penguin
09/05/14 05:20:31 m2xQQRsj
>>706
ドライバディスケット、だな。ddってのはインストーラの
起動オプション。redhat系かね。
まぁ実際にはfake raidの類だと思うけど、、、カードの型番は?

ぶっちゃけ小規模運用ならsw-raidが一番現実的だよ。
中規模以上なら替えを揃えた上で、外からは1デバイスに
見えるタイプのhw-raidの方が楽になると思うけど。

712:login:Penguin
09/05/14 10:33:36 Uqibt60q
中規模って具体的にはどれくらいからですか


713:login:Penguin
09/05/14 10:35:20 Ho0hcI6J
まともなH/W RAIDカードを予備も含めて買う予算が組める規模。


714:login:Penguin
09/05/14 10:59:34 Gy1T7uzg
drbdってファイルシステムが何であろうと、
ミラーしてくれますか?

715:707
09/05/14 12:12:20 oJXETyDq
>>709
なんで俺も入ってるんだ?w

716:login:Penguin
09/05/14 12:16:18 RkzUi3vt
>>706です

HP内蔵G5 SATA RAIDです

boot:linux ddでUSBFDDを読み込ませると
sdaで認識されてHDDが読み込めないのでしょうか?

通常のインストール方法ですと
sdaとsdbにHDDを認識するのですがドライバを入れられないので困っています

717:login:Penguin
09/05/14 12:30:41 m2xQQRsj
MCP55でnvRaidだろうから(つまりfakeraid)
インストール時にdmraid動く鳥かどうかだろうな。

718:login:Penguin
09/05/14 12:32:05 E869XGZo
dm使うくらいならmdにしたほうが何倍もいい

719:login:Penguin
09/05/14 12:39:30 //Y2vNfg
どれだけ困っていても
ディストリ名は明かしたくないという
理由は何なのだろう

720:login:Penguin
09/05/14 12:40:36 //Y2vNfg
あ〜これか?
URLリンク(h50222.www5.hp.com)

質問するときちゃんと説明できないってことは
書かれてる手順通りにちゃんと実行してるのかどうかも分からんな。

721:login:Penguin
09/05/14 12:51:26 m2xQQRsj
うむ、ドライバ云々以前にmd/dmraidの得失についても検討してないみたいだしねぇ。
サポート外の鳥にドライバ突っ込もうとしてるとかありそうだw

722:login:Penguin
09/05/14 13:01:02 m2xQQRsj
あぁ、310あたりの内蔵だとnvじゃなくてadaptecかなぁ。
まぁ情報不足しすぎて推測にしかならんが

723:login:Penguin
09/05/14 13:23:33 //Y2vNfg
チェックポイント
(1)使ってる機種名とディストリ名&バージョンは?
(2)手元にあるのは使用機種用の使用OS(ディストリ&バージョン)対応のドライバか?
(3)ドライバのイメージは正しい手順でFDに書き込まれているか?
(4)ドライバの読み込みを実行する正しい操作を行っているか?

724:login:Penguin
09/05/30 05:36:24 fl0VPPTI
>>676
> 人間様には把握し辛いが大事なのにはUUID指定してやるのがいいんでは

>>680
> それだと物理的なドライブを特定できない

え?なんで?ハードディスクのUUIDって
ユニークに割り当てられるんじゃないの?


>>679
> UUIDで指定した場合ドライブ交換しても
> そのまま設定いじらずにrebuildできる?

自分はディスク交換時に、必要に応じて
 fstab を書き換えてますよ。

725:login:Penguin
09/05/30 07:20:38 at9C0NOr
>>724
HDDはUUIDを持たない。
だいたいUUIDはFSなりRAIDボリュームなりに付くわけで
そこらへん分かってりゃ出てくるはずのない疑問なんだが。

パーティションを切らない運用をすればHDDとUUIDが1:1対応するけど
それはHDDのUUIDとは言わない

726:login:Penguin
09/05/30 10:05:13 fl0VPPTI
>>725
うわ、すまん、誤情報ごめん。

fstab に書いてる UUID は HDD じゃなくて
raid ボリュームに対しての物だった。
ボケた頭で夜中に書くもんじゃないな。

>>680 >>679
というわけで >>724 は無しでお願いします。

727:login:Penguin
09/05/30 13:34:03 2T6aXAyF
>>724
> >>679
> > UUIDで指定した場合ドライブ交換しても
> > そのまま設定いじらずにrebuildできる?
>
> 自分はディスク交換時に、必要に応じて
> fstab を書き換えてますよ。

なんでそんな面倒なことを。
>>672 に書いてある通り、接続してるポートで指定すりゃ
一切設定変えずにrebuildできるぞ。
普通はリムーバブルフレームとかに入れてHDD差し替えだろうから
それが一番楽だと思うが。

728:724
09/05/31 09:32:37 VjFraXIU
>>727
ごめんホントにごめん。
それ単に raid ボリュームのマウントで、
しかも raid 構成してるディスクの入れ替え時に
やるわけではないんだ。
寝ぼけて勘違いして書いちゃっただけw

729:login:Penguin
09/06/18 02:46:39 JtLuBXCI
RAID10だけあればいいだろ、もう。

730:login:Penguin
09/06/18 10:09:55 sFMYZNyt
RAID6+6とかどうすんだよ。

731:login:Penguin
09/06/18 11:43:15 RAyeJNBf
なんだそれ。
4x4で最低16台構成から?
1TBドライブ16台で使える容量は2TBとか
そんな感じ?

732:login:Penguin
09/06/18 12:25:00 mDbyuVWY
RAID66はつおいぞ

733:login:Penguin
09/06/18 15:55:18 LDOJ4AL5
PromiseのATA RAIDカード思い出すな。

734:login:Penguin
09/06/19 16:47:34 AZx2pzna
16台使って容量は4台分にしかならないって…なんか損した気分に
9台も短期間で壊れるとか無い…と信じたいな



735:login:Penguin
09/06/19 21:21:00 oA5n8H4+
RAID10が一番バランスがよい。
RAID1、5、10だけあればいいと思う。
RAID6使うメリットは何?

736:login:Penguin
09/06/19 21:48:48 +6l6RjW1
>>735
「任意の」2台が壊れても平気
10はRAID1を構成する2台が壊れたらアウト

737:login:Penguin
09/06/19 22:37:42 AZx2pzna
RAID50,RAID60までは許せるな
66とか65とかはネタだと信じたい

738:login:Penguin
09/06/19 23:14:30 kIDvbdHb
66や65はともかく61ぐらいは許せるけどな。


次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

5046日前に更新/284 KB
担当:undef