1 名前:login:Penguin [2007/01/11(木) 12:55:58 ID:rL+q6m/Y] Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.co.jp/product/raid/os_support_list.html Linux EVMS 一般 ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html ttp://evms.sourceforge.net/ ... あと続けてくらさい。
522 名前:login:Penguin mailto:sage [2007/12/21(金) 10:14:34 ID:BvrFe3Un] 結局ソフトウェア的なRAIDについてはWinとLinuxで互換性を取るのはムリだから 何をチョイスしたところで諦めるしかないわ。
523 名前:login:Penguin mailto:sage [2007/12/21(金) 10:48:48 ID:4VlKmS8l] >>521 とりあえず、仮想化は構成を複雑にしないって意味で正解だと思う。 BIOSレベルでミラーとか作れるのは便利だと思うけど、 OSからまともに使えない場合はまったく意味がないからなぁ…。 ドライバがまともならFakeも良いだろうね。 Linuxだとその条件が以外に難しいからSW使ってる人も多い。 (dmraidとかだと結構ちゃんと使えます?>使ってる方) あとBIOSでアレイいじってる間はOS起動しないから 可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。
524 名前:login:Penguin mailto:sage [2007/12/21(金) 16:03:13 ID:vT/e4/3W] >>523 可用性という言葉は知りませんでした。 ttp://e-words.jp/w/E58FAFE794A8E680A7.html 可用性、つまりシステムの壊れにくさのこと。 障害の発生しにくさや、障害発生時の修復速度などによって計られる。 > あとBIOSでアレイいじってる間はOS起動しないから > 可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。 Intel matrix storage manager というのがあってOS稼動したままRaid1のアレイの復旧も出来るようです。 もちろん復旧中はHDアクセスは非常に重くなったりしますし、 世の中にはもっと可用性の高いシステムもあるのでしょうが、 デスクトップPCの可用性としては、現状で個人的には充分です。 # 可用性が重要視されるであろうサーバー機だったら、 # Win上のLinuxで運用などしませんしw > (dmraidとかだと結構ちゃんと使えます?>使ってる方) 使ってませんが、ggってみた限りではdmraidの出来はあまり良くないような印象を受けます。 というかlinuxのFakeRaidとSontRaidに関しては、既に>>192 で結論が…。
525 名前:login:Penguin mailto:sage [2007/12/21(金) 18:40:58 ID:DRFyI6f4] 今時OSが起動しない状態でしかリビルド出来ないようなのはねえよ
526 名前:login:Penguin mailto:sage [2007/12/24(月) 14:03:23 ID:brxL+xQV] そのせいでリビルド中に何回壊れたことやら。
527 名前:login:Penguin [2007/12/24(月) 16:20:29 ID:pkkqmlH/] 関係ないだろ馬鹿か?
528 名前:login:Penguin mailto:sage [2007/12/27(木) 00:40:51 ID:rLyRK7d3] RAID1,5は可用性をあげる目的と考えた方がいい 故障時に可用性よりデータ保全を最優先する場合、冗長性が無くなった段階で ジャーナリングログでデータ部分を別ディスクにバックアップしている場合はそのままリビルド そうじゃない場合リビルドで壊れる可能性を考慮して、 RAID1の場合一台外してバックアップする RAID5の場合全台外してバックアップする RAID5よりRAID1のリビルドの方が負荷が少ないのでリビルド中にRAID5ほどは壊れない 故障時に可用性とデータ保全を両立させるためにはRAID6なりを用意するのがよい データ保全を考えるなら2台壊れたら停止させることになるけど。
529 名前:login:Penguin mailto:sage [2007/12/27(木) 00:43:25 ID:rLyRK7d3] こっちのほうが全然分かりやすいorz ttp://ja.wikipedia.org/wiki/RAID#RAID.E3.81.AF.E3.83.90.E3.83.83.E3.82.AF.E3.82.A2.E3.83.83.E3.83.97.E3.81.AE.E4.BB.A3.E6.9B.BF.E3.81.A8.E3.81.AA.E3.82.8B.E3.81.8B.3F
530 名前:login:Penguin mailto:sage [2007/12/27(木) 01:16:49 ID:K2qSwS4Z] >>528 529に書いてあるとおり、データ保全は基本的にバックアップの仕事だね ただ、バックアップは定期的にとるものであって、アレイが縮退して初めてとるのでは遅いよ。 バックアップの読み出しでアレイが壊れるリスクに対応できない。読み出し成功すれば問題ないんだけど。 ま、数台くらいまでならあまり気にしなくていいリスクなんだけどね。
531 名前:login:Penguin mailto:sage [2008/01/05(土) 15:15:32 ID:MAvpolV9] mdadmの話なんですが現在320Gを6台でRAID5組んでる んですが、少し容量足りなくなってきたんで1Tを2個 追加して 320>|RAID0(1T) 320>|--------→>| 320>| 320>|RAID0(1T) 320>|--------→>|RAID5(3T) 320>| 1T-------------→>| 1T-------------→>| こんなの考えてるんですが、mdだけで構築できますかね? やっぱりLVM使わないとダメ?
532 名前:login:Penguin mailto:sage [2008/01/05(土) 15:48:37 ID:gm0qG86Q] 上から順番にmd0、md1、md2として。 もし仮に出来たとしても、md0〜2まで同時にactiveになるけど その際md2の要素が1つ欠けているわけで、立ち上げる度に md2のリビルドが発生しないだろうか? 面白そうだから、実験してみては。
533 名前:login:Penguin mailto:sage [2008/01/05(土) 17:02:09 ID:MAvpolV9] アレイの組みあがる順番が問題ですよね。 そのあたりデレィさせることができないかな?...と。 しかし、よく4台のHDDでRAID0+1とかで組んでるという 話聞くんですがあれもこれと似たような話のような気がする。
534 名前:login:Penguin mailto:sage [2008/01/07(月) 15:40:04 ID:dghccbSz] Virtual PCでやってみた。 まず64MBのパーテション2個をRAID0にしてその後に 128MBの別のパーテション2個でRAID5組んで見た。 64MB> |raid0(128MB) 64MB> |--------------→>| 128MB-------------------→>|raid5(384MB) 128MB-------------------→>| 結果>OK ちゃんとmd0作ってからRAID5作成してくれてるみたい。 fstabで自動的にマウントもできた。 それではと、さらに64MBのraid0パーテション追加してみる 64MB> |raid0(128MB) 64MB> |--------------→>| 128MB-------------------→>|raid5(512MB) 128MB-------------------→>| 64MB> |raid0(128MB) 64MB> |--------------→>| 追加自体は問題なく、パーテションの拡大もできた。 が、再起動すると最後に追加した方のraid0が外れて Raid5は3セットで動作してる......orz どうもログ見て見ると単純にアレイ作成順番で認識 してるようで後ろのraid0も起動後はアレイとして 作成されているが、Raid5構築時認識されてないので 外されてしまったみたい。 なんとか、アレイの起動順番変えられないものか...
535 名前:login:Penguin mailto:sage [2008/01/07(月) 16:57:20 ID:/TlGVyIM] >>534 mdadm.confの記述を変えるんじゃダメなの? アレイのUUID(orデバイス群)とデバイス名(md*)の対応情報が mdadm.confなんだからそこを書き換える。 予想としてはmd0から順に起動するだろうから、 新しい64MB/raid0をmd1、512MB/raid5をmd2に直せば問題ないと思われ # 当方debianなんで流儀違ってるかもしれない。
536 名前:login:Penguin mailto:sage [2008/01/07(月) 17:31:09 ID:dghccbSz] >>534 テスト環境はdebian etchっす。 漏れもそう思って順番変えてみたんだがmdadm.confの 情報はアレイの構成情報じゃなくてモニタリングする 時の比較情報に使うものみたいで、状況変わらなかった。 そもそも 64MB> |raid0(128MB,md2) 64MB> |--------------→>| 128MB-------------------→>|raid5(512MB,md0) 128MB-------------------→>| 64MB> |raid0(128MB,md1) 64MB> |--------------→>| md2→md0→md1の順番で作成してるんだ。 で、md2とmd0のだけの時は問題なかった。 mdadmのアレイ構成情報はどこに記述されてるんだろ。 mdadm.confって無くても動作するし、どこか別の所に 設定されてるはずなんだが、、、、。
537 名前:login:Penguin mailto:sage [2008/01/07(月) 18:14:22 ID:/TlGVyIM] >>536 そうか、力になれなくてすまん /etc/init.d/mdadm-raidあたりを覗くと、 mdadm --assemble --scanとかやった出力を各行で処理してるんで、 ずっとmdadm.confで制御してると思ってたよ mdadm.confを読まない場合は、アレイ構成情報はPersistent Superblock (構成パーティションの最後の方)に入ってるはず。mdadmのオプションで見れる ただデバイスの起動順までそこに入れる、ってのは非合理なんだよなぁ……
538 名前:login:Penguin mailto:sage [2008/01/07(月) 18:25:08 ID:dghccbSz] >>537 すまんできた。 少し考えれば分かることだがraidの構成はinitdの起動スクリプトは の中にあるんだな。ダイレクトにイメージ開いて編集して構成順番を md2→md1→md0に書き換えたらOKだった。 initrd.imgを作り直す時にmdadm.confを参考にしてイメージ作り直し してるみたいね。だから単にmdadm.conf書き換えようが消そうが raidは構成されるわけだ。 明日、1TB2個買ってきて実機でやってみよ。
539 名前:login:Penguin mailto:sage [2008/01/07(月) 18:47:31 ID:/TlGVyIM] >>538 おつ。ちなみにこっちで調べた感じだと、 起動はPersisten Superblock内にあるsuper-minor値の小さい順?な感じ (後から作った64MB/raid0はsuper-minor値が大きいので、 /dev/md*の数字が小さくても後に起動される) initrd.img作るときにmdadm.conf読むってのは初耳だなぁ。 あとで調べてみよう。
540 名前:login:Penguin mailto:sage [2008/01/07(月) 18:51:45 ID:6LLk5psJ] >>539 grep mdadm.conf /sbin/mkinitrd
541 名前:login:Penguin mailto:sage [2008/01/07(月) 18:54:15 ID:/TlGVyIM] >>540 THX
542 名前:login:Penguin mailto:sage [2008/01/08(火) 17:53:05 ID:OGlZLqVZ] スワップ領域って同期する必要ってあるの?
543 名前:login:Penguin mailto:sage [2008/01/08(火) 21:32:25 ID:kFPjRcz2] なぜ同期を取らなくても良いと思ったのですか?
544 名前:login:Penguin mailto:sage [2008/01/09(水) 09:16:36 ID:nJLLxpTq] バックアップする必要性がないと思ったからです
545 名前:login:Penguin mailto:sage [2008/01/09(水) 20:10:34 ID:vhzJqQMp] どうも釣りではなく、真面目な質問のようなのでお答えします。 稼動中のOSにとって、SWAPパーティションの存在はメモリと同じ位に大事です。 もしもSWAPパーティションをミラーしていない場合に、SWAPパーティションが存在する HDDが不良になった場合、SWAPパーティションが見えなくなります。 これは稼動中のOSにとっては、メモリにアクセスできなくなるのと同じ意味です。 試したことはありませんが、きっとkernel panic行きでしょう。 SWAPパーティションがRAID内に存在していれば、HDDの不良が発生していても 冗長が保たれている限り、OSはSWAPパーティションにアクセスできます。 結果、OSは問題なく稼動することができます。 システムの安定稼動を目的にするシステムならば、SWAPパーティションは絶対に RAID内に含むべきです。 システムの安定稼動よりもデータ用の容量が優先ならばSWAPパーティションを RAID内に含ませなくてもいいでしょう。 こんな所でおけ?
546 名前:login:Penguin mailto:sage [2008/01/09(水) 23:10:36 ID:QSyCJota] >>545 解説乙です。 むかし同じ疑問を持って、起動中にスワップパーティションを 削除してみたところKernel Panicになりましたw それ以来、 まともな鯖の構築では必ずスワップのミラーもするようにしてます。
547 名前:login:Penguin mailto:sage [2008/01/10(木) 07:10:57 ID:Xl1xx6Km] それミラーとか関係ないお前のミスじゃん
548 名前:542 mailto:sage [2008/01/10(木) 09:17:31 ID:Y4ukHsPA] >>545 勉強になりました 分かりやすい解説ありがとうございました
549 名前:login:Penguin mailto:sage [2008/01/11(金) 05:10:20 ID:pC8cgKoa] >>547 いちいちレスするのもくだらないですが ミスじゃなくて実験ですよ
550 名前:login:Penguin mailto:sage [2008/01/11(金) 10:15:26 ID:bKTO3W/i] >>549 何にでも文句つけたがる年頃なんでしょう。 脱初心者ぐらいの。
551 名前:login:Penguin mailto:sage [2008/01/11(金) 10:31:57 ID:1u4+JVGt] そういった輩はしつこいからスルー推奨
552 名前:login:Penguin [2008/01/11(金) 17:00:47 ID:oau76v1R] Kernel Panicとか馬鹿じゃねーの
553 名前:login:Penguin mailto:sage [2008/01/11(金) 23:06:14 ID:nnTIF6b/] >1 出直して来い! って、ちょうど1年前・・・
554 名前:login:Penguin mailto:sage [2008/01/14(月) 00:42:46 ID:X6gV4HK4] FC6でSATAのHDD*4でソフトのRAID5を組んでNASとして使ってるんですが ネットワーク上からアクセスできなくなり調べてみたところ4台ともRAIDのアレイからリムーブされていました 再起動してみたところ最初は正常に動いているのですがしばらくするとまた停止してしまいます この場合4台とも壊れているとは考えにくいのですがどのように確認、リビルドしたらいいでしょうか?
555 名前:login:Penguin mailto:sage [2008/01/14(月) 09:04:43 ID:6ov9yz32] >554 SATAケーブルが緩んでいる可能性あるかも 外してみて抜けやすかったら寿命
556 名前:login:Penguin mailto:sage [2008/01/14(月) 09:10:28 ID:lY+WgiSQ] /var/log/messages見たら、何かログが残ってるんでは?
557 名前:login:Penguin mailto:sage [2008/01/15(火) 12:43:56 ID:eGPzviNd] www.owltech.co.jp/products/pc_case/PCCHS01/PCCHS01.html VIA C7のPadLock ACEでTrueCrypt暗号処理 + RAID5とかすると かっこよさそうだけど、電源がACアダプタ 120Wでは...
558 名前:login:Penguin mailto:sage [2008/01/18(金) 10:32:12 ID:Onzb7zVS] orz.4chan.org/d/src/1200497751380.jpg
559 名前:login:Penguin mailto:sage [2008/01/18(金) 22:19:59 ID:/N+doRnf] 3ware 9500S-4LPを 構成250G×4でRAID5、Debian etchで使用してます 今はまだ余裕がありますが今後容量が少なくなってきたら オンライン拡張とやらで 例えばRAID5のまま全部500G等に入れ替え容量を増やすことができる物なのでしょうか よくわからないのでご存じの方教えて下さい。
560 名前:login:Penguin mailto:sage [2008/01/18(金) 23:31:10 ID:wp/0tR8X] 一台入れ替える→リビルド これを4回繰り返してドライブを全部入れ替える その後オンライン拡張で増量。 結構手間&ヒマはかかる。 で、増えた分を別パーティションとするなら問題ないけど ファイルシステムを拡張(既存のパーティションを大きくする) となると LVMを使ってない場合にはかなり大変。 LVM未使用の場合、一旦全部バックアップを取って、 ドライブ入れ替え→丸々新しくRAID構成→リストア の方が断然早いし、楽。
561 名前:login:Penguin mailto:sage [2008/01/18(金) 23:42:23 ID:wp/0tR8X] ん? 待てよ。 オンライン拡張ってドライブ単位のみだったか? マニュアル読んでみたけど、 そもそも使用してるドライブに空きがあるという前提は存在しないから… 確実なことは、サポートに聞いた方がいいと思う。 が、俺だったら、一旦バックアップ取ってゼロかやるな。 ほんの数時間で終わる作業だし。
562 名前:login:Penguin mailto:sage [2008/01/19(土) 10:41:26 ID:KPd9mEy8] >>561 ありがとうございます 私もよくわからなかったのがそこなんですよ ドライブ単位の追加だと空きがない時点で できないですからね。 新たに4ポート以上の物に交換するか 一からやり直すかですね。
563 名前:login:Penguin [2008/01/20(日) 12:30:39 ID:Kq5k1NMa] SCSIでRAID組むと高いんですか?
564 名前:login:Penguin mailto:sage [2008/01/20(日) 13:03:30 ID:VSFaVtzp] HDD の値段見てみりゃ大体わかりそうなもんだが...
565 名前:login:Penguin mailto:sage [2008/01/20(日) 19:43:13 ID:f+pgQsPW] 安いよ。
566 名前:login:Penguin mailto:sage [2008/01/20(日) 20:35:48 ID:/mh+B85/] バッファローのTeraStationってLinux md?
567 名前:鯖”管理”者 [2008/01/20(日) 20:50:05 ID:ZhP37dc/] 先生方、ご教授ください。 先日、RAID1のDELLサーバのシステムボードが故障したので、電源を落とした。 交換後、電源投入するもOSが起動不可。レジストリが壊れたみたいなmesage なぜ、こんな事に??RAID1なら、片方おかしくなっても、読み取り可能ディスク からREADしにいくのではないんですか?
568 名前:login:Penguin mailto:sage [2008/01/20(日) 21:50:07 ID:iSaKK8Ey] >>567 RAIDとて、どのディスクをどのような構成で組み立てるのかの管理情報 がいる。管理情報がBIOSか何かのフラッシュなどに書かれていて、それが 飛んだじゃない? その「レジストリが壊れたみたいなmessage」をここに 書いてみ? >>566 そうだよ。
569 名前:login:Penguin mailto:sage [2008/01/20(日) 21:52:27 ID:VSFaVtzp] RAID だから OS に変なレジストリを書けと言われたら、両方の HDD に変なレジストリを書き込みにいく。 仕様通りですが何か?
570 名前:login:Penguin [2008/01/20(日) 22:27:46 ID:Kq5k1NMa] アドバイスお願いします。 RAID10を組んだサーバを、LinuxでデータベースとNAS(というかファイルサーバ) として運用したいと考えています。 そこで、このマシンはデータ領域専用としNFSを立てて、別途RDBMS、ファイル共有は マシン(ML115とかの格安機)を用意してデータをNFSで共有する案を思いついたのですが、 こういうやり方ってどうでしょう? パフォーマンス悪いかな
571 名前:login:Penguin mailto:sage [2008/01/20(日) 22:39:57 ID:k9dIsucL] RDBMS (Oracle とか PostgreSQL)とかの本体は別マシンで動かし、データ領域だけファイルサーバをマウントして、そこに表領域とかを置くってこと? 遅いと思うよ。 たてる RDBMS にどれくらいの性能を求めるか、同時アクセス数にもよるけど、RDBMS でアホな SQL を投げると CPU 100% 持ってかれることもあるし、大量の件数をさまざまなテーブルから取ってくるような SQL だとディスクアクセスをもっていかれる。 おれは開発環境では、DBサーバとファイルサーバは物理的に分けてるよ。
572 名前:login:Penguin mailto:sage [2008/01/20(日) 22:47:36 ID:M6/8RitH] DBはクエリをon memoryが基本なんじゃないのか?
573 名前:login:Penguin mailto:sage [2008/01/20(日) 22:53:04 ID:k9dIsucL] >>572 理想はそうだけど、更新系のSQLも使うし(そのアプリケーションの性格や、一回に更新するデータ量にもよるけど)、 開発やテスト時だったら、export / import もひんぱんにやることもあるだろうから、いずれにせよ データ領域を NFS 越しに使うというのは、あまりお勧めできないと思う。
574 名前:login:Penguin mailto:sage [2008/01/20(日) 23:50:53 ID:VSFaVtzp] > (データベースの) データをNFSで共有する案を思いついたのですが、 実運用なら、まずありえない...
575 名前:login:Penguin mailto:sage [2008/01/21(月) 00:12:27 ID:qM82RYen] 自分も最初は工エエェェ(´д`)ェェエエ工って感じだったが、 最近はRACなんかだとNASを共有ディスクとして使う例が増えてきている。 SANなどのブロックアクセスに比べて扱いが簡単になるしね。
576 名前:login:Penguin mailto:sage [2008/01/21(月) 01:03:14 ID:/80iiPEb] パフォーマンスが云々より,ロックとか問題ないの?
577 名前:login:Penguin mailto:sage [2008/01/21(月) 01:10:59 ID:hxdOAtHc] >>576 だからそれをちゃんと意識してるのがクラスタFSって奴。
578 名前:login:Penguin mailto:sage [2008/01/21(月) 02:59:00 ID:RnyPYnCW] OracleとかでNetApp等をファイルサーバにしてNFS越しに使うっていうのは かなり昔からやられていたことだからなぁ
579 名前:login:Penguin mailto:sage [2008/01/21(月) 05:24:08 ID:fkuqhVfb] >>570 どのあたりまで共用したいのかによるだろうけど iSCSIならそんなに遅くならなかったよ
580 名前:570 [2008/01/21(月) 09:14:01 ID:ABezklEe] >>570 です、みなさんどうも 自宅サーバでの運用でそこまでやるものどうかと思ってるんですよね…
581 名前:login:Penguin mailto:sage [2008/01/21(月) 10:37:28 ID:qM82RYen] >>577 それはちょっと意味が違う。 クラスタFSの代わりとしてNFSを使う。 クラスタFSは、複数ノードから直接マウントしてブロックアクセスさせるために使うものだし。
582 名前:login:Penguin mailto:sage [2008/01/21(月) 18:46:11 ID:Ml+uIs4Z] RAID10をみくびっていた、これはいいわ。
583 名前:login:Penguin mailto:sage [2008/01/21(月) 18:56:42 ID:5oPPsRCb] >>582 mdadm?
584 名前:login:Penguin mailto:sage [2008/01/21(月) 19:13:44 ID:psEK2uGZ] たしかに金銭面と実装台数と容量の兼ね合いが問題なければ10が速度も安定性もあって一番いいな 何よりリビルド時の故障率の低いし
585 名前:login:Penguin mailto:sage [2008/01/21(月) 22:46:15 ID:d8TwXO3z] 漢ならRAID0だろ
586 名前:login:Penguin mailto:sage [2008/01/21(月) 23:00:49 ID:hxdOAtHc] >>581 ああロックって普通のNFS上のファイルロックの話だったか。
587 名前:login:Penguin mailto:sage [2008/01/22(火) 01:50:08 ID:j1simr6K] >>580 iSCSI簡単だよ md+LVMにiSCSI target LV用意してMacから使ってるよ。
588 名前:login:Penguin mailto:sage [2008/01/22(火) 03:49:38 ID:d+IS9wuL] yes お手軽なので試してみては?>iSCSI >>570
589 名前:login:Penguin mailto:sage [2008/01/22(火) 03:53:10 ID:d6P1Z5B2] >>585 RAID0はRAIDにあらず
590 名前:login:Penguin mailto:sage [2008/01/22(火) 10:04:27 ID:ByANW+Kw] そーいう揉める元を言わない方が・・・
591 名前:login:Penguin mailto:sage [2008/01/22(火) 10:11:08 ID:+9P7njkg] RAID0使うやつは人間のクズ。
592 名前:login:Penguin mailto:sage [2008/01/22(火) 13:10:01 ID:ByANW+Kw] だからさぁ
593 名前:login:Penguin mailto:sage [2008/01/22(火) 13:56:21 ID:eslKqOkh] あのさぁ
594 名前:login:Penguin mailto:sage [2008/01/22(火) 16:33:32 ID:rk9O7CGm] >>589 事実ではあるが 流れ的に あえて書くことでもない ネタニマジレス
595 名前:login:Penguin mailto:sage [2008/01/22(火) 18:30:28 ID:mkmfUeTP] デスクトップのシステム用のHDDなんかはストライピングだな 週一回自動で鯖にバックアップ取らせてるし問題ない
596 名前:login:Penguin mailto:sage [2008/01/22(火) 19:07:13 ID:l4R+Ipoe] バックアップが日曜だったら土曜日にRAID0が壊れる件
597 名前:login:Penguin mailto:sage [2008/01/22(火) 19:15:30 ID:mkmfUeTP] システム用のアレイなんか大して大事なもんないからいいよ ゲームのセーブデータやブラウザの履歴が古くなるぐらいだし メールもケータイとデスクトップとノートと鯖に同じものが行くようにしてあるしね 困るのは鯖がRAID5なんだがリビルドはすべて新しいディスクにドライブイメージをコピーしてからするようにしてるんだけどそれでも2台目がコピー中に死ぬ可能性があるということだ
598 名前:login:Penguin mailto:sage [2008/01/22(火) 20:27:49 ID:igDhRHFt] RAID6 にすりゃいいじゃん。
599 名前:login:Penguin mailto:sage [2008/01/23(水) 23:04:52 ID:H/ZtqkUt] >>595 おお、俺がいる。 うちはバックアップのあとシャットダウンするスクリプト書いて 毎日バックアップだけど。
600 名前:login:Penguin mailto:sage [2008/01/24(木) 16:46:17 ID:7c4gJd41] カッコンカッコン…
601 名前:login:Penguin [2008/01/24(木) 19:35:26 ID:d7j3JduP] アッー!
602 名前:login:Penguin mailto:sage [2008/01/25(金) 03:19:34 ID:eST0kDMC] mdadmでRAID10を構築しようと思ってるんだが、 どのディスクとディスクがミラーリング構成になるか指定ってできないんですかね? sda1とsdb1でストライピング、hda1とhdb1でストライピング、みたいな形にしたいんですが・・・ レイアウトのnearとかfarとかが関係してそうな感じなんですが、英語がわかんね このアドレス見たけど全然わからん・・・ ttp://en.wikipedia.org/wiki/Non-standard_RAID_levels#Linux_MD_RAID_10
603 名前:login:Penguin mailto:sage [2008/01/25(金) 09:13:14 ID:Ywyn1H84] >>602 --createで並べた順じゃね? --create /dev/md0 --level=10 /dev/sda1 /dev/hda1/dev/sdb1 /dev/hdb1 これで -n2 のレイアウトでAAが sda1とhda1, BBがsdb1とhdb1
604 名前:login:Penguin mailto:sage [2008/01/25(金) 09:15:26 ID:Ywyn1H84] すまん >これで -n2 のレイアウトでA1,A1が sda1とhda1, A2,A2がsdb1とhdb1
605 名前:login:Penguin mailto:sage [2008/01/25(金) 19:21:32 ID:V+xKWgCR] createしてみればすぐわかることで、しかも直後にやり直せる話なので詳しい話が見あたらないのかもね
606 名前:login:Penguin mailto:sage [2008/01/25(金) 20:40:45 ID:eST0kDMC] thx、ちとためしてきまっす ついでに質問、ディスク4本で容量使用率50%の場合、RAID10、RAID5+予備1、RAID6どれがパフォーマンス一番いいんだろ? ライト、リード、ランダムライト、ランダムリードあたりがどういう順番になるのかなーと 信頼性はRAID6>RAID5+1>RAID10だとは思うんだが・・・
607 名前:login:Penguin mailto:sage [2008/01/25(金) 20:51:52 ID:3TQL9c8W] RAID10>RAID6>RAID5 スペアなんて個人で使うなら使ってもあまり意味がないぜ 1台死んでからリビルドするまではアクセスなんてそんなにしない(できない)だろうし RAID5で壊れたときの対処としては経年的な寿命の場合リビルドする前に同じ台数の新品のドライブを用意して そこにドライブイメージを写してすべて新しいドライブにしてからリビルドしたほうがリスクは大幅に減る 吸い出した寿命の近い可能性のあるドライブはヤフオクなり祖父やドスパラで処分すれば新品のドライブ代の少しは回収できる
608 名前:login:Penguin mailto:sage [2008/01/26(土) 00:05:54 ID:OimhjIZ5] >>607 プライベートといえど漏洩は困るから、 なるべく中古には流さない運用にしてるなぁ 事実上大丈夫なんだろうけど、可能性は摘んでおく >>606 信頼性=アレイが壊れない確率ってことだとして、4台構成でランダム選択で壊れるとすると、 RAID10 → 1台目の破損では生存(リビルドのリスク有)。2台目の破損時1/3の確率で死亡(リビルドのリスク有)。3台目の破損時100%死亡。 RAID6 → 1台目の破損では生存(リビルドのリスク無)。2台目の破損では生存(リビルドのリスク有)。3台目の破損で100%死亡 RAID5(スペア1) → 1台目の破損では生存(リビルドのリスク有)。リビルド前なら2台目の破損で100%死亡。 って感じになる。詳しくはリビルド時の破損確率とか、本当にランダム破損か、 とかいろいろ確定しないと。あとコントローラ故障は考えてなかったり、 セクタ単位のエラー検出は確実に行われる、という仮定があったり。
609 名前:login:Penguin mailto:sage [2008/01/26(土) 02:06:29 ID:VmtKdJVs] >>608 zero-fillしちゃえばFBI等の専門機関でも厳しいみたいだよ IBMやHITACHIのドライブならIBMのDiskManagerでさらに強力な初期化コマンドがあったと思う
610 名前:login:Penguin [2008/01/26(土) 12:43:25 ID:ShBosd97] 6台で10Nしようぜ
611 名前:login:Penguin mailto:sage [2008/01/26(土) 17:27:02 ID:nkamkNao] 合計ディスク台数が4台で、RAID5+1とRAID6を視野に入れてるなら、大概の用途でRAID10だと思うぞ。 パフォーマンスについても、RAID1要素があれば同時readには強くなるがアクセスが1本の場合には速くならん。 RAID10だとmdのfar/nearのあたり読んだらいいが、作り方によってパフォーマンス特性変わる。
612 名前:login:Penguin mailto:sage [2008/01/26(土) 17:59:20 ID:bPajQjx1] パフォーマンスの話する割には、md 前提なの?
613 名前:login:Penguin mailto:sage [2008/01/26(土) 18:01:03 ID:mwRJnWKL] U320の15krpmなHDD6台でRAID5マジオヌヌメ
614 名前:login:Penguin mailto:sage [2008/01/26(土) 18:19:52 ID:OimhjIZ5] >>609 そうなのかー。情報サンクス。 そのあたり情報収集甘かったから、きちんと調べてみる。
615 名前:login:Penguin mailto:sage [2008/01/26(土) 21:53:22 ID:nkamkNao] >>612 >>602
616 名前:login:Penguin mailto:sage [2008/01/27(日) 15:12:51 ID:T5/DDvID] >>612 最近CPUって速いしマルチコアだからね。
617 名前:login:Penguin mailto:sage [2008/01/27(日) 18:52:46 ID:yrfH7ugV] wikiの/near/far/offset必死で読んでみました、ついでに他にも読んでみた 間違ってたら指摘よろ chunkは構成ドライブに順番 nearが同一chunkを連続何回書き込むかのパラメータ 4ドライブでn2なら2回同じデータが書き込まれる(2台でRAID1のイメージ) 4ドライブでn4なら4回同じデータが書かれる(=4台全てでRAID1) farがドライブ的に遠い所にデータを書き込む処理を何度やるか。その際chunkの順番を変える (A1 A2 A3 A4だったのを2回目はA4 A1 A2 A3みたいな) 使い道としては ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある chunkの順番が変わるため、アレイ内の破損ドライブ許容数が調整可能 4ドライブでf4なら1台でも生きていればアレイが崩れない? offsetがfarを近距離でやるのかな?よくわからん 4ドライブ構成に限って言えば n2だと通常の1+0、2台目破損時で1/3で読み取り不可 n2f2だと1台でも生きていれば読み取り可能 f3は2台まではどの組み合わせでも読み取り可能、3台目破損時100%読み取り不可 f4は1台でも生きていれば読み取り可能 パフォーマンスはわからん・・・実際試せば良いんだろうが、VM上でやっても意味無さそう
618 名前:login:Penguin mailto:sage [2008/01/27(日) 21:25:28 ID:Zwy096+O] fatの使い道ってそんなこと書いてあった? 流し読みだけど、 >This is designed for rarely-written data; writes are slower because they are scattered, but the first 1/f of each drive is a standard RAID-0 array. Thus you can get striping performance on a mirrored set of only 2 disks. だから、場所が分散されて遅くなるのでカキコが希なデータ向けだが、各ドライブのfar数分の1の領域はRAID0化されるから例えば2ドライブのミラーリングでもs-readはストライピングの速度期待できるよ という話じゃないけ。offsetだと場所が遠くなりすぎないのでwriteペナルティは軽減されると。台数分の0相当のread得られるんなら10ユーザは積極的にoffset使えばいいんじゃないかね。 >ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある read err出たらそのドライブごと切り離しそうなもんだがなー どっからが推測か書いといてw 冗長性の話は実験した方がいいと思うのと、容量1/2未満になるのはどうかと思うわけで、たぶんあまりテストされてないよ。offsetだけでいいんじゃないかね
619 名前:login:Penguin mailto:sage [2008/01/28(月) 00:21:35 ID:Bd7bwdVe] ああごめんごめん シリンダうんぬんは推測で、他はググってるときにどっかでみたんだが・・・ どこだったかまではちょっとわからん 速度は分からんが、ひとまず冗長性だけVMで試してみます
620 名前:login:Penguin mailto:sage [2008/01/30(水) 12:49:19 ID:6dHf0JHT] すみません質問させてください。 IODATAのNAS、HDL-GTでHDD4台-RAID5で構成していたんですが、 今日起動しなくなってLED全部が赤点灯状態になり、 データを救いたくてあれこれやってみているところです。 WEB設定画面には入って見てみると、 「RAID崩壊」「ハードディスクのシステムの内容が一致していない」 と出ています。 そこでKNOPPIX機に繋いでmdadmアセンブルモードしようとしましたが、 --uuid指定では「uuidが無い」、/dev/sd[abcd]6指定だと「superblockが無い」と蹴られます。 例のリコンストラクタで取ったイメージファイルにxfsrepair -f してみましたが、 これはエラーで途中で終了してしまいました。 イメージではなく直接ディスクに貼り付けてみても同じです。 ぼくのかわいそうなオツムではこのあたりまでしか思いつくところもなく手詰まりとなっている次第です。 どっか間違ってる部分とか他にやってみることとかありましたらご指摘お願いします。
621 名前:login:Penguin mailto:sage [2008/01/30(水) 14:15:06 ID:gOhDQINq] 自分は使ったこと無いので基本事項の確認のみ。 的外れかもだけど。 > /dev/sd[abcd]6 HDL-GTのmdはパーティション6番目使うのが普通なの?
622 名前:login:Penguin [2008/01/30(水) 16:28:35 ID:p8UdA4TA] 今更こっそり>393にレスしてみる。 44GBを30GBにするのに15時間かかった。まぁ |sda1(16GB)|sda2(44GB)| なのを |sda1(16GB)|sda2(30GB)|free(14GB)| にして |sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから |sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。 なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。