1 名前:login:Penguin [2007/01/11(木) 12:55:58 ID:rL+q6m/Y] Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.co.jp/product/raid/os_support_list.html Linux EVMS 一般 ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html ttp://evms.sourceforge.net/ ... あと続けてくらさい。
543 名前:login:Penguin mailto:sage [2008/01/08(火) 21:32:25 ID:kFPjRcz2] なぜ同期を取らなくても良いと思ったのですか?
544 名前:login:Penguin mailto:sage [2008/01/09(水) 09:16:36 ID:nJLLxpTq] バックアップする必要性がないと思ったからです
545 名前:login:Penguin mailto:sage [2008/01/09(水) 20:10:34 ID:vhzJqQMp] どうも釣りではなく、真面目な質問のようなのでお答えします。 稼動中のOSにとって、SWAPパーティションの存在はメモリと同じ位に大事です。 もしもSWAPパーティションをミラーしていない場合に、SWAPパーティションが存在する HDDが不良になった場合、SWAPパーティションが見えなくなります。 これは稼動中のOSにとっては、メモリにアクセスできなくなるのと同じ意味です。 試したことはありませんが、きっとkernel panic行きでしょう。 SWAPパーティションがRAID内に存在していれば、HDDの不良が発生していても 冗長が保たれている限り、OSはSWAPパーティションにアクセスできます。 結果、OSは問題なく稼動することができます。 システムの安定稼動を目的にするシステムならば、SWAPパーティションは絶対に RAID内に含むべきです。 システムの安定稼動よりもデータ用の容量が優先ならばSWAPパーティションを RAID内に含ませなくてもいいでしょう。 こんな所でおけ?
546 名前:login:Penguin mailto:sage [2008/01/09(水) 23:10:36 ID:QSyCJota] >>545 解説乙です。 むかし同じ疑問を持って、起動中にスワップパーティションを 削除してみたところKernel Panicになりましたw それ以来、 まともな鯖の構築では必ずスワップのミラーもするようにしてます。
547 名前:login:Penguin mailto:sage [2008/01/10(木) 07:10:57 ID:Xl1xx6Km] それミラーとか関係ないお前のミスじゃん
548 名前:542 mailto:sage [2008/01/10(木) 09:17:31 ID:Y4ukHsPA] >>545 勉強になりました 分かりやすい解説ありがとうございました
549 名前:login:Penguin mailto:sage [2008/01/11(金) 05:10:20 ID:pC8cgKoa] >>547 いちいちレスするのもくだらないですが ミスじゃなくて実験ですよ
550 名前:login:Penguin mailto:sage [2008/01/11(金) 10:15:26 ID:bKTO3W/i] >>549 何にでも文句つけたがる年頃なんでしょう。 脱初心者ぐらいの。
551 名前:login:Penguin mailto:sage [2008/01/11(金) 10:31:57 ID:1u4+JVGt] そういった輩はしつこいからスルー推奨
552 名前:login:Penguin [2008/01/11(金) 17:00:47 ID:oau76v1R] Kernel Panicとか馬鹿じゃねーの
553 名前:login:Penguin mailto:sage [2008/01/11(金) 23:06:14 ID:nnTIF6b/] >1 出直して来い! って、ちょうど1年前・・・
554 名前:login:Penguin mailto:sage [2008/01/14(月) 00:42:46 ID:X6gV4HK4] FC6でSATAのHDD*4でソフトのRAID5を組んでNASとして使ってるんですが ネットワーク上からアクセスできなくなり調べてみたところ4台ともRAIDのアレイからリムーブされていました 再起動してみたところ最初は正常に動いているのですがしばらくするとまた停止してしまいます この場合4台とも壊れているとは考えにくいのですがどのように確認、リビルドしたらいいでしょうか?
555 名前:login:Penguin mailto:sage [2008/01/14(月) 09:04:43 ID:6ov9yz32] >554 SATAケーブルが緩んでいる可能性あるかも 外してみて抜けやすかったら寿命
556 名前:login:Penguin mailto:sage [2008/01/14(月) 09:10:28 ID:lY+WgiSQ] /var/log/messages見たら、何かログが残ってるんでは?
557 名前:login:Penguin mailto:sage [2008/01/15(火) 12:43:56 ID:eGPzviNd] www.owltech.co.jp/products/pc_case/PCCHS01/PCCHS01.html VIA C7のPadLock ACEでTrueCrypt暗号処理 + RAID5とかすると かっこよさそうだけど、電源がACアダプタ 120Wでは...
558 名前:login:Penguin mailto:sage [2008/01/18(金) 10:32:12 ID:Onzb7zVS] orz.4chan.org/d/src/1200497751380.jpg
559 名前:login:Penguin mailto:sage [2008/01/18(金) 22:19:59 ID:/N+doRnf] 3ware 9500S-4LPを 構成250G×4でRAID5、Debian etchで使用してます 今はまだ余裕がありますが今後容量が少なくなってきたら オンライン拡張とやらで 例えばRAID5のまま全部500G等に入れ替え容量を増やすことができる物なのでしょうか よくわからないのでご存じの方教えて下さい。
560 名前:login:Penguin mailto:sage [2008/01/18(金) 23:31:10 ID:wp/0tR8X] 一台入れ替える→リビルド これを4回繰り返してドライブを全部入れ替える その後オンライン拡張で増量。 結構手間&ヒマはかかる。 で、増えた分を別パーティションとするなら問題ないけど ファイルシステムを拡張(既存のパーティションを大きくする) となると LVMを使ってない場合にはかなり大変。 LVM未使用の場合、一旦全部バックアップを取って、 ドライブ入れ替え→丸々新しくRAID構成→リストア の方が断然早いし、楽。
561 名前:login:Penguin mailto:sage [2008/01/18(金) 23:42:23 ID:wp/0tR8X] ん? 待てよ。 オンライン拡張ってドライブ単位のみだったか? マニュアル読んでみたけど、 そもそも使用してるドライブに空きがあるという前提は存在しないから… 確実なことは、サポートに聞いた方がいいと思う。 が、俺だったら、一旦バックアップ取ってゼロかやるな。 ほんの数時間で終わる作業だし。
562 名前:login:Penguin mailto:sage [2008/01/19(土) 10:41:26 ID:KPd9mEy8] >>561 ありがとうございます 私もよくわからなかったのがそこなんですよ ドライブ単位の追加だと空きがない時点で できないですからね。 新たに4ポート以上の物に交換するか 一からやり直すかですね。
563 名前:login:Penguin [2008/01/20(日) 12:30:39 ID:Kq5k1NMa] SCSIでRAID組むと高いんですか?
564 名前:login:Penguin mailto:sage [2008/01/20(日) 13:03:30 ID:VSFaVtzp] HDD の値段見てみりゃ大体わかりそうなもんだが...
565 名前:login:Penguin mailto:sage [2008/01/20(日) 19:43:13 ID:f+pgQsPW] 安いよ。
566 名前:login:Penguin mailto:sage [2008/01/20(日) 20:35:48 ID:/mh+B85/] バッファローのTeraStationってLinux md?
567 名前:鯖”管理”者 [2008/01/20(日) 20:50:05 ID:ZhP37dc/] 先生方、ご教授ください。 先日、RAID1のDELLサーバのシステムボードが故障したので、電源を落とした。 交換後、電源投入するもOSが起動不可。レジストリが壊れたみたいなmesage なぜ、こんな事に??RAID1なら、片方おかしくなっても、読み取り可能ディスク からREADしにいくのではないんですか?
568 名前:login:Penguin mailto:sage [2008/01/20(日) 21:50:07 ID:iSaKK8Ey] >>567 RAIDとて、どのディスクをどのような構成で組み立てるのかの管理情報 がいる。管理情報がBIOSか何かのフラッシュなどに書かれていて、それが 飛んだじゃない? その「レジストリが壊れたみたいなmessage」をここに 書いてみ? >>566 そうだよ。
569 名前:login:Penguin mailto:sage [2008/01/20(日) 21:52:27 ID:VSFaVtzp] RAID だから OS に変なレジストリを書けと言われたら、両方の HDD に変なレジストリを書き込みにいく。 仕様通りですが何か?
570 名前:login:Penguin [2008/01/20(日) 22:27:46 ID:Kq5k1NMa] アドバイスお願いします。 RAID10を組んだサーバを、LinuxでデータベースとNAS(というかファイルサーバ) として運用したいと考えています。 そこで、このマシンはデータ領域専用としNFSを立てて、別途RDBMS、ファイル共有は マシン(ML115とかの格安機)を用意してデータをNFSで共有する案を思いついたのですが、 こういうやり方ってどうでしょう? パフォーマンス悪いかな
571 名前:login:Penguin mailto:sage [2008/01/20(日) 22:39:57 ID:k9dIsucL] RDBMS (Oracle とか PostgreSQL)とかの本体は別マシンで動かし、データ領域だけファイルサーバをマウントして、そこに表領域とかを置くってこと? 遅いと思うよ。 たてる RDBMS にどれくらいの性能を求めるか、同時アクセス数にもよるけど、RDBMS でアホな SQL を投げると CPU 100% 持ってかれることもあるし、大量の件数をさまざまなテーブルから取ってくるような SQL だとディスクアクセスをもっていかれる。 おれは開発環境では、DBサーバとファイルサーバは物理的に分けてるよ。
572 名前:login:Penguin mailto:sage [2008/01/20(日) 22:47:36 ID:M6/8RitH] DBはクエリをon memoryが基本なんじゃないのか?
573 名前:login:Penguin mailto:sage [2008/01/20(日) 22:53:04 ID:k9dIsucL] >>572 理想はそうだけど、更新系のSQLも使うし(そのアプリケーションの性格や、一回に更新するデータ量にもよるけど)、 開発やテスト時だったら、export / import もひんぱんにやることもあるだろうから、いずれにせよ データ領域を NFS 越しに使うというのは、あまりお勧めできないと思う。
574 名前:login:Penguin mailto:sage [2008/01/20(日) 23:50:53 ID:VSFaVtzp] > (データベースの) データをNFSで共有する案を思いついたのですが、 実運用なら、まずありえない...
575 名前:login:Penguin mailto:sage [2008/01/21(月) 00:12:27 ID:qM82RYen] 自分も最初は工エエェェ(´д`)ェェエエ工って感じだったが、 最近はRACなんかだとNASを共有ディスクとして使う例が増えてきている。 SANなどのブロックアクセスに比べて扱いが簡単になるしね。
576 名前:login:Penguin mailto:sage [2008/01/21(月) 01:03:14 ID:/80iiPEb] パフォーマンスが云々より,ロックとか問題ないの?
577 名前:login:Penguin mailto:sage [2008/01/21(月) 01:10:59 ID:hxdOAtHc] >>576 だからそれをちゃんと意識してるのがクラスタFSって奴。
578 名前:login:Penguin mailto:sage [2008/01/21(月) 02:59:00 ID:RnyPYnCW] OracleとかでNetApp等をファイルサーバにしてNFS越しに使うっていうのは かなり昔からやられていたことだからなぁ
579 名前:login:Penguin mailto:sage [2008/01/21(月) 05:24:08 ID:fkuqhVfb] >>570 どのあたりまで共用したいのかによるだろうけど iSCSIならそんなに遅くならなかったよ
580 名前:570 [2008/01/21(月) 09:14:01 ID:ABezklEe] >>570 です、みなさんどうも 自宅サーバでの運用でそこまでやるものどうかと思ってるんですよね…
581 名前:login:Penguin mailto:sage [2008/01/21(月) 10:37:28 ID:qM82RYen] >>577 それはちょっと意味が違う。 クラスタFSの代わりとしてNFSを使う。 クラスタFSは、複数ノードから直接マウントしてブロックアクセスさせるために使うものだし。
582 名前:login:Penguin mailto:sage [2008/01/21(月) 18:46:11 ID:Ml+uIs4Z] RAID10をみくびっていた、これはいいわ。
583 名前:login:Penguin mailto:sage [2008/01/21(月) 18:56:42 ID:5oPPsRCb] >>582 mdadm?
584 名前:login:Penguin mailto:sage [2008/01/21(月) 19:13:44 ID:psEK2uGZ] たしかに金銭面と実装台数と容量の兼ね合いが問題なければ10が速度も安定性もあって一番いいな 何よりリビルド時の故障率の低いし
585 名前:login:Penguin mailto:sage [2008/01/21(月) 22:46:15 ID:d8TwXO3z] 漢ならRAID0だろ
586 名前:login:Penguin mailto:sage [2008/01/21(月) 23:00:49 ID:hxdOAtHc] >>581 ああロックって普通のNFS上のファイルロックの話だったか。
587 名前:login:Penguin mailto:sage [2008/01/22(火) 01:50:08 ID:j1simr6K] >>580 iSCSI簡単だよ md+LVMにiSCSI target LV用意してMacから使ってるよ。
588 名前:login:Penguin mailto:sage [2008/01/22(火) 03:49:38 ID:d+IS9wuL] yes お手軽なので試してみては?>iSCSI >>570
589 名前:login:Penguin mailto:sage [2008/01/22(火) 03:53:10 ID:d6P1Z5B2] >>585 RAID0はRAIDにあらず
590 名前:login:Penguin mailto:sage [2008/01/22(火) 10:04:27 ID:ByANW+Kw] そーいう揉める元を言わない方が・・・
591 名前:login:Penguin mailto:sage [2008/01/22(火) 10:11:08 ID:+9P7njkg] RAID0使うやつは人間のクズ。
592 名前:login:Penguin mailto:sage [2008/01/22(火) 13:10:01 ID:ByANW+Kw] だからさぁ
593 名前:login:Penguin mailto:sage [2008/01/22(火) 13:56:21 ID:eslKqOkh] あのさぁ
594 名前:login:Penguin mailto:sage [2008/01/22(火) 16:33:32 ID:rk9O7CGm] >>589 事実ではあるが 流れ的に あえて書くことでもない ネタニマジレス
595 名前:login:Penguin mailto:sage [2008/01/22(火) 18:30:28 ID:mkmfUeTP] デスクトップのシステム用のHDDなんかはストライピングだな 週一回自動で鯖にバックアップ取らせてるし問題ない
596 名前:login:Penguin mailto:sage [2008/01/22(火) 19:07:13 ID:l4R+Ipoe] バックアップが日曜だったら土曜日にRAID0が壊れる件
597 名前:login:Penguin mailto:sage [2008/01/22(火) 19:15:30 ID:mkmfUeTP] システム用のアレイなんか大して大事なもんないからいいよ ゲームのセーブデータやブラウザの履歴が古くなるぐらいだし メールもケータイとデスクトップとノートと鯖に同じものが行くようにしてあるしね 困るのは鯖がRAID5なんだがリビルドはすべて新しいディスクにドライブイメージをコピーしてからするようにしてるんだけどそれでも2台目がコピー中に死ぬ可能性があるということだ
598 名前:login:Penguin mailto:sage [2008/01/22(火) 20:27:49 ID:igDhRHFt] RAID6 にすりゃいいじゃん。
599 名前:login:Penguin mailto:sage [2008/01/23(水) 23:04:52 ID:H/ZtqkUt] >>595 おお、俺がいる。 うちはバックアップのあとシャットダウンするスクリプト書いて 毎日バックアップだけど。
600 名前:login:Penguin mailto:sage [2008/01/24(木) 16:46:17 ID:7c4gJd41] カッコンカッコン…
601 名前:login:Penguin [2008/01/24(木) 19:35:26 ID:d7j3JduP] アッー!
602 名前:login:Penguin mailto:sage [2008/01/25(金) 03:19:34 ID:eST0kDMC] mdadmでRAID10を構築しようと思ってるんだが、 どのディスクとディスクがミラーリング構成になるか指定ってできないんですかね? sda1とsdb1でストライピング、hda1とhdb1でストライピング、みたいな形にしたいんですが・・・ レイアウトのnearとかfarとかが関係してそうな感じなんですが、英語がわかんね このアドレス見たけど全然わからん・・・ ttp://en.wikipedia.org/wiki/Non-standard_RAID_levels#Linux_MD_RAID_10
603 名前:login:Penguin mailto:sage [2008/01/25(金) 09:13:14 ID:Ywyn1H84] >>602 --createで並べた順じゃね? --create /dev/md0 --level=10 /dev/sda1 /dev/hda1/dev/sdb1 /dev/hdb1 これで -n2 のレイアウトでAAが sda1とhda1, BBがsdb1とhdb1
604 名前:login:Penguin mailto:sage [2008/01/25(金) 09:15:26 ID:Ywyn1H84] すまん >これで -n2 のレイアウトでA1,A1が sda1とhda1, A2,A2がsdb1とhdb1
605 名前:login:Penguin mailto:sage [2008/01/25(金) 19:21:32 ID:V+xKWgCR] createしてみればすぐわかることで、しかも直後にやり直せる話なので詳しい話が見あたらないのかもね
606 名前:login:Penguin mailto:sage [2008/01/25(金) 20:40:45 ID:eST0kDMC] thx、ちとためしてきまっす ついでに質問、ディスク4本で容量使用率50%の場合、RAID10、RAID5+予備1、RAID6どれがパフォーマンス一番いいんだろ? ライト、リード、ランダムライト、ランダムリードあたりがどういう順番になるのかなーと 信頼性はRAID6>RAID5+1>RAID10だとは思うんだが・・・
607 名前:login:Penguin mailto:sage [2008/01/25(金) 20:51:52 ID:3TQL9c8W] RAID10>RAID6>RAID5 スペアなんて個人で使うなら使ってもあまり意味がないぜ 1台死んでからリビルドするまではアクセスなんてそんなにしない(できない)だろうし RAID5で壊れたときの対処としては経年的な寿命の場合リビルドする前に同じ台数の新品のドライブを用意して そこにドライブイメージを写してすべて新しいドライブにしてからリビルドしたほうがリスクは大幅に減る 吸い出した寿命の近い可能性のあるドライブはヤフオクなり祖父やドスパラで処分すれば新品のドライブ代の少しは回収できる
608 名前:login:Penguin mailto:sage [2008/01/26(土) 00:05:54 ID:OimhjIZ5] >>607 プライベートといえど漏洩は困るから、 なるべく中古には流さない運用にしてるなぁ 事実上大丈夫なんだろうけど、可能性は摘んでおく >>606 信頼性=アレイが壊れない確率ってことだとして、4台構成でランダム選択で壊れるとすると、 RAID10 → 1台目の破損では生存(リビルドのリスク有)。2台目の破損時1/3の確率で死亡(リビルドのリスク有)。3台目の破損時100%死亡。 RAID6 → 1台目の破損では生存(リビルドのリスク無)。2台目の破損では生存(リビルドのリスク有)。3台目の破損で100%死亡 RAID5(スペア1) → 1台目の破損では生存(リビルドのリスク有)。リビルド前なら2台目の破損で100%死亡。 って感じになる。詳しくはリビルド時の破損確率とか、本当にランダム破損か、 とかいろいろ確定しないと。あとコントローラ故障は考えてなかったり、 セクタ単位のエラー検出は確実に行われる、という仮定があったり。
609 名前:login:Penguin mailto:sage [2008/01/26(土) 02:06:29 ID:VmtKdJVs] >>608 zero-fillしちゃえばFBI等の専門機関でも厳しいみたいだよ IBMやHITACHIのドライブならIBMのDiskManagerでさらに強力な初期化コマンドがあったと思う
610 名前:login:Penguin [2008/01/26(土) 12:43:25 ID:ShBosd97] 6台で10Nしようぜ
611 名前:login:Penguin mailto:sage [2008/01/26(土) 17:27:02 ID:nkamkNao] 合計ディスク台数が4台で、RAID5+1とRAID6を視野に入れてるなら、大概の用途でRAID10だと思うぞ。 パフォーマンスについても、RAID1要素があれば同時readには強くなるがアクセスが1本の場合には速くならん。 RAID10だとmdのfar/nearのあたり読んだらいいが、作り方によってパフォーマンス特性変わる。
612 名前:login:Penguin mailto:sage [2008/01/26(土) 17:59:20 ID:bPajQjx1] パフォーマンスの話する割には、md 前提なの?
613 名前:login:Penguin mailto:sage [2008/01/26(土) 18:01:03 ID:mwRJnWKL] U320の15krpmなHDD6台でRAID5マジオヌヌメ
614 名前:login:Penguin mailto:sage [2008/01/26(土) 18:19:52 ID:OimhjIZ5] >>609 そうなのかー。情報サンクス。 そのあたり情報収集甘かったから、きちんと調べてみる。
615 名前:login:Penguin mailto:sage [2008/01/26(土) 21:53:22 ID:nkamkNao] >>612 >>602
616 名前:login:Penguin mailto:sage [2008/01/27(日) 15:12:51 ID:T5/DDvID] >>612 最近CPUって速いしマルチコアだからね。
617 名前:login:Penguin mailto:sage [2008/01/27(日) 18:52:46 ID:yrfH7ugV] wikiの/near/far/offset必死で読んでみました、ついでに他にも読んでみた 間違ってたら指摘よろ chunkは構成ドライブに順番 nearが同一chunkを連続何回書き込むかのパラメータ 4ドライブでn2なら2回同じデータが書き込まれる(2台でRAID1のイメージ) 4ドライブでn4なら4回同じデータが書かれる(=4台全てでRAID1) farがドライブ的に遠い所にデータを書き込む処理を何度やるか。その際chunkの順番を変える (A1 A2 A3 A4だったのを2回目はA4 A1 A2 A3みたいな) 使い道としては ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある chunkの順番が変わるため、アレイ内の破損ドライブ許容数が調整可能 4ドライブでf4なら1台でも生きていればアレイが崩れない? offsetがfarを近距離でやるのかな?よくわからん 4ドライブ構成に限って言えば n2だと通常の1+0、2台目破損時で1/3で読み取り不可 n2f2だと1台でも生きていれば読み取り可能 f3は2台まではどの組み合わせでも読み取り可能、3台目破損時100%読み取り不可 f4は1台でも生きていれば読み取り可能 パフォーマンスはわからん・・・実際試せば良いんだろうが、VM上でやっても意味無さそう
618 名前:login:Penguin mailto:sage [2008/01/27(日) 21:25:28 ID:Zwy096+O] fatの使い道ってそんなこと書いてあった? 流し読みだけど、 >This is designed for rarely-written data; writes are slower because they are scattered, but the first 1/f of each drive is a standard RAID-0 array. Thus you can get striping performance on a mirrored set of only 2 disks. だから、場所が分散されて遅くなるのでカキコが希なデータ向けだが、各ドライブのfar数分の1の領域はRAID0化されるから例えば2ドライブのミラーリングでもs-readはストライピングの速度期待できるよ という話じゃないけ。offsetだと場所が遠くなりすぎないのでwriteペナルティは軽減されると。台数分の0相当のread得られるんなら10ユーザは積極的にoffset使えばいいんじゃないかね。 >ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある read err出たらそのドライブごと切り離しそうなもんだがなー どっからが推測か書いといてw 冗長性の話は実験した方がいいと思うのと、容量1/2未満になるのはどうかと思うわけで、たぶんあまりテストされてないよ。offsetだけでいいんじゃないかね
619 名前:login:Penguin mailto:sage [2008/01/28(月) 00:21:35 ID:Bd7bwdVe] ああごめんごめん シリンダうんぬんは推測で、他はググってるときにどっかでみたんだが・・・ どこだったかまではちょっとわからん 速度は分からんが、ひとまず冗長性だけVMで試してみます
620 名前:login:Penguin mailto:sage [2008/01/30(水) 12:49:19 ID:6dHf0JHT] すみません質問させてください。 IODATAのNAS、HDL-GTでHDD4台-RAID5で構成していたんですが、 今日起動しなくなってLED全部が赤点灯状態になり、 データを救いたくてあれこれやってみているところです。 WEB設定画面には入って見てみると、 「RAID崩壊」「ハードディスクのシステムの内容が一致していない」 と出ています。 そこでKNOPPIX機に繋いでmdadmアセンブルモードしようとしましたが、 --uuid指定では「uuidが無い」、/dev/sd[abcd]6指定だと「superblockが無い」と蹴られます。 例のリコンストラクタで取ったイメージファイルにxfsrepair -f してみましたが、 これはエラーで途中で終了してしまいました。 イメージではなく直接ディスクに貼り付けてみても同じです。 ぼくのかわいそうなオツムではこのあたりまでしか思いつくところもなく手詰まりとなっている次第です。 どっか間違ってる部分とか他にやってみることとかありましたらご指摘お願いします。
621 名前:login:Penguin mailto:sage [2008/01/30(水) 14:15:06 ID:gOhDQINq] 自分は使ったこと無いので基本事項の確認のみ。 的外れかもだけど。 > /dev/sd[abcd]6 HDL-GTのmdはパーティション6番目使うのが普通なの?
622 名前:login:Penguin [2008/01/30(水) 16:28:35 ID:p8UdA4TA] 今更こっそり>393にレスしてみる。 44GBを30GBにするのに15時間かかった。まぁ |sda1(16GB)|sda2(44GB)| なのを |sda1(16GB)|sda2(30GB)|free(14GB)| にして |sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから |sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。 なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。
623 名前:login:Penguin [2008/01/30(水) 16:29:18 ID:p8UdA4TA] 今更こっそり>393にレスしてみる。GParted使用。 44GBを30GBにするのに15時間かかった。まぁ |sda1(16GB)|sda2(44GB)| なのを |sda1(16GB)|sda2(30GB)|free(14GB)| にして |sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから |sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。 なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。
624 名前:login:Penguin [2008/01/30(水) 16:30:02 ID:p8UdA4TA] ぬああああああああああああ二重送信してしまった ちんこ切ってくる
625 名前:login:Penguin mailto:sage [2008/01/30(水) 18:05:47 ID:PeD2J8tS] >>621 > > /dev/sd[abcd]6 > HDL-GTのmdはパーティション6番目使うのが普通なの? はい、 sda1 204MB sda2 400MB sda3 1GB sda4(拡張) ├sda5 518MB └sda6 230GB ←ここがRAID5でXFS このようになっています。 他のパーティーションはRAID1で組まれててext3だったりします。
626 名前:login:Penguin mailto:sage [2008/01/30(水) 21:32:01 ID:wxcklNQA] なんか妙にパーティションをたくさん切られてるよね。 普通のmdとは違う実装方法をしていたら、手が出せないよねえ。
627 名前:login:Penguin mailto:sage [2008/01/30(水) 22:06:13 ID:wxcklNQA] とりあえず # mdadm -E /dev/sda6 で状態は見れるんでしょうか?
628 名前:login:Penguin mailto:sage [2008/01/30(水) 23:34:24 ID:x5QwYMj+] mdのoffsetとnear試しました(冗長性) ディスクは全部4台構成(全て2G) mdadm --create /dev/md0 --level=raid10 --layout=n2 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 md0のサイズは4G、利用可能率50% sdb、sdc、sdd、sde1つをVMから見えなくする→問題なし sdb、sdcをVMから見えなくする→アレイ崩れる sdb、sddをVMから見えなくする→問題なし sdb、sdeをVMから見えなくする→問題なし sdc、sddをVMから見えなくする→問題なし sdc、sdeをVMから見えなくする→問題なし sdd、sdeをVMから見えなくする→アレイ崩れる 結果:1台障害は100%問題なし、2台目障害は1/3の確率でアウト やっぱり1台目と2台目、3台目と4台目でRAID1だったようです wikiの書き込みから推定するに、下の図のようなレイアウト(左側から1台目、2台目・・・) 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8
629 名前:login:Penguin mailto:sage [2008/01/30(水) 23:37:26 ID:x5QwYMj+] mdadm --create /dev/md0 --level=raid10 --layout=o2 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 md0のサイズは4G、利用可能率50% sdb、sdc、sdd、sde1つをVMから見えなくする→問題なし sdb、sdcをVMから見えなくする→アレイ崩れる sdb、sddをVMから見えなくする→問題なし sdb、sdeをVMから見えなくする→問題なしに見えたが、re-addで無限ループになってアウト sdc、sddをVMから見えなくする→アレイ崩れる sdc、sdeをVMから見えなくする→問題なし sdd、sdeをVMから見えなくする→アレイ崩れる 結果:sdb、sdeをアレイ崩れとしたら1台障害は100%問題なし、2台目障害は2/3の確率でアウト どうも不安定な気がする。sdb、sde意外にもsdcsdeあたりでも変になって再構築してます・・・ wikiの書き込みから推定するに、下の図のようなレイアウト(左側から1台目、2台目・・・) 1 2 3 4 4 1 2 3 5 6 7 8 8 5 6 7 n3とo3もやりたかったんだが、アレイ構築の最後でVMがハング。うちのバージョンが古いせいかも 推定としてはn3とo3両方2台障害でも100%大丈夫なんだがなあ o2を使う場合は実環境で事前テストしてください、今回の印象だとどーにも動作怪しい パフォーマンス差についてもさっぱり。レイアウトから想像すると、o2のほうがn2より早そうな予感がするかなーってところ
630 名前:login:Penguin mailto:sage [2008/01/31(木) 12:23:09 ID:SwZ0bbCA] >>627 レスありがとうございます。 全てのディスクで、 mdadm: No superblock detected on /dev/sd* と出ます。
631 名前:login:Penguin mailto:sage [2008/01/31(木) 17:05:31 ID:KV+A+s93] 超基本的な質問があるんだけど 2台でハードウエアRAID1組んでて1台が壊れた場合、 残った1台も取り出してSATA→USBケーブルか何かつないで普通にアクセスできる?
632 名前:login:Penguin mailto:sage [2008/01/31(木) 17:11:08 ID:KSncdjll] できる けどHDDがPATAだと無理
633 名前:login:Penguin mailto:sage [2008/01/31(木) 17:16:31 ID:KV+A+s93] うほ!即効ありがとう。 じゃSATA使ってる buffalo.jp/products/catalog/item/h/hd-wiu2_r1/ とかなら大丈夫なのか。。買うかな。
634 名前:login:Penguin mailto:sage [2008/01/31(木) 19:21:58 ID:jIoJh5GZ] >>630 う〜ん。。。 正直なところダメだこりゃ、と言いたい。 パーティション情報は残っているのにRAIDの情報だけが消去されるってのはおかしな話よね。 壊れているんじゃなくて、何かが誤動作してRAID情報だけを消してしまったのかな? 素直に一度メーカーに問い合わせてみた方がいいかも。
635 名前:login:Penguin [2008/02/01(金) 00:10:42 ID:skbei6UK] 3wareもしくはその他でハードウェアRAIDが組めるインタフェースカード 安価でおすすめのものを教えてもらえませんか? 動作環境はCentOSでRAID10で運用したいです
636 名前:login:Penguin mailto:sage [2008/02/01(金) 01:28:03 ID:r8ITSzIN] >>630 >>634 古い LInux 使ってて /dev/sd** のはずが、 /dev/hd** になってたりして。
637 名前:login:Penguin mailto:sage [2008/02/01(金) 10:11:44 ID:gycrWFaA] > けどHDDがPATAだと無理 なぜ? SATAとPATAって運用上はデバイス名が違うだけだと思っていたのですが… だとするといまPATAでミラーしてるけど万一を考えてSATAで組み直した方が良いのかな?
638 名前:login:Penguin mailto:sage [2008/02/01(金) 10:15:09 ID:EV/CxyDO] PATAにSATA→USBケーブルは使えないな確かに
639 名前:login:Penguin mailto:sage [2008/02/01(金) 10:18:14 ID:dBBUm++4] 自宅マシンでミラーリングとかお前ら余裕あるなー。 俺はRAID5で精一杯だよ。
640 名前:login:Penguin mailto:sage [2008/02/01(金) 11:29:09 ID:r8ITSzIN] >>637 インターフェースが何でもソフトウェアraidなら問題ないよ。 DVD-RAMでやった人もいるくらいなんだから。 ただし、認識タイミングの違いでraid自動認識がこけることがある。
641 名前:login:Penguin mailto:sage [2008/02/01(金) 13:11:43 ID:3oRMUEgb] >>635 「安価」っていくら位を想定してるの? 3wareがOKってことは10万以下とか?
642 名前:login:Penguin mailto:sage [2008/02/01(金) 13:12:39 ID:GwcDPWoT] >>641 アンカーつけて教えてくださいの意味w
643 名前:login:Penguin mailto:sage [2008/02/01(金) 14:43:27 ID:UDB5KdfE] >>639 RAID5組むくらいなら普通に4台マウントさせて 2台分バックアップ用にしたほうがまだマシ。 コエーぞ5は。