1 名前:login:Penguin [2007/01/11(木) 12:55:58 ID:rL+q6m/Y] Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.co.jp/product/raid/os_support_list.html Linux EVMS 一般 ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html ttp://evms.sourceforge.net/ ... あと続けてくらさい。
465 名前:login:Penguin mailto:sage [2007/11/23(金) 23:38:14 ID:ediOoBUE] だから並列負荷耐性は上がるとmanにも書いてあるだろうに
466 名前:login:Penguin mailto:sage [2007/11/23(金) 23:56:04 ID:dksFbx1S] そこの解釈の差が論争の原因だね。man mdだと > Data is read from any one device. > The driver attempts to distribute read requests across all devices to maximise performance. と最初の文が意味深だが、解釈は曖昧。で、ソース見ると > * Don't change to another disk for sequential reads: とあるので、おそらく単体のリードはディスク一台分の速度、ただし 別のリードは別のディスクに分散できるのでスループットが台数に 比例して伸びる、なのでは?
467 名前:login:Penguin mailto:sage [2007/11/24(土) 01:21:05 ID:NU+60JyU] なるほど。
468 名前:login:Penguin mailto:sage [2007/11/24(土) 02:25:30 ID:Rw3nYGM/] >>466 hdparm でリード性能が伸びてないのは 単発リードコマンドになってるってこと?
469 名前:465 mailto:sage [2007/11/24(土) 02:28:51 ID:lC7phVQh] >The driver attempts to distribute read requests across all devices to maximise performance 複数の読み取り命令を全てのデバイスに割り振って高速化しようとするよ じゃないの? 単一read時のことは書いてないよ。
470 名前:login:Penguin mailto:sage [2007/11/24(土) 03:09:26 ID:/QheRAnN] >Data is read from any one device. データは一つのデバイスから読まれる。 こっちが単発リードのことをいっているんだろ。
471 名前:login:Penguin mailto:sage [2007/11/24(土) 04:35:21 ID:wJBOH4En] なおのこと単発リードが高速化するようには読めんが
472 名前:login:Penguin mailto:sage [2007/11/24(土) 11:53:59 ID:/QheRAnN] だから速くならないって言ってるだろw
473 名前:login:Penguin mailto:sage [2007/11/24(土) 14:19:03 ID:Rw3nYGM/] 状況を整理するよ hdparm による md の RAID 1 に対するベンチマークで リード性能が単体 HDD に比べて向上していない (自分を含めて 2 〜 3 人が報告) これは ・hdparm によるベンチマークは単発リードコマンドしか発行していない ・そもそも md の RAID 1 ではリード性能は向上しない のどちら (あるいは両方?) なんだろう?ということ
474 名前:login:Penguin mailto:sage [2007/11/24(土) 14:22:10 ID:1cLiYWi3] 同時に複数のファイル(とは限らんが)の読み込み要求があったときには できる限りドライブを分散させて、パフォーマンスが向上するようにしている。 各ファイル(とは限らんが)のシーケンシャルな読み込みは単一のドライブから。 だね。
475 名前:login:Penguin mailto:sage [2007/11/24(土) 14:24:48 ID:/QheRAnN] ふむふむ。
476 名前:login:Penguin mailto:sage [2007/11/24(土) 15:12:57 ID:lC7phVQh] >>473 その2択が正しいかどうかは置いといて、hdparmは単発readでしょ。 なんだか話がループしてそうなんだが>>362- は読んだ?
477 名前:login:Penguin mailto:sage [2007/11/24(土) 15:36:38 ID:Rw3nYGM/] おお >>367 にそれらしい答えが出てるね
478 名前:login:Penguin mailto:sage [2007/11/24(土) 16:16:33 ID:lC7phVQh] チラ裏だが ディスクベンチっていうと www.iozone.org/ みたいにパラメータ変えつつやるもんかと。 特にRAIDボードで組んで評価って話でよく挙げられてる単純なベンチは あれで参考になるんかと思うわけだが、口出すようなことでもないわけで。 単純化指向は良い面もあるしな。tiobenchくらいが結果貼りやすいかもしれん
479 名前:login:Penguin mailto:sage [2007/11/29(木) 06:03:49 ID:7uM8bIDi] なんかmdの話ばかりでハードウェアRAIDがスレ違いな話題と化しているようだけど… それはさておき、なんでLinuxってOpenBSDやNetBSDのRAIDframeのような kernel & userlandを含めたフレームワークがきちんと整備されていないんだろう? ドライバがkernelにとりこまれても、各種ユーティリティはRAIDカードベンダまかせで、 それらが使えないディストリビューションの場合は途方に暮れるしかないっていうのは 悲しすぎる。 OpenBSDならBIOSレベルで設定しないといけないもの以外は、基本的にraidctlコマンドで 統一的に使えるのになぁ… あと、どうでもいい余談だけど、ちょっと前、mdとLVMを組み合わせるのは複雑だなんて 話があったけど、ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に 扱える。 あと、このスレからソフトウェアRAIDの話が撲滅されるというメリットもあるw
480 名前:login:Penguin mailto:sage [2007/11/29(木) 10:17:09 ID:krpLIoSe] >>479 >フレームワークがきちんと整備されていないんだろう? ニーズがないから。 OpenBSDのように遊びでHW-RAID使っている訳では無いから。
481 名前:login:Penguin mailto:sage [2007/11/29(木) 10:36:45 ID:r5r946d6] >>479 つ dmraid >>480 しったか乙
482 名前:login:Penguin mailto:sage [2007/11/29(木) 15:45:08 ID:yTYjvc/A] >>481 dmraidって既に 「きちんと整備されてい」るの? 単に知らないから聞いてるんだが。
483 名前:login:Penguin mailto:sage [2007/11/29(木) 19:19:21 ID:0m6dyEiu] >>479 お前みたいなのが居るからmd以外の話題が低レベル化するんだよ
484 名前:login:Penguin mailto:sage [2007/11/29(木) 19:41:18 ID:3Mr68e1S] >>482 いまだにrcのまんまとはいえ、開発は続いているね。最新版は今年の5月に出た。 >>483 必死だな
485 名前:login:Penguin mailto:sage [2007/11/30(金) 00:10:15 ID:revYtBrt] >>479 > ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に扱える。 ニーズがわかってないな。ZFSで全部、じゃシステム部品としての粒度が大きくて、 導入しづらくてたまらん。「これで全部解決」ってのは大抵成功しないよ。
486 名前:login:Penguin mailto:sage [2007/11/30(金) 03:03:09 ID:Mn/yUmHF] mdとLVMとの組み合わせだと、機能かぶりまくりで無意味に複雑化する上に オーバーヘッドだってあるんだから、よほど素性は悪い罠
487 名前:login:Penguin mailto:sage [2007/11/30(金) 10:28:41 ID:N6HYB90j] ま、それがLinuxの性
488 名前:login:Penguin mailto:sage [2007/11/30(金) 18:30:10 ID:hZ7jSyzu] >>479 上のほうで複雑すぎる、って書いた奴です。 ZFSは見た目は簡単(?)だけど単純ではない。複雑なものを隠して簡単そうに 見せているだけ。なんで、トラブルになったとき対処に必要なアレイ構成とかの 情報も結局ZFSの中に隠されるから対応しづらい。そこが嫌で原則使わないことにしてる。 RaidFrameとLinux mdは、どちらも一長一短だけど、 ニーズにあった自由な組み合わせが必要ならhw-raid/md/LVM/fs等で、 ワンストップで操作できる点やドライバの充実をとるならRaidFrameが有利、 ってところか。 自分以外の視点で考える練習もした方が良いかもね。
489 名前:login:Penguin mailto:sage [2007/12/01(土) 08:04:30 ID:gB0tzcfY] >>485 > システム部品としての粒度が大きくて、 > 導入しづらくてたまらん。 これに禿胴する人は多いと思う。
490 名前:login:Penguin mailto:sage [2007/12/01(土) 11:45:16 ID:ywEZfGgX] >>486 どこがかぶってるんだ?
491 名前:login:Penguin mailto:sage [2007/12/01(土) 11:57:19 ID:s/h51g0g] おちん○ちんの皮
492 名前:login:Penguin mailto:sage [2007/12/06(木) 05:13:41 ID:ap4dDKTJ] たまたま、この記事を読んで気になり、 mdによるRaidで整合性検査をしてみようと思ったのですが、 どのようなコマンドがあるのでしょうか? (ぐぐっても、見つからなかったもので・・・ ttp://itpro.nikkeibp.co.jp/article/COLUMN/20070820/279952/?ST=system
493 名前:login:Penguin mailto:sage [2007/12/06(木) 08:53:48 ID:TPTZjUe/] >>492 整合性検査って、consistency check っていうんだよ。 ttp://gentoo-wiki.com/HOWTO_Gentoo_Install_on_Software_RAID With a modern kernel, >=2.6.16, this command will initiate a data consistency check and a unreadable block check: reading all blocks, checking them for consistency, and attempting to rewrite unreadable blocks: # echo check >> /sys/block/mdX/md/sync_action You can monitor the progress of the check with: # watch -n .1 cat /proc/mdstat
494 名前:492 mailto:sage [2007/12/06(木) 15:26:20 ID:ap4dDKTJ] >>493 ありがとうございます、実験用領域を組んで試してみます。
495 名前:login:Penguin mailto:sage [2007/12/06(木) 22:44:34 ID:XmDmS+kB] mdで第一日曜に自動チェックとかいう話ってなんだっけ?
496 名前:login:Penguin mailto:sage [2007/12/07(金) 01:00:01 ID:0L1bQ/rX] debianのデフォルトじゃね?
497 名前:login:Penguin mailto:sage [2007/12/07(金) 17:07:07 ID:V8m/lKoM] そんなん有るんだ。 ってググってもヒットしないし
498 名前:login:Penguin mailto:sage [2007/12/11(火) 21:54:14 ID:EizmHdyt] 今、250GB*6本でmdによるRAID5を作っています。 名前はmd0です。 今度500GB*6本でmdによるRAID5を作ろうと思います。 新しく作るRAIDをmd0にして、既存のRAIDをmd1にリネームしたいのですが リネームの操作が分かりません。 まだHDD買って来てないんで実験できないのですが、要領をご存知の方が いたら教えてください。 ディストリはCentOS5です。
499 名前:login:Penguin mailto:sage [2007/12/11(火) 23:00:07 ID:f5+2aQ7y] 1.旧md0を停止して 2.新md0を作成して 3.旧md0をmd1としてアセンブルして 4.好きなとこにマウント じゃだめヶ? 新HDD買う前に1と3だけ試せる。
500 名前:login:Penguin mailto:sage [2007/12/11(火) 23:05:57 ID:f5+2aQ7y] あ、ごめん>>498 宛てね。 それと今止めてもいいmdがないので試せなくてスマソ。 多分問題なく出来るとは思うけど。
501 名前:login:Penguin mailto:sage [2007/12/12(水) 11:28:43 ID:PJ2mXbUE] >>498 mdadm.confのARRAY行書き換えて再起動でmd0がmd1になるから、改めてmd0をcreate fstabとか関連のファイルも同時に変更する必要があるんで注意 あと確認は十二分にしたほうがいい Persistent Superblock内ってアレイのデバイス名(md0)まで 埋め込まれるんだっけ?それともUUIDだけ?
502 名前:498 mailto:sage [2007/12/12(水) 12:26:42 ID:6F5R6X/A] みなさん、どうもありがとうございます。 まだ実機のmd0をバックアップ取れていないので、virtualpc内にlinux入れて 教えていただいた手段を試してみます。
503 名前:498 mailto:sage [2007/12/12(水) 13:18:37 ID:6F5R6X/A] CentOS4がインストールされたVirtualPCイメージがあったので、それで試してみました。 ○作業前 /dev/md0: 要素 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4 ○手順 # mdadm --misc --stop /dev/md0 # mdadm -C /dev/md0 -a -l 5 -n 4 /dev/hdd1 /dev/hdd2 /dev/hdd3 /dev/hdd4 # mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4 # shutdown -r 0 ○作業後(再起動後) [root@centos ~]# cat /proc/mdstat Personalities : [raid5] md1 : active raid5 hdb4[3] hdb3[2] hdb2[1] hdb1[0] 29952 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] md0 : active raid5 hdd4[3] hdd3[2] hdd2[1] hdd1[0] 60096 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] unused devices: <none> 無事にmdの名称が変わりました。 今度HDDを買ってきたら、本番マシンで試してみたいと思います。 どうもありがとうございました。 >>501 # mdadm -E /dev/hdb1 をしてみた所、md?の記述はなかったので、HDD要素自体には自分がどのmdに属すのかという 情報は持っていないのかもしれません。 あと、mdadm.confをfindで検索してみましたが、存在しませんでした
504 名前:login:Penguin mailto:sage [2007/12/12(水) 15:43:25 ID:kEBRgtVd] >>503 横から失礼。 自分も昨晩レスキュー用のKanotix使って md*の名前を変更したのだけど、 古い mdadm (1.*.*) だと再構成(assemble)段で # mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4 を # mdadm -A /dev/md1 -a /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4 とかやらないと上手く認識しないみたい。 今時のは(2.*.*)で問題ないけど。
505 名前:login:Penguin mailto:sage [2007/12/12(水) 15:56:54 ID:PFZrlHwL] >>504 さらに横レスw そうだったのかー。知らなかったよサンクス。 先日上手くいかなかったんでmdadmを1から2にうpしちゃったばかりの俺です。 あ、ついでに、HDD4台とかで台数多いときは # mdam -A 1/dev/md0 /dev/sd[abcd]1 で省略出来るお。この指定だと間違いにくいんでオヌヌメ。 知ってたらごめん。
506 名前:訂正 mailto:sage [2007/12/12(水) 15:57:50 ID:PFZrlHwL] ○ # mdam -A 1/dev/md0 /dev/sd[abcd]1 × # mdam -A /dev/md0 /dev/sd[abcd]1
507 名前:498 mailto:sage [2007/12/12(水) 16:09:33 ID:6F5R6X/A] -aって、「必要ならばデバイスファイルを作る」っていうオプションですよね。 付けなくても動作しましたが、付けるほうが正解な気がします。
508 名前:login:Penguin mailto:sage [2007/12/14(金) 01:18:21 ID:XaTc4CNr] >>503 >あと、mdadm.confをfindで検索してみましたが、存在しませんでした アレイ障害時に管理者にメールを投げる機能、とかの設定保存ファイルがどこかにあると思う。 man mdadm man mdadm.conf して出てこないとかなら使ってる鳥が別名にしてるんだろう
509 名前:login:Penguin [2007/12/19(水) 17:03:00 ID:bGUYO486] ICH8DHのraidはlinuxでも使えますか? 現在raid1でWindows(XPとVista)を使っていますが、ハードディスクの後ろの方を空けて、そこにlinuxを入れてみたいと思っています。 この場合、raid1ままで使えますでしょうか?ich8,raid,linuxなどでggって見ましたがよく分かりませんでした。よろしくお願いします。
510 名前:login:Penguin mailto:sage [2007/12/19(水) 17:07:14 ID:MVsxWy2g] >>509 >>192
511 名前:509 mailto:sage [2007/12/19(水) 17:31:25 ID:bGUYO486] >>510 ありがとうございます。 mdadmというのが有るのですね。 今回のようにハードディスク前半のWin領域はそのままraid1で、 後半のlinux領域もraid1にしたい時は、 raid1状態にlinuxをインストールするのは無理でしょうか? RaidのBIOSでハードディスク後半は通常状態に戻し、 片方のハードディスク(の後半)にインストールして、 そのシステムで起動してから、raid1の設定をする、 という感じのなるのでしょうか? #質問が分かりづらかったらスイマセン。 #そもそもmdadmのraid1の領域から起動することはできない?
512 名前:login:Penguin mailto:sage [2007/12/19(水) 17:50:49 ID:UvMw/7fp] mdadmで同期するとメモリーが増え続ける(メモリーリーク) 何が原因だろう・・・ 外すと増えない・・・ あぁ、折角Raid組んだのに・・・
513 名前:login:Penguin mailto:sage [2007/12/19(水) 23:56:27 ID:dXqKwU0p] >>511 ああまた一番面倒な構成を・・・ LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの 後ろ半分だけmdすれば使える。アクセスするのなら、Windows側から見える RAID構成と整合性を保つため、mdではなくベンダ依存ソフトRAIDドライバが 必要。正直お勧めできない。 ブートはmdの場合は別に問題なくできると思う。 お勧めは100% LinuxかWindowsにして、片方はVMwareとかで動かすことだな・・・ 当然RAIDはLinuxもしくはWindowsが標準で持ってる標準のSoftRAIDドライバで、 チップセットの機能は殺して使う。
514 名前:513 mailto:sage [2007/12/19(水) 23:58:47 ID:dXqKwU0p] > LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの > 後ろ半分だけmdすれば使える。 嘘です。ごめんなさい。チップセットのなんちゃってRAID機能が どういうディスクレイアウトでHDD記録面使ってるかLinuxから 知りようがないので、「後ろ半分だけmd」は不可能です。 あきらめてベンダのSoftRAIDドライバで頑張るか、もっとベターな ベンダドライバは捨てて片方は仮想化で稼動がおすすめ。
515 名前:login:Penguin mailto:sage [2007/12/20(木) 01:06:41 ID:ah4LLGVs] つかいまどきHDDなんてクソ安いんだから ひとつのHDD分割してそれぞれRAIDなどと 金払ってわざわざ面倒を買うようなことはやめて HDDひとつ増設しろ、というのが 全うなアドバイスだと思うが。 わざわざ面倒を買いたいMの人なら ここで聞かずに、自力でMるべき。 その方が長期間楽しめる。
516 名前:login:Penguin mailto:sage [2007/12/20(木) 01:15:18 ID:7Ear3seQ] その話だけど、HDDって最近あんま下がんないよね。 500GBを春先に大量買いしたんだけど、ついこないだ1本追加したらほとんど値段一緒だった。
517 名前:login:Penguin mailto:sage [2007/12/20(木) 11:59:43 ID:9JqjcHOR] 去年の夏に買った MaxLine Proの500GBは約2.8万円だった。 後継機種(?)の Barracuda ESの500GBは現在約1.6万円で買える。 このクラスは既に十分安くなったのだと思う。 過去の例から見ると、どんな容量でも 1.5万くらいで低下速度がにぶり、 その後ジワジワと1.0万前後まで下がって、消えていくパターンでは。 (最低容量路線 1製品だけは例外としてその後も残す感じ) 現在価格低下中なのは、もっと大きい容量のものだと思う。 www.watch.impress.co.jp/akiba/hotline/20071215/graph/gi_g83500630_50ns.html www.watch.impress.co.jp/akiba/hotline/20071215/graph/gi_ga3750640_75ns.html
518 名前:login:Penguin mailto:sage [2007/12/20(木) 17:11:44 ID:bKOgxsVo] >>513-515 オンボードRAIDでパーティションを切って(複数の)Windowsを入れる場合には全然面倒な事は無いのですが、 その内1つでもLinuxを入れようとすると、とたんに凄く面倒なことになるみたいですね。 その事がハッキリしてよかったです。 Linuxは仮想化で使用する方向で検討します。ありがとうございました。
519 名前:login:Penguin mailto:sage [2007/12/20(木) 17:31:46 ID:PCc7T4fL] たぶんすごく勘違いしてる気がするけどまあいっか…
520 名前:login:Penguin mailto:sage [2007/12/21(金) 00:27:42 ID:2IO5/NZD] きっと >>518 は微妙に勘違いしてるね。 勘違いしてる場合、>>518 はチップのRAID機能を相変わらず有効にしたまま ベンダ提供ドライバで使ってるはず。ちゃんと理解してるなら、チップは ただのインタフェースチップとして使って、RAID自体はWindowsのSoftRAID機能で 実現してるはず(それができるチップなら、だけど)。 なんちゃってRAIDを使うことの面倒(&危険=ボード変えたらあぼん)さと、 Windows/Linuxの双方で共通のディスクレイアウト情報を共有する面倒さの 2つがあることは理解されたのだろうか・・・
521 名前:login:Penguin mailto:sage [2007/12/21(金) 08:17:35 ID:vT/e4/3W] >>520 アドバイスはあり難いのですが、Win上の仮想環境でのLinuxの使用が思いのほか快適ですし、 ホストOSがWinなのでオンボードRaidに関しても面倒がありません。 この環境を捨てて、かつWin領域までSoftRAIDで再構成しなおしてまで、 Win/Linuxの切り替えboot環境に移行する気が起きません。悪しからず。 なお、ICHの世代が変わっても下位互換性は確保されているようですし、 M/Bのメーカーが変わってもサウスがICHなら問題ないはずですので、 「ボード変えたらあぼん」は言いすぎかと。 なお、FakeRAIDがSoftRAIDに勝っている点として、 (1)BIOSが起動した時点からRAID機能が使える, (2)BIOS側の設定だけでRAIDが使えてしまう と下記では言っています。これが一般に受け入れられる主張かどうかは知りませんが参考まで。 ttp://itpro.nikkeibp.co.jp/article/Keyword/20070824/280335/
522 名前:login:Penguin mailto:sage [2007/12/21(金) 10:14:34 ID:BvrFe3Un] 結局ソフトウェア的なRAIDについてはWinとLinuxで互換性を取るのはムリだから 何をチョイスしたところで諦めるしかないわ。
523 名前:login:Penguin mailto:sage [2007/12/21(金) 10:48:48 ID:4VlKmS8l] >>521 とりあえず、仮想化は構成を複雑にしないって意味で正解だと思う。 BIOSレベルでミラーとか作れるのは便利だと思うけど、 OSからまともに使えない場合はまったく意味がないからなぁ…。 ドライバがまともならFakeも良いだろうね。 Linuxだとその条件が以外に難しいからSW使ってる人も多い。 (dmraidとかだと結構ちゃんと使えます?>使ってる方) あとBIOSでアレイいじってる間はOS起動しないから 可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。
524 名前:login:Penguin mailto:sage [2007/12/21(金) 16:03:13 ID:vT/e4/3W] >>523 可用性という言葉は知りませんでした。 ttp://e-words.jp/w/E58FAFE794A8E680A7.html 可用性、つまりシステムの壊れにくさのこと。 障害の発生しにくさや、障害発生時の修復速度などによって計られる。 > あとBIOSでアレイいじってる間はOS起動しないから > 可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。 Intel matrix storage manager というのがあってOS稼動したままRaid1のアレイの復旧も出来るようです。 もちろん復旧中はHDアクセスは非常に重くなったりしますし、 世の中にはもっと可用性の高いシステムもあるのでしょうが、 デスクトップPCの可用性としては、現状で個人的には充分です。 # 可用性が重要視されるであろうサーバー機だったら、 # Win上のLinuxで運用などしませんしw > (dmraidとかだと結構ちゃんと使えます?>使ってる方) 使ってませんが、ggってみた限りではdmraidの出来はあまり良くないような印象を受けます。 というかlinuxのFakeRaidとSontRaidに関しては、既に>>192 で結論が…。
525 名前:login:Penguin mailto:sage [2007/12/21(金) 18:40:58 ID:DRFyI6f4] 今時OSが起動しない状態でしかリビルド出来ないようなのはねえよ
526 名前:login:Penguin mailto:sage [2007/12/24(月) 14:03:23 ID:brxL+xQV] そのせいでリビルド中に何回壊れたことやら。
527 名前:login:Penguin [2007/12/24(月) 16:20:29 ID:pkkqmlH/] 関係ないだろ馬鹿か?
528 名前:login:Penguin mailto:sage [2007/12/27(木) 00:40:51 ID:rLyRK7d3] RAID1,5は可用性をあげる目的と考えた方がいい 故障時に可用性よりデータ保全を最優先する場合、冗長性が無くなった段階で ジャーナリングログでデータ部分を別ディスクにバックアップしている場合はそのままリビルド そうじゃない場合リビルドで壊れる可能性を考慮して、 RAID1の場合一台外してバックアップする RAID5の場合全台外してバックアップする RAID5よりRAID1のリビルドの方が負荷が少ないのでリビルド中にRAID5ほどは壊れない 故障時に可用性とデータ保全を両立させるためにはRAID6なりを用意するのがよい データ保全を考えるなら2台壊れたら停止させることになるけど。
529 名前:login:Penguin mailto:sage [2007/12/27(木) 00:43:25 ID:rLyRK7d3] こっちのほうが全然分かりやすいorz ttp://ja.wikipedia.org/wiki/RAID#RAID.E3.81.AF.E3.83.90.E3.83.83.E3.82.AF.E3.82.A2.E3.83.83.E3.83.97.E3.81.AE.E4.BB.A3.E6.9B.BF.E3.81.A8.E3.81.AA.E3.82.8B.E3.81.8B.3F
530 名前:login:Penguin mailto:sage [2007/12/27(木) 01:16:49 ID:K2qSwS4Z] >>528 529に書いてあるとおり、データ保全は基本的にバックアップの仕事だね ただ、バックアップは定期的にとるものであって、アレイが縮退して初めてとるのでは遅いよ。 バックアップの読み出しでアレイが壊れるリスクに対応できない。読み出し成功すれば問題ないんだけど。 ま、数台くらいまでならあまり気にしなくていいリスクなんだけどね。
531 名前:login:Penguin mailto:sage [2008/01/05(土) 15:15:32 ID:MAvpolV9] mdadmの話なんですが現在320Gを6台でRAID5組んでる んですが、少し容量足りなくなってきたんで1Tを2個 追加して 320>|RAID0(1T) 320>|--------→>| 320>| 320>|RAID0(1T) 320>|--------→>|RAID5(3T) 320>| 1T-------------→>| 1T-------------→>| こんなの考えてるんですが、mdだけで構築できますかね? やっぱりLVM使わないとダメ?
532 名前:login:Penguin mailto:sage [2008/01/05(土) 15:48:37 ID:gm0qG86Q] 上から順番にmd0、md1、md2として。 もし仮に出来たとしても、md0〜2まで同時にactiveになるけど その際md2の要素が1つ欠けているわけで、立ち上げる度に md2のリビルドが発生しないだろうか? 面白そうだから、実験してみては。
533 名前:login:Penguin mailto:sage [2008/01/05(土) 17:02:09 ID:MAvpolV9] アレイの組みあがる順番が問題ですよね。 そのあたりデレィさせることができないかな?...と。 しかし、よく4台のHDDでRAID0+1とかで組んでるという 話聞くんですがあれもこれと似たような話のような気がする。
534 名前:login:Penguin mailto:sage [2008/01/07(月) 15:40:04 ID:dghccbSz] Virtual PCでやってみた。 まず64MBのパーテション2個をRAID0にしてその後に 128MBの別のパーテション2個でRAID5組んで見た。 64MB> |raid0(128MB) 64MB> |--------------→>| 128MB-------------------→>|raid5(384MB) 128MB-------------------→>| 結果>OK ちゃんとmd0作ってからRAID5作成してくれてるみたい。 fstabで自動的にマウントもできた。 それではと、さらに64MBのraid0パーテション追加してみる 64MB> |raid0(128MB) 64MB> |--------------→>| 128MB-------------------→>|raid5(512MB) 128MB-------------------→>| 64MB> |raid0(128MB) 64MB> |--------------→>| 追加自体は問題なく、パーテションの拡大もできた。 が、再起動すると最後に追加した方のraid0が外れて Raid5は3セットで動作してる......orz どうもログ見て見ると単純にアレイ作成順番で認識 してるようで後ろのraid0も起動後はアレイとして 作成されているが、Raid5構築時認識されてないので 外されてしまったみたい。 なんとか、アレイの起動順番変えられないものか...
535 名前:login:Penguin mailto:sage [2008/01/07(月) 16:57:20 ID:/TlGVyIM] >>534 mdadm.confの記述を変えるんじゃダメなの? アレイのUUID(orデバイス群)とデバイス名(md*)の対応情報が mdadm.confなんだからそこを書き換える。 予想としてはmd0から順に起動するだろうから、 新しい64MB/raid0をmd1、512MB/raid5をmd2に直せば問題ないと思われ # 当方debianなんで流儀違ってるかもしれない。
536 名前:login:Penguin mailto:sage [2008/01/07(月) 17:31:09 ID:dghccbSz] >>534 テスト環境はdebian etchっす。 漏れもそう思って順番変えてみたんだがmdadm.confの 情報はアレイの構成情報じゃなくてモニタリングする 時の比較情報に使うものみたいで、状況変わらなかった。 そもそも 64MB> |raid0(128MB,md2) 64MB> |--------------→>| 128MB-------------------→>|raid5(512MB,md0) 128MB-------------------→>| 64MB> |raid0(128MB,md1) 64MB> |--------------→>| md2→md0→md1の順番で作成してるんだ。 で、md2とmd0のだけの時は問題なかった。 mdadmのアレイ構成情報はどこに記述されてるんだろ。 mdadm.confって無くても動作するし、どこか別の所に 設定されてるはずなんだが、、、、。
537 名前:login:Penguin mailto:sage [2008/01/07(月) 18:14:22 ID:/TlGVyIM] >>536 そうか、力になれなくてすまん /etc/init.d/mdadm-raidあたりを覗くと、 mdadm --assemble --scanとかやった出力を各行で処理してるんで、 ずっとmdadm.confで制御してると思ってたよ mdadm.confを読まない場合は、アレイ構成情報はPersistent Superblock (構成パーティションの最後の方)に入ってるはず。mdadmのオプションで見れる ただデバイスの起動順までそこに入れる、ってのは非合理なんだよなぁ……
538 名前:login:Penguin mailto:sage [2008/01/07(月) 18:25:08 ID:dghccbSz] >>537 すまんできた。 少し考えれば分かることだがraidの構成はinitdの起動スクリプトは の中にあるんだな。ダイレクトにイメージ開いて編集して構成順番を md2→md1→md0に書き換えたらOKだった。 initrd.imgを作り直す時にmdadm.confを参考にしてイメージ作り直し してるみたいね。だから単にmdadm.conf書き換えようが消そうが raidは構成されるわけだ。 明日、1TB2個買ってきて実機でやってみよ。
539 名前:login:Penguin mailto:sage [2008/01/07(月) 18:47:31 ID:/TlGVyIM] >>538 おつ。ちなみにこっちで調べた感じだと、 起動はPersisten Superblock内にあるsuper-minor値の小さい順?な感じ (後から作った64MB/raid0はsuper-minor値が大きいので、 /dev/md*の数字が小さくても後に起動される) initrd.img作るときにmdadm.conf読むってのは初耳だなぁ。 あとで調べてみよう。
540 名前:login:Penguin mailto:sage [2008/01/07(月) 18:51:45 ID:6LLk5psJ] >>539 grep mdadm.conf /sbin/mkinitrd
541 名前:login:Penguin mailto:sage [2008/01/07(月) 18:54:15 ID:/TlGVyIM] >>540 THX
542 名前:login:Penguin mailto:sage [2008/01/08(火) 17:53:05 ID:OGlZLqVZ] スワップ領域って同期する必要ってあるの?
543 名前:login:Penguin mailto:sage [2008/01/08(火) 21:32:25 ID:kFPjRcz2] なぜ同期を取らなくても良いと思ったのですか?
544 名前:login:Penguin mailto:sage [2008/01/09(水) 09:16:36 ID:nJLLxpTq] バックアップする必要性がないと思ったからです
545 名前:login:Penguin mailto:sage [2008/01/09(水) 20:10:34 ID:vhzJqQMp] どうも釣りではなく、真面目な質問のようなのでお答えします。 稼動中のOSにとって、SWAPパーティションの存在はメモリと同じ位に大事です。 もしもSWAPパーティションをミラーしていない場合に、SWAPパーティションが存在する HDDが不良になった場合、SWAPパーティションが見えなくなります。 これは稼動中のOSにとっては、メモリにアクセスできなくなるのと同じ意味です。 試したことはありませんが、きっとkernel panic行きでしょう。 SWAPパーティションがRAID内に存在していれば、HDDの不良が発生していても 冗長が保たれている限り、OSはSWAPパーティションにアクセスできます。 結果、OSは問題なく稼動することができます。 システムの安定稼動を目的にするシステムならば、SWAPパーティションは絶対に RAID内に含むべきです。 システムの安定稼動よりもデータ用の容量が優先ならばSWAPパーティションを RAID内に含ませなくてもいいでしょう。 こんな所でおけ?
546 名前:login:Penguin mailto:sage [2008/01/09(水) 23:10:36 ID:QSyCJota] >>545 解説乙です。 むかし同じ疑問を持って、起動中にスワップパーティションを 削除してみたところKernel Panicになりましたw それ以来、 まともな鯖の構築では必ずスワップのミラーもするようにしてます。
547 名前:login:Penguin mailto:sage [2008/01/10(木) 07:10:57 ID:Xl1xx6Km] それミラーとか関係ないお前のミスじゃん
548 名前:542 mailto:sage [2008/01/10(木) 09:17:31 ID:Y4ukHsPA] >>545 勉強になりました 分かりやすい解説ありがとうございました
549 名前:login:Penguin mailto:sage [2008/01/11(金) 05:10:20 ID:pC8cgKoa] >>547 いちいちレスするのもくだらないですが ミスじゃなくて実験ですよ
550 名前:login:Penguin mailto:sage [2008/01/11(金) 10:15:26 ID:bKTO3W/i] >>549 何にでも文句つけたがる年頃なんでしょう。 脱初心者ぐらいの。
551 名前:login:Penguin mailto:sage [2008/01/11(金) 10:31:57 ID:1u4+JVGt] そういった輩はしつこいからスルー推奨
552 名前:login:Penguin [2008/01/11(金) 17:00:47 ID:oau76v1R] Kernel Panicとか馬鹿じゃねーの
553 名前:login:Penguin mailto:sage [2008/01/11(金) 23:06:14 ID:nnTIF6b/] >1 出直して来い! って、ちょうど1年前・・・
554 名前:login:Penguin mailto:sage [2008/01/14(月) 00:42:46 ID:X6gV4HK4] FC6でSATAのHDD*4でソフトのRAID5を組んでNASとして使ってるんですが ネットワーク上からアクセスできなくなり調べてみたところ4台ともRAIDのアレイからリムーブされていました 再起動してみたところ最初は正常に動いているのですがしばらくするとまた停止してしまいます この場合4台とも壊れているとは考えにくいのですがどのように確認、リビルドしたらいいでしょうか?
555 名前:login:Penguin mailto:sage [2008/01/14(月) 09:04:43 ID:6ov9yz32] >554 SATAケーブルが緩んでいる可能性あるかも 外してみて抜けやすかったら寿命
556 名前:login:Penguin mailto:sage [2008/01/14(月) 09:10:28 ID:lY+WgiSQ] /var/log/messages見たら、何かログが残ってるんでは?
557 名前:login:Penguin mailto:sage [2008/01/15(火) 12:43:56 ID:eGPzviNd] www.owltech.co.jp/products/pc_case/PCCHS01/PCCHS01.html VIA C7のPadLock ACEでTrueCrypt暗号処理 + RAID5とかすると かっこよさそうだけど、電源がACアダプタ 120Wでは...
558 名前:login:Penguin mailto:sage [2008/01/18(金) 10:32:12 ID:Onzb7zVS] orz.4chan.org/d/src/1200497751380.jpg
559 名前:login:Penguin mailto:sage [2008/01/18(金) 22:19:59 ID:/N+doRnf] 3ware 9500S-4LPを 構成250G×4でRAID5、Debian etchで使用してます 今はまだ余裕がありますが今後容量が少なくなってきたら オンライン拡張とやらで 例えばRAID5のまま全部500G等に入れ替え容量を増やすことができる物なのでしょうか よくわからないのでご存じの方教えて下さい。
560 名前:login:Penguin mailto:sage [2008/01/18(金) 23:31:10 ID:wp/0tR8X] 一台入れ替える→リビルド これを4回繰り返してドライブを全部入れ替える その後オンライン拡張で増量。 結構手間&ヒマはかかる。 で、増えた分を別パーティションとするなら問題ないけど ファイルシステムを拡張(既存のパーティションを大きくする) となると LVMを使ってない場合にはかなり大変。 LVM未使用の場合、一旦全部バックアップを取って、 ドライブ入れ替え→丸々新しくRAID構成→リストア の方が断然早いし、楽。
561 名前:login:Penguin mailto:sage [2008/01/18(金) 23:42:23 ID:wp/0tR8X] ん? 待てよ。 オンライン拡張ってドライブ単位のみだったか? マニュアル読んでみたけど、 そもそも使用してるドライブに空きがあるという前提は存在しないから… 確実なことは、サポートに聞いた方がいいと思う。 が、俺だったら、一旦バックアップ取ってゼロかやるな。 ほんの数時間で終わる作業だし。
562 名前:login:Penguin mailto:sage [2008/01/19(土) 10:41:26 ID:KPd9mEy8] >>561 ありがとうございます 私もよくわからなかったのがそこなんですよ ドライブ単位の追加だと空きがない時点で できないですからね。 新たに4ポート以上の物に交換するか 一からやり直すかですね。
563 名前:login:Penguin [2008/01/20(日) 12:30:39 ID:Kq5k1NMa] SCSIでRAID組むと高いんですか?
564 名前:login:Penguin mailto:sage [2008/01/20(日) 13:03:30 ID:VSFaVtzp] HDD の値段見てみりゃ大体わかりそうなもんだが...
565 名前:login:Penguin mailto:sage [2008/01/20(日) 19:43:13 ID:f+pgQsPW] 安いよ。