1 名前:login:Penguin [2007/01/11(木) 12:55:58 ID:rL+q6m/Y] Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.co.jp/product/raid/os_support_list.html Linux EVMS 一般 ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html ttp://evms.sourceforge.net/ ... あと続けてくらさい。
2 名前:login:Penguin mailto:sage [2007/01/11(木) 13:57:58 ID:Qi1sg+Qg] (゚听)イヤダ
3 名前:login:Penguin mailto:sage [2007/01/12(金) 12:03:31 ID:k7DVEYg9] ソフトウェアRAID5で構成したアレイにもう一台ディスク追加して RAID6にできればいいのになぁ。
4 名前:login:Penguin mailto:sage [2007/01/13(土) 00:59:20 ID:1daSzbwH] >>1 乙、今年はmdadmを懸命に応援する年になりそうだぜ。
5 名前:login:Penguin mailto:sage [2007/01/13(土) 17:52:42 ID:E9baDwwd] 同じHDDが4台あるとして、 4台でSoftware RAID5 4台でSoftware RAID10 Software RAID1を2つ作ってlvm2でまとめる(疑似RAID10?) では、信頼性、保守性でどれがいいでしょうか? 用途はデータ置き場です。バックアップはUSB HDDにとるつもりです。
6 名前:login:Penguin mailto:sage [2007/01/13(土) 17:58:46 ID:/hTyXuuv] お勧め2番、やるなら3番
7 名前:login:Penguin mailto:sage [2007/01/13(土) 18:30:01 ID:7SZBdiSI] md と lvm とを併用かぁ。 俺は今のところ 320GB * 4台 で RAID5 運用してる。 でもブート領域のためとかで RAID1 が欲しいから、 4台(hda,hdb,hdc,hdd) ともに 20GB + 300GB にして、 hda1+hdb1 = RAID1 20GB ブート・システム領域 hdc1+hdd1 = RAID1 20GB 未使用 hda2+hdb2+hdc2+hdd2 = RAID5 900GB
8 名前:login:Penguin mailto:sage [2007/01/13(土) 22:28:03 ID:/JYQPWqN] ICH8DHのahci + リムバ + mdadmのRAID1でホットスワップリカバリできました。
9 名前:login:Penguin mailto:sage [2007/01/14(日) 09:08:41 ID:NA5ZaSYQ] ちょっと古めのマシン AOpen AX3S Pro + Pentium III Coppermine FC-PGA 600EB + IDE HDD 4台 でファイルサーバを構築しているのですが、 ディスクが足りなくなったので増設しようとしています。 マザーボード上には HighPoint の HPT368 があるので、 これを単純に IDE インターフェースカードとして使って /dev/hd{e|f|g|h} をつなごうと思っているのですが、 HPT368 を Linux で使う上での注意点としてはどんなものがありますか? (つづく)
10 名前:login:Penguin mailto:sage [2007/01/14(日) 09:10:49 ID:NA5ZaSYQ] Windows 2000 で使っていたときには HPT368 のドライバのせいか 時々ブルースクリーンに落ちてしまったので、BIOS で disable していたのですが、Debian GNU/Linux etch の dmesg によると HPT368: IDE controller at PCI slot 0000:01:05.0 ACPI: PCI Interrupt Link [LNKD] enabled at IRQ 12 PCI: setting IRQ 12 as level-triggered ACPI: PCI Interrupt 0000:01:05.0[A] -> Link [LNKD] -> GSI 12 (level, low) -> IRQ 12 HPT368: chipset revision 2 HPT368: 100% native mode on irq 12 ide2: BM-DMA at 0xb000-0xb007, BIOS settings: hde:pio, hdf:pio ACPI: PCI Interrupt 0000:01:05.1[A] -> Link [LNKD] -> GSI 12 (level, low) -> IRQ 12 ide3: BM-DMA at 0xbc00-0xbc07, BIOS settings: hdg:pio, hdh:pio とあっさり認識してくれて、リムーバブル箱つかえば活線挿抜も 可能なのか?と期待させてくれます。 PATA の HDD が20台ほどあり、できればそれらを活線挿抜しつつ 使いたいのですが、このまま HPT368 につないでいいものか PATA->SATA 変換ボックスと SATA カードを買ってくるべきか、 都会のショップに出かける前に思案しております。
11 名前:login:Penguin mailto:sage [2007/01/14(日) 09:11:57 ID:NA5ZaSYQ] ちなみに電源ユニットは新しいものなので SATA 用の電源も供給可能です。
12 名前:18歳♀ mailto:sage [2007/01/15(月) 22:40:41 ID:mKLR9U0k] >>8 そういう情報うれしい。 手順も書いてくれると、さらにうれしいかも。
13 名前:login:Penguin mailto:sage [2007/01/16(火) 20:01:35 ID:2K/TQhFN] RAID5でオンラインでキャパ変更できますか? また、RAID5のままLVMでロジカルボリューム変更できますか?
14 名前:login:Penguin mailto:sage [2007/01/17(水) 05:32:47 ID:dKhI4BNe] md と lvm2 って直交?というか独立? アレイを物理ボリュームとして論理ボリューム作り出したり、 その逆に複数の論理ボリュームからアレイを作り出したり。 漏れ md しかつかってないんだけど、そういえば lvm の 機能として RAID 0 が実装されていたなんてことは過去無かった? ちょっと混乱気味。なので md しか使ってない。
15 名前:login:Penguin mailto:sage [2007/01/17(水) 05:40:18 ID:dKhI4BNe] おちついて考えてみたら、チキンな俺は ext2 から使い慣れてる ext3 を使っているので、ファイルシステムのリサイズができないから 意味ねぇ・・いや、なんかツール使えばリサイズくらいできるん だろうけど、チキンな俺はそれでファイルシステム全体が 吹っ飛んでしまうんじゃないかと思って怖い。
16 名前:login:Penguin mailto:sage [2007/01/17(水) 05:55:12 ID:dKhI4BNe] MD の LINEAR アレイが提供する機能と、 LVM の提供する機能はかぶるんじゃないだろうか・・・ と思ったんだが、いま mdadm の manpage 読んでみると mdadm の grow で --raid-devices が変更できるのは RAID1 に対してのみに限られるんだね。 LINEAR アレイですら grow できないのか・・・ それはやはり LVM でやれということか。 眠い。
17 名前:13 mailto:sage [2007/01/17(水) 08:12:16 ID:jQRUuA4a] ネットワーク上のストレージに地上デジタル の画像を直接録画できるテレビがあるんですけど、 ものすごい容量食うんですよね。 で、lvm2で後からHDDを足しながら容量増せるような システム作りたいのですが、lvm2だと1台のHDD死んで しまうと全滅してしまうので、その基盤のボリューム をRaid5にできないもんかと....。
18 名前:login:Penguin mailto:sage [2007/01/17(水) 10:11:40 ID:dKhI4BNe] >>17 ファイルシステム自体は何を使う予定ですか?
19 名前:login:Penguin mailto:sage [2007/01/17(水) 10:19:28 ID:dKhI4BNe] >>17 Linux Kernel 2.6.19 からは RAID5 に reshape の機能が あるようです、なにやら危険なにおいがぷんぷんしますが。 www.mail-archive.com/linux-raid@vger.kernel.org/msg06587.html 前スレでも誰か言及してましたね。 自分的には RAID5 → RAID6 への reshape (というのか?)も できるとうれしい。職場で二重障害を目の当たりにしたのでちょっとガクブル。 職場のサーバは RAID5+1だったので問題はなかったのですが。
20 名前:13 mailto:sage [2007/01/17(水) 12:28:44 ID:jQRUuA4a] ほぼ、単機能のファイルサーバーなんでFSはなんでもいいのですが Reiserで使ってます。 現状でもHDD6台バラバラに共有してるので隙間が目立つんですよね。 lvm2でボリュームを一つにまとめようかと思うのですが、やっぱ 怖いんですよね。 しかも用途が用途なのでRAID1にするほどでもない、、、でlvm2とRAID5 組み合わせられないものかと。 まあ、RAID5も気休め程度にはしかならない事は承知してますが 精神安定剤みたいなものですね。
21 名前:login:Penguin mailto:sage [2007/01/17(水) 16:04:39 ID:dKhI4BNe] RAID5が気休めって、そんなこと言わないでくれよー やっぱり家庭用でもRAID6必要かな。 すでにRAID5で構築してしまった…
22 名前:login:Penguin mailto:sage [2007/01/17(水) 17:23:19 ID:tSbUi+N4] >>21 RAID5は一発でも落ちると綱渡りだからねぇ。
23 名前:login:Penguin mailto:sage [2007/01/17(水) 20:54:29 ID:dKhI4BNe] >>22 そうなんだよね。 すでにRAID5でデータ詰め込んでしまったからもうどうしようもない。 ところでRAID5はかなり長い間使っていて信頼してるんだけど、 RAID6のコードって枯れてる?RAID5のコードと一部統合なんて話もあるみたいだから まだまだ紆余曲折ありそうで仕事に使うのは危険?
24 名前:login:Penguin mailto:sage [2007/01/17(水) 22:15:09 ID:pYVzOTz8] どうしても1アレイで大容量が必要という状況でない限り、 RAID1が信頼性、運用コストの面でベストではないかと 思い始めている今日この頃
25 名前:login:Penguin mailto:sag [2007/01/17(水) 22:24:09 ID:dKhI4BNe] 4台ハードディスクがあるとして、RAID1とRAID6のどっちがいいだろうか? 有効容量はどちらもハードディスク2台分だから同じ。 2台が壊れたときRAID6なら助かるがRAID1なら 壊れ方によっては助からない。
26 名前:login:Penguin mailto:sage [2007/01/17(水) 22:34:56 ID:l/++G+GY] 1台壊れた時のリビルド中の不良セクタ遭遇も考えると6
27 名前:login:Penguin mailto:sag [2007/01/17(水) 23:08:29 ID:dKhI4BNe] やっぱりRAID5からRAID6へのreshapeと growはできると嬉しいな。 でも作業中に障害が発生して全部吹っ飛ぶなんてのはごめんだけど。
28 名前:login:Penguin mailto:sage [2007/01/17(水) 23:18:52 ID:Mb7Fwpgg] データを守ろうとすればカネがかかるわけで、 どのくらいカネかけれるかにもよるな。 まともに運用できるならRAID6は武器になるが、 運用失敗した後のリカバリではRAID1が圧倒的に強い。 セクタエラー程度ならそのままほとんどのファイルを救出できるからな。
29 名前:login:Penguin mailto:sage [2007/01/17(水) 23:32:00 ID:NH1vWgwK] RAID6の箱を買えばいいんじゃないか?
30 名前:login:Penguin mailto:sage [2007/01/17(水) 23:33:48 ID:to65kYg+] >>29 個人で買ってもよさげな価格帯の物ってある?
31 名前:login:Penguin mailto:sage [2007/01/18(木) 08:03:42 ID:CGK1nL0s] >>23 ソフトウェアRAIDの話? RAID6(HDD11発と4発)を1年ほど使ったけど、RAID6側の問題は特に感じてないよ。 むしろ、同時アクセスによる割り込み処理の問題か何かが効いているような。 CPU/MBをAMD系からIntel系に変えてディスクアクセス関係のエラーが激減した。
32 名前:login:Penguin mailto:sage [2007/01/18(木) 17:33:03 ID:fQv5Q68V] >26 どれくらいまでの遅さなら耐えられる?
33 名前:login:Penguin mailto:sag [2007/01/19(金) 13:45:34 ID:Gws+Pgem] ネットワークでつながっている別のマシンの パーティションを使ってRAID・・・って無理かww
34 名前:login:Penguin mailto:sage [2007/01/19(金) 13:52:18 ID:8Avse/mS] >>33 nbdをどうぞ
35 名前:login:Penguin mailto:sag [2007/01/19(金) 14:10:33 ID:Gws+Pgem] >>34 ふ〜む、そういうものがあるのか。 古いノートパソコンをもらったんで 自宅鯖にしてみようと思ったんだけど、 ディスクは一台しかついてないから RAID1にできないなぁ、でも横のファイルサーバの 余っているディスク領域をネットワーク越しに ブロックデバイスとして見せかけられれば それ使って md の設定できないかなぁ、なんて思った。
36 名前:login:Penguin mailto:sage [2007/01/19(金) 14:15:42 ID:i9bLknZd] >>35 AoEおすすめ
37 名前:login:Penguin mailto:sage [2007/01/19(金) 14:23:19 ID:Gws+Pgem] ATA over Ethernet なんてものもあるのか。 それなりに Linux ずっと使ってきたのに、 まだまだ知らないものがあるんだなぁ・・・ 単に俺が勉強不足なだけかも知れんが。
38 名前:login:Penguin mailto:sage [2007/01/19(金) 15:03:55 ID:T0ADJeSd] ATA over Ethernet 〜そしてiSCSI〜
39 名前:login:Penguin mailto:sage [2007/01/20(土) 01:43:14 ID:eR+5JFV/] 秋葉まで見に行こうかと思ってるんですがRAID製品が 豊富な店とかってあります? 横浜のヨドバシにいったら、「RAID」が何かすらわからない 店員の上に、しょぼいカードが一つあるだけだったので…
40 名前:login:Penguin mailto:sage [2007/01/20(土) 02:21:50 ID:9XDpbJRu] USER'sSIDE 高いが品揃えは多い DOSパラ(一部店舗?) 最近は3wareとか置いてるらしい PCSERVER1 otto系列のサーバ屋、ARAIDとか扱ってる まぁ、メジャーな店だと何も無いわな
41 名前:39 mailto:sage [2007/01/20(土) 08:43:18 ID:eR+5JFV/] >>40 ありがとう。いってみます
42 名前:login:Penguin mailto:sage [2007/01/21(日) 02:09:27 ID:IoD8SZQl] ttp://www.ussg.iu.edu/hypermail/linux/kernel/0701.2/0981.html 2.6.19.2のRAID5ってやばいの?
43 名前:login:Penguin mailto:sage [2007/01/21(日) 11:43:08 ID:2HWPh1+Q] >>42 うぉ、ガクブル。
44 名前:login:Penguin mailto:sage [2007/01/21(日) 16:40:50 ID:L1NhTi/1] 外出だったらスマンが、mdadmでRAID5のreshape(OCEのようなもの?) ができたので報告。 環境:fedora core 6、kernel2.6.18-1.2869.fc6、mdadm v2.6(ソースからコンパイル) RAID:/dev/md0、RAID5、HDDx3、ext3 1. 既存のRAID5にmdadmでオンラインのスペアディスクを追加 2. mdadm --grow /dev/md0 --raid-disks=4 (ここで念のためRebuildが完了するまで放置) 3. resize2fs /dev/md0 3の部分がちと怖いのでバックアップは忘れずに。 それとテスト環境でやっただけなので、まだ何か落とし穴があるかもしれん。 ご利用は自己責任で。 このあとfc4の本番環境でもやる予定だす。
45 名前:login:Penguin mailto:sage [2007/01/21(日) 21:33:42 ID:2HWPh1+Q] >>44 報告乙。もともとディスク数3だったのを4にしたんだね? いままで RAID1 でしかディスク数の grow はできなかったんだよね。 resize2fs って怖かったのか、どんなファイルシステムでもリサイズは 全てを失うことがありそうで怖くてまだやったことない。
46 名前:login:Penguin mailto:sage [2007/01/21(日) 22:09:47 ID:L1NhTi/1] >>45 どもデス。乙と言ってもらえるとうれしいもんですなw そうです、ディスク数を3本から4本、それと同時に容量もアップしました。 ちょっとわかり辛かったですね、スマソ。 >全てを失うことがありそうで怖くてまだやったことない。 激しく尿意w なもんでテスト環境でしかまだやってまへんです。
47 名前:login:Penguin mailto:sage [2007/01/21(日) 23:21:55 ID:g+NGJWvd] >>44 報告thx! 1イベントとはいえ、こういう生の情報が、2chってかんじで好き。
48 名前:login:Penguin mailto:sage [2007/01/22(月) 10:47:09 ID:PELFx8lh] でも匿名で書くとラジオのアナウンサーに 首くくれって怒鳴られちゃうんだよな・・・ 【ラジオ】コンちゃんこと近藤光史がラジオ番組で 「2ちゃんねるユーザーは『首くくれ』『人間として価値が無い』」と発言 news21.2ch.net/test/read.cgi/dqnplus/1168956483/
49 名前:login:Penguin mailto:sage [2007/01/22(月) 13:12:45 ID:PELFx8lh] カーネル入れ替えたときとか、もしバグでアレイが全部 吹っ飛んだらどうしようってすげぇビクビクする。 せめてデバイス丸ごとリードオンリーにして アレイが問題なく構成できてファイルシステムにも 問題がないことをチェックしてから書き込みを許可できればなぁ。 数テラバイトが吹っ飛ぶなんて悪夢だ。
50 名前:login:Penguin mailto:sage [2007/01/22(月) 16:03:33 ID:2B3NlAcw] なんつーか、ファイルシステムとかRAID関連のバクはあまりにも 致命的すぐる。 それ以外のパッケージはunstableでも物ともせず使ってるが、 こればっかりはなぁ。
51 名前:login:Penguin mailto:sage [2007/01/22(月) 17:47:34 ID:V25cnwwm] >>48 新聞だってテレビのニュースだって、ほとんど匿名記事じゃないか。 アメリカに行って、テレビや新聞の記事が、記者の署名付きなのに感心した。 >>50 すげーちっさいテスト環境でテストしてから、メイン環境に使えば良いんだけど、 ちいさい環境だと問題が出てこないバグもあるからなぁ。 RedHat様やSuSE様やらを信じるしかありませんな・・・。
52 名前:login:Penguin mailto:sage [2007/01/22(月) 17:54:44 ID:PELFx8lh] >>51 うん、特にオーバーフロー系のバグがそうだよな。 昔ループバックデバイスで開始位置にオフセットが 設定できるようになったとき、先頭10KB飛ばして マウントならうまくいったのに、ハードディスクの イメージファイルの先頭10GBくらい飛ばして 途中のパーティションの中のファイルシステムを マウントしようとしたら吹っ飛んだことがあった。 ソースコード見たらオーバーフローだった。 unsigned long で保持していなきゃならないデータを 途中 unsigned で保持している関数があった。
53 名前:login:Penguin mailto:sage [2007/01/24(水) 16:00:33 ID:Z+Ac2IS8] mdで構築したraid5があります。 一台のHDDでエラーが発生したのですが、アドバイスをお願いします。 ○構成 sda1 + sdb1 + sdc1 + sdd1 + sde1 + sdf1 ○不良HDD sdb1 sdb1が壊れただけなのにCentOS4.4自体の動作が非常に遅くなり キー入力もおぼつかないので電源を落としました。 次回の起動時に自動的にsdb1への「background reconstruction」というのが 実行されました。 しかしやはりsdb1が悪いみたいで途中で失敗していました。 代わりのHDDがなかったので、hdaに空きエリアがあったのでhda4としてタイプfdを 作ったところ、fdiskが再起動しないとパーティションが有効にならないと言ってきたので 再起動したところ・・・md0がアクティブにならなくなりました。 手作業で以下のコマンドを実行してみました。 # mdadm -A /dev/md0 mdadm: only specify super-minor once, super-minor=0 ignored. mdadm: /dev/hda has no superblock - assembly aborted 見に行かなくてもいいhdaを見に行っているので、fdiskでhda4を消して再起動しました。 それでもやはりmd0がアクティブになりません。 再度mdadm -A /dev/md0を行うと、同一のメッセージが表示されます。 以下続く
54 名前:53 mailto:sage [2007/01/24(水) 16:01:42 ID:Z+Ac2IS8] # mdadm -A /dev/md0 -u f4475b9d:5bda6704:e44257df:8f139846 すると mdadm: only specify super-minor once, super-minor=0 ignored. mdadm: failed to RUN_ARRAY /dev/md0: Invalid argument となります。 # mdadm -D /dev/md0 すると State : dirty, degraded になっており、アクティブになりません。 どなたかアドバイスをいただけないでしょうか?
55 名前:login:Penguin mailto:sage [2007/01/24(水) 18:13:34 ID:yaoVJouN] --run --force
56 名前:53 mailto:sage [2007/01/24(水) 18:45:52 ID:Z+Ac2IS8] >>55 的確なレスありがとうございます。 以下のコマンドで復活できました。 # mdadm -A /dev/md0 -u f4475b9d:5bda6704:e44257df:8f139846 --run --force fsckも通りマウントが正常にできました。 生半可な知識でRebuildせずに、まずはバックアップを取ってからアクションを取りたいと 思います。
57 名前:sage [2007/01/30(火) 00:14:05 ID:FqKDfkvN] Raidのリカバリで使うcpuパワーを上げ下げするコマンドを忘れてしまいました。 たしか、 echo ・・・・・>/proc/mdstat とかそんな感じで設定するのだったと思うけど・・ どなたかご存知ありませんか?
58 名前:login:Penguin mailto:sage [2007/01/30(火) 00:24:12 ID:z0mWjF4o] エラー無く動いているmdにスペアディスクを設定したいと思います。 以下のコマンドラインで大丈夫でしょうか? # mdadm --manage /dev/md0 -a /dev/sda1
59 名前:login:Penguin [2007/01/30(火) 02:20:02 ID:R4Zg6UYv] だれか AMCCの 3ware 9650SE SATA II ハードウェア RAID コントローラ そのまま動いている人いる? CentOSインスコ中にエラーで止まる orz (パーティーションきるところで)
60 名前:login:Penguin mailto:sage [2007/01/30(火) 07:29:29 ID:axnxJ40m] >>57 /proc/sys/dev/raid/speed_limit_max ? www.die.net/doc/linux/man/man4/md.4.html
61 名前:58 mailto:sage [2007/01/30(火) 07:45:15 ID:z0mWjF4o] 自己解決しました。 その手順でOKでした。
62 名前:login:Penguin mailto:sage [2007/01/30(火) 23:19:58 ID:bAqM0WLs] nForce430とか61PとかでSATAでFake RAID 使っている人いませんかね? 人気ないのかな?
63 名前:62 mailto:sage [2007/02/03(土) 21:35:50 ID:BVcNdfG1] 過疎ってますので自作板に移動します。
64 名前:login:Penguin mailto:sage [2007/02/06(火) 15:02:39 ID:t9fdHqTH] ソフトウェアRAID1でランダムリード性能は向上するものでしょうか? わかるかたいましたらおしえてください
65 名前:login:Penguin mailto:sage [2007/02/06(火) 15:20:14 ID:5Kb3UM8n] 実装によるし、アクセスパターンやタイミングにもよるようだ。 LinuxのソフトウェアRAIDではやや向上する事もあるが、全く効果がないときもある。 実際に動かして測定してみれ。
66 名前:login:Penguin mailto:sage [2007/02/06(火) 21:45:49 ID:+WLVKn/X] RAID5のアレイにもう一つディスクを足してRAID6に出来ないものですかね。
67 名前:login:Penguin mailto:sage [2007/02/08(木) 18:02:09 ID:FCZCQ0FS] >>59 Debian etch(kernel:2.6.18-3-amd64) で使ってる。 自分の場合は / で使うつもりはなかったから、OS インスコ してから ドライバコンパイルして元々の 3w-9xxx.ko と入れ換え、 マウントしていまんとこ普通に使えてる。 そのままだとたしかに認識してくれなかったなぁ。 対応鳥じゃないとインスコ時の正常動作は無理かも 最近 Linux 使いはじめた人間なんで、詳しい対応策書けなくてゴメンヨ とりあえず報告だけ
68 名前:login:Penguin mailto:sage [2007/02/10(土) 16:50:10 ID:ptuSH4++] リムバ+Software RAIDでホットスワップするときって、hdparmでHDDを スピンダウンさせてからリムバの電源を切る方が安全だよね?
69 名前:login:Penguin mailto:sage [2007/02/21(水) 20:45:48 ID:HkfANAOw] RAID5からRAID6へのアップグレード(?)ができればいいのになぁ。
70 名前:login:Penguin [2007/02/23(金) 20:26:40 ID:ArHTYZC9] RAIDって速度の違うドライブを使えば、速度の遅い方に足引っ張られるという認識で正しいですか?
71 名前:login:Penguin [2007/02/23(金) 22:09:23 ID:obdKOU01] スーパーマリオブラザーズ www.youtube.com/watch?v=AWxpcd4Nbto
72 名前:login:Penguin mailto:sage [2007/02/24(土) 03:31:20 ID:jErYcOQJ] >>70 正
73 名前:login:Penguin [2007/02/24(土) 15:09:12 ID:MbL5jte/] RAID6ならRAID5+スペアディスクのほうが良いだろ。
74 名前:login:Penguin mailto:sage [2007/02/24(土) 17:45:18 ID:ZgJOy0Gl] 二重障害に対応できない。
75 名前:login:Penguin [2007/02/24(土) 18:22:06 ID:MbL5jte/] RAID6のひとって、スペアディスクつけてるの?
76 名前:login:Penguin mailto:sage [2007/02/25(日) 12:51:24 ID:EPXHhgqo] 付けないなら4-Way RAID1やるよ
77 名前:login:Penguin mailto:sage [2007/02/26(月) 02:05:00 ID:W3wudzvE] >RAID6のひとって、スペアディスクつけてるの? 遠隔地サーバーならともかく、自宅鯖の場合壊れたら 即交換できるからRaid6はいるけどスペアはいらない と思っている、12WaySoftRaid6の俺
78 名前:login:Penguin mailto:sage [2007/02/26(月) 10:00:23 ID:dEzBE57o] RAID5 と RAID1 を比べて、スループットと シンプルさ、何かへんなことが起きたときの サルベージの可能性という点から考えての 「RAID1のほうが優れている」という主張には 同意できるんだけど、「RAID6よりRAID1の方が 優れているという主張っておかしくない? たとえば www.13hz.jp/2006/09/raid6_695e.html とか RAID1だとスペアに切り替わるときにはエラー無く 当該ディスク(の片割れ)からすべてのデータが 読み出せるということが前提となっているわけで、 二重障害ということを考えていないんじゃないだろうか。 ディスクが二台壊れるという場合を考えると、 その壊れ方によってはRAID1では復旧できない。
79 名前:login:Penguin mailto:sage [2007/02/26(月) 12:57:37 ID:mtS8QI8m] >「RAID X のほうが優れている」 そもそも単一の基準で全てをカバーできるなら こんなにいろいろな種類は存在してないよ だからそういう主張自体無意味だし反論も無駄
80 名前:login:Penguin mailto:sage [2007/02/26(月) 13:17:37 ID:C16dA1y2] > ディスクが二台壊れるという場合を考えると、 > その壊れ方によってはRAID1では復旧できない。 二台とも完全に逝った場合はどうしようもないが、 セクタエラー程度なら、二台のデータを相互補完することで完全復旧する事も可能。 アレイの台数が増えれば、どれかが壊れる確率もそれだけ上がるし、 最小構成の2台でデータの保持ができ、 定期的なエラーセクタスキャンでほとんど回避できるとすれば わざわざRAID6に突貫して自滅する必要も無いだろう。 RAID6で処理が複雑になる分、バグ等の問題が無いのかと考えると現時点では微妙な気もするし。
81 名前:login:Penguin mailto:sage [2007/02/26(月) 23:28:29 ID:VI1vlLsi] だよな。 俺たちのレベルだと、raid1+定期バックアップってのがいちばんよさそうだな。 読み書きの速度も落ちないしな。 RAIDコントローラの故障も考えると、ソフトウエアRAIDのほうがいいかもしれん。 最近のBIOSのRAID+dmraidでも、チップセット変わったら読み込めないよな?
82 名前:login:Penguin mailto:sage [2007/02/27(火) 00:35:02 ID:3idNzfzC] うむ、多少遅くても md が一番安心。 同じ(もしくは互換性のある)コントローラ積んだ RAIDカードがいつでも入手可能であるとは限らないし。
83 名前:login:Penguin mailto:sage [2007/02/27(火) 04:27:20 ID:hjhB7IjX] 自分はRAID6(スペアなし) + 定期Backupですね ネット越しにしか使用しないので読み書き速度は遅くても全然平気 むしろ、データの保全性のほうが重要なんで、ハードRAIDは 今までの経験で壊れる頃には同じ仕様のハードを手に入れるのが 困難になっているので、使わない >二台とも完全に逝った場合はどうしようもないが、 >セクタエラー程度なら、二台のデータを相互補完することで完全復旧する事も可能。 疑問なんですが、二台のデータのうちどっちの保持してるデータが正しいってどうやって分かるんでしょう? Raid5,6ならパリティで分かるけど・・
84 名前:login:Penguin [2007/02/27(火) 09:44:41 ID:3idNzfzC] >>83 読み出せたら正しい、正しくないものは読み出せない、 ということでそれ以上はあきらめるしかないだろうなぁ。 ハードディスクのセクタを記録するときにつけられている であろう Error Detection Code (CRCとか?) を すりぬけて正しくないものがたまたま読み出せてしまう ということも実際にはあるだろうと思うので、それはあきらめる。 ファイルごとに Tripwire みたくハッシュを取って置いて、 つじつまが合うように正しいと思われるほうを選択する という手もあるだろうけど、現実的じゃない気がする。
85 名前:login:Penguin mailto:sage [2007/02/27(火) 10:33:59 ID:mCUslleJ] >80 理屈はその通りだし、高級機ではそうしてくれるのかもしれない。 が... 現実はこういうヌケ作実装の多いこと: 一カ所セクタエラーが見つかると "障害あり" status に移って もう片方から全コピーをしようとする。 このときコピー元側の別の部分にエラーがあると... お亡くなり...
86 名前:login:Penguin mailto:sage [2007/02/27(火) 14:31:53 ID:3idNzfzC] >>85 そうなんだよな・・・ 再び先ほどはエラーがあったディスクのほうからの 読み出しを試みて・・・って言う具合にはしてくれない 実装も多いんだよね。 まぁ dd で交互に手動でがんばる、ということも 原理的には可能なんだろうけどね。って、 そういうツールを書けという話もあるが。
87 名前:login:Penguin mailto:sage [2007/02/27(火) 16:39:51 ID:QhBLHNeL] だからパーティション分割して細かいmdをいくつか作り、LVMで束ねる
88 名前:login:Penguin mailto:sage [2007/02/27(火) 19:17:56 ID:hjhB7IjX] mdの上にLVM・・ストレージのコントロール層を増やすごとにバグとかで ボリューム結合できなくなる可能性が増えるきがする・・・・ 昔LVM構成してたpvのヘッダが壊れて全体が読み出せなくなった悪夢が・・ (手動でヘッダを偽造してむりやり結合したけど)
89 名前:login:Penguin [2007/02/27(火) 19:52:19 ID:c7Z/JEvk] 3w 9650のpci-exp版動かしてる人柱なネ申はいらっさいますか?
90 名前:login:Penguin mailto:sage [2007/02/27(火) 21:29:22 ID:iRfrQvRF] うーん、250GB*8のRAID5でext2で1パーティション切ったのは大失敗だなあ。 UPS保護してない時に電子レンジ+ドライヤー+炊飯器攻撃でぷつん。fsckでごりごりやり始めて早、2日間・・・。 1.6TB総なめするのにどんだけかかるんだか見当もつかん。俺アホだorz 無事回復してくれたら、一回データ総待避してext3にするなりLVMで管理するなりしよう・・・。 初心者でTB級のアレイ組む人、マジ気を付けろよー
91 名前:login:Penguin mailto:sage [2007/02/27(火) 22:05:44 ID:3idNzfzC] >>90 tune2fs -j じゃだめなん? ext2→ext3なら特に退避せずに安全に移行できると思うんだが。 俺なんか間違ってる?
92 名前:login:Penguin [2007/02/27(火) 23:38:23 ID:vJg7XKnj] >>90 人柱乙! すげー参考になりました。いやまじで。 ほかのファイルシステムにしたらどーなんのかやってみたいw
93 名前:login:Penguin [2007/02/28(水) 01:06:12 ID:OKX6DIDl] おれは ext3 で、RAID5(7+スペア)で、 3.5TB以上だけど、 マウント回数と前回のfsckからの時間をみて、 たまに boot 時に fsck でディスク総なめのチェックがかかるよね。 まぁ、しかたねーべ。タイミングはパラメータいじって調整はできるが、とくにしてない。 でも、おれは数時間で終わるけど? ハードウェアRAIDは読み出しは速いってことか。
94 名前:login:Penguin mailto:sage [2007/02/28(水) 01:33:35 ID:KXOqHZSX] ext2でfsckが二日以上かかるなんて話初めて聞いた。 最近はext2自体使わなくなったからなぁ >>90 ext2→ext3にする場合でも、fsckが必要な状態ではfsckが先だろう。
95 名前:login:Penguin mailto:sage [2007/02/28(水) 01:35:24 ID:A1/xdUFc] うちのは250GB*6のRAID5。 ひとつのmd0として作成していて、そのうえにext3を作ってます。 メインメモリが448MBなんですが、たまにboot時に実行されるfsckで メモリ不足と表示されて途中でmd0へのfsckしくじります。 fstabからmd0外して再起動させて、きちんとCentOSが起動完了して からでないとfsckが完了しません。 多分、swap有効にする前にfsckが実行されているからかな〜と推測 していますが、あまり気にしていません。 今はmd0にLVM作ってlvol分ければよかったと後悔しています。
96 名前:login:Penguin mailto:sage [2007/02/28(水) 13:02:00 ID:IgJHr+00] tune2fs -c0 -i0
97 名前:login:Penguin mailto:sage [2007/02/28(水) 13:15:09 ID:A1/xdUFc] たしかに起動時のfsckチェックをなくしてやるってのも手ですけど ちょっとそれも少し怖いような気が。 fsckがswap有効後に実行されれば別に問題ないと思うんですが。 とりあえず仕様ってことであきらめてます。 でもレスさんくす。
98 名前:login:Penguin mailto:sage [2007/02/28(水) 13:44:42 ID:1/vmpLar] まだおわんないなー、グラフ表示のオプション付けた時のグラフ表示、何故か100%になった後また0%になってたし、 もしかして何かバグにぶちあたってるのかなあ・・・・。いくらなんでも3日間近くかかるのは変だよね? >>91 fsck終わったら試してみるです。thx。 >>93 H/Wだと確かドライバとコントローラ側で上手く騙して素通りさせるんじゃありませんでしたっけ? fsckの層の更に奥で本当のチェックを走らせてるようなイメージで・・・・。 >>95 参考までにお聞きしたいんですが、fsck完了までどれぐらいかかりましたか?
99 名前:login:Penguin mailto:sage [2007/02/28(水) 14:04:29 ID:A1/xdUFc] OS起動時のfsckだと、4時間後ぐらいに50%ほど終わってから 「メモリのアロケートができねーよ」 っていう英文吹いてメンテナンスモードになってしまいました。 X上でfsck手動でやった場合は1時間ほどで終わりましたよ。 私のスペックさらしておきます。 P3-500MHz 448MB P2B-F Sil3112&Sil3114に250GB*6でmd0(RAID5)作って直接ext3。
100 名前:login:Penguin [2007/03/01(木) 18:46:38 ID:08JSMW9W] 100もらた