RAID総合スレッド No.3
at LINUX
1:login:Penguin
07/01/11 12:55:58 rL+q6m/Y
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう
スレ 1 スレリンク(linux板)
スレ 2 スレリンク(linux板)
Linux RAID 一般
URLリンク(linas.org)
URLリンク(www.linux.or.jp)
URLリンク(linas.org)
Adaptec Japan
URLリンク(www.adaptec.co.jp)
Linux EVMS 一般
URLリンク(www-6.ibm.com)
URLリンク(evms.sourceforge.net)
... あと続けてくらさい。
2:login:Penguin
07/01/11 13:57:58 Qi1sg+Qg
(゚听)イヤダ
3:login:Penguin
07/01/12 12:03:31 k7DVEYg9
ソフトウェアRAID5で構成したアレイにもう一台ディスク追加して
RAID6にできればいいのになぁ。
4:login:Penguin
07/01/13 00:59:20 1daSzbwH
>>1
乙、今年はmdadmを懸命に応援する年になりそうだぜ。
5:login:Penguin
07/01/13 17:52:42 E9baDwwd
同じHDDが4台あるとして、
4台でSoftware RAID5
4台でSoftware RAID10
Software RAID1を2つ作ってlvm2でまとめる(疑似RAID10?)
では、信頼性、保守性でどれがいいでしょうか?
用途はデータ置き場です。バックアップはUSB HDDにとるつもりです。
6:login:Penguin
07/01/13 17:58:46 /hTyXuuv
お勧め2番、やるなら3番
7:login:Penguin
07/01/13 18:30:01 7SZBdiSI
md と lvm とを併用かぁ。
俺は今のところ 320GB * 4台 で RAID5 運用してる。
でもブート領域のためとかで RAID1 が欲しいから、
4台(hda,hdb,hdc,hdd) ともに 20GB + 300GB にして、
hda1+hdb1 = RAID1 20GB ブート・システム領域
hdc1+hdd1 = RAID1 20GB 未使用
hda2+hdb2+hdc2+hdd2 = RAID5 900GB
8:login:Penguin
07/01/13 22:28:03 /JYQPWqN
ICH8DHのahci + リムバ + mdadmのRAID1でホットスワップリカバリできました。
9:login:Penguin
07/01/14 09:08:41 NA5ZaSYQ
ちょっと古めのマシン AOpen AX3S Pro
+ Pentium III Coppermine FC-PGA 600EB
+ IDE HDD 4台 でファイルサーバを構築しているのですが、
ディスクが足りなくなったので増設しようとしています。
マザーボード上には HighPoint の HPT368 があるので、
これを単純に IDE インターフェースカードとして使って
/dev/hd{e|f|g|h} をつなごうと思っているのですが、
HPT368 を Linux で使う上での注意点としてはどんなものがありますか?
(つづく)
10:login:Penguin
07/01/14 09:10:49 NA5ZaSYQ
Windows 2000 で使っていたときには HPT368 のドライバのせいか
時々ブルースクリーンに落ちてしまったので、BIOS で
disable していたのですが、Debian GNU/Linux etch の dmesg によると
HPT368: IDE controller at PCI slot 0000:01:05.0
ACPI: PCI Interrupt Link [LNKD] enabled at IRQ 12
PCI: setting IRQ 12 as level-triggered
ACPI: PCI Interrupt 0000:01:05.0[A] -> Link [LNKD] -> GSI 12 (level, low) -> IRQ
12
HPT368: chipset revision 2
HPT368: 100% native mode on irq 12
ide2: BM-DMA at 0xb000-0xb007, BIOS settings: hde:pio, hdf:pio
ACPI: PCI Interrupt 0000:01:05.1[A] -> Link [LNKD] -> GSI 12 (level, low) -> IRQ
12
ide3: BM-DMA at 0xbc00-0xbc07, BIOS settings: hdg:pio, hdh:pio
とあっさり認識してくれて、リムーバブル箱つかえば活線挿抜も
可能なのか?と期待させてくれます。
PATA の HDD が20台ほどあり、できればそれらを活線挿抜しつつ
使いたいのですが、このまま HPT368 につないでいいものか
PATA->SATA 変換ボックスと SATA カードを買ってくるべきか、
都会のショップに出かける前に思案しております。
11:login:Penguin
07/01/14 09:11:57 NA5ZaSYQ
ちなみに電源ユニットは新しいものなので
SATA 用の電源も供給可能です。
12:18歳♀
07/01/15 22:40:41 mKLR9U0k
>>8
そういう情報うれしい。
手順も書いてくれると、さらにうれしいかも。
13:login:Penguin
07/01/16 20:01:35 2K/TQhFN
RAID5でオンラインでキャパ変更できますか?
また、RAID5のままLVMでロジカルボリューム変更できますか?
14:login:Penguin
07/01/17 05:32:47 dKhI4BNe
md と lvm2 って直交?というか独立?
アレイを物理ボリュームとして論理ボリューム作り出したり、
その逆に複数の論理ボリュームからアレイを作り出したり。
漏れ md しかつかってないんだけど、そういえば lvm の
機能として RAID 0 が実装されていたなんてことは過去無かった?
ちょっと混乱気味。なので md しか使ってない。
15:login:Penguin
07/01/17 05:40:18 dKhI4BNe
おちついて考えてみたら、チキンな俺は ext2 から使い慣れてる
ext3 を使っているので、ファイルシステムのリサイズができないから
意味ねぇ・・いや、なんかツール使えばリサイズくらいできるん
だろうけど、チキンな俺はそれでファイルシステム全体が
吹っ飛んでしまうんじゃないかと思って怖い。
16:login:Penguin
07/01/17 05:55:12 dKhI4BNe
MD の LINEAR アレイが提供する機能と、
LVM の提供する機能はかぶるんじゃないだろうか・・・
と思ったんだが、いま mdadm の manpage 読んでみると
mdadm の grow で --raid-devices が変更できるのは
RAID1 に対してのみに限られるんだね。
LINEAR アレイですら grow できないのか・・・
それはやはり LVM でやれということか。
眠い。
17:13
07/01/17 08:12:16 jQRUuA4a
ネットワーク上のストレージに地上デジタル
の画像を直接録画できるテレビがあるんですけど、
ものすごい容量食うんですよね。
で、lvm2で後からHDDを足しながら容量増せるような
システム作りたいのですが、lvm2だと1台のHDD死んで
しまうと全滅してしまうので、その基盤のボリューム
をRaid5にできないもんかと....。
18:login:Penguin
07/01/17 10:11:40 dKhI4BNe
>>17
ファイルシステム自体は何を使う予定ですか?
19:login:Penguin
07/01/17 10:19:28 dKhI4BNe
>>17
Linux Kernel 2.6.19 からは RAID5 に reshape の機能が
あるようです、なにやら危険なにおいがぷんぷんしますが。
URLリンク(www.mail-archive.com)
前スレでも誰か言及してましたね。
自分的には RAID5 → RAID6 への reshape (というのか?)も
できるとうれしい。職場で二重障害を目の当たりにしたのでちょっとガクブル。
職場のサーバは RAID5+1だったので問題はなかったのですが。
20:13
07/01/17 12:28:44 jQRUuA4a
ほぼ、単機能のファイルサーバーなんでFSはなんでもいいのですが
Reiserで使ってます。
現状でもHDD6台バラバラに共有してるので隙間が目立つんですよね。
lvm2でボリュームを一つにまとめようかと思うのですが、やっぱ
怖いんですよね。
しかも用途が用途なのでRAID1にするほどでもない、、、でlvm2とRAID5
組み合わせられないものかと。
まあ、RAID5も気休め程度にはしかならない事は承知してますが
精神安定剤みたいなものですね。
21:login:Penguin
07/01/17 16:04:39 dKhI4BNe
RAID5が気休めって、そんなこと言わないでくれよー
やっぱり家庭用でもRAID6必要かな。
すでにRAID5で構築してしまった…
22:login:Penguin
07/01/17 17:23:19 tSbUi+N4
>>21
RAID5は一発でも落ちると綱渡りだからねぇ。
23:login:Penguin
07/01/17 20:54:29 dKhI4BNe
>>22
そうなんだよね。
すでにRAID5でデータ詰め込んでしまったからもうどうしようもない。
ところでRAID5はかなり長い間使っていて信頼してるんだけど、
RAID6のコードって枯れてる?RAID5のコードと一部統合なんて話もあるみたいだから
まだまだ紆余曲折ありそうで仕事に使うのは危険?
24:login:Penguin
07/01/17 22:15:09 pYVzOTz8
どうしても1アレイで大容量が必要という状況でない限り、
RAID1が信頼性、運用コストの面でベストではないかと
思い始めている今日この頃
25:login:Penguin
07/01/17 22:24:09 dKhI4BNe
4台ハードディスクがあるとして、RAID1とRAID6のどっちがいいだろうか?
有効容量はどちらもハードディスク2台分だから同じ。
2台が壊れたときRAID6なら助かるがRAID1なら
壊れ方によっては助からない。
26:login:Penguin
07/01/17 22:34:56 l/++G+GY
1台壊れた時のリビルド中の不良セクタ遭遇も考えると6
27:login:Penguin
07/01/17 23:08:29 dKhI4BNe
やっぱりRAID5からRAID6へのreshapeと
growはできると嬉しいな。
でも作業中に障害が発生して全部吹っ飛ぶなんてのはごめんだけど。
28:login:Penguin
07/01/17 23:18:52 Mb7Fwpgg
データを守ろうとすればカネがかかるわけで、
どのくらいカネかけれるかにもよるな。
まともに運用できるならRAID6は武器になるが、
運用失敗した後のリカバリではRAID1が圧倒的に強い。
セクタエラー程度ならそのままほとんどのファイルを救出できるからな。
29:login:Penguin
07/01/17 23:32:00 NH1vWgwK
RAID6の箱を買えばいいんじゃないか?
30:login:Penguin
07/01/17 23:33:48 to65kYg+
>>29
個人で買ってもよさげな価格帯の物ってある?
31:login:Penguin
07/01/18 08:03:42 CGK1nL0s
>>23 ソフトウェアRAIDの話?
RAID6(HDD11発と4発)を1年ほど使ったけど、RAID6側の問題は特に感じてないよ。
むしろ、同時アクセスによる割り込み処理の問題か何かが効いているような。
CPU/MBをAMD系からIntel系に変えてディスクアクセス関係のエラーが激減した。
32:login:Penguin
07/01/18 17:33:03 fQv5Q68V
>26
どれくらいまでの遅さなら耐えられる?
33:login:Penguin
07/01/19 13:45:34 Gws+Pgem
ネットワークでつながっている別のマシンの
パーティションを使ってRAID・・・って無理かww
34:login:Penguin
07/01/19 13:52:18 8Avse/mS
>>33
nbdをどうぞ
35:login:Penguin
07/01/19 14:10:33 Gws+Pgem
>>34
ふ〜む、そういうものがあるのか。
古いノートパソコンをもらったんで
自宅鯖にしてみようと思ったんだけど、
ディスクは一台しかついてないから
RAID1にできないなぁ、でも横のファイルサーバの
余っているディスク領域をネットワーク越しに
ブロックデバイスとして見せかけられれば
それ使って md の設定できないかなぁ、なんて思った。
36:login:Penguin
07/01/19 14:15:42 i9bLknZd
>>35
AoEおすすめ
37:login:Penguin
07/01/19 14:23:19 Gws+Pgem
ATA over Ethernet なんてものもあるのか。
それなりに Linux ずっと使ってきたのに、
まだまだ知らないものがあるんだなぁ・・・
単に俺が勉強不足なだけかも知れんが。
38:login:Penguin
07/01/19 15:03:55 T0ADJeSd
ATA over Ethernet 〜そしてiSCSI〜
39:login:Penguin
07/01/20 01:43:14 eR+5JFV/
秋葉まで見に行こうかと思ってるんですがRAID製品が
豊富な店とかってあります?
横浜のヨドバシにいったら、「RAID」が何かすらわからない
店員の上に、しょぼいカードが一つあるだけだったので…
40:login:Penguin
07/01/20 02:21:50 9XDpbJRu
USER'sSIDE 高いが品揃えは多い
DOSパラ(一部店舗?) 最近は3wareとか置いてるらしい
PCSERVER1 otto系列のサーバ屋、ARAIDとか扱ってる
まぁ、メジャーな店だと何も無いわな
41:39
07/01/20 08:43:18 eR+5JFV/
>>40
ありがとう。いってみます
42:login:Penguin
07/01/21 02:09:27 IoD8SZQl
URLリンク(www.ussg.iu.edu)
2.6.19.2のRAID5ってやばいの?
43:login:Penguin
07/01/21 11:43:08 2HWPh1+Q
>>42
うぉ、ガクブル。
44:login:Penguin
07/01/21 16:40:50 L1NhTi/1
外出だったらスマンが、mdadmでRAID5のreshape(OCEのようなもの?)
ができたので報告。
環境:fedora core 6、kernel2.6.18-1.2869.fc6、mdadm v2.6(ソースからコンパイル)
RAID:/dev/md0、RAID5、HDDx3、ext3
1. 既存のRAID5にmdadmでオンラインのスペアディスクを追加
2. mdadm --grow /dev/md0 --raid-disks=4
(ここで念のためRebuildが完了するまで放置)
3. resize2fs /dev/md0
3の部分がちと怖いのでバックアップは忘れずに。
それとテスト環境でやっただけなので、まだ何か落とし穴があるかもしれん。
ご利用は自己責任で。
このあとfc4の本番環境でもやる予定だす。
45:login:Penguin
07/01/21 21:33:42 2HWPh1+Q
>>44
報告乙。もともとディスク数3だったのを4にしたんだね?
いままで RAID1 でしかディスク数の grow はできなかったんだよね。
resize2fs って怖かったのか、どんなファイルシステムでもリサイズは
全てを失うことがありそうで怖くてまだやったことない。
46:login:Penguin
07/01/21 22:09:47 L1NhTi/1
>>45
どもデス。乙と言ってもらえるとうれしいもんですなw
そうです、ディスク数を3本から4本、それと同時に容量もアップしました。
ちょっとわかり辛かったですね、スマソ。
>全てを失うことがありそうで怖くてまだやったことない。
激しく尿意w
なもんでテスト環境でしかまだやってまへんです。
47:login:Penguin
07/01/21 23:21:55 g+NGJWvd
>>44
報告thx!
1イベントとはいえ、こういう生の情報が、2chってかんじで好き。
48:login:Penguin
07/01/22 10:47:09 PELFx8lh
でも匿名で書くとラジオのアナウンサーに
首くくれって怒鳴られちゃうんだよな・・・
【ラジオ】コンちゃんこと近藤光史がラジオ番組で
「2ちゃんねるユーザーは『首くくれ』『人間として価値が無い』」と発言
スレリンク(dqnplus板)
49:login:Penguin
07/01/22 13:12:45 PELFx8lh
カーネル入れ替えたときとか、もしバグでアレイが全部
吹っ飛んだらどうしようってすげぇビクビクする。
せめてデバイス丸ごとリードオンリーにして
アレイが問題なく構成できてファイルシステムにも
問題がないことをチェックしてから書き込みを許可できればなぁ。
数テラバイトが吹っ飛ぶなんて悪夢だ。
50:login:Penguin
07/01/22 16:03:33 2B3NlAcw
なんつーか、ファイルシステムとかRAID関連のバクはあまりにも
致命的すぐる。
それ以外のパッケージはunstableでも物ともせず使ってるが、
こればっかりはなぁ。
51:login:Penguin
07/01/22 17:47:34 V25cnwwm
>>48
新聞だってテレビのニュースだって、ほとんど匿名記事じゃないか。
アメリカに行って、テレビや新聞の記事が、記者の署名付きなのに感心した。
>>50
すげーちっさいテスト環境でテストしてから、メイン環境に使えば良いんだけど、
ちいさい環境だと問題が出てこないバグもあるからなぁ。
RedHat様やSuSE様やらを信じるしかありませんな・・・。
52:login:Penguin
07/01/22 17:54:44 PELFx8lh
>>51
うん、特にオーバーフロー系のバグがそうだよな。
昔ループバックデバイスで開始位置にオフセットが
設定できるようになったとき、先頭10KB飛ばして
マウントならうまくいったのに、ハードディスクの
イメージファイルの先頭10GBくらい飛ばして
途中のパーティションの中のファイルシステムを
マウントしようとしたら吹っ飛んだことがあった。
ソースコード見たらオーバーフローだった。
unsigned long で保持していなきゃならないデータを
途中 unsigned で保持している関数があった。
53:login:Penguin
07/01/24 16:00:33 Z+Ac2IS8
mdで構築したraid5があります。
一台のHDDでエラーが発生したのですが、アドバイスをお願いします。
○構成
sda1 + sdb1 + sdc1 + sdd1 + sde1 + sdf1
○不良HDD
sdb1
sdb1が壊れただけなのにCentOS4.4自体の動作が非常に遅くなり
キー入力もおぼつかないので電源を落としました。
次回の起動時に自動的にsdb1への「background reconstruction」というのが
実行されました。
しかしやはりsdb1が悪いみたいで途中で失敗していました。
代わりのHDDがなかったので、hdaに空きエリアがあったのでhda4としてタイプfdを
作ったところ、fdiskが再起動しないとパーティションが有効にならないと言ってきたので
再起動したところ・・・md0がアクティブにならなくなりました。
手作業で以下のコマンドを実行してみました。
# mdadm -A /dev/md0
mdadm: only specify super-minor once, super-minor=0 ignored.
mdadm: /dev/hda has no superblock - assembly aborted
見に行かなくてもいいhdaを見に行っているので、fdiskでhda4を消して再起動しました。
それでもやはりmd0がアクティブになりません。
再度mdadm -A /dev/md0を行うと、同一のメッセージが表示されます。
以下続く
54:53
07/01/24 16:01:42 Z+Ac2IS8
# mdadm -A /dev/md0 -u f4475b9d:5bda6704:e44257df:8f139846
すると
mdadm: only specify super-minor once, super-minor=0 ignored.
mdadm: failed to RUN_ARRAY /dev/md0: Invalid argument
となります。
# mdadm -D /dev/md0
すると
State : dirty, degraded
になっており、アクティブになりません。
どなたかアドバイスをいただけないでしょうか?
55:login:Penguin
07/01/24 18:13:34 yaoVJouN
--run --force
56:53
07/01/24 18:45:52 Z+Ac2IS8
>>55
的確なレスありがとうございます。
以下のコマンドで復活できました。
# mdadm -A /dev/md0 -u f4475b9d:5bda6704:e44257df:8f139846 --run --force
fsckも通りマウントが正常にできました。
生半可な知識でRebuildせずに、まずはバックアップを取ってからアクションを取りたいと
思います。
57:sage
07/01/30 00:14:05 FqKDfkvN
Raidのリカバリで使うcpuパワーを上げ下げするコマンドを忘れてしまいました。
たしか、
echo ・・・・・>/proc/mdstat
とかそんな感じで設定するのだったと思うけど・・
どなたかご存知ありませんか?
58:login:Penguin
07/01/30 00:24:12 z0mWjF4o
エラー無く動いているmdにスペアディスクを設定したいと思います。
以下のコマンドラインで大丈夫でしょうか?
# mdadm --manage /dev/md0 -a /dev/sda1
59:login:Penguin
07/01/30 02:20:02 R4Zg6UYv
だれか
AMCCの 3ware 9650SE SATA II ハードウェア RAID コントローラ
そのまま動いている人いる?
CentOSインスコ中にエラーで止まる orz
(パーティーションきるところで)
60:login:Penguin
07/01/30 07:29:29 axnxJ40m
>>57
/proc/sys/dev/raid/speed_limit_max ?
URLリンク(www.die.net)
61:58
07/01/30 07:45:15 z0mWjF4o
自己解決しました。
その手順でOKでした。
62:login:Penguin
07/01/30 23:19:58 bAqM0WLs
nForce430とか61PとかでSATAでFake RAID
使っている人いませんかね?
人気ないのかな?
63:62
07/02/03 21:35:50 BVcNdfG1
過疎ってますので自作板に移動します。
64:login:Penguin
07/02/06 15:02:39 t9fdHqTH
ソフトウェアRAID1でランダムリード性能は向上するものでしょうか?
わかるかたいましたらおしえてください
65:login:Penguin
07/02/06 15:20:14 5Kb3UM8n
実装によるし、アクセスパターンやタイミングにもよるようだ。
LinuxのソフトウェアRAIDではやや向上する事もあるが、全く効果がないときもある。
実際に動かして測定してみれ。
66:login:Penguin
07/02/06 21:45:49 +WLVKn/X
RAID5のアレイにもう一つディスクを足してRAID6に出来ないものですかね。
67:login:Penguin
07/02/08 18:02:09 FCZCQ0FS
>>59
Debian etch(kernel:2.6.18-3-amd64) で使ってる。
自分の場合は / で使うつもりはなかったから、OS インスコ してから
ドライバコンパイルして元々の 3w-9xxx.ko と入れ換え、
マウントしていまんとこ普通に使えてる。
そのままだとたしかに認識してくれなかったなぁ。
対応鳥じゃないとインスコ時の正常動作は無理かも
最近 Linux 使いはじめた人間なんで、詳しい対応策書けなくてゴメンヨ
とりあえず報告だけ
68:login:Penguin
07/02/10 16:50:10 ptuSH4++
リムバ+Software RAIDでホットスワップするときって、hdparmでHDDを
スピンダウンさせてからリムバの電源を切る方が安全だよね?
69:login:Penguin
07/02/21 20:45:48 HkfANAOw
RAID5からRAID6へのアップグレード(?)ができればいいのになぁ。
70:login:Penguin
07/02/23 20:26:40 ArHTYZC9
RAIDって速度の違うドライブを使えば、速度の遅い方に足引っ張られるという認識で正しいですか?
71:login:Penguin
07/02/23 22:09:23 obdKOU01
スーパーマリオブラザーズ
URLリンク(www.youtube.com)
72:login:Penguin
07/02/24 03:31:20 jErYcOQJ
>>70
正
73:login:Penguin
07/02/24 15:09:12 MbL5jte/
RAID6ならRAID5+スペアディスクのほうが良いだろ。
74:login:Penguin
07/02/24 17:45:18 ZgJOy0Gl
二重障害に対応できない。
75:login:Penguin
07/02/24 18:22:06 MbL5jte/
RAID6のひとって、スペアディスクつけてるの?
76:login:Penguin
07/02/25 12:51:24 EPXHhgqo
付けないなら4-Way RAID1やるよ
77:login:Penguin
07/02/26 02:05:00 W3wudzvE
>RAID6のひとって、スペアディスクつけてるの?
遠隔地サーバーならともかく、自宅鯖の場合壊れたら
即交換できるからRaid6はいるけどスペアはいらない
と思っている、12WaySoftRaid6の俺
78:login:Penguin
07/02/26 10:00:23 dEzBE57o
RAID5 と RAID1 を比べて、スループットと
シンプルさ、何かへんなことが起きたときの
サルベージの可能性という点から考えての
「RAID1のほうが優れている」という主張には
同意できるんだけど、「RAID6よりRAID1の方が
優れているという主張っておかしくない?
たとえば URLリンク(www.13hz.jp) とか
RAID1だとスペアに切り替わるときにはエラー無く
当該ディスク(の片割れ)からすべてのデータが
読み出せるということが前提となっているわけで、
二重障害ということを考えていないんじゃないだろうか。
ディスクが二台壊れるという場合を考えると、
その壊れ方によってはRAID1では復旧できない。
79:login:Penguin
07/02/26 12:57:37 mtS8QI8m
>「RAID X のほうが優れている」
そもそも単一の基準で全てをカバーできるなら
こんなにいろいろな種類は存在してないよ
だからそういう主張自体無意味だし反論も無駄
80:login:Penguin
07/02/26 13:17:37 C16dA1y2
> ディスクが二台壊れるという場合を考えると、
> その壊れ方によってはRAID1では復旧できない。
二台とも完全に逝った場合はどうしようもないが、
セクタエラー程度なら、二台のデータを相互補完することで完全復旧する事も可能。
アレイの台数が増えれば、どれかが壊れる確率もそれだけ上がるし、
最小構成の2台でデータの保持ができ、
定期的なエラーセクタスキャンでほとんど回避できるとすれば
わざわざRAID6に突貫して自滅する必要も無いだろう。
RAID6で処理が複雑になる分、バグ等の問題が無いのかと考えると現時点では微妙な気もするし。
81:login:Penguin
07/02/26 23:28:29 VI1vlLsi
だよな。
俺たちのレベルだと、raid1+定期バックアップってのがいちばんよさそうだな。
読み書きの速度も落ちないしな。
RAIDコントローラの故障も考えると、ソフトウエアRAIDのほうがいいかもしれん。
最近のBIOSのRAID+dmraidでも、チップセット変わったら読み込めないよな?
82:login:Penguin
07/02/27 00:35:02 3idNzfzC
うむ、多少遅くても md が一番安心。
同じ(もしくは互換性のある)コントローラ積んだ
RAIDカードがいつでも入手可能であるとは限らないし。
83:login:Penguin
07/02/27 04:27:20 hjhB7IjX
自分はRAID6(スペアなし) + 定期Backupですね
ネット越しにしか使用しないので読み書き速度は遅くても全然平気
むしろ、データの保全性のほうが重要なんで、ハードRAIDは
今までの経験で壊れる頃には同じ仕様のハードを手に入れるのが
困難になっているので、使わない
>二台とも完全に逝った場合はどうしようもないが、
>セクタエラー程度なら、二台のデータを相互補完することで完全復旧する事も可能。
疑問なんですが、二台のデータのうちどっちの保持してるデータが正しいってどうやって分かるんでしょう?
Raid5,6ならパリティで分かるけど・・
84:login:Penguin
07/02/27 09:44:41 3idNzfzC
>>83
読み出せたら正しい、正しくないものは読み出せない、
ということでそれ以上はあきらめるしかないだろうなぁ。
ハードディスクのセクタを記録するときにつけられている
であろう Error Detection Code (CRCとか?) を
すりぬけて正しくないものがたまたま読み出せてしまう
ということも実際にはあるだろうと思うので、それはあきらめる。
ファイルごとに Tripwire みたくハッシュを取って置いて、
つじつまが合うように正しいと思われるほうを選択する
という手もあるだろうけど、現実的じゃない気がする。
85:login:Penguin
07/02/27 10:33:59 mCUslleJ
>80
理屈はその通りだし、高級機ではそうしてくれるのかもしれない。
が... 現実はこういうヌケ作実装の多いこと:
一カ所セクタエラーが見つかると "障害あり" status に移って
もう片方から全コピーをしようとする。
このときコピー元側の別の部分にエラーがあると... お亡くなり...
86:login:Penguin
07/02/27 14:31:53 3idNzfzC
>>85
そうなんだよな・・・
再び先ほどはエラーがあったディスクのほうからの
読み出しを試みて・・・って言う具合にはしてくれない
実装も多いんだよね。
まぁ dd で交互に手動でがんばる、ということも
原理的には可能なんだろうけどね。って、
そういうツールを書けという話もあるが。
87:login:Penguin
07/02/27 16:39:51 QhBLHNeL
だからパーティション分割して細かいmdをいくつか作り、LVMで束ねる
88:login:Penguin
07/02/27 19:17:56 hjhB7IjX
mdの上にLVM・・ストレージのコントロール層を増やすごとにバグとかで
ボリューム結合できなくなる可能性が増えるきがする・・・・
昔LVM構成してたpvのヘッダが壊れて全体が読み出せなくなった悪夢が・・
(手動でヘッダを偽造してむりやり結合したけど)
89:login:Penguin
07/02/27 19:52:19 c7Z/JEvk
3w 9650のpci-exp版動かしてる人柱なネ申はいらっさいますか?
90:login:Penguin
07/02/27 21:29:22 iRfrQvRF
うーん、250GB*8のRAID5でext2で1パーティション切ったのは大失敗だなあ。
UPS保護してない時に電子レンジ+ドライヤー+炊飯器攻撃でぷつん。fsckでごりごりやり始めて早、2日間・・・。
1.6TB総なめするのにどんだけかかるんだか見当もつかん。俺アホだorz
無事回復してくれたら、一回データ総待避してext3にするなりLVMで管理するなりしよう・・・。
初心者でTB級のアレイ組む人、マジ気を付けろよー
91:login:Penguin
07/02/27 22:05:44 3idNzfzC
>>90
tune2fs -j じゃだめなん?
ext2→ext3なら特に退避せずに安全に移行できると思うんだが。
俺なんか間違ってる?
92:login:Penguin
07/02/27 23:38:23 vJg7XKnj
>>90 人柱乙! すげー参考になりました。いやまじで。
ほかのファイルシステムにしたらどーなんのかやってみたいw
93:login:Penguin
07/02/28 01:06:12 OKX6DIDl
おれは ext3 で、RAID5(7+スペア)で、 3.5TB以上だけど、
マウント回数と前回のfsckからの時間をみて、
たまに boot 時に fsck でディスク総なめのチェックがかかるよね。
まぁ、しかたねーべ。タイミングはパラメータいじって調整はできるが、とくにしてない。
でも、おれは数時間で終わるけど?
ハードウェアRAIDは読み出しは速いってことか。
94:login:Penguin
07/02/28 01:33:35 KXOqHZSX
ext2でfsckが二日以上かかるなんて話初めて聞いた。
最近はext2自体使わなくなったからなぁ
>>90
ext2→ext3にする場合でも、fsckが必要な状態ではfsckが先だろう。
95:login:Penguin
07/02/28 01:35:24 A1/xdUFc
うちのは250GB*6のRAID5。
ひとつのmd0として作成していて、そのうえにext3を作ってます。
メインメモリが448MBなんですが、たまにboot時に実行されるfsckで
メモリ不足と表示されて途中でmd0へのfsckしくじります。
fstabからmd0外して再起動させて、きちんとCentOSが起動完了して
からでないとfsckが完了しません。
多分、swap有効にする前にfsckが実行されているからかな〜と推測
していますが、あまり気にしていません。
今はmd0にLVM作ってlvol分ければよかったと後悔しています。
96:login:Penguin
07/02/28 13:02:00 IgJHr+00
tune2fs -c0 -i0
97:login:Penguin
07/02/28 13:15:09 A1/xdUFc
たしかに起動時のfsckチェックをなくしてやるってのも手ですけど
ちょっとそれも少し怖いような気が。
fsckがswap有効後に実行されれば別に問題ないと思うんですが。
とりあえず仕様ってことであきらめてます。
でもレスさんくす。
98:login:Penguin
07/02/28 13:44:42 1/vmpLar
まだおわんないなー、グラフ表示のオプション付けた時のグラフ表示、何故か100%になった後また0%になってたし、
もしかして何かバグにぶちあたってるのかなあ・・・・。いくらなんでも3日間近くかかるのは変だよね?
>>91
fsck終わったら試してみるです。thx。
>>93
H/Wだと確かドライバとコントローラ側で上手く騙して素通りさせるんじゃありませんでしたっけ?
fsckの層の更に奥で本当のチェックを走らせてるようなイメージで・・・・。
>>95
参考までにお聞きしたいんですが、fsck完了までどれぐらいかかりましたか?
99:login:Penguin
07/02/28 14:04:29 A1/xdUFc
OS起動時のfsckだと、4時間後ぐらいに50%ほど終わってから
「メモリのアロケートができねーよ」
っていう英文吹いてメンテナンスモードになってしまいました。
X上でfsck手動でやった場合は1時間ほどで終わりましたよ。
私のスペックさらしておきます。
P3-500MHz
448MB
P2B-F
Sil3112&Sil3114に250GB*6でmd0(RAID5)作って直接ext3。
100:login:Penguin
07/03/01 18:46:38 08JSMW9W
100もらた
101:login:Penguin
07/03/01 19:42:30 mUhR0CCU
フリーズしたから再起動してみたら
RAIDボリュームはパリティを初期化しています・・・って出たけど何だこれ?
処理すっげえ遅くなるし・・・
なんとかなんない?
102:login:Penguin
07/03/01 19:58:56 NQR7midD
どんな表示か分からないけど
そういう時はじっとおとなしく処理が終わるまで待つが吉
103:login:Penguin
07/03/01 20:07:48 mUhR0CCU
>>102
サンクス
何か右下にHDみたいなアイコンが出てきて青く点滅してる感じなのよ
しかし、おとなしく処理待ちか・・・
下手すりゃ4時間くらい待たなきゃならんのかorz
104:login:Penguin
07/03/01 22:52:23 nupw/141
正常にシャットダウンせんかったら整合性保障できないもんな
105:login:Penguin
07/03/02 00:36:51 eW4eFg7f
fsckがメモリリークとかしてると痛いかも。
fsckって途中で止めてしまっても、
残り=開始前の状態-止めるまでに直した部分
ってなってくれるのかな?それとも
残り=開始前の状態より酷い状態
になってしまうのだろうか?
前者なら思い切ってリセットボタンという手も・・・
106:sage
07/03/02 20:06:18 cqGe228H
どなたかファイバーチャネルでデイジーチェーンした方はいませんか?
107:login:Penguin
07/03/02 21:06:07 gjkd0HI/
一度使ってみたいんだけどなぁ
まともに買うとボード1枚15万とかするので手が出せない。
メリットもわかりにくいしなぁ
108:login:Penguin
07/03/03 12:35:21 70VeM9gA
>>82
デュアルコアになって、CPU(ソフトウエア)でRAIDしたほうが、
じつはパフォーマンス良いんじゃないのか?
とか思う。エロい人教えて。
109:login:Penguin
07/03/03 14:12:15 EzVf6r0L
>>108
デュアルコアでもデュアルプロセッサだろうとメモリとのやりとりをするバスは
RAIDシステムとそれ以外(その他のOSサービス)で共有することになるわけで、
その点でのデメリットは大きいと思う。
110:login:Penguin
07/03/03 21:05:07 70VeM9gA
>>109
だよな。
「やっぱハードウエアRAIDでしょ」と思っていた自分が子供でしたよ。
今はどう考えてもソフトウエアRAIDがいいな。
もちろん、大規模になるとべつだけどね。
111:login:Penguin
07/03/05 00:21:46 KKn14MUG
>>59
centosでインストールできたぞ
対応するドライバを使っていないからHDDを認識できていないと思われる
返信くれれば作業の詳細を書く
俺の場合はCentOS4.4になるが、他も多分大して変わらんだろう
112:login:Penguin
07/03/05 09:01:53 FNbXW+R/
>>109 と >>110 の会話が
かみ合っていない気がする件について。
113:login:Penguin
07/03/05 19:46:05 Bo3y/qbe
中華、思い切り、かみ合って無い、に千俵。
114:login:Penguin
07/03/28 03:48:38 QgViIyaO
ソフトウェアRAID1作ってみた。
ハードウェアRAIDに慣れすぎていると遅くて重い感じがした。
RAIDからブートしようとするとめんどくさかった。メリットは安いだけかも・・・・
で、調べてわからなかったのでちょっと聞きたいんだが、
ソフトウェアRAIDって、ベリファイ(一貫性チェックともいう)未実装?
fsでmount中のパーティションをddで読み出してverifyするわけにはいかんよな・・・・
115:login:Penguin
07/03/28 22:32:56 zDe69L2m
>>114
> ソフトウェアRAIDって、ベリファイ(一貫性チェックともいう)未実装?
お前が作った RAID のことはお前にしかわからないと思うぞ。
116:login:Penguin
07/03/28 23:02:12 9F05PYRT
そういう意味ではないと思われ
117:login:Penguin
07/03/29 19:17:50 2wW+hfh/
>>114
HDD1とHDD2でRAID1ミラーリングしてたとして、
HDD1とHDD2から同じブロックのデータを読み込んだときに、
読み込んだ値が同じかどうかのチェックをしてるかどうかってこと?
してるとは思うけど、もし違った場合どうするんだろうね?
同じ値が得られるまで何回も読み込んでみて、
同じ値が得られないままタイムアウトエラーになったら、
そのままIOエラーとして返すとかかな?
その場合、HDD1とHDD2のどっちの値が正しいのかどうやって知るんだろうね?
HDDからエラーが返ってくれば分かるけど、
必ずしもエラーが返ってくるとは限らなさそう。
誰か詳しい人教えて〜。
しかし、ZFSはFSでチェックサム持ってるから強いね。
118:login:Penguin
07/03/29 23:14:05 ykGgWiUN
>>116
じゃあどういう意味が説明してくれ。
>>117
HDD は、セクタ単位でデータが正しいかチェックする仕組みを持ってるから
どっちのデータが正しいかはわかる。
(何らかの不具合で) 両方の HDD から正常に読み出せたデータが不一致だっ
た時の処理は作った人に聞くしかない。
119:login:Penguin
07/04/05 23:40:05 nDPSs4fG
ソフトウエアRAIDのraid1で、3台のミラーってできますか?
120:login:Penguin
07/04/06 05:16:34 KpdA9UKj
ソフト次第です。
121:login:Penguin
07/04/06 21:25:17 g0fQ3ChS
>>120
そりゃそうでしょうね。
122:login:Penguin
07/04/08 10:00:54 86gp4iQZ
はやくダブルパリティ版RAID-Zをつかいたいー
ところで玄蔵x4とかのeSATAを分岐させる箱はLinuxで使えてるの?
123:login:Penguin
07/04/16 20:46:11 /KluuheB
HDD4台でSoftware RAID10
Software RAID1を2つ作ってlvm2でまとめる(疑似RAID10?)
ってCentOSのインストールでやろうとしてもできないよね?
mdadm使わないとできないよね?
124:login:Penguin
07/04/16 20:47:21 0mxiBl50
どうしてハードウェアRAIDにしないの?
宗教的な理由?
125:login:Penguin
07/04/16 21:05:40 /KluuheB
カード買う金ねーもん。。
126:login:Penguin
07/04/16 21:11:36 LpIK41OU
ハードウェアRAID買って、カードが壊れたらどーすんのよ。
予備でもう一枚買っとく?
127:login:Penguin
07/04/16 22:10:47 pbo5v1pa
二重化する。
128:login:Penguin
07/04/18 18:34:31 3M95DZbq
ソフトが壊れる可能性を考えないのが不思議。
129:login:Penguin
07/04/18 23:12:53 hmudUlPg
カードが壊れる可能性と、ソフトが壊れるwwww可能性ってどっちが高いよ?
釣られた?俺?
130:login:Penguin
07/04/19 01:35:19 SWHw1ugZ
>>129
ソフト的(論理的)に壊れることも結構ある。
RAIDカードのドライバが案外いい加減なんだよね。
ホントの高級機はさわったこと無いので分からないけど。
131:login:Penguin
07/04/19 01:57:37 1Q3DqUtt
メモリ逝かれてるんちゃう(藁)
132:login:Penguin
07/04/19 04:25:49 lhKQmjpD
ソフト的に壊れないものだと思っているの?
結局はちゃんとした試験をしたものの信頼性が高いが、
LinuxのソフトRAIDがどれほどの試験を受けているんだ?
ちゃんと試験をパスしたハードウェアRAIDの方がまし。
ドライバがタコだと意味ないが、大抵クリティカルな用途では
ハードウェアRAIDが使われているからそういう用途のRAIDカードは
ドライバもよくできてる。
133:login:Penguin
07/04/19 04:42:48 1Q3DqUtt
それは壊れるんじゃなくて、はじめからバグがあるってことだろ。
意味が全然違うじゃん。
134:login:Penguin
07/04/19 06:44:01 QdpW4zuB
>>132
うん十万もする RAID カードのファーム不良でデータ飛ばした奴もいるけどな。(w
品質はハード/ソフトの違いよりかけられる金に比例するよ。
135:login:Penguin
07/04/19 23:20:50 xAH8B/OD
コネクタ・ケーブルの接触不良の類 > デバイスコントローラーの安定性 > ハード・ソフトの違い
ハードRAIDの心配する奴に限って、電源容量不足だったり、拡張スロット全部埋まってたり、
トラブルの原因になるような物を抱えてたりするからな。
「RAIDなんて危なくて仕方ないじゃないですか」は名言
136:login:Penguin
07/04/21 03:03:27 CyliSnvd
> 2.6.16.40(2月10日)
> ・md/raid1:raid1でrepairが動いていなかったのを動くようにする
どこでエンバグしたのか、そもそも入っていなかったのか・・・・
137:login:Penguin
07/04/21 23:05:20 tkUNTSZw
皆様質問です!
Linux でハードウェア RAID1 は何年も管理してるんだけど、
このたび初めて mdadm で RAID1 を構築しようと思ってます。
で、同じハードディスクを 2 台用意してミラーリング、
パーティションは、例えば / と /home に分けるとしたら、
あらかじめパーティションを切っておいて、
/dev/sda1 + /dev/sdb1 = /dev/md0
/dev/sda2 + /dev/sdb2 = /dev/md1
とするのが一般的?
それとも、ドライブ丸ごとミラーリングの設定にして、
その上でパーティションを切って、
/dev/md/d0p1
/dev/md/d0p2
とするのが一般的?
一般的というか、「普通はこうだな」とか、
「こっちはこうだけど、こっちはこうだぜ」みたいな意見があったら、
ぜひ教えてください!
138:login:Penguin
07/04/21 23:23:31 1Bn4OOj9
へ〜Linuxのmdって
/dev/md/d0p1
/dev/md/d0p2
こんなんができるんだな。
俺的には、LVMを併用するのがお勧めだけど、
LVMを使わない、かつ最初からディスクを全部使わないのであれば、
/dev/sda1 + /dev/sdb1 = /dev/md0
/dev/sda2 + /dev/sdb2 = /dev/md1
とする方がいいんでない?
139:137
07/04/22 22:40:29 +3FVnusb
>>138
thanks!
まだまだいろいろ試してます。
柔軟すぎて困りますねw
140:login:Penguin
07/05/08 06:43:34 v39MavRU
mdadm使ってSATA2.5のハードディスクでソフトウェアraid1したんでうすが、hdparamで測定すると
単体でもraid1でも読み込み速度が59MB/secくらいです。
こんなもんでしょうか?
raid1って書き込み速度が単体と同じで読み込みが倍速近いと思ってたんですが…
141:login:Penguin
07/05/08 07:38:59 AozcXxGK
単体とRAID1とでは読み込み/書き込みともに差がない。
ただ、ソフトウェアRAID1だと、若干書き込みが遅くなる傾向にはある(sync書き込みの場合)。
142:login:Penguin
07/05/08 09:46:36 Yye/G8Wq
初のソフトウェアRAID完了しました。
既存システムをRAID1で組んだのだけど想像以上に面倒だった。
ところで、swap領域って同期させたほうがいいの?
swap まで Linux raid autodetect にしてしまったけど、
そのままでよかったのかな・・・。
143:login:Penguin
07/05/09 00:38:51 SZLDgyq7
私のはファイル保管用の所だけraidにしてるけど、システム自体はraidにしてない。
吹き飛んだら再インストールすればいいやって。
システム部をraid化したんなら、swapもraidにするべきだす。
144:login:Penguin
07/05/09 04:58:51 xXQdi+I9
ソフトウェアRAID1では無理かも知れんけど、
ハードウェアRAID1では読み込み高速化されるものがあるよ
>>140 のケースだと、ソフトウェアRAIDだってことと、2.5インチだってことが足を引っ張ってる気がするな。
HDDが大きくなれば速くなるってわけではないけど、回転数による影響とか意外と大きい
145:login:Penguin
07/05/11 12:22:43 ghbhAoqH
ソフトウェアの RAID0 だとそれなりにちゃんと速くなるんだから、RAID1 でも読み込みくらいは速くなってほしいよなぁ。
146:login:Penguin
07/05/11 13:22:15 QfcwKvji
raid10?
147:login:Penguin
07/05/11 16:22:41 RIJa5Yv3
>145
性能に気をつけている実装なら当然速くなるよ
148:login:Penguin
07/05/12 05:52:15 ZsVZjbK0
>>147
md サブシステムは・・・ってことか・・・
149:login:Penguin
07/05/16 20:20:42 Wofqb0v9
md(4)のRAID1の項に
The driver attempts to distribute read requests across all devices to maximise performance.
ってちゃんと書いてあるけどな
150:login:Penguin
07/05/18 21:32:04 QMx07kDX
書いてあるけど、そのとおりになってない。
設定項目とかも見当たらないしなぁ。
151:login:Penguin
07/05/19 02:48:30 bPpyS5/5
>設定項目
おまえあほだな
152:login:Penguin
07/05/19 12:22:57 hG3gQkhb
>>151
何かあるかなー、と思って md と mdadm の manpage、/proc 以下なんかを探してみたけど、
特に設定できるようなものは見つけることができなかったから、そう書いただけ。
あほで結構。
153:login:Penguin
07/05/22 12:29:38 RMtpi8D3
コマンドラインからraidのドライバを調べることってできませんか
centosなんですが
154:login:Penguin
07/05/22 14:47:53 ULbOvhBc
ソフトウェアraidなら
mdadm --version か
mdadm -v でできない?
155:login:Penguin
07/05/22 16:42:47 IzkVC+2e
>>153
/sbin/modinfo raid0
/sbin/modinfo raid1
/sbin/modinfo raid10
/sbin/modinfo raid456
とか
156:login:Penguin
07/05/24 02:56:20 EhbBIrN2
>>155
どうもそれっぽい
ありがと
157:login:Penguin
07/05/28 18:35:42 JVkG/VZ5
新しいディスクをmdadmでRAID1に追加してsyncさせようとしたら、
途中で不良セクタが検出されてfailedされてしまった。
不良セクタが1つでも存在すると構成ディスクとしては使用不能なん?
故障箇所だけ避けたりできるとちょっと嬉しいんだが。
158:login:Penguin
07/05/28 18:44:05 fIlzNq6x
おまいはいったいなんのためにRAID1をつかっているのだ?
159:login:Penguin
07/05/28 19:17:26 AcK8PEIn
>>157
Googleの発表した統計によると
不良箇所が一箇所でもあるとHDDの残り寿命はあとわずか
160:login:Penguin
07/05/28 19:20:50 SCVXxM1y
>>157
なんみょうほうれんげきょう
161:157
07/05/28 20:18:58 JVkG/VZ5
>>158-160
特定の箇所だけでなく、ディスク全体がもうすぐだめぽなのね。了解。
新しいの買って来るか。
162:login:Penguin
07/05/30 02:13:05 kBP+D+YZ
そんなことない
もう一度物理フォーマットをしてだな
163:login:Penguin
07/05/30 02:40:36 +V1y8uwn
e2fsck -c ってどうなんだろう。
少しは延命になるのかな?
ま、焼け石に水ってところだろうけど・・・
164:login:Penguin
07/05/30 10:10:41 DeuYvm7G
>>162
IDEのディスクならOSにエラーがあがってくる時点で
代替セクタ使いきってるよ。
165:login:Penguin
07/05/31 00:34:56 ws8wZind
だから
もう一度物理フォーマットをしてだな
166:login:Penguin
07/05/31 01:23:54 eGl1+68x
>>164
自動交代処理は必ずうまくいくわけではない。
読み出し時の交代処理は、
何度かリトライして読めたら予防的に交代処理を行う、
というものだが、即死している場合はエラーを上げるほかない。
>>165
最近のATAのHDDは物理フォーマットは出来ない。
メーカーのフォーマットツールもゼロクリアしてるだけだ。
ゼロクリアすると不良セクターが交代処理されて見えなくなる。
ゼロクリアした後、またすぐにエラーが出たらもうダメ。
何度ゼロクリアしてもまたエラーが増殖し、いずれHDD全体が死ぬ。
もしゼロクリアする事で幸運にもエラーが出なくなったら、
それは単発的なエラーで、そのまま使っても大丈夫って事。
脳も物理フォーマット出来たらいいのに
167:login:Penguin
07/06/02 00:00:51 nlfNJz/5
>>166
> 最近のATAのHDDは物理フォーマットは出来ない。
> メーカーのフォーマットツールもゼロクリアしてるだけだ。
> 脳も物理フォーマット出来たらいいのに
自分の脳みそゼロクリア頑張れ
168:login:Penguin
07/06/02 20:48:22 UPbjiBU5
URLリンク(www.amazon.co.jp)
中身の薄そうな本だ
169:login:Penguin
07/06/04 14:00:21 E2VeCvlM
今6台でRAID5組んでるんですが
Version : 00.90.03
Creation Time : Mon May 21 01:17:19 2007
Raid Level : raid5
Array Size : 1562842880 (1490.44 GiB 1600.35 GB)
Device Size : 312568576 (298.09 GiB 320.07 GB)
Raid Devices : 6
Total Devices : 6
Preferred Minor : 3
Persistence : Superblock is persistent
Update Time : Mon Jun 4 07:40:31 2007
State : clean
Active Devices : 6
Working Devices : 6
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : 1894a7af:0fa76ca5:a7012d86:b60e930f (local to host parple)
Events : 0.207858
Number Major Minor RaidDevice State
0 56 1 0 active sync /dev/hdi1
1 57 1 1 active sync /dev/hdk1
2 8 4 2 active sync /dev/sda4
3 8 20 3 active sync /dev/sdb4
4 34 1 4 active sync /dev/hdg1
5 33 1 5 active sync /dev/hde1
>Preferred Minor : 3
これはどういう意味なんでしょうか?3という数字に思いあたりが無い。
170:login:Penguin
07/06/04 14:12:40 7VwOIeVK
>>169
そのArrayは、md3ではありませんか?
ぐぐってみたら、こんなのが出てたので・・・
URLリンク(lists.debian.or.jp)
171:login:Penguin
07/06/04 14:54:42 E2VeCvlM
>>170
当たりです。Mmd2は2、md3は3になってました。
どうもありがと〜
172:login:Penguin
07/07/14 16:31:06 O5DZ0PBR
# なんか書き込みミスったのでもう一回
いまさらかもしれんけど、RAID5のディスク追加reshape成功したので報告
ディスク5台+スペア1台 → ディスク6台
debian etch
カーネルは linux-image-2.6.18-4-i686.deb そのまま
mdadmを2.5.9→2.6.2に入替
173:login:Penguin
07/07/15 21:19:32 CQUpisoj
mdadmでRAID5を構築していたPCが故障した場合、別なPC新たに買って
Linux入れて故障PCからHDD持ってきて復旧させることは出来ますか?
man見た感じだと特にコンフィグファイルに設定保存していないようなので-Aオプションで
復活出来そうな気がするんですが。
174:login:Penguin
07/07/15 22:52:02 G3EMIJfO
>>173
できる。というかこの前やったよ。
Persistent Superblockがあれば、構成ディスクの一つから
# mdadm --examine --brief /dev/sda1
とかやってUUIDを取り出して、mdadm.confに
ARRAY /dev/md0 level=raid5 num-devices=7 UUID=3f760edf:(以下略
というエントリを作り、
# mdadm -A /dev/md0 -s
で再編成できるはず。(-sは必要だったかどうか忘れた)
なお、Persistent Superblockはcreateモードでアレイを作ったら自動でできてるので問題ない
175:login:Penguin
07/07/15 22:53:26 G3EMIJfO
あ、levelとかnum-devicesとかUUIDは環境依存なんで適当に読み替えて
176:login:Penguin
07/07/16 17:17:02 gV6PB3Na
>>174
ありがとうございます。
NAS箱買おうと思ったらけっこう値段が高くてしかも安いやつは組み込みLINUX
で動いているようなので、それならDELLの激安サーバにRAID組もうかと思っているところでした
177:login:Penguin
07/07/16 18:19:08 93uGqOVD
激安サーバは品質も激安だから気をつけれ。用途とか稼働状況によるけど。
178:名無しさん@そうだ選挙に行こう
07/07/29 00:41:14 gZaay99H
すみません、ちょっと確認させて下さい。
現在以下の構成でRAID試行中です。
sda -> システム領域(/boot,/var,...)
sdb,sdc -> データ領域(softwareRAID1,/dev/md0)
仮にsdaが故障しHDDを交換後にOSを再インストールした場合
再インストール後に /dev/md0 をマウントしてやれば復旧可能との認識でOKでしょうか。
次ページ最新レス表示スレッドの検索類似スレ一覧話題のニュースおまかせリスト▼オプションを表示暇つぶし2ch
4315日前に更新/300 KB
担当:undef