1 名前:login:Penguin mailto:sage [2008/04/15(火) 21:49:14 ID:Ve/x9iF4] Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/ スレ 3 pc11.2ch.net/test/read.cgi/linux/1168487758/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.co.jp/product/raid/os_support_list.html Linux EVMS 一般 ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html ttp://evms.sourceforge.net/ ... あと続けてくらさい。
448 名前:login:Penguin mailto:sage [2008/12/29(月) 14:12:36 ID:sawoMW0p] >>447 このスレ(過去スレ含む)見てると、 HW-RAIDはRAIDコントローラのハード的故障の可能性があるが、 SW-RAIDにはそれがないので、信頼性はむしろ高い、てな話が何度か出てたと思うけど、 現実にはコントローラの信頼性に依存するという点では両者変わらない、ということか。 つか、OS共倒れになる危険性や、多ポートを利用するために複数のコントローラを 用意しなければならないことを考えると、SATA/PATAに関してはSW-RAIDの方が ハードウェア的なリスクが高い、というパラドックスすら。 ま、HDD 2台でのRAID 1程度ならばM/Bオンボードのコントローラだけで賄えると思うが。
449 名前:login:Penguin mailto:sage [2008/12/29(月) 14:13:19 ID:sawoMW0p] すると、Level 4 以上のSW-RAIDを使うならSCSI使えってことになるんだろうけど、 こうなるとコストの点でのメリットは皆無になるんだよな。 SATAの「まともな」HW-RAIDを選んで買った方がトータルでは安上がりだろう。 (そも、SATAは「まとも」なのか、というのは置いといて) 結局SW-RAIDのメリットって、本当に「構成の柔軟性」だけってことになっちゃうのか? (信頼性を犠牲にすれば超安上がり可能、というコストパフォーマンス面での柔軟性も含めて)
450 名前:login:Penguin mailto:sage [2008/12/29(月) 21:18:25 ID:W2yC0jiU] >>448-449 >現実にはコントローラの信頼性に依存するという点では両者変わらない、ということか。 そんなに単純な話じゃないよ 種類の違うリスクだから、足し算引き算みたいな単純な比較には何の意味もないし、 故障の可能性っていう一面だけを見るのもどうかと。 故障の可能性も重要だが、運用コストや復旧の容易さなど 考えないといけないことは沢山ある。 例えばmdでのRAIDなんかは操作にroot権限が必要だけど、HW-RAIDなら 極端な話HDD抜いて入れればOKだから一般オペレータでも対処可能で 実運用での分業をしやすい、とか。 そういう対処の迅速化もサービス停止のリスク回避、つまり信頼性に寄与しうる。
451 名前:login:Penguin mailto:sage [2008/12/29(月) 22:38:14 ID:UoG3grAC] 一般オペレーターって具体的にどんな感じかよくわからんが、 「一般」な人たちにマシンのハードディスクを抜いたりさしたりしてほしくないのだが・・・
452 名前:login:Penguin mailto:sage [2008/12/30(火) 02:18:12 ID:XDcWQoWA] >>450 > 故障の可能性っていう一面だけを見るのもどうかと。 一面だけを見てるのではなく、それがSW-RAIDのメリットだと言われてたことが 実際にはそうでもないよな、という点を書いただけだが? > そういう対処の迅速化もサービス停止のリスク回避、つまり信頼性に寄与しうる。 そういう「運用上の利便性」がHW-RAIDのメリットだというのは 既にさんざん書かれてるんで、誰でも知ってる。 豊富な知識を開陳したいならば、 むしろ、SW-RAIDのメリットは他にないの? というところに答えて欲しいものだ。
453 名前:login:Penguin mailto:sage [2008/12/30(火) 04:28:56 ID:bFaePHo0] まーroot持ってる奴は少ない方が安全だろう 少なすぎるのもトラックナンバー的にアレだが >>452 そーいう態度は周りが話しづらくなるからおまいさんの得にもならんよ なんか嫌なことでもあったの?
454 名前:login:Penguin mailto:sage [2008/12/30(火) 08:59:43 ID:1n4+uaKz] ストライピングは速くなるとは限らないのやつ、まだいたのかよ
455 名前:login:Penguin mailto:sage [2008/12/31(水) 02:54:03 ID:dG9Ns93a] ん、実際に速くなるとは限らないけど?
456 名前:login:Penguin mailto:sage [2008/12/31(水) 13:46:49 ID:wmBwgOvB] またバカがわいてきたか。 大掃除も終わって暇だからソースを出せと煽ってみる。どうせ出せないだろうけど。
457 名前:login:Penguin mailto:sage [2008/12/31(水) 13:57:16 ID:dG9Ns93a] ほれ。 ttp://www.runser.jp/doc/sata-raid-stripe-1.html RAID0のストライプ単位よりアクセス単位が大きい場合、 複数のヘッドがシークする必要があるけど、 その場合シークタイムが最悪値に合わせられるのが原因。 特にストライプ単位より小さいランダムアクセスで問題になる。
458 名前:login:Penguin mailto:sage [2008/12/31(水) 14:13:29 ID:dG9Ns93a] 間違えた。 特にストライプ単位より小さい→特にストライプ幅より小さい あと、俺は454の言ってる奴とは多分別人。残念。
459 名前:login:Penguin mailto:sage [2008/12/31(水) 15:05:32 ID:wmBwgOvB] CPUの性能を比較するのに浮動小数点演算にフォーカスするのと変わらんね。 速くなる場合もある、遅くなる場合もある、なんて一個一個つまんでも無意味。 実際使う場合に全体のパフォーマンスがどうなるかが重要でしょ。 せめてOSの起動時間とかアプリ使用時の速度とか大容量ファイルの入出力とかデータベースのアクセス時間とかで計測しないと。 おれはシステム作ってるがデータベースに関しては完全にスピードアップで議論の余地ないね。 データ容量に対してメモリ容量が少ないときほど効果的。当たり前だけど。
460 名前:login:Penguin mailto:sage [2008/12/31(水) 15:45:02 ID:dG9Ns93a] ソース出されて涙目 必死に論点すげ変えようとしても無駄だよ
461 名前:login:Penguin mailto:sage [2008/12/31(水) 16:08:42 ID:VoiH1vp1] 最近無意味に偉そうな人多いよね
462 名前:login:Penguin mailto:sage [2008/12/31(水) 16:22:17 ID:NaughPYZ] >>457 ストライプサイズは大きすぎても小さすぎても駄目という、 当たり前の事が示されたに過ぎないと思うんだが、 リンク先の内容はそれ以上の何か意味があるの? RAID-0がランダムアクセスに弱いのは常識でしょ? 極端な例を出せば1byteのデータ書き込みはRAID-0でも絶対に速くならない。
463 名前:login:Penguin mailto:sage [2008/12/31(水) 16:36:19 ID:wmBwgOvB] >>460 おまえのシステム構成に関する考え方が根本的にずれてるだけ。 来年はもっとがんばれよ。 じゃあ今年おつかれ。
464 名前:login:Penguin mailto:sage [2008/12/31(水) 22:17:20 ID:zy8sz8rj] 上のほうで話題になってる SW-RAIDで、ディスク不調になるとシステムごと固まるのって結構痛いよね RAID専用のLinuxマシン立ち上げてsmbmountかNFS使うしかないのか?
465 名前:429 mailto:sage [2009/01/01(木) 15:37:19 ID:bpOiYOEo] openSUSE 11.1を試したら、GRUB以外はインストールは出来たのですが、 GRUBのみインストールが出来ません。MBRにもPBRにもインストール 出来ません。 1TB*2 のRAID0です。 フロッピーからsuper grub diskを使っても読み込めませんでした。 /boot以外のファイルは、Ext2Fsdで見てもちゃんとあります。 現在のMBRのブートローダーはMBMです。 出来れば、二段階ブートにしたいのですが、 どうすればいいでしょうか。
466 名前:login:Penguin mailto:sage [2009/01/03(土) 23:22:51 ID:t9OrvzZp] あけおめ >>462 > RAID-0がランダムアクセスに弱いのは常識でしょ? うん、だから>>455 なわけで。 >>463 元の流れにない勝手な俺仮定を持ち出してよく言うw
467 名前:login:Penguin mailto:sage [2009/01/04(日) 09:47:01 ID:jNugnejt] ミラーリングの場合、ライト時は二つのディスクに書き込んでいるのはわかるけど、 リード時は、どうなんだろう。 やはり、二つのディスクから読み出しているのかな。あるいは、どっちか片方からなのかな。
468 名前:login:Penguin mailto:sage [2009/01/04(日) 14:46:39 ID:U5nW6Zhm] >>467 たしか両方から半分ずつ読み出すようなアルゴリズムになってた気がする だからWriteは単体時と同じか遅いけど、Readは単体時よりも早いはず
469 名前:login:Penguin mailto:sage [2009/01/04(日) 14:48:08 ID:U5nW6Zhm] 拡張されてる場合は↑みたい wikipediaより 本来RAID 1の読み出しは、一つのドライブのみにアクセスし、もう片方は、完全なバックアップドライブである。これを双方から読み出すようアルゴリズムを拡張することで、理論上、単体ディスクの2倍の速度で読み出しを行える。
470 名前:login:Penguin mailto:sage [2009/01/04(日) 23:55:36 ID:jNugnejt] >>468 >>469 オンボードのbios_raidじゃあ、いくら最新のgigabyteマザーでも[拡張]ではなさそうだなあ。 でももし「拡張」だったら、ミラーリングでも、raid0の分散高速読み出しの恩恵を受けられるのか。 なんか、読み出しだけだけど得した気分だな。
471 名前:login:Penguin mailto:sage [2009/01/05(月) 00:56:01 ID:tYf1sft+] >>467 結論から言うと実装次第。並列読みも可能だし、片方からの場合もある。 mdのmanによると、速くなりそうなときだけ並列読み。 Windowsのミラーリングだと高負荷時のみ並列だったか。 他はそれぞれの説明書読んだり問い合わせすべし。 >>468 また来たか
472 名前:login:Penguin mailto:sage [2009/01/05(月) 01:29:27 ID:HmcpyJ9r] >>471 ああそうか、mdデバイスに拠るんだね 勘違いしていました。ハードウェアに「拡張」実装されているんじゃないんだ ソフトウェアレイドの方が、拡張などがあって、融通が利きそうだと思った
473 名前:login:Penguin mailto:sage [2009/01/05(月) 01:48:25 ID:tYf1sft+] >>470 並列読みだしできるRAID1として、シーケンシャルアクセスだと トラックシーク+回転待ち時間 < データ読みだし時間 じゃないと恩恵は無い。 ランダムアクセスとかシーク多発な並列シーケンシャルアクセスなら効果有り
474 名前:login:Penguin mailto:sage [2009/01/05(月) 03:09:42 ID:HmcpyJ9r] 片方のディスクでトラックシーク+回転待ち時間を待ったとして、 それでもデータ読み出し時間で得があれば、並列読み出しraid1がなされるわけか なるほど。 確かに、連続した収まり方をしたデータの読み出しの場合は片方のディスクを作動させるのは余計に時間がかかるなあ >ランダムアクセスとかシーク多発な並列シーケンシャルアクセスなら効果有り しかし、そういう時間を計算して並列読み出しをするか決めるmdシステムはすごいと思う。 納得できました。 しかし、そういう時間の損得を計算して、並列読み出しを決定するmdデバイスってすごい!
475 名前:login:Penguin mailto:sage [2009/01/05(月) 11:22:48 ID:HmcpyJ9r] cat /proc/mdstat に何も表示されない場合、 それは、fedora10が、オンボードbios_raidミラーリングをハードウェアraidとして認識しているからでしょうか。 bios上ではraidアレイはfunctionalになっていたし、 インストーラーでも、確かにraid構成を見ることができていました。 dfでは次のように表示されます /dev/mapper/VolGroup00-LogVol00 476871688 55799360 396848584 13% / /dev/sda1 194442 21960 162443 12% /boot tmpfs 896296 1152 895144 1% /dev/shm
476 名前:login:Penguin mailto:sage [2009/01/05(月) 11:35:50 ID:DlvIpe94] >>475 多分なってないよ。それ。dmesg貼ってみれ
477 名前:login:Penguin mailto:sage [2009/01/05(月) 15:46:14 ID:DdhiA30p] >>475 、それ、BIOSでRAIDサポートしてて、有効にしてるんなら、mdでなく、dmraidが動いてないけ? # dmraid -s # dmraid -n # dmraid -r とか叩くとなんかでないか?
478 名前:login:Penguin mailto:sage [2009/01/05(月) 16:19:36 ID:HmcpyJ9r] >>476 関係ありそうな部分だけ貼ってみます その1 <略> ahci 0000:00:11.0: version 3.0 ahci 0000:00:11.0: PCI INT A -> GSI 22 (level, low) -> IRQ 22 ahci 0000:00:11.0: AHCI 0001.0100 32 slots 6 ports 3 Gbps 0x3f impl RAID mode ahci 0000:00:11.0: flags: 64bit ncq sntf ilck pm led clo pmp pio slum part <略> ata1: softreset failed (device not ready) ata1: failed due to HW bug, retry pmp=0 ata1: SATA link up 1.5 Gbps (SStatus 113 SControl 300) ata1.00: ATA-8: ST3500320AS, SD15, max UDMA/133 ata1.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32) ata1.00: configured for UDMA/133 ata2: softreset failed (device not ready) ata2: failed due to HW bug, retry pmp=0 ata2: SATA link up 1.5 Gbps (SStatus 113 SControl 300) ata2.00: ATA-8: ST3500320AS, SD15, max UDMA/133 ata2.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32) ata2.00: configured for UDMA/133
479 名前:login:Penguin mailto:sage [2009/01/05(月) 16:21:12 ID:HmcpyJ9r] その2 scsi 0:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5 sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB) sd 0:0:0:0: [sda] Write Protect is off sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00 sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB) sd 0:0:0:0: [sda] Write Protect is off sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00 sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sda: sda1 sda2 sd 0:0:0:0: [sda] Attached SCSI disk sd 0:0:0:0: Attached scsi generic sg0 type 0 scsi 1:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5 sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB) sd 1:0:0:0: [sdb] Write Protect is off sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00 sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB) sd 1:0:0:0: [sdb] Write Protect is off sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00 sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sdb: sdb1 sdb2 sd 1:0:0:0: [sdb] Attached SCSI disk sd 1:0:0:0: Attached scsi generic sg1 type 0
480 名前:login:Penguin mailto:sage [2009/01/05(月) 16:21:42 ID:HmcpyJ9r] その3 <略> device-mapper: multipath: version 1.0.5 loaded EXT3 FS on dm-0, internal journal kjournald starting. Commit interval 5 seconds EXT3 FS on sda1, internal journal EXT3-fs: mounted filesystem with ordered data mode. Adding 3604472k swap on /dev/mapper/VolGroup00-LogVol01. Priority:-1 extents:1 across:360 4472k
481 名前:login:Penguin mailto:sage [2009/01/05(月) 16:24:04 ID:HmcpyJ9r] >>477 それらしきものが、出ました # dmraid -r /dev/sdb: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0 /dev/sda: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0 # dmraid -s *** Set name : pdc_cbabhifjd size : 976642048 stride : 128 type : mirror status : ok subsets: 0 devs : 2 spares : 0
482 名前:login:Penguin mailto:sage [2009/01/09(金) 13:18:07 ID:+j59FScV] このスレの人たちって、自作板のRAIDカードスレのように自分でインスコ、設定とかやったことあるの? あっちはLinuxユーザが少なくて情報得るのに苦労してるわ・・
483 名前:login:Penguin mailto:sage [2009/01/09(金) 13:22:01 ID:R08Zc+c9] Linuxユーザーは「本物の」RAIDカードしか使わないからじゃないの?
484 名前:login:Penguin mailto:sage [2009/01/09(金) 19:09:59 ID:/ZwuDsYt] 俺が使ってる3wareなら今じゃドライバは標準で入ってるし、 ユーティリティ類も普通にインストーラで入るし。 kernel2.4のときはドライバはtar玉から入れてたけど それも特に苦労をした記憶はないな。 少なくとも俺は。 書いてある通りにやれば普通に入った。 まともなメーカーのを使えば、どれでもそんなもんじゃないの? ソフトウェアRAIDだって、 ちょっと検索すりゃ親切丁寧な解説サイトは いくらでもあるし。 一体何をそんなに苦労してるんだか知らんけど。
485 名前:login:Penguin mailto:sage [2009/01/09(金) 20:26:31 ID:+j59FScV] >>483 本物ってハードウェアRAIDのこと?あのスレの連中はそっちのほうが多いけど。 自分の印象では、ジサカーと違ってLinuxユーザはハードに大金をかけない人が多い気がする。 RAIDもmdraidのミラー程度でささやかにやってるイメージ。 あ、馬鹿にしてるわけじゃないぞw >>484 標準的な鳥を使う分にはほとんど問題ないけど、変にメーカーがカスタムしたやつだとトラブるときがある。 メーカーに聞いても「そんなの知らん」で終わりなんで、自力でやるしかない。
486 名前:login:Penguin mailto:sage [2009/01/09(金) 22:25:36 ID:+wvRjhFl] Windows特有なのが、RAID0で起動を高速化って文化じゃないかな? それがあるから、フェイクRAIDが大人気。 Linuxだとmdドライバに比べてフェイクRAIDが有利な要素が少ないから 結果的に(本物の)ハードウェアRAIDとmdに二分されるんだと思う。 Windowsにmdドライバやmdadmが移植されれば フェイクRAIDよりmdのほうが柔軟で、人気が出たりするかもよ? つかフェイクRAIDクラッシュの質問がOKWaveとかに多いのよね<Win 「M/BのBIOS updateで読めなくなった」とか、もう何と言っていいのやら orz
487 名前:login:Penguin mailto:sage [2009/01/09(金) 23:52:35 ID:Al1IJSIe] mdと、dmってどう違うの? 意図して文字列を逆にしているみたいに思える。
488 名前:login:Penguin mailto:sage [2009/01/10(土) 01:48:52 ID:loOCjssc] >>487 md: LinuxのソフトウエアRAIDドライバ dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ >>485 本物のRAIDカードというのは、RAIDカード単体で本体のCPUの補助なしでRAIDを行なえるカードのこと。 例えばXORアクセラレータが付いてるだけのRAIDカードは本物のRAIDカードじゃない。 具体的にはIntel IOPが載っててバッテリーバックアップユニットが付けられるRAIDカードは本物のはず。 個人的には非標準的なドライバをあまり信用できないのでmd派。本物高いし。
489 名前:486 mailto:sage [2009/01/10(土) 13:36:09 ID:odJ/+a4Y] >>486 俺も自作初めたばかりの無知な頃にフェイクRAIDで痛い目みたわw nforce2のraidだったかなぁ・・・raid0速い!って喜んでたわ >>488 大学の研究室である程度まとまった金でRAID組まされることあんだよね。 研究室の共用サーバにインストールするんだが、何度か面倒な目にあった。 もう全部業者任せにしようかと思うわ・・・ 自分でやるならやっぱmdだな
490 名前:login:Penguin mailto:sage [2009/01/10(土) 14:22:42 ID:8L5rYSxp] >>486 WindowsにもSoftware RAIDはついてるのに、なぜか活用されてないね。 なんちゃってRAIDなんかよりそっち使えばいいのに・・・
491 名前:login:Penguin mailto:sage [2009/01/10(土) 15:34:13 ID:sulqjtr0] ここで言われてる「本物」でお奨めになものってどんなのがあります?
492 名前:login:Penguin mailto:sage [2009/01/10(土) 16:15:58 ID:o9R1cT+y] ETERNUS
493 名前:login:Penguin mailto:sage [2009/01/10(土) 17:02:57 ID:3dK3csV8] >>486 >>490 md4ramって移植版のドライバがある。 ライトバックキャッシュを利かせて使いたいが開発が滞っているみたい。 壊れてもいいデータしか置かないけど2chブラウザのログ置きに最適。
494 名前:login:Penguin mailto:sage [2009/01/12(月) 01:59:14 ID:/Son47ik] >>488 >md: LinuxのソフトウエアRAIDドライバ >dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ じゃあ、biosraidがdmraidで動作しているからといって、ハードウェア処理されているわけでなく、 結局は、linuxのmdドライバでraidの処理がなされているわけなんだ。 biosraidにプロミスってあったから、これはオンボードでハード処理されて、 linuxには一個のディスクとして見せているんだと勘違いしていました。
495 名前:login:Penguin mailto:sage [2009/01/12(月) 04:47:57 ID:nRZhkl6m] Promiseという時点でそもそも
496 名前:login:Penguin mailto:sage [2009/01/12(月) 13:44:42 ID:/Son47ik] オンボードの、promiseと刻印されたあのチップは何?
497 名前:login:Penguin mailto:sage [2009/01/12(月) 17:33:13 ID:odrqpoZ2] FakeRAIDは、専用のインタフェースチップ使うよ。 itpro.nikkeibp.co.jp/article/Keyword/20070824/280335/
498 名前:login:Penguin mailto:sage [2009/01/12(月) 17:50:42 ID:gg7V03n9] >>496 www.promise.com/ IDE,SATAのインターフェイスを作っている会社。 他にもストレージ関係をやってるのかな? ハードウエアRAIDの会社のイメージは無いな。
499 名前:login:Penguin mailto:sage [2009/01/12(月) 22:04:06 ID:/Son47ik] promiseといえば、raidのイメージが付きまとうのは、 昔、大きなraidのpciカードの黄色い外箱に、promiseと書いてあったからだ。
500 名前: ◆Zsh/ladOX. mailto:sage [2009/01/12(月) 22:57:48 ID:HR1zAo8l] sx4000使ってたけど。 悪いイメージは無い。 数年前にPC内の画像を晒した記憶あり。
501 名前:login:Penguin mailto:sage [2009/01/13(火) 21:30:47 ID:UzNBMlny] 今、debian etchのamd64でHDD2台を使って ソフトウェアRAIDでミラーリングしています。 技術力の不足から、amd64をあきらめてi386バージョンを インストールしてやり直そうと考えているんですけど この場合、RAIDを解除して1台目のディスクにi386をインストールした後に 2台目のディスクからデータをコピーして、改めてミラーリングの設定にする ということは可能ですか?
502 名前:login:Penguin mailto:sage [2009/01/13(火) 22:15:55 ID:UQqV5nIq] degradedになっても良ければ
503 名前:login:Penguin mailto:sage [2009/01/13(火) 22:26:17 ID:UzNBMlny] >>502 degradedってのを調べて見ました。 それって、一時的ってことですか? それとも、i386で改めて新しくRAID1を構成しても 後遺症的なものが残るという意味ですか?
504 名前:login:Penguin mailto:sage [2009/01/13(火) 22:37:13 ID:JlH/mAiu] 解除もクソもi386インスロースした時点でRAIDの情報消えてるんじゃないの?
505 名前:login:Penguin mailto:sage [2009/01/13(火) 22:40:26 ID:UzNBMlny] >>504 インストールするのは、1台目のHDDだから 2台目のドライブは、ケーブル抜いてしまえばいいんじゃないかと考えてたんですが。 インストール後に、ケーブル繋いでマウント・・・ってのは無理なんですか?
506 名前:login:Penguin mailto:sage [2009/01/13(火) 22:47:11 ID:JlH/mAiu] あーデーターの移行の方法ね。 普通にマウントしてコピーしてから、mirrorの設定して2台目上書きすればいいと思うよ。
507 名前:login:Penguin mailto:sage [2009/01/13(火) 22:50:34 ID:UzNBMlny] >>506 ありがとう。細かな手順調べて、実行してみます。
508 名前:login:Penguin mailto:sage [2009/01/14(水) 14:35:19 ID:0aFf9qq6] >>488 >>497 ためになりました。ありがとう。
509 名前:login:Penguin mailto:sage [2009/01/15(木) 01:12:00 ID:9+zR18Pi] >>494 dmraidは、つまり、mdのラッパーオブジェクトのようなものだと考えればいいかな。 ただし、>>497 で引用されているように、 dmraidは、biosで管理されているraidの設定情報を使用しているわけか。 だから、ataドライバの読み込みの時点で、代わりにdmraidが使用されて、 そのraid構成が有効化されるのだね。 すなわち、dmraidでは、通常の非アレイディスクのように認識させることも可能なんだ。 この考え方で、 合ってますでしょうか。
510 名前:login:Penguin mailto:sage [2009/01/15(木) 14:26:29 ID:knA7Hlz9] BUFFALOのeSATA外付けHDD(RAID1)をLinuxにつないで使っています。 HDDに不具合が生じた場合、それを確認する方法(ツール・アプリ)はないのでしょうか?
511 名前:login:Penguin mailto:sage [2009/01/15(木) 14:34:19 ID:Rfu3LZdb] BUFFALOに聞けよw
512 名前:login:Penguin mailto:sage [2009/01/16(金) 02:11:08 ID:32Awgl8B] fakeRAID(BIOSraid)で、ミラーリングアレイを構築、そしてFedora7で使用しています。 障害発生時に備えて、試しに、ハードディスクを一つを外してみました。 BIOSraid画面でエラー表示が出た後、そのままlinuxブートローダーが起動しました。 device-mapperの処理で、failure, no such deviceを表示、そして、no volumeになりました。 ついに、Kernel Panicで停止しました。 レイドアレイが正常ではないのでそれはそうだろうと思い、 BIOS画面にて、そのRAIDモードを解除し、通常のIDEモードに切り替えました。 単体のハードディスクで起動を試みようというわけです。 ブートローダーが動き、カーネルの読み込みが始まります。 しかし、先ほどと同じような具合で、device-mapper関係のエラーで、kernel panicで停止しました。 これは意外でした。 自動的に、単体のハードディスクのための処理へと切り替えてくれないようです。 つまり、もしもhddが片方故障した場合には、必ず再び同じraid構成を機能させておくということになると思います。 しかし、あえてここで、device-mapperの使用を解除して、通常の起動に切り替えるというようなことはできないのでしょうか。 教えてください。
513 名前:475 mailto:sage [2009/01/16(金) 03:08:08 ID:32Awgl8B] 475です。 連投ですみません。別件の問があります。 >>475 のdfコマンドの結果は、fedora10でのfakeraidのミラーリング構成でのものです。(同じものを下に引用しました) ----------------------------------------------------------------------------- <Fedora10での結果> /dev/mapper/VolGroup00-LogVol00 476871688 55799360 396848584 13% / /dev/sda1 194442 21960 162443 12% /boot tmpfs 896296 1152 895144 1% /dev/shm ----------------------------------------------------------------------------- ところが、fedora7での同様の構成(マザーは異なっている)にて、dfコマンドをすると、 下記のようになります。 これらをみると、Fedora7では/bootなど特殊なディレクトリは、/dev/mapper/pdc_dacjp1で管理されていることがわかり、 そしてfedora10では/bootが/dev/sda1にて直接管理されているようです。 fedora10にて、教えていただいたように「dmraidコマンド」でraidの構成の具合を確認したところ、>>481 のように正常のようです。 このFedora7と10でのraid1における、/bootに対する表示の差は何を意味しているのですか。 Fedora10になって、dmraidがより高度化して、/dev/sdaでraid1をラッピングしているわけなのでしょうか? ---------------------------------------------------------------------------------------- <Fedora7での結果> Filesystem 1K-ブロック 使用 使用可 使用% マウント位置 /dev/mapper/VolGroup00-LogVol00 148297964 29496048 111147312 21% / /dev/mapper/pdc_dacjp1 101086 19396 76471 21% /boot tmpfs 2032296 0 2032296 0% /dev/shm
514 名前:login:Penguin mailto:sage [2009/01/16(金) 03:13:14 ID:rwDT7nUQ] LVMの問題ではなくて?
515 名前:login:Penguin mailto:sage [2009/01/18(日) 13:33:02 ID:mOdWiiXB] mdadm使いにくいよー raidtoolsのほうがバタ臭いけどいい mdadmで一番むかつくのが良くわからないタイミングで ディスクがspareにされて、元に戻したいのに戻せない。イライラ
516 名前:login:Penguin mailto:sage [2009/01/18(日) 22:48:12 ID:06Dcpdo5] raid6がお亡くなりになった。 HDDというよりSATAカードが死亡したっぽい。 (玄人志向とPromiseのSATAカードの2枚挿しで8つHDDをくっつけてる。 今回は玄人志向がお亡くなりになった。) 再起動してカードは復活したみたいなので (配下のHDDが/devに戻ってきた&badblocksが通った) HDDをArrayに追加しようとしたが 配下のHDDが全部faulty removedに落ちちゃってて mdadm -Aでもcannot get array info for /dev/md0と表示されエラー。 このスレの64氏の現象に近い気がするが、 superblock書き換えなどは出来る自信ないので mdadm -Cで再度Array構築しなおした。 ここんとこバックアップをサボってたから結構痛いわー。 つーかもうSATAカードとかあまり使わないで済むように ちゃんとしたファイルサーバ組んだ方がいいな。
517 名前:login:Penguin mailto:sage [2009/01/19(月) 00:09:08 ID:L7Ubbq6r] カードまたいでRAID5/6組んでたら、カード死亡には対応できんよなぁ。 カード単位でお亡くなりになるケースは結構ありがちだし対策したいところ。 カードを1枚にしてそこに全部ぶら下げればカードが死んでも 全部見えなくなるだけでsuperblock更新されないから、516は防げるかも。 同じ考え方で、台数が必要な場合はSATAカード2枚準備して、 SATAカードをまたいでmdのRAID1を組んでそれを繋げるとか、 同じカードのSATAポート群とかカードのRAID機能でRAID5/6を 作ってそれをmdで繋げるとか。
518 名前:login:Penguin mailto:sage [2009/01/19(月) 06:19:37 ID:CHw0KQY0] >お亡くなりになる やめてください、そういう表現。 葬式の臭いがしてくる。
519 名前:login:Penguin mailto:sage [2009/01/19(月) 10:43:16 ID:L7Ubbq6r] は?
520 名前:login:Penguin mailto:sage [2009/01/19(月) 17:06:36 ID:426uxyHi] カード死んだら葬式みたいなもんだろ…
521 名前:login:Penguin mailto:sage [2009/01/19(月) 17:30:39 ID:/o7gcRDM] データさえ生きてりゃ今夜が山状態だろ。
522 名前:login:Penguin mailto:sage [2009/01/19(月) 17:38:24 ID:hR5pv9yI] >>515 次に使うまでに 一度「バタ臭い」の意味を調べた方がいいと思う。
523 名前:login:Penguin mailto:sage [2009/01/19(月) 19:31:23 ID:AVvVP96W] ○バタくさ・い【―臭い】 (形) 〔バタはバターの意〕西洋風な感じがする。また、西洋かぶれしている。 「―・い表現」「―・い顔立ち」 ◎きなくさ・い 4 【きな臭い】 (3)なんとなく怪しい。うさんくさい。 「どことなく―・い話」 三省堂提供「大辞林 第二版」より
524 名前:login:Penguin mailto:sage [2009/01/19(月) 20:42:12 ID:8LWc0G4T] 西洋人は信用するなって事ですね。
525 名前:ライナス [2009/01/19(月) 21:21:54 ID:CHw0KQY0] もともこもない
526 名前:login:Penguin mailto:sage [2009/01/20(火) 11:04:32 ID:QUoqwrOB] いままで、raid1で十分だと思っていた。 でも、もし、片方が壊れて、もう片方に不良セクタ君があったら、データは損傷してしまう。 そこで、raid5の出番である。 ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。 でも、raid5は、ディスク2台が同時期に壊れてしまったら、もはやすべて終わりである。 で、そこで、raid6の出番。今は、6(二方式の内、パリティーを分散する方式の方)が一般化しているんだね。 ストライプという概念は同じであるけど、パリティーを強化して、ディスクが2台壊れても平気なようにしてあるんだね。 ディスクが安価な今は、冗長な構成でも苦しくないね。 カードが壊れたという人が↑の方にあったけど、カードってそんなに壊れやすいの? カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。 それから、そもそも先に不良セクタをマークしておいたら、raid1でもいいんじゃないかな。
527 名前:login:Penguin mailto:sage [2009/01/20(火) 11:39:38 ID:tmOakhLn] 復旧可能かどうかはカードの壊れ方次第では。 壊れた結果ムチャクチャなデータを デタラメに書き込まれたら どう頑張っても復旧でけんだろう。 カードが壊れやすいかどうかは これまたカード & 運次第かと。 俺は一度も壊れた経験ないけど。
528 名前:login:Penguin mailto:sage [2009/01/20(火) 11:45:10 ID:gBT8fCPT] >>526 日頃の行いが悪いからHDDが壊れる。
529 名前:login:Penguin mailto:sage [2009/01/20(火) 13:11:48 ID:jayBGkBw] >>526 なんつーか理解してないな > ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。 RAID5でもRAID1でも、単体ではdegradedでの不良セクタに対処できない点は同じ > カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。 それが>>517 > それから、そもそも先に不良セクタをマークしておいたら、 経時の不良セクタ発生に対処できない まぁカードが壊れることはそれほど多くない。 業務で大量に管理していれば結構見るけれど、個人でやる分には当たる確率は低い。
530 名前:login:Penguin mailto:sage [2009/01/20(火) 18:33:36 ID:n7Hnf9Lk] 516だが再構築の際エラーが出て停止 その後色々試したがなんかカードのBIOSから一部のHDDがみえたりみえなかったり ついにはbadblocksも通らないHDDが出始めた もしかしたら今回の犯人はカードじゃなくHDDがカードを巻き込んで落ちたのかも と思っていた時 海門のニュースを知った 6台が該当です。 本当にありがとうございました。
531 名前:login:Penguin mailto:sage [2009/01/20(火) 18:46:34 ID:AAZq+mqB] RAIDを組むハードディスクは、製品や製造ロットを同じものにしないほうがいい、というのは本当だったか。 530に同情するよ。サーバーが落ちても気は落とすな。
532 名前:login:Penguin mailto:sage [2009/01/20(火) 20:46:45 ID:3icForSX] >>531 基本中の基本 RAID1ペア組むときはメーカーから変える
533 名前:login:Penguin mailto:sage [2009/01/20(火) 21:20:12 ID:QUoqwrOB] >海門 =sea gate ファームウェアの不具合の件ですよね 困るよなあ、といいつつ、私も、そのメーカーのディスクでした。 ハードディスク買うなら、”海門”と決めていたんです。なんか、壊れにくいイメージがあるから。 壊れたことがない。かちゃん、かちゃん、かちゃん、なんて絶望的な音をさせたことがないということです。
534 名前:login:Penguin mailto:sage [2009/01/21(水) 11:28:11 ID:KNJKiqg2] 以前は同じモデルでも容量がちょっと違っていて、 交換したら容量不足で使えないという悲しいことが ちょくちょくあったが、 最近は違うメーカーでも問題が起きなくなったので ありがたい。
535 名前:login:Penguin mailto:sage [2009/01/21(水) 12:56:36 ID:1/Cy7HwZ] いつ消えるか分からないメーカーのサービスに期待して全領域使っちゃうのは馬鹿だろ 保証されてるのは例えば500GBなら500,000,000,000Bまで。
536 名前:login:Penguin mailto:sage [2009/01/21(水) 13:04:54 ID:xEzc7nEM] ぴったりの500GBのディスクが無ければ、 750GBのディスクを買えばいいのに。
537 名前:login:Penguin mailto:sage [2009/01/21(水) 14:35:01 ID:Lxj+eixA] 同じモデルって前提だろ バカか バカなのか
538 名前:login:Penguin mailto:sage [2009/01/21(水) 15:07:49 ID:+OFl4BAS] 個人でしょぼいRAID5環境を動かしていましたが ばっちりRAIDカードが壊れたことあります。 というか、フェイクRAIDしか無いカードをmdで使っているのに RAIDカードと言うのか?とは思います。 玄人志向の4ポートPCI SATAカードでした。 C7のSATA2ポートなM/BでRAID5をやるために使いましたが 一年弱で、4つのうち一つのポートが動作しなくなりました。 予備HDDはあったので、HDDを入れ替えても認識せず よくよく調べると、カードのほうが死んでいたというオチ。 急場をしのぐために、オンボードのSATAポートとの混在RAID5として そのまま2ヶ月程度、問題なく動きました。(その後SATAカードを交換) 今はPCIeの1430SAで、あえてmdドライバー。 ところで、Linuxでホットスワップで再認識する条件とか手順ってどうなるのでしょうか? とりあえず、普通に抜き差しするとダメっぽいのですが… チップやドライバーではなく、玄人志向のカードがホットスワップ非対応だったのかなぁ…
539 名前:login:Penguin mailto:sage [2009/01/21(水) 15:42:19 ID:C3awCYv6] 普通に抜き差しでok。sata_sil24のはずなので対応してる。 多分カーネルが古いのが原因。
540 名前:login:Penguin mailto:sage [2009/01/21(水) 15:47:09 ID:xqg3zZth] 外す前にこれでHDDの電源を落としておく方が安全 # echo 1 > /sys/block/sdX/device/delete
541 名前:login:Penguin mailto:sage [2009/01/21(水) 15:47:43 ID:NpsqSYmx] ロット揃えたほうがパフォーマンス良さそうなのでRaidアレイ組むときは毎回揃えてるけど、 豪快なロット不良見ると怖くなるな。
542 名前:538 mailto:sage [2009/01/22(木) 02:32:04 ID:9i3fv5RC] >>539 ,>>540 ありがとうございます。試してみたらできました。 というかオチがあります。 これ、取り外した時点でデバイスが消えないのは仕様なのでしょうか? たとえば、普通にfdisk -lには出てきます。 HDDを止めて再スピンアップさせることで初期化が行なわれて 現在接続されているHDDの情報に書き換わるという挙動のようです。 で、以前はHDDの停止と再スピンアップなどは行なわなかったために 差し替え直後のfdisk -lで、HDD情報が更新されていないことを理由に ホットプラグが正常になされていないと判断していました orz #/sys/block/sdX/device/下のファイルについては #どこ探せば情報が見つかるものでしょうか…
543 名前:login:Penguin mailto:sage [2009/01/22(木) 15:19:59 ID:CwsVQNf2] >>541 > ロット揃えたほうがパフォーマンス良さそうなので 意味が分からない
544 名前:login:Penguin mailto:sage [2009/01/22(木) 15:31:18 ID:7lkmeW2Z] 昔はRAID組むなら同一型番できればロットも揃えようっていう風潮だった。 型番同じでもファーム違うと微妙にキャッシュアルゴリズム変わってたりするし。 その場合ベンチの結果も微妙に変わる。 アクセス速度近い方が効率よさそうじゃん。 当然同じようにアクセスするディスクでロットまで同じだと壊れるのも一緒になるから ロットくらいはばらした方が良いって言う人もいたけど。
545 名前:login:Penguin mailto:sage [2009/01/22(木) 20:50:46 ID:u0UB26l/] ロットどころかメーカーからばらす。 まぁ結局はRAIDに何を求めるか、なわけだが、 あるのかかどうか分からないパフォーマンス向上を目当てに 同時故障リスクを採る選択は、俺はしないね
546 名前:login:Penguin mailto:sage [2009/01/22(木) 21:43:17 ID:xRfSeFjv] >>540 そんな/sysの下の物体の情報って、一体どこで見つけるの?ソース? 俺はいままで sdparm -C stop /dev/sda とかしてたよ。
547 名前:login:Penguin mailto:sage [2009/01/22(木) 21:57:04 ID:u0UB26l/] >>546 基本はソースだけど、その場合むしろsdparmの方がいいんでは? /sys直叩きだといちいちカーネルの仕様変更追っかけないといけなくなる
548 名前:login:Penguin mailto:sage [2009/01/23(金) 01:31:55 ID:iL0wYbEo] >>544 昔って何十年前の話?