[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 2chのread.cgiへ]
Update time : 03/27 04:33 / Filesize : 284 KB / Number-of Response : 945
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

RAID総合スレッド No.4



1 名前:login:Penguin mailto:sage [2008/04/15(火) 21:49:14 ID:Ve/x9iF4]
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 pc11.2ch.net/test/read.cgi/linux/1168487758/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.co.jp/product/raid/os_support_list.html

Linux EVMS 一般
ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html
ttp://evms.sourceforge.net/

... あと続けてくらさい。

463 名前:login:Penguin mailto:sage [2008/12/31(水) 16:36:19 ID:wmBwgOvB]
>>460
おまえのシステム構成に関する考え方が根本的にずれてるだけ。
来年はもっとがんばれよ。

じゃあ今年おつかれ。

464 名前:login:Penguin mailto:sage [2008/12/31(水) 22:17:20 ID:zy8sz8rj]
上のほうで話題になってる
SW-RAIDで、ディスク不調になるとシステムごと固まるのって結構痛いよね
RAID専用のLinuxマシン立ち上げてsmbmountかNFS使うしかないのか?

465 名前:429 mailto:sage [2009/01/01(木) 15:37:19 ID:bpOiYOEo]
openSUSE 11.1を試したら、GRUB以外はインストールは出来たのですが、
GRUBのみインストールが出来ません。MBRにもPBRにもインストール
出来ません。
1TB*2 のRAID0です。
フロッピーからsuper grub diskを使っても読み込めませんでした。
/boot以外のファイルは、Ext2Fsdで見てもちゃんとあります。
現在のMBRのブートローダーはMBMです。
出来れば、二段階ブートにしたいのですが、
どうすればいいでしょうか。

466 名前:login:Penguin mailto:sage [2009/01/03(土) 23:22:51 ID:t9OrvzZp]
あけおめ

>>462
> RAID-0がランダムアクセスに弱いのは常識でしょ?

うん、だから>>455なわけで。

>>463
元の流れにない勝手な俺仮定を持ち出してよく言うw

467 名前:login:Penguin mailto:sage [2009/01/04(日) 09:47:01 ID:jNugnejt]
ミラーリングの場合、ライト時は二つのディスクに書き込んでいるのはわかるけど、
リード時は、どうなんだろう。
やはり、二つのディスクから読み出しているのかな。あるいは、どっちか片方からなのかな。



468 名前:login:Penguin mailto:sage [2009/01/04(日) 14:46:39 ID:U5nW6Zhm]
>>467
たしか両方から半分ずつ読み出すようなアルゴリズムになってた気がする
だからWriteは単体時と同じか遅いけど、Readは単体時よりも早いはず

469 名前:login:Penguin mailto:sage [2009/01/04(日) 14:48:08 ID:U5nW6Zhm]
拡張されてる場合は↑みたい

wikipediaより
本来RAID 1の読み出しは、一つのドライブのみにアクセスし、もう片方は、完全なバックアップドライブである。これを双方から読み出すようアルゴリズムを拡張することで、理論上、単体ディスクの2倍の速度で読み出しを行える。

470 名前:login:Penguin mailto:sage [2009/01/04(日) 23:55:36 ID:jNugnejt]
>>468 >>469
オンボードのbios_raidじゃあ、いくら最新のgigabyteマザーでも[拡張]ではなさそうだなあ。
でももし「拡張」だったら、ミラーリングでも、raid0の分散高速読み出しの恩恵を受けられるのか。
なんか、読み出しだけだけど得した気分だな。



471 名前:login:Penguin mailto:sage [2009/01/05(月) 00:56:01 ID:tYf1sft+]
>>467
結論から言うと実装次第。並列読みも可能だし、片方からの場合もある。
mdのmanによると、速くなりそうなときだけ並列読み。
Windowsのミラーリングだと高負荷時のみ並列だったか。
他はそれぞれの説明書読んだり問い合わせすべし。

>>468
また来たか



472 名前:login:Penguin mailto:sage [2009/01/05(月) 01:29:27 ID:HmcpyJ9r]
>>471
ああそうか、mdデバイスに拠るんだね
勘違いしていました。ハードウェアに「拡張」実装されているんじゃないんだ
ソフトウェアレイドの方が、拡張などがあって、融通が利きそうだと思った



473 名前:login:Penguin mailto:sage [2009/01/05(月) 01:48:25 ID:tYf1sft+]
>>470
並列読みだしできるRAID1として、シーケンシャルアクセスだと
トラックシーク+回転待ち時間 < データ読みだし時間 じゃないと恩恵は無い。
ランダムアクセスとかシーク多発な並列シーケンシャルアクセスなら効果有り

474 名前:login:Penguin mailto:sage [2009/01/05(月) 03:09:42 ID:HmcpyJ9r]
片方のディスクでトラックシーク+回転待ち時間を待ったとして、
それでもデータ読み出し時間で得があれば、並列読み出しraid1がなされるわけか
なるほど。
確かに、連続した収まり方をしたデータの読み出しの場合は片方のディスクを作動させるのは余計に時間がかかるなあ

>ランダムアクセスとかシーク多発な並列シーケンシャルアクセスなら効果有り しかし、そういう時間を計算して並列読み出しをするか決めるmdシステムはすごいと思う。
納得できました。

しかし、そういう時間の損得を計算して、並列読み出しを決定するmdデバイスってすごい!




475 名前:login:Penguin mailto:sage [2009/01/05(月) 11:22:48 ID:HmcpyJ9r]
cat /proc/mdstat に何も表示されない場合、
それは、fedora10が、オンボードbios_raidミラーリングをハードウェアraidとして認識しているからでしょうか。
bios上ではraidアレイはfunctionalになっていたし、
インストーラーでも、確かにraid構成を見ることができていました。

dfでは次のように表示されます

/dev/mapper/VolGroup00-LogVol00
476871688 55799360 396848584 13% /
/dev/sda1 194442 21960 162443 12% /boot
tmpfs 896296 1152 895144 1% /dev/shm




476 名前:login:Penguin mailto:sage [2009/01/05(月) 11:35:50 ID:DlvIpe94]
>>475
多分なってないよ。それ。dmesg貼ってみれ

477 名前:login:Penguin mailto:sage [2009/01/05(月) 15:46:14 ID:DdhiA30p]
>>475、それ、BIOSでRAIDサポートしてて、有効にしてるんなら、mdでなく、dmraidが動いてないけ?
# dmraid -s
# dmraid -n
# dmraid -r
とか叩くとなんかでないか?

478 名前:login:Penguin mailto:sage [2009/01/05(月) 16:19:36 ID:HmcpyJ9r]
>>476
関係ありそうな部分だけ貼ってみます
その1
<略>
ahci 0000:00:11.0: version 3.0
ahci 0000:00:11.0: PCI INT A -> GSI 22 (level, low) -> IRQ 22
ahci 0000:00:11.0: AHCI 0001.0100 32 slots 6 ports 3 Gbps 0x3f impl RAID mode
ahci 0000:00:11.0: flags: 64bit ncq sntf ilck pm led clo pmp pio slum part
<略>
ata1: softreset failed (device not ready)
ata1: failed due to HW bug, retry pmp=0
ata1: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata1.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata1.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata1.00: configured for UDMA/133
ata2: softreset failed (device not ready)
ata2: failed due to HW bug, retry pmp=0
ata2: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata2.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata2.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata2.00: configured for UDMA/133



479 名前:login:Penguin mailto:sage [2009/01/05(月) 16:21:12 ID:HmcpyJ9r]
その2
scsi 0:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sda: sda1 sda2
sd 0:0:0:0: [sda] Attached SCSI disk
sd 0:0:0:0: Attached scsi generic sg0 type 0
scsi 1:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdb: sdb1 sdb2
sd 1:0:0:0: [sdb] Attached SCSI disk
sd 1:0:0:0: Attached scsi generic sg1 type 0





480 名前:login:Penguin mailto:sage [2009/01/05(月) 16:21:42 ID:HmcpyJ9r]
その3
<略>
device-mapper: multipath: version 1.0.5 loaded
EXT3 FS on dm-0, internal journal
kjournald starting. Commit interval 5 seconds
EXT3 FS on sda1, internal journal
EXT3-fs: mounted filesystem with ordered data mode.
Adding 3604472k swap on /dev/mapper/VolGroup00-LogVol01. Priority:-1 extents:1 across:360
4472k


481 名前:login:Penguin mailto:sage [2009/01/05(月) 16:24:04 ID:HmcpyJ9r]
>>477
それらしきものが、出ました
# dmraid -r
/dev/sdb: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0
/dev/sda: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0

# dmraid -s
*** Set
name : pdc_cbabhifjd
size : 976642048
stride : 128
type : mirror
status : ok
subsets: 0
devs : 2
spares : 0




482 名前:login:Penguin mailto:sage [2009/01/09(金) 13:18:07 ID:+j59FScV]
このスレの人たちって、自作板のRAIDカードスレのように自分でインスコ、設定とかやったことあるの?
あっちはLinuxユーザが少なくて情報得るのに苦労してるわ・・

483 名前:login:Penguin mailto:sage [2009/01/09(金) 13:22:01 ID:R08Zc+c9]
Linuxユーザーは「本物の」RAIDカードしか使わないからじゃないの?

484 名前:login:Penguin mailto:sage [2009/01/09(金) 19:09:59 ID:/ZwuDsYt]
俺が使ってる3wareなら今じゃドライバは標準で入ってるし、
ユーティリティ類も普通にインストーラで入るし。
kernel2.4のときはドライバはtar玉から入れてたけど
それも特に苦労をした記憶はないな。
少なくとも俺は。
書いてある通りにやれば普通に入った。
まともなメーカーのを使えば、どれでもそんなもんじゃないの?

ソフトウェアRAIDだって、
ちょっと検索すりゃ親切丁寧な解説サイトは
いくらでもあるし。

一体何をそんなに苦労してるんだか知らんけど。

485 名前:login:Penguin mailto:sage [2009/01/09(金) 20:26:31 ID:+j59FScV]
>>483
本物ってハードウェアRAIDのこと?あのスレの連中はそっちのほうが多いけど。
自分の印象では、ジサカーと違ってLinuxユーザはハードに大金をかけない人が多い気がする。
RAIDもmdraidのミラー程度でささやかにやってるイメージ。
あ、馬鹿にしてるわけじゃないぞw

>>484
標準的な鳥を使う分にはほとんど問題ないけど、変にメーカーがカスタムしたやつだとトラブるときがある。
メーカーに聞いても「そんなの知らん」で終わりなんで、自力でやるしかない。

486 名前:login:Penguin mailto:sage [2009/01/09(金) 22:25:36 ID:+wvRjhFl]
Windows特有なのが、RAID0で起動を高速化って文化じゃないかな?
それがあるから、フェイクRAIDが大人気。

Linuxだとmdドライバに比べてフェイクRAIDが有利な要素が少ないから
結果的に(本物の)ハードウェアRAIDとmdに二分されるんだと思う。
Windowsにmdドライバやmdadmが移植されれば
フェイクRAIDよりmdのほうが柔軟で、人気が出たりするかもよ?

つかフェイクRAIDクラッシュの質問がOKWaveとかに多いのよね<Win
「M/BのBIOS updateで読めなくなった」とか、もう何と言っていいのやら orz


487 名前:login:Penguin mailto:sage [2009/01/09(金) 23:52:35 ID:Al1IJSIe]
mdと、dmってどう違うの?
意図して文字列を逆にしているみたいに思える。

488 名前:login:Penguin mailto:sage [2009/01/10(土) 01:48:52 ID:loOCjssc]
>>487
md: LinuxのソフトウエアRAIDドライバ
dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ

>>485
本物のRAIDカードというのは、RAIDカード単体で本体のCPUの補助なしでRAIDを行なえるカードのこと。
例えばXORアクセラレータが付いてるだけのRAIDカードは本物のRAIDカードじゃない。
具体的にはIntel IOPが載っててバッテリーバックアップユニットが付けられるRAIDカードは本物のはず。

個人的には非標準的なドライバをあまり信用できないのでmd派。本物高いし。

489 名前:486 mailto:sage [2009/01/10(土) 13:36:09 ID:odJ/+a4Y]
>>486
俺も自作初めたばかりの無知な頃にフェイクRAIDで痛い目みたわw
nforce2のraidだったかなぁ・・・raid0速い!って喜んでたわ

>>488
大学の研究室である程度まとまった金でRAID組まされることあんだよね。
研究室の共用サーバにインストールするんだが、何度か面倒な目にあった。
もう全部業者任せにしようかと思うわ・・・

自分でやるならやっぱmdだな

490 名前:login:Penguin mailto:sage [2009/01/10(土) 14:22:42 ID:8L5rYSxp]
>>486
WindowsにもSoftware RAIDはついてるのに、なぜか活用されてないね。
なんちゃってRAIDなんかよりそっち使えばいいのに・・・

491 名前:login:Penguin mailto:sage [2009/01/10(土) 15:34:13 ID:sulqjtr0]
ここで言われてる「本物」でお奨めになものってどんなのがあります?



492 名前:login:Penguin mailto:sage [2009/01/10(土) 16:15:58 ID:o9R1cT+y]
ETERNUS

493 名前:login:Penguin mailto:sage [2009/01/10(土) 17:02:57 ID:3dK3csV8]
>>486>>490
md4ramって移植版のドライバがある。
ライトバックキャッシュを利かせて使いたいが開発が滞っているみたい。
壊れてもいいデータしか置かないけど2chブラウザのログ置きに最適。

494 名前:login:Penguin mailto:sage [2009/01/12(月) 01:59:14 ID:/Son47ik]
>>488
>md: LinuxのソフトウエアRAIDドライバ
>dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ

じゃあ、biosraidがdmraidで動作しているからといって、ハードウェア処理されているわけでなく、
結局は、linuxのmdドライバでraidの処理がなされているわけなんだ。

biosraidにプロミスってあったから、これはオンボードでハード処理されて、
linuxには一個のディスクとして見せているんだと勘違いしていました。



495 名前:login:Penguin mailto:sage [2009/01/12(月) 04:47:57 ID:nRZhkl6m]
Promiseという時点でそもそも

496 名前:login:Penguin mailto:sage [2009/01/12(月) 13:44:42 ID:/Son47ik]
オンボードの、promiseと刻印されたあのチップは何?



497 名前:login:Penguin mailto:sage [2009/01/12(月) 17:33:13 ID:odrqpoZ2]
FakeRAIDは、専用のインタフェースチップ使うよ。

itpro.nikkeibp.co.jp/article/Keyword/20070824/280335/


498 名前:login:Penguin mailto:sage [2009/01/12(月) 17:50:42 ID:gg7V03n9]
>>496
www.promise.com/
IDE,SATAのインターフェイスを作っている会社。
他にもストレージ関係をやってるのかな?

ハードウエアRAIDの会社のイメージは無いな。

499 名前:login:Penguin mailto:sage [2009/01/12(月) 22:04:06 ID:/Son47ik]
promiseといえば、raidのイメージが付きまとうのは、
昔、大きなraidのpciカードの黄色い外箱に、promiseと書いてあったからだ。



500 名前: ◆Zsh/ladOX. mailto:sage [2009/01/12(月) 22:57:48 ID:HR1zAo8l]
sx4000使ってたけど。
悪いイメージは無い。
数年前にPC内の画像を晒した記憶あり。

501 名前:login:Penguin mailto:sage [2009/01/13(火) 21:30:47 ID:UzNBMlny]
今、debian etchのamd64でHDD2台を使って
ソフトウェアRAIDでミラーリングしています。
技術力の不足から、amd64をあきらめてi386バージョンを
インストールしてやり直そうと考えているんですけど
この場合、RAIDを解除して1台目のディスクにi386をインストールした後に
2台目のディスクからデータをコピーして、改めてミラーリングの設定にする
ということは可能ですか?



502 名前:login:Penguin mailto:sage [2009/01/13(火) 22:15:55 ID:UQqV5nIq]
degradedになっても良ければ

503 名前:login:Penguin mailto:sage [2009/01/13(火) 22:26:17 ID:UzNBMlny]
>>502
degradedってのを調べて見ました。
それって、一時的ってことですか?
それとも、i386で改めて新しくRAID1を構成しても
後遺症的なものが残るという意味ですか?

504 名前:login:Penguin mailto:sage [2009/01/13(火) 22:37:13 ID:JlH/mAiu]
解除もクソもi386インスロースした時点でRAIDの情報消えてるんじゃないの?

505 名前:login:Penguin mailto:sage [2009/01/13(火) 22:40:26 ID:UzNBMlny]
>>504
インストールするのは、1台目のHDDだから
2台目のドライブは、ケーブル抜いてしまえばいいんじゃないかと考えてたんですが。
インストール後に、ケーブル繋いでマウント・・・ってのは無理なんですか?

506 名前:login:Penguin mailto:sage [2009/01/13(火) 22:47:11 ID:JlH/mAiu]
あーデーターの移行の方法ね。
普通にマウントしてコピーしてから、mirrorの設定して2台目上書きすればいいと思うよ。

507 名前:login:Penguin mailto:sage [2009/01/13(火) 22:50:34 ID:UzNBMlny]
>>506
ありがとう。細かな手順調べて、実行してみます。

508 名前:login:Penguin mailto:sage [2009/01/14(水) 14:35:19 ID:0aFf9qq6]
>>488
>>497
ためになりました。ありがとう。



509 名前:login:Penguin mailto:sage [2009/01/15(木) 01:12:00 ID:9+zR18Pi]
>>494

dmraidは、つまり、mdのラッパーオブジェクトのようなものだと考えればいいかな。
ただし、>>497 で引用されているように、
dmraidは、biosで管理されているraidの設定情報を使用しているわけか。
だから、ataドライバの読み込みの時点で、代わりにdmraidが使用されて、
そのraid構成が有効化されるのだね。
すなわち、dmraidでは、通常の非アレイディスクのように認識させることも可能なんだ。

この考え方で、
合ってますでしょうか。



510 名前:login:Penguin mailto:sage [2009/01/15(木) 14:26:29 ID:knA7Hlz9]
BUFFALOのeSATA外付けHDD(RAID1)をLinuxにつないで使っています。
HDDに不具合が生じた場合、それを確認する方法(ツール・アプリ)はないのでしょうか?

511 名前:login:Penguin mailto:sage [2009/01/15(木) 14:34:19 ID:Rfu3LZdb]
BUFFALOに聞けよw



512 名前:login:Penguin mailto:sage [2009/01/16(金) 02:11:08 ID:32Awgl8B]
fakeRAID(BIOSraid)で、ミラーリングアレイを構築、そしてFedora7で使用しています。
障害発生時に備えて、試しに、ハードディスクを一つを外してみました。
BIOSraid画面でエラー表示が出た後、そのままlinuxブートローダーが起動しました。

device-mapperの処理で、failure, no such deviceを表示、そして、no volumeになりました。
ついに、Kernel Panicで停止しました。
レイドアレイが正常ではないのでそれはそうだろうと思い、

BIOS画面にて、そのRAIDモードを解除し、通常のIDEモードに切り替えました。
単体のハードディスクで起動を試みようというわけです。
ブートローダーが動き、カーネルの読み込みが始まります。

しかし、先ほどと同じような具合で、device-mapper関係のエラーで、kernel panicで停止しました。
これは意外でした。

自動的に、単体のハードディスクのための処理へと切り替えてくれないようです。

つまり、もしもhddが片方故障した場合には、必ず再び同じraid構成を機能させておくということになると思います。
しかし、あえてここで、device-mapperの使用を解除して、通常の起動に切り替えるというようなことはできないのでしょうか。
教えてください。




513 名前:475 mailto:sage [2009/01/16(金) 03:08:08 ID:32Awgl8B]
475です。
連投ですみません。別件の問があります。

>>475 のdfコマンドの結果は、fedora10でのfakeraidのミラーリング構成でのものです。(同じものを下に引用しました)
-----------------------------------------------------------------------------
<Fedora10での結果>
/dev/mapper/VolGroup00-LogVol00
476871688 55799360 396848584 13% /
/dev/sda1 194442 21960 162443 12% /boot
tmpfs 896296 1152 895144 1% /dev/shm
-----------------------------------------------------------------------------

ところが、fedora7での同様の構成(マザーは異なっている)にて、dfコマンドをすると、
下記のようになります。


 これらをみると、Fedora7では/bootなど特殊なディレクトリは、/dev/mapper/pdc_dacjp1で管理されていることがわかり、
そしてfedora10では/bootが/dev/sda1にて直接管理されているようです。
fedora10にて、教えていただいたように「dmraidコマンド」でraidの構成の具合を確認したところ、>>481 のように正常のようです。

 このFedora7と10でのraid1における、/bootに対する表示の差は何を意味しているのですか。
Fedora10になって、dmraidがより高度化して、/dev/sdaでraid1をラッピングしているわけなのでしょうか?

----------------------------------------------------------------------------------------
<Fedora7での結果>
Filesystem 1K-ブロック 使用 使用可 使用% マウント位置
/dev/mapper/VolGroup00-LogVol00
148297964 29496048 111147312 21% /
/dev/mapper/pdc_dacjp1
101086 19396 76471 21% /boot
tmpfs 2032296 0 2032296 0% /dev/shm

514 名前:login:Penguin mailto:sage [2009/01/16(金) 03:13:14 ID:rwDT7nUQ]
LVMの問題ではなくて?

515 名前:login:Penguin mailto:sage [2009/01/18(日) 13:33:02 ID:mOdWiiXB]
mdadm使いにくいよー
raidtoolsのほうがバタ臭いけどいい

mdadmで一番むかつくのが良くわからないタイミングで
ディスクがspareにされて、元に戻したいのに戻せない。イライラ

516 名前:login:Penguin mailto:sage [2009/01/18(日) 22:48:12 ID:06Dcpdo5]
raid6がお亡くなりになった。
HDDというよりSATAカードが死亡したっぽい。
(玄人志向とPromiseのSATAカードの2枚挿しで8つHDDをくっつけてる。
今回は玄人志向がお亡くなりになった。)

再起動してカードは復活したみたいなので
(配下のHDDが/devに戻ってきた&badblocksが通った)
HDDをArrayに追加しようとしたが
配下のHDDが全部faulty removedに落ちちゃってて
mdadm -Aでもcannot get array info for /dev/md0と表示されエラー。

このスレの64氏の現象に近い気がするが、
superblock書き換えなどは出来る自信ないので
mdadm -Cで再度Array構築しなおした。

ここんとこバックアップをサボってたから結構痛いわー。


つーかもうSATAカードとかあまり使わないで済むように
ちゃんとしたファイルサーバ組んだ方がいいな。

517 名前:login:Penguin mailto:sage [2009/01/19(月) 00:09:08 ID:L7Ubbq6r]
カードまたいでRAID5/6組んでたら、カード死亡には対応できんよなぁ。
カード単位でお亡くなりになるケースは結構ありがちだし対策したいところ。

カードを1枚にしてそこに全部ぶら下げればカードが死んでも
全部見えなくなるだけでsuperblock更新されないから、516は防げるかも。

同じ考え方で、台数が必要な場合はSATAカード2枚準備して、
SATAカードをまたいでmdのRAID1を組んでそれを繋げるとか、
同じカードのSATAポート群とかカードのRAID機能でRAID5/6を
作ってそれをmdで繋げるとか。

518 名前:login:Penguin mailto:sage [2009/01/19(月) 06:19:37 ID:CHw0KQY0]
>お亡くなりになる
やめてください、そういう表現。
葬式の臭いがしてくる。




519 名前:login:Penguin mailto:sage [2009/01/19(月) 10:43:16 ID:L7Ubbq6r]
は?

520 名前:login:Penguin mailto:sage [2009/01/19(月) 17:06:36 ID:426uxyHi]
カード死んだら葬式みたいなもんだろ…

521 名前:login:Penguin mailto:sage [2009/01/19(月) 17:30:39 ID:/o7gcRDM]
データさえ生きてりゃ今夜が山状態だろ。



522 名前:login:Penguin mailto:sage [2009/01/19(月) 17:38:24 ID:hR5pv9yI]
>>515
次に使うまでに
一度「バタ臭い」の意味を調べた方がいいと思う。

523 名前:login:Penguin mailto:sage [2009/01/19(月) 19:31:23 ID:AVvVP96W]
○バタくさ・い【―臭い】

(形)

〔バタはバターの意〕西洋風な感じがする。また、西洋かぶれしている。
「―・い表現」「―・い顔立ち」



◎きなくさ・い 4 【きな臭い】

(3)なんとなく怪しい。うさんくさい。
「どことなく―・い話」


三省堂提供「大辞林 第二版」より

524 名前:login:Penguin mailto:sage [2009/01/19(月) 20:42:12 ID:8LWc0G4T]
西洋人は信用するなって事ですね。

525 名前:ライナス [2009/01/19(月) 21:21:54 ID:CHw0KQY0]
もともこもない

526 名前:login:Penguin mailto:sage [2009/01/20(火) 11:04:32 ID:QUoqwrOB]
いままで、raid1で十分だと思っていた。
でも、もし、片方が壊れて、もう片方に不良セクタ君があったら、データは損傷してしまう。
そこで、raid5の出番である。
ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
でも、raid5は、ディスク2台が同時期に壊れてしまったら、もはやすべて終わりである。

で、そこで、raid6の出番。今は、6(二方式の内、パリティーを分散する方式の方)が一般化しているんだね。
ストライプという概念は同じであるけど、パリティーを強化して、ディスクが2台壊れても平気なようにしてあるんだね。

ディスクが安価な今は、冗長な構成でも苦しくないね。

カードが壊れたという人が↑の方にあったけど、カードってそんなに壊れやすいの?
カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。


それから、そもそも先に不良セクタをマークしておいたら、raid1でもいいんじゃないかな。




527 名前:login:Penguin mailto:sage [2009/01/20(火) 11:39:38 ID:tmOakhLn]
復旧可能かどうかはカードの壊れ方次第では。

壊れた結果ムチャクチャなデータを
デタラメに書き込まれたら
どう頑張っても復旧でけんだろう。

カードが壊れやすいかどうかは
これまたカード & 運次第かと。
俺は一度も壊れた経験ないけど。

528 名前:login:Penguin mailto:sage [2009/01/20(火) 11:45:10 ID:gBT8fCPT]
>>526
日頃の行いが悪いからHDDが壊れる。

529 名前:login:Penguin mailto:sage [2009/01/20(火) 13:11:48 ID:jayBGkBw]
>>526
なんつーか理解してないな

> ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
RAID5でもRAID1でも、単体ではdegradedでの不良セクタに対処できない点は同じ

> カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。
それが>>517

> それから、そもそも先に不良セクタをマークしておいたら、
経時の不良セクタ発生に対処できない

まぁカードが壊れることはそれほど多くない。
業務で大量に管理していれば結構見るけれど、個人でやる分には当たる確率は低い。

530 名前:login:Penguin mailto:sage [2009/01/20(火) 18:33:36 ID:n7Hnf9Lk]
516だが再構築の際エラーが出て停止
その後色々試したがなんかカードのBIOSから一部のHDDがみえたりみえなかったり
ついにはbadblocksも通らないHDDが出始めた

もしかしたら今回の犯人はカードじゃなくHDDがカードを巻き込んで落ちたのかも

と思っていた時
海門のニュースを知った

6台が該当です。
本当にありがとうございました。

531 名前:login:Penguin mailto:sage [2009/01/20(火) 18:46:34 ID:AAZq+mqB]
RAIDを組むハードディスクは、製品や製造ロットを同じものにしないほうがいい、というのは本当だったか。
530に同情するよ。サーバーが落ちても気は落とすな。




532 名前:login:Penguin mailto:sage [2009/01/20(火) 20:46:45 ID:3icForSX]
>>531
基本中の基本
RAID1ペア組むときはメーカーから変える

533 名前:login:Penguin mailto:sage [2009/01/20(火) 21:20:12 ID:QUoqwrOB]
>海門
=sea gate
ファームウェアの不具合の件ですよね
困るよなあ、といいつつ、私も、そのメーカーのディスクでした。
ハードディスク買うなら、”海門”と決めていたんです。なんか、壊れにくいイメージがあるから。
壊れたことがない。かちゃん、かちゃん、かちゃん、なんて絶望的な音をさせたことがないということです。



534 名前:login:Penguin mailto:sage [2009/01/21(水) 11:28:11 ID:KNJKiqg2]
以前は同じモデルでも容量がちょっと違っていて、
交換したら容量不足で使えないという悲しいことが
ちょくちょくあったが、
最近は違うメーカーでも問題が起きなくなったので
ありがたい。



535 名前:login:Penguin mailto:sage [2009/01/21(水) 12:56:36 ID:1/Cy7HwZ]
いつ消えるか分からないメーカーのサービスに期待して全領域使っちゃうのは馬鹿だろ
保証されてるのは例えば500GBなら500,000,000,000Bまで。

536 名前:login:Penguin mailto:sage [2009/01/21(水) 13:04:54 ID:xEzc7nEM]
ぴったりの500GBのディスクが無ければ、
750GBのディスクを買えばいいのに。

537 名前:login:Penguin mailto:sage [2009/01/21(水) 14:35:01 ID:Lxj+eixA]
同じモデルって前提だろ
バカか バカなのか

538 名前:login:Penguin mailto:sage [2009/01/21(水) 15:07:49 ID:+OFl4BAS]
個人でしょぼいRAID5環境を動かしていましたが
ばっちりRAIDカードが壊れたことあります。
というか、フェイクRAIDしか無いカードをmdで使っているのに
RAIDカードと言うのか?とは思います。

玄人志向の4ポートPCI SATAカードでした。
C7のSATA2ポートなM/BでRAID5をやるために使いましたが
一年弱で、4つのうち一つのポートが動作しなくなりました。

予備HDDはあったので、HDDを入れ替えても認識せず
よくよく調べると、カードのほうが死んでいたというオチ。

急場をしのぐために、オンボードのSATAポートとの混在RAID5として
そのまま2ヶ月程度、問題なく動きました。(その後SATAカードを交換)

今はPCIeの1430SAで、あえてmdドライバー。


ところで、Linuxでホットスワップで再認識する条件とか手順ってどうなるのでしょうか?
とりあえず、普通に抜き差しするとダメっぽいのですが…
チップやドライバーではなく、玄人志向のカードがホットスワップ非対応だったのかなぁ…



539 名前:login:Penguin mailto:sage [2009/01/21(水) 15:42:19 ID:C3awCYv6]
普通に抜き差しでok。sata_sil24のはずなので対応してる。
多分カーネルが古いのが原因。

540 名前:login:Penguin mailto:sage [2009/01/21(水) 15:47:09 ID:xqg3zZth]
外す前にこれでHDDの電源を落としておく方が安全
# echo 1 > /sys/block/sdX/device/delete

541 名前:login:Penguin mailto:sage [2009/01/21(水) 15:47:43 ID:NpsqSYmx]
ロット揃えたほうがパフォーマンス良さそうなのでRaidアレイ組むときは毎回揃えてるけど、
豪快なロット不良見ると怖くなるな。



542 名前:538 mailto:sage [2009/01/22(木) 02:32:04 ID:9i3fv5RC]
>>539,>>540
ありがとうございます。試してみたらできました。
というかオチがあります。

これ、取り外した時点でデバイスが消えないのは仕様なのでしょうか?
たとえば、普通にfdisk -lには出てきます。

HDDを止めて再スピンアップさせることで初期化が行なわれて
現在接続されているHDDの情報に書き換わるという挙動のようです。

で、以前はHDDの停止と再スピンアップなどは行なわなかったために
差し替え直後のfdisk -lで、HDD情報が更新されていないことを理由に
ホットプラグが正常になされていないと判断していました orz


#/sys/block/sdX/device/下のファイルについては
#どこ探せば情報が見つかるものでしょうか…


543 名前:login:Penguin mailto:sage [2009/01/22(木) 15:19:59 ID:CwsVQNf2]
>>541
> ロット揃えたほうがパフォーマンス良さそうなので

意味が分からない

544 名前:login:Penguin mailto:sage [2009/01/22(木) 15:31:18 ID:7lkmeW2Z]
昔はRAID組むなら同一型番できればロットも揃えようっていう風潮だった。
型番同じでもファーム違うと微妙にキャッシュアルゴリズム変わってたりするし。
その場合ベンチの結果も微妙に変わる。
アクセス速度近い方が効率よさそうじゃん。
当然同じようにアクセスするディスクでロットまで同じだと壊れるのも一緒になるから
ロットくらいはばらした方が良いって言う人もいたけど。

545 名前:login:Penguin mailto:sage [2009/01/22(木) 20:50:46 ID:u0UB26l/]
ロットどころかメーカーからばらす。

まぁ結局はRAIDに何を求めるか、なわけだが、
あるのかかどうか分からないパフォーマンス向上を目当てに
同時故障リスクを採る選択は、俺はしないね

546 名前:login:Penguin mailto:sage [2009/01/22(木) 21:43:17 ID:xRfSeFjv]
>>540
そんな/sysの下の物体の情報って、一体どこで見つけるの?ソース?
俺はいままで

 sdparm -C stop /dev/sda

とかしてたよ。

547 名前:login:Penguin mailto:sage [2009/01/22(木) 21:57:04 ID:u0UB26l/]
>>546
基本はソースだけど、その場合むしろsdparmの方がいいんでは?
/sys直叩きだといちいちカーネルの仕様変更追っかけないといけなくなる

548 名前:login:Penguin mailto:sage [2009/01/23(金) 01:31:55 ID:iL0wYbEo]
>>544
昔って何十年前の話?

549 名前:login:Penguin mailto:sage [2009/01/23(金) 01:35:42 ID:gP0PPzWy]
5年前

550 名前:login:Penguin mailto:sage [2009/01/23(金) 03:37:27 ID:93gY8ymT]
ディスクアレイはロットは知らんがメーカーと型番くらいは揃ってるな。
メーカーバラバラだったら同じ所からは二度と買わんわw

551 名前:login:Penguin mailto:sage [2009/01/23(金) 12:07:20 ID:3M4C0RkK]
>>549
俺の周辺の風潮では5年前でも
安全のためにロットは揃えるな
だったが。

ま、地方によって違うんだろうな。



552 名前:login:Penguin mailto:sage [2009/01/23(金) 13:08:14 ID:7Cxp47f1]
まだDECがあったころ、導入したDECのサーバーは業者が段ボール箱から次々とHDDを
取り出して組み込んでいたから同じロットだったんじゃないかと思うんだが、記憶が確かではない。
それが俺のRAID初体験なのでロットのことまで気が回らなかった。

HDD組み込み済みのRAIDボックスはどうなんだろうか?同一ロットにならないようにしているのかな?

ちなみに自分で組むときは、新しく買ってきたやつと予備としてストックしてあるやつを混ぜて使うようにしている。





553 名前:login:Penguin mailto:sage [2009/01/24(土) 04:31:39 ID:ptL5pKyY]
>>533
シーゲートのファームウェア不良の件、
ウインドウズ用には、不具合検出用のツールがあるが、
どうしてリナックス用にはないのだろう。
リナックスユーザーは多いだろうに。
それとも、あるんですか?



554 名前:login:Penguin mailto:sage [2009/01/24(土) 07:30:04 ID:u99vPwbM]
>>553
切捨てられてるんだろう。いつものこと。

555 名前:login:Penguin mailto:sage [2009/01/24(土) 13:11:53 ID:Di00Ifqv]
検出専用ソフトではなく
CD版のSeatoolsでブートすりゃいいんじゃないかと思うが

556 名前:login:Penguin mailto:sage [2009/01/24(土) 21:47:35 ID:ptL5pKyY]
ありがとう



557 名前:login:Penguin mailto:sage [2009/01/28(水) 00:26:06 ID:ir2fam9u]
#mdadm -C /dev/md0 -l5 -n4 /dev/sd[bcde]1
で、cat /proc/mdstatで状態見るとリビルドしてるけど なぜか[UUU_]
はあ?と思ってmdadm -D /dev/md0 してみると
/dev/sde1 がspare rebuildingになって勝手にspare扱いになってる。
意味がわからない。スペアなんか作りたくないし。そんな指定はどこにもしてない。
エスパーレスおながいします。

558 名前:login:Penguin mailto:sage [2009/01/28(水) 00:38:08 ID:LK11AqVS]
>>557
zero superblockした?

559 名前:login:Penguin mailto:sage [2009/01/28(水) 07:15:42 ID:ir2fam9u]
>>558
sdb1〜sde1 全部にmdadm --zero-superblock してみましたが
変わりませんでした。

こうなるのも謎です。なぜ[4]なのか・・・
>md0 : active raid5 sde1[4] sdd1[2] sdc1[1] sdb1[0]

560 名前:login:Penguin mailto:sage [2009/01/28(水) 07:34:42 ID:LK11AqVS]
mdの構成対象外でも、システム内に3に相当するsuper-minor番号の
パーティションがあるとそうなるかも…
# mdadm --examine /dev/sdb1
するとどうなります?

561 名前:login:Penguin mailto:sage [2009/01/28(水) 07:39:07 ID:ir2fam9u]
こうなりました

/dev/sdb1:

(長いので省略、多分あまりこの部分は関係なさそうです)

Number Major Minor RaidDevice State
this 0 8 17 0 active sync /dev/sdb1

0 0 8 17 0 active sync /dev/sdb1
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 0 0 3 faulty
4 4 8 65 4 spare /dev/sde1



562 名前:login:Penguin mailto:sage [2009/01/28(水) 13:57:54 ID:3QasENir]
よく分からんけど、
単にhdeが故障してfaultyになっただけなんでわ。
hde交換してみれば?

>>431みたいなこともあるし、
SW-RAIDのハードウェア異常時の表示は
あまり信頼しない方がいい。

563 名前:login:Penguin mailto:sage [2009/01/28(水) 13:59:12 ID:3QasENir]
なんか変だな。

× あまり信頼しない方がいい。
○ あまり信頼できない。

だね。






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<284KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef