RAID総合スレッド No. ..
[2ch|▼Menu]
166:login:Penguin
08/07/01 00:54:50 aHyZUpTv
>>165
???。RAID-5の個別ディスクをどうやってバラでマウントするんだ?

167:login:Penguin
08/07/01 00:59:02 Qn6UZU93
なんで突然RAID5?
俺は、JBODかマウントポイントごとにディスク用意するんだと思ったが

168:login:Penguin
08/07/01 01:06:41 aHyZUpTv
>>167
ああ、そもそもmd使わなくていいじゃん、という話だったのな。誤読した。
無理にmd再構成しなくても個別マウントすればいいじゃん、と誤読した。

169:login:Penguin
08/07/08 07:17:56 tBce1A0Q
3ware 9650SEでHDD(500G)6本でraid6を組もうと思っています。

3テラのボリュームができますが、パーテーションどうしようか
悩んでいます。
基本的にシステムがらみは別のHDDで動かしたほうがいいのでしょうか?
3テラのボリュームはパーテーションきらずに、/home などにしたほうがいい?

170:login:Penguin
08/07/08 11:45:08 wACpQR7T
HDD2本がパリティ記録なんで4本分の2TBのボリュームなんじゃね?

171:login:Penguin
08/07/08 12:45:20 Ld9ygY/a
何入れようと思って、500Gを6発買ったんだ?
パーティションの切り方はそれ次第。

172:login:Penguin
08/07/08 12:46:58 dFUhNDg6
ホットスペアがないと有り難味がないから、
実際には1.5TBだろ?

173:login:Penguin
08/07/08 12:47:54 dFUhNDg6
で、天使が取っていって
df -h
すると、1.3GBとかになるわけだ。

174:login:Penguin
08/07/08 12:48:53 dFUhNDg6
orz

175:login:Penguin
08/07/08 15:11:58 ciEROQW6
一般的にRAID組むときにはシステム絡みもRAIDに入れるんですか?


176:login:Penguin
08/07/08 15:51:45 II4/+Uhu
ここにもRAIDとバックアップは違うと理解出来てない奴が

177:login:Penguin
08/07/08 19:45:28 wACpQR7T
>>175
RAID導入によるメリットの8割ぐらいが
HDD故障時にもシステムを稼働し続けられる
だからね〜
とうぜんそれなりのホストはシステムもRAID
残りのメリットはバックアップの間隔での更新データが救えること

素人はよく高速化を挙げるけど
RAIDで高速化なんていうのは副次的なものにすぎないし
実装によっては速くならない


178:login:Penguin
08/07/08 19:47:42 wFB79b2r
>>173
えげつない天使だなおいww 99.9%ってw

179:login:Penguin
08/07/09 09:09:58 nLnkgGAg
>>177

なるほどね!
ありがとうございました。

180:login:Penguin
08/07/09 23:06:04 RNssxI9R
CentOS5.2を、500GBx2のHDDをミラーリングにしてインストールしたいと思います。
このときのパーティションはどうきるのが良いのでしょうか?
私用のFedora8だと、200MBの/bootと、残りがLVMに分けられて
LVMの中に2GBの/swapと/homeがある感じなんですが、
同じでよいです?
あるサイトに管理を容易にするために/swapも個別のパーティションにする・・
というようなことが書いてあったので気になりました。
よろしくお願いします。

181:login:Penguin
08/07/09 23:33:03 gRDljDJc
>>180
/swapって何よ

適当に
/boot
/
/home
swap
みたいな感じで4つミラーボリューム作りながらインストールでいいんじゃないの?
あるいは、でかいミラーボリューム作ってその上でLVM

182:login:Penguin
08/07/10 01:03:05 YVLKQ6q3
>>180

RAIDならシステムの入れ替えがほとんど無いので、
後々の容量の引き延ばし(と、いうか同容量のHDDが市場から無くなる;)
とかを考えて/homeを一番最後にしてる。

HDDのメーカーごとにシリンダー数が違うので最後の/homeは
最終シリンダーまで切らずに鼻くそ程度残してます。
あと、サーバーと言うことで/var は多めに切ってます。



183:180
08/07/10 10:43:28 iJDD8Fmx
>>181-182
ありがとうございます。
RAID(ミラーリングを)するってことに関しての
特別な配慮ってことはない感じですね。
とりあえずやってみます。

184:login:Penguin
08/07/11 01:25:06 MF2t883a
/bootってハードウエア構成に依存するけど、専用パーティションに
しなくてokな事が多いね
GRUB使ってるおかげ?

185:login:Penguin
08/07/11 04:29:32 rOZ8wBgX
/をXFSにするときは念のため分割

186:login:Penguin
08/07/14 11:01:55 9UdAIkjR
妙にスレが伸びてると思ったら、raid5の性質を
raid全般に広げて語るニワカが発生してたのか。

業務やっているなら、いくら思い込みの強いアホでも
そこでraid6が出てこないってのはあり得ない。


>>185
GRUBと合わないんだっけか。
自分は/だけreiserfsにしてるわ。

187:login:Penguin
08/07/15 18:47:44 yaiFvTOZ
どのインターフェイス(SCSI0とか)に繋がったHDDにどんなデバイスファイル名(/dev/sdaとか)が割り当てられているのか確認する方法はありますか?
RAIDで全部同一のHDDを使っているので、このインターフェイスに繋がったHDDはsdaだとか判らないと交換できないのです。


188:login:Penguin
08/07/15 18:55:33 rrCKPMUT
>>187
/sys/block


189:login:Penguin
08/07/15 21:52:28 pdkdPVvb
smartctl

190:login:Penguin
08/07/16 00:03:37 voyUTL5p
>>186
GRUBの2nd Stageがsuperblockだか何かを上書きする?とからしい
最近調べてないから、大丈夫になってるかも

191:login:Penguin
08/07/16 00:27:28 wxA8/vYd
>>188,189
シリアルナンバーでディスクを識別する事にしました。
ただ、当方debian etchなのですが、
/sys/block/sda/device/serial
は見つからず、
smartctl -a /dev/hda (PATAのディスク)
smartctl -a -d ata /dev/sda (SATAのディスク)
で、シリアルナンバーを確認できました。

ありがとうございました。

192:login:Penguin
08/07/16 00:59:49 LX357c/f
>>191
うちもそれやってるけど、SATAコントローラが複数ある場合は起動時の
認識順で /dev/sdX と Serial: XXXXXXX のマッピングが変わるんで注意。
電源断までは有効な情報だからドライブ交換には問題ない。

193:login:Penguin
08/07/16 01:05:10 vwN5urnw
そのsd*,hd*認識順の問題すごく悩まされるんだけど、解決策としては

・新パーティション形式にしてラベルつける
・MDにしてmd[0-9]で認識させてから使う
・LVMにして(同様)

しかない?古来からの方式でパーティション切ってしまったのでカーネルが
変わるたびにころころテンポラリディスクのデバイス名が変わってばたばたする。

194:login:Penguin
08/07/16 07:26:45 5QiXFeI7
構築の時にどのシリアルナンバーのHDDを何段目に積んだかメモっとくといざというとき便利だね

195:login:Penguin
08/07/16 07:36:48 2XS3TY3h
UUIDで識別をしないのかな?

196:login:Penguin
08/07/16 19:59:03 LX357c/f
それで物理位置がわかるならな。

197:login:Penguin
08/07/16 20:05:37 rsgG64I0
lsscsiとか使わないの?

198:login:Penguin
08/07/17 01:46:36 ZWA78awn
UUIDでmd組むようにしてる > 認識順が変わる対策

199:login:Penguin
08/07/17 04:34:16 nqSSZGey
>>198
今問題にしてるのはコンポーネントデバイスの識別の話だからそれじゃ解決にならない

200:login:Penguin
08/07/17 19:04:35 pwb5+Hyk
ベンチマーク
URLリンク(opentechpress.jp)

201:login:Penguin
08/07/21 15:38:10 QHVhiNmM
個人用ファイルサーバで、同一ホスト上でのDisk to Diskバックアップを計画しています。
ドライブは750Gx8台です。同原因同時故障と、バックアップメディアを物理的に
別の場所に置けないこと以外に高まるリスクはありますか?
また、RAID0/5/JBODのアレイを2つ作って定期rsync運用はさすがに無謀でしょうか?

202:login:Penguin
08/07/21 16:02:45 bfdmMxFQ
>>201
消費電力が2倍
コピー中に更新があると整合性がなくなる
帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
複数世代のバックアップを残せない
RAID1に対するメリットがほとんど無い

素直にRAID1にして
バックアップは外付けにtarか何かでとるほうがいい

>また、RAID0/5/JBODのアレイを2つ作って定期rsync運用はさすがに無謀でしょうか?
RAID10でいいんじゃないの?

203:login:Penguin
08/07/21 19:20:08 Kok+C1hM
>>202
お題目はおなかいっぱい。
個人用だと書いてあるだろ?

>消費電力が2倍
ディスクだけが2倍なのに、どういうロジック?

>コピー中に更新があると整合性がなくなる
>帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
個人用だから、そういうのを自分で避ければいいだけ。

>複数世代のバックアップを残せない
複数世代ってなにに使うんだよ。実際に使ったことあるのか。

204:login:Penguin
08/07/21 19:53:45 eDgO9JCd
理想を言えばRAIDハードウェアのスナップショットを利用して
別のRAIDグループへコピーが一番安心できる
問題はそのようなハードウェアは日立とかEMC、富士通とかになること

205:login:Penguin
08/07/21 21:51:52 r1tueaXR
>消費電力が2倍
回転止めたらいいんじゃないの? 馬鹿なの?

>コピー中に更新があると整合性がなくなる
スナップショット使わない理由がわからない。馬鹿なの?

>帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
オプション1つで制限できるんだからすればいいじゃない。馬鹿なの?

>複数世代のバックアップを残せない
複数世代のバックアップを残せるソフト使えばいいじゃない。馬鹿なの?

>RAID1に対するメリットがほとんど無い
それのどこがリスクなの?馬鹿なの?


206:login:Penguin
08/07/21 22:45:34 +Von4bjZ
また心の問題ですか

207:login:Penguin
08/07/22 05:33:29 FG3KF+O+
>アレイを2つ作って
に対して
>>RAID10でいいんじゃないの?

と書いてあるので何も分かってないようですね

208:login:Penguin
08/07/22 07:00:34 IDlKlKUZ
>>202がフルボッコにされててワロス

209:login:Penguin
08/07/24 22:55:47 Y/yDJ5QP
>>207
>>202 は業務とか書いてるしな。
質問を理解せずにどっかからコピペしたのかも。

210:login:Penguin
08/07/25 18:22:23 7bWPoJgN
こんな記事がでたぞ〜

ハードウェアRAIDとLinuxカーネルによるソフトウェアRAIDのベンチマーク比較
URLリンク(www.itmedia.co.jp)

211:login:Penguin
08/07/25 22:05:00 dHu8XFEz
>>210
お前は10個上のレスすら読めんのか

212:210
08/07/25 22:55:25 7bWPoJgN
あー、同じなのか…
単にベンチマークしか書いてなかったから、スルーしてた…OTZ

213:login:Penguin
08/08/04 13:46:13 jBaI/IVg
性能分析のお供に
URLリンク(opentechpress.jp)
次回の方が役に立ちそうだけど

214:login:Penguin
08/08/07 08:00:07 RuVT+4E9
1TのHDD6台買ってきたんだがRAID6にするか5にするかで一晩悩んだが結論が出なかった。

215:login:Penguin
08/08/07 12:45:30 gou1IcwA
とりあえず6面RAID1にしておいて慣らし。
満タンになったら、その時にまた考えるってのはどうだ?


216:login:Penguin
08/08/11 00:33:45 lkIu9a0L
/をxfsにするいい方法はありませんか?

OSはcent5.2です。


217:login:Penguin
08/08/11 00:41:08 QeT4W3NU
>>216
スレ違い。
スレリンク(linux板:731番)

218:login:Penguin
08/08/11 01:28:58 lkIu9a0L
>>217

>>185
が書いていたので。

219:login:Penguin
08/08/11 18:36:11 AGF2t4QA
>>218
見苦しい言い訳だな

220:login:Penguin
08/08/12 16:41:20 jyLw7NZh
>>216
CentOSならそっちのスレで聞いてみたらいいんじゃないか?
ぶっちゃけRAID関係もよっぽど詳しい人がそろってるしw

221:login:Penguin
08/08/12 16:56:10 YIDfUhGW
>>220
もう聞いてるみたいよ。>>217

222:login:Penguin
08/08/12 17:11:26 IDhTWp2o
/**ファイルシステム総合スレ その8**/
スレリンク(linux板)

回答があるかわからんけど、マルチな質問はちゃんとクローズレスして、もう一度きいたら?

223:login:Penguin
08/08/14 18:37:41 rw0zL6g/
質問なのですが、raidtoolsで作成したボリュームは、mdadmにソフトウェアRAIDを
変更した場合、そのまま使えるのでしょうか?
要するに、raidtoolsとmdadmのデータ構造の互換性の問題なのですが。
一旦バックアップを取って、RAID構成後に書き戻す必要がありますか?

「raidtools mdadm 互換性」などとぐぐってみたのですが、答えを見つけられませんでした

224:login:Penguin
08/08/19 01:07:45 8EwaAh3C
実際にやってみればいい。
VirtualBoxなりVMWareなりの仮想環境を入れれば楽勝

225:login:Penguin
08/08/25 15:26:56 A4bL2852
ポートマルチプライヤ・ハブを使ってRAID5で使っていたが、
ハブが(熱?)故障したらしく現在、別環境でリペア中…
後10時間ほどかかるらしい。終わったらバックアップとっとこ。

226:login:Penguin
08/08/25 18:46:19 hmNDIIPy
あれはメチャ熱くなるよ

227:login:Penguin
08/09/01 05:30:02 FJQeXGzD
並列ランダムリード重視したいんだけど、
RAID5 <= 単体 <= RAID10 < RAID1+LVM
って理解であってる?

228:login:Penguin
08/09/01 15:30:06 URN2jkvk
どれも実装次第じゃないの?
大抵は全部単体より速くなると思うが。

229:login:Penguin
08/09/01 19:19:46 FJQeXGzD
>>228
じゃあ、さしあたりmd限定で。
で、その大抵が通用しないのがランダムアクセスだったりするわけで…

230:質問ノ
08/09/02 00:26:54 +OCnqEcR
RAID0って、データを複数のHDDに分散して同時に記録するから
早いのですよね?
ということは、1台のHDDで、データをフラッタごとに分散して同時
に記録したら、すごく早くならないのかなぁ?
フラッタ5枚のHDDなら5倍???

231:login:Penguin
08/09/02 00:53:44 svkuPaeg
ReadもWriteも早いのか?

232:login:Penguin
08/09/02 00:58:11 3FnQIo0B
シーケンシャルオンリー(かつ大昔のHDDのテクノロジ)ならね。
ランダムアクセスだと1台に集中することでかえって遅くなる。
今のHDDはプラッタ毎にヘッド位置調整をするために同時アクセスは難しいし、
5倍に速くなってもインタフェースの転送速度が追いつかない。

233:理解!
08/09/02 01:06:27 +OCnqEcR
なるほどねぇ
インターフェースが追いつかなきゃ意味ないですね^^;
ごもっとも^^

234:login:Penguin
08/09/02 05:45:29 JL3ZUwv4
ソースを読むほどのスキルはないんだけど、未だにRAID1で読み取り性能だけ2倍にする方法は解明されてない?
相変わらずmanpageに書いてあることとは違うままなのかな。

235:login:Penguin
08/09/02 08:50:52 xIov+WO6
性能がスループットという意味なら倍になるよ。
CPUが2つでプロセス2つで読んでればだけど。

読み出しロジックは読み出し処理を2つのディスクに並列分散させるのではなく、
単に空いているorヘッド位置が都合がいい方のディスクを選択するだけだから
あるプロセス1つから見たら別に速くなるわけではなさそう。


236:login:Penguin
08/09/02 17:54:33 JL3ZUwv4
あのmanpageに書いてあることは、そういうことだったのか!?
だったらmanpageにもそのように書いてくれればいいのにねぇ。
ネット上でも、たまに悩んでいる人がいるし。

237:login:Penguin
08/09/03 09:36:58 GOWpJIT8
ソース見ると、こういうことだべ。

2.6.18のraid1.c
* This routine returns the disk from which the requested read should
* be done. There is a per-array 'next expected sequential IO' sector
* number - if this matches on the next IO then we use the last disk.
* There is also a per-disk 'last know head position' sector that is
* maintained from IRQ contexts, both the normal and the resync IO
* completion handlers update this position correctly. If there is no
* perfect sequential match then we pick the disk whose head is closest.
*
* If there are 2 mirrors in the same 2 devices, performance degrades
* because position is mirror, not device based.
*
* The rdev for the device selected will have nr_pending incremented.
*/
static int read_balance(conf_t *conf, r1bio_t *r1_bio)


238:login:Penguin
08/09/03 10:31:37 E4hwRJkf
1ビットだか1バイトずつ交互に読み書きするから読み書き2倍ってのは嘘か

239:login:Penguin
08/09/03 19:50:17 Yeu4fcGq
raid5=raid0<raid1
程度だと思われるが実装によって逆転する。


240:login:Penguin
08/09/03 21:37:57 xUNUra92
>>234-236
裏技と言うほどのことじゃないけど、それを実現したいなら、

mdadm -C /dev/md0 -l 10 -p f2 -n 2 /dev/sda1 /dev/sdb1

こうやって、2 台だけで RAID10 を組んでみたら?
きちんとミラーリングされた上で、読み取り速度は
シングル スレッドでも 2 倍になるよ。

241:login:Penguin
08/09/04 00:12:57 B1PfYM1l
234が想定アクセスパターンを言わないと何の議論もできんと思われ
並列アクセスするプロセス数と、ランダム・シーケンシャルの別、それからリード・ライト比率

242:login:Penguin
08/09/04 00:58:57 UTrxmu/B
>>241
じゃあ極端な例ということで、100MB/sのシーケンシャルI/O性能を持つHDD2台のRAID-1で

 1.1プロセス、シーケンシャルリード100%の場合
 2.2プロセス、片方シーケンシャルライト、片方シーケンシャルリード100%の場合

この場合に期待できる

 a.各プロセス単位でのリード性能(MB/s)
 b.計算機全体で達成されるリード性能(MB/s)

はおおよそどうなる?2プロセス時はI/O時間が均等に回ってくるとして。

争点は1aが100MB/sなのか200MB/sなのか、2bが100MB/sなのか
150MB/sなのかということかと思うが。



243:login:Penguin
08/09/04 19:35:51 B1PfYM1l
アクセス単位とかスケジューラでとんでもなく変わるだろうけど、とりあえず計算
つっこみよろしく

1a 並列読み出し (α)27.2MB/s (β)100MB/s (γ)200MB/s 片ディスク読み出し 100MB/s
2b 2.56MB/s

仮定として、
RAID1
7200rpm 平均シークタイム 8ms
noopスケジューラ
ファイルシステムを考えない(メタデータ読み書きがない)
mdドライバのリクエスト振り分けは理想的
リード・ライト対象領域はそれぞれ連続
各プロセスのアクセス単位64KB

1aα アクセス単位ごとに回転待ちが発生する場合
1000ms / (回転待ち 4.17ms + データ読み出し 0.655ms) * 64KB * 2 = 27.2MB/s

1aβ 2つのディスクの回転角が一致している場合には回転待ちは省略できるが、
次の目的セクタに行くまでの回転時間は両ディスク同じなので結局変わらない。

1aγ 2つのディスクの回転角がそのトラックでのアクセス単位分だけずれている場合
リードリクエストが来た瞬間にヘッドが目的セクタ上にあるので回転待ちも省略可能

2b 片ディスク読み出し
書きこみオペが来ると両ディスクが書き込み先までシークする必要がある。
1aβ/γのように回転待ちの省略が期待できないので
1000ms / (読み 0.655ms + シーク8ms + 回転待ち4.17ms + 書き 0.655ms + シーク8ms + 回転待ち4.17ms) / 64KB = 2.56MB/s

244:login:Penguin
08/09/04 19:48:19 B1PfYM1l
すまん、1aβ変なこと書いてる…

1aβ リード完了地点からアクセス単位分だけ先に次の目的セクタがあるので、
回転待ちは最小限で済むが、一方の回転待ち時間=他方の読み出し時間なので結局変わらない。

で。

245:login:Penguin
08/09/04 23:56:09 WdYxWaI1
1TB*4でraid組みたいのですが、raid5にするのと、raid1にするのでは
どちらが生存性が高いでしょうか?
現状では500GB*2でraid1を組んでいます。

246:login:Penguin
08/09/05 02:43:09 /T+bWScm
RAID5は1台の破損まで復旧可能で3TB利用可能
RAID1だと1台の破損まで復旧可能で1TB利用可能なドライブが2つ
確率だけでいえば当然RAID1


RAID10だと1台の破損は復旧可能、2台の破損はミラーしてるペアでなければ復旧可能で2TB利用可能

247:login:Penguin
08/09/05 04:45:32 1sBBnm+4
>>245
RAID5だと再構築時にアレイの他のディスクにアクセスしに行くから
負荷も危険性も上がる。RAID1なら対となるディスクのみアクセス。

243-244だけど、1aαも1aγも実際にはまず起こらないだろうから
1プロセスで同じ領域を読む限り、1aについては100MB/sでFAかと。

248:login:Penguin
08/09/05 04:56:12 GrlZSlCm
FA(笑)

249:245
08/09/05 06:16:01 aZwTzuar
>>246,247
速度は気にしていないので、raid1で組むことにします。
ついでなので1TB*6で3TBにする事にします。
ありがとうございました。

250:login:Penguin
08/09/05 10:34:09 2aSQ8pMt
mysqlのマスターのためにはどんな構成がよいですか?
今は高速回転のディスクでにRAID1にしてます。


251:login:Penguin
08/09/05 13:29:39 1sBBnm+4
そういや3台以上でRAID1組むと3台以上に分散してくれるんだろうか
並列ランダムリード中心ならうまいことレイテンシ隠蔽できそうだけど

252:login:Penguin
08/09/06 16:52:55 mklTZhL5
>>250
メモリ山ほど積んでオンメモリインデックス
それかSSD

253:login:Penguin
08/09/07 01:22:02 AQmY2t2w
>>240
そんなことができるのか。知らんかった。
確かにhdparmでは2倍になってるし、片方のHDDを外してもデータに問題はなかったから、
ミラーリングもされてるみたいね。
RAID10って時点で絶対に4台必要なんだと思って、考えたこともなかったよ。

254:login:Penguin
08/09/07 02:08:53 dwiRmWpQ
2台のRAID10って一体データはどういう風に乗ってるんだ?

255:login:Penguin
08/09/07 02:52:54 AQmY2t2w
>>254
240氏のやり方だと、RAID10ってのはあくまでも名前だけで、
実際は234氏が言ってるような読み込みだけが速いRAID1状態になってる。

書き込みは単体のときと(たぶん)同じ速度。読み込みは約2倍。
で、1台外してもデータには問題なくて、そのときは読み込みも単体と
同じ程度の速度に落ちる、って感じ。

実際のHDDにどうやってデータが書き込まれているのかは、俺にはわからん。

256:login:Penguin
08/09/07 09:00:17 3IVMMvgf
>>255
man md

257:login:Penguin
08/09/09 10:43:41 XWIPazgz
[root@puchiko root]# cat /proc/mdstat
Personalities : [raid5] [raid4] [raid1]
md2 : active raid5 sdc1[3] sdd1[2] sdb1[0]
490223232 blocks level 5, 32k chunk, algorithm 2 [3/2] [U_U]
[>....................] recovery = 0.0% (118528/245111616) finish=275.4min speed=14816K/sec

md1 : active raid1 sde1[2] sda1[0]
199141632 blocks [2/1] [U_]
[>....................] recovery = 0.4% (991424/199141632) finish=123.3min speed=26775K/sec

md3 : active raid5 sdl1[3] sdk1[2] sdj1[1] sdi1[0] sdh1[4] sdg1[6]
2441919680 blocks level 5, 32k chunk, algorithm 2 [6/5] [UUUUU_]
[>....................] recovery = 2.8% (13738880/488383936) finish=421.5min speed=18766K/sec

unused devices: <none>

豪勢にリカバリー中・・・コケないことを祈る

258:login:Penguin
08/09/09 10:53:35 a8VHVsbk
  .: + ...:.    ..:...:.. :. +
  . ..: .. .   + .. : .. .
  ..  +   ..:.  ..  ..
 +     :.     .  +..
  .    : ..    +  .. .
  .. :..    >>257  ..
  .    +   |: |
          |: |
      .(二二X二二O
          |: |    ..:+ ..
     ∧∧ |: |
     /⌒ヽ),_|; |,_,,
_,_,,_,〜(,,  );;;;:;:;;;;:::ヽ,、
"   "" """""""",, ""/;
 "" ,,,  """  ""/:;;
 ""   ,,""""" /;;;::;;

259:login:Penguin
08/09/09 22:05:16 XWIPazgz
終了したよ! sdcが壊れててmd2はRAID1にしたけど。。。
md3はRAID6にするべきではないか考え中。チラ裏スマソ

260:login:Penguin
08/09/10 04:30:01 wQXa/rnK
おつ

261:login:Penguin
08/09/10 21:04:02 6XTL7ehC
いまフツーにRAID1してるんですけど、
単体のSSDに替えたら信頼性はUp?Down?
答えが出ないので教えてください

IntelのSSD良さげですよね

262:login:Penguin
08/09/10 21:23:58 mTxqzEnL
>>261
既存のHDD RAIDをSSD RAIDにしたらどうなるかってこと?
単純にMTBF比較であればHDDが市販のもので60万時間程度、
SSDが200万時間程度なので、信頼性は上がるだろう。

とはいっても確率論だが。

263:261
08/09/10 21:36:09 6XTL7ehC
HDD RAID1→SSD1個非RAIDです。

数字上は信頼性ちょいアップだけど...
何万台も運用するわけではないので運次第ってとこですかね?



264:login:Penguin
08/09/10 22:39:23 mTxqzEnL
>>263
運の要素が大きいだろうな。
HDDだとクラッシュの危険があるし、SSDだと書き込み回数の制限がある
(ある程度は散らしているが確実なものではない)。

265:login:Penguin
08/09/11 13:52:38 t86QBmcU
>>262
> 単純にMTBF比較であればHDDが市販のもので60万時間程度、
> SSDが200万時間程度なので、信頼性は上がるだろう。

あれ?
HDDの方はRAID1なんだから
「60万時間程度」が同時に二つ壊れる可能性との比較になるよね。
HDD RAIDの方が信頼性上なんじゃない?
正確な計算法が分からんけど。

266:login:Penguin
08/09/11 13:54:54 czapuPka
SSDもRAIDじゃないのか?

267:login:Penguin
08/09/11 19:45:48 x4yKwbl5
>>266
>>261を声に出して100回読め

268:266
08/09/11 22:53:18 czapuPka
ごめん、262しか読んでなかったorz

269:login:Penguin
08/09/12 21:58:14 AhnXV+bh
教えてください。

dmraidで作ったRAIDデバイスと、
フツーにLinux上で作ったソフトウェアRAIDって性能は一緒だよね?

dmraidってのは(Intel Matrix Strageみたいな)BIOSで作ったRAID情報を読み取って、
LinuxソフトウェアRAIDを自動的に構成するツールだと考えてるんだが、この理解は正しい?

あとdmraidで構成したRAIDデバイスが壊れたときは、BIOSで修復かけてもいいのでしょうか?


270:login:Penguin
08/09/13 05:43:54 yFc3xM/P
mdとdmraidの性能比較みたいなページがないか検索してみたらいいよ


271:login:Penguin
08/09/13 16:57:51 LK2wbKHe
>>264
フラッシュ寿命問題って、単に代替セクタ機能でカバーできるんじゃないの?
当然書き込み先を散らすといった手立てをした上での話だけど。

同じく疲労するDVD-RAMとかだって似たような対策打ってるんだから、
よほど書き込みアクセスが反復する用途でない限り大丈夫なんじゃないかと。

272:login:Penguin
08/09/13 17:50:12 ch1kjtqk
書き込み分散とかセクタ代替も込みで製品としてのMTBF出してるだろうから
外から見る限り、書き込み分散とかセクタ代替機能は特に考慮しなくても問題ない

…というのが理想なんだけど、
書き込み分散方式とアクセスパターンとの兼ね合いがあるだろうからなあ

273:login:Penguin
08/09/14 16:09:17 aCb6t4HK
>>269
dmraid知らんけど、互換性があるなんて聞いたことないな。

URLリンク(sourceforge.jp)

ここのを読むとプロプライエタリなソフトRAIDに対してのラッパーみたいなもの?
mdadmとはあまり関係なさそうな。

274:login:Penguin
08/09/14 22:01:49 IYFhfqhh
まあラッパーでいいのかな。BIOS(RAIDカードとかの)で切った
RAID構成のパラメータをLinux側に取り込んでそのまま扱えるようにする
わけだから。

こうするとRAID構成の一部はLinux、別の部分はWindowsみたいな
共存ができるけど、そういう部分切り出し利用しないならOS側の
ソフトRAID機能を使った方がいいというのは百万回くらいいわれてる通り。


275:login:Penguin
08/09/14 23:38:16 JSPVgMYR
> 百万回くらいいわれてる

暇なときでいいんで、リストくれ

276:ヒャクマンハウソ、スマソ
08/09/15 11:53:48 a7BuBquH
>>275
リストを出すのは簡単なのだが、2ちゃんのスレはあまりにも
容量が厳しすぎるので勘弁してください mOm

277:login:Penguin
08/09/15 16:04:26 gKAquFIw
>>276
ここに貼り付ける必要なくね。
圧縮してどこかのアップローダに置いて、ここには URL 一行書けばいいよ。

278:login:Penguin
08/09/19 05:28:28 BR3MquqB
>>225-226
サウスのヒートシンクが貧弱なマザーなら、サウスが熱でやられる。
サウスを冷やせ。
側面にファン取り付け穴が二つ開いてるケースなら、下の方だ。

279:login:Penguin
08/09/20 12:32:05 2jxpiAok
HDD RAIDの仕組みがよく分からないのですが、
例えば、RAID1で500GBで組む、
とした場合、
この500GBと組んだ、という情報は
RAIDカードのみが認識することになるんでしょうか?
(HDD自体には特にRAID云々の情報は書き込まれない?)

現在500GBでRAID1組んでいて、1TBに変えたのですが、
ユニット拡張機能がRAIDカードについていないため、
500GBで認識されてます。

この場合、
一旦関係ない1TB載せて、再度RAID1組んで、
(RAIDカードに1TB情報載せて)
関係ない1TBをはずして、500GBと認識されてた1TB HDDを
載せれば、拡張目的果たせるんでしょうか?

ちなみに3wareの8006-2lp使ってます

280:login:Penguin
08/09/20 15:56:49 9fflWZZq
>>279
ふつうはRAIDに関する情報をハードディスクのどこか(ふつうはディスクの先頭などの
固定の場所)に書き込む。そうでないものもあるにはあるが。

ユニット拡張機能とやらが何なのか知らんが、3wareのユーティリティなどで
できるのではないか。

281:279
08/09/20 16:39:03 2jxpiAok
>>280
うわーーー
おっしゃるとおりですね。
試してみましたが、だめでした。

ユニット拡張は、
いわゆるRAIDカードが構築した論理?ドライブを
実際のディスク容量に拡張するものです。
現在はRAID1作成時のディスク容量で実HDD容量ではないので
それを実HDDの容量に補正したいわけですが、
3wareのCLIでは無いよう何です(汗


何か代替方法ないでしょうか・・・。

282:279
08/09/20 19:18:27 2jxpiAok
結局HDDにRAID情報が書き込まれてるんで、
別HDDへ、ddやコピー系でコピーしてもダメポなんですよね・・・

ああ激しく鬱だ orz

283:login:Penguin
08/09/24 10:25:25 NY4tqg7z
mdadm -Aで無理やり起動したら
failed to RUN_ARRAY /dev/md0: Input/output error
これってどういう事……汗

284:login:Penguin
08/09/24 15:31:23 3ffijfuO
コンポーネントデバイスがご臨終

285:login:Penguin
08/09/25 21:02:44 LfvtnWd8
RAID5におけるresyncについて教えてください

debianで構築したGLANTANKにUSB接続で6台のHDDでRAID5を構築していました。

帰宅したところHDDに頻繁にアクセスしているのでtelnet接続したところ、下記のような状況でResync状態にあるようです。
fumifumi@GLANTANK:~$ sudo cat /proc/mdstat
Password:
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid5 sda1[0] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
1562842880 blocks level 5, 64k chunk, algorithm 2 [6/6] [UUUUUU]
[>....................] resync = 4.3% (13630588/312568576) finish=2230.8min speed=2232K/sec

md0 : active raid1 hdb3[1] hda3[0]
77649600 blocks [2/2] [UU]

この状態でmd1のデータは無事に復旧しますでしょうか?
残り一日以上かかりそうですが、完了時にはデータが空っぽにならないか心配です。

ちなみにdfコマンドでは
/dev/md1 1538319916 1457990512 2187260 100% /share/usb
と表示されており、昨日までの使用状況とは変わっていません。(現時点では。。)

/shaer/usbにアクセスしようとしても反応がない状況です。
どんどんデータが開放されているのでしょうか?

力量不足で情けないですが、このまま待つのがよいのか?データは保持されるのか?
アドバイス・ご教示お願いします。

ps.resyncとrebuildはちがいますよね?


286:login:Penguin
08/09/25 22:29:45 hqNskNnF
((((´д'))))

287: ◆Zsh/ladOX.
08/09/25 23:03:20 uxBh3s9z
待つしかない。
(rsync中も遅いだけで使えた稀ガス)

反応が無いって
cd /share/usb
しても
・cdが成功しない
・cdはできるがその後lsとかでコマンドの反応が無い
ってこと?

288:login:Penguin
08/09/25 23:43:29 LfvtnWd8
>>287

早速のレスありがとうございます。

cd /share/usbに反応しませんでした。
プロンプトに戻ってこなかったです。

先の書き込みをした後は
sudo cat /proc/mdstat
にて状況を見ていたのですが、先ほど急にtelnetが切断して接続不能になりました。
#resync中でも再起動可能とのことだったのでsudo reboot等試みましたが、リブートはしませんでした。
それ以外はmdstatしたりdfして状況を見てました。

telnet接続できない現在でも、USB接続のHDDには相変わらずアクセスし続けているので、引き続きresyncは実行されているようですが、pingも利かない状態におちいってます。
GLANTANKのパワー不足?かもしれません。

繰り返しで申し訳ないですが、データは無事と思ってよいでしょうか?
その他書き込みした事項以外で確認すべきことがあればアドバイスください。
返答よろしくお願いします。

敬具

289: ◆Zsh/ladOX.
08/09/26 00:02:45 uxBh3s9z
>>288
まず、データは無事です。
> GLANTANKのパワー不足?かもしれません。
現状はこれかな。


最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
そのPCにHDDを6台接続してresyncした方が良い鴨
(USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)


290: ◆Zsh/ladOX.
08/09/26 00:11:25 D+db+I6m
あーでも今GRANTANKシャットダウンできないのか。
電源ボタンぽちしてシャットダウンしたりするのかなぁ。
どうすっぺねぇ

291:login:Penguin
08/09/26 00:19:03 7oAA51Rx
>>289

> まず、データは無事です。
ありがとうございます。気長に待つことにします。
先の書き込みでお分かりのように大事なデータや怪しいデータなどなど目いっぱい詰め込んで快適につかっていたのですが、初トラブルで、心配です。
希望が出てきたので、おとなしく観測します
#容量いっぱいなので、入れ替えながらかつかつ運用です。。

> > GLANTANKのパワー不足?かもしれません。
> 現状はこれかな。
やはりそうでしょうか。外部アクセスを拒絶してしまってます。
先ほどまでworkhroupにいたGLANTANKがいなくなってますし、resyncに専念してしまっているのかな?
なんとかがんばってくれぇ>SH
#感情的で申し訳ないです。こういう時ほど落ち着いて対処ですよね

> 最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
> そのPCにHDDを6台接続してresyncした方が良い鴨
いまさらこのようなことが可能なのでしょうか?
リブートできない状況ではリスクが大きいかと。。
どちらにしてもLinuxな環境がないので乗り換えは厳しいです。

> (USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)
説明不足ですいません。
6台はい〜るに6台のHDDを詰め込んでますので使用UBSポートは1つで大丈夫です。
#それにしてもなぜ?このような状態に。。。

有益なアドバイスいただきありがとうございました。
何か思いつかれたら、また返答いただければ幸いです。

敬具

292: ◆Zsh/ladOX.
08/09/26 00:35:12 D+db+I6m
> どちらにしてもLinuxな環境がないので乗り換えは厳しいです。
CDブートのlinuxを使えば良い。
が、どっちにしろgrantankを上手く落とせた場合の話になってしまうけど


ではもう寝るので健闘を祈ります。

293:login:Penguin
08/09/26 00:52:55 7oAA51Rx
>>292

いろいろお世話になりました。

とりあえず現状のまま様子をみます。

夜遅くまでお付き合いいただきありがとうございました。

敬具


294:login:Penguin
08/09/26 11:36:30 UHMIOaKO
>>293
resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
WD10EACS-D6B0 x 4でRAID5を使ってるけど、80MB/secから最終的に40MB/secに落ちる程度の速度は出るよ。
どれかのHDDが壊れかけで足引っ張ってたりするんじゃないかと想像するんだけど。
dmesgとかsmartを確認した方が良さそう。

あと、あんまりかつかつまで使わない方が良いと思うよ。
環境依存かもしれないけど、2.7TB中50GB程度空きになった状態で何度かフリーズを経験してて、
空きが結構ある状態では一度もフリーズしてない。
(OS:Fedora9、FS:XFS)


295:login:Penguin
08/09/26 20:14:20 7oAA51Rx
>>294

> resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
よく覚えてませんが、たぶん構築時もこんなものだったような??

> dmesgとかsmartを確認した方が良さそう。
寄せ集めの320GB-IDEをUSB接続なのでこんなものかと。。
いただいた情報をヒントに調べてみます。

> あと、あんまりかつかつまで使わない方が良いと思うよ。
余裕を持ちたいのは山々ですが。。いろいろ詰め込んじゃうんですよね。
どこもかしこもかつかつで。。貧乏性で消せない性格がいけませんね。
速度よりも容量重視でこうなっちゃいました。。



296:login:Penguin
08/10/05 10:49:30 Ze8uaqdI
/proc/mdstatがcheckになるのは、なぜですか?
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : active raid6 sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0]
2930279808 blocks level 6, 64k chunk, algorithm 2 [5/5] [UUUUU]
[>....................] check = 0.7% (7653376/976759936) finish=3794.0min speed=4256K/sec

/var/log/messages
Oct 5 01:06:01 host kernel: md: data-check of RAID array md1
Oct 5 01:06:01 host kernel: md: minimum _guaranteed_ speed: 1000 KB/sec/disk.Oct 5 01:06:01 host kernel: md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for data-check.
Oct 5 01:06:01 host kernel: md: using 128k window, over a total of 976759936 blocks.
md0についても同じメッセージが出ています。
ファイルシステムは、md0, md1ともにXFSです。

1時6分から何かが始まっていますが、cron.dailyは6時25分に設定されているので
cronによって起動された何かが原因ではありません。
OSを再起動したとか、ホットスワップしたタイミングでもありません。

OS: Debian GNU/Linux 4.1(etch)
カーネル: 2.6.26.5へ入れ替え
です。

297:login:Penguin
08/10/05 13:12:24 rOZmgU0Y
/etc/cron.d/mdadm じゃね?

298:296
08/10/05 14:55:41 Ze8uaqdI
おっしゃるとおりです。
6 1 * * 0 root [ -x /usr/share/mdadm/checkarray ] && [ $(date +\%d) -le 7 ] && /
usr/share/mdadm/checkarray --cron --all --quiet
となってました。

どうもありがとうございました。

299:login:Penguin
08/10/11 18:12:33 ZuxskNzz
SATAのHDDが10個ぐらいのRAID組みたいのだが
一番安く済む方法教えてほしい

300:login:Penguin
08/10/11 20:12:37 0pLPQ9Sw
普通はエントリーモデル買って100万円ぐらいじゃない?

301:login:Penguin
08/10/11 23:40:03 qfaubBp2
>>300
80 万くらいの差額はどうするべ?

302:login:Penguin
08/10/12 00:04:53 0pLPQ9Sw
80万円の差額ってなぁに?
たしかにボッてるとおもうけど
冗長性のあるコントローラや電源だと
このくらいするかなと思います

そもそも家庭向けだとスロット数が4つぐらいだよ

303:login:Penguin
08/10/12 00:07:47 MFK5+p1z
冗長性云々必要なの?

> SATAのHDDが10個ぐらいのRAID組みたいのだが

としか書かれてないよ。

304: ◆Zsh/ladOX.
08/10/12 00:16:53 BnTxnZIJ
サウスにSB700とかSB750とかICH9とかICH10のマザー
+
クロシコSATA2I2-PCIeを2個使う

ってところか。
HDDはお好きなのでどうぞ。

305:login:Penguin
08/10/14 16:22:59 NijeoAer
最近Supermicroのベアボーンが、実はかなりコストパフォーマンスが高いことに気付いた。
SOHO向けのファイルサーバ用途なんかだと、かなりいい感じだと思う。
バラでパーツ集めるより安心確実安上がり。

306:login:Penguin
08/10/15 01:00:02 MFbQNNJJ
もしドライブベイ4つあるサーバーあったら

@SASでraid1+0
ASASでraid6
BSATAでraid1+0
CSATAでraid6

のうちどれが良いと思います?
速度、コスト、耐障害、障害時復旧等
それぞれの面から教えてください。

307:login:Penguin
08/10/15 02:07:17 ZK7oP6Ef
>>306
シーケンシャルなら24
ランダムなら13
コストなら34
耐障害なら24
ディスク負荷高い場合は障害復旧での負荷13

308:login:Penguin
08/10/17 23:47:36 yE7dhqMk
>>306
これ見て思い出したんだけど
RAID1+0ってRAID0+1って言うのもあったんだね
1+0のほうが耐障害で0+1が速度だっけ?

309:login:Penguin
08/10/18 03:28:34 CvVG09ig
>>308
その2種類の動作は呼び方が定義されていない
普通採用される方式は
RAID0の各HDDがミラーリングされている方式
もう一つは信頼性ガタ落ちの
RAID0をミラーリングした方式
速度はどっちも同じ(リトライ処理とか考えると異なるかもしれんが)

310:login:Penguin
08/10/22 23:03:41 OER6wkY9
>>308
ミラーリングボリュームのストライピングか
ストライピングボリュームのミラーリングか、だね
ストライプサイズ近辺のアクセス粒度だと、シークとアクセス振り分けの関係で
性能特性が微妙に違ってきそうな感じ。分かるような違いは出ないと思うけど…

ちなみにmdのRAID10はさらに別物

311:login:Penguin
08/10/25 23:44:02 WFYSKaa5
mdadmでRAID1を組んでext3でフォーマットしました。
別のext3のディスクからディレクトリを
cp -a
でコピーし、
du
で見たところディレクトリ全体の容量が微妙に違います。

ですが、ディレクトリ内の各ファイルの容量はそれぞれ一致しています。
これは、ジャーナリングのメタデータの容量が違うから、ですか?
それとも、RAIDに起因するものですか?

312:login:Penguin
08/10/26 01:23:25 Z2w8/cR8
その「微妙」というのが何KBなのか何MBなのか、そしてどっちが多いのか
エスパーじゃない俺には全然わからないけど
単にディレクトリエントリの消去済み領域の分だったりしないかね。

313:login:Penguin
08/10/26 02:35:57 J0AWp7Ql
コピー元と先のそれぞれ上の階層で
ls -l すると 4096B だけコピー先のディレクトリが小さいので、
おっしゃる通りですね。勉強になりました。

314:login:Penguin
08/10/28 15:40:50 OkmvC/aL
3wareの9500Sで700GB*8のRAID5を構築したのですが、
ファイルシステムが上手く作れなくて大変困っております。
使用しているのはFedora Core 7です。

# parted /dev/sdb
GNU Parted 1.8.6
Using /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number Start End Size Type File system Flags

(parted) mkpart primary ext2 0 -0
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number Start End Size Type File system Flags
1 512B 852GB 852GB primary ext2

となって、5250GBと表示されているのに、パーティションを作ろうとすると
852GBのパーティションしかできません。

RAIDの最初期化なども行ってみたのですが症状は変わりませんでした・・

どなたか、アドバイスを下さいませんでしょうか?

315:login:Penguin
08/10/28 16:02:30 7kZ3n49D
> Partition Table: msdos

なあ、DOSパーティションテーブルで扱えるサイズに上限があるの知ってる?

316:314
08/10/28 16:11:53 OkmvC/aL
できました!大変ありがとうございました。

(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number Start End Size File system Name Flags
1 17.4kB 5250GB 5250GB primary


317:login:Penguin
08/10/28 17:16:12 XbLUcb3e
え〜っと
ネタ……だよね?

318:login:Penguin
08/10/28 17:29:33 XbLUcb3e
しかし、ドライブが普通にTBクラスになってくると
それまで遭遇したことのない状況に直面することも多そうだな。
1TB 1万円の時代がこんなに早くやって来ようとは…

319:login:Penguin
08/11/02 00:36:09 36V/uKQX
すまんが教えてくれ。

500GBx4(RAID5)を構成してたうちの1台が故障したんで、容量アップもかねて
1TBx3(RAID5)に変更した。
データ移行は全HDDを同時に搭載して、md0(500GBx4)とmd1(1TBx3)を作成して
コピーした。
500GBx4を取り外して1TBx3だけにしたんだが、再起動後もmd0じゃなくmd1として
認識される。
今までデバイス名はmd0を使っていたんで、これからもそうしようと思ってたんだが。
CentOS5を使ってるんだが、これをmd0に直すことは出来ないか?

困ってるというほどじゃないんだけど、気持ち悪くて・・・orz

320:login:Penguin
08/11/02 01:09:58 n6/w/1q1
>>319
私も現在稼働中のRAIDの容量アップを狙ってましてその件について気になります。
憶測ですが、

/etc/mdadm/mdadm.conf
/etc/fstab
/boot/grub/menu.lst

の3つを編集すればmd1をmd0にできるかもしれません。
mdadm.confをいじったらmdadmコマンドを実行しないといけないかもしれません。
RAID初心者なのであまり信用しないでください。
判断の材料になればと思いまして書かさせていただきました。

くれぐれもいきなりファイルを書き換えたりせず調べてから行ってくださいね。

321:login:Penguin
08/11/02 01:29:20 36V/uKQX
>>320
レスありがとう。

/etc/mdadm/mdadm.conf
 →今までmd0だったのをコメントアウトし、md1として記載していたのをmd0に書き換えた。
/etc/fstab
 →md0でマウントして欲しかったので、記載は変更せず。
/boot/grub/menu.lst
 →ルートパーティションもカーネル置き場もRAIDの対象外にしてあるので、変更せず。

この状態で、1TBx3(RAID5)がmd1で、md0にはデバイスが何も割り当てられていない。
仕方ないので今は、/etc/fstabを修正し(md0→md1)で動作させてる。

何をすれば直るんだろう・・・

322:login:Penguin
08/11/02 04:27:52 yzuijVl/
>>319
mdボリューム自体に書き込まれてる番号を見てるんで
superblock弄らないと直せない
やめておいたほうがいい

323:login:Penguin
08/11/02 08:56:30 36V/uKQX
>>322
ああ、そうなんだ・・・
わかった。ありがとう。
あきらめることにするよ

324:login:Penguin
08/11/07 08:51:39 1rUaDWwq
アロハですべて解決だお田口くん^^

325:login:Penguin
08/11/08 20:24:12 dUpxLcHs
アロハ田口君、使えないRAID・使えないクソ板というならここにはこないでくれ!

326:login:Penguin
08/11/08 22:09:50 1FtiGeqJ
md raid1なデバイスが開始しなくなったのですが、
縮退も何もしていないようなので原因が掴めずにいます。
再構成すれば正常に復帰することは確認していますが、
どのような原因でこの状況になり、どのような対応をするべきなのか、
勉強のために助言をいただければ大変ありがたいのですが。

# cat /proc/mdstat
md1 : inactive sdb1[0] sda1[1]
12345678 blocks super 1.0

# mdadm --detail /dev/md1
/dev/md1:
Raid Level : raid1
Raid Devices : 2
Total Devices : 2
Preferrer Minor : 2
Persistence : Superblock is persistent
State : active, Not started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

# mdadm --examine /dev/sd[ab]1
/dev/sda1
State : clean
Checksum : 1234abcd - correct
Events : 4
/dev/sdb1
State : active
Checksum : 56789abc - correct
Events : 5

327:login:Penguin
08/11/08 22:30:16 vwNnhBNG
>>326
raid1ドライバは起動時にロードされてる?
パーティションタイプの設定は間違ってない?

328:326
08/11/08 22:39:01 1FtiGeqJ
>>327
全く同様に作成した複数のRAID1デバイスがありますが、このデバイスのみ開始しません。
ちなみにパーティションは/としてマウントされる設定になっています。

329:326
08/11/08 23:01:02 1FtiGeqJ
昨日までは問題なく機能していたのですが、一体何が原因なのやら。
念のため、パーティションテーブルとmdadm.confも
バックアップと比較してみましたが、完全に一致しています。

330:login:Penguin
08/11/08 23:12:58 vwNnhBNG
ルートってのが怪しい気も・・・
# dmesg | grep md
とか

331:326
08/11/08 23:42:00 1FtiGeqJ
>>330
# cat /var/log/boot.msg | grep_wetware md
mdadm: /dev/md0 has been started with 2 drives.
mdadm: failed to RUN_ARRAY /dev/md1: Input/output error
mdadm: /dev/md2 has been started with 2 drives.
mdadm: No arrays found in config file

このシステムは普通のinitrdだと起動しないので、
今Knoppixを改造する方法を調べていますが、メディアがないという・・・。


次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

5047日前に更新/284 KB
担当:undef