1 名前:login:Penguin mailto:sage [2009/09/16(水) 23:34:35 ID:JK/kMdkU] Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/ スレ 3 pc11.2ch.net/test/read.cgi/linux/1168487758/ スレ 4 pc11.2ch.net/test/read.cgi/linux/1208263754/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.com/ja-JP/_common/os_support/linux/ Linux EVMS 一般 ttp://evms.sourceforge.net/ Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。 ... あと続けてくらさい。
2 名前:login:Penguin mailto:sage [2009/09/17(木) 00:31:57 ID:FGAuQfF7] 2隷奴
3 名前:login:Penguin mailto:sage [2009/09/17(木) 10:24:21 ID:a38jzfUh] 前スレ、どうなった? 1000行ってなかった気がするけど、落ちた?
4 名前:login:Penguin mailto:sage [2009/09/17(木) 12:13:32 ID:EBgro0cj] >>3 984でDATE落ちしてて誰もたてる様子がなかったので建てました
5 名前:login:Penguin mailto:sage [2009/09/17(木) 15:09:51 ID:ioZx6ZJ8] >>3 981以上で一定期間書き込みがないと落ちる。
6 名前:login:Penguin mailto:sage [2009/09/19(土) 00:47:59 ID:zqqctU3x] すみませんちょっと質問させてください。 stripe orderって論理的なslotナンバーみたいな認識で良いんでしょうか? ググったんですが解説しているとこがなくて困ってます。 お願いします。
7 名前:login:Penguin mailto:sage [2009/09/19(土) 10:46:29 ID:GE78LuGJ] mdadmでRAID5のアレイにディスクを一本足そうとadd→growしたんだけど うっかりパーティションを切り忘れてディスクデバイスそのものをaddしちゃったので reshapeジョブをいったん止めたい。 しかしmdadmからあれこれ試したところ 何やっても「今やってるからちょっと待っとけ」みたいな表示。 でも素直に待ったら一日かかる。 諦めるしかないかなー?
8 名前:login:Penguin mailto:sage [2009/09/19(土) 12:52:38 ID:NZbmXcrB] バックアップも取らずにreshapeしたのなら諦めるしかないのでは?
9 名前:login:Penguin mailto:sage [2009/09/19(土) 13:40:53 ID:gNI7Yumi] 質問です。 CentOS5.3のmdadmのRAID5で、Rebuild Statusが30%completeぐらいで0%に戻ります。 rebuildしている状態で、mountしようとすると、以下のような感じになります。 何か救済案はないでしょうか。 [root]# mount /data mount: wrong fs type, bad option, bad superblock on /dev/md2, missing codepage or other error In some cases useful info is found in syslog - try dmesg | tail or so [root]# dmesg | tail SCSI device sdk: 1953525168 512-byte hdwr sectors (1000205 MB) sdk: Write Protect is off sdk: Mode Sense: 00 3a 00 00 SCSI device sdk: drive cache: write back md: syncing RAID array md2 md: minimum _guaranteed_ reconstruction speed: 1000 KB/sec/disc. md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for reconstruction. md: using 128k window, over a total of 976759936 blocks. EXT3-fs error (device md2): ext3_check_descriptors: Block bitmap for group 3968 not in group (block 834142208)! EXT3-fs: group descriptors corrupted!
10 名前:login:Penguin mailto:sage [2009/09/19(土) 16:04:25 ID:GE78LuGJ] >>8 いや、つまりムダな時間がかかるから止める方法ないかな?って話なんだけど バックアップがあったらなんかいいことあったかね? どうせ書き戻しやら何やらしなきゃならないからあまりメリットが思いつかないけど
11 名前:login:Penguin mailto:sage [2009/09/20(日) 00:28:14 ID:Br9GWSzG] >>7 sata/md/lvm/fs なオレはパーティションなんぞ切らずにmdでRAID5 array組んでますよ
12 名前:login:Penguin mailto:sage [2009/09/20(日) 00:29:54 ID:Br9GWSzG] >>9 fs壊れてるよ、それ・・・
13 名前:7 mailto:sage [2009/09/20(日) 16:32:20 ID:JfCgkafy] 結局素直に時間で解決したw >>11 俺も昔はそうしてたんだけど、 ある時、アレイの容量を増やそうと同容量のディスクを一本買ってきたら 元あったディスクと新規ディスクの総セクタ数がほんの少し違ってて (つまり新ディスクの方が数セクタ少なくて)追加できず…ということがあった。 それ以来、総容量より僅かに小さいパーティションをきちんと切るようにしたよ。
14 名前:login:Penguin mailto:sage [2009/09/21(月) 14:16:08 ID:Ly9SE+U7] ん? mdならパーティションなんぞ切らなくても 使用容量が指定できたと思うが それに既にあるアレイに追加するなら どう転んでも既に使われてる他のドライブと 同じ容量しか使われない 時間がどーとか悩むだけ無駄
15 名前:login:Penguin mailto:sage [2009/09/21(月) 14:22:07 ID:nwMOYBnG] >>13 嫌過ぎるな > わずかに足りない LVMで500GBx3をLVMでまとめて 1.5TBのディスクのアレイに参加させようとしたらわずかに足りない・・ 良く見たらfree PEがまだまずかに残っていた。lvextendで0になるまでぶちこんだらなんとかなった
16 名前:login:Penguin mailto:sage [2009/09/21(月) 14:39:49 ID:Ly9SE+U7] >>15 LVMでまとめたボリュームをRAIDに加えるって なんでそんな危険なことを? RAIDの意味を真っ向から否定するようなw
17 名前:login:Penguin mailto:sage [2009/09/21(月) 14:42:16 ID:nwMOYBnG] >>16 比較的最近1.5TBをメインのアレイに変えたので これまでの500GBがいっぱい余っているため。貧乏性なので・・
18 名前:login:Penguin mailto:sage [2009/09/21(月) 14:44:27 ID:Ly9SE+U7] >>13 --size または -z
19 名前:login:Penguin mailto:sage [2009/09/21(月) 14:47:49 ID:Ly9SE+U7] >>17 「いっぱい余ってる」なら LVMではなく もう一個足してRAID5のボリュームにして それをもう一段上のRAIDに参加させる の方が正しいような気がする。 面倒くせーから 俺はやらんけどねw
20 名前:login:Penguin mailto:sage [2009/09/21(月) 14:54:51 ID:nwMOYBnG] >>19 正確には6個なので、それも考えたけど。 で、まあ 結局のところ止めました!w リビルド開始までは確認したけど「遅ッ」 1.5TBなら 25MB/sくらいの速度なのだけど LVMまぜたら 17MB/sくらいになって残り時間が「万分」という表示に いや、それも正確にはLVMが悪いのかそれとも 今回初めてRAID6にしているため、RAID6はパリティ計算が小難しいから 遅いのかよくわかっていなかったりする
21 名前:login:Penguin mailto:sage [2009/09/21(月) 14:57:17 ID:0rI++oYo] バーカ
22 名前:login:Penguin mailto:sage [2009/09/24(木) 17:41:10 ID:QOatyG3l] pc12.2ch.net/test/read.cgi/software/1232865288/735 >>教えてください >>質問なんですが外付けのHDDも暗号化できますか? >>2 テラのHDDを4台でハードウエアRAID 0構成したHDDを暗号化して使いたいのですが >>問題有りませんか?
23 名前:login:Penguin mailto:sage [2009/09/25(金) 22:29:45 ID:OgNrc6NB] 素直に1.5TBを購入し 500GBは500GBでアレイにした RAID6って初めてだ。こんな感じ。やっとリビルド終わった記念。チラ裏スマソ。 $ cat /proc/mdstat Personalities : [raid1] [raid5] [raid4] [raid6] md2 : active raid6 sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0] 1953535744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU] md1 : active raid6 sdm1[5] sdl1[4] sdk1[3] sdj1[2] sdi1[1] sdh1[0] 5860543744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]
24 名前:login:Penguin mailto:sage [2009/09/27(日) 19:56:01 ID:OVR/+voC] 電源とSATAホットスワップベイとマルチプライヤーだけのRMな箱売ってないかなー
25 名前:login:Penguin mailto:sage [2009/09/28(月) 10:39:20 ID:Lzc9hMsI] いろいろ調べてみたんだが、明確な内容がつかめないので質問します。(調べ方が足りなかったらすまん) CentOSにて /boot RAID1 swap / RAID1+0 として、InstallしたいのだがInstallerには、RAID0, 1, 5, 6 しかないのでInstallerから組むことはできないと思うが Install後に何か手を加えてRAID10でパーティション構築して、/ として使用する方法はない?
26 名前:login:Penguin mailto:sage [2009/09/28(月) 11:40:16 ID:1pzidZ2O] FedoraだったらインストーラでRAID10できるんだけどなー
27 名前:login:Penguin mailto:sage [2009/09/28(月) 13:28:48 ID:C/Lh+sXP] >>25 インストール中にコマンド打って、あらかじめ好きなようにmdを作っておいて、 そこにインストールする、という手順じゃダメ?
28 名前:login:Penguin mailto:sage [2009/09/29(火) 17:04:26 ID:uKmkyA+r] >>25 一旦USBメモリとかにインストールして、カーネルを入れ替えてから、好きなような構成に設定したHDDにまるごとrsyncでコピる。
29 名前:login:Penguin mailto:sage [2009/10/04(日) 20:06:23 ID:QoLrolGm] >>24 裸族の雑居ビルじゃだめなんか
30 名前:login:Penguin mailto:sage [2009/10/13(火) 14:47:09 ID:IKMNvC1+] ざぞくのらっきょビル
31 名前:login:Penguin mailto:sage [2009/10/18(日) 20:32:48 ID:kyzATX8H] システム:md0(sda1 + sdb1のraid1) + データ:md1(sda3 + sdb3のraid1) という構成でシステムを再インストールしたいのですがどうすればいいのでしょう? 1.sdb1をfail&removeしてmd0から除く 2.sdb1に新システムをインストール 3.sdb1から起動し、元のmd0(sda1のみ)にシステムをコピー&grub設定 4.sda1から起動し、sdbをadd と思ったのですが…1の時点でコケました。 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、 と、ワケワカランとなってしまいました。 # そもそもmd0のシステムを入れ替えてmd1って動くのでしょうか?
32 名前:login:Penguin mailto:sage [2009/10/18(日) 20:43:55 ID:/Yo7fcPn] > 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、 > 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、 BIOSでの起動ドライブの指定は意図した通りに設定してあんの? 至極まっとうな動作だと思うが 1枚だけで起動できなきゃなんの為のRAID1なんだ
33 名前:login:Penguin mailto:sage [2009/10/19(月) 10:35:44 ID:F1hFmcmu] 何をしたいのかさっぱりわからん。
34 名前:login:Penguin mailto:sage [2009/10/19(月) 12:01:56 ID:5c6ufY3t] BIOSのHDD起動順序
35 名前:login:Penguin mailto:sage [2009/10/19(月) 12:23:40 ID:OwtH0QAV] つか RAIDのレベルで二つに割ってる意味がサッパリ分からん。 ボリューム分けたいなら普通はLVMでやるもんだと思うが。 パフォーマンスが落ちるだけじゃねーの?
36 名前:login:Penguin [2009/10/19(月) 12:44:43 ID:Js6Cpgcr] LVM挟んだほうが明らかにオーバーヘッドが一枚多いだろw
37 名前:login:Penguin mailto:sage [2009/10/19(月) 16:32:02 ID:Sjy8xwGc] 明らか か?
38 名前:login:Penguin mailto:sage [2009/10/19(月) 21:48:33 ID:fwC9TQj2] 実効"ほぼ"ゼロってのは叩きやすいからね 定量的に考えられない奴が引っかかるから扇動しやすい
39 名前:login:Penguin mailto:sage [2009/10/20(火) 11:23:21 ID:nQrL8SHf] パフォーマンスはともかく ディスク故障->交換時にかかる手間暇に関しては LVMで分けた方がずっと楽だな。
40 名前:login:Penguin mailto:sage [2009/12/14(月) 19:40:04 ID:RyeiL2Wz] LinuxMDでHDD4本でRAID1を2本ずつかけてるんだが、 複数のmdデバイスを同時にresyncかけるのはできるのかな? OSインストール時に二個同時に走ってるのを/proc/mdstatで見たんだけど、 再起動すると一個ずつになってる、、 同時でやれば速く終わるはずなんだけど
41 名前:login:Penguin mailto:sage [2009/12/15(火) 11:32:32 ID:tx5kvce1] >>40 > 同時でやれば速く終わるはずなんだけど むしろ遅くなりそうな気がするが。 同一のCPU、同一のコントローラで 二つの処理を同時に行わせるんだよな?
42 名前:login:Penguin mailto:sage [2009/12/15(火) 14:19:25 ID:CbO7zir3] >>41 そうなんだけども、CentOSインスコ時の裏ターミナルで見たら二本のRAIDペアが同時でMAX近いスピードが出てるんだよ。 resync終了前に再起動すると起動してからresyncが走るけど一本ずつresyncに。 同時並行でresyncできるかmd.txt見てもそんなパラメータないし謎、、
43 名前:login:Penguin mailto:sage [2009/12/15(火) 14:52:55 ID:kA6phnL8] ボリュームの初期化と データが入ってるボリュームのresyncでは 話が全く違うように思える
44 名前:login:Penguin mailto:sage [2009/12/15(火) 16:18:22 ID:CbO7zir3] >>43 もち、買ってきたばっかのブランクHDDです
45 名前:login:Penguin mailto:sage [2009/12/15(火) 17:52:50 ID:DeZ5m+oO] 単にrcスクリプトの問題じゃねえの
46 名前:login:Penguin mailto:sage [2009/12/16(水) 02:11:43 ID:5fywQ9w/] ひょっとしたらmdadmで作成した時だけは同時に走るのかもしれない… で再起動してからは同期が終ってないから普通に順番に走ると。 客先とかで組むと最後まで完了しないと帰れないのでって事情ですw
47 名前:login:Penguin mailto:sage [2009/12/16(水) 11:50:39 ID:cGLo5n8p] そういう事情なら 前の日のうちにresync済ませておいたHDDを持ち込めば 再認識させるだけで即座に帰れるぞw
48 名前:login:Penguin mailto:sage [2009/12/23(水) 17:30:17 ID:zGW6BKPU] LVMもRAIDに加えられるようなのでちょっと悩み中 今、自宅ファイルサーバの構成が 500GB 2個 1TB 2個 1.5TB 1個 という構成 OSは80GBのHDDに入れている 容量が足りなくなったついでにRAID5を組もうと思い、 1.5TB 2個を追加しようと思っている ここで、A案かB案か迷っている A案 500GB+1TBで1.5TBのLVMを組んで 1.5TB 5個でRAID5を組む B案 1.5TBをfdiskで500GBと1TBのパーティションで切って 500GB 5個と1TB 5個でそれぞれRAID5を組む 今後のディスク追加は1.5TB以上だと思うのでA案を考えているけど、 A案だと再構成に何日もかかるのかな?
49 名前:login:Penguin mailto:sage [2009/12/23(水) 18:40:50 ID:DJuG93Mm] どちらかといえばB案かな。大容量での再構成はできれば避けたい。 ただ、両方のボリュームへの同時アクセスでヘッドの取り合いになりそうではある。 このあたりはアクセスパターン次第かと。 もしAなら、LVMにしなくてもlinear arrayでつなげばいい気がしないでもない。 mdXもRAIDに参加できる で、冗長性を保った状態で容量拡張をしたいならRAID1+LVMが一番楽。 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら 一番小さいアレイからデータ掃き出して外す。 うちはこれで、1発250GBの時代から新陳代謝させて 今 1TB RAID1 x 3 + 500GB RAID1 x2 になってる。 このあたりは容量効率をとるかメンテナンス性を取るかの判断かな
50 名前:login:Penguin mailto:sage [2009/12/23(水) 23:29:29 ID:o+oOXBGn] 3台のRAID5(md0)を4台構成に変更しようと思い、下のコマンドを実行していくと失敗する。 # mdadm /dev/md0 -a /dev/sdd1 mdadm: hot added /dev/sdd1 # mdadm -G /dev/md0 -n 4 mdadm: Cannot set device size/shape for /dev/md0: Invalid argument ちなみに、md0はLVMに組み込まれています。 今までこのようなことをが起きた事はなかったのですが、どなたかご存知の方、教えていただけませんか?
51 名前:login:Penguin mailto:sage [2009/12/24(木) 00:01:18 ID:SIaUuIyu] >>49 > 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら > 一番小さいアレイからデータ掃き出して外す。 参考までに教えて欲しいのだが、この掃き出しというのはpvmoveで 大きいアレイにデータを寄せて、resize2fsでfsを縮小、 vgreduceでLVをVGから外す、という流れでおk?
52 名前:login:Penguin mailto:sage [2009/12/24(木) 02:50:17 ID:NQCo/TNI] >>51 減らすときはfs-LV-VG-PVっていうレイヤの上から、増やすときはその逆。 なので手順はresizefs→lvreduce→vgreduce→pvremoveだし、 増やすときはpvcreate→vgextend→lvextend→resizefs
53 名前:login:Penguin mailto:sage [2009/12/24(木) 02:52:07 ID:NQCo/TNI] 途中で送信してしまった。 (通常の構成なら)RAID(md)層はPVのさらに下に来る。 あとはLVMスレで頼む
54 名前:login:Penguin mailto:sage [2009/12/24(木) 12:29:30 ID:VyYXnLPe] >>52 lvreduceすると自動的にpvmoveされるっけ?
55 名前:login:Penguin mailto:sage [2009/12/24(木) 13:03:22 ID:VyYXnLPe] Linuxのmdで、ローカルにATAやSCSIのディスクがつながっていて なんらかの冗長化をしたい、というシチュエーションに限定した話で いいんですけども、 ・ディスク全体でmdを構成して、md上にパーティションをつくる ・パーティション分けてから、パーティションごとにmdをつくる 利点欠点について説明する場面があるんだけど、何を言えばいいだろう。 その気になれば後でどうにでもなるからどっちでもいいや、 とつい思ってしまうんだけど…… 話す相手は「コンピュータには慣れているけど(学問的な意味で) サーバメンテ的なことには詳しくない人」です。
56 名前:login:Penguin mailto:sage [2009/12/24(木) 13:10:57 ID:wt0k8Pk+] つまり、お前もよく理解していないってこった。
57 名前:login:Penguin mailto:sage [2009/12/24(木) 21:07:27 ID:NQCo/TNI] LVMスレへの誘導をもろともしないバカなんだし、許してやれよ…
58 名前:login:Penguin [2009/12/25(金) 09:54:17 ID:Bu/8ScH4] >>50 > ちなみに、md0はLVMに組み込まれています。 答えが書いてあるんじゃないかって気がする。
59 名前:login:Penguin [2009/12/25(金) 09:56:03 ID:Bu/8ScH4] >>57 誤:もろともしない 正:ものともしない
60 名前:login:Penguin mailto:sage [2009/12/27(日) 22:44:10 ID:xPaTeqXA] >>52 が>>51 への返答になってないことにも気づかず偉そうだな…… > /dev/null
61 名前:login:Penguin mailto:sage [2010/01/04(月) 22:46:36 ID:kJMQbgtx] ねぇ、LVMで足らない分をポチポチ足していったら JBODみたいに1つでも壊れたらまずいHDDアレイにならない?
62 名前:login:Penguin mailto:sage [2010/01/18(月) 01:11:33 ID:FrA+yAqo] >>48 ですが、A案で構成中に問題が >>49 さんを参考に500GB+1TBをlinear arrayでつないでみたのですが、 OS再起動するとRAID構成から外れてしまう # mdadm --create /dev/md1 --level linear --raid-devices 2 /dev/sdf1 /dev/sdg1 # mdadm /dev/md0 --add /dev/md1 # mdadm --grow /dev/md0 -n 5 これで一旦はmd0に組み込まれるんだが、OS再起動すると/dev/md1が外れる 恐らくOS起動時、/dev/md0を構成するときに/dev/md1が構成されていないからだと思うんだが /dev/md0を/dev/md9としてもダメだった 今度lvmからmd0への組みこみを試してみようと考えているが、 linear arrayでできる方法はないのだろうか?
63 名前:login:Penguin mailto:sage [2010/01/19(火) 20:18:03 ID:+d0hdVIw] initrd作り直したか?
64 名前:login:Penguin [2010/01/20(水) 18:35:12 ID:XwDp0ABh] ubuntu9.10からのpalimpsestディスクユーティリティつかったソフトウェアRAIDやってる人はいるかい?
65 名前:login:Penguin mailto:sage [2010/01/20(水) 19:29:48 ID:ndWbRgCE] まぁFedora11から入ってるから、いるんじゃね?
66 名前:login:Penguin mailto:sage [2010/01/21(木) 00:16:24 ID:VDTPOdY5] いやー自動マウントの設定がうまくいかなくてさー
67 名前:login:Penguin mailto:sage [2010/01/23(土) 03:37:11 ID:3Mk8FRSB] そこそこIOPSの高い数TBのストレージを作りたいんですが、 基本的にはディスク本数を増やすアプローチで良いのでしょうか?
68 名前:login:Penguin mailto:sage [2010/01/23(土) 10:49:58 ID:NzyUkd6I] 数TB程度ならSSD並べるだけでいいだろ
69 名前:login:Penguin [2010/02/05(金) 18:22:40 ID:0skLHFUh] swapを冗長化するという話はほとんど聞きませんが、 swap域でディスクエラーが起きたらどうなるのでしょうか? プロセスが突然死するのでしょうか? 暴走することもあるのでしょうか? 一般には、swapを冗長化するデメリットが プロセスが突然死したりするかもしれない心配より 大きいと考えられているのでしょうか?
70 名前:69 mailto:sage [2010/02/05(金) 18:25:40 ID:0skLHFUh] 別の質問です。 sdaとsdbでraid1を組んだとき、 sdaがあるビットは1だと言い、sdbはそのビットは0だと言ったら 何が起こるのでしょうか?
71 名前:69 mailto:sage [2010/02/05(金) 18:34:06 ID:0skLHFUh] >>70 これは間抜けな質問だったかもしれません。raid5などと混同していました。 無視してくださって結構です。
72 名前:login:Penguin mailto:sage [2010/02/05(金) 18:39:23 ID:hTXVw8Is] >>69 前半 YES。ただそれが問題になる場合は、スワップをしないように最大まで メモリを載せる。スワップしたら負け。
73 名前:69 mailto:sage [2010/02/05(金) 18:44:53 ID:0skLHFUh] >>72 早っ。 今までスワップは、とにかくするもんだと思っていましたが、吹っ切れました。
74 名前:login:Penguin mailto:sage [2010/02/05(金) 18:47:13 ID:VwALYjfj] >>69 実際にやってみた。 物理メモリにマッピングされているページを、わざとスワップアウトさせた状態で: sudo /bin/sh -c 'cat /dev/zero >/dev/<swap>' ええ、フリーズしました。 どうしたらよいでしょうか?電源ボタン長押しでいいですか?
75 名前:login:Penguin mailto:sage [2010/02/05(金) 19:19:11 ID:j8P2r62W] 物理メモリの延長と考えればメモリの破損だからなあ そりゃ止まるよね
76 名前:login:Penguin mailto:sage [2010/02/05(金) 19:25:12 ID:VwALYjfj] でもさ、ユーザ空間のプロセスなんてカーネルに管理されているんだから 強制的に終了させられることは珍しくないじゃん? だからさーそういう例外を予測して、完全には無理だろうけど、 フェイルセーフな方向に失敗させるのがプログラマの仕事じゃないかな?
77 名前:login:Penguin mailto:sage [2010/02/05(金) 21:54:13 ID:/2F2WLUF] OSとアプリの責任分界をまるっきり無視だなw
78 名前:login:Penguin [2010/02/06(土) 02:29:34 ID:NYl8i1Ri] 初心者なのでこのスレには不似合かもしれないんですけど 緊急事態なので教えてください REID0を組んでるのですがマザーが逝ってしまったらしく BIOSまで行き着かず電源が落ちてしまいます なんとかHDのデータだけでも救出したいのですが ほかのマザーでもREIDのHDは認識しますか? 可能でしたらその手順も教えていただけたら... お願いいたします
79 名前:login:Penguin mailto:sage [2010/02/06(土) 07:27:04 ID:OzdAS2DW] ソフトRAIDなのかハードRAIDなのか。 ハードなら同じハードを揃える。 ソフトなら移し変えるだけ可じゃね? もうちょっと環境詳しく。
80 名前:login:Penguin [2010/02/06(土) 09:53:58 ID:NYl8i1Ri] >79 ありがとうございます DELL DIMENTION 9100のBTOのメーカー設定のソフトウェアREIDです 自分としては他のマザーで大丈夫なら 今時のマザーとCPUを購入して他のパーツを流用できれば理想なのですが 同じマザーでなければ無理なようでしたら ヤフオクで純正のマザーを落とそうかと思ってます
81 名前:login:Penguin [2010/02/06(土) 14:55:17 ID:kWyCQKjd] WindowsXPモデルしか無いみたいだけどここはLinux板だよ。
82 名前:login:Penguin mailto:sage [2010/02/06(土) 15:04:03 ID:y6S0x+iZ] REID て。
83 名前:login:Penguin mailto:sage [2010/02/07(日) 04:45:16 ID:HVHbakeU] ローマ字入力してる人に多いタイプミスだから気にしない… (わたしは親指シフトだから…笑)
84 名前:login:Penguin mailto:sage [2010/02/07(日) 05:10:36 ID:Is4alLXh] タイプミスだろうが何だろうが繰り返してる上に直す気がない時点でダメ認定済みなわけだが
85 名前:login:Penguin mailto:sage [2010/02/07(日) 06:19:54 ID:e3D699rK] RAID0でデータを救出って時点で頭おかしいね RAID0はなくなってもいいデータを入れるものだろうに
86 名前:login:Penguin mailto:sage [2010/02/07(日) 07:13:30 ID:kPG49Q02] >RAID0でデータを救出って時点で頭おかしいね ディスクが逝かれたってことじゃないみたいだし、 そこは別にいいだろ。
87 名前:login:Penguin mailto:sage [2010/02/13(土) 05:44:18 ID:nV0eWbuV] 質問です 元々 本体:eSATAカード増設 外部ストレージ:PMP対応のeSATA接続の箱にHDD2本(sdc, sdd)でRAID0 OS:fedora 11 の構成のサーバにfedora12をクリーンインストールしました。 インストール後、sdc、sddとも見えてて、sdc1、sdd1の各パーティションも0xfdで見えてますが、 RAID0の状態では見えていない状況です この状態でRAIDの組みなおしは可能でしょうか?
88 名前:login:Penguin mailto:sage [2010/02/13(土) 07:31:30 ID:0ecMg6dD] 意味不明
89 名前:login:Penguin mailto:sage [2010/02/13(土) 09:03:14 ID:TRB1DKG4] たぶん, sdaにFedora11入れてて,sdc,sdcをSoftRAIDしてたのが, sdaをFedora12にしてSoftRAID設定が消えちゃったって 言ってるみたいだね〜 Fedoraに強い人!助けて〜(笑
90 名前:login:Penguin [2010/02/13(土) 13:22:54 ID:ZQ7DCUTq] >>87 まず確認してほしいけど、起動後に、 mdadm -A /dev/md0 /dev/sdc1 /dev/sdd1 とすると、RAID0のアレイは動くんだよね? それで動かないようなら、dmraidが悪さをしている可能性がある dmraid -r としてみて、/dev/sdcや/dev/sddが出てくるようならそれに該当する
91 名前:login:Penguin mailto:sage [2010/02/13(土) 13:38:35 ID:0WzASaEG] ソフトウェアRAIDで、dmraid って、ググっても古い記事しか見つからないんだけど、今でも再構築周りの不安定さってあるんでしょうか。確実に再構築できることを求めるなら、やっぱり md で組むべき?
92 名前:login:Penguin [2010/02/13(土) 13:56:06 ID:ZQ7DCUTq] >>91 逆にdmraidを使いたい理由を教えてほしいんだけど Windowsとかとアレイを共用してるとか? それとも最近のマザーにはparity計算するハードとか載ってるのかな? 枯れてるという意味でも、柔軟性でもmdの方がいいと思うけどな たとえば、マザーが壊れたとかした場合、dmraidだと移行が面倒 mdだとそんな制限ないし、スーパーブロックの構造もわかってるので、壊れても なんとか修復できたりする
93 名前:login:Penguin mailto:sage [2010/02/13(土) 15:11:10 ID:nV0eWbuV] >>90 返信ありがとうございます。 fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが /devを見たところsdc1、sdd1ともない状況でした 現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1 とやってみたところinvalid major number '8' とでてきて詰まってる状況です ちなみにmdadm -A /dev/md5 /dev/sdc /dev/sddを実行した結果を貼り付けて見ます [root@sv1 ~]# cat /proc/mdstat Personalities : [raid1] md5 : inactive sdc[1](S) sdd[0](S) 4514 blocks super external:imsm
94 名前:login:Penguin [2010/02/13(土) 15:49:26 ID:ZQ7DCUTq] >>93 >fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが >/devを見たところsdc1、sdd1ともない状況でした あり得ない。じゃあ、fdiskは何のファイルをオープンしてるんだよって話だ 実際そうなんだというなら、 strace fdisk /dev/sdc の結果を張ってみてくれ >現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1 >とやってみたところinvalid major number '8' とでてきて詰まってる状況です その「XX」が合ってるかどうか気になるな デバイスファイル作るなら /dev で ./MAKEDEV sdc としてみたら?(余計なファイルもいっぱいできるけど) まぁ、いずれにしても通常はudevが作るわけだし、mknodできないとすれば別の理由か mount の結果と dmesg の結果でも張ってみてくれよ(dmesgは長いからsdc、sddの認識部分だけでいいや)
95 名前:login:Penguin [2010/02/13(土) 15:54:37 ID:ZQ7DCUTq] >>94 自己レス ちょっと勘違いしてた 状況を整理すると、/dev/sdcと/dev/sddは存在しているわけだな。んで、/dev/sdc1と/dev/sdd1がないと パーティションテーブルが壊れているのか、非互換なのか…という感じですか とりあえず fdisk -l /dev/sdc fdisk -l /dev/sdd の結果と、dmesgのsdcとsddの認識部分のログが見たいですな
96 名前:login:Penguin mailto:sage [2010/02/13(土) 16:00:09 ID:nV0eWbuV] >>95 度々すみません # fdisk -l /dev/sd[c,d] ディスク /dev/sdc: 500.1 GB, 500106780160 バイト ヘッド 255, セクタ 63, シリンダ 60801 Units = シリンダ数 of 16065 * 512 = 8225280 バイト Disk identifier: 0x00072abe デバイス ブート 始点 終点 ブロック Id システム /dev/sdc1 1 60801 488384001 fd Linux raid 自動検出 ディスク /dev/sdd: 500.1 GB, 500107862016 バイト ヘッド 255, セクタ 63, シリンダ 60801 Units = シリンダ数 of 16065 * 512 = 8225280 バイト Disk identifier: 0x00095176 デバイス ブート 始点 終点 ブロック Id システム /dev/sdd1 1 60801 488384001 fd Linux raid 自動検出 (続く)
97 名前:login:Penguin mailto:sage [2010/02/13(土) 16:05:59 ID:nV0eWbuV] (続き) # dmesg | grep sd[c,d] sd 6:0:0:0: [sdc] 976771055 512-byte logical blocks: (500 GB/465 GiB) sd 6:0:0:0: [sdc] Write Protect is off sd 6:0:0:0: [sdc] Mode Sense: 00 3a 00 00 sd 6:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sdc: sd 6:1:0:0: [sdd] 976773168 512-byte logical blocks: (500 GB/465 GiB) sd 6:1:0:0: [sdd] Write Protect is off sd 6:1:0:0: [sdd] Mode Sense: 00 3a 00 00 sd 6:1:0:0: [sdd] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sdd: sdc1 sd 6:0:0:0: [sdc] Attached SCSI disk sdd1 sd 6:1:0:0: [sdd] Attached SCSI disk >その「XX」が合ってるかどうか気になるな # ll /dev/sdc brw-rw---- 1 root disk 8, 32 2010-02-13 15:31 /dev/sdc となっていましたのでマイナー番号は33を指定してました
98 名前:login:Penguin [2010/02/13(土) 16:23:17 ID:ZQ7DCUTq] >>96 >>97 fdiskの結果もおかしくないし、デバイス認識にも問題ない mknodのマイナー番号指定もおかしくない(33であってる) だけど、/dev/sdc1の作成には失敗するし、そもそもudevでの自動認識もできないわけですか どうにも謎ですな PMPに接続しているHDDをマザー上のSATAポートに接続しなおしてテストしてみるというのはどうでしょう ある程度問題の切り分けが可能かも。または、別のHDDを接続して、区画設定からやり直すとか SELinuxが何かしてる? restorecon -R /dev してみるとか(これで解決するとも思えんが…)
99 名前:login:Penguin mailto:sage [2010/02/14(日) 20:11:05 ID:32z55fMa] >>92 いえ。dmraid の方が高速だって記事を見かけたことがあるもので(ソースは失念しました)、安定してるなら入れてみようと思っただけなんです。
100 名前:login:Penguin mailto:sage [2010/02/15(月) 08:42:59 ID:dKzXeQoa] >>99 どっちも似たような処理をするわけだし、dmraidの実装が極端に優れているとかでなければ、速度差はそれほど期待 できない気がするなぁ。ちょっとググってみたけど、明確な性能差があるという最近のベンチ結果は見当たらなかった (あまりしつこくは検索してない) もしも速度差があるとすれば、dmraidがやるべきことをやっていないとかじゃないの? dmraidのソース見たけど、未実装な機能であるとか、「more sanity check」とかのコメントが結構あったよ mdでは、最近、バリアの実装が全RAIDレベルで完了したみたいだし、安全性考えるならばmdでしょ そもそもdmraidではRAID 4/5使うにはまだカーネルにパッチを当てないといかんし、RAID 6に至っては未サポート その上、ハード依存性もあるとなっては、俺なら多少の速度差程度では使う気にならんなぁ もちろん使ってみてベンチマークとか取って報告してくれると嬉しいが
101 名前:login:Penguin mailto:sage [2010/02/15(月) 18:31:35 ID:3eiOHoeN] 質問があります.長文ですがよろしくお願いします. 現在Vine linux 4.2 でファイルサーバを構築しています. mdadmにて1.5T3台でRaid5の状態から,もう一台追加で 1.5T4台にしようとしたのですが, # mdadm --manage /dev/md1 --add /dev/sdb1 mdadm: added /dev/sdb1 の後に--growを行ったところ # mdadm --grow /dev/md1 --raid-disks=4 mdadm: Need to backup 384K of critical section.. となりエラーになります. 簡単に調べたところ,海外のサイトで カーネルが2.6.19以降でないとraid5のgrowができないとあったので Vine4.2のカーネルが2.6.16なのが原因だと考えていますが それであっているでしょうか? また,カーネルが問題なら,Vine5は文字化けの問題その他で アップグレードを躊躇しているので これを機に他のディストリに移行しようかと思っています. このときにRaidのデータを残したまま移行する方法はありますか? もしあれば教えていただきたいです.
102 名前:login:Penguin [2010/02/15(月) 19:46:15 ID:dKzXeQoa] >>101 raid5のgrow対応は2.6.17からじゃなかったかな。いずれにしても2.6.16なら駄目かな んで、これはエラーじゃなくて、正常時にも同様のメッセージが出るよ >mdadm: Need to backup 384K of critical section.. >これを機に他のディストリに移行しようかと思っています. >このときにRaidのデータを残したまま移行する方法はありますか? 基本的にどのディストリであっても、そのまま移行できます でも何があるか分からないから、バックアップは取っておきましょう
103 名前:login:Penguin mailto:sage [2010/02/15(月) 20:10:52 ID:VLzsUrgl] >>101 Vine4.2で 1.5TB x 6 のRAID6 500GB x 6 のRAID6 やってますよ。 過去にはRAID5 500GB x 4 をGrowで 500GB x 6にしたり普通にやってました。 Linux ***** 2.6.16-76.40vl4 #1 SMP Sun Nov 9 04:43:51 JST 2008 i686 athlon i386 GNU/Linux 普通にできるからガンガレw貴重なVineの友w
104 名前:login:Penguin mailto:sage [2010/02/15(月) 20:16:50 ID:Qu2WEuRS] >>101 カーネルのバージョンに加えてmdadmのバージョンも問題(2.6以上じゃないとダメ)。 Debian etchはカーネルが2.6.18なんだけどmdadmが2.5.xだったのでRAID5のgrowができなかった記憶が。
105 名前:101 mailto:sage [2010/02/15(月) 20:35:37 ID:3eiOHoeN] 皆さん早速の返事ありがとうございます. >>102 すいません,一行コピーできていませんでした. エラーは3行目だと思います. # mdadm --grow /dev/md1 --raid-disks=4 mdadm: Need to backup 384K of critical section.. mdadm: Cannot set device size/shape for /dev/md1: Invalid argument です.早速カーネルをあげてみます. >>103 あなたもVineですか. Vineは最近話題に上ることが少なくなった気がしたので 仲間がいると分かってうれしいです. 私もできるならVineのままでいきたいのでもう少しがんばってみます >>104 mdadmのバージョンは考えてもみませんでした. 確認したところ mdadm - v2.5.5 - 23 October 2006 でしたので,こちらもバージョンアップします. 早くやりたいけど,まだ家に帰れない...
106 名前:103 mailto:sage [2010/02/15(月) 21:04:45 ID:VLzsUrgl] >>105 過去の自分の作業ログを見たところ 500GBx4→500GBx6のときはraidtools、 1.5TBx4→1.5TBx6のときは piro791.blog.so-net.ne.jp/2008-11-07 ここを参考にやってました。 がんばってください。 自分のmdadm も2.5.5でバージョン全く同じです。
107 名前:login:Penguin mailto:sage [2010/02/16(火) 12:07:46 ID:U/2RUOkN] でもVine 4.2なら直にメンテナンスされなくなるし、 いずれは5.xに行くか他のディストリに移る必要があるよ。 5.xへの移行はデフォルトの文字コードその他、 他のディストリに移行するのと大差ない面倒があるので俺は結局CentOSに移った。 RedHat系なら yum の使い方覚える必要がある程度で Vineでのノウハウがそのまま使えるし大した問題はない。 確か俺もVineでは growがうまく行かなかった記憶がある。 その時は調べた結果「ああ、kernel が古いのか」で納得したと思う。 >>103 が「普通にできる」てのがちょいと信じ難いが… >>103 の kernel はいくつなのかな? ま、Vineにはつきもののこの手のトラブルが皆無になるし 将来のことを考えると結局は他所へ移った方が楽だと思う。 メジャーなディストリだとトラブル時にネット上での情報量が多いしね。
108 名前:login:Penguin mailto:sage [2010/02/18(木) 00:39:32 ID:WHcn7By1] >>100 あーソースまではチェックしてなかったです。 ううむ。未だにその状況だと実運用に使えるようになるのは当分先ですね。 今自宅にPCないので手軽にベンチがとれる環境を作れないんです。個人で借りてるサーバーに突っ込んでみようかと思っていたのですが、今回は見送ることにします。 ありがとうございました。
109 名前:login:Penguin [2010/02/22(月) 11:49:13 ID:/vv6ceYV] RAID1を構成するディスクを読んだら、それぞれ違う値を返した、 ということはあり得るのでしょうか? このとき物理的なエラーは検知できなかったとします。
110 名前:109 mailto:sage [2010/02/22(月) 11:54:40 ID:/vv6ceYV] >>70 の質問をした者です。 結局同じ質問になっていたことに気付きました。 質問を変えます。 RAID1に'a'と書きこんだのに、続けて同じ場所を読んだら'b'となっていた。 このとき物理エラーは検出されなかった。ということはあり得るのでしょうか?
111 名前:login:Penguin mailto:sage [2010/02/22(月) 14:57:06 ID:mO3WnbsM] ハードもソフトも人間が作ったもんだから、 「ありえるか」って言えば、ありえるんじゃね? ところで、mdadm --detail /dev/md0 の結果でさ、 Events って何なんだろうね。 manpage 見ても、よくわかんなかったよ。 Events : 0.40 Events : 0.70880 Events : 0.26 Events : 0.60 4 台とも RAID1 のサーバだけど、いろいろ違うもんだね。
112 名前:login:Penguin mailto:sage [2010/02/22(月) 18:04:22 ID:6N04FDxr] 低熱高熱状態でのHDDに書き込んだデータの化けはありうるわけだし だからRead After Writeを実装してるHDDもあるし こんとき物理エラーは検出されん つか出来ん
113 名前:109 mailto:sage [2010/02/22(月) 18:30:32 ID:/vv6ceYV] >>111 質問が下手すぎました。 >>112 どんな強力なRAIDでも、物理エラーとして検出されないエラーを修復することは できないのですね。そういうことを気に病むより、SMARTなどの対策を打ったほうが いいと思うようになりました。
114 名前:login:Penguin mailto:sage [2010/02/27(土) 02:12:27 ID:qDAtQXVH] 今HDDのヘッドが読み出すときのビット誤り率(BER)は10-9程度 最近はエラー訂正に頼る傾向があるから、リニアでは10-6程度と逆にエラー発生率は高くなってる でも逆に符号訂正の技術が高くなっているから、実際に伝送路に乗る品質は10-15乗以上にもなる この次元の値のエラー率になると、もはやメモリーやバスやCPU、強いてはRAIDカードのコントローラーに乗るノイズで発生するエラーの確率のほうが高い。 それでもハードディスクの誤りが怖いというのであれば、次世代の量子コンピューターの登場まで待つんですな。
115 名前:109 mailto:sage [2010/02/27(土) 16:01:38 ID:+q4ml44K] >>114 ありがとうございます。勉強になりました。
116 名前:login:Penguin mailto:sage [2010/03/20(土) 18:21:41 ID:SpYbO4RY] WD20EARSでmd RAIDやってる人はいませんか? RAIDパーティションを64セクタ目から作成して、mdのストライピングサイズを64KBで 作成したとします。 mdに加えたHDDのRAIDパーティションの先頭にはmdの情報が保存されていると思います。 mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。 実際に使える先頭セクタの場所が8の倍数でない場合は、WD20EARSをWinXPで使う場合と 同じようにパフォーマンスダウンするのではないかと思っています。 これってどう思いますか? 各HDDにおけるmdの情報が4096bytesの倍数であれば多分問題ないんだろうと思うんですけど。
117 名前:login:Penguin mailto:sage [2010/03/20(土) 18:24:30 ID:SpYbO4RY] 5行目を訂正します。 誤:mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。 正:mkfsにとって実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。 言いたいことって、伝わりますか? うまく言語化できない。
118 名前:login:Penguin mailto:sage [2010/03/20(土) 18:26:25 ID:aN8kdh7Y] ttp://lkml.indiana.edu/hypermail/linux/kernel/1003.1/03467.html ttp://lwn.net/Articles/377895/
119 名前:login:Penguin mailto:sage [2010/03/20(土) 18:57:33 ID:SpYbO4RY] >>118 このリンクはLinuxにおける4096bytesセクタに対する考察なだけっぽい気がします。 うまく言いたい事を表現できない自分が悪いんですけどね。 たとえば1つのmdパーティションにmdの管理情報が4096bytes必要だとします。 それならば次のセクタから64KBでストライピングしても、別にセクタをまたがった アクセスにならないので問題ないと思います。 もし管理情報が2048bytesだとしたら、セクタをちょうど二つに分けた形で ストライピングされてしまうので、強烈なパフォーマンスダウンになると思います。 ここまで書いて、どう書けばいいのかわかりました。 RAIDパーティション当たりのmd管理情報って何KBなんでしょうか?
120 名前:login:Penguin mailto:sage [2010/03/20(土) 19:23:29 ID:TrISQUCw] 一番の誤解はmdのスーパーブロックは末端に在るってことかな
121 名前:login:Penguin mailto:sage [2010/03/20(土) 19:31:49 ID:TrISQUCw] バージョン0.9/1.0の場合だこれ 1.1/1.2だと先頭だわ 詳細はmd(4) mdadmは0.9がデフォルトだけども
122 名前:login:Penguin mailto:sage [2010/03/20(土) 20:28:44 ID:SpYbO4RY] >>120 で、すげえ!やったネ!って思ったけど >>121 なんという改悪でしょう。 man見てみましたけど、私には分かりませんでした。 考えてみたら、mdの管理情報が問題ないとパスできたとしても ext3の管理情報サイズまで考えないといけないですよね。 WD20EARS買うのをやめようかな〜。 安いから特攻しようかと思ったんですけど。
123 名前:login:Penguin mailto:sage [2010/03/21(日) 20:28:32 ID:SqWw8gw9] 知っている人に質問。 3wareの7000とか9550のSATA RAIDボードに既存のデータが保存されたHDDをつなげるとき、UNITの構築しなくても /dev/sdc1 とかでマウントして利用できる? Single DiskとしてUNIT構築を行おうとすると、既存のデータが破壊されますけどどうします?と聞いてくるんで。
124 名前:login:Penguin mailto:sage [2010/03/21(日) 20:43:39 ID:plED2x3n] >>123 3ware使ってないけど、大抵のRAIDカードは管理用の情報をHDDに書き込むから 単体HDDとして使う場合も中身は壊れるよ。 3ware使ってる人に聞きたいのならこっちのスレのほうがいいかも RAIDカードあれこれ 39枚目 ttp://pc11.2ch.net/test/read.cgi/jisaku/1263703844/
125 名前:login:Penguin mailto:sage [2010/03/21(日) 20:57:25 ID:SqWw8gw9] >>124 ありがとう。了解した。 該当スレ誘導も感謝。
126 名前:login:Penguin mailto:sage [2010/03/22(月) 12:23:35 ID:E14pDNne] linuxのソフトウェアRAIDの話です。 mdadm.confを使わずにRAIDデバイスを起動した場合は、OSの停止前に明示的にmdadm -Sを 実行する必要がありますか?
127 名前:login:Penguin mailto:sage [2010/03/22(月) 18:10:59 ID:N0EEVYIK] >>126 終了動作でファイルシステムのメタデータ吐く、 そのあとmdのスーパーブロック書き出して同期を停めるでしょ。
128 名前:login:Penguin mailto:age [2010/04/02(金) 08:14:21 ID:laU9d0eY] raid 1+0 と 6が使える環境で、おまいらはどっちを選択する?
129 名前:login:Penguin mailto:sage [2010/04/02(金) 09:19:25 ID:+pJGaIlA] おまえならどっちもいっしょ
130 名前:login:Penguin mailto:sage [2010/04/03(土) 23:13:51 ID:YO6iN+5f] 自作板で聞こうかとも思ったのですが、こちらの方が経験者が多そうなので質問させてください。 会社でCentos 5.4、Raid1でファイルサーバー立てようと思うのですがお勧めのRAIDカード教えてもらえないでしょうか ただし予算はHDも合わせて2万円以内です。 先日ソフマップで、1.5TBのHDが8千円くらい、1TBが7千円くらいで売ってたので HD2基で14000円〜16000円くらい そうするとRAIDカードの予算は4000円から6000円くらいしかありません 玄人志向のSAPARAID-PCIやSATARAIDが2000円前後なので、それにしようかとも思ったのですがCentosで使えるのかなあと 実はこれまで職場ではIOのNAS使ってたのですが、頻繁に壊れるので何度かLinuxでデータをサルベージしてました RAID対応のNASに買い替えようとも思ったのですが、企業向けはコストかかるのでどうせならファイルサーバーに1本化しようかなと これまでCentosをのせていたPCは、玄人志向のATA133RAID-PCIのカードを取り付けRAID1で使用していましたが 160GBしかHD乗せて無かったので業務で使うには容量が足りず、データの受け渡し用にだけ使っていました。 構成はサーバー用にDELLの5〜6年くらい前のPC (CPU PENTIUM4 2.4GHZ、メモリ768MB PCIバス) クライアントPCのOSはWindows XP、7、2000、Mac OSX 、Mac OS9など20台ほど(使用する人間は10人程ですが) 本当なら業務で使用するのだから、もっと高価なシステムを組むべきなのは重々分かっているのですが 何せ零細企業な上、私の裁量で稟議が降りるのが以前は10万だったのが、2万に減ってしまって(涙 それとも、この程度のクライアント数ならソフトRAIDにすべきでしょうか ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです) 私の知識不足と長文申し訳ないですが誰か答えてくださるか誘導してくださると助かります。 よろしくお願いいたします。
131 名前:login:Penguin mailto:sage [2010/04/04(日) 00:14:11 ID:N/Mg7OeJ] 金が無いなら知恵を死ぬ気で付けるしかない。 (最低このスレ全部読むくらいはやるんだろ?) ってことはさておき、md使ったソフトウェアraidで良い。 カードもRAIDなんちゃらなんて付いてなくてATAカードで十分。 玄人志向だと以下から適当にどうぞ。 www.kuroutoshikou.com/products/select/interfacefset.html
132 名前:login:Penguin mailto:sage [2010/04/04(日) 07:40:07 ID:5YeefPIg] 「ちゃんとした」ハードウェアRAIDカードを買う予算(8〜10万程度) がないならソフトウェアRAIDを選択すべきだろうね > ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです) 実際に試してみりゃいいじゃん。 「これまでCentOSを載せていたPC」とやらがあるんだろ?
133 名前:130 mailto:sage [2010/04/04(日) 08:28:25 ID:sEcjxQNn] >>131-132 ありがとうございます。 いろいろめんどくさい条件書いてすみませんでした。 ソフトウェアRAIDでいってみます。
134 名前:login:Penguin mailto:sage [2010/04/07(水) 14:09:14 ID:0r9wUKJP] ソフトウェアraidのほうが部品点数が少ない分、故障も少なく可用性が高くていいな。
135 名前:login:Penguin mailto:sage [2010/04/07(水) 18:03:44 ID:jIRW8AWX] 前スレに出てたけど HDDが一個故障したらOSごと落ちちゃうような (RAIDの意味がない)トラブルが起こる可能性は HW RAIDより高いけどなw
136 名前:login:Penguin mailto:sage [2010/04/07(水) 19:05:51 ID:N4cK5rbU] 前スレのどこにそんな事例があったのかソースくらい欲しいものだな
137 名前:login:Penguin mailto:sage [2010/04/07(水) 19:11:34 ID:jIRW8AWX] >>431-441
138 名前:login:Penguin mailto:sage [2010/04/07(水) 19:26:00 ID:rX+zbI9D] そーだな。5000円のカードよりは10万円のカードの方がマシだな。
139 名前:login:Penguin mailto:sage [2010/04/08(木) 03:30:23 ID:Hw13iH1s] >>135 前スレのはIDEのドライバの出来に影響されるって話だね。 SATAでも、ポートを増やすのにクロシコのカードを何枚も使ってたら可用性が高いとは言え無いだろうねw でも最近のHW RAIDカードはSAS用に傾いてるから、SATAのHDDとの互換性の問題が多いんだよね。 エンタープライズモデルのHDD以外のサポートを拒否してるarecaとかね。 俺はarecaも使っててHDD選びですごい苦労してるんで、 その点ソフトウエアRAIDだとHDDは何でも良いんで楽でいいよw
140 名前:login:Penguin mailto:sage [2010/04/08(木) 12:51:30 ID:fx0Q1ZmL] > 前スレのはIDEのドライバの出来に影響されるって話だね。 コントローラ次第、という話であって、ドライバの出来に限定した話ではないかと。 (ドライバも要素の一部ではあるが) 俺はSW RAIDの一番のメリットは可用性ではなく、 HW環境に依存しない、という点だと思ってる。 (経験上、停めずに使うという点ではむしろHW RAIDの方が有利) HW RAIDの場合、万一コントローラが故障した場合、同じ機種を調達しないと アレイの中身の読み書きができなくなってしまう。 (同じメーカーでも別機種だと大抵はアレイの完全互換を保証していない) 既に調達不能になっている場合はどーしようもない。 仮に予備が買ってあったとしても、一台故障したらもう「次」はない訳で。 SW RAIDなら、OSがLinuxである限り、HDDとして認識してくれりゃHWはなんでもOK。 取り敢えず適当なPCに取り付けてやれば、アレイの読み書きは可能になる。 非常時のことを考えると、この差は大きい。 ま〜結局は、運用コストの差、という話ではあるがw
141 名前:login:Penguin mailto:sage [2010/04/08(木) 19:15:49 ID:5/ctPl71] >>122 mdadmのmanページ、-eオプションのところにバージョン毎の違いが書いてある。 ストライピングに関する記憶は朧げだけど、メタデータはmdデバイスではなく、 コンポーネントデバイスに書き込まれるため、ストライピングの対象にならない。 はずなんだけど、自信がないな。 mdadmはdefault==0.90だけど、ディストロのパーティション管理では、 異なることがある。例えば、openSUSEはRAID1の場合は1.0だった。
142 名前:login:Penguin mailto:sage [2010/04/08(木) 20:27:51 ID:+Jfsgp79] だから並盛を安くするんじゃなくて、大盛りをもう少し安くて 特盛りをもっと安くすればいいんだよ。 どうせ客層なんて男ばっかりなんだから。
143 名前:login:Penguin mailto:sage [2010/04/08(木) 20:28:43 ID:+Jfsgp79] ごめんとしか言いようがない。
144 名前:login:Penguin mailto:sage [2010/04/08(木) 20:38:47 ID:P5Oyw2sf] 男がみんな大食いだと思ったら間違いだ。
145 名前:login:Penguin mailto:sage [2010/04/12(月) 23:05:43 ID:AKilMbBg] >>142 よかったな ttp://getnews.jp/archives/55557
146 名前:login:Penguin mailto:sage [2010/04/15(木) 20:38:03 ID:3rydDv6Y] >>130 亀レスで何だが、使用者が10人程度なら 可用性よりバックアップを優先すべきだと思うが バックアップはしてるの? サルベージしているなら怪しいと思ってるんだが。。。
147 名前:login:Penguin mailto:sage [2010/07/20(火) 11:37:42 ID:q/Lsg0js] raid1壊れますたorz syslog↓になんかずらずら出てるんですが、意味わかりませんorz loda.jp/vip2ch/?mode=edit&edit=432 半年ぐらいしか使ってないディスクなんですが物理的にイカレてしまったのでしょか? Jul 20 10:35:11 orz kernel: [ 6174.320131] ata3.00: model number mismatch(略) あたりマトモでない気がしますが… ディスクから異音とかはないです よろしければアドバイスお願いします
148 名前:login:Penguin mailto:sage [2010/07/21(水) 20:36:37 ID:2+4uaJQ3] >>147 エラー出てるね > ata3: SError: { 10B8B Dispar BadCRC LinkSeq TrStaTrns UnrecFIS } 下記サイトによれば、SATAケーブルor電源が怪しい ttps://ata.wiki.kernel.org/index.php/Libata_error_messages#SATA_SError_expansion >These bits are set by the SATA host interface in response to error conditions on the SATA link. >Unless a drive hotplug or unplug operation occurred, it is generally not normal to see >any of these bits set. If they are, it usually points strongly toward a hardware problem >(often a bad SATA cable or a bad or inadequate power supply). 個人的には熱暴走とかもありうると思うけど
149 名前:login:Penguin mailto:sage [2010/07/21(水) 22:35:51 ID:AJuBZV4Q] >>147 こりゃ完全にケーブルだ。 もしSATAケーブルがノッチ無しなら、ケーブルの両端を洗濯バサミで一晩挟んどけ。 結構効く。
150 名前:login:Penguin mailto:sage [2010/07/21(水) 22:37:31 ID:At+yPwQO] こんなどうしようもない対策がなるほど効いてしまうだろうなぁと思える SATAコネクタ仕様を考えた奴はケーブルで首吊って詩ねばいいのに
151 名前:login:Penguin mailto:sage [2010/07/22(木) 10:30:29 ID:ruiGCZGt] SATAケーブルで吊るなんて出来ないだろ…と, 思ってたら, 隣の国で, 携帯のケーブルで吊った還流スターが居るの思い出して 涙が出ちゃったじゃないかー!そんなこと言うなよ〜 後付けの抜け防止金具とゆーものが無かったっけ?
152 名前:login:Penguin mailto:sage [2010/07/22(木) 10:34:04 ID:jxrupwtP] >>149 「ラッチ」のことか?
153 名前:login:Penguin mailto:sage [2010/07/23(金) 15:40:37 ID:aflCmZfG] >>150 こんなんだしなあ USBの方はケーブルにも認証試験を行うようになったのにな pc.watch.impress.co.jp/docs/column/interface/20100722_382306.html >この話は別に今に始まったわけではなく、Gen2の頃からこうした問題は出ていたが、SATA-IO自身はこれに関して特に動く予定は無いというか、 >たとえばコンプライアンステストを通った製品にロゴを付加するといったキャンペーンは(過去に販売したケーブルは使えない、と言っているのと同義語なので) >むしろ相互運用性を損なう事になりかねないとしており、 >引き続きケーブルに関しては、ごちゃごちゃのままの環境が続くことになりそうである。
154 名前:login:Penguin mailto:sage [2010/07/23(金) 21:47:22 ID:czPuWn9X] >>148-153 みなさんアドバイスありがとうございます SATAケーブルが怪しい件了解です 機械のフタ開けて SATAケーブルのコネクタを確認してみることにします 今日はもうマンドクサwなので明日ぐらいにでも ガシッとはめて直ったらいいなと期待しています では〜
155 名前:login:Penguin mailto:sage [2010/07/23(金) 22:42:05 ID:MvgvZIr6] >>154 ガンバレ syslogにハードディスクデバイス関連のタイムアウトが頻発したらケーブルを疑う癖をつけるんだ。 SATAケーブルとの約束だぞ。
156 名前:login:Penguin mailto:sage [2010/07/27(火) 20:40:58 ID:+DF9ERUV] お手数かけますが、教えてください。 Debianです。 現在、SATA HDD8台、ソフトRAID6で運用中,。 HDDはオンボ4ポート、PCI SATAカード4ポートです。 SATAカードをPCI-eのSAS6iRに交換して、8ポートともSATAカードから接続したいと思います。 最終的には、SAS6iRに8台接続してデータはそのままで元の状態に戻したいのです。 どういう手順で行えばいいのでしょうか?
157 名前:login:Penguin [2010/07/27(火) 20:49:11 ID:zh7Of8ZU] Debianもudevなんだからそのまま新カードに挿して Grub入ってるのBIOSで一番にしとけばいんじゃねの?
158 名前:login:Penguin mailto:sage [2010/07/27(火) 23:29:08 ID:PZTE8ajp] >>156 ディスクが接続されてるコントローラを意識しなくてもokだと思うが。 俺の場合、 1.C3-800MHzのPCにPromise SATA300TX4にSATA HDD×3を接続し、RAID5アレイ構築 2.パリティ計算の余りの遅さに耐えかねて(CPUファンもぶっ壊れたし)GA-D510UDを導入 3.GA-D510UDのオンボードSATA(NM10統合ので2ポート, JMicronので2ポート)にHDDを4台接続 4.もう1台ディスクを足してオンライン領域拡張 5.オンボードSATAはホットスワップが効かないことが判明したのでPCIスロットにSATA300TX4を挿してHDDを繋ぎ替え というステップを経て現在に至るが、繋ぎ替えてもすんなりアレイを認識してたぞ。
159 名前:login:Penguin mailto:sage [2010/07/27(火) 23:35:52 ID:CDEVG/fS] >>156 RAIDボードのBIOSからExpoprt JBODとかか? PromiseだとJBOD利用でも必ずBIOSからUnitを作成しないとデバイスが認識しなかった。
160 名前:login:Penguin mailto:sage [2010/07/28(水) 00:58:03 ID:C+9PDLMA] Promiseは平然と「1台構成でもアレイ組まなきゃ見えませんから^^」とか言い出す基地害板だからな
161 名前:login:Penguin mailto:sage [2010/07/28(水) 09:01:33 ID:E6Ms9Bcd] HardRAIDカードって壊れたときの対処ってどーなんすか? HDD2個でRAID1使ってた場合 復旧不可能?
162 名前:login:Penguin mailto:sage [2010/07/28(水) 11:42:36 ID:fYI1FyG/] 何がどう壊れたかによって話が変わる 漠然と言われても
163 名前:login:Penguin mailto:sage [2010/07/28(水) 12:29:45 ID:esiaNd7h] >>160 HighPoint RocketRAID 2300とかは「1台でもアレイ組め」に加えて、 POSTの際に繋がってるディスクのデータを(アレイのメンバじゃなくても問答無用で)壊すけどな!
164 名前:login:Penguin mailto:sage [2010/07/28(水) 14:26:58 ID:lqUxMOoj] >>163 それ嘘だ。 イニシャライズせずにレガシーのまま使えばアレイ組まなくても使える。
165 名前:163 mailto:sage [2010/07/28(水) 14:43:25 ID:esiaNd7h] >>164 1台でもアレイ組めは俺の記憶違いか。すまん。
166 名前:login:Penguin mailto:sage [2010/07/28(水) 17:14:44 ID:fXbebyC4] >>165 いやいや、結構はまりやすいよ。RAIDボードでのSingle DiskとJBODの設定は。 前者はハードディスクを消去するボードもあるし、後者もJBODでもUNITを作成しないとハードディスクを認識しない等。 俺もいろんなメーカーのRAIDボードメンテナンスしていたが今でもごちゃごちゃ。 一番楽なのはLinux SoftwareRAIDだな。
167 名前:156 mailto:sage [2010/07/29(木) 19:45:06 ID:MQlBotXc] みなさんの言うとおり、SAS6iRを挿しそのままHDDをつなぎ替えて起動してみましたところ初めからHBAとなり、何もせずに移行できました。 ありがとうございました。
168 名前:156 mailto:sage [2010/07/29(木) 22:21:04 ID:MQlBotXc] ベンチ計測してみた。 SAS6iR HDD8台(WD10EADS) ソフトウエアRAID6 hdparmでread測定したら、251MB/sだった。 たぶん遅い部類なんだろうな。
169 名前:login:Penguin mailto:sage [2010/07/29(木) 22:31:18 ID:hc5F77Bz] >>168 多分バス速度で頭打ち。
170 名前:login:Penguin mailto:sage [2010/09/04(土) 01:19:05 ID:XZAw0nxj] ttp://hellokitty68.main.jp/wiki/Linux_Software_RAID5 ここを参考にしてraid1からraid5へ移行する実験をしてるのですが、 echo raid5 > /sys/block/md0/md/level の段でこけます。 -bash: echo: write error: デバイスもしくはリソースがビジー状態です となります。 viしてもE667 : Fsync failedでやっぱり変更できません。 原因や対策をご存知の形はいらっしゃいませんか? OSはCentOS5.5、Fedora13の両方で試しましたが同じような状況です。 環境はVM上です。
171 名前:login:Penguin mailto:sage [2010/09/04(土) 07:17:14 ID:w4DAMBkG] itpro.nikkeibp.co.jp/article/Keyword/20091106/340168/ そもそもそんなことが出来るのを今知った
172 名前:login:Penguin mailto:sage [2010/09/04(土) 11:47:48 ID:gxReY0uS] Fedora12の5→6はecho raiid6 で行ったがなぁ addした後で # mdadm --grow /dev/mdXn --raid-level 5 --raid-devices=3 --backup-file=どっか で行かんかな
173 名前:login:Penguin mailto:sage [2010/09/04(土) 16:30:06 ID:RWU7tg0Q] >>170 情報が少なくてよくわかんない とりあえず、以下のコマンドの実行結果を貼ってくれれば何かわかるかも # cat /proc/partitions # cat /proc/mdstat # mdadm --detail /dev/md0
174 名前:login:Penguin mailto:sage [2010/09/04(土) 18:28:47 ID:PnMMuH/V] >>170 ちゃんとrootユーザで実行したか? sudoで実行しても蹴られるぞ。 $ sudo -s でrootになってもう一度実行してみて。
175 名前:login:Penguin mailto:sage [2010/09/04(土) 18:41:14 ID:XZAw0nxj] >>170 です 参考にしていたサイトがSUSEを使ってやったようなので、 ためしにSUSE11.3で同じようにやったら問題なく出来ました。 実際にCentOSで500GBのRAID1を組んでるファイルサーバーを 将来的にRAID5で運用したいと思い実験をしています。 ですのでCentOSで出来るようになるのが目標です。 >>172 もうしわけないです。 --backup-fileオプションの使い方が良くわかりませんでした。 勉強します。 >>173 次のレスに貼り付けます。
176 名前:login:Penguin mailto:sage [2010/09/04(土) 18:45:24 ID:XZAw0nxj] # cat /proc/partitions major minor #blocks name 8 0 8388608 sda 8 1 104391 sda1 8 2 522112 sda2 8 3 7759395 sda3 8 16 4194304 sdb 8 17 4192933 sdb1 8 32 4194304 sdc 8 33 4192933 sdc1 8 48 4194304 sdd 8 49 4192933 sdd1 9 0 4192832 md0 # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdd1[2](S) sdc1[1] sdb1[0] 4192832 blocks [2/2] [UU] unused devices: <none>
177 名前:login:Penguin mailto:sage [2010/09/04(土) 18:47:23 ID:XZAw0nxj] # mdadm --detail /dev/md0 /dev/md0: Version : 0.90 Creation Time : Fri Sep 3 23:42:20 2010 Raid Level : raid1 Array Size : 4192832 (4.00 GiB 4.29 GB) Used Dev Size : 4192832 (4.00 GiB 4.29 GB) Raid Devices : 2 Total Devices : 3 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Fri Sep 3 23:58:31 2010 State : clean Active Devices : 2 Working Devices : 3 Failed Devices : 0 Spare Devices : 1 UUID : 5e7be737:36419030:20c51d1d:ba7d4872 Events : 0.2 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 - spare /dev/sdd1
178 名前:login:Penguin mailto:sage [2010/09/04(土) 18:52:43 ID:XZAw0nxj] >>174 もちろんrootです。 今再確認してやってみましたがやはりrootでもダメでした。 # fuser /sys/block/md0/md/level ってやっても結果が返ってこないから プロセスが使ってるとかではないように思います。 それともfuserの使い方間違えてるのかなぁ・・・
179 名前:login:Penguin mailto:sage [2010/09/04(土) 20:45:43 ID:PnMMuH/V] >>178 ブロックデバイスの3重RAID1に変換してから、3デバイスのRAID5に変換してみて。
180 名前:login:Penguin mailto:sage [2010/09/04(土) 22:58:56 ID:XMPA/Vxp] >>171 には、カーネル2.6.30以降とか書いてあるのだが CentOSは2.6.18とかだろ? Fedora13で不可(>>170 )というのはわからんけどね。 正確にどのバージョンから可能になるのか、俺は知らないが。
181 名前:login:Penguin mailto:sage [2010/09/05(日) 00:04:30 ID:HUBnDTBu] >>179 # mdstat --grow /dev/md0 -n 3 をやるってことですよね? その後、 --glow -l 5とかやってもダメでした。 例のファイルへのechoも相変わらず蹴られます。
182 名前:login:Penguin mailto:sage [2010/09/05(日) 13:59:40 ID:ca0DYFqh] >>180 年末〜来年明け頃リリースされるであろう EHEL6(Kernel2.6.32)ベースのCent6待ちと勝手に予測
183 名前:login:Penguin mailto:sage [2010/09/05(日) 23:51:45 ID:0TzuHuxG] >>181 残念ながら、>>180 の指摘のとおりCentOS5のカーネルが古くてダメっぽい CentOS5の環境にRHEL6のカーネル(2.6.32)だけを(無理やり)入れて、 2.6.32で起動すればRAID1->RAID5に変更できた。 RHEL6のカーネルは↓のSRPMからCentOS5上でビルドしたけど超面倒だった ttp://ftp.ne.jp/Linux/distributions/redhat/ftp.redhat.com/rhel/beta/6/source/SRPMS/kernel-2.6.32-19.el6.src.rpm データのバックアップを取ってRAIDアレイを作り直した方が安全&確実
184 名前:login:Penguin mailto:sage [2010/09/06(月) 18:34:36 ID:tFSr8hS+] Fedora13(今は2.6.34)で出来ないのがホント不可解だよね metadata 0.90が悪いのかと思ったけど手元ではそんなこと無いし
185 名前:login:Penguin mailto:sage [2010/09/06(月) 21:02:06 ID:mrESGec/] fedora13のインストーラーのカーネル(2.6.33.3-85.fc13.x86_64)でも 普通にRAID1→RAID5に変更できたよ >>170 のfedora13で出来ないってのは何かの間違いだと思う
186 名前:login:Penguin mailto:sage [2010/09/08(水) 11:21:02 ID:4n0gc/4A] >>170 です >>182 いや、そうならそうで早く出て欲しいですね。。。 >>183 ビルドしたってことはrpm -ivh ではないんですよね? カーネルの構築はLinuxを弄り始めた頃に挫折して、 それ以来一度もやってなくて苦手意識ありありです。 もしよければさわりだけでも教えていただけますか? ググったところ、ここが参考になりそうとは思ったのですが。 ttp://www.atmarkit.co.jp/flinux/rensai/linuxtips/a113rebuild.html >>184 >>185 うーん、もしかしたら僕の作業に間違いがあったかも知れません。 もう一度やってみます。 SUSEインストール→Raid5に変更→CentOSインストールしなおし で出来たにはできたけど、これはちょっと非現実的ですよね。 目標は現在のOSのままやりたいので。 その点では>>183 さんのように Raid変更のためだけにカーネルだけ変えて起動するっていうのが いいような気がしました。
187 名前:login:Penguin mailto:sage [2010/09/09(木) 00:31:31 ID:uO+QGL4T] >>186 knoppixみたいなLiveCDは? 一応手順も貼っとくけど、自己責任でヨロ 0. kernel-2.6.32-19.el6.src.rpmをダウンロード (/root/kernel-2.6.32-19.el6.src.rpm) 1. ディレクトリ準備 # cd /usr/src/redhat # mkdir BUILD RPMS SOURCES SPECS 2.SOURCESディレクトリでSRPMを展開(何故か、rpm -iで入れようとしたらCRCエラーと言われたので) # cd /usr/src/redhat/SOURCES/ # rpm2cpio /root/kernel-2.6.32-19.el6.src.rpm | cpio -id 3. config-genericを編集 # vi config-generic →以下の2行を追加 CONFIG_SYSFS_DEPRECATED=y CONFIG_SYSFS_DEPRECATED_V2=y 4. kernel.specをSPECSディレクトリに移動&編集 # mv kernel.spec ../SPECS/ # cd ../SPECS/ # vi kernel.spec →2箇所変更 コメントアウトされている「%define buildid〜」のコメント解除し、適当に変更(例:%define buildid .centest) 「%define signmodules 1」を「%define signmodules 0」に変更 つづく
188 名前:login:Penguin mailto:sage [2010/09/09(木) 00:38:48 ID:uO+QGL4T] >>187 のつづき 5. パッケージビルド(--targetは適宜変更) # rpmbuild -bb --target=i686 --without kdump --without perf --without perftool --without kabichk --without fips --without debuginfo --without dracut --without vdso_install kernel.spec →エラーが無ければ/usr/src/redhat/RPMS/i686/にカーネルパッケージが出来る 6. カーネルパッケージを強制インストール # cd /usr/src/redhat/RPMS/i686/ # rpm -ivh --nodeps kernel-2.6.32-19.centest.i686.rpm ちなみに、"--nodeps"無しの場合のエラー kernel-firmware >= 2.6.32-19.centest は kernel-2.6.32-19.centest.i686 に必要とされています grubby >= 7.0.4-1 は kernel-2.6.32-19.centest.i686 に必要とされています mkinitrd >= 6.0.61-1 は kernel-2.6.32-19.centest.i686 に必要とされています udev < 145-11 は kernel-2.6.32-19.centest.i686 と競合します。 7, 初期RAMディスク再作成 テストした環境では、この時点で作成されている初期RAMディスクが異常で起動できない (mkinitrdの依存無視してるから当たり前?) 展開してみると、sd_modが入っていなかった sd_mod及び依存ドライバを含めて初期RAMディスク作り直し # mkinitrd -f --builtin=ehci-hcd --builtin=ohci-hcd --builtin=uhci-hcd --with=sd_mod --with=scsi_tgt --with=crc-t10dif /boot/initrd-2.6.32-19.centest.i686.img 2.6.32-19.centest.i686 (↑4で設定したbuildidの合わせてファイル名とカーネルは適宜変更) VMware Workstation 7の仮想マシンは上記でOK。 ハードウェア構成で必要なドライバは変わるので、事前に2.6.18のカーネルが起動した状態で ロードされているドライバを確認しておき、必要に応じて初期RAMディスクに含めること。 8. 再起動→2.6.32で起動OK
189 名前:login:Penguin mailto:sage [2010/09/11(土) 13:37:57 ID:ylGEDvFt] >>187 本当に丁寧に教えていただいてありがとうございます。 本当に面倒な作業なんですね。 今夜にでも試してみようと思います。 fedora13のLiveCDを使って/sys/block/md0/md/level の書き換えが出来ました。 正確には/sys/block/md127/md/levelです。 LiveCDで起動したらmd127にされてしまいました。 そのままecho raid5やって、 CentOSで再起動。 再起動後にもlevelファイルの中身はraid5だったので、 growしてみたところうまくいきました。 で、md127のままなのが気に入らなかったので #mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1 #mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1 #mdadm --misc --stop /dev/md127 #mdadm -C /dev/md0 -l 5 -n 3 /dev/sdb1 /dev/sdc1 /dev/sdd1 と、これでmd0になりました、データも失っていません。 これ以外の方法が思いつかなかったんですが、 もっとスマートな方法があったら教授願いたいです。 mdadmまだ使いこなせてません。 カーネルが古くてもmdadmのバージョンが条件を満たしていれば できるみたいですね。 みなさん、親身になって答えてくださりありがとうございました。
190 名前:login:Penguin mailto:sage [2010/09/11(土) 13:46:22 ID:D+LL5OKu] --super-minor=0 --update=super-minor
191 名前:login:Penguin mailto:sage [2010/09/14(火) 21:32:42 ID:Oy6zCGq+] -l1したら/bootにする場合でRAIDを理解しないローダー使うときは--metadata=0.90指定しろよ、って言われたわ >>116-122
192 名前:login:Penguin mailto:sage [2010/09/17(金) 23:06:24 ID:QPHXo1u7] チラ裏メモ Fedora12 x86_64(mdadm 3.0.3-2)だと7台構成のRAID6→8台構成にreshapeしようとすると mdadm: Need to backup 120K of critical section.. mdadm: /dev/md1: failed to save critical region でエラー Fedora13 x86_64(mdadm 3.1.2-10)にupgradeしたら mdadm: Need to backup 120K of critical section.. (黙ってreshape開始) で成功 mdadm 3.0.3-2のままでもRAID5の6台→7台の変更と7台のRAID5→7台のRAID6はできたので 3.0.3-2には半端に不具合が残ってる気がする
193 名前:login:Penguin mailto:sage [2010/09/20(月) 08:16:15 ID:YPDhyYqG] WD20EARSでRAID6組もうと思うんだけど、AFTってなんか関係してくるん?
194 名前:login:Penguin mailto:sage [2010/09/21(火) 01:48:27 ID:MEa3sArJ] >>193 hibari.2ch.net/test/read.cgi/jisaku/1279640392/475 kernel が対応していれば問題なしかと
195 名前:login:Penguin mailto:sage [2010/09/21(火) 19:49:57 ID:sGME08sR] >>193 ハードウェアRAIDカードの場合、一部のカードで不具合報告あるから要確認 hibari.2ch.net/test/read.cgi/jisaku/1275144136/108
196 名前:login:Penguin mailto:sage [2010/09/23(木) 10:27:21 ID:aw/haffN] >>193-194 回答ありがと。 SAS6/iRでソフトRAID6なんだが報告なさげだから人柱なのかな?
197 名前:login:Penguin mailto:sage [2010/09/24(金) 20:46:05 ID:a9oJcDud] >>195 あ、なつかしい。俺がまとめた奴だw 引用ありがと。
198 名前:login:Penguin mailto:sage [2010/10/01(金) 15:40:17 ID:lKU+sDuG] CentOS 5.4でHDD3台をRAID5でひとまとめにして使っていました。 最近になって容量が足りなくなってきたので、 同じ容量のHDDを1台追加し、領域拡張しょうとしているのですがうまくいきません。 liliumrubellum.blog10.fc2.com/blog-entry-181.html ここの手順通りに進めたのですが、最後にファイルシステムを拡張するところで # resize2fs -p /dev/md0 resize2fs 1.39 (29-May-2006) resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0 Couldn't find valid filesystem superblock. このようなエラーメッセージが表示されます。 マウントしているのがいけないのかと思い、umountを実行しましたが、 resize2fsのエラーメッセージは変化ありませんでした。 どうしたらうまく拡張できるのでしょうか? ちなみに、マウント先は/homeで、アンマウント方法はumountコマンドだけでなく、 /etc/fstabを書き換え、起動時からこのデバイスをマウントしないようにすることも試しましたが、 結果は変わりませんでした。
199 名前:login:Penguin mailto:sage [2010/10/01(金) 17:10:57 ID:iIUT3HXi] Centの5.4辺りのkernelとmdadmのバージョンで Online RAID Level Migrationってできるんだっけ?
200 名前:198 mailto:sage [2010/10/02(土) 09:00:00 ID:l0eD4IK+] 参考にしたサイトには書かれてないみたいですが、 lvextend -l 89425 RAID5_01/home で論理ボリュームを拡張したあと e2fsck -f /dev/RAID5_01/home を実行すれば、追加HDD分の容量が増えました。 マウントしていない状態で行ったので、アンマウント必須かはわかりません。 次やるときはマウントせずに試してみます。 あと、/etc/mdadm.confに num-devices=(数字) という記述がなかったので、今回は何も書き換えなかったのですが、 特に問題なく動いているみたいです。 ディストリによってはこのファイルの書き換えは必要ないのでしょうか。 とにかく、そんなわけで自己解決しました。お騒がせしました。
201 名前:198 mailto:sage [2010/10/02(土) 10:24:36 ID:l0eD4IK+] 誤: 次やるときはマウントせずに試してみます。 正: 次やるときはマウントしたまま試してみます。 でしたorz
202 名前:login:Penguin mailto:sage [2010/10/02(土) 10:30:33 ID:QA6hlIsa] >>200 リンク先のページを開こうとするとブラウザが固まるんで判らんのだが、要するに 自分とこのシステム構成(RAID + LVM + ext3)を把握しないまま、 RAID + ext3のシステムについて書いたブログエントリをそっくりそのまま真似して 「うまくいかない!」 ……というオチ?
203 名前:198 mailto:sage [2010/10/02(土) 16:57:53 ID:l0eD4IK+] >>202 だいたいそんな感じです。 さすがに自分のところの構成くらい把握してるつもりですが、 どこ見てもこのやり方で書いてあったんで、 ほとんどの構成で通用するやり方だと思い込んでいました。 さらにエラーメッセージが resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0 なので、これを読んで「LVM使ってるからやり方が違うんだ」 という発想にたどり着けず、途方にくれてました。
204 名前:login:Penguin mailto:sage [2010/11/03(水) 14:54:37 ID:EB+4MiCj] 最近のマザーボードはRAIDカード搭載の物が多いですけど Linuxで使うならソフトウェアRAIDの方が無難ですか?
205 名前:login:Penguin mailto:sage [2010/11/03(水) 15:02:33 ID:+mHxq1R3] >>204 いえす
206 名前:login:Penguin mailto:sage [2010/11/03(水) 15:58:28 ID:aR2r0zLp] >>204 ×最近のマザーボードはRAIDカード搭載の物が多いですけど ○最近のマザーボードはRAID機能搭載の物が多いですけど ソフトウエアRAIDだとハードウエア(マザーとかボードとか)変えてもコマンド打てば復活する 移し変え時の別のハードウエアへの接続位置(順)は適当でいい 1,2,3,4→2.4.1.3としてもちゃんと復活してくれる ハードウエアRAIDだとハードウエアを変えるとデータがあるのに見えない 場合によっては消える
207 名前:login:Penguin mailto:sage [2010/11/03(水) 16:29:41 ID:EB+4MiCj] >>205 ,206 ありがとうございます ソフトウェアRAIDにしておきます
208 名前:login:Penguin mailto:sage [2010/11/03(水) 16:34:52 ID:3a2ffMIU] >>206 「最近のマザーボード」とやらに載ってるようなのは 「ハードウェアRAID」ですらない。 >>206 の書きようだとハードウェアRAIDには 何のメリットもないように見えるなw たぶんハードウェアRAIDを使ったことがないんだろうが。
209 名前:login:Penguin mailto:sage [2010/11/03(水) 21:15:46 ID:KClY6dlN] マザボのRAID機能をどうこう言ってる相手に、ハードウェアRAIDのメリットも糞もないわw メリットがあるとして、それを得るには幾ら投資すりゃいいのさ 個人レベルはもちろん、業務レベルでも一部を除けば、ソフトウェアRAIDで充分だよ
210 名前:login:Penguin mailto:sage [2010/11/03(水) 23:07:53 ID:uttDJDAa] 費用対効果で考えればいい 同じ効果を安くできるならそれでいいって考え方でいいじゃん 人それぞれだけど
211 名前:login:Penguin mailto:sage [2010/11/03(水) 23:19:18 ID:uttDJDAa] ちなみにオレはソフトウエアRAID派 馬鹿なんで、USBメモリ起動で8台 RAID6で運用しています USBメモリのイメージを別でとってあるんでUSBメモリが壊れても無問題
212 名前:login:Penguin mailto:sage [2010/11/04(木) 00:42:42 ID:A0zlTMZq] >>209 >>208 の指摘は (1)>>206 は疑似HW RAIDとHW RAIDをゴチャマゼにしている (2)HW RAIDにはSW RAIDとは違うメリットがある という別々の二点なのだが?
213 名前:login:Penguin mailto:sage [2010/11/04(木) 00:45:21 ID:A0zlTMZq] (2)に関しては >>206 の書き方では初心者に誤解を与える という指摘だな
214 名前:login:Penguin mailto:sage [2010/11/04(木) 03:20:39 ID:BL47owsD] >>212 擬似HW RAID用ドライバ開発されてなかったっけ? ちょっとだけ負荷軽くなる奴
215 名前:login:Penguin mailto:sage [2010/11/04(木) 14:46:16 ID:1Zlxj7jT] SW RAIDの欠点はRebuildやResync時にI/Oバス帯域を食いまくるところか。 >>214 擬似HW RAIDは dmraidドライバでIntel/nVidiaチップセット向けRAID対応だったかも。
216 名前:login:Penguin mailto:sage [2010/11/05(金) 21:53:06 ID:ZjVbxW85] いろんな用途と複合的に使うにはHW RAIDが有利
217 名前:login:Penguin mailto:sage [2010/11/05(金) 22:48:44 ID:hdBmVs+M] SCSIのRAIDは信用できるが IDE/ATA/SATAのRAIDはなんか信用できない SATAならむしろOSの機能のソフトRAIDを選びたい
218 名前:login:Penguin mailto:sage [2010/11/05(金) 23:13:14 ID:9wgeowow] 「なんか」とか
219 名前:login:Penguin mailto:sage [2010/11/05(金) 23:15:05 ID:QtPoCyoP] スカ爺の言うことだし
220 名前:login:Penguin mailto:sage [2010/11/06(土) 00:35:09 ID:Qew0bHFo] チッ、うっせーな…反省してま〜す
221 名前:login:Penguin mailto:sage [2010/11/06(土) 05:06:40 ID:6aJUodpE] >>211 フラッシュメモリをRAID5/6で使うと、あっという間に寿命が来るぞ。 バックアップ取ってあるなら、RAID0で使った方が寿命長いんじゃないか?
222 名前:login:Penguin mailto:sage [2010/11/06(土) 21:20:03 ID:/PdZ4pGk] フラッシュメモリは起動用でHDDは8台でRAID6ですよ コレダメならESXやESXiのUSBメモリ起動もダメってことじゃ?
223 名前:login:Penguin mailto:sage [2010/11/08(月) 22:40:45 ID:/LP5nvaW] >>222 swapは?
224 名前:login:Penguin mailto:sage [2010/11/10(水) 20:17:26 ID:fV4mstBN] メモリ2Gしかないけど、作らない。
225 名前:login:Penguin mailto:sage [2010/11/12(金) 21:32:47 ID:10OTEzMQ] こんばんは。 Xenserver5.6(Centosがベース)上で、Windows2008R2をファイルサーバ として動かしてます。 そして、ホスト側にてディスク2TB×4本でRAID10を組んでます。 ですが、ゲスト側に割り当てれるHDDイメージが1つあたり最大2TBまでのため、 しかたなく、2TBイメージ×2つを割りあえてて、ファイルサーバを動かしてます。 そのため、2008R2サーバ上ではディスクが2つ見える状態ですが、 使いやすくするために以下いずれかの方法で4TB×1にしたいのです。 1.スパンボリューム 2.RAID0 のいずれかでまとめるならば、1、2でパフォーマンスは異なったりするのでしょうか? (スパンボリュームのほうは試しましたが、データがあるのであまり変更したくないです) もし、知ってる方がいらっしゃいましたら教えていただけないでしょうか。
226 名前:login:Penguin mailto:sage [2010/11/13(土) 07:07:21 ID:bwqwb+4h] >>225 XenServerのことは知らんが、ネタは物理ドライブじゃなくて ディスクアレイに置いてあるイメージファイルなんだろ? 同一アレイに置いてあるイメージファイルをRAIDをしても高速化するとは思えんから、 普通にスパンボリュームでいいんじゃね?
227 名前:login:Penguin mailto:sage [2010/11/13(土) 10:49:54 ID:RbGidMq7] >>226 試してみました。書き忘れましたがベースのRAID10はソフトウェア(mdadm)です <条件> * MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s] OS : Windows Server 2008 R2 Datacenter Edition (Full installation) [6.1 Build 7600] (x64) ★JBOD Sequential Read : 121.461 MB/s Sequential Write : 95.109 MB/s Random Read 512KB : 20.740 MB/s Random Write 512KB : 34.521 MB/s Random Read 4KB (QD=1) : 0.516 MB/s [ 126.0 IOPS] Random Write 4KB (QD=1) : 0.881 MB/s [ 215.1 IOPS] Random Read 4KB (QD=32) : 1.068 MB/s [ 260.6 IOPS] Random Write 4KB (QD=32) : 1.073 MB/s [ 262.0 IOPS] Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5) Date : 2010/11/12 22:56:08
228 名前:login:Penguin mailto:sage [2010/11/13(土) 10:50:35 ID:RbGidMq7] >>226 ★RAID0 Sequential Read : 66.657 MB/s Sequential Write : 82.209 MB/s Random Read 512KB : 20.065 MB/s Random Write 512KB : 42.841 MB/s Random Read 4KB (QD=1) : 0.563 MB/s [ 137.4 IOPS] Random Write 4KB (QD=1) : 2.608 MB/s [ 636.8 IOPS] Random Read 4KB (QD=32) : 1.232 MB/s [ 300.8 IOPS] Random Write 4KB (QD=32) : 2.544 MB/s [ 621.2 IOPS] Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5) Date : 2010/11/12 23:19:09 ★単体 Sequential Read : 225.816 MB/s Sequential Write : 106.714 MB/s Random Read 512KB : 30.901 MB/s Random Write 512KB : 59.968 MB/s Random Read 4KB (QD=1) : 0.694 MB/s [ 169.5 IOPS] Random Write 4KB (QD=1) : 1.636 MB/s [ 399.5 IOPS] Random Read 4KB (QD=32) : 1.336 MB/s [ 326.3 IOPS] Random Write 4KB (QD=32) : 1.730 MB/s [ 422.4 IOPS] Test : 1000 MB [D: 0.0% (0.2/1859.2 GB)] (x5) Date : 2010/11/12 23:28:41
229 名前:login:Penguin mailto:sage [2010/11/13(土) 10:51:44 ID:RbGidMq7] >>226 結果、何もしないのが一番よいことがわかりました。 RAID0だとすごく遅くなり、JBODだと単体の半分ぐらいです。 (予想外の結果でした) 単体のドライブ2台を同時にベンチするとJBODぐらいのスピードに なったので、恐らく書き込みなど分散→さらにRAID10にて分散など 無駄な感じとなって、落ちまくってるんだと思います。 #なんどやっても、同じでしたorz
230 名前:login:Penguin mailto:sage [2010/11/14(日) 00:17:04 ID:UO38LBbx] 別にストレージ用のサーバ立ててiSCSIでマウントする とかが当世風じゃね? いろいろと融通が利くし
231 名前:login:Penguin mailto:sage [2010/11/14(日) 01:58:03 ID:IF1j6YbV] >>230 iSCSIでのディスク利用は考えてるのですが、ネットワーク周りを 強化してないので、とりあえずはローカルディスクで外部NASに バックアップするような構成です。 iSCSI使うなら、ライブマイグレーションを使うことが目的になりそう ですので、ホスト側を冗長しないとメリットなさそうですし、ディスク側 や経路上のNW機器も冗長しないと怖いです。 (ゲスト8台動いてますが、その最中にディスクが切り離されると 思うとゾッとします) iSCSIを試す分には全然大丈夫なのですが、個人運用で本格利用 するにはコストがかかりそうなので今のところ見送ってます。 #ホスト側が落ちたら同じなんですけどね。でも、冗長化してないiSCSI 利用よりかはトラブルが発生しにくいかなと思ってます。 #職場ではesxiを入れたブレードサーバとかで構築してますが。 (もちろんディスクは外部で)
232 名前:login:Penguin mailto:sage [2010/11/15(月) 19:22:57 ID:gNCbtYKe] 質問いいですか win7とubuntuあたりでRAID構成を共有したいのですが、できますかね
233 名前:login:Penguin mailto:sage [2010/11/16(火) 11:08:25 ID:HeKRLUlf] >>232 一台でマルチブートって事? ならオンボのRAIDドライバはどちらでも使える。
234 名前:login:Penguin mailto:sage [2010/11/16(火) 21:29:52 ID:JnnqGF7a] test
235 名前:login:Penguin mailto:sage [2010/11/16(火) 21:33:44 ID:VWoXCYbw] DELL SAS6/iR RAIDカード で、 WD20EARS-00MVWB0 で、 ソフトRAID6いけるかな?
236 名前:login:Penguin mailto:sage [2010/11/16(火) 22:39:33 ID:Szhcfl18] 8台くらいで構成したmdのraid5or6or10のベンチマークするとどの程度パフォーマンスが出るもんです? そのうち自分でも試すつもりだけど参考用のデータとかあったりします?
237 名前:login:Penguin mailto:sage [2010/11/17(水) 21:34:48 ID:j19cjkTS] エスパー RAIDするメディアにもよる
238 名前:login:Penguin mailto:sage [2010/11/20(土) 19:44:31 ID:cFLVa63Z] 速度はあんまり出ないよ シーゲートの7200回転1.5TB x 6 のRAID6 hdparm -ft /dev/md1 /dev/md1: Timing buffered disk reads: 418 MB in 3.00 seconds = 139.15 MB/sec
239 名前:login:Penguin mailto:sage [2010/11/21(日) 00:09:27 ID:1IPGonEa] 骨董品の幕の6L(250GB)*8本のRAID6で /dev/md1: Timing buffered disk reads: 874 MB in 3.00 seconds = 291.07 MB/sec 250〜300弱の間でふらふらする
240 名前:login:Penguin mailto:sage [2010/11/21(日) 11:17:38 ID:zCTXq4aL] 情報サンクス。 今4台のRAID5でkvmのホストやらせてるがゲスト7つ起動するとdisk i/oで詰まってる感じがするので台数増やしたら改善できないかなと思ったのだけれど。 cpu負荷との兼ね合いもあるけどチャレンジしてみようかと思います。 これでkvm自体がボトルネックだったら泣けるなあ。
241 名前:login:Penguin mailto:sage [2010/11/21(日) 22:40:45 ID:jxLFhocQ] >>240 ゲスト毎に違うHDD用意するのが幸せになれるんじゃないの? って、7台+システム1台はさすがに厳しいな
242 名前:login:Penguin mailto:sage [2010/11/28(日) 19:06:34 ID:gL5KRMCh] >>116 激しく遅レスだけど、WD20EARSでmd RAIDやるならポイント2つ押さえておけば大丈夫。 green-rabbit.sakura.ne.jp/blog/2010/11/27/2191/ - RAIDのデータ開始位置をセクタの区切りに合わせる - LVMのデータ開始位置をRAIDのチャンクサイズに合わせる ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。 (パーティションはRAIDディスクに対してLVMで管理)
243 名前:login:Penguin mailto:sage [2010/11/28(日) 22:00:44 ID:RmwuvbbY] 6台のraid6をmdadmで構築していました。 1台FailになったのでHDDを交換して復旧させようとしたら 次々とHDDがFailになり復旧できなくなりました。 これってもうダメなのでしょうか? dmesg見るとHDD自体は認識しているようなのですが。
244 名前:login:Penguin mailto:sage [2010/11/28(日) 22:25:22 ID:5Q0sCNVi] それってコントローラーかマザーボード/CPUが死んでるんじゃ…
245 名前:login:Penguin mailto:sage [2010/11/28(日) 22:27:33 ID:OW3cc9+0] 同ロットのHDDで揃えてたんだろ。良い教訓。
246 名前:login:Penguin mailto:sage [2010/11/28(日) 22:31:24 ID:Tsm3YN7+] >>242 linux初心者にわかりやすくコマンドください WD20EARS8台でRAID6にしたいのです
247 名前:login:Penguin mailto:sage [2010/11/28(日) 22:51:00 ID:RmwuvbbY] すみません。ちょっとパニくってましたw mdadm --assemble --force /dev/md0 したら、とりあえず4台で再構築が始まったみたいです。 >>245 全部同じではないけれど半分くらいは同じだったかも。
248 名前:login:Penguin mailto:sage [2010/11/28(日) 22:54:14 ID:ZKkrEg8g] >>246 リンク先のエントリを読んで解らんヤツにれいどろくなど宝の持ち腐れである! アレが解らん人間にディスクがお釈迦ってデグったアレイを復旧できるとは思えんなw
249 名前:login:Penguin mailto:sage [2010/11/28(日) 23:25:31 ID:Tsm3YN7+] キモは2つか
250 名前:login:Penguin mailto:sage [2010/11/28(日) 23:34:15 ID:hDElDxYb] >ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。 どうやるの?
251 名前:login:Penguin mailto:sage [2010/11/28(日) 23:57:43 ID:ZKkrEg8g] >>250 パーティションを指定する代わりにデバイス全体を指定すればいいだけ。
252 名前:login:Penguin mailto:sage [2010/11/29(月) 00:16:37 ID:5KK7FVso] パーティションタイプでfd(Linux RAID Auto Detect) を使う必要があるのかと思い、 1ディスク1パーティションの時でもパーティションを切っていたよ。。。。
253 名前:login:Penguin mailto:sage [2010/11/29(月) 00:36:55 ID:C+YWZRYM] >>252 /dev/sda1とかパーティションを切ったのに mdadm --create -n 4 -l 5 /dev/sd[abcd] でパーティションテーブルを吹っ飛ばす、というのはお約束なドジの一つだよねorz
254 名前:login:Penguin mailto:sage [2010/11/29(月) 05:05:30 ID:hkKkYSLf] でも、微妙な容量差を揃えられるように 1領域でもパーティションにした方が良いんじゃないかね。
255 名前:login:Penguin mailto:sage [2010/11/29(月) 20:05:55 ID:BBunKmhs] >>254 確かに。そのあたりは、下記でも触れられていますね。 https://raid.wiki.kernel.org/index.php/Partition_Types 個人的には、交換用に新しく買ったディスクのサイズがちょっと小さかったら、 そのとき対処すれば良いんじゃないかなー、と思ってます。 mdadm --grow --size= でサイズ変更するだけなので。 あ、RAID1以外だと時間かかりそうだし障害時にやるのはあれだから、 --create するときにあらかじめ --size しておけば良いんじゃないのかなー。
256 名前:login:Penguin mailto:sage [2010/11/29(月) 20:37:16 ID:NGnnNc2T] >ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。 6台でRAID6とかでも関係ない?
257 名前:login:Penguin mailto:sage [2010/11/29(月) 20:57:34 ID:BBunKmhs] >>256 関係ないよ。 >>255 でも書いたけど、RAID6ならRAID構築するときにサイズ指定しておくと良いよ。 (サイズは HDD の容量から 100MB程度引いておく) % mdadm --create --size=サイズ(ディスク1台当たりに使用するサイズ[kb],64の倍数) そうじゃないとHDDこけて交換しようと思ったときに、 同一モデルHDDでも容量が少なかった場合に困る。
258 名前:login:Penguin mailto:sage [2010/11/29(月) 20:59:28 ID:rjjhbUoR] 容量ちょっとだけ大きいの買ってくるだけでいいやん
259 名前:login:Penguin mailto:sage [2010/11/29(月) 21:03:21 ID:BBunKmhs] >>258 でも、2TB使ってそういう状況になったら、2.5TB とか 3.0TBとかになって、GB単価違いすぎて泣ける気が
260 名前:login:Penguin mailto:sage [2010/11/30(火) 09:57:13 ID:366LkoAx] 結局後から面倒事が出てきて対処対処 パテ切ってるのと変わらんなw
261 名前:login:Penguin mailto:sage [2010/11/30(火) 22:54:26 ID:xrENs+QS] WD20EARSを8台買ってきた。 組む時間がないから放置することになるが、 正月休みぐらいに対処しようかと。 ソフトウエアRAID6に挑戦予定。
262 名前:login:Penguin mailto:sage [2010/11/30(火) 23:52:09 ID:leruRje6] >>260 パーティションきるのに比べたら、RAID構築時にオプション1個つけるだけのほうが楽だとおもうのだけれども。 切りたいのなら切れば良いと思うけど、物理セクタサイズ4096のHDDが何台かある場合、 ただ手間なだけな気がする。
263 名前:login:Penguin mailto:sage [2010/12/05(日) 13:14:20 ID:S0mL6ghv] LinuxのソフトウェアRAIDって、起動ディスクにはRAID0か1しか使えない? ディスク丸ごとRAID(RAID5)を組もうと思ったけど、 その場合は起動ディスクは別に用意しないとダメでしょうか。
264 名前:login:Penguin mailto:sage [2010/12/05(日) 13:39:00 ID:VXlrPkOO] >>263 RAIDじゃなくて、ブートローダーの話だな ttp://grub.enbug.org/LVMandRAID >Version 1.97 and older only support RAID-0, RAID-1, and RAID-5. Version 1.98 adds support for RAID-4, RAID-6, and RAID-10.
265 名前:263 mailto:sage [2010/12/05(日) 14:24:33 ID:S0mL6ghv] 早速ありがとうございます。 grubが対応してればOkなんですね。 Cent5.5は0.97の模様。。。 近々出ると言うCentOS6を選択肢に入れたとしても、RHEL6が0.97。 ttp://distrowatch.com/table.php?distribution=redhat ディスク丸ごとは諦めて、パーティション毎のRAIDにしようかと思います。
266 名前:263 mailto:sage [2010/12/05(日) 14:35:29 ID:S0mL6ghv] すみません、読み間違えてました。1.97以前でもRAID5まではOkですね。
267 名前:login:Penguin mailto:sage [2010/12/05(日) 14:48:47 ID:jj4aKBuD] おーい、そりゃsince version 1.95の話だぞ 0.9xのGRUB Legacyと1.9xのGRUB 2を一緒にしちゃいかん
268 名前:263 mailto:sage [2010/12/05(日) 15:04:53 ID:S0mL6ghv] 度々すみません。ありがとうございます。 もっときちんと調べてから書き込まないと、ダメですね。。。。
269 名前:login:Penguin mailto:sage [2010/12/05(日) 23:43:26 ID:JVWK3etV] Fedora13/14だとgrubとは別にgrub2ってパッケージあるね
270 名前:login:Penguin mailto:sage [2010/12/21(火) 23:25:16 ID:/W3bFROY] アフォな質問だけど誰か教えて。 遊び用で富士通のRX100 S6ってのが手に入った。 BIOS に RAID の項目あるし、ブート時に LSI MegaRaid とか表示される から SATA のハードウェアRAID だと思って、BIOS でミラーリングにして CentOS 入れてからディスクをぶっこ抜いてみたら死んだw 調べるとどうやらフェイクRAIDってやつらしい。 dmesg 見ると dmraid で動いてるみたいだけど、フェイクRAIDって 片肺では動かないもの? 遊び用じゃない 3com のハードウェアRAIDだと障害発生時には ホットスワップでディスク交換すればリビルドが自動で走るんだけど、 その感覚では使えない?
271 名前:login:Penguin mailto:sage [2010/12/21(火) 23:54:25 ID:dF/NfV63] こんなレベルのがハードウェアRAIDがどうこうソフトウェアRAIDがどうこう語れるのか・・・ いい時代だなぁ
272 名前:login:Penguin mailto:sage [2010/12/22(水) 00:04:06 ID:qSGG/Y5L] 3com?3ware?
273 名前:login:Penguin mailto:sage [2010/12/22(水) 02:57:06 ID:7dCZswWv] >>270 RX100 56がホットスワップに対応してるかどうかをなぜ真っ先に調べんのだ。 >フェイクRAIDって 片肺では動かないもの? 片肺で動かなければRAIDの意味がないではないか。それとホットスワップ対応は別問題。 >>271 ディスクが安くなったからねー。
274 名前:login:Penguin mailto:sage [2010/12/23(木) 09:37:49 ID:KkUvrI/e] >>273 下らん質問にレスありがとう。 WEBにはRX100 S6のホットスワップの情報はないんだけど ひとつ前のRX100 S5や他の3400チップ積んだ製品では ホットスワップできてるみたいなんで、S6でもいけるかと思って。
275 名前:login:Penguin mailto:sage [2010/12/26(日) 01:51:39 ID:QJg0e+k3] >>257 新品2TB8台でRAID6しようとしたんだが、一番容量が小さいHDDってどうやって知るのかな? サイズ指定(1664000000KBまで下げても)しても largest drive (/dev/sdb) exceeds size (1664000000K) by more than 1% と出ます hdparm -I /dev/sd* で調べても 同じセクタ数、同じdeviceサイズ(MB)なんでよくわからないんですが?
276 名前:275 mailto:sage [2010/12/26(日) 11:11:24 ID:xJ7Ntxe/] 自己解決 -zの値を大きくすればいいのね WD 2TB mdadm: /dev/sdb is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sdc is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sdd is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sde is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sdf is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sdg is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sdh is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sdi is smaller than given size. 1953513344K < 2000000000K + metadata 当たり前かもしれんが8台とも同じだった
277 名前:login:Penguin mailto:sage [2010/12/26(日) 14:55:25 ID:xJ7Ntxe/] マウントまでいったんで、ベンチとってみた ソフトウエアRAID6 WD20EARS-00MVWB0 *8 md0 READ 平均 388.27MB/s WRITE 平均 159.583MB/s まぁまぁだね
278 名前:login:Penguin mailto:sage [2010/12/27(月) 22:30:26 ID:2q1P0bSa] 同じドライブを4台でmdadmのRAID5だが Timing buffered disk reads: 996 MB in 3.00 seconds = 331.61 MB/sec 8台もある割にそんなでもないような…?
279 名前:login:Penguin [2010/12/28(火) 03:28:15 ID:HcJKc7c2] アホな質問ですが mdraidで不良マーク→再起動→自動removeされちゃったデバイスを --addして新たに書き直すんじゃ無くて 不良じゃなかった事にしてしれっとアレイメンバに戻す手ってありますか Failったのは論理エラーでデバイス内データもHDDそのものの物理故障も無いって仮定で
280 名前:login:Penguin mailto:sage [2010/12/28(火) 05:35:16 ID:ddFMmW8s] mdadm --manage --re-add --force /dev/mdなんちゃら /dev/sdはずしたデバイス でどうでしょうか
281 名前:login:Penguin mailto:sage [2010/12/31(金) 01:43:34 ID:6jMIk7Lq] とりあえず2Tx4でRAID6を作ってみたので一応メモ。 まず、>>211-222 のようなUSBメモリ起動を考えていた。 が、>>254-262 のように全領域をRAIDにしようとしても、 結局ははRAID領域としないほうがよい微小な容量が残る。 ならば、それを/bootやswapとしてしまえばよい。 そのためには結局パーティションを切る必要があるが それによって起動に必要な他のデバイスを省略できる。 また、>>263-268 の疑問は、「/をRAIDにする」という意味ならば大丈夫。 起動時のカーネルは、/boot内にあるものを読みこみ なおかつその時の/はinitrdから作ったRAMディスクだから。 というわけで、慣れないこともあって(AFT対応もあって)手間取ったし トラぶってやり直しなんかもしたけど なんとかCent5が起動はするようになった。
282 名前:login:Penguin mailto:sage [2011/01/06(木) 10:37:11 ID:LqVz0e3h] 毎月第1日曜の00:57に実行されるmdadmのcheckarrayって ものすごく負荷が掛かるんだけど、そもそもこれって必要なの?
283 名前:login:Penguin mailto:sage [2011/01/06(木) 10:40:13 ID:90P8MSkY] 自分が最高に神に祝福されていると信じているなら不要
284 名前:login:Penguin mailto:sage [2011/01/06(木) 10:50:14 ID:LqVz0e3h] ietdで常時読み書きしているので負荷が上がるとエラーになるんだよね。 いい方法ないかしら。
285 名前:login:Penguin mailto:sage [2011/01/06(木) 18:58:21 ID:8qh0aVCJ] 神に祈る
286 名前:login:Penguin mailto:sage [2011/01/06(木) 19:49:54 ID:GZ4wMjWn] >>284 checkarrayスクリプトの中でioniceを使ってIOスケジュールのクラスを'idle'にしてる それでもエラーになるってことは、IO性能の限界。 キャッシュをたくさん積んだRAIDカードと早いDISK or SSDに置き換えた方がいい
287 名前:login:Penguin mailto:sage [2011/01/06(木) 20:01:12 ID:90P8MSkY] >checkarrayスクリプトの中でioniceを使って ???
288 名前:login:Penguin mailto:sage [2011/01/16(日) 20:13:56 ID:9TjvYxG+] すごく初歩的な質問かもしれませんが教えてください。 インテルマザーボードオンボードのICHのRaidに2台のSATAのHDDで組んだRaid0と、 コレガのCG-HDC2EU3100なんかの外付けRaidケースにe-sataで2台入れて組んだRaid0では 速度はどのくらい違いが出てしまうものなのでしょうか? 使用するHDDは同じ7200rpmのHDDです。
289 名前:login:Penguin mailto:sage [2011/01/16(日) 21:02:50 ID:5wcN0kGW] 知らんけど、体感的な違いはゼロに近いと思う。
290 名前:login:Penguin mailto:sage [2011/01/16(日) 23:05:02 ID:9TjvYxG+] ありがとうございます。 つまり外付けでも内蔵と同じRaid0としての速度は出ると考えていいのですね!?
291 名前:login:Penguin mailto:sage [2011/01/16(日) 23:15:56 ID:UjUVBlql] 2chに念押しとかw
292 名前:login:Penguin mailto:sage [2011/01/16(日) 23:21:07 ID:5wcN0kGW] >>290 1台より速いんじゃないかなという感じの速度アップはできる。 ベンチマークソフト使えば、数値で目に見えた違いを出してくれる。 だけど、2台でRAID0やって、理論的には2倍になるというのは幻想。 そういう意味で、「RAID0としての速度が出る」と言ってるのなら その考え方は間違ってる。
293 名前:login:Penguin mailto:sage [2011/01/17(月) 10:30:12 ID:awRc0mEw] バスが律速しないとして2倍にならない例って何?
294 名前:login:Penguin mailto:sage [2011/01/18(火) 17:49:41 ID:AMRrBiFO] mdraidでミラーリングしているんですが、 いずれか1台が故障しても読み書きは継続できますよね? ファイルシステムのエラーでハングアップになったもんで。
295 名前:login:Penguin mailto:sage [2011/01/18(火) 17:51:59 ID:270hrEVr] >>294 そうだよ。だからスレ違い。
296 名前:login:Penguin mailto:sage [2011/01/18(火) 20:00:47 ID:cWlOgZar] スレ違いではないけどな
297 名前:login:Penguin mailto:sage [2011/01/21(金) 23:23:46 ID:AKhU4TB8] いったいどれがsdaでどれがsdbなんだか
298 名前:login:Penguin mailto:sage [2011/01/22(土) 02:34:45 ID:zK0YGrGX] 匂いを嗅いでみて、甘い匂いのするのがsda。 ちょっと舐めてみて酸っぱいのがsdbだよ。
299 名前:login:Penguin mailto:sage [2011/01/23(日) 19:01:57 ID:h1RbTWKL] 両方酸っぱくて甘い匂いがしたらどうすんだw シリアル控えてあるかバラして分かってるなら、 Redhatのディスクユーティリティー使えばひと目で分かるよ。 ls /dev/disk/by-id -l と cat /proc/mdstat でも シリアルとの対応は分かる。dmraid だと知らん。
300 名前:login:Penguin mailto:sage [2011/01/23(日) 23:53:48 ID:hECcvXVM] 300げっと ちょっと前、電源死んでHDDが見えたり見えなくなったりATA2モードになったり止まったり したんだがソフトウェアRAID1組んでたから普通に使えて「あーなんかカッコンカンッコン言ってるな〜」 って感じだった。ソフトウェアRAIDって何気にすげーなって思ったぜ。
301 名前:login:Penguin mailto:sage [2011/01/24(月) 13:56:32 ID:1YcBp3Oq] >>300 しかし、同じロットは同時に逝きやすいという法則は越えられない。 こないだ、2発同時にあぼんしたw いまは日立とWDを混ぜている。
302 名前:login:Penguin mailto:sage [2011/01/29(土) 01:19:33 ID:oOHVlAzH] >>297 同じ疑問抱えてます。 アレイ内のHDDが壊れたとして、物理的に壊れたHDDがどれなのか特定すんのはどうしてるんだろう。 ケーブル外して取り外すときにオペレーションミスして 生きてるHDDを取り外さないための仕掛け&工夫実践例キボン。
303 名前:login:Penguin mailto:sage [2011/01/29(土) 02:30:47 ID:7snxt3L1] 基本的にはシリアルNoから判別するしかないんじゃない? オレは、hdparm -i /dev/sd* でシリアルNo確かめて、あとは>>299
304 名前:login:Penguin mailto:sage [2011/02/07(月) 01:19:12 ID:/w2VBTzF] CentOS 5.5でRAID6のオンライン領域拡張したいんだけど、カーネル2.6.21以上でないとダメとか見つけたんだ。 カーネルだけ入れ替えるしかないのかな?
305 名前:login:Penguin mailto:sage [2011/02/07(月) 02:47:43 ID:lo2w1dHg] 俺も同じくCentOS5でRAID6をgrowしようとした。 最新カーネルを自力で作って起動するかテスト ・・・というのをVM上で一応やってみて大丈夫そうだとは思ったが 俺の場合はオンラインである必要は無かったので 結局、FedoraのliveCDを使ってgrowした。 ちなみに、(当然ながら)マザー次第だとは思うけど 俺の場合はnodmraidをつけなくて いくつかのディスクがraidから除外されていたり リムーバルと認識されて/dev/md127になったりと 結構トラぶった。
306 名前:login:Penguin mailto:sage [2011/02/07(月) 04:04:23 ID:/w2VBTzF] あれ?俺がいるw 自分もFedoraなら行けるんじゃねと思って、LiveCD使ったんだけどアレイからHDDが外れていた。 リビルドして領域拡張したけど、CentOS5.5に戻ってきたらアレイが元に戻っていた。 だからFedoraも意味がなかった。 >305 はCentOSに戻してもアレイはそのままだったのかな? # そこまでやるならFedoraに移行しろよ。というツッコミはなしで。
307 名前:305 mailto:sage [2011/02/07(月) 18:09:58 ID:lo2w1dHg] いや、ちゃんと拡張した状態で動いてるよ。 ただし、当然だけど完了するまで待ってそれからCentOSを起動したから。
308 名前:login:Penguin mailto:sage [2011/02/07(月) 19:40:45 ID:/w2VBTzF] 自分もリビルドが終わるまで待ったんだけどな。 マザボ:GA-EP45-UD3R OS用HDD:WD1001FALS 1発 データ用HDD:WD20EARS 5発(Dx2, Px2, Sx1) でFedora LiveCDで拡張したんだけど。 今は卒論で忙しいので、今月下旬に再度試してみるわ。
309 名前:305 mailto:sage [2011/02/07(月) 20:00:12 ID:lo2w1dHg] じゃあ、2-3日のうちに、俺が>>281 と>>305 で どんなトラブルに見舞われたか 一通り書き殴ってみるよ。 これからやろうとする人の参考になるかもしれないし。 使ってるのはGT110bで、2台買って(1台をデスクトップ用にCPU等を交換増設) もう一台との間でメモリとHDDをトレードしたもの。 これからDVDを外してEARSx6をHDC-503であわせて使ってる。
310 名前:login:Penguin mailto:sage [2011/02/08(火) 03:25:43 ID:39VFhAxA] Linux のソフトウェア RAID って、ホットスペアだけをローパワーで動かして、 スペアからアクティブになった時に自動的に回転数を戻す。 みたいな設定って出来ますか?
311 名前:login:Penguin mailto:sage [2011/02/08(火) 22:26:27 ID:VOG+hcst] >>310 「アレイがデグったら、待機状態にしといたスペアディスクを起こしてアレイに追加する」 みたいな処理をcronで定期的に回せばいいんじゃない?
312 名前:login:Penguin mailto:sage [2011/02/09(水) 00:21:30 ID:AadTX+NK] 可変回転数のHDDなんかねーよ 普通にスピンダウンしとけ
313 名前:login:Penguin mailto:sage [2011/02/09(水) 00:28:53 ID:OE9NS2jv] >>312 ascii.jp/elem/000/000/078/78783/ あるのに…
314 名前:login:Penguin mailto:sage [2011/02/09(水) 00:55:07 ID:nTLzEdJ5] WDのやつは、可変ではない。 非常に短い時間(デフォルト7秒)のアイドルでスピンダウンするだけだったはず
315 名前:login:Penguin mailto:sage [2011/02/09(水) 01:05:02 ID:megP14EQ] >>312 手動でスピンダウン/アップとかめんどくさいじゃん? だから RAID ソフト側でホットスペア中は低回転でまわしてくれれば嬉しいなと
316 名前:login:Penguin mailto:sage [2011/02/09(水) 10:01:23 ID:47tkCJ4E] 回転数5400~7200ってロットによって違うとかそんなんじゃねww
317 名前:login:Penguin mailto:sage [2011/02/09(水) 10:28:45 ID:megP14EQ] 1つのモデルでスペック上は普遍の回転数が、 個体差でそこまで振り幅あれば不良品でしょww
318 名前:login:Penguin mailto:sage [2011/02/09(水) 11:08:41 ID:AadTX+NK] >>313 やっぱり出たなマスコミに騙されるバカ
319 名前:login:Penguin mailto:sage [2011/02/13(日) 13:45:27 ID:SdB2eGXj] LinuxのソフトウェアRAIDをGUIで管理できるようなので使いやすいのはあるんでしょうか。 webminくらいしかそもそもモノが無いですかね?
320 名前:login:Penguin mailto:sage [2011/02/13(日) 14:47:55 ID:GH/CmMZb] >>319 使ったことないけどpalimpsest disk utility
321 名前:login:Penguin mailto:sage [2011/02/13(日) 15:38:06 ID:L1HNmD3l] webmin楽かもしれんけどweb管理がもっさりすぎてやめた
322 名前:login:Penguin mailto:sage [2011/02/18(金) 17:24:44 ID:yGretxv7] ぶっちゃけ、個人PCの安全対策にRAID1組みたいだけなら CG-HDC4EU3500 とか買ったほうが楽っすよね。
323 名前:login:Penguin mailto:sage [2011/02/18(金) 17:50:39 ID:A1GNzXog] 弄るのが面倒と考えるならそれでいいんじゃないの? 俺はいじるのが好きだから PC 組むことからやったけど・・・
324 名前:login:Penguin [2011/02/19(土) 15:18:20 ID:RMwt7Pff] >>322 最初の手順はラクだろうな… けど、ドツボにはまった時のはまり具合もあるからな。 個人向けなら融通の利くmdadmでの管理がお勧めな気がするぜ。 例えば、2個でRAID1を組んでて、1個あぼ〜んしたときに、どうやってHDDを準備する? 仕事ならスペアディスクが準備してあったりするけど、個人でそれやってる人は少ないでしょ。 適当なHDDをLVMなりmdadmでつなげて元のアレイに加えたり、他の容量があまってる storageから切り分で容量貰ってきたのを流用したり、と。そう言う面もあるからなぁ。
325 名前:login:Penguin mailto:sage [2011/02/20(日) 00:27:21.40 ID:yCXNWgeV] あるからなぁ と言われても
326 名前:login:Penguin mailto:sage [2011/02/20(日) 01:46:06.77 ID:s4CzjA8f] ミラーの片割れがあぼーんしたらバックアップを取って二台とも廃棄処分だろ。んで、新規に二台買ってきてリストア。
327 名前:login:Penguin mailto:sage [2011/02/20(日) 14:44:10.36 ID:RGevxh5h] >>326 「可用性」はどこ行ったんだよw
328 名前:login:Penguin mailto:sage [2011/02/20(日) 15:06:22.78 ID:s4CzjA8f] >327 即死しなかったおかげで緊急メンテでバックアップを実行できて最新の最終のデータを失わずにすむだろ。 ディスクを二台とも廃棄するのは同じ環境で同じように酷使されたディスクなんて信頼性はもう無いと見た方が安心できる。 あと無停止システムにしたいなら二方向ミラーの一組だけでどうにかしろってのは無理だし。
329 名前:login:Penguin mailto:sage [2011/02/20(日) 22:40:50.93 ID:Mnk/k141] 最近は別メーカーとか別製品のHDD二台組み合わせて 遺伝的アルゴリズム風に運用するのが流行りだしてね?
330 名前:login:Penguin mailto:sage [2011/02/20(日) 22:53:05.59 ID:uoxofCdd] 三台でミラーリングして定期的に一台交換する、とか
331 名前:login:Penguin mailto:sage [2011/02/21(月) 01:31:02.60 ID:/mh8pAHw] LVM ってプールみたいなもん?
332 名前:login:Penguin mailto:sage [2011/02/22(火) 22:32:44.57 ID:d4GHXSIo] >>331 うんにゃ、AIXの論理ボリューム管理みたいなもん。
333 名前:login:Penguin mailto:sage [2011/02/24(木) 08:28:42.23 ID:UZbhA2qj] 320GBのHDDでarray作って思った 320GBがいつまで新製品で買えるのかとw せめて500GBにしときゃよかった。。。
334 名前:login:Penguin [2011/02/24(木) 08:57:55.75 ID:+LhVKrWL] mdadmだと、気にせず個々に大きいHDDに取り替えていけばいいんじゃね? で、全部が320GB overになったらgrowしてみる、と。
335 名前:login:Penguin mailto:sage [2011/02/26(土) 01:13:09.50 ID:AjpK4IVQ] アレイの構築中の負荷で他に影響を与えないようにioniceやniceコマンドを mdadmコマンド実行時に前段に追加して実行してもダメなんすね。 実際に仕事してるのは別プロセスのようなので、(md0_raid5とかmd0_resyncとか) mdadm実行後に立ち上がったプロセスをreniceとioniceで後から優先度を変更するしか アレイ構築やチェックの処理優先度を下げさせることできないんでしょうか?
336 名前:login:Penguin mailto:sage [2011/02/26(土) 01:29:23.11 ID:vu/EQK7u] man 4 md
337 名前:login:Penguin mailto:sage [2011/02/26(土) 12:05:23.19 ID:l2UEaSXl] manってアレイごとの /sys/block/mdN/md/ が抜けてるよね
338 名前:login:Penguin mailto:sage [2011/02/26(土) 23:26:00.10 ID:YHKS4Qz2] あれぃ?
339 名前:login:Penguin mailto:sage [2011/03/03(木) 23:19:11.12 ID:aPgrBUX+] HDD3台で構成されてるRAID5の/devmd0に ディスクを--addで追加してスペアディスクとして組み込んだ状態から RAID60レベル変更にしたいのですが、 # mdadm --grow --level=6 --raid-disks=4 /dev/md0 mdadm: /dev/md0: Cannot reshape array without increasing size (yet). # mdadm --grow --level=6 --raid-disks=4 --size=max /dev/md0 mdadm: can change at most one of size, raiddisks, bitmap, and layout という感じでエラーになります。引数に何が足りないんでしょうか? もしくはmdadm.confに予め何か設定しておく必要があったりしますか?
340 名前:login:Penguin mailto:sage [2011/03/04(金) 22:31:20.60 ID:dpTfiBPG] >>339 上のコマンド打った後以下コマンド実行で動かない? # echo raid6 > /sys/block/md0/md/level 参考このへん: ttp://xblog.hellokitty68.main.jp/?eid=1016578
341 名前:login:Penguin mailto:sage [2011/03/06(日) 04:55:31.91 ID:RPfF2gcb] mdadmってどう呼んでる? マダドム?マダッドム? マダムとダッドの合体語?
342 名前:login:Penguin mailto:sage [2011/03/06(日) 11:09:04.36 ID:9frQ4hTx] エムディエイディエム
343 名前:login:Penguin mailto:sage [2011/03/06(日) 11:10:44.71 ID:Zh9h7jx2] 自分では エム ディー アドミン 人に伝えるときは エム ディー エー ディー エム あくまでも個人的な意見。
344 名前:399 mailto:sage [2011/03/06(日) 19:51:57.84 ID:JhgND8E+] >>340 行けました! RAIDレベル変更の拡張の場合はmdadm側のコマンドで変更後のレベル指定するんじゃなくて /sys/block/mdX/md/level の中の記載を書き換えることで実現するんすねー。
345 名前:login:Penguin mailto:sage [2011/03/07(月) 10:14:23.53 ID:OwxqRXoH] エムディーアダモステ
346 名前:login:Penguin mailto:sage [2011/03/18(金) 10:29:31.58 ID:aNs3epMu] 質問。 mdadmでraid1を作っているんだが、sdbで不良セクタ発生。 再構築をしたいのだが、今は計画停電期間中。 停電が終わってから最長でも18時間で必ず次の停電が来てしまう。 dev.raid.*を設定しても18時間じゃ1.4TBのパーティションの同期完了が厳しい (丸一日くらいかかった気がする)。 UPSは2台あるが3時間の停電はとても耐えられない。 計画停電が終わるまで再構成はムリかな?
347 名前:login:Penguin [2011/03/18(金) 10:42:54.87 ID:ekMBduVz] 先月のだからもう解決済みかもなあ。 >>335 md の resync の下限と上限は /proc/sys/dev/raid/speed_limit_min /proc/sys/dev/raid/speed_limit_max をそれぞれ sudo echo xxxxx > ファイル、で数値を直に書き換えられる。 まずは cat して現在値を確認のこと。max はデフォルト値 200000 kB/s。 再起動すると元に戻るのでご注意を。 (個々のデバイスだと /sys/blocks/md*/md/sync_* あたりらしいけど使ったことない) ファイルのパス込みの正式名をどうしても覚えられないので、 設定が必要になるたびggりなおしてるw >>341 エムディーアダム。 原義からするとアドムのほうが近いんだろうけど、語感が好きじゃないのでアダム。
348 名前:347 [2011/03/18(金) 10:48:09.76 ID:ekMBduVz] >>346 347 に書いた方法で制限速度(limix_max)は上げられるけど、 小手先だし間に合わないんじゃないかなあ。 過負荷でアレイが壊れてかまわないなら、まずはレッツトライ。
349 名前:346 mailto:sage [2011/03/18(金) 11:09:00.33 ID:aNs3epMu] >>348 レス有難う。 dev.raid.speed_limit_minやdev.raid.speed_limit_maxをageまくって丸一日なんだ。 アレイが壊れるのは困るから…方法がないなら放置かな。 不良セクタ箇所以外は生きている(はずだ)し。
350 名前:login:Penguin mailto:sage [2011/03/18(金) 11:46:35.90 ID:YwOrhI0Y] >>349 案1 ディスクをもう1組用意して、パーティションを何個か切る(sdc1-4, sdd1-4とか)。 それぞれのパーティションでアレイを組んで(sdc1+sdd1->md1,...)1組ごとに同期をとる。 できたmdをLVMでくっつけて、縮退したアレイのデータが収まる大きさまで育ったらデータをコピる。 案2 バックアップとったら電源落として、のんびりする。
351 名前:346 mailto:sage [2011/03/18(金) 14:28:59.63 ID:aNs3epMu] >>350 ありがとう。案1は私の力じゃ作業に不安があるな。 今日の二回目の停電が中止になって30時間以上間が開いたから、 ソッコーで同期始めた。 >>348 ,350ありがとう。
352 名前:login:Penguin mailto:sage [2011/03/26(土) 00:36:56.81 ID:NFqGjfij] >>346 bitmap作ればできなくない?
353 名前:login:Penguin mailto:sage [2011/03/26(土) 11:31:47.15 ID:xd62/6A8] ディスクが1発死んだときに、新しいディスクに交換してリビルドする前にバックアップとるとすると、 バックアップ先のハードウェアって何にしてる? 容量の大きなRAID組んでると、バックアップ先もでかい容量が必要になると思うんだけど、USBの外付け ハードディスク買ってきても、いいとこ3TBだし。
354 名前:login:Penguin mailto:sage [2011/03/27(日) 10:51:40.31 ID:C3vM+KLD] 別PCにバックアップ用のアレイを組んでるよ
355 名前:login:Penguin mailto:sage [2011/03/28(月) 01:12:47.84 ID:9esJblgo] 質問です。 HDD1台のみでスパニングモードのアレイを設定(マザボ付属のraid)して、 その後にアレイを解除した場合、データは消去されたのでしょうか? 2TBのHDDを誤ってスパニング設定し、解除してしまったところです。 ウィンドウズの「ディスク管理」では「ディスク1 ベーシック 1863.01GB オンライン 未割り当て」、 Nvidiaの「ストレージ設定表示」では「基本ディスク」と表示されています。 マザボはGF8100 M2+SEです。 よろしくお願いします。
356 名前:login:Penguin mailto:sage [2011/03/28(月) 16:43:40.09 ID:g1P3BYn9] 同じ設定で組めば OK
357 名前:355 mailto:sage [2011/03/29(火) 09:18:30.95 ID:G7JKKN1D] >>356 様 ありがとうございます。 本日試してみます。
358 名前:355 mailto:sage [2011/03/31(木) 10:30:36.15 ID:rUfaoVMQ] 355です。結果報告です。 アレイ同じ構成に戻してもウィンドウズ上からは認識されませんでした。 そこでtestdiskを使い、HDDは復旧しました。
359 名前:login:Penguin mailto:sage [2011/04/10(日) 00:06:51.69 ID:NuOE1clz] 質問させていただきます。 CentOSでRAID5を組んでいるのですが、共有ディレクトリにアクセスしようとすると、異様に時間がかかり、 Linuxマシン側に糞長いエラーログが出ます。 ata6.00: status: { DRDY } とか出ているので、構成アレイの最後の一本にアクセスしようとして失敗しているっぽいです。 ただ、cat /proc/mdstatしても[5/5] [UUUUU]ですし、mdadm -D /dev/md0しても active syncです。 しかし、怪しい構成アレイはsmartctlもできなくなっていますし、RAIDから切り離すとアクセスが安定します。 これはHDD自体が死んでいるのでしょうか?
360 名前:login:Penguin mailto:sage [2011/04/10(日) 00:48:54.94 ID:sZ+yw5+B] >>359 その糞SATAケーブルを交感してから試してみやがれこの糞野郎 とエスパーしてみたり
361 名前:login:Penguin mailto:sage [2011/04/18(月) 14:03:20.39 ID:LohzKB9l] NEC Express5800/GT110b に HDD 4台で RAID 組もうとしているんですが、マザボの SATA に2系統あるようで、 SATA0 (赤): sda SATA1 (青): sdc SATA2 (赤): sdb SATA3 (青): sdd のようになります (赤・青はボード上のソケットの色)。 この場合、RAID1 を2セット組むとしたら sda-sdb, sdc-sdd で組むべき? sda-sdc, sdb-sdd で組むべき? なお、/boot は作成する RAID1 (md0) に入れるつもりです。
362 名前:login:Penguin mailto:sage [2011/04/18(月) 14:42:10.50 ID:bX7LZUHN] なぜ自分で計測しないの?
363 名前:login:Penguin mailto:sage [2011/04/18(月) 15:51:50.84 ID:LohzKB9l] >>362 計測? sda, sdb ... と順に組んでくのがいいのか、SATA の系統をまたいで組むのが良いのか、作法を聞きたいのですが。 ググってみたのですが、あまりこの辺について書いているものを見つけられませんでした。
364 名前:login:Penguin mailto:sage [2011/04/18(月) 16:13:58.59 ID:mCb2yyO9] 奇数偶数でワンセットにしたい人もいるだろうし、 連番でワンセットにしたい人もいる。 やりたいよいにやればいい。
365 名前:login:Penguin mailto:sage [2011/04/18(月) 16:59:09.56 ID:Pmlfe7XY] チップセットのブロック図くらい読んでこいや
366 名前:login:Penguin mailto:sage [2011/04/18(月) 17:47:19.26 ID:Hd6IlzqC] 俺なら同じ色同士でやる
367 名前:login:Penguin mailto:sage [2011/04/18(月) 18:03:37.68 ID:Pmlfe7XY] 言っておくが赤を切ると爆発するぞ
368 名前:login:Penguin mailto:sage [2011/04/18(月) 18:09:14.12 ID:bX7LZUHN] 作法というなら、単一障害点を減らすのがRAIDの基本だべ
369 名前:361 mailto:sage [2011/04/18(月) 18:21:17.58 ID:LohzKB9l] sda-sdc, sdb-sdd でやってみることにしました。
370 名前:login:Penguin mailto:sage [2011/04/20(水) 16:15:57.39 ID:HQS7YCBa] >>360 回答ありがとうございます。 ケーブル交換では修正できなかったので、拡張PCIカードの不良を疑って交換したら見事に治りました。 ありがとうございます。
371 名前:login:Penguin mailto:sage [2011/04/30(土) 11:12:50.28 ID:ZWLOhJze] 既存のHDDを使ってRAID5あたりを組もうと思っているんですが もともと中にあったファイルを保持したままRAIDを組むっていうのは無理ですよね
372 名前:login:Penguin mailto:sage [2011/04/30(土) 14:46:46.73 ID:lxU/ZmU/] >>371 やり方は色々あるけどできるよ
373 名前:login:Penguin mailto:sage [2011/04/30(土) 19:57:43.37 ID:ZWLOhJze] >>372 マジですか ぜひともやり方を教えていただけると…
374 名前:login:Penguin mailto:sage [2011/04/30(土) 20:00:40.12 ID:U5mQf/ym] >>373 HDDに結構な負荷かかるから古いHDDだと構築時に逝くかもしれないぜ?
375 名前:login:Penguin mailto:sage [2011/04/30(土) 20:27:08.48 ID:ZWLOhJze] 古いと言っても1~2年なので多分大丈夫だと思います
376 名前:login:Penguin mailto:sage [2011/04/30(土) 21:49:53.47 ID:ajiH1WGa] >>373 エスパーじゃないから元の環境と(ボリューム数とかLVM使用の有無とか) RAID5にしたい時のボリューム数がわからんので何も助言できない
377 名前:login:Penguin mailto:sage [2011/04/30(土) 22:03:22.26 ID:IxyBD6MT] >>371 LinuxのソフトウェアRAIDなら以下の手順で出来るよ。 1.新しいディスクを2台買ってきて取り付ける 2.新しいディスク2台で縮退状態のアレイを作る 3.アレイに既存のディスクの中身(ファイルシステム、論理ボリュームなど)をコピーする 4.既存のディスクをアレイに追加して、同期が終わるまでじっと待つ 注意事項は、新しいディスクが既存のディスクより大容量な場合、アレイを作る際に丸ごと使わないこと。 新しいディスクが3台以上あるなら普通に新しいディスクだけでアレイを作ってデータをコピーし、 最後に領域拡張するという手もある。
378 名前:login:Penguin mailto:sage [2011/04/30(土) 22:56:21.61 ID:ZWLOhJze] >>376 環境はとりあえず今からRAIDができるOSを入れようと思っています なのでなんでもいいです ボリューム数は5 LVMは使えば複数HDDを一つに見せることが可能という認識でいいでしょうか であればぜひ使いたいです >>377 やっぱりいくつか買い足さないと駄目ですかね? 出来れば買い足さず今あるHDDで済ませたいのですが…
379 名前:377 mailto:sage [2011/04/30(土) 23:14:28.57 ID:IxyBD6MT] >>378 え、ひょっとして手持ちのディスクをデータをそのままにRAID5のアレイにまとめようとか考えてる?
380 名前:login:Penguin mailto:sage [2011/04/30(土) 23:18:38.64 ID:3faszs44] そうとしか読み取れなかったが
381 名前:377 mailto:sage [2011/04/30(土) 23:34:22.61 ID:IxyBD6MT] >>380 いや、手持ちのディスク1台のデータを保ったままRAID5アレイに移行するってのはアリだけど、 よもや5台全部のデータをそのままRAID5に移行したいなんて物理的に無理なことを考えてるとは思わなくて。
382 名前:login:Penguin mailto:sage [2011/04/30(土) 23:43:04.11 ID:ajiH1WGa] 空きディスク1発あればRAID1縮退作って1発分移動して RAID1→RAID5変換してファイル移動して空いたディスクをRAID5にaddしてgrowしてを繰り返せば理論上できなくもないけど 変換だけで実時間3・4日くらい使うぞ
383 名前:login:Penguin mailto:sage [2011/05/01(日) 00:07:10.63 ID:bc06QFlz] やっぱり無理ですよね… 素人で申し訳ないです
384 名前:login:Penguin mailto:sage [2011/05/01(日) 01:36:51.51 ID:Gb8UNBEf] あまったRAIDカードと容量バラバラのHDD8台でRAID5組んで遊びで運用してるけど、一向に不具合こない RAIDは同じ型番のHDDでって思ってたけどそこまで関係ないものなのかな
385 名前:質問 [2011/05/08(日) 16:46:59.11 ID:iKVL8NzG] CentOS5.4でのソフトウェアRAID5を勉強中ですが、ディスクの交換のところでうまくいきません。 下記手順で進めていきましたが、ディスク交換→mdの再構築まではうまくいくのですが、 再起動をかけるとRAID5の構成デバイスがまた元に戻ってしまいます。 再起動後でもhdd7がRAID5のアクティブデバイスであるためには何か必要なのでしょうか? いろいろ調べてみたのですが、どのサイトにもそのようなことが書かれておらず困っています。 RAIDデイバス作成 # mdadm -C -a yes -l raid5 -n3 -x1 /dev/md0 /dev/hda2 /dev/hdd1 /dev/hdd5 /dev/hdd6 確認 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hdd5[2] hdd6[3](S) hdd1[1] hda2[0] 1975680 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU] フォーマットとマウントして、利用できることを確認 # mkfs -t ext3 /dev/md0 # mount /dev/md0 /test1 fstabに登録 # vi /etc/fstab /dev/md0 /test1 ext3 defaults 1 2 再起動しても利用できることを確認 # shutdown -r now (本文が長いとでるのでこの後続きます)
386 名前:385 [2011/05/08(日) 16:48:44.75 ID:iKVL8NzG] (続きです) 検証のため2台のデバイスを削除 # mdadm --manage /dev/md0 -f /dev/hda2 # mdadm --manage /dev/md0 -f /dev/hdd1 # mdadm --manage /dev/md0 -r /dev/hda2 # mdadm --manage /dev/md0 -r /dev/hdd1 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hdd6[0] hdd5[2] 1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U] 予備で用意していた/dev/hdd7があることを確認 # fdisk -l/dev/hdd /dev/hdd1 1 123 987966 fd Linux raid 自動検出 /dev/hdd2 124 3042 23446867+ 5 拡張領域 /dev/hdd3 3043 9122 48837600 83 Linux /dev/hdd4 9123 11555 19543072+ 83 Linux /dev/hdd5 124 246 987966 fd Linux raid 自動検出 /dev/hdd6 247 369 987966 fd Linux raid 自動検出 /dev/hdd7 370 492 987966 fd Linux raid 自動検出
387 名前:385 [2011/05/08(日) 16:49:04.87 ID:iKVL8NzG] (つづきです) /dev/hdd7を追加 # mdadm --manage /dev/md0 -a /dev/hdd7 しばらくして確認 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hdd7[1] hdd6[0] hdd5[2] 1975680 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU] 再起動しても問題ないか確認 # shutdown -r now ↓なぜかhdd7が消えている # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hdd6[0] hdd5[2] 1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U]
388 名前:login:Penguin mailto:sage [2011/05/08(日) 18:32:50.44 ID:dbrlUN8D] リビルド
389 名前:login:Penguin mailto:sage [2011/05/09(月) 01:28:01.10 ID:S+FHQdJ2] >>387 /dev/hdd7 が拡張領域の最後のパーティションであるところが臭いな。 それでスーパーブロックの自動認識がコケてるんじゃないのかな。 実験で使わない /dev/hdd8 を作ってみればどうだろう。 パーティションタイプは fd 以外で。
390 名前:login:Penguin mailto:sage [2011/05/09(月) 05:38:07.68 ID:Mo4D+3QG] 起動後にdmesgとかは見た?
391 名前:login:Penguin mailto:sage [2011/05/09(月) 17:20:30.78 ID:NP2vgjMG] >>385 を見ると 最初の段階では hda1/2/5 の3台でボリューム作ってて hdd6がスペアだよね? で、>>386 では hda1/2 を抜いたように見えるんだが… 3台構成中の2台抜いちゃったらボリュームの再構成はできないのでは。 書いてないけど、1台抜く→リビルド終了→もう1台抜く てな段取りでやったのかな?
392 名前:login:Penguin mailto:sage [2011/05/09(月) 18:43:18.57 ID:MY5ZQwLA] RAID5 hda2、hdd1、hdd5、hdd6 (スペア) この状態で hda2、hdd1 を外したら、RAID5 は消滅してるよね? それとも、hda2 を抜いたあとのスペアを使ってのリビルドを終えてから hdd1 を外してるってこと?
393 名前:login:Penguin mailto:sage [2011/05/09(月) 22:06:58.52 ID:8NVZ92rG] >>385 とりあえずmdadm.confをチェックしたらいいんじゃないかと思うが。
394 名前:login:Penguin mailto:sage [2011/05/09(月) 23:41:17.38 ID:ljI9s1dP] arrayぶっ壊した祭りキタ━━━━(°Д°)━━━━?
395 名前:login:Penguin mailto:sage [2011/05/11(水) 20:56:17.03 ID:zBKnKrbv] S-ATAのRAIDカードで、 RAID組まずにS-ATAのHDD2台増設として使用できますか? この玄人志向カードです。 www.kuroutoshikou.com/modules/display/?iid=86 また、複数毎挿しは可能でしょうか?
396 名前:395 mailto:sage [2011/05/11(水) 20:58:32.96 ID:zBKnKrbv] 追 OSはWindows7 M/BはG31M7-TE、G31MX-Kを考えています。
397 名前:login:Penguin mailto:sage [2011/05/11(水) 23:25:01.38 ID:GMmHnJqe] 帰れ
398 名前:login:Penguin [2011/05/12(木) 08:32:00.30 ID:IfSMMkdB] kuroutoshikou.com/modules/kurobbs/?tid=1839 SiliconImage社から配布されているファームウェアで、 bから始まるものを当てると、RAID機能が無効になり、ただのSATAカードと認識されます。 逆にrから始まる物を当てれば、再びRAID機能が有効になり、RAIDボードとして認識します。 ちなみに、私が使ったのはb4384.binというファームでした。
399 名前:login:Penguin [2011/05/12(木) 09:27:14.34 ID:IfSMMkdB] www.siliconimage.com/support/searchresults.aspx?pid=29&cat=15 BIOS-003512-xxx-4384 にrがある。
400 名前:login:Penguin mailto:sage [2011/05/12(木) 21:00:26.48 ID:tVRwKmAN] リビルド 言っただろ 案の定、リビルド終わってないんじゃないかと言う意見たくさん出てるな
401 名前:login:Penguin mailto:sage [2011/05/13(金) 22:54:16.70 ID:BHN+ryP5] >>395 SiI3512 - PCI to 2 Port SATA150 www.siliconimage.com/products/product.aspx?pid=29 これって3TB対応してるのかな?
402 名前:385 [2011/05/14(土) 11:47:25.61 ID:eKhgKtI/] みなさん、貴重なご意見ありがとうございます。 ひとつずつ検証して結果をレスさせていただきます。 なにぶん、1週間たつと頭が真っ白になっていますので・・・ その前に、386の訂正です デバイスをいきなり2台削除したのではなく、 # mdadm --manage /dev/md0 -f /dev/hda2 でスペアのhdd6がアクティブ(同期される)ことを/proc/mdstatで確認 # mdadm --manage /dev/md0 -f /dev/hdd1 で # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hdd5[2] hdd6[0] hdd1[3](F) hda2[4](F) 1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U] を確認 (3台構成のうち2台が生きている状態) その後で、 # mdadm --manage /dev/md0 -r /dev/hda2 # mdadm --manage /dev/md0 -r /dev/hdd1
403 名前:login:Penguin mailto:sage [2011/05/14(土) 12:12:03.65 ID:ASYKen8E] >>402 だけ見て適当な意見 raid5で2台をFにしていいの?
404 名前:385 mailto:sage [2011/05/14(土) 12:15:03.42 ID:eKhgKtI/] >>402 は >>391 >>392 さんからの意見をみての訂正です。 >書いてないけど、1台抜く→リビルド終了→もう1台抜く >てな段取りでやったのかな? >それとも、hda2 を抜いたあとのスペアを使ってのリビルドを終えてから hdd1 を外してるってこと? ご指摘通りです。 質問をしておいて肝心な部分を省略してしまいました。大変失礼しました。
405 名前:login:Penguin mailto:sage [2011/05/14(土) 12:22:25.52 ID:aKnDiMTq] mdadm.confが見当たらないが?
406 名前:385 mailto:sage [2011/05/14(土) 12:42:23.63 ID:eKhgKtI/] >>403 今回の検証の目的として、 @1台がこけたときに、スペアが自動的にアクティブとなって同期するか? Aさらに1台がこけて3台のうち2台構成であっても、RAID5として機能するか? Bあらかじめ用意していたディスクをRAID5に追加しても機能するか? なんですが、 @の検証のためにまずはhda2をFにしました つづいてAの検証のためにhdd1もFにしました そのため表示上は2台がF状態ですが、>>402 の手順では3台のうち常に2台は アクティブ状態なのでRAID5としては大丈夫だと思っていますが・・
407 名前:login:Penguin mailto:sage [2011/05/14(土) 12:47:18.94 ID:GMaEcG2w] 物理的に抜かないといけないんじゃなかったか?
408 名前:385 mailto:sage [2011/05/14(土) 12:51:45.16 ID:eKhgKtI/] >>405 今回は特にmdadm.confは使用していません。 理由として、 mdadmコマンドでは、mdadm.confが無くてもRAIDの構成ができるということと、 もしディスク構成が変わったときにmdadm.confの情報が古いため、再起動があったときに問題が生じる可能性がある と思ったからです。 ただし今回の問題においては、ディスク構成が変わったときにmdadm.confにも構成情報を記述したら、 再起動時にmdadm.confを参照してうまくいくのでは?と思ってやってみたのですがうまくいきませんでした。 今回もう一度チャレンジしてみる予定です。
409 名前:385 mailto:sage [2011/05/14(土) 12:59:59.86 ID:eKhgKtI/] >>407 肝心の交換する物理的なディスクがないんです・・ そこで、論理パーティション(fd用)を作成してこれを交換用ディスクと仮定して検証しています。 ん・・ 今思ったのですが、RAID5構成が2/3になった場合、本来は RAID5障害 → shutdown → ディスク交換 → 起動 → パーティション作成 → RAID5再構築と思いますが、 自分のやり方だと、 RAID5障害 → RAID5再構築 となって、一番肝心の再起動をすっとばしています RAID障害と再構築の間でshutdownが必要なのかも? ちょっと後で検証してみます。
410 名前:login:Penguin mailto:sage [2011/05/14(土) 15:09:30.64 ID:MxTWk7g0] /dev/hdd? ってことはPATAだよね。 SATAでやった方がいいんじゃね? 要再起動ではRAIDの価値半減では。
411 名前:login:Penguin mailto:sage [2011/05/14(土) 15:50:35.85 ID:MxTWk7g0] ん? よく見たら 一台の物理HDDをパーティション切ってRAIDにしてるんだw リビルドとか何それHDDいじめ? w 単なる実験だとしても RAMディスク上に小さいディスクイメージを必要数作って VM上のLinuxにマウントしてやるとかの方が 実用的な実験になるんでないか?
412 名前:385 mailto:sage [2011/05/14(土) 20:03:03.74 ID:eKhgKtI/] >>411 15年前のPC(メモリ192MB)には残酷です すでにGUIインスト・起動もできなくなるほどの老体ですので・・
413 名前:385 mailto:sage [2011/05/14(土) 20:13:54.14 ID:eKhgKtI/] >>390 基本となるログ確認を忘れていました。 dmesgだとタイムスタンプが表示されないので、syslog経由で/var/log/dmesgに記録するようにしました が、すみません 387のようにhdd7をmd0に参加させてアクティブにして、3/3構成になっていることを確認後、 shutdownし、その後のdmesgを確認しようとしたのですが、 なぜか起動する時点で、 RAID5に必要なデバイスが2個しかないので/dev/md0の作成ができない、 だからfsckできない /dev/md0開けない、スーバーブロックの〜〜がおかしい とかエラーになって起動に失敗するようになりました。 朝はちゃんとできていたんですけど・・やったといえば空の/etc/mdadm.confを削除したぐらい? /etc/mdadm.confはいる子なんですかね。
414 名前:login:Penguin mailto:sage [2011/05/14(土) 20:42:06.54 ID:x6YKLIxD] >>413 手でmdadm.confを書いて再起動してみ。
415 名前:login:Penguin mailto:sage [2011/05/14(土) 20:54:54.56 ID:VCCnnm+r] mdadm.conf 名前からして mdadm の設定ファイル そりゃ無くしちゃ駄目だろうw
416 名前:385 mailto:sage [2011/05/14(土) 21:01:22.65 ID:eKhgKtI/] 今回の件に関してリビルドという書き込みがあるのですが、 >>402 にもあるように、 @/dev/hda2をFにすると、予備の/dev/hdd6がアクティブとなりデータが復元される それを/proc/mdstatで完了したことを確認し、さらに/dev/hdd1をFにする このときはすでに予備のディスクが無いので/proc/mdstatでは、3/2表示 A/dev/hdd7をmd0に参加させて、/dev/hdd7にデータが復元される /proc/mdstatで確認すると3/3の状態に戻っている この@、Aのときに起こっていることがRAID5でのリビルド(再構築)ではないのですか?
417 名前:login:Penguin mailto:sage [2011/05/14(土) 23:23:21.58 ID:Wn3DLmQA] ?なこと RAID5 4台構成+スペア1 RAID5 4台構成のうち2台外す RAID5は2台外したら機能しないよ 2台外した後に1台スペア追加したからって再構築もできないよ スペア有る状態で構築してある2台外す→データあぼーん やるなら、 スペア有る状態で構築してある1台外す→スペアを使って再構築→もう1台外す→データ生きてる って感じじゃないのか?
418 名前:login:Penguin mailto:sage [2011/05/15(日) 02:02:46.54 ID:KURhrqN1] >>412 ttp://nttxstore.jp/_II_HP13476513 でも買ったら? 送料無料12800円でdual core メモリも2GB載ってる
419 名前:login:Penguin mailto:sage [2011/05/20(金) 22:03:27.94 ID:Hx10u45z] スレ違いも甚だしいのだけど、 ttp://nttxstore.jp/_II_HP13476513 の「メーカ HP(旧コンパック)」の(旧コンパック)表記は未だに必要なのだろうか、と疑問に思ったw
420 名前:login:Penguin mailto:sage [2011/05/21(土) 02:16:43.53 ID:MIbSZT6Q] (1) OS (例えば CentOS 5.5) インストール時に RAID5 で Array 作成 (2) 作った Array にとりあえず色々ファイル書き込む (3) OS の入ったディスクをわざと消して、OS (例えば CentOS 5.6) を再インストール Linux のソフトウェア RAID は、こんな風に OS が入れ替わっても Array の入ってた ディスクの設定とかを弄らなければ普通に認識してくれるもんなんでしょうか?
421 名前:login:Penguin mailto:sage [2011/05/21(土) 02:19:02.64 ID:jo2LkPkL] >>420 何がRAIDをコントロールしているかを考えれ・・・・・・。
422 名前:login:Penguin mailto:sage [2011/05/21(土) 10:46:47.58 ID:/ULFXKmI] RAIDで使ったHDDの一片をUSBに持っていったり 一片を別なPCに付けてiSCSIで接続しても元に戻るよ
423 名前:login:Penguin mailto:sage [2011/05/21(土) 11:05:29.19 ID:MIbSZT6Q] 戻らねぇよカスw
424 名前:login:Penguin mailto:sage [2011/05/21(土) 11:15:10.45 ID:/ULFXKmI] やってみるといいよカス
425 名前:login:Penguin mailto:sage [2011/05/21(土) 20:16:06.77 ID:H1P/c5OE] >>420 使用したOS内蔵のソフトウェアRAIDに互換性があれば再認識させる事はできる。 USBだろうがiSCSIだろうがRAID構成に使用できるデバイスとして見えるなら元のアレイを取り戻す事はできる。 その気になればRAIDを構成するディスクすべてをそれぞれ別のマシンのiSCSIターゲットから提供してもらって構築する事もできる。 もちろんCentOSでできるかどうかは自分で調べてくれ。
426 名前:login:Penguin mailto:sage [2011/05/21(土) 21:06:15.97 ID:/nyg0oy0] 横から失礼 LinuxのSoftwareRAIDって結構柔軟なんですね。 構成に必要な設定はそれぞれのHDDに含まれてて、ディスクが揃えば構成は元に戻る。 って事なんかな? それともmdadm.confが残ってること(また自力でなんとか書き起こせた場合)が前提?
427 名前:login:Penguin mailto:sage [2011/05/21(土) 22:53:08.25 ID:cuk2hA/s] >>422 ソフトウエアRAIDだと戻りそうだが、ハードウエアRAIDだと戻らないだろうね
428 名前:login:Penguin mailto:sage [2011/05/21(土) 23:10:09.49 ID:cuk2hA/s] >>426 以前オレがやったこと。 その1 マザー4ポートとRAIDカード4ポートにHDDを接続してソフトウエアRAIDで構築 ↓ RAIDカード8ポートのものに交換 ↓ 何も考えずHDD8台接続 ↓ 起動したらそのまま使えた その2 OSドライブにUSBメモリを使い debian 5.0 lennyでソフトウエアRAID組んで運用 ↓ OSドライブを交換するため、USBメモリを外すと同時にソフトウエアRAIDを組んでたドライブを全部外す ↓ HDDに交換 debian 6.0 squeeze クリーンインスコ ↓ ソフトウエアRAID組んでたドライブを取り付ける ↓ 再構築 ↓ マウントしたら、データ残ってて普通に使えた
429 名前:login:Penguin mailto:sage [2011/05/22(日) 01:24:19.56 ID:mz99SHzs] ふむふむ てことは、Linuxから認識が出来て、 パーティションをいじらない限りは 普通に使えそうですね。
430 名前:login:Penguin mailto:sage [2011/05/22(日) 17:17:48.63 ID:UuMWPsxa] >>426 >>429 パーティションなりディスクボリュームなりの最後にスーパーブロックがあって、 そこにマジック書き込んであって認識される。 RAIDのどのタイプか、何番目のディスクか、動作状態は健全かデグレートか等々。 したがってRAIDから外したディスクを再利用するつもりなら --zero-superblock しとかないと、既存のRAIDの一部とみなされて後々変なトラブルが出る。 >>427 ハードウェアRAIDでも同じ。ディスクのどこかに「しるし」を書き込むよ。
431 名前:login:Penguin mailto:sage [2011/05/22(日) 17:24:17.90 ID:UuMWPsxa] 追記。 「変なトラブル」の大半は、RAIDボリュームの一部なのに他と合わないので RAID構成から外すとかRAIDの方も停止状態にした、というもの。 各ディスクには出来上がったRAIDボリュームのUUIDと動作状態の チェックサムも記録されているので、偶然の一致は無い。
432 名前:login:Penguin mailto:sage [2011/05/22(日) 19:03:12.62 ID:2Faawrj0] >>430 > ハードウェアRAIDでも同じ。ディスクのどこかに「しるし」を書き込むよ。 無責任に一般化するなよw
433 名前:login:Penguin mailto:sage [2011/05/22(日) 20:09:37.56 ID:GBnvxDPM] >>432 無知乙
434 名前:login:Penguin mailto:sage [2011/05/23(月) 00:19:26.19 ID:7v6SLhKz] >>433 無知とか何とかって話ではなく、 この話がそもそも >420 からの続きだってこと 理解してるのか? つか一言でハードウェアRAIDったって 例えば3wareとRocketRAIDじゃ 全然違うだろうに 更に言えば機種後との互換性すら メーカーごとに全然扱いが違うんだが
435 名前:login:Penguin mailto:sage [2011/05/23(月) 01:49:04.69 ID:8su/jpd5] >>433 メーカーAのカードでハードウエアRAID組んだドライブを メーカーBのカードにつないでハードウエアRAIDにしても問題なく今までのデータ使えるんだ?w
436 名前:login:Penguin mailto:sage [2011/05/23(月) 01:57:47.85 ID:+Ld7qqz/] その「しるし」がハード固有だって事ぐらい分かるだろ? それを挙げ足取りみたいにして喜んでさ、根暗だよね〜。
437 名前:login:Penguin [2011/05/23(月) 07:51:45.28 ID:WeXZ1aBl] >>434-435 ここまで頭のわるいやつらだったとは
438 名前:login:Penguin mailto:sage [2011/05/23(月) 10:38:53.40 ID:b7qa5pVu] >>420 にはソフトウェアRAIDって書いてあるのに 延々とハードウェアRAID基準で語るとか 日本語が不自由な奴が多いのか
439 名前:login:Penguin mailto:sage [2011/05/23(月) 20:49:21.35 ID:T2qGWxDH] >>437 ソフトウエアRAIDの話をしているのにハードウエアRAIDの話に持っていく そして、ハードウエアRAID固有の問題を挙げると揚げ足取りとか言う 馬鹿なのかアホなのか
440 名前:login:Penguin mailto:sage [2011/05/23(月) 22:21:48.36 ID:BzlQ03Y+] 次スレ案 【ハードも】RAID総合スレッド No.6【ソフトも】
441 名前:login:Penguin mailto:sage [2011/05/23(月) 22:25:37.02 ID:JXT2n+qb] ハードも可とすると、自作PC板の hibari.2ch.net/test/read.cgi/jisaku/1303039530/ との住み分けも考える必要がありそうすね。
442 名前:login:Penguin mailto:sage [2011/05/23(月) 22:35:49.44 ID:BzlQ03Y+] 次スレ案2 【ソフトでも】Linux de RAIDスレ No.6【ハードでも】
443 名前:login:Penguin mailto:sage [2011/05/23(月) 22:39:06.68 ID:LESgUC77] ハードウェアRAIDの最低ラインはMegaSASにしようぜ(w
444 名前:login:Penguin mailto:sage [2011/05/23(月) 23:16:44.85 ID:c0/6JENF] >>442 懐かしすぎて吹いた
445 名前:login:Penguin mailto:sage [2011/05/23(月) 23:19:26.81 ID:c0/6JENF] >>443 ハードウエアRAIDは使ってないからわかんないけど、 ハードウエアRAIDをLinux板でやる意味はあるの? 自作PC板かハードウェア板でやったほうが有意義では?
446 名前:login:Penguin mailto:sage [2011/05/24(火) 09:57:13.61 ID:uNp2NbCh] 自作板にはすでにRAIDカードのスレがあるよ。 RAIDカードあれこれ 43枚目 ttp://hibari.2ch.net/test/read.cgi/jisaku/1303039530/
447 名前:login:Penguin mailto:sage [2011/05/24(火) 12:37:53.94 ID:rRC5sbA8] 総合スレなんだから総合らしくやればいいだけのこと
448 名前:login:Penguin mailto:sage [2011/05/24(火) 21:39:57.63 ID:3OuK7Gis] ハードウエアRAIDでアレイ構築してるのにlinux板のRAIDスレで何聞くんだろ?
449 名前:login:Penguin mailto:sage [2011/05/25(水) 03:45:59.14 ID:3S9STLoJ] ドライバ関係とかツールのインストール関係とか Linux依存の話はいろいろあると思うが
450 名前:login:Penguin mailto:sage [2011/05/25(水) 10:35:24.97 ID:61mBVb84] 次スレ談議は950あたりでやればいいよ。
451 名前:430 mailto:sage [2011/05/26(木) 13:11:33.96 ID:WzPNJ81w] >>434-436 異方式での互換?「藁人形論法」なんて幼稚な事しなさんな。 ソフトウェアRAID込みでRAID共通化の提言は確かインテル主導で (アンド、mdadmの人も入ってる)だいぶ前からあるはずだけど、 はたしてまとまるのかねえ。 >>432 ではその事例を挙げるべし。教えてもらえると助かるよ。 >>445 dmraidがあるんだから、語ればいいと思う。
452 名前:login:Penguin mailto:sage [2011/05/26(木) 15:18:08.67 ID:Vlfbg01s] アホは放置の方向で
453 名前:login:Penguin mailto:sage [2011/05/26(木) 23:10:45.61 ID:2O6Wds09] なんだ、反論できないからアホ呼ばわりかw
454 名前:login:Penguin mailto:sage [2011/05/27(金) 21:26:08.03 ID:SK+T648j] mdraidのsuperblockを修正するツールのraidzapについてなんだけど。 これって、superblock1.0にも対応してる? 先日、謎の瞬断で四本のディスクで構成していたraid5アレイが崩壊してしまい修復を図っているところなんだけど、ツールだとno superblockとかなってしまう。 でも、mdadm --exmineだとちゃんと表示されるんだよな〜。 1.0系と0.9系のsuperblockでは書き込まれている場所が違うからなんじゃないかと思っているんだけど。 ソースみても読み込み位置を指定する部分がよくわからない。。。
455 名前:login:Penguin mailto:sage [2011/05/27(金) 23:34:46.71 ID:LfJimWf2] >>454 対応していない 0.9と1.xではsuperblockの構造体が違う raidzapは0.9系の構造体使ってる 位置は末尾決め打ち
456 名前:login:Penguin mailto:sage [2011/05/28(土) 02:11:28.82 ID:DR8xEqFb] >>454 なるほど、ありがとう。 だが・・・困ったなぁ。。。 md.cに何かヒントないかな。
457 名前:login:Penguin mailto:sage [2011/05/28(土) 02:12:55.99 ID:DR8xEqFb] 455へのレスだった・・・ごめんなす。
458 名前:login:Penguin mailto:sage [2011/05/28(土) 13:01:46.86 ID:17piUe8k] >>454 mdadm -A -l<level> dev dev... とかやって無理やりassembleしてもだめだった?
459 名前:454 mailto:sage [2011/05/28(土) 15:22:38.14 ID:DR8xEqFb] >>458 --forceとかつけてやってみたんだけど、ダメだった。。。 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md1 : inactive sdb1[1](S) sdd1[5](S) sda1[4](S) sdc1[2](S) 7813690476 blocks super 1.2 全部、なぜかスペア扱いwwww
460 名前:454 mailto:sage [2011/05/28(土) 15:34:46.55 ID:DR8xEqFb] ちょっと情報が少なかったので補足。 ・もともと、sd[abcd]1でRAID5を構築していた。 ・東京電力が謎の瞬断。 ・ログを見ると、sdaとsddが外れていた。 ・assembleかけてみたが、なぜかスペアで組み込まれてしまう。。。 ログを見ると、(ほとんど差は無いが)時間的にはsda、sddの順で外れていたので、 復旧の方向性としては、まずなんとかsddを組み込んで縮退状態での起動を 目指す…でいいよね?
461 名前:login:Penguin mailto:sage [2011/05/28(土) 17:00:28.23 ID:o/JG/Ps/] RAID組んでるならUPSぐらい…… # 今まで日本は恵まれていたんだよ。これからは海外並みにUPSが当たり前。
462 名前:login:Penguin mailto:sage [2011/05/28(土) 17:48:01.24 ID:17piUe8k] >>460 -A sd[bcd]1が無理なら--createする時に縮退で組めば resyncが発生せずにメタデータ上書きだけでデータ本体はそのまま残る。 --createするときはチャンクサイズとかレイアウトとかも要設定。 まずは仮想マシンで手順とか確認。
463 名前:454 mailto:sage [2011/05/28(土) 22:41:58.42 ID:DR8xEqFb] >>461 まぁ、それを言われちゃうと申し訳ないとしか言えないが… 計画停電もあったし、アキバで中古のUPS買おうとは思ってたんだけどなぁ。 >>462 createは最後にやってみようと思う。 おそらく、そこは失敗すると二度と戻れない手順ですよね。 もう少し、Faultyフラグを書き換える方法をいろいろ調べてみます。 ちなみにcreateする場合、自分の場合だと構成デバイスはsddだけにして、missing にsd[abc]入れる感じ?
464 名前:login:Penguin mailto:sage [2011/05/28(土) 23:42:14.88 ID:17piUe8k] >>463 各ボリュームがどこの位置にあったのかは-E /dev/ボリュームのDeviceRoleでわかる Device Role : Active device 0 Array State : AAAA ('A' == active, '.' == missing) createする時のdevicesは--detailのRaidDevice順になるからアレイから見て抜きたいところにmissing入れる なので元々dev.No = sda.0/sdb.1/sdc.2/sdd.3 となっていてsddがDevice Role=3で新規アレイの3の位置に戻して-Cするなら -C (中略) -l5 -n4 missing missing missing /dev/sdd になる。dev.noは上のままと仮定して0抜きの1/2/3で縮退-Cでstartする場合のdevicesは missing /dev/sdb /dev/sdc /dev/sdd になる 失敗してもアレイのメタデータが飛ぶだけでLVM/PVに使っていてもそのメタデータが 破損する亊はないけどその状態で書くと多分死ぬ 各アレイの頭4096 sectorsずつくらいddでコピーして仮想マシンで試すとかいうのも手
465 名前:454 mailto:sage [2011/05/29(日) 03:09:04.90 ID:HSES09fA] >>464 まじですごい!!! createで復活したよ!!! いくら、礼を言っても足りないくらいだ。 最初、lvmがinactiveになっていてactivateする必要はあったけど、見事に復活しました。 mount直後にext4の自動修正が走ったので、多少はデータに欠損があったのかもしれないが、いまのところ壊れたファイルは無さそうです。
466 名前:454 mailto:sage [2011/05/29(日) 03:34:13.70 ID:HSES09fA] これは素晴らしいノウハウなので、復旧した流れををちょっと書き記します。 ちょっとログが流れてしまったので、一部記憶を頼りに書いています。 > 各ボリュームがどこの位置にあったのかは-E /dev/ボリュームのDeviceRoleでわかる > Device Role : Active device 0 > Array State : AAAA ('A' == active, '.' == missing) # mdadm -E /dev/sd[abcd]1 | grep Role Device Role : Active device 0 Device Role : Active device 1 Device Role : Active device 2 Device Role : Active device 3 # mdadm -E /dev/sd[abcd]1 | grep State Array State : AAA. ('A' == active, '.' == missing) Array State : AAA. ('A' == active, '.' == missing) Array State : AAA. ('A' == active, '.' == missing) Array State : .AA. ('A' == active, '.' == missing) > createする時のdevicesは--detailのRaidDevice順になるからアレイから見て抜きたいところにmissing入れる # mdadm --detail /dev/md1 (中略) Layout : left-symmetric Chunk Size : 512K (中略) Number Major Minor RaidDevice State 4 8 1 0 failure 1 8 17 1 active sync /dev/sdb1 2 8 33 2 active sync /dev/sdc1 3 8 49 3 failure 5 ? ? ? spare /dev/sda1 6 ? ? ? spare /dev/sdd1
467 名前:login:Penguin mailto:sage [2011/05/29(日) 03:37:10.10 ID:HSES09fA] # mdadm -C /dev/md1 -c512 -l5 --layout=left-symmetric -n4 missing /dev/sdb1 /dev/sdc1 /dev/sdd1 以下、復活後の確認 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md1 : active raid5 sdd1[3] sdc1[2] sdb1[1] ちょっと怖いが、sdaも瞬断で外れただけで、壊れていないと判断してスペアに組み込んだ。 # mdadm --detail /dev/md1 Version : 1.2 Creation Time : Sun May 29 02:46:23 2011 Raid Level : raid5 Array Size : 5860267008 (5588.79 GiB 6000.91 GB) Used Dev Size : 1953422336 (1862.93 GiB 2000.30 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Sun May 29 03:29:10 2011 State : clean, degraded, recovering Active Devices : 3 Working Devices : 4 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Rebuild Status : 6% complete Name : sa22c:1 (local to host sa22c) UUID : edb063f2:f934a5bb:1bf36d16:54d746ca Events : 7 Number Major Minor RaidDevice State 4 8 1 0 spare rebuilding /dev/sda1 1 8 17 1 active sync /dev/sdb1 2 8 33 2 active sync /dev/sdc1 3 8 49 3 active sync /dev/sdd1
468 名前:454 mailto:sage [2011/05/29(日) 03:47:51.48 ID:HSES09fA] それにしてもHDDは、まだ買ってから3〜4ヶ月のWD20EARSなのに外れなのかなぁ。。。 5本買って、1週間で1本ぶっ飛んで交換してもらったというのに。 とりあえず、sdaとsddの2本は心配なので早急に換装を検討します。 もう、WDは買わない。 あらためて、464には本当にお世話になりました。 有難うございました!
469 名前:login:Penguin mailto:sage [2011/05/31(火) 14:33:41.81 ID:XlrTIdtB] WD20EARS 5本を常用してる私が来ましたよ。 454さんのような復旧時にはresync必須だけど、その逆で。 create/assemble 時に state:clean にして sync を省くオプション。 --assume-clean xfs@64bit がスタック問題で固まってた頃に多用しました。
470 名前:login:Penguin mailto:sage [2011/05/31(火) 17:32:00.62 ID:t1HBdX4P] こうやって問題が解決したときに結果を報告してくれる人ってのはすばらしいと思う お疲れ様&情報ありがとう。
471 名前:login:Penguin mailto:sage [2011/05/31(火) 20:30:44.98 ID:IpyDmIcQ] https://raid.wiki.kernel.org/index.php/Initial_Array_Creation そういやどっかのPerl MongerがRAID5構築時に無責任に--assume-clean勧めてたっけ
472 名前:login:Penguin mailto:sage [2011/06/01(水) 20:11:08.58 ID:68ZL2HmJ] 無責任艦長
473 名前:login:Penguin mailto:sage [2011/06/01(水) 22:36:50.36 ID:pRX2jIbT] タイラー!!!
474 名前:login:Penguin [2011/07/02(土) 09:21:27.65 ID:Gf0bFLPz] RAID10のリビルドはRAID6と比べて早いのではと想像しているのですが、 この考えは正しいでしょうか? 全部同一の2TBディスクを使ってのLinuxソフトウェアRAIDですが、 ・6本でRAID6 を、 ・8本でRAID10 に変更した場合、容量がざっくりレベルで同じになってリビルドが早くなるなら 変更したいと考えています。 現状のRAID6だと故障からリビルド完了までに丸2日近くかかっています。 構成は、Pen4マザーにPCI-SATAカード4枚刺しにしてディスクを分散して います。この構成を変えずにリビルド時間を短縮するのが目的です。 アドバイスお願いします。
475 名前:474 [2011/07/02(土) 09:24:02.18 ID:Gf0bFLPz] 補足ですが、データは全て別マシンにフルバックアップがあります。 変更といいつつアレイががっさり再構築になることは理解しています。
476 名前:login:Penguin mailto:sage [2011/07/09(土) 11:02:10.07 ID:Zeh7W9MH] >>474 その「リビルド」とやらを、一体システムの何が律速してるのか調べろよ。 ちょっと考えるだけでも ・パリティ計算を行うCPU ・SATAコントローラがぶら下がるPCIバスの帯域幅 ・SATAコントローラ自体の性能 ・SATAの帯域幅 ・ハードディスクの速度 あたりが律速する要因だろう、と見当はつくだろ。 CPUが律速してないのにRAIDの構成いじってもあまり意味は無いぞ。 あと、Linuxのmdアレイはリビルドだけでマシンパワーを使い切らないようにリミッターが かかってるから、その辺もありうるな。
477 名前:login:Penguin mailto:sage [2011/07/09(土) 11:17:58.17 ID:6cpMxatu] >>474 他にもボトルネックになっている可能性はあるけど、PCIバスが確実にボトルネックになるので 構成変えずに頑張っても大して効果はない。 ちなみにうちの2TBx5(RAID5)でのリビルドは、半日はかからなかったはず。
478 名前:login:Penguin mailto:sage [2011/07/10(日) 06:14:38.03 ID:pX9rtczw] ちょっと質問です >RAID5はRAIDボリュームクラッシュ時に手の打ちようがない >RAID10の方がまだマシだからRAID10にしておいた方が良い と言う話を聞いた事があるんだけど、RAIDボリュームクラッシュ時からの 回復率ってRAID5(RAID6,RAID-Z等含む)とRAID10で変わるのかな?
479 名前:login:Penguin mailto:sage [2011/07/11(月) 23:29:52.79 ID:OOaET+Az] >>478 簡単に計算してみる。 RAID5は10台中2台以上破損で回復できない。 RAID10は10台中6台以上破損で回復できない。
480 名前:login:Penguin mailto:sage [2011/07/11(月) 23:36:04.41 ID:48uiNmM9] >>479 A-A' B-B' C-C' D-D' E-E' A-A'が同時に壊れる可能性もあるわけだ。 そう考えると簡単な計算すら難しくなりそう。 ちなみに、俺には計算出来ない。数学は高一で放棄したから
481 名前:login:Penguin mailto:sage [2011/07/12(火) 00:40:57.00 ID:2zy6hBSr] RAID6+スペア2台で任意の4台までOKですよ(リビルト中に壊れない限り) スペア2台は一台目死亡時点でで気づく様な仕組みにしておけよ、と思ってしまうけど
482 名前:login:Penguin mailto:sage [2011/07/12(火) 01:02:43.08 ID:LDQ+b/Dh] >>481 つauto rebuild
483 名前:login:Penguin mailto:sage [2011/07/12(火) 01:23:02.33 ID:bzOh2LuE] HDD4 RAID6 / Hot Spare 6 そうそう壊れないだろw
484 名前:login:Penguin mailto:sage [2011/07/12(火) 01:35:42.33 ID:KnVTEP27] アレイのI/Fが2つ以上に分かれていて そのうち1つのI/F死ぬとコロっといくかもな
485 名前:login:Penguin mailto:sage [2011/07/12(火) 03:30:30.00 ID:bzOh2LuE] それはどのRAIDでも言えること
486 名前:login:Penguin mailto:sage [2011/07/16(土) 23:21:39.73 ID:RQME3r/e] 初心者です。質問させて下さい。 HDD2台でRaid0を組んだ場合のバックアップの取り方なんですが、どのようにされていますか? Raid対応のバックアップソフトが市販されてますが、やはりバックアップ用のHDDも2台必要なのでしょうか。 できれば費用を節約して1台に集約したいのですが。
487 名前:login:Penguin mailto:sage [2011/07/16(土) 23:42:33.24 ID:pf3M1bS/] ・・・
488 名前:login:Penguin mailto:sage [2011/07/17(日) 00:09:54.21 ID:l0XJkxsN] >>486 1GB HDD×2のものを2GB×1にバックアップしたいって意味? …じゃなさそうだな…
489 名前:login:Penguin mailto:sage [2011/07/17(日) 02:07:20.16 ID:O6oORdmv] >>488 いえ、その通りです。 2台のHDDにストライピングしたデータを1台のHDDでバックアップしたいのです。
490 名前:login:Penguin mailto:sage [2011/07/17(日) 02:21:53.74 ID:T2Qdi5fJ] そんなの、十分な容量のバックアップ先にコピーでも何でも好きにすりゃいいんじゃない? その容量なら、その辺で売ってる安いUSBメモリでも間に合うぜ?
491 名前:login:Penguin mailto:sage [2011/07/17(日) 09:40:59.84 ID:8HtPnhxy] >>490 それは単位間違いじゃないか。 そもそも、1GBうんぬんは質問者の >>486 が言っているわけじゃなく、>>488 のコメントだし。 >>486 このスレだと、RAID"0" はバックアップいらないデータの置き場所っていう感じあるからなぁ。 1台で容量足りないならバックアップ先も RAID 組むしか無い。 そもそも RAID0 でバックアップもとりたいなら RAID10 組むことが多い気がする。
492 名前:login:Penguin mailto:sage [2011/07/17(日) 09:44:41.92 ID:8HtPnhxy] ところで、ubuntu 道場で NAS の話が出ていて、 ttp://ascii.jp/elem/000/000/619/619406/index-4.html RAID 組んだら定期的に dd of=/dev/null if=/dev/sda とかでデータなめておいた方が いいとかあるんだけど、結構常識だったりする? はじめて聞いたんだけど。
493 名前:login:Penguin mailto:sage [2011/07/17(日) 11:07:52.82 ID:euYEF6jy] その理由を書いていないのでオカルト。 そもそもddでなくてもmdにアレイの整合性をチェックさせて 問題があればエラーを吐かせる為のメソッドがsysfsに用意されてるし
494 名前:login:Penguin mailto:sage [2011/07/17(日) 12:31:49.13 ID:O6oORdmv] >>491 >>486 で質問した者です。 十分な容量のHDDさえ用意できれば1台でバックアップ取れるのでしょうか?つまり、 ストライピングでHDD2台に分散させたデータを通常の形のデータ(Raid0構成でないシステムでも読めるデータ)に戻してHDD1台に保存できるのでしょうか?
495 名前:login:Penguin mailto:sage [2011/07/17(日) 12:52:44.01 ID:C0QOi8+q] いや普通にバックアップとればいいんじゃないの? 何悩んでるかしらんが
496 名前:login:Penguin mailto:sage [2011/07/17(日) 17:24:13.10 ID:sAxoGETv] >>494 RAIDを実際に使ったことないの? 使えば分かるがRAIDってのは大雑把に言って 「複数のHDDを一つのHDDとして扱う技術」だ。 OSからはまとめて一つのHDDに見えてるんだから 扱いとしてはHDD 1対1のコピーと何も変わらんぞ。 むしろ構成してる物理HDD別々にバックアップをする方が大変。
497 名前:login:Penguin mailto:sage [2011/07/17(日) 17:50:22.73 ID:O6oORdmv] >>495 >>496 まだ実際にRaidで組んだことがないもので・・。アホな質問で申し訳ありませんでした。 普通にできるんですね。 どうもありがとうございました。
498 名前:login:Penguin mailto:sage [2011/07/19(火) 14:08:40.91 ID:YOk0NYds] RAIDに詳しい人が多いようなので質問します。 今、センチュリーのCRIB35EU3という外付ケースを利用してRAID5を組んでいるのですが 先日、バックアップをとろうと電源を入れ、アクセスしようとすると フォーマットされていませんというメッセージが表示されるようになりました。 おそらく論理障害だと思いますが、簡単に直す方法などありますでしょうか? ※FINALDATAでは中身を見ることができました。ただいまバックアップをとっています。
499 名前:login:Penguin mailto:sage [2011/07/19(火) 14:28:35.01 ID:EEEP93x/] 板名音読しろ
500 名前:login:Penguin mailto:sage [2011/07/19(火) 14:39:11.43 ID:9QgtZQ/U] OK牧場かYahoo痴恵袋行け
501 名前: 【東電 67.6 %】 忍法帖【Lv=31,xxxPT】 [2011/08/01(月) 19:05:41.74 ID:ddnJTrg6] Ubuntu初心者板でも匙投げられたのでどうかご教授お願いします 【初心者スレ】Ubuntu Linux 67 hibari.2ch.net/test/read.cgi/linux/1311389692/351 > 恐れ入ります > 私のマシンは少し構成が入り組んでいるのですが、Ubuntuをどのような手順で入れればいいでしょうか > 特に4ポートのRAIDボードが邪魔をして、この間もWindowsXPとのデュアルブートを試みたのですが > ブートドライブにインストールされないで、他のRAID1を破壊するだけの結果におわりました > ご指導よろしくお願いします > > マザーボード:P7P55D-E > メモリ:2Gbyte×2 > > 現在オンボードはIDEモードでSATA→eSATA変換ブラケットで2台HDDが外付けになっている > ただし、それらはブートドライブには使わない > > PCI及びPCI-exスロットの並び > 1:HighPoint Rocket RAID 3120(それにHDD2台でRAID1)→ブートドライブ > 2:玄人志向 GF210-LE512HD(nVidiaグラフィックボード) > 3:玄人志向GbE-PCIe(LANボード) > 4:カノープスMTV1200FX(使用禁止にする予定) > 5:空き(SATA→eSATA変換ブラケット×2にて2台ハードウェアRAIDを装着中) > 6:CMI8738-4CHPCI(サウンドボード) > 7:HighPoint Rocket RAID 2300(それにHDD4台でRAID1×2セット)→データドライブメインとバックアップ > > 音も鳴るのにどうしてこうなった…orz > 厳密には3120がハードウェアRAIDボードで2300はソフトウェアRAIDボードなのにUbuntu板ではそう思っていないようです
502 名前:login:Penguin mailto:sage [2011/08/01(月) 19:18:25.37 ID:MoOsZ/eN] そう思っていないとは、どう思っているのかがその文からは全然わからん
503 名前:login:Penguin mailto:sage [2011/08/01(月) 20:22:31.58 ID:LMFTrc05] ブートに使うドライブだけ付けて OS をインストールして、 インストールが終わったら順番に付けろ。 そもそも OS インストールを助けるスレじゃねぇぞ。と。
504 名前:login:Penguin mailto:sage [2011/08/02(火) 23:14:34.99 ID:10Xubh93] >>501 > Ubuntu板ではそう思っていないようです すでに手放して久しいんだが、RocketRAID(めんどくさいから以下RR)2300はHighPointのドライバ入れないと 「Marvell製コントローラを搭載したnon-RAIDなSATAアダプタ」として認識されるんじゃなかったかな? 今でもそうだったら、Ubuntuスレが正しい。 RR3120のアレイにインストールできないのはよく知らん。 HighPointのサイト見たら「Ubuntu 8.10以降ならカーネルにRR3120のドライバ入ってます」とかゆってるけど。
505 名前:login:Penguin mailto:sage [2011/08/09(火) 10:03:24.01 ID:hTCbJlvG] RAID童貞です。Windowsなんですけどここでいいですか? いいとして質問します。もし他に適当なスレがあれば誘導してください。 現在データは全て外付けHDDに入れて、もう1台の外付けHDDにバックアップソフトで 定期的にミラーリングしています。 それだとちょっと面倒なのでRAID1でミラーリングしたいです。 ちなみにこれを使う予定です。 buffalo.jp/product/hdd/external/hd-wlu3_r1/ 本文が長すぎると2chに怒られたので分割します。
506 名前:login:Penguin mailto:sage [2011/08/09(火) 10:04:52.77 ID:hTCbJlvG] 続き 質問1 RAID1を構成した2台のHDDは、PCからは1台のHDDとして見えるとのことですが、 他のPCに繋いでも同じように動作するのでしょうか。 質問2 RAID1を構成した2台のどちらか一方または両方を、後でRAIDではなく普通の 外付けHDDとして読み書き削除したり、それを再度RAID化したりできるのでしょうか。 質問3 一方のHDDが壊れてももう一方が生きていればそのまま問題なく使えるのはいいのですが、 壊れたことはどうやって知るのでしょうか。 質問4 RAID1の2台のHDDをTrueCryptで暗号化した場合、ヘッダは2台共通でしょうか、別々でしょうか。 また、壊れた場合の復旧も含めて、暗号化しない場合と全てにおいてまったく同じように使えるのでしょうか。 それとも何か制限があるのでしょうか。 以上初歩的な質問で申し訳ありませんがよろしくお願いいたします。
507 名前:login:Penguin mailto:sage [2011/08/09(火) 10:21:30.30 ID:8OkAJdZz] Linux板で >Windowsなんですけどここでいいですか? とか、ネタなら笑いどころがわからないし、本気なら人生やり直しが必要
508 名前:login:Penguin mailto:sage [2011/08/09(火) 10:24:12.41 ID:NGWTHhbE] >>506 回答1-4 HDD買って自分で全て試してから質問しろ まあがんばれ
509 名前:login:Penguin mailto:sage [2011/08/09(火) 10:25:09.82 ID:dChPzCWQ] (1)YES (2)NO (参考:ttp://www.touki.info/howto/howtoReadRAID1.html) (3)外付けならBEEPが鳴ったり、付属ツールで知ります (HW RAID I/F の場合は、それら機能はカード側に有り) (4)仮想ドライブの実態はファイルです(これで意味が分からなければ TrueCrypt は使わないほうが良いかな?)
510 名前:login:Penguin mailto:sage [2011/08/09(火) 11:03:22.91 ID:NGWTHhbE] >>509 ブロックデバイスそのものをTruecryptで暗号化できるぞ。その上でext3,4なりxfsなりでフォーマット可能
511 名前:506 mailto:sage [2011/08/09(火) 19:01:28.28 ID:hTCbJlvG] >>509 何か問題が生じたときに面倒そうですね。 やっぱり私にはRAIDは敷居が高そうなので、今まで通り、暗号化したHDD2台を 手動でちまちまミラーリングすることにします。 ありがとうございました。
512 名前:login:Penguin mailto:sage [2011/08/09(火) 22:51:15.48 ID:ZNuJPM5g] 手動バックアップできるならそのほうがいいよ。 操作ミスで消してしまってもバックアップから戻せるし。 RAIDだと両方同時に消えちゃうんだぜ。
513 名前:login:Penguin mailto:sage [2011/08/09(火) 23:11:11.55 ID:qheaWxpd] highpoint RR2740で起こっている症状なんですが、おしえてください。 RAID5 windows7 ultimate64 2TBX4 アレイ3個で運用していたのですが 増設して3TBX4のアレイを追加したのですが 再起動するとアレイが消滅してlegacy の表示になっていました。 2740のwindowsドライバをアップデートしたらアレイが消滅することはなくなったのですが bios画面では相変わらずlegacyの単独ドライブが2個表示される異常な状態 でも、windows 上ではアレイが認識されて使用出来ます。 3TBはまだ完全に対応しきってない、ということなのでしょうか?
514 名前:login:Penguin mailto:sage [2011/08/10(水) 00:09:19.62 ID:zijbgalB] 板違いだつってんだろクソが
515 名前:login:Penguin mailto:sage [2011/08/10(水) 10:38:40.00 ID:3blPM5vJ] >>513 1.ハードディスクを窓から投げ捨てる 2.RR2740を電子レンジで30秒ほどチンする 3.Linuxに入れ替えてからこのスレを再訪する これで君を悩ます諸問題は解決だ。おめでとう。
516 名前:login:Penguin mailto:sage [2011/08/10(水) 15:24:41.67 ID:LTIBIK6s] ZFSで運用した場合、トランザクション管理されるため、 RAID 5書き込みホールの問題は起こらないという認識で間違いないですか?
517 名前:login:Penguin mailto:sage [2011/08/10(水) 19:17:02.70 ID:N8zlOHLY] Native ZFS for Linux ってもう使ってる人多いのかな?
518 名前:login:Penguin mailto:sage [2011/08/10(水) 20:20:33.31 ID:xLNWbyKZ] >>513 ですがぼーっとしてた ごめん。
519 名前:login:Penguin mailto:sage [2011/08/18(木) 20:06:21.02 ID:C6hWIJ/5] >>509 質問2はRAIDカードによるよね?
520 名前:login:Penguin mailto:sage [2011/08/19(金) 00:14:26.66 ID:/dF3zyqQ] RAIDカードによらずともマウントする際に色々パラメータ弄ってやればマウントはどれも可能なはず
521 名前:login:Penguin mailto:sage [2011/09/02(金) 13:50:56.07 ID:DvSMkTFj] mdraidは最初は対応してなかったraid6に対応したみたいに、raidZ対応したりしないのかな それだとext4であと5年は戦えるきがするんだ resize2fs(resize4fs?)が16Tの壁乗り越えてくれればだけど
522 名前:login:Penguin mailto:sage [2011/09/05(月) 03:13:11.48 ID:Gem/5tJp] mdadmで構成したHDD4台のRAID5アレイでhdd側に障害が発生。 一時的に構成しているHDDが通電していない状態になったようなのですが、 瞬断と思い電源コネクタを付け直してサーバの再起動をしました。 すると/proc/mdstat上で構成しているHDD4台全てが [S]が付いて全台スペアディスクになってしまっているようです。 おそらくこれが原因でmdadm.confに記入していても自動で起動できず inactive の状態からアレイを起動できません。 強制的にアレイの起動をかけても、 no superblock assembly のエラーを吐いてしまう状態です。 スペアディスクの属性をクリアできればよいような気がするのですが、ここからの復旧方法についてアドバイスいただけないでしょうか。
523 名前:522 mailto:sage [2011/09/05(月) 03:35:07.39 ID:Gem/5tJp] 詳細1 # cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md126 : inactive sdh1[4](S) sdg1[2](S) sde1[1](S) sdb1[0](S) 7814049792 blocks super 1.2 md127 : active raid5 sdd1[3] sdc1[0] sdf1[1] 5860528128 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU] unused devices: <none>
524 名前:522 mailto:sage [2011/09/05(月) 03:36:18.11 ID:Gem/5tJp] 詳細2 # mdadm --examine /dev/sdb1 /dev/sdb1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f Name : ubuntu:0 (local to host ubuntu) Creation Time : Sun Jul 24 23:50:32 2011 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB) Array Size : 11721071616 (5589.04 GiB 6001.19 GB) Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : 8c8ddf45:f164c9ed:a130b98c:2d811627 Update Time : Sun Sep 4 23:10:41 2011 Checksum : fdf9230e - correct Events : 83 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 0 Array State : AAAA ('A' == active, '.' == missing)
525 名前:522 mailto:sage [2011/09/05(月) 03:37:04.14 ID:Gem/5tJp] 詳細3 # mdadm --examine /dev/sde1 /dev/sde1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f Name : ubuntu:0 (local to host ubuntu) Creation Time : Sun Jul 24 23:50:32 2011 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB) Array Size : 11721071616 (5589.04 GiB 6001.19 GB) Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : 5198bcfd:a5d03642:14c34e0b:06a622d4 Update Time : Sun Sep 4 23:14:18 2011 Checksum : 35e6562b - correct Events : 1234 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 1 Array State : .AAA ('A' == active, '.' == missing)
526 名前:522 mailto:sage [2011/09/05(月) 03:37:48.24 ID:Gem/5tJp] 詳細4 # mdadm --examine /dev/sdg1 /dev/sdg1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f Name : ubuntu:0 (local to host ubuntu) Creation Time : Sun Jul 24 23:50:32 2011 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB) Array Size : 11721071616 (5589.04 GiB 6001.19 GB) Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : 256bfd77:421f8083:95a02e33:19164d06 Update Time : Sun Sep 4 23:14:18 2011 Checksum : 4b7ac530 - correct Events : 1234 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 2 Array State : .AAA ('A' == active, '.' == missing)
527 名前:login:Penguin mailto:sage [2011/09/05(月) 03:38:29.46 ID:Gem/5tJp] 詳細5 # mdadm --examine /dev/sdh1 /dev/sdh1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f Name : ubuntu:0 (local to host ubuntu) Creation Time : Sun Jul 24 23:50:32 2011 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB) Array Size : 11721071616 (5589.04 GiB 6001.19 GB) Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : e81fc343:3e114959:003c90b1:e8d210c6 Update Time : Sun Sep 4 23:14:18 2011 Checksum : 2b2ec42c - correct Events : 1234 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 3 Array State : .AAA ('A' == active, '.' == missing)
528 名前:522 mailto:sage [2011/09/05(月) 03:41:43.66 ID:Gem/5tJp] おそらくは/dev/sdb1のみが Array State : AAAA ('A' == active, '.' == missing) と成っていてHDD4台ともActiveと認識しているのに対し 残り3台は Array State : .AAA ('A' == active, '.' == missing) となっているあたりが原因のような気がしています。
529 名前:login:Penguin mailto:sage [2011/09/06(火) 03:20:24.29 ID:pUNE1oun] ナルホド('A'
530 名前:login:Penguin mailto:sage [2011/09/06(火) 08:21:56.98 ID:znO8rUOJ] >>528 Update Timeから、/dev/sdb1が真っ先にアクセス不能になったのは分かるけど、 spareになるのは想像つかん superblockのフォーマット↓ ttps://raid.wiki.kernel.org/index.php/RAID_superblock_formats dev_rolesが0xFFFFになってるのがスペア 異常なDiskと正常(?)なDiskのsuperblockを見比べて見ると何か分かるかも # dd if=/dev/sdb1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc # dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
531 名前:522 mailto:sage [2011/09/06(火) 22:35:23.61 ID:Bbl4LkEB] >>530 アドバイスありがとうございます。実行してみました。 # dd if=/dev/sdb1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc 001000 a92b4efc 00000001 00000000 00000000 001010 b1034723 c5fe4c5d bb05fc95 2f0d1678 001020 6e756275 303a7574 00000000 00000000 001030 00000000 00000000 00000000 00000000 001040 4e2c3138 00000000 00000005 00000002 001050 e8e07400 00000000 00000400 00000004 001060 00000000 00000000 00000000 00000000 001070 00000000 00000000 00000000 00000000 001080 00000800 00000000 e8e07800 00000000 001090 00000008 00000000 00000000 00000000 0010a0 00000000 00000000 45df8d8c edc964f1 0010b0 8cb930a1 2716812d 00000000 00000000 0010c0 4e6386e1 00000000 00000053 00000000 0010d0 00000000 00000000 fdf9230e 00000180 0010e0 00000000 00000000 00000000 00000000 0010f0 00000000 00000000 00000000 00000000 001100 00010000 fffe0002 fffe0003 fffefffe 001110 fffefffe fffefffe fffefffe fffefffe # dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc # /dev/sdb1 側にのみ a92b4efc が存在しているようです。
532 名前:login:Penguin mailto:sage [2011/09/07(水) 00:39:07.00 ID:0NsdsTrQ] >>531 sde1のsuperblock飛んでる? だとするとmdadm --examineで表示されるのが変なんだけど 同様に↓は? # dd if=/dev/sdg1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc # dd if=/dev/sdh1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
533 名前:522 mailto:sage [2011/09/07(水) 00:50:40.62 ID:6aXKWA2G] >>532 大変失礼しました。 # も含めてコピペしてコメント扱いになっているだけでした。残り3台分の実行結果です。 # dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc 001000 a92b4efc 00000001 00000000 00000000 001010 b1034723 c5fe4c5d bb05fc95 2f0d1678 001020 6e756275 303a7574 00000000 00000000 001030 00000000 00000000 00000000 00000000 001040 4e2c3138 00000000 00000005 00000002 001050 e8e07400 00000000 00000400 00000004 001060 00000000 00000000 00000000 00000000 001070 00000000 00000000 00000000 00000000 001080 00000800 00000000 e8e07800 00000000 001090 00000008 00000000 00000000 00000000 0010a0 00000001 00000000 fdbc9851 4236d0a5 0010b0 0b4ec314 d422a606 00000000 00000000 0010c0 4e6387ba 00000000 000004d2 00000000 0010d0 00000000 00000000 35e6562b 00000180 0010e0 00000000 00000000 00000000 00000000 0010f0 00000000 00000000 00000000 00000000 001100 0001fffe fffe0002 fffe0003 fffefffe 001110 fffefffe fffefffe fffefffe fffefffe
534 名前:522 mailto:sage [2011/09/07(水) 00:51:21.93 ID:6aXKWA2G] # dd if=/dev/sdg1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc 001000 a92b4efc 00000001 00000000 00000000 001010 b1034723 c5fe4c5d bb05fc95 2f0d1678 001020 6e756275 303a7574 00000000 00000000 001030 00000000 00000000 00000000 00000000 001040 4e2c3138 00000000 00000005 00000002 001050 e8e07400 00000000 00000400 00000004 001060 00000000 00000000 00000000 00000000 001070 00000000 00000000 00000000 00000000 001080 00000800 00000000 e8e07800 00000000 001090 00000008 00000000 00000000 00000000 0010a0 00000002 00000000 77fd6b25 83801f42 0010b0 332ea095 064d1619 00000000 00000000 0010c0 4e6387ba 00000000 000004d2 00000000 0010d0 00000000 00000000 4b7ac530 00000180 0010e0 00000000 00000000 00000000 00000000 0010f0 00000000 00000000 00000000 00000000 001100 0001fffe fffe0002 fffe0003 fffefffe 001110 fffefffe fffefffe fffefffe fffefffe
535 名前:522 mailto:sage [2011/09/07(水) 00:52:03.35 ID:6aXKWA2G] # dd if=/dev/sdh1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc 001000 a92b4efc 00000001 00000000 00000000 001010 b1034723 c5fe4c5d bb05fc95 2f0d1678 001020 6e756275 303a7574 00000000 00000000 001030 00000000 00000000 00000000 00000000 001040 4e2c3138 00000000 00000005 00000002 001050 e8e07400 00000000 00000400 00000004 001060 00000000 00000000 00000000 00000000 001070 00000000 00000000 00000000 00000000 001080 00000800 00000000 e8e07800 00000000 001090 00000008 00000000 00000000 00000000 0010a0 00000004 00000000 43c31fe8 5949113e 0010b0 b1903c00 c610d2e8 00000000 00000000 0010c0 4e6387ba 00000000 000004d2 00000000 0010d0 00000000 00000000 2b2ec42c 00000180 0010e0 00000000 00000000 00000000 00000000 0010f0 00000000 00000000 00000000 00000000 001100 0001fffe fffe0002 fffe0003 fffefffe 001110 fffefffe fffefffe fffefffe fffefffe
536 名前:login:Penguin mailto:sage [2011/09/08(木) 00:02:44.15 ID:O6bwqAQc] superblock上ではスペアになっているDISKは無い /proc/mdstatで"(S)"になってるのは起動時のチェックで エラーがあったからだと思う 起動時のログに何かエラー出てない? あと、↓は実行出来る? # mdadm --detail /dev/md126 sdb1外して再起動すれば復活するような気がするんだけど
537 名前:522 mailto:sage [2011/09/08(木) 01:10:05.32 ID:X3JJWFjL] >>536 度々ありがとうございます。 /var/log/dmesg 上のログ全ては出し切れないので怪しそうな部分の抜粋です。 ↓/dev/md127に関するログは当然あるが、 /dev/md126に関するログが何も出ていない(エラー系のものも含めて) [ 6.544320] sd 1:0:5:0: [sdg] Attached SCSI disk [ 6.593606] md: bind<sdf1> [ 6.597609] md: bind<sdc1> [ 6.606304] md: bind<sdb1> [ 6.612664] md: bind<sde1> [ 6.619733] md: bind<sdd1> [ 6.622390] bio: create slab <bio-1> at 1 [ 6.622417] md/raid:md127: device sdd1 operational as raid disk 2 [ 6.622420] md/raid:md127: device sdc1 operational as raid disk 0 [ 6.622423] md/raid:md127: device sdf1 operational as raid disk 1 [ 6.622951] md/raid:md127: allocated 3230kB [ 6.623015] md/raid:md127: raid level 5 active with 3 out of 3 devices, algorithm 2 [ 6.623019] RAID conf printout: [ 6.623021] --- level:5 rd:3 wd:3 [ 6.623024] disk 0, o:1, dev:sdc1 [ 6.623026] disk 1, o:1, dev:sdf1 [ 6.623028] disk 2, o:1, dev:sdd1 [ 6.623064] md127: detected capacity change from 0 to 6001180803072 [ 6.639598] EXT4-fs (sda1): mounted filesystem with ordered data mode. Opts: (null) [ 6.651689] md: bind<sdg1> [ 6.662636] md127: p1 [ 6.674039] md: bind<sdh1> [ 6.963670] ses 1:0:7:0: Attached Enclosure device [ 38.039547] Adding 1325356k swap on /dev/sda5. Priority:-1 extents:1 across:1325356k
538 名前:522 mailto:sage [2011/09/08(木) 01:17:27.06 ID:X3JJWFjL] 気になるログその2 ATA14のHDDでエラー。こいつが今件の初発の原因?? [ 5.680895] /build/buildd/linux-2.6.38/drivers/scsi/mvsas/mv_sas.c 1388:found dev[6:5] is gone. [ 5.685621] ata14.00: ATA-8: WDC WD20EARS-00MVWB0, 51.0AB51, max UDMA/133 [ 5.685624] ata14.00: 3907029168 sectors, multi 0: LBA48 NCQ (depth 31/32) [ 5.689622] ata14.00: configured for UDMA/133 [ 5.689676] scsi 1:0:5:0: Direct-Access ATA WDC WD20EARS-00M 51.0 PQ: 0 ANSI: 5 [ 5.693872] /build/buildd/linux-2.6.38/drivers/scsi/mvsas/mv_sas.c 1388:found dev[7:5] is gone. [ 39.559395] ata14: translated ATA stat/err 0x01/04 to SCSI SK/ASC/ASCQ 0xb/00/00 [ 39.559400] ata14: status=0x01 { Error } [ 39.559403] ata14: error=0x04 { DriveStatusError } [ 39.564298] ata14: translated ATA stat/err 0x51/04 to SCSI SK/ASC/ASCQ 0xb/00/00 [ 39.564303] ata14: status=0x51 { DriveReady SeekComplete Error } [ 39.564307] ata14: error=0x04 { DriveStatusError } [ 39.564735] ata14: translated ATA stat/err 0x01/04 to SCSI SK/ASC/ASCQ 0xb/00/00 [ 39.564739] ata14: status=0x01 { Error } [ 39.564742] ata14: error=0x04 { DriveStatusError } あと、以前も試して同じ結果でしたが # mdadm --detail /dev/md126 mdadm: md device /dev/md126 does not appear to be active. でした。 正常に動作しているmd127は、/dev/md/以下に別名のアレイ名称のシンボリックリンクが作成されていますが md126については、シンボリックリンクは作成されていませんが、 /dev/md126 自体は生成されている状態になっています。
539 名前:522 mailto:sage [2011/09/10(土) 13:46:51.44 ID:NMszAiJM] 復旧を継続して試みていますが、 sdb1 のHDDを取り外して起動しなおしても状況は変わりませんでした。 # mdadm -D /dev/md126 /dev/md126: Version : 1.2 Creation Time : Sun Jul 24 23:50:32 2011 Raid Level : raid5 Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB) Raid Devices : 4 Total Devices : 3 Persistence : Superblock is persistent Update Time : Sun Sep 4 23:14:18 2011 State : active, degraded, Not Started Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Name : ubuntu:0 (local to host ubuntu) UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f Events : 1234 Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 65 1 active sync /dev/sde1 2 8 97 2 active sync /dev/sdg1 4 8 113 3 active sync /dev/sdh1
540 名前:522 mailto:sage [2011/09/10(土) 13:50:59.81 ID:NMszAiJM] sdb1のHDDを Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 65 1 active sync /dev/sde1 2 8 97 2 active sync /dev/sdg1 4 8 113 3 active sync /dev/sdh1 のremovedの位置に認識させられればアレイを起動できる状態になりそうなのですが、 一旦sdb1のsuperblockを飛ばすなり、パーティションを作成しなおしてからでないとスペアとして組み込めないのですかね・・・?
541 名前:login:Penguin mailto:sage [2011/09/10(土) 16:18:48.11 ID:efd1VIH5] >>540 取り外したDISKがremovedになってるのは当然 これの↓実行結果は? # cat /sys/block/md126/md/array_state あと、/proc/mdstatでまだ"(S)"付いてる?
542 名前:522 mailto:sage [2011/09/10(土) 16:27:16.54 ID:NMszAiJM] なんとか sdb1 をスペアに組み込むところまではたどり着きました。 再起動を何回か実施しているので、 md126 が md127 に入り繰りになってます。 # cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md126 : active raid5 sdd1[3] sdf1[1] sdc1[0] 5860528128 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU] md127 : inactive sdg1[2] sdh1[4] sde1[1] sdb1[5](S) 7814049792 blocks super 1.2
543 名前:522 mailto:sage [2011/09/10(土) 16:28:11.25 ID:NMszAiJM] # mdadm --detail /dev/md127 /dev/md127: Version : 1.2 Creation Time : Sun Jul 24 23:50:32 2011 Raid Level : raid5 Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Sun Sep 4 23:14:18 2011 State : active, degraded, Not Started Active Devices : 3 Working Devices : 4 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Name : ubuntu:0 (local to host ubuntu) UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f Events : 1234 Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 65 1 active sync /dev/sde1 2 8 97 2 active sync /dev/sdg1 4 8 113 3 active sync /dev/sdh1 5 8 17 - spare /dev/sdb1
544 名前:522 mailto:sage [2011/09/10(土) 16:30:05.08 ID:NMszAiJM] >>541 # cat /sys/block/md127/md/array_state inactive mdstatの各HDについていた (S) は無くなりました。 ただ、この状態からでもアレイの起動はできずの状態です。 # mdadm -R /dev/md127 mdadm: failed to run array /dev/md127: Input/output error
545 名前:login:Penguin mailto:sage [2011/09/10(土) 17:25:26.05 ID:efd1VIH5] >>544 sdbって新品? 元々使ってた奴なら、アレイに追加する前に単体で読み書きテストした? とりあえず、強制的にactive # echo active > /sys/block/md127/md/array_state ttp://lxr.linux.no/#linux+v3.0.4/drivers/md/md.c#L3354
546 名前:522 mailto:sage [2011/09/11(日) 11:24:57.03 ID:AqZU9mQD] >>545 sdbは使い回しています。 まだメーカーのHDDチェックツールでのHDD単体全体のスキャンチェックは完了していませんが、読み込みは問題ないようです。 # hdparm -Tt /dev/sdb /dev/sdb: Timing cached reads: 2108 MB in 2.00 seconds = 1054.63 MB/sec Timing buffered disk reads: 366 MB in 3.00 seconds = 121.99 MB/sec 復旧できなくなる要員になるようなことは極力避けようと思い、sdbへの書き込みチェックはまだ実施していません。
547 名前:522 mailto:sage [2011/09/11(日) 11:27:14.34 ID:AqZU9mQD] 強制activeを試みましたが原因不明の入出力エラーの状態で、ここにアレイを起動できない原因があるのかもしれません。 # ls -l /sys/block/md127/md/array_state -rw-r--r-- 1 root root 4096 2011-09-11 11:15 /sys/block/md127/md/array_state # cat /sys/block/md127/md/array_state inactive # echo active > /sys/block/md127/md/array_state bash: echo: 書き込みエラー: 入力/出力エラーです # ls -l /sys/block/md127/md/ 合計 0 -rw-r--r-- 1 root root 4096 2011-09-11 11:00 array_size -rw-r--r-- 1 root root 4096 2011-09-11 11:18 array_state drwxr-xr-x 2 root root 0 2011-09-11 11:00 bitmap -rw-r--r-- 1 root root 4096 2011-09-11 11:00 chunk_size -rw-r--r-- 1 root root 4096 2011-09-11 11:00 component_size drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdb1 drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sde1 drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdg1 drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdh1 -rw-r--r-- 1 root root 4096 2011-09-11 11:00 layout -rw-r--r-- 1 root root 4096 2011-09-11 11:00 level -rw-r--r-- 1 root root 4096 2011-09-11 11:00 max_read_errors -rw-r--r-- 1 root root 4096 2011-09-11 11:00 metadata_version --w------- 1 root root 4096 2011-09-11 11:00 new_dev -rw-r--r-- 1 root root 4096 2011-09-11 11:00 raid_disks -rw-r--r-- 1 root root 4096 2011-09-11 11:00 reshape_position -rw-r--r-- 1 root root 4096 2011-09-11 11:00 resync_start -rw-r--r-- 1 root root 4096 2011-09-11 11:00 safe_mode_delay
548 名前:login:Penguin mailto:sage [2011/09/11(日) 23:05:24.48 ID:lb+4D791] >>547 んじゃ、↓で。"active"と違って縮退状態のままアレイ開始 # echo clean > /sys/block/md127/md/array_state ここまで動かないと、ハードウェア側を疑いたくなるんだけど
549 名前:login:Penguin mailto:sage [2011/09/12(月) 13:01:15.87 ID:Bts/njAy] たった4台のraid5でなにを大騒ぎしてんだろ…… ステータスのクリーンは筋が悪い。 b1が腐ってるんだろ? 新台入れるか(パチンコみたいだなw) 普通に mdadm -S /dev/md127 mdadm -A /dev/md(新しい数字) -a /dev/sd(e, g, h)1 これが通ったら、 mdadm --zero-superblock /dev/sdb1 ←ここがポイントのはず mdadm -A /dev/md(新しい数字) -a /dev/sdb1 でよかないか? 書き換えるのが怖いなら/dev/sdbをコピーとってからやればよい。
550 名前:login:Penguin mailto:sage [2011/09/12(月) 13:08:18.91 ID:Bts/njAy] 蛇足。 mdadm -A /dev/md(新しい数字) -a /dev/sd(e, g, h)1 この記法ってあってたかどうか自信ない。 素直に mdadm -A /dev/md(新しい数字) -a /dev/sde1 /dev/sdg1 /dev/sdh1 にすべきか。
551 名前:login:Penguin mailto:sage [2011/09/12(月) 21:29:15.15 ID:5pzJNgRd] >>550 # mdadm -A /dev/md(新しい数字) -a /dev/sd[egh]1 では? www.ioss.jp/sohodiy/mdadm8-1_5.html だと、 # mdadm -A /dev/md(新しい数字) -a /dev/sd['egh']1 だけど。
552 名前:550 mailto:sage [2011/09/15(木) 08:13:23.76 ID:sKBE5Whs] ああ、思い出した。 >>551 の前者で正しい。 -C の場合は認識順が意図した順番と違っちゃうけど、 -A なら問題ない。
553 名前:login:Penguin mailto:sage [2011/09/16(金) 23:15:29.48 ID:BraekazM] ARC-1880ix-24の"Advanced Configurations"に関するドキュメントってどっかに無いですかね。
554 名前:login:Penguin mailto:sage [2011/10/02(日) 17:50:56.90 ID:kYnPDMiF] mdadmによるRAID6でchunkサイズの違いによるパフォーマンスを計測したのでチラ裏を。 ML110G6 WD25EZRX-00MMMB0を4台(OSは別HDD) CentOS 5.7(x86_64) mdadm-2.6.9-3.el5 各HDD上で2GB領域を作成しmd0を構成 ext3フォーマット WRITE:# dd if=/dev/zero of=/storage/1GB.img bs=1M count=1024 READ :# hdparm -t /dev/md0 計測結果は次レスで。 (ほかにもいろいろテストしたかったけど疲れたのでw)
555 名前:login:Penguin mailto:sage [2011/10/02(日) 17:54:55.86 ID:kYnPDMiF] ■chunk 4k READ :Timing buffered disk reads: 332 MB in 3.01 seconds = 110.46 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 2.25816 seconds, 475 MB/s ■chunk 64K (default) READ :Timing buffered disk reads: 488 MB in 3.00 seconds = 162.43 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 2.77056 seconds, 388 MB/s ■chunk 128K READ :Timing buffered disk reads: 548 MB in 3.00 seconds = 182.54 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 1.72971 seconds, 621 MB/s
556 名前:login:Penguin mailto:sage [2011/10/02(日) 17:58:51.36 ID:kYnPDMiF] ■chunk 256K READ :Timing buffered disk reads: 546 MB in 3.00 seconds = 181.93 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 1.92294 seconds, 558 MB/s ■chunk 512K READ :Timing buffered disk reads: 522 MB in 3.01 seconds = 173.50 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 2.23327 seconds, 481 MB/s ■chunk 1024K READ :Timing buffered disk reads: 542 MB in 3.02 seconds = 179.54 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 4.35082 seconds, 247 MB/s
557 名前:login:Penguin mailto:sage [2011/10/02(日) 18:04:10.65 ID:XKBCXxnC] RAIDなし単体でのベンチマークと見比べたかったな。
558 名前:login:Penguin mailto:sage [2011/10/02(日) 18:22:22.99 ID:kYnPDMiF] /dev/sdb1 として 2GB 領域を作成し ext3 フォーマット、コマンドは同じで。 READ :Timing buffered disk reads: 304 MB in 3.01 seconds = 100.83 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 3.07366 seconds, 349 MB/s
559 名前:login:Penguin mailto:sage [2011/10/04(火) 23:51:41.62 ID:2uRB3/YB] こないだ作ったraid5は、過去256kだったのをなんとなく 128kに変えたけど、それで無難だったのか。
560 名前:login:Penguin mailto:sage [2011/10/25(火) 11:37:42.73 ID:9XR7fcw7] >>492 ,493 > そもそもddでなくてもmdにアレイの整合性をチェックさせて > 問題があればエラーを吐かせる為のメソッドがsysfsに用意されてるし 読んだ時なるほどれならリビルドの時の障害起きにくくなるなと思ったんだけどそもそもシステムにそういう機能があるからやらなくてok てこと?
561 名前:login:Penguin mailto:sage [2011/10/25(火) 16:54:38.88 ID:/PmSxWz5] 機能があっても使われなきゃ意味が無い RedHat系なら自分で仕込むまでもなくcron.weeklyにraid-checkが入れられる Ubuntuには無いみたいだけどね
562 名前:login:Penguin mailto:sage [2011/10/25(火) 20:32:10.73 ID:RuQRT1PJ] >>561 てことはUbuntu(Debian も?)だとraid-check というのを自分で設定するか,dd で舐めるとかしなきゃ駄目ってことなのかな raid-check 調べてみる
563 名前:login:Penguin [2011/11/25(金) 02:01:00.42 ID:DfspjuOn] HDD2台のraid0とHDD4台のraid5について質問です。 ベンチマークとか見るとHDD2台のraid0が200MB/s、HDD4台のraid5が150MB/sくらいになってるけど、 実際の体感速度はどうなんでしょう? 主に動画編集などで使います。
564 名前:login:Penguin mailto:sage [2011/11/25(金) 04:47:32.00 ID:x3Tq0gHW] 体感速度は自分で確かめるしかないべ、マジで。
565 名前:login:Penguin mailto:sage [2011/11/25(金) 16:51:59.33 ID:FaCKtUuk] 編集だから書き込み速度はあまり気にしなくてもいいのかもしれないけど、 それ読み込み速度でしょ。 巨大なストレージの確保で見たら RAID5 でいいんじゃないのかなと。
566 名前:login:Penguin mailto:sage [2011/11/27(日) 23:08:23.83 ID:CjNOkzQ7] 1TBのHDD×4でRAID0組んでみた seq READ 400MB/s WRITE 350MB/s ってがんばってる方?
567 名前:login:Penguin mailto:sage [2011/11/28(月) 01:54:44.62 ID:zJmMr8wx] 良い成績だと思うよ ブロックサイズは64KBだっけ?の方が良い成績が残ったような気がする。
568 名前:login:Penguin [2011/11/28(月) 14:31:17.43 ID:SzpgZCSv] だれか助けてください。 CentOS5.7からScientificLinux6.1への乗り換えのさい、 CentOSで運用していたRAID5のアレイがScientificLinuxでmd127と認識されたのが気に入らず、 # mdadm /dev/md127 -f /dev/sd[bcd]1 # mdadm --misc --stop /dev/md127 # mdadm -C /dev/md0 -l 5 -n 3 /dev/sd[bcd]1 としたところ、データが飛びましたorz どうにかしてサルベージすることはできませんか・・・・
569 名前:568 [2011/11/28(月) 14:42:31.84 ID:SzpgZCSv] 現在分かっていることは、CentOS5.7とScientificLinux6.1では アレイを作る際のメタデータのバージョンが違うようです。 CentOSは0.9で、Scientificでは1.2です。 また、無指定でアレイを構築した際の、chunksizeも違うようです。 CentOSは64K、Scientificは512Kのようです。 もともと64Kだったchunksizeが512Kで構築しなおされてしまったようです。 なんとか助ける方法はありませんか
570 名前:568 [2011/11/28(月) 14:50:52.12 ID:SzpgZCSv] 連投すみません。 仮想環境で # mdadm -C /dev/md0 --chunk 64K -l 5 -n 3 /dev/sd[bcd]1 とすればデータは無傷だったということは確認しました。 また、一旦chunksize=512Kで構築されたアレイを解除して、 64Kで作り直してもデータは復旧しませんでした。
571 名前:568 [2011/11/28(月) 15:01:22.13 ID:SzpgZCSv] はたまた連投すみません 512Kで再構築されてしまった場合でも、mkfsなど余計なことしなければ # mdadm /dev/md0 -f /dev/sd[bcd]1 # mdadm --misc --stop /dev/md0 # mdadm -C /dev/md0 --chunk 64K -l 5 -n 3 /dev/sd[bcd]1 で仮想環境では復旧しました。 一人で勝手に騒いですみません。 現実環境のリビルドが完了したら試してみようと思います。 おっちょこちょいな自分の失敗が誰かの役に立てばと思います。
572 名前:568 [2011/11/28(月) 15:38:35.38 ID:SzpgZCSv] 現実環境でやってみましたがダメでした。 メタデータのバージョンが同じでないとうまくいかないような感じです。 CentOSで64kで構築 ↓ Scientificで512kで構築 ↓ Scientificで64kで再構築 ↓ ダメ ←いまここ です。 これからCentOSで64kで再構築してみます。 まずは仮想環境でやってみようと思います。
573 名前:568 [2011/11/28(月) 16:23:08.43 ID:SzpgZCSv] バージョンによってメタデータの書き込まれる場所が違うことがわかりました hellokitty68.main.jp/wiki/Mdadm#metadata ここにあるように、0.9と1.2ではずいぶんと違うようです。 これは困りました。 さらに、これだけがわかっても自分にはどうしたらいいのかわかりません。
574 名前:login:Penguin mailto:sage [2011/11/28(月) 16:47:50.20 ID:zJmMr8wx] dd でディスク毎に吸い上げて処理したほうが早くないか?
575 名前:568 [2011/11/28(月) 16:54:58.39 ID:SzpgZCSv] >>574 現在、本番環境でのddでの吸い上げ先がない状態ですが、 ddで吸い上げた後にどう処理すればいいのか教えていただけますか? metadataがあると思われる部分をddでファイルに書き出して hexdumpなんてしてみましたが、どうしたらいいのかさっぱりわかりませんでした。
576 名前:login:Penguin mailto:sage [2011/11/28(月) 18:43:29.50 ID:GpepBfXK] dd で吸い出してそこで作業したら失敗してもやり直しが効く そのデータがどのくらい大事かに寄るね 失ってもいいのであれば実HDDで作業してもいいかも
577 名前:login:Penguin mailto:sage [2011/11/28(月) 19:55:43.30 ID:nPrmxBAd] >>575 losetupでloopデバイスを割り当てる ddで吸い上げたイメージをdisk1.img, disk2.imgとすると ↓こんな感じでloopデバイスを割り当てられる(未使用のloopデバイスはlosetup -f で確認) # losetup /dev/loop0 disk1.img # losetup /dev/loop1 disk2.img /dev/sd*の代わりに、このloopデバイスでRAID1を作ったり出来る # mdadm --create /dev/md0 --raid-devices=2 --level=1 --verbose /dev/loop0 /dev/loop1 mdadm: size set to 131008K mdadm: array /dev/md0 started.
578 名前:login:Penguin mailto:sage [2011/11/29(火) 10:25:15.02 ID:00jPXJK8] 吸い上げたイメージ同士でデータとメタデータ領域が重なってるので、稀だけど壊れることないか。 真面目にするならメタデータ領域分は切り貼りして揃えてから再構築、かな?
579 名前:login:Penguin mailto:sage [2011/11/29(火) 12:25:33.10 ID:Yf0+yFDJ] RAID0組んでるHDDにOS再インストールするときって、そのままOSインストール作業する? それとも、一度、Delete RAID Volumeで崩してからCreate RAID VolumeでまたRAID構築してからOSインストールしてる?
580 名前:login:Penguin mailto:sage [2011/11/29(火) 15:13:40.75 ID:iTSjKJPG] バージョンが同じならそのまま 違う場合は別の環境でテストしてOKならそのまま 違うなら別のPCを用意 かな
581 名前:568 [2011/11/29(火) 15:46:31.33 ID:nWLFZrGz] >>577 わざわざ丁寧にありがとうございます。 その方法ももちろん考えたのですが、 いかんせん、退避場所がありません。 タイの洪水でHDDの価格が高騰しているため手軽に買えない状況です・・・
582 名前:568 [2011/11/29(火) 15:54:45.87 ID:nWLFZrGz] さて、今日もシコシコと仮想環境で試行錯誤していましたら、 もしかしたら、完全復活はできなくても 一部の復活はできるかもしれない方法を見つけました。 簡単に言うとアレイをバージョン0.9のメタデータで構築しなおし、 思い切ってfsckをかける方法です。 仮想環境でやってみたところ、とりあえずデータの復活を確認しました。 後は本番環境ですが、>>581 に書いたとおり、HDDが高くてすぐには実行できません。 アレイのサイズが1TBが3台のRAID5なので、余裕を持って2TBを 2本ほどRAID0で動かして作業をしたいところです。 それか、2TB1本にして縮退状態でやるかといった感じです。 ちなみにメタデータ、chunksizeを指定してアレイを構築する場合は以下のようになります mdadm -C /dev/md0 -l 5 -n 3 --chunk=64K --metadata=0.9 /dev/sd[bcd]1
583 名前:login:Penguin mailto:sage [2011/11/30(水) 10:23:52.58 ID:/CGQEQQw] md127の何が気にくわないのか。 自分はそのまま使ってるぞ。 直すスキルがないってのは内緒・・・
584 名前:login:Penguin mailto:sage [2011/11/30(水) 13:28:21.02 ID:OuQeDi8o] >>583 ちゃんと流れを読めよw
585 名前:login:Penguin mailto:sage [2011/12/03(土) 20:43:01.66 ID:TtU/rjkx] 127が気に入らないならアレイ止めてからこれだけでよかったのにずいぶん余計なことを mdadm -A /dev/md0 /dev/sd[bcd]1
586 名前:login:Penguin mailto:sage [2011/12/05(月) 23:56:34.31 ID:6e/+yMbn] /boot を RAID1, swap を RAID0 にして、 あと全部 / で RAID1 にして普通にインストール成功 (ScientificLinux) 再起動してみるとBIOS直後から何も表示せず立ち上がらない。 どうしてかわかる人いる?
587 名前:login:Penguin mailto:sage [2011/12/06(火) 16:20:07.48 ID:D33FO92h] >>586 ドライバが足りなくて > /boot を RAID1 のとこで転けてるんじゃ?
588 名前:login:Penguin mailto:sage [2011/12/06(火) 22:50:52.50 ID:ICuP3dI/] >>586 レイドパーティションを/bootにする場合は、メタデータを0.90にしないと だめだよ。それかメタデータを1.2にして、grubを1.0以上にする。
589 名前:586 mailto:sage [2011/12/08(木) 19:52:18.26 ID:Hmnoh3H0] >>587-588 ありがとう。インストーラのバグなのか grub が default では /dev/md0 に入ってしまっていた。 オプションで grub を /dev/sda1 の MBR に書くと起動した。 片方が死んだときのために RAID 構成ディスクの /dev/sdb1 にも grub を入れた。 これで大丈夫だといいんだが。
590 名前:login:Penguin mailto:sage [2011/12/09(金) 00:31:48.61 ID:u1j4XOSq] /bootなんか、わざわざRAIDに置かずに別途USBメモリに保存したほうが トラブルも無く、運用も楽。 そりゃ、万一の時は多少手間が増えるが。