1 名前:login:Penguin mailto:sage [2008/04/15(火) 21:49:14 ID:Ve/x9iF4] Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/ スレ 3 pc11.2ch.net/test/read.cgi/linux/1168487758/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.co.jp/product/raid/os_support_list.html Linux EVMS 一般 ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html ttp://evms.sourceforge.net/ ... あと続けてくらさい。
233 名前:理解! [2008/09/02(火) 01:06:27 ID:+OCnqEcR] なるほどねぇ インターフェースが追いつかなきゃ意味ないですね^^; ごもっとも^^
234 名前:login:Penguin mailto:sage [2008/09/02(火) 05:45:29 ID:JL3ZUwv4] ソースを読むほどのスキルはないんだけど、未だにRAID1で読み取り性能だけ2倍にする方法は解明されてない? 相変わらずmanpageに書いてあることとは違うままなのかな。
235 名前:login:Penguin mailto:sage [2008/09/02(火) 08:50:52 ID:xIov+WO6] 性能がスループットという意味なら倍になるよ。 CPUが2つでプロセス2つで読んでればだけど。 読み出しロジックは読み出し処理を2つのディスクに並列分散させるのではなく、 単に空いているorヘッド位置が都合がいい方のディスクを選択するだけだから あるプロセス1つから見たら別に速くなるわけではなさそう。
236 名前:login:Penguin mailto:sage [2008/09/02(火) 17:54:33 ID:JL3ZUwv4] あのmanpageに書いてあることは、そういうことだったのか!? だったらmanpageにもそのように書いてくれればいいのにねぇ。 ネット上でも、たまに悩んでいる人がいるし。
237 名前:login:Penguin mailto:sage [2008/09/03(水) 09:36:58 ID:GOWpJIT8] ソース見ると、こういうことだべ。 2.6.18のraid1.c * This routine returns the disk from which the requested read should * be done. There is a per-array 'next expected sequential IO' sector * number - if this matches on the next IO then we use the last disk. * There is also a per-disk 'last know head position' sector that is * maintained from IRQ contexts, both the normal and the resync IO * completion handlers update this position correctly. If there is no * perfect sequential match then we pick the disk whose head is closest. * * If there are 2 mirrors in the same 2 devices, performance degrades * because position is mirror, not device based. * * The rdev for the device selected will have nr_pending incremented. */ static int read_balance(conf_t *conf, r1bio_t *r1_bio)
238 名前:login:Penguin mailto:sage [2008/09/03(水) 10:31:37 ID:E4hwRJkf] 1ビットだか1バイトずつ交互に読み書きするから読み書き2倍ってのは嘘か
239 名前:login:Penguin mailto:sage [2008/09/03(水) 19:50:17 ID:Yeu4fcGq] raid5=raid0<raid1 程度だと思われるが実装によって逆転する。
240 名前:login:Penguin mailto:sage [2008/09/03(水) 21:37:57 ID:xUNUra92] >>234-236 裏技と言うほどのことじゃないけど、それを実現したいなら、 mdadm -C /dev/md0 -l 10 -p f2 -n 2 /dev/sda1 /dev/sdb1 こうやって、2 台だけで RAID10 を組んでみたら? きちんとミラーリングされた上で、読み取り速度は シングル スレッドでも 2 倍になるよ。
241 名前:login:Penguin mailto:sage [2008/09/04(木) 00:12:57 ID:B1PfYM1l] 234が想定アクセスパターンを言わないと何の議論もできんと思われ 並列アクセスするプロセス数と、ランダム・シーケンシャルの別、それからリード・ライト比率
242 名前:login:Penguin mailto:sage [2008/09/04(木) 00:58:57 ID:UTrxmu/B] >>241 じゃあ極端な例ということで、100MB/sのシーケンシャルI/O性能を持つHDD2台のRAID-1で 1.1プロセス、シーケンシャルリード100%の場合 2.2プロセス、片方シーケンシャルライト、片方シーケンシャルリード100%の場合 この場合に期待できる a.各プロセス単位でのリード性能(MB/s) b.計算機全体で達成されるリード性能(MB/s) はおおよそどうなる?2プロセス時はI/O時間が均等に回ってくるとして。 争点は1aが100MB/sなのか200MB/sなのか、2bが100MB/sなのか 150MB/sなのかということかと思うが。
243 名前:login:Penguin mailto:sage [2008/09/04(木) 19:35:51 ID:B1PfYM1l] アクセス単位とかスケジューラでとんでもなく変わるだろうけど、とりあえず計算 つっこみよろしく 1a 並列読み出し (α)27.2MB/s (β)100MB/s (γ)200MB/s 片ディスク読み出し 100MB/s 2b 2.56MB/s 仮定として、 RAID1 7200rpm 平均シークタイム 8ms noopスケジューラ ファイルシステムを考えない(メタデータ読み書きがない) mdドライバのリクエスト振り分けは理想的 リード・ライト対象領域はそれぞれ連続 各プロセスのアクセス単位64KB 1aα アクセス単位ごとに回転待ちが発生する場合 1000ms / (回転待ち 4.17ms + データ読み出し 0.655ms) * 64KB * 2 = 27.2MB/s 1aβ 2つのディスクの回転角が一致している場合には回転待ちは省略できるが、 次の目的セクタに行くまでの回転時間は両ディスク同じなので結局変わらない。 1aγ 2つのディスクの回転角がそのトラックでのアクセス単位分だけずれている場合 リードリクエストが来た瞬間にヘッドが目的セクタ上にあるので回転待ちも省略可能 2b 片ディスク読み出し 書きこみオペが来ると両ディスクが書き込み先までシークする必要がある。 1aβ/γのように回転待ちの省略が期待できないので 1000ms / (読み 0.655ms + シーク8ms + 回転待ち4.17ms + 書き 0.655ms + シーク8ms + 回転待ち4.17ms) / 64KB = 2.56MB/s
244 名前:login:Penguin mailto:sage [2008/09/04(木) 19:48:19 ID:B1PfYM1l] すまん、1aβ変なこと書いてる… 1aβ リード完了地点からアクセス単位分だけ先に次の目的セクタがあるので、 回転待ちは最小限で済むが、一方の回転待ち時間=他方の読み出し時間なので結局変わらない。 で。
245 名前:login:Penguin mailto:sage [2008/09/04(木) 23:56:09 ID:WdYxWaI1] 1TB*4でraid組みたいのですが、raid5にするのと、raid1にするのでは どちらが生存性が高いでしょうか? 現状では500GB*2でraid1を組んでいます。
246 名前:login:Penguin mailto:sage [2008/09/05(金) 02:43:09 ID:/T+bWScm] RAID5は1台の破損まで復旧可能で3TB利用可能 RAID1だと1台の破損まで復旧可能で1TB利用可能なドライブが2つ 確率だけでいえば当然RAID1 RAID10だと1台の破損は復旧可能、2台の破損はミラーしてるペアでなければ復旧可能で2TB利用可能
247 名前:login:Penguin mailto:sage [2008/09/05(金) 04:45:32 ID:1sBBnm+4] >>245 RAID5だと再構築時にアレイの他のディスクにアクセスしに行くから 負荷も危険性も上がる。RAID1なら対となるディスクのみアクセス。 243-244だけど、1aαも1aγも実際にはまず起こらないだろうから 1プロセスで同じ領域を読む限り、1aについては100MB/sでFAかと。
248 名前:login:Penguin mailto:sage [2008/09/05(金) 04:56:12 ID:GrlZSlCm] FA(笑)
249 名前:245 mailto:sage [2008/09/05(金) 06:16:01 ID:aZwTzuar] >>246 ,247 速度は気にしていないので、raid1で組むことにします。 ついでなので1TB*6で3TBにする事にします。 ありがとうございました。
250 名前:login:Penguin mailto:sage [2008/09/05(金) 10:34:09 ID:2aSQ8pMt] mysqlのマスターのためにはどんな構成がよいですか? 今は高速回転のディスクでにRAID1にしてます。
251 名前:login:Penguin mailto:sage [2008/09/05(金) 13:29:39 ID:1sBBnm+4] そういや3台以上でRAID1組むと3台以上に分散してくれるんだろうか 並列ランダムリード中心ならうまいことレイテンシ隠蔽できそうだけど
252 名前:login:Penguin mailto:sage [2008/09/06(土) 16:52:55 ID:mklTZhL5] >>250 メモリ山ほど積んでオンメモリインデックス それかSSD
253 名前:login:Penguin mailto:sage [2008/09/07(日) 01:22:02 ID:AQmY2t2w] >>240 そんなことができるのか。知らんかった。 確かにhdparmでは2倍になってるし、片方のHDDを外してもデータに問題はなかったから、 ミラーリングもされてるみたいね。 RAID10って時点で絶対に4台必要なんだと思って、考えたこともなかったよ。
254 名前:login:Penguin mailto:sage [2008/09/07(日) 02:08:53 ID:dwiRmWpQ] 2台のRAID10って一体データはどういう風に乗ってるんだ?
255 名前:login:Penguin mailto:sage [2008/09/07(日) 02:52:54 ID:AQmY2t2w] >>254 240氏のやり方だと、RAID10ってのはあくまでも名前だけで、 実際は234氏が言ってるような読み込みだけが速いRAID1状態になってる。 書き込みは単体のときと(たぶん)同じ速度。読み込みは約2倍。 で、1台外してもデータには問題なくて、そのときは読み込みも単体と 同じ程度の速度に落ちる、って感じ。 実際のHDDにどうやってデータが書き込まれているのかは、俺にはわからん。
256 名前:login:Penguin mailto:sage [2008/09/07(日) 09:00:17 ID:3IVMMvgf] >>255 man md
257 名前:login:Penguin mailto:sage [2008/09/09(火) 10:43:41 ID:XWIPazgz] [root@puchiko root]# cat /proc/mdstat Personalities : [raid5] [raid4] [raid1] md2 : active raid5 sdc1[3] sdd1[2] sdb1[0] 490223232 blocks level 5, 32k chunk, algorithm 2 [3/2] [U_U] [>....................] recovery = 0.0% (118528/245111616) finish=275.4min speed=14816K/sec md1 : active raid1 sde1[2] sda1[0] 199141632 blocks [2/1] [U_] [>....................] recovery = 0.4% (991424/199141632) finish=123.3min speed=26775K/sec md3 : active raid5 sdl1[3] sdk1[2] sdj1[1] sdi1[0] sdh1[4] sdg1[6] 2441919680 blocks level 5, 32k chunk, algorithm 2 [6/5] [UUUUU_] [>....................] recovery = 2.8% (13738880/488383936) finish=421.5min speed=18766K/sec unused devices: <none> 豪勢にリカバリー中・・・コケないことを祈る
258 名前:login:Penguin mailto:sage [2008/09/09(火) 10:53:35 ID:a8VHVsbk] .: + ...:. ..:...:.. :. + . ..: .. . + .. : .. . .. + ..:. .. .. + :. . +.. . : .. + .. . .. :.. >>257 .. . + |: | |: | .(二二X二二O |: | ..:+ .. ∧∧ |: | /⌒ヽ),_|; |,_,, _,_,,_,〜(,, );;;;:;:;;;;:::ヽ,、 " "" """""""",, ""/; "" ,,, """ ""/:;; "" ,,""""" /;;;::;;
259 名前:login:Penguin mailto:sage [2008/09/09(火) 22:05:16 ID:XWIPazgz] 終了したよ! sdcが壊れててmd2はRAID1にしたけど。。。 md3はRAID6にするべきではないか考え中。チラ裏スマソ
260 名前:login:Penguin mailto:sage [2008/09/10(水) 04:30:01 ID:wQXa/rnK] おつ
261 名前:login:Penguin [2008/09/10(水) 21:04:02 ID:6XTL7ehC] いまフツーにRAID1してるんですけど、 単体のSSDに替えたら信頼性はUp?Down? 答えが出ないので教えてください IntelのSSD良さげですよね
262 名前:login:Penguin mailto:sage [2008/09/10(水) 21:23:58 ID:mTxqzEnL] >>261 既存のHDD RAIDをSSD RAIDにしたらどうなるかってこと? 単純にMTBF比較であればHDDが市販のもので60万時間程度、 SSDが200万時間程度なので、信頼性は上がるだろう。 とはいっても確率論だが。
263 名前:261 mailto:sage [2008/09/10(水) 21:36:09 ID:6XTL7ehC] HDD RAID1→SSD1個非RAIDです。 数字上は信頼性ちょいアップだけど... 何万台も運用するわけではないので運次第ってとこですかね?
264 名前:login:Penguin mailto:sage [2008/09/10(水) 22:39:23 ID:mTxqzEnL] >>263 運の要素が大きいだろうな。 HDDだとクラッシュの危険があるし、SSDだと書き込み回数の制限がある (ある程度は散らしているが確実なものではない)。
265 名前:login:Penguin mailto:sage [2008/09/11(木) 13:52:38 ID:t86QBmcU] >>262 > 単純にMTBF比較であればHDDが市販のもので60万時間程度、 > SSDが200万時間程度なので、信頼性は上がるだろう。 あれ? HDDの方はRAID1なんだから 「60万時間程度」が同時に二つ壊れる可能性との比較になるよね。 HDD RAIDの方が信頼性上なんじゃない? 正確な計算法が分からんけど。
266 名前:login:Penguin mailto:sage [2008/09/11(木) 13:54:54 ID:czapuPka] SSDもRAIDじゃないのか?
267 名前:login:Penguin mailto:sage [2008/09/11(木) 19:45:48 ID:x4yKwbl5] >>266 >>261 を声に出して100回読め
268 名前:266 mailto:sage [2008/09/11(木) 22:53:18 ID:czapuPka] ごめん、262しか読んでなかったorz
269 名前:login:Penguin [2008/09/12(金) 21:58:14 ID:AhnXV+bh] 教えてください。 dmraidで作ったRAIDデバイスと、 フツーにLinux上で作ったソフトウェアRAIDって性能は一緒だよね? dmraidってのは(Intel Matrix Strageみたいな)BIOSで作ったRAID情報を読み取って、 LinuxソフトウェアRAIDを自動的に構成するツールだと考えてるんだが、この理解は正しい? あとdmraidで構成したRAIDデバイスが壊れたときは、BIOSで修復かけてもいいのでしょうか?
270 名前:login:Penguin mailto:sage [2008/09/13(土) 05:43:54 ID:yFc3xM/P] mdとdmraidの性能比較みたいなページがないか検索してみたらいいよ
271 名前:login:Penguin mailto:sage [2008/09/13(土) 16:57:51 ID:LK2wbKHe] >>264 フラッシュ寿命問題って、単に代替セクタ機能でカバーできるんじゃないの? 当然書き込み先を散らすといった手立てをした上での話だけど。 同じく疲労するDVD-RAMとかだって似たような対策打ってるんだから、 よほど書き込みアクセスが反復する用途でない限り大丈夫なんじゃないかと。
272 名前:login:Penguin mailto:sage [2008/09/13(土) 17:50:12 ID:ch1kjtqk] 書き込み分散とかセクタ代替も込みで製品としてのMTBF出してるだろうから 外から見る限り、書き込み分散とかセクタ代替機能は特に考慮しなくても問題ない …というのが理想なんだけど、 書き込み分散方式とアクセスパターンとの兼ね合いがあるだろうからなあ
273 名前:login:Penguin [2008/09/14(日) 16:09:17 ID:aCb6t4HK] >>269 dmraid知らんけど、互換性があるなんて聞いたことないな。 ttp://sourceforge.jp/magazine/05/03/17/0923219 ここのを読むとプロプライエタリなソフトRAIDに対してのラッパーみたいなもの? mdadmとはあまり関係なさそうな。
274 名前:login:Penguin mailto:sage [2008/09/14(日) 22:01:49 ID:IYFhfqhh] まあラッパーでいいのかな。BIOS(RAIDカードとかの)で切った RAID構成のパラメータをLinux側に取り込んでそのまま扱えるようにする わけだから。 こうするとRAID構成の一部はLinux、別の部分はWindowsみたいな 共存ができるけど、そういう部分切り出し利用しないならOS側の ソフトRAID機能を使った方がいいというのは百万回くらいいわれてる通り。
275 名前:login:Penguin mailto:sage [2008/09/14(日) 23:38:16 ID:JSPVgMYR] > 百万回くらいいわれてる 暇なときでいいんで、リストくれ
276 名前:ヒャクマンハウソ、スマソ mailto:sage [2008/09/15(月) 11:53:48 ID:a7BuBquH] >>275 リストを出すのは簡単なのだが、2ちゃんのスレはあまりにも 容量が厳しすぎるので勘弁してください mOm
277 名前:login:Penguin mailto:sage [2008/09/15(月) 16:04:26 ID:gKAquFIw] >>276 ここに貼り付ける必要なくね。 圧縮してどこかのアップローダに置いて、ここには URL 一行書けばいいよ。
278 名前:login:Penguin mailto:sage [2008/09/19(金) 05:28:28 ID:BR3MquqB] >>225-226 サウスのヒートシンクが貧弱なマザーなら、サウスが熱でやられる。 サウスを冷やせ。 側面にファン取り付け穴が二つ開いてるケースなら、下の方だ。
279 名前:login:Penguin mailto:sage [2008/09/20(土) 12:32:05 ID:2jxpiAok] HDD RAIDの仕組みがよく分からないのですが、 例えば、RAID1で500GBで組む、 とした場合、 この500GBと組んだ、という情報は RAIDカードのみが認識することになるんでしょうか? (HDD自体には特にRAID云々の情報は書き込まれない?) 現在500GBでRAID1組んでいて、1TBに変えたのですが、 ユニット拡張機能がRAIDカードについていないため、 500GBで認識されてます。 この場合、 一旦関係ない1TB載せて、再度RAID1組んで、 (RAIDカードに1TB情報載せて) 関係ない1TBをはずして、500GBと認識されてた1TB HDDを 載せれば、拡張目的果たせるんでしょうか? ちなみに3wareの8006-2lp使ってます
280 名前:login:Penguin mailto:sage [2008/09/20(土) 15:56:49 ID:9fflWZZq] >>279 ふつうはRAIDに関する情報をハードディスクのどこか(ふつうはディスクの先頭などの 固定の場所)に書き込む。そうでないものもあるにはあるが。 ユニット拡張機能とやらが何なのか知らんが、3wareのユーティリティなどで できるのではないか。
281 名前:279 mailto:sage [2008/09/20(土) 16:39:03 ID:2jxpiAok] >>280 うわーーー おっしゃるとおりですね。 試してみましたが、だめでした。 ユニット拡張は、 いわゆるRAIDカードが構築した論理?ドライブを 実際のディスク容量に拡張するものです。 現在はRAID1作成時のディスク容量で実HDD容量ではないので それを実HDDの容量に補正したいわけですが、 3wareのCLIでは無いよう何です(汗 何か代替方法ないでしょうか・・・。
282 名前:279 mailto:sage [2008/09/20(土) 19:18:27 ID:2jxpiAok] 結局HDDにRAID情報が書き込まれてるんで、 別HDDへ、ddやコピー系でコピーしてもダメポなんですよね・・・ ああ激しく鬱だ orz
283 名前:login:Penguin mailto:sage [2008/09/24(水) 10:25:25 ID:NY4tqg7z] mdadm -Aで無理やり起動したら failed to RUN_ARRAY /dev/md0: Input/output error これってどういう事……汗
284 名前:login:Penguin mailto:sage [2008/09/24(水) 15:31:23 ID:3ffijfuO] コンポーネントデバイスがご臨終
285 名前:login:Penguin mailto:sage [2008/09/25(木) 21:02:44 ID:LfvtnWd8] RAID5におけるresyncについて教えてください debianで構築したGLANTANKにUSB接続で6台のHDDでRAID5を構築していました。 帰宅したところHDDに頻繁にアクセスしているのでtelnet接続したところ、下記のような状況でResync状態にあるようです。 fumifumi@GLANTANK:~$ sudo cat /proc/mdstat Password: Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4] md1 : active raid5 sda1[0] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] 1562842880 blocks level 5, 64k chunk, algorithm 2 [6/6] [UUUUUU] [>....................] resync = 4.3% (13630588/312568576) finish=2230.8min speed=2232K/sec md0 : active raid1 hdb3[1] hda3[0] 77649600 blocks [2/2] [UU] この状態でmd1のデータは無事に復旧しますでしょうか? 残り一日以上かかりそうですが、完了時にはデータが空っぽにならないか心配です。 ちなみにdfコマンドでは /dev/md1 1538319916 1457990512 2187260 100% /share/usb と表示されており、昨日までの使用状況とは変わっていません。(現時点では。。) /shaer/usbにアクセスしようとしても反応がない状況です。 どんどんデータが開放されているのでしょうか? 力量不足で情けないですが、このまま待つのがよいのか?データは保持されるのか? アドバイス・ご教示お願いします。 ps.resyncとrebuildはちがいますよね?
286 名前:login:Penguin mailto:sage [2008/09/25(木) 22:29:45 ID:hqNskNnF] ((((´д'))))
287 名前: ◆Zsh/ladOX. mailto:sage [2008/09/25(木) 23:03:20 ID:uxBh3s9z] 待つしかない。 (rsync中も遅いだけで使えた稀ガス) 反応が無いって cd /share/usb しても ・cdが成功しない ・cdはできるがその後lsとかでコマンドの反応が無い ってこと?
288 名前:login:Penguin mailto:sage [2008/09/25(木) 23:43:29 ID:LfvtnWd8] >>287 早速のレスありがとうございます。 cd /share/usbに反応しませんでした。 プロンプトに戻ってこなかったです。 先の書き込みをした後は sudo cat /proc/mdstat にて状況を見ていたのですが、先ほど急にtelnetが切断して接続不能になりました。 #resync中でも再起動可能とのことだったのでsudo reboot等試みましたが、リブートはしませんでした。 それ以外はmdstatしたりdfして状況を見てました。 telnet接続できない現在でも、USB接続のHDDには相変わらずアクセスし続けているので、引き続きresyncは実行されているようですが、pingも利かない状態におちいってます。 GLANTANKのパワー不足?かもしれません。 繰り返しで申し訳ないですが、データは無事と思ってよいでしょうか? その他書き込みした事項以外で確認すべきことがあればアドバイスください。 返答よろしくお願いします。 敬具
289 名前: ◆Zsh/ladOX. mailto:sage [2008/09/26(金) 00:02:45 ID:uxBh3s9z] >>288 まず、データは無事です。 > GLANTANKのパワー不足?かもしれません。 現状はこれかな。 最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから そのPCにHDDを6台接続してresyncした方が良い鴨 (USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)
290 名前: ◆Zsh/ladOX. mailto:sage [2008/09/26(金) 00:11:25 ID:D+db+I6m] あーでも今GRANTANKシャットダウンできないのか。 電源ボタンぽちしてシャットダウンしたりするのかなぁ。 どうすっぺねぇ
291 名前:login:Penguin mailto:sage [2008/09/26(金) 00:19:03 ID:7oAA51Rx] >>289 > まず、データは無事です。 ありがとうございます。気長に待つことにします。 先の書き込みでお分かりのように大事なデータや怪しいデータなどなど目いっぱい詰め込んで快適につかっていたのですが、初トラブルで、心配です。 希望が出てきたので、おとなしく観測します #容量いっぱいなので、入れ替えながらかつかつ運用です。。 > > GLANTANKのパワー不足?かもしれません。 > 現状はこれかな。 やはりそうでしょうか。外部アクセスを拒絶してしまってます。 先ほどまでworkhroupにいたGLANTANKがいなくなってますし、resyncに専念してしまっているのかな? なんとかがんばってくれぇ>SH #感情的で申し訳ないです。こういう時ほど落ち着いて対処ですよね > 最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから > そのPCにHDDを6台接続してresyncした方が良い鴨 いまさらこのようなことが可能なのでしょうか? リブートできない状況ではリスクが大きいかと。。 どちらにしてもLinuxな環境がないので乗り換えは厳しいです。 > (USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定) 説明不足ですいません。 6台はい〜るに6台のHDDを詰め込んでますので使用UBSポートは1つで大丈夫です。 #それにしてもなぜ?このような状態に。。。 有益なアドバイスいただきありがとうございました。 何か思いつかれたら、また返答いただければ幸いです。 敬具
292 名前: ◆Zsh/ladOX. mailto:sage [2008/09/26(金) 00:35:12 ID:D+db+I6m] > どちらにしてもLinuxな環境がないので乗り換えは厳しいです。 CDブートのlinuxを使えば良い。 が、どっちにしろgrantankを上手く落とせた場合の話になってしまうけど ではもう寝るので健闘を祈ります。
293 名前:login:Penguin mailto:sage [2008/09/26(金) 00:52:55 ID:7oAA51Rx] >>292 いろいろお世話になりました。 とりあえず現状のまま様子をみます。 夜遅くまでお付き合いいただきありがとうございました。 敬具
294 名前:login:Penguin mailto:sage [2008/09/26(金) 11:36:30 ID:UHMIOaKO] >>293 resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの? WD10EACS-D6B0 x 4でRAID5を使ってるけど、80MB/secから最終的に40MB/secに落ちる程度の速度は出るよ。 どれかのHDDが壊れかけで足引っ張ってたりするんじゃないかと想像するんだけど。 dmesgとかsmartを確認した方が良さそう。 あと、あんまりかつかつまで使わない方が良いと思うよ。 環境依存かもしれないけど、2.7TB中50GB程度空きになった状態で何度かフリーズを経験してて、 空きが結構ある状態では一度もフリーズしてない。 (OS:Fedora9、FS:XFS)
295 名前:login:Penguin mailto:sage [2008/09/26(金) 20:14:20 ID:7oAA51Rx] >>294 > resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの? よく覚えてませんが、たぶん構築時もこんなものだったような?? > dmesgとかsmartを確認した方が良さそう。 寄せ集めの320GB-IDEをUSB接続なのでこんなものかと。。 いただいた情報をヒントに調べてみます。 > あと、あんまりかつかつまで使わない方が良いと思うよ。 余裕を持ちたいのは山々ですが。。いろいろ詰め込んじゃうんですよね。 どこもかしこもかつかつで。。貧乏性で消せない性格がいけませんね。 速度よりも容量重視でこうなっちゃいました。。
296 名前:login:Penguin mailto:sage [2008/10/05(日) 10:49:30 ID:Ze8uaqdI] /proc/mdstatがcheckになるのは、なぜですか? # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md1 : active raid6 sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0] 2930279808 blocks level 6, 64k chunk, algorithm 2 [5/5] [UUUUU] [>....................] check = 0.7% (7653376/976759936) finish=3794.0min speed=4256K/sec /var/log/messages Oct 5 01:06:01 host kernel: md: data-check of RAID array md1 Oct 5 01:06:01 host kernel: md: minimum _guaranteed_ speed: 1000 KB/sec/disk.Oct 5 01:06:01 host kernel: md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for data-check. Oct 5 01:06:01 host kernel: md: using 128k window, over a total of 976759936 blocks. md0についても同じメッセージが出ています。 ファイルシステムは、md0, md1ともにXFSです。 1時6分から何かが始まっていますが、cron.dailyは6時25分に設定されているので cronによって起動された何かが原因ではありません。 OSを再起動したとか、ホットスワップしたタイミングでもありません。 OS: Debian GNU/Linux 4.1(etch) カーネル: 2.6.26.5へ入れ替え です。
297 名前:login:Penguin mailto:sage [2008/10/05(日) 13:12:24 ID:rOZmgU0Y] /etc/cron.d/mdadm じゃね?
298 名前:296 mailto:sage [2008/10/05(日) 14:55:41 ID:Ze8uaqdI] おっしゃるとおりです。 6 1 * * 0 root [ -x /usr/share/mdadm/checkarray ] && [ $(date +\%d) -le 7 ] && / usr/share/mdadm/checkarray --cron --all --quiet となってました。 どうもありがとうございました。
299 名前:login:Penguin mailto:sage [2008/10/11(土) 18:12:33 ID:ZuxskNzz] SATAのHDDが10個ぐらいのRAID組みたいのだが 一番安く済む方法教えてほしい
300 名前:login:Penguin mailto:sage [2008/10/11(土) 20:12:37 ID:0pLPQ9Sw] 普通はエントリーモデル買って100万円ぐらいじゃない?
301 名前:login:Penguin mailto:sage [2008/10/11(土) 23:40:03 ID:qfaubBp2] >>300 80 万くらいの差額はどうするべ?
302 名前:login:Penguin mailto:sage [2008/10/12(日) 00:04:53 ID:0pLPQ9Sw] 80万円の差額ってなぁに? たしかにボッてるとおもうけど 冗長性のあるコントローラや電源だと このくらいするかなと思います そもそも家庭向けだとスロット数が4つぐらいだよ
303 名前:login:Penguin mailto:sage [2008/10/12(日) 00:07:47 ID:MFK5+p1z] 冗長性云々必要なの? > SATAのHDDが10個ぐらいのRAID組みたいのだが としか書かれてないよ。
304 名前: ◆Zsh/ladOX. mailto:sage [2008/10/12(日) 00:16:53 ID:BnTxnZIJ] サウスにSB700とかSB750とかICH9とかICH10のマザー + クロシコSATA2I2-PCIeを2個使う ってところか。 HDDはお好きなのでどうぞ。
305 名前:login:Penguin mailto:sage [2008/10/14(火) 16:22:59 ID:NijeoAer] 最近Supermicroのベアボーンが、実はかなりコストパフォーマンスが高いことに気付いた。 SOHO向けのファイルサーバ用途なんかだと、かなりいい感じだと思う。 バラでパーツ集めるより安心確実安上がり。
306 名前:login:Penguin mailto:sage [2008/10/15(水) 01:00:02 ID:MFbQNNJJ] もしドライブベイ4つあるサーバーあったら @SASでraid1+0 ASASでraid6 BSATAでraid1+0 CSATAでraid6 のうちどれが良いと思います? 速度、コスト、耐障害、障害時復旧等 それぞれの面から教えてください。
307 名前:login:Penguin mailto:sage [2008/10/15(水) 02:07:17 ID:ZK7oP6Ef] >>306 シーケンシャルなら24 ランダムなら13 コストなら34 耐障害なら24 ディスク負荷高い場合は障害復旧での負荷13
308 名前:login:Penguin mailto:sage [2008/10/17(金) 23:47:36 ID:yE7dhqMk] >>306 これ見て思い出したんだけど RAID1+0ってRAID0+1って言うのもあったんだね 1+0のほうが耐障害で0+1が速度だっけ?
309 名前:login:Penguin mailto:sage [2008/10/18(土) 03:28:34 ID:CvVG09ig] >>308 その2種類の動作は呼び方が定義されていない 普通採用される方式は RAID0の各HDDがミラーリングされている方式 もう一つは信頼性ガタ落ちの RAID0をミラーリングした方式 速度はどっちも同じ(リトライ処理とか考えると異なるかもしれんが)
310 名前:login:Penguin mailto:sage [2008/10/22(水) 23:03:41 ID:OER6wkY9] >>308 ミラーリングボリュームのストライピングか ストライピングボリュームのミラーリングか、だね ストライプサイズ近辺のアクセス粒度だと、シークとアクセス振り分けの関係で 性能特性が微妙に違ってきそうな感じ。分かるような違いは出ないと思うけど… ちなみにmdのRAID10はさらに別物
311 名前:login:Penguin mailto:sage [2008/10/25(土) 23:44:02 ID:WFYSKaa5] mdadmでRAID1を組んでext3でフォーマットしました。 別のext3のディスクからディレクトリを cp -a でコピーし、 du で見たところディレクトリ全体の容量が微妙に違います。 ですが、ディレクトリ内の各ファイルの容量はそれぞれ一致しています。 これは、ジャーナリングのメタデータの容量が違うから、ですか? それとも、RAIDに起因するものですか?
312 名前:login:Penguin mailto:sage [2008/10/26(日) 01:23:25 ID:Z2w8/cR8] その「微妙」というのが何KBなのか何MBなのか、そしてどっちが多いのか エスパーじゃない俺には全然わからないけど 単にディレクトリエントリの消去済み領域の分だったりしないかね。
313 名前:login:Penguin mailto:sage [2008/10/26(日) 02:35:57 ID:J0AWp7Ql] コピー元と先のそれぞれ上の階層で ls -l すると 4096B だけコピー先のディレクトリが小さいので、 おっしゃる通りですね。勉強になりました。
314 名前:login:Penguin [2008/10/28(火) 15:40:50 ID:OkmvC/aL] 3wareの9500Sで700GB*8のRAID5を構築したのですが、 ファイルシステムが上手く作れなくて大変困っております。 使用しているのはFedora Core 7です。 # parted /dev/sdb GNU Parted 1.8.6 Using /dev/sdb Welcome to GNU Parted! Type 'help' to view a list of commands. (parted) p Model: AMCC 9500S-8 DISK (scsi) Disk /dev/sdb: 5250GB Sector size (logical/physical): 512B/512B Partition Table: msdos Number Start End Size Type File system Flags (parted) mkpart primary ext2 0 -0 (parted) p Model: AMCC 9500S-8 DISK (scsi) Disk /dev/sdb: 5250GB Sector size (logical/physical): 512B/512B Partition Table: msdos Number Start End Size Type File system Flags 1 512B 852GB 852GB primary ext2 となって、5250GBと表示されているのに、パーティションを作ろうとすると 852GBのパーティションしかできません。 RAIDの最初期化なども行ってみたのですが症状は変わりませんでした・・ どなたか、アドバイスを下さいませんでしょうか?
315 名前:login:Penguin mailto:sage [2008/10/28(火) 16:02:30 ID:7kZ3n49D] > Partition Table: msdos なあ、DOSパーティションテーブルで扱えるサイズに上限があるの知ってる?
316 名前:314 [2008/10/28(火) 16:11:53 ID:OkmvC/aL] できました!大変ありがとうございました。 (parted) p Model: AMCC 9500S-8 DISK (scsi) Disk /dev/sdb: 5250GB Sector size (logical/physical): 512B/512B Partition Table: gpt Number Start End Size File system Name Flags 1 17.4kB 5250GB 5250GB primary
317 名前:login:Penguin mailto:sage [2008/10/28(火) 17:16:12 ID:XbLUcb3e] え〜っと ネタ……だよね?
318 名前:login:Penguin mailto:sage [2008/10/28(火) 17:29:33 ID:XbLUcb3e] しかし、ドライブが普通にTBクラスになってくると それまで遭遇したことのない状況に直面することも多そうだな。 1TB 1万円の時代がこんなに早くやって来ようとは…
319 名前:login:Penguin mailto:sage [2008/11/02(日) 00:36:09 ID:36V/uKQX] すまんが教えてくれ。 500GBx4(RAID5)を構成してたうちの1台が故障したんで、容量アップもかねて 1TBx3(RAID5)に変更した。 データ移行は全HDDを同時に搭載して、md0(500GBx4)とmd1(1TBx3)を作成して コピーした。 500GBx4を取り外して1TBx3だけにしたんだが、再起動後もmd0じゃなくmd1として 認識される。 今までデバイス名はmd0を使っていたんで、これからもそうしようと思ってたんだが。 CentOS5を使ってるんだが、これをmd0に直すことは出来ないか? 困ってるというほどじゃないんだけど、気持ち悪くて・・・orz
320 名前:login:Penguin mailto:sage [2008/11/02(日) 01:09:58 ID:n6/w/1q1] >>319 私も現在稼働中のRAIDの容量アップを狙ってましてその件について気になります。 憶測ですが、 /etc/mdadm/mdadm.conf /etc/fstab /boot/grub/menu.lst の3つを編集すればmd1をmd0にできるかもしれません。 mdadm.confをいじったらmdadmコマンドを実行しないといけないかもしれません。 RAID初心者なのであまり信用しないでください。 判断の材料になればと思いまして書かさせていただきました。 くれぐれもいきなりファイルを書き換えたりせず調べてから行ってくださいね。
321 名前:login:Penguin mailto:sage [2008/11/02(日) 01:29:20 ID:36V/uKQX] >>320 レスありがとう。 /etc/mdadm/mdadm.conf →今までmd0だったのをコメントアウトし、md1として記載していたのをmd0に書き換えた。 /etc/fstab →md0でマウントして欲しかったので、記載は変更せず。 /boot/grub/menu.lst →ルートパーティションもカーネル置き場もRAIDの対象外にしてあるので、変更せず。 この状態で、1TBx3(RAID5)がmd1で、md0にはデバイスが何も割り当てられていない。 仕方ないので今は、/etc/fstabを修正し(md0→md1)で動作させてる。 何をすれば直るんだろう・・・
322 名前:login:Penguin mailto:sage [2008/11/02(日) 04:27:52 ID:yzuijVl/] >>319 mdボリューム自体に書き込まれてる番号を見てるんで superblock弄らないと直せない やめておいたほうがいい
323 名前:login:Penguin mailto:sage [2008/11/02(日) 08:56:30 ID:36V/uKQX] >>322 ああ、そうなんだ・・・ わかった。ありがとう。 あきらめることにするよ
324 名前:login:Penguin mailto:sage [2008/11/07(金) 08:51:39 ID:1rUaDWwq] アロハですべて解決だお田口くん^^
325 名前:login:Penguin mailto:sage [2008/11/08(土) 20:24:12 ID:dUpxLcHs] アロハ田口君、使えないRAID・使えないクソ板というならここにはこないでくれ!
326 名前:login:Penguin mailto:sage [2008/11/08(土) 22:09:50 ID:1FtiGeqJ] md raid1なデバイスが開始しなくなったのですが、 縮退も何もしていないようなので原因が掴めずにいます。 再構成すれば正常に復帰することは確認していますが、 どのような原因でこの状況になり、どのような対応をするべきなのか、 勉強のために助言をいただければ大変ありがたいのですが。 # cat /proc/mdstat md1 : inactive sdb1[0] sda1[1] 12345678 blocks super 1.0 # mdadm --detail /dev/md1 /dev/md1: Raid Level : raid1 Raid Devices : 2 Total Devices : 2 Preferrer Minor : 2 Persistence : Superblock is persistent State : active, Not started Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 # mdadm --examine /dev/sd[ab]1 /dev/sda1 State : clean Checksum : 1234abcd - correct Events : 4 /dev/sdb1 State : active Checksum : 56789abc - correct Events : 5
327 名前:login:Penguin mailto:sage [2008/11/08(土) 22:30:16 ID:vwNnhBNG] >>326 raid1ドライバは起動時にロードされてる? パーティションタイプの設定は間違ってない?
328 名前:326 mailto:sage [2008/11/08(土) 22:39:01 ID:1FtiGeqJ] >>327 全く同様に作成した複数のRAID1デバイスがありますが、このデバイスのみ開始しません。 ちなみにパーティションは/としてマウントされる設定になっています。
329 名前:326 mailto:sage [2008/11/08(土) 23:01:02 ID:1FtiGeqJ] 昨日までは問題なく機能していたのですが、一体何が原因なのやら。 念のため、パーティションテーブルとmdadm.confも バックアップと比較してみましたが、完全に一致しています。
330 名前:login:Penguin mailto:sage [2008/11/08(土) 23:12:58 ID:vwNnhBNG] ルートってのが怪しい気も・・・ # dmesg | grep md とか
331 名前:326 mailto:sage [2008/11/08(土) 23:42:00 ID:1FtiGeqJ] >>330 # cat /var/log/boot.msg | grep_wetware md mdadm: /dev/md0 has been started with 2 drives. mdadm: failed to RUN_ARRAY /dev/md1: Input/output error mdadm: /dev/md2 has been started with 2 drives. mdadm: No arrays found in config file このシステムは普通のinitrdだと起動しないので、 今Knoppixを改造する方法を調べていますが、メディアがないという・・・。
332 名前:326 mailto:sage [2008/11/09(日) 00:02:30 ID:1FtiGeqJ] システム自体は自動復旧できるので、あまり困ってはいませんが、 復旧スクリプトはOSをカスタムクリーンインストールするだけなので、 原因究明に必要そうなデータは全部消えてしまいます。 全く関係ありませんが、M/BのRAID機能(Fake RAID)には SB等のオンチップなもの、別途チップを搭載したオンボードなものがあります。 後者の場合、搭載チップが大手デベロッパのもの(Silicom Imageとか)なら、 全く同じチップを搭載したRAIDカードが簡単に手に入ります。 「Fake RAIDを使いたいが、拡張カードに余裕がない。しかしオンチップでは不安」 という場合にはそのようなM/Bを選ぶのもいいかもしれません。 また、PATA・SATAなどが搭載されているものでも、似た型番のファームウェアで(略 他のOSと共用しないのであれば、LinuxでFake RAIDを選ぶ理由はそうないと思いますが。
333 名前:326 mailto:sage [2008/11/09(日) 21:20:22 ID:DGt7Zimz] どうも最近のカーネルで同じような現象が出るようです。 いくつかのフォーラムで話題に上っていましたが、いずれも原因は不明でした。 大きな実害はない(RAIDでシステムが起動しなくなるのは実害ですが)ため、 週末も終わりますので、このあたりで調査を打ちきりたいと思います。 付き合ってくださった方、ありがとうございました。