1 名前:login:Penguin mailto:sage [2009/09/16(水) 23:34:35 ID:JK/kMdkU] Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/ スレ 3 pc11.2ch.net/test/read.cgi/linux/1168487758/ スレ 4 pc11.2ch.net/test/read.cgi/linux/1208263754/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.com/ja-JP/_common/os_support/linux/ Linux EVMS 一般 ttp://evms.sourceforge.net/ Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。 ... あと続けてくらさい。
17 名前:login:Penguin mailto:sage [2009/09/21(月) 14:42:16 ID:nwMOYBnG] >>16 比較的最近1.5TBをメインのアレイに変えたので これまでの500GBがいっぱい余っているため。貧乏性なので・・
18 名前:login:Penguin mailto:sage [2009/09/21(月) 14:44:27 ID:Ly9SE+U7] >>13 --size または -z
19 名前:login:Penguin mailto:sage [2009/09/21(月) 14:47:49 ID:Ly9SE+U7] >>17 「いっぱい余ってる」なら LVMではなく もう一個足してRAID5のボリュームにして それをもう一段上のRAIDに参加させる の方が正しいような気がする。 面倒くせーから 俺はやらんけどねw
20 名前:login:Penguin mailto:sage [2009/09/21(月) 14:54:51 ID:nwMOYBnG] >>19 正確には6個なので、それも考えたけど。 で、まあ 結局のところ止めました!w リビルド開始までは確認したけど「遅ッ」 1.5TBなら 25MB/sくらいの速度なのだけど LVMまぜたら 17MB/sくらいになって残り時間が「万分」という表示に いや、それも正確にはLVMが悪いのかそれとも 今回初めてRAID6にしているため、RAID6はパリティ計算が小難しいから 遅いのかよくわかっていなかったりする
21 名前:login:Penguin mailto:sage [2009/09/21(月) 14:57:17 ID:0rI++oYo] バーカ
22 名前:login:Penguin mailto:sage [2009/09/24(木) 17:41:10 ID:QOatyG3l] pc12.2ch.net/test/read.cgi/software/1232865288/735 >>教えてください >>質問なんですが外付けのHDDも暗号化できますか? >>2 テラのHDDを4台でハードウエアRAID 0構成したHDDを暗号化して使いたいのですが >>問題有りませんか?
23 名前:login:Penguin mailto:sage [2009/09/25(金) 22:29:45 ID:OgNrc6NB] 素直に1.5TBを購入し 500GBは500GBでアレイにした RAID6って初めてだ。こんな感じ。やっとリビルド終わった記念。チラ裏スマソ。 $ cat /proc/mdstat Personalities : [raid1] [raid5] [raid4] [raid6] md2 : active raid6 sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0] 1953535744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU] md1 : active raid6 sdm1[5] sdl1[4] sdk1[3] sdj1[2] sdi1[1] sdh1[0] 5860543744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]
24 名前:login:Penguin mailto:sage [2009/09/27(日) 19:56:01 ID:OVR/+voC] 電源とSATAホットスワップベイとマルチプライヤーだけのRMな箱売ってないかなー
25 名前:login:Penguin mailto:sage [2009/09/28(月) 10:39:20 ID:Lzc9hMsI] いろいろ調べてみたんだが、明確な内容がつかめないので質問します。(調べ方が足りなかったらすまん) CentOSにて /boot RAID1 swap / RAID1+0 として、InstallしたいのだがInstallerには、RAID0, 1, 5, 6 しかないのでInstallerから組むことはできないと思うが Install後に何か手を加えてRAID10でパーティション構築して、/ として使用する方法はない?
26 名前:login:Penguin mailto:sage [2009/09/28(月) 11:40:16 ID:1pzidZ2O] FedoraだったらインストーラでRAID10できるんだけどなー
27 名前:login:Penguin mailto:sage [2009/09/28(月) 13:28:48 ID:C/Lh+sXP] >>25 インストール中にコマンド打って、あらかじめ好きなようにmdを作っておいて、 そこにインストールする、という手順じゃダメ?
28 名前:login:Penguin mailto:sage [2009/09/29(火) 17:04:26 ID:uKmkyA+r] >>25 一旦USBメモリとかにインストールして、カーネルを入れ替えてから、好きなような構成に設定したHDDにまるごとrsyncでコピる。
29 名前:login:Penguin mailto:sage [2009/10/04(日) 20:06:23 ID:QoLrolGm] >>24 裸族の雑居ビルじゃだめなんか
30 名前:login:Penguin mailto:sage [2009/10/13(火) 14:47:09 ID:IKMNvC1+] ざぞくのらっきょビル
31 名前:login:Penguin mailto:sage [2009/10/18(日) 20:32:48 ID:kyzATX8H] システム:md0(sda1 + sdb1のraid1) + データ:md1(sda3 + sdb3のraid1) という構成でシステムを再インストールしたいのですがどうすればいいのでしょう? 1.sdb1をfail&removeしてmd0から除く 2.sdb1に新システムをインストール 3.sdb1から起動し、元のmd0(sda1のみ)にシステムをコピー&grub設定 4.sda1から起動し、sdbをadd と思ったのですが…1の時点でコケました。 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、 と、ワケワカランとなってしまいました。 # そもそもmd0のシステムを入れ替えてmd1って動くのでしょうか?
32 名前:login:Penguin mailto:sage [2009/10/18(日) 20:43:55 ID:/Yo7fcPn] > 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、 > 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、 BIOSでの起動ドライブの指定は意図した通りに設定してあんの? 至極まっとうな動作だと思うが 1枚だけで起動できなきゃなんの為のRAID1なんだ
33 名前:login:Penguin mailto:sage [2009/10/19(月) 10:35:44 ID:F1hFmcmu] 何をしたいのかさっぱりわからん。
34 名前:login:Penguin mailto:sage [2009/10/19(月) 12:01:56 ID:5c6ufY3t] BIOSのHDD起動順序
35 名前:login:Penguin mailto:sage [2009/10/19(月) 12:23:40 ID:OwtH0QAV] つか RAIDのレベルで二つに割ってる意味がサッパリ分からん。 ボリューム分けたいなら普通はLVMでやるもんだと思うが。 パフォーマンスが落ちるだけじゃねーの?
36 名前:login:Penguin [2009/10/19(月) 12:44:43 ID:Js6Cpgcr] LVM挟んだほうが明らかにオーバーヘッドが一枚多いだろw
37 名前:login:Penguin mailto:sage [2009/10/19(月) 16:32:02 ID:Sjy8xwGc] 明らか か?
38 名前:login:Penguin mailto:sage [2009/10/19(月) 21:48:33 ID:fwC9TQj2] 実効"ほぼ"ゼロってのは叩きやすいからね 定量的に考えられない奴が引っかかるから扇動しやすい
39 名前:login:Penguin mailto:sage [2009/10/20(火) 11:23:21 ID:nQrL8SHf] パフォーマンスはともかく ディスク故障->交換時にかかる手間暇に関しては LVMで分けた方がずっと楽だな。
40 名前:login:Penguin mailto:sage [2009/12/14(月) 19:40:04 ID:RyeiL2Wz] LinuxMDでHDD4本でRAID1を2本ずつかけてるんだが、 複数のmdデバイスを同時にresyncかけるのはできるのかな? OSインストール時に二個同時に走ってるのを/proc/mdstatで見たんだけど、 再起動すると一個ずつになってる、、 同時でやれば速く終わるはずなんだけど
41 名前:login:Penguin mailto:sage [2009/12/15(火) 11:32:32 ID:tx5kvce1] >>40 > 同時でやれば速く終わるはずなんだけど むしろ遅くなりそうな気がするが。 同一のCPU、同一のコントローラで 二つの処理を同時に行わせるんだよな?
42 名前:login:Penguin mailto:sage [2009/12/15(火) 14:19:25 ID:CbO7zir3] >>41 そうなんだけども、CentOSインスコ時の裏ターミナルで見たら二本のRAIDペアが同時でMAX近いスピードが出てるんだよ。 resync終了前に再起動すると起動してからresyncが走るけど一本ずつresyncに。 同時並行でresyncできるかmd.txt見てもそんなパラメータないし謎、、
43 名前:login:Penguin mailto:sage [2009/12/15(火) 14:52:55 ID:kA6phnL8] ボリュームの初期化と データが入ってるボリュームのresyncでは 話が全く違うように思える
44 名前:login:Penguin mailto:sage [2009/12/15(火) 16:18:22 ID:CbO7zir3] >>43 もち、買ってきたばっかのブランクHDDです
45 名前:login:Penguin mailto:sage [2009/12/15(火) 17:52:50 ID:DeZ5m+oO] 単にrcスクリプトの問題じゃねえの
46 名前:login:Penguin mailto:sage [2009/12/16(水) 02:11:43 ID:5fywQ9w/] ひょっとしたらmdadmで作成した時だけは同時に走るのかもしれない… で再起動してからは同期が終ってないから普通に順番に走ると。 客先とかで組むと最後まで完了しないと帰れないのでって事情ですw
47 名前:login:Penguin mailto:sage [2009/12/16(水) 11:50:39 ID:cGLo5n8p] そういう事情なら 前の日のうちにresync済ませておいたHDDを持ち込めば 再認識させるだけで即座に帰れるぞw
48 名前:login:Penguin mailto:sage [2009/12/23(水) 17:30:17 ID:zGW6BKPU] LVMもRAIDに加えられるようなのでちょっと悩み中 今、自宅ファイルサーバの構成が 500GB 2個 1TB 2個 1.5TB 1個 という構成 OSは80GBのHDDに入れている 容量が足りなくなったついでにRAID5を組もうと思い、 1.5TB 2個を追加しようと思っている ここで、A案かB案か迷っている A案 500GB+1TBで1.5TBのLVMを組んで 1.5TB 5個でRAID5を組む B案 1.5TBをfdiskで500GBと1TBのパーティションで切って 500GB 5個と1TB 5個でそれぞれRAID5を組む 今後のディスク追加は1.5TB以上だと思うのでA案を考えているけど、 A案だと再構成に何日もかかるのかな?
49 名前:login:Penguin mailto:sage [2009/12/23(水) 18:40:50 ID:DJuG93Mm] どちらかといえばB案かな。大容量での再構成はできれば避けたい。 ただ、両方のボリュームへの同時アクセスでヘッドの取り合いになりそうではある。 このあたりはアクセスパターン次第かと。 もしAなら、LVMにしなくてもlinear arrayでつなげばいい気がしないでもない。 mdXもRAIDに参加できる で、冗長性を保った状態で容量拡張をしたいならRAID1+LVMが一番楽。 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら 一番小さいアレイからデータ掃き出して外す。 うちはこれで、1発250GBの時代から新陳代謝させて 今 1TB RAID1 x 3 + 500GB RAID1 x2 になってる。 このあたりは容量効率をとるかメンテナンス性を取るかの判断かな
50 名前:login:Penguin mailto:sage [2009/12/23(水) 23:29:29 ID:o+oOXBGn] 3台のRAID5(md0)を4台構成に変更しようと思い、下のコマンドを実行していくと失敗する。 # mdadm /dev/md0 -a /dev/sdd1 mdadm: hot added /dev/sdd1 # mdadm -G /dev/md0 -n 4 mdadm: Cannot set device size/shape for /dev/md0: Invalid argument ちなみに、md0はLVMに組み込まれています。 今までこのようなことをが起きた事はなかったのですが、どなたかご存知の方、教えていただけませんか?
51 名前:login:Penguin mailto:sage [2009/12/24(木) 00:01:18 ID:SIaUuIyu] >>49 > 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら > 一番小さいアレイからデータ掃き出して外す。 参考までに教えて欲しいのだが、この掃き出しというのはpvmoveで 大きいアレイにデータを寄せて、resize2fsでfsを縮小、 vgreduceでLVをVGから外す、という流れでおk?
52 名前:login:Penguin mailto:sage [2009/12/24(木) 02:50:17 ID:NQCo/TNI] >>51 減らすときはfs-LV-VG-PVっていうレイヤの上から、増やすときはその逆。 なので手順はresizefs→lvreduce→vgreduce→pvremoveだし、 増やすときはpvcreate→vgextend→lvextend→resizefs
53 名前:login:Penguin mailto:sage [2009/12/24(木) 02:52:07 ID:NQCo/TNI] 途中で送信してしまった。 (通常の構成なら)RAID(md)層はPVのさらに下に来る。 あとはLVMスレで頼む
54 名前:login:Penguin mailto:sage [2009/12/24(木) 12:29:30 ID:VyYXnLPe] >>52 lvreduceすると自動的にpvmoveされるっけ?
55 名前:login:Penguin mailto:sage [2009/12/24(木) 13:03:22 ID:VyYXnLPe] Linuxのmdで、ローカルにATAやSCSIのディスクがつながっていて なんらかの冗長化をしたい、というシチュエーションに限定した話で いいんですけども、 ・ディスク全体でmdを構成して、md上にパーティションをつくる ・パーティション分けてから、パーティションごとにmdをつくる 利点欠点について説明する場面があるんだけど、何を言えばいいだろう。 その気になれば後でどうにでもなるからどっちでもいいや、 とつい思ってしまうんだけど…… 話す相手は「コンピュータには慣れているけど(学問的な意味で) サーバメンテ的なことには詳しくない人」です。
56 名前:login:Penguin mailto:sage [2009/12/24(木) 13:10:57 ID:wt0k8Pk+] つまり、お前もよく理解していないってこった。
57 名前:login:Penguin mailto:sage [2009/12/24(木) 21:07:27 ID:NQCo/TNI] LVMスレへの誘導をもろともしないバカなんだし、許してやれよ…
58 名前:login:Penguin [2009/12/25(金) 09:54:17 ID:Bu/8ScH4] >>50 > ちなみに、md0はLVMに組み込まれています。 答えが書いてあるんじゃないかって気がする。
59 名前:login:Penguin [2009/12/25(金) 09:56:03 ID:Bu/8ScH4] >>57 誤:もろともしない 正:ものともしない
60 名前:login:Penguin mailto:sage [2009/12/27(日) 22:44:10 ID:xPaTeqXA] >>52 が>>51 への返答になってないことにも気づかず偉そうだな…… > /dev/null
61 名前:login:Penguin mailto:sage [2010/01/04(月) 22:46:36 ID:kJMQbgtx] ねぇ、LVMで足らない分をポチポチ足していったら JBODみたいに1つでも壊れたらまずいHDDアレイにならない?
62 名前:login:Penguin mailto:sage [2010/01/18(月) 01:11:33 ID:FrA+yAqo] >>48 ですが、A案で構成中に問題が >>49 さんを参考に500GB+1TBをlinear arrayでつないでみたのですが、 OS再起動するとRAID構成から外れてしまう # mdadm --create /dev/md1 --level linear --raid-devices 2 /dev/sdf1 /dev/sdg1 # mdadm /dev/md0 --add /dev/md1 # mdadm --grow /dev/md0 -n 5 これで一旦はmd0に組み込まれるんだが、OS再起動すると/dev/md1が外れる 恐らくOS起動時、/dev/md0を構成するときに/dev/md1が構成されていないからだと思うんだが /dev/md0を/dev/md9としてもダメだった 今度lvmからmd0への組みこみを試してみようと考えているが、 linear arrayでできる方法はないのだろうか?
63 名前:login:Penguin mailto:sage [2010/01/19(火) 20:18:03 ID:+d0hdVIw] initrd作り直したか?
64 名前:login:Penguin [2010/01/20(水) 18:35:12 ID:XwDp0ABh] ubuntu9.10からのpalimpsestディスクユーティリティつかったソフトウェアRAIDやってる人はいるかい?
65 名前:login:Penguin mailto:sage [2010/01/20(水) 19:29:48 ID:ndWbRgCE] まぁFedora11から入ってるから、いるんじゃね?
66 名前:login:Penguin mailto:sage [2010/01/21(木) 00:16:24 ID:VDTPOdY5] いやー自動マウントの設定がうまくいかなくてさー
67 名前:login:Penguin mailto:sage [2010/01/23(土) 03:37:11 ID:3Mk8FRSB] そこそこIOPSの高い数TBのストレージを作りたいんですが、 基本的にはディスク本数を増やすアプローチで良いのでしょうか?
68 名前:login:Penguin mailto:sage [2010/01/23(土) 10:49:58 ID:NzyUkd6I] 数TB程度ならSSD並べるだけでいいだろ
69 名前:login:Penguin [2010/02/05(金) 18:22:40 ID:0skLHFUh] swapを冗長化するという話はほとんど聞きませんが、 swap域でディスクエラーが起きたらどうなるのでしょうか? プロセスが突然死するのでしょうか? 暴走することもあるのでしょうか? 一般には、swapを冗長化するデメリットが プロセスが突然死したりするかもしれない心配より 大きいと考えられているのでしょうか?
70 名前:69 mailto:sage [2010/02/05(金) 18:25:40 ID:0skLHFUh] 別の質問です。 sdaとsdbでraid1を組んだとき、 sdaがあるビットは1だと言い、sdbはそのビットは0だと言ったら 何が起こるのでしょうか?
71 名前:69 mailto:sage [2010/02/05(金) 18:34:06 ID:0skLHFUh] >>70 これは間抜けな質問だったかもしれません。raid5などと混同していました。 無視してくださって結構です。
72 名前:login:Penguin mailto:sage [2010/02/05(金) 18:39:23 ID:hTXVw8Is] >>69 前半 YES。ただそれが問題になる場合は、スワップをしないように最大まで メモリを載せる。スワップしたら負け。
73 名前:69 mailto:sage [2010/02/05(金) 18:44:53 ID:0skLHFUh] >>72 早っ。 今までスワップは、とにかくするもんだと思っていましたが、吹っ切れました。
74 名前:login:Penguin mailto:sage [2010/02/05(金) 18:47:13 ID:VwALYjfj] >>69 実際にやってみた。 物理メモリにマッピングされているページを、わざとスワップアウトさせた状態で: sudo /bin/sh -c 'cat /dev/zero >/dev/<swap>' ええ、フリーズしました。 どうしたらよいでしょうか?電源ボタン長押しでいいですか?
75 名前:login:Penguin mailto:sage [2010/02/05(金) 19:19:11 ID:j8P2r62W] 物理メモリの延長と考えればメモリの破損だからなあ そりゃ止まるよね
76 名前:login:Penguin mailto:sage [2010/02/05(金) 19:25:12 ID:VwALYjfj] でもさ、ユーザ空間のプロセスなんてカーネルに管理されているんだから 強制的に終了させられることは珍しくないじゃん? だからさーそういう例外を予測して、完全には無理だろうけど、 フェイルセーフな方向に失敗させるのがプログラマの仕事じゃないかな?
77 名前:login:Penguin mailto:sage [2010/02/05(金) 21:54:13 ID:/2F2WLUF] OSとアプリの責任分界をまるっきり無視だなw
78 名前:login:Penguin [2010/02/06(土) 02:29:34 ID:NYl8i1Ri] 初心者なのでこのスレには不似合かもしれないんですけど 緊急事態なので教えてください REID0を組んでるのですがマザーが逝ってしまったらしく BIOSまで行き着かず電源が落ちてしまいます なんとかHDのデータだけでも救出したいのですが ほかのマザーでもREIDのHDは認識しますか? 可能でしたらその手順も教えていただけたら... お願いいたします
79 名前:login:Penguin mailto:sage [2010/02/06(土) 07:27:04 ID:OzdAS2DW] ソフトRAIDなのかハードRAIDなのか。 ハードなら同じハードを揃える。 ソフトなら移し変えるだけ可じゃね? もうちょっと環境詳しく。
80 名前:login:Penguin [2010/02/06(土) 09:53:58 ID:NYl8i1Ri] >79 ありがとうございます DELL DIMENTION 9100のBTOのメーカー設定のソフトウェアREIDです 自分としては他のマザーで大丈夫なら 今時のマザーとCPUを購入して他のパーツを流用できれば理想なのですが 同じマザーでなければ無理なようでしたら ヤフオクで純正のマザーを落とそうかと思ってます
81 名前:login:Penguin [2010/02/06(土) 14:55:17 ID:kWyCQKjd] WindowsXPモデルしか無いみたいだけどここはLinux板だよ。
82 名前:login:Penguin mailto:sage [2010/02/06(土) 15:04:03 ID:y6S0x+iZ] REID て。
83 名前:login:Penguin mailto:sage [2010/02/07(日) 04:45:16 ID:HVHbakeU] ローマ字入力してる人に多いタイプミスだから気にしない… (わたしは親指シフトだから…笑)
84 名前:login:Penguin mailto:sage [2010/02/07(日) 05:10:36 ID:Is4alLXh] タイプミスだろうが何だろうが繰り返してる上に直す気がない時点でダメ認定済みなわけだが
85 名前:login:Penguin mailto:sage [2010/02/07(日) 06:19:54 ID:e3D699rK] RAID0でデータを救出って時点で頭おかしいね RAID0はなくなってもいいデータを入れるものだろうに
86 名前:login:Penguin mailto:sage [2010/02/07(日) 07:13:30 ID:kPG49Q02] >RAID0でデータを救出って時点で頭おかしいね ディスクが逝かれたってことじゃないみたいだし、 そこは別にいいだろ。
87 名前:login:Penguin mailto:sage [2010/02/13(土) 05:44:18 ID:nV0eWbuV] 質問です 元々 本体:eSATAカード増設 外部ストレージ:PMP対応のeSATA接続の箱にHDD2本(sdc, sdd)でRAID0 OS:fedora 11 の構成のサーバにfedora12をクリーンインストールしました。 インストール後、sdc、sddとも見えてて、sdc1、sdd1の各パーティションも0xfdで見えてますが、 RAID0の状態では見えていない状況です この状態でRAIDの組みなおしは可能でしょうか?
88 名前:login:Penguin mailto:sage [2010/02/13(土) 07:31:30 ID:0ecMg6dD] 意味不明
89 名前:login:Penguin mailto:sage [2010/02/13(土) 09:03:14 ID:TRB1DKG4] たぶん, sdaにFedora11入れてて,sdc,sdcをSoftRAIDしてたのが, sdaをFedora12にしてSoftRAID設定が消えちゃったって 言ってるみたいだね〜 Fedoraに強い人!助けて〜(笑
90 名前:login:Penguin [2010/02/13(土) 13:22:54 ID:ZQ7DCUTq] >>87 まず確認してほしいけど、起動後に、 mdadm -A /dev/md0 /dev/sdc1 /dev/sdd1 とすると、RAID0のアレイは動くんだよね? それで動かないようなら、dmraidが悪さをしている可能性がある dmraid -r としてみて、/dev/sdcや/dev/sddが出てくるようならそれに該当する
91 名前:login:Penguin mailto:sage [2010/02/13(土) 13:38:35 ID:0WzASaEG] ソフトウェアRAIDで、dmraid って、ググっても古い記事しか見つからないんだけど、今でも再構築周りの不安定さってあるんでしょうか。確実に再構築できることを求めるなら、やっぱり md で組むべき?
92 名前:login:Penguin [2010/02/13(土) 13:56:06 ID:ZQ7DCUTq] >>91 逆にdmraidを使いたい理由を教えてほしいんだけど Windowsとかとアレイを共用してるとか? それとも最近のマザーにはparity計算するハードとか載ってるのかな? 枯れてるという意味でも、柔軟性でもmdの方がいいと思うけどな たとえば、マザーが壊れたとかした場合、dmraidだと移行が面倒 mdだとそんな制限ないし、スーパーブロックの構造もわかってるので、壊れても なんとか修復できたりする
93 名前:login:Penguin mailto:sage [2010/02/13(土) 15:11:10 ID:nV0eWbuV] >>90 返信ありがとうございます。 fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが /devを見たところsdc1、sdd1ともない状況でした 現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1 とやってみたところinvalid major number '8' とでてきて詰まってる状況です ちなみにmdadm -A /dev/md5 /dev/sdc /dev/sddを実行した結果を貼り付けて見ます [root@sv1 ~]# cat /proc/mdstat Personalities : [raid1] md5 : inactive sdc[1](S) sdd[0](S) 4514 blocks super external:imsm
94 名前:login:Penguin [2010/02/13(土) 15:49:26 ID:ZQ7DCUTq] >>93 >fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが >/devを見たところsdc1、sdd1ともない状況でした あり得ない。じゃあ、fdiskは何のファイルをオープンしてるんだよって話だ 実際そうなんだというなら、 strace fdisk /dev/sdc の結果を張ってみてくれ >現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1 >とやってみたところinvalid major number '8' とでてきて詰まってる状況です その「XX」が合ってるかどうか気になるな デバイスファイル作るなら /dev で ./MAKEDEV sdc としてみたら?(余計なファイルもいっぱいできるけど) まぁ、いずれにしても通常はudevが作るわけだし、mknodできないとすれば別の理由か mount の結果と dmesg の結果でも張ってみてくれよ(dmesgは長いからsdc、sddの認識部分だけでいいや)
95 名前:login:Penguin [2010/02/13(土) 15:54:37 ID:ZQ7DCUTq] >>94 自己レス ちょっと勘違いしてた 状況を整理すると、/dev/sdcと/dev/sddは存在しているわけだな。んで、/dev/sdc1と/dev/sdd1がないと パーティションテーブルが壊れているのか、非互換なのか…という感じですか とりあえず fdisk -l /dev/sdc fdisk -l /dev/sdd の結果と、dmesgのsdcとsddの認識部分のログが見たいですな
96 名前:login:Penguin mailto:sage [2010/02/13(土) 16:00:09 ID:nV0eWbuV] >>95 度々すみません # fdisk -l /dev/sd[c,d] ディスク /dev/sdc: 500.1 GB, 500106780160 バイト ヘッド 255, セクタ 63, シリンダ 60801 Units = シリンダ数 of 16065 * 512 = 8225280 バイト Disk identifier: 0x00072abe デバイス ブート 始点 終点 ブロック Id システム /dev/sdc1 1 60801 488384001 fd Linux raid 自動検出 ディスク /dev/sdd: 500.1 GB, 500107862016 バイト ヘッド 255, セクタ 63, シリンダ 60801 Units = シリンダ数 of 16065 * 512 = 8225280 バイト Disk identifier: 0x00095176 デバイス ブート 始点 終点 ブロック Id システム /dev/sdd1 1 60801 488384001 fd Linux raid 自動検出 (続く)
97 名前:login:Penguin mailto:sage [2010/02/13(土) 16:05:59 ID:nV0eWbuV] (続き) # dmesg | grep sd[c,d] sd 6:0:0:0: [sdc] 976771055 512-byte logical blocks: (500 GB/465 GiB) sd 6:0:0:0: [sdc] Write Protect is off sd 6:0:0:0: [sdc] Mode Sense: 00 3a 00 00 sd 6:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sdc: sd 6:1:0:0: [sdd] 976773168 512-byte logical blocks: (500 GB/465 GiB) sd 6:1:0:0: [sdd] Write Protect is off sd 6:1:0:0: [sdd] Mode Sense: 00 3a 00 00 sd 6:1:0:0: [sdd] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sdd: sdc1 sd 6:0:0:0: [sdc] Attached SCSI disk sdd1 sd 6:1:0:0: [sdd] Attached SCSI disk >その「XX」が合ってるかどうか気になるな # ll /dev/sdc brw-rw---- 1 root disk 8, 32 2010-02-13 15:31 /dev/sdc となっていましたのでマイナー番号は33を指定してました
98 名前:login:Penguin [2010/02/13(土) 16:23:17 ID:ZQ7DCUTq] >>96 >>97 fdiskの結果もおかしくないし、デバイス認識にも問題ない mknodのマイナー番号指定もおかしくない(33であってる) だけど、/dev/sdc1の作成には失敗するし、そもそもudevでの自動認識もできないわけですか どうにも謎ですな PMPに接続しているHDDをマザー上のSATAポートに接続しなおしてテストしてみるというのはどうでしょう ある程度問題の切り分けが可能かも。または、別のHDDを接続して、区画設定からやり直すとか SELinuxが何かしてる? restorecon -R /dev してみるとか(これで解決するとも思えんが…)
99 名前:login:Penguin mailto:sage [2010/02/14(日) 20:11:05 ID:32z55fMa] >>92 いえ。dmraid の方が高速だって記事を見かけたことがあるもので(ソースは失念しました)、安定してるなら入れてみようと思っただけなんです。
100 名前:login:Penguin mailto:sage [2010/02/15(月) 08:42:59 ID:dKzXeQoa] >>99 どっちも似たような処理をするわけだし、dmraidの実装が極端に優れているとかでなければ、速度差はそれほど期待 できない気がするなぁ。ちょっとググってみたけど、明確な性能差があるという最近のベンチ結果は見当たらなかった (あまりしつこくは検索してない) もしも速度差があるとすれば、dmraidがやるべきことをやっていないとかじゃないの? dmraidのソース見たけど、未実装な機能であるとか、「more sanity check」とかのコメントが結構あったよ mdでは、最近、バリアの実装が全RAIDレベルで完了したみたいだし、安全性考えるならばmdでしょ そもそもdmraidではRAID 4/5使うにはまだカーネルにパッチを当てないといかんし、RAID 6に至っては未サポート その上、ハード依存性もあるとなっては、俺なら多少の速度差程度では使う気にならんなぁ もちろん使ってみてベンチマークとか取って報告してくれると嬉しいが
101 名前:login:Penguin mailto:sage [2010/02/15(月) 18:31:35 ID:3eiOHoeN] 質問があります.長文ですがよろしくお願いします. 現在Vine linux 4.2 でファイルサーバを構築しています. mdadmにて1.5T3台でRaid5の状態から,もう一台追加で 1.5T4台にしようとしたのですが, # mdadm --manage /dev/md1 --add /dev/sdb1 mdadm: added /dev/sdb1 の後に--growを行ったところ # mdadm --grow /dev/md1 --raid-disks=4 mdadm: Need to backup 384K of critical section.. となりエラーになります. 簡単に調べたところ,海外のサイトで カーネルが2.6.19以降でないとraid5のgrowができないとあったので Vine4.2のカーネルが2.6.16なのが原因だと考えていますが それであっているでしょうか? また,カーネルが問題なら,Vine5は文字化けの問題その他で アップグレードを躊躇しているので これを機に他のディストリに移行しようかと思っています. このときにRaidのデータを残したまま移行する方法はありますか? もしあれば教えていただきたいです.
102 名前:login:Penguin [2010/02/15(月) 19:46:15 ID:dKzXeQoa] >>101 raid5のgrow対応は2.6.17からじゃなかったかな。いずれにしても2.6.16なら駄目かな んで、これはエラーじゃなくて、正常時にも同様のメッセージが出るよ >mdadm: Need to backup 384K of critical section.. >これを機に他のディストリに移行しようかと思っています. >このときにRaidのデータを残したまま移行する方法はありますか? 基本的にどのディストリであっても、そのまま移行できます でも何があるか分からないから、バックアップは取っておきましょう
103 名前:login:Penguin mailto:sage [2010/02/15(月) 20:10:52 ID:VLzsUrgl] >>101 Vine4.2で 1.5TB x 6 のRAID6 500GB x 6 のRAID6 やってますよ。 過去にはRAID5 500GB x 4 をGrowで 500GB x 6にしたり普通にやってました。 Linux ***** 2.6.16-76.40vl4 #1 SMP Sun Nov 9 04:43:51 JST 2008 i686 athlon i386 GNU/Linux 普通にできるからガンガレw貴重なVineの友w
104 名前:login:Penguin mailto:sage [2010/02/15(月) 20:16:50 ID:Qu2WEuRS] >>101 カーネルのバージョンに加えてmdadmのバージョンも問題(2.6以上じゃないとダメ)。 Debian etchはカーネルが2.6.18なんだけどmdadmが2.5.xだったのでRAID5のgrowができなかった記憶が。
105 名前:101 mailto:sage [2010/02/15(月) 20:35:37 ID:3eiOHoeN] 皆さん早速の返事ありがとうございます. >>102 すいません,一行コピーできていませんでした. エラーは3行目だと思います. # mdadm --grow /dev/md1 --raid-disks=4 mdadm: Need to backup 384K of critical section.. mdadm: Cannot set device size/shape for /dev/md1: Invalid argument です.早速カーネルをあげてみます. >>103 あなたもVineですか. Vineは最近話題に上ることが少なくなった気がしたので 仲間がいると分かってうれしいです. 私もできるならVineのままでいきたいのでもう少しがんばってみます >>104 mdadmのバージョンは考えてもみませんでした. 確認したところ mdadm - v2.5.5 - 23 October 2006 でしたので,こちらもバージョンアップします. 早くやりたいけど,まだ家に帰れない...
106 名前:103 mailto:sage [2010/02/15(月) 21:04:45 ID:VLzsUrgl] >>105 過去の自分の作業ログを見たところ 500GBx4→500GBx6のときはraidtools、 1.5TBx4→1.5TBx6のときは piro791.blog.so-net.ne.jp/2008-11-07 ここを参考にやってました。 がんばってください。 自分のmdadm も2.5.5でバージョン全く同じです。
107 名前:login:Penguin mailto:sage [2010/02/16(火) 12:07:46 ID:U/2RUOkN] でもVine 4.2なら直にメンテナンスされなくなるし、 いずれは5.xに行くか他のディストリに移る必要があるよ。 5.xへの移行はデフォルトの文字コードその他、 他のディストリに移行するのと大差ない面倒があるので俺は結局CentOSに移った。 RedHat系なら yum の使い方覚える必要がある程度で Vineでのノウハウがそのまま使えるし大した問題はない。 確か俺もVineでは growがうまく行かなかった記憶がある。 その時は調べた結果「ああ、kernel が古いのか」で納得したと思う。 >>103 が「普通にできる」てのがちょいと信じ難いが… >>103 の kernel はいくつなのかな? ま、Vineにはつきもののこの手のトラブルが皆無になるし 将来のことを考えると結局は他所へ移った方が楽だと思う。 メジャーなディストリだとトラブル時にネット上での情報量が多いしね。
108 名前:login:Penguin mailto:sage [2010/02/18(木) 00:39:32 ID:WHcn7By1] >>100 あーソースまではチェックしてなかったです。 ううむ。未だにその状況だと実運用に使えるようになるのは当分先ですね。 今自宅にPCないので手軽にベンチがとれる環境を作れないんです。個人で借りてるサーバーに突っ込んでみようかと思っていたのですが、今回は見送ることにします。 ありがとうございました。
109 名前:login:Penguin [2010/02/22(月) 11:49:13 ID:/vv6ceYV] RAID1を構成するディスクを読んだら、それぞれ違う値を返した、 ということはあり得るのでしょうか? このとき物理的なエラーは検知できなかったとします。
110 名前:109 mailto:sage [2010/02/22(月) 11:54:40 ID:/vv6ceYV] >>70 の質問をした者です。 結局同じ質問になっていたことに気付きました。 質問を変えます。 RAID1に'a'と書きこんだのに、続けて同じ場所を読んだら'b'となっていた。 このとき物理エラーは検出されなかった。ということはあり得るのでしょうか?
111 名前:login:Penguin mailto:sage [2010/02/22(月) 14:57:06 ID:mO3WnbsM] ハードもソフトも人間が作ったもんだから、 「ありえるか」って言えば、ありえるんじゃね? ところで、mdadm --detail /dev/md0 の結果でさ、 Events って何なんだろうね。 manpage 見ても、よくわかんなかったよ。 Events : 0.40 Events : 0.70880 Events : 0.26 Events : 0.60 4 台とも RAID1 のサーバだけど、いろいろ違うもんだね。
112 名前:login:Penguin mailto:sage [2010/02/22(月) 18:04:22 ID:6N04FDxr] 低熱高熱状態でのHDDに書き込んだデータの化けはありうるわけだし だからRead After Writeを実装してるHDDもあるし こんとき物理エラーは検出されん つか出来ん
113 名前:109 mailto:sage [2010/02/22(月) 18:30:32 ID:/vv6ceYV] >>111 質問が下手すぎました。 >>112 どんな強力なRAIDでも、物理エラーとして検出されないエラーを修復することは できないのですね。そういうことを気に病むより、SMARTなどの対策を打ったほうが いいと思うようになりました。
114 名前:login:Penguin mailto:sage [2010/02/27(土) 02:12:27 ID:qDAtQXVH] 今HDDのヘッドが読み出すときのビット誤り率(BER)は10-9程度 最近はエラー訂正に頼る傾向があるから、リニアでは10-6程度と逆にエラー発生率は高くなってる でも逆に符号訂正の技術が高くなっているから、実際に伝送路に乗る品質は10-15乗以上にもなる この次元の値のエラー率になると、もはやメモリーやバスやCPU、強いてはRAIDカードのコントローラーに乗るノイズで発生するエラーの確率のほうが高い。 それでもハードディスクの誤りが怖いというのであれば、次世代の量子コンピューターの登場まで待つんですな。
115 名前:109 mailto:sage [2010/02/27(土) 16:01:38 ID:+q4ml44K] >>114 ありがとうございます。勉強になりました。
116 名前:login:Penguin mailto:sage [2010/03/20(土) 18:21:41 ID:SpYbO4RY] WD20EARSでmd RAIDやってる人はいませんか? RAIDパーティションを64セクタ目から作成して、mdのストライピングサイズを64KBで 作成したとします。 mdに加えたHDDのRAIDパーティションの先頭にはmdの情報が保存されていると思います。 mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。 実際に使える先頭セクタの場所が8の倍数でない場合は、WD20EARSをWinXPで使う場合と 同じようにパフォーマンスダウンするのではないかと思っています。 これってどう思いますか? 各HDDにおけるmdの情報が4096bytesの倍数であれば多分問題ないんだろうと思うんですけど。
117 名前:login:Penguin mailto:sage [2010/03/20(土) 18:24:30 ID:SpYbO4RY] 5行目を訂正します。 誤:mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。 正:mkfsにとって実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。 言いたいことって、伝わりますか? うまく言語化できない。
118 名前:login:Penguin mailto:sage [2010/03/20(土) 18:26:25 ID:aN8kdh7Y] ttp://lkml.indiana.edu/hypermail/linux/kernel/1003.1/03467.html ttp://lwn.net/Articles/377895/
119 名前:login:Penguin mailto:sage [2010/03/20(土) 18:57:33 ID:SpYbO4RY] >>118 このリンクはLinuxにおける4096bytesセクタに対する考察なだけっぽい気がします。 うまく言いたい事を表現できない自分が悪いんですけどね。 たとえば1つのmdパーティションにmdの管理情報が4096bytes必要だとします。 それならば次のセクタから64KBでストライピングしても、別にセクタをまたがった アクセスにならないので問題ないと思います。 もし管理情報が2048bytesだとしたら、セクタをちょうど二つに分けた形で ストライピングされてしまうので、強烈なパフォーマンスダウンになると思います。 ここまで書いて、どう書けばいいのかわかりました。 RAIDパーティション当たりのmd管理情報って何KBなんでしょうか?
120 名前:login:Penguin mailto:sage [2010/03/20(土) 19:23:29 ID:TrISQUCw] 一番の誤解はmdのスーパーブロックは末端に在るってことかな
121 名前:login:Penguin mailto:sage [2010/03/20(土) 19:31:49 ID:TrISQUCw] バージョン0.9/1.0の場合だこれ 1.1/1.2だと先頭だわ 詳細はmd(4) mdadmは0.9がデフォルトだけども
122 名前:login:Penguin mailto:sage [2010/03/20(土) 20:28:44 ID:SpYbO4RY] >>120 で、すげえ!やったネ!って思ったけど >>121 なんという改悪でしょう。 man見てみましたけど、私には分かりませんでした。 考えてみたら、mdの管理情報が問題ないとパスできたとしても ext3の管理情報サイズまで考えないといけないですよね。 WD20EARS買うのをやめようかな〜。 安いから特攻しようかと思ったんですけど。
123 名前:login:Penguin mailto:sage [2010/03/21(日) 20:28:32 ID:SqWw8gw9] 知っている人に質問。 3wareの7000とか9550のSATA RAIDボードに既存のデータが保存されたHDDをつなげるとき、UNITの構築しなくても /dev/sdc1 とかでマウントして利用できる? Single DiskとしてUNIT構築を行おうとすると、既存のデータが破壊されますけどどうします?と聞いてくるんで。
124 名前:login:Penguin mailto:sage [2010/03/21(日) 20:43:39 ID:plED2x3n] >>123 3ware使ってないけど、大抵のRAIDカードは管理用の情報をHDDに書き込むから 単体HDDとして使う場合も中身は壊れるよ。 3ware使ってる人に聞きたいのならこっちのスレのほうがいいかも RAIDカードあれこれ 39枚目 ttp://pc11.2ch.net/test/read.cgi/jisaku/1263703844/
125 名前:login:Penguin mailto:sage [2010/03/21(日) 20:57:25 ID:SqWw8gw9] >>124 ありがとう。了解した。 該当スレ誘導も感謝。
126 名前:login:Penguin mailto:sage [2010/03/22(月) 12:23:35 ID:E14pDNne] linuxのソフトウェアRAIDの話です。 mdadm.confを使わずにRAIDデバイスを起動した場合は、OSの停止前に明示的にmdadm -Sを 実行する必要がありますか?
127 名前:login:Penguin mailto:sage [2010/03/22(月) 18:10:59 ID:N0EEVYIK] >>126 終了動作でファイルシステムのメタデータ吐く、 そのあとmdのスーパーブロック書き出して同期を停めるでしょ。
128 名前:login:Penguin mailto:age [2010/04/02(金) 08:14:21 ID:laU9d0eY] raid 1+0 と 6が使える環境で、おまいらはどっちを選択する?
129 名前:login:Penguin mailto:sage [2010/04/02(金) 09:19:25 ID:+pJGaIlA] おまえならどっちもいっしょ
130 名前:login:Penguin mailto:sage [2010/04/03(土) 23:13:51 ID:YO6iN+5f] 自作板で聞こうかとも思ったのですが、こちらの方が経験者が多そうなので質問させてください。 会社でCentos 5.4、Raid1でファイルサーバー立てようと思うのですがお勧めのRAIDカード教えてもらえないでしょうか ただし予算はHDも合わせて2万円以内です。 先日ソフマップで、1.5TBのHDが8千円くらい、1TBが7千円くらいで売ってたので HD2基で14000円〜16000円くらい そうするとRAIDカードの予算は4000円から6000円くらいしかありません 玄人志向のSAPARAID-PCIやSATARAIDが2000円前後なので、それにしようかとも思ったのですがCentosで使えるのかなあと 実はこれまで職場ではIOのNAS使ってたのですが、頻繁に壊れるので何度かLinuxでデータをサルベージしてました RAID対応のNASに買い替えようとも思ったのですが、企業向けはコストかかるのでどうせならファイルサーバーに1本化しようかなと これまでCentosをのせていたPCは、玄人志向のATA133RAID-PCIのカードを取り付けRAID1で使用していましたが 160GBしかHD乗せて無かったので業務で使うには容量が足りず、データの受け渡し用にだけ使っていました。 構成はサーバー用にDELLの5〜6年くらい前のPC (CPU PENTIUM4 2.4GHZ、メモリ768MB PCIバス) クライアントPCのOSはWindows XP、7、2000、Mac OSX 、Mac OS9など20台ほど(使用する人間は10人程ですが) 本当なら業務で使用するのだから、もっと高価なシステムを組むべきなのは重々分かっているのですが 何せ零細企業な上、私の裁量で稟議が降りるのが以前は10万だったのが、2万に減ってしまって(涙 それとも、この程度のクライアント数ならソフトRAIDにすべきでしょうか ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです) 私の知識不足と長文申し訳ないですが誰か答えてくださるか誘導してくださると助かります。 よろしくお願いいたします。
131 名前:login:Penguin mailto:sage [2010/04/04(日) 00:14:11 ID:N/Mg7OeJ] 金が無いなら知恵を死ぬ気で付けるしかない。 (最低このスレ全部読むくらいはやるんだろ?) ってことはさておき、md使ったソフトウェアraidで良い。 カードもRAIDなんちゃらなんて付いてなくてATAカードで十分。 玄人志向だと以下から適当にどうぞ。 www.kuroutoshikou.com/products/select/interfacefset.html
132 名前:login:Penguin mailto:sage [2010/04/04(日) 07:40:07 ID:5YeefPIg] 「ちゃんとした」ハードウェアRAIDカードを買う予算(8〜10万程度) がないならソフトウェアRAIDを選択すべきだろうね > ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです) 実際に試してみりゃいいじゃん。 「これまでCentOSを載せていたPC」とやらがあるんだろ?
133 名前:130 mailto:sage [2010/04/04(日) 08:28:25 ID:sEcjxQNn] >>131-132 ありがとうございます。 いろいろめんどくさい条件書いてすみませんでした。 ソフトウェアRAIDでいってみます。
134 名前:login:Penguin mailto:sage [2010/04/07(水) 14:09:14 ID:0r9wUKJP] ソフトウェアraidのほうが部品点数が少ない分、故障も少なく可用性が高くていいな。
135 名前:login:Penguin mailto:sage [2010/04/07(水) 18:03:44 ID:jIRW8AWX] 前スレに出てたけど HDDが一個故障したらOSごと落ちちゃうような (RAIDの意味がない)トラブルが起こる可能性は HW RAIDより高いけどなw
136 名前:login:Penguin mailto:sage [2010/04/07(水) 19:05:51 ID:N4cK5rbU] 前スレのどこにそんな事例があったのかソースくらい欲しいものだな
137 名前:login:Penguin mailto:sage [2010/04/07(水) 19:11:34 ID:jIRW8AWX] >>431-441
138 名前:login:Penguin mailto:sage [2010/04/07(水) 19:26:00 ID:rX+zbI9D] そーだな。5000円のカードよりは10万円のカードの方がマシだな。
139 名前:login:Penguin mailto:sage [2010/04/08(木) 03:30:23 ID:Hw13iH1s] >>135 前スレのはIDEのドライバの出来に影響されるって話だね。 SATAでも、ポートを増やすのにクロシコのカードを何枚も使ってたら可用性が高いとは言え無いだろうねw でも最近のHW RAIDカードはSAS用に傾いてるから、SATAのHDDとの互換性の問題が多いんだよね。 エンタープライズモデルのHDD以外のサポートを拒否してるarecaとかね。 俺はarecaも使っててHDD選びですごい苦労してるんで、 その点ソフトウエアRAIDだとHDDは何でも良いんで楽でいいよw
140 名前:login:Penguin mailto:sage [2010/04/08(木) 12:51:30 ID:fx0Q1ZmL] > 前スレのはIDEのドライバの出来に影響されるって話だね。 コントローラ次第、という話であって、ドライバの出来に限定した話ではないかと。 (ドライバも要素の一部ではあるが) 俺はSW RAIDの一番のメリットは可用性ではなく、 HW環境に依存しない、という点だと思ってる。 (経験上、停めずに使うという点ではむしろHW RAIDの方が有利) HW RAIDの場合、万一コントローラが故障した場合、同じ機種を調達しないと アレイの中身の読み書きができなくなってしまう。 (同じメーカーでも別機種だと大抵はアレイの完全互換を保証していない) 既に調達不能になっている場合はどーしようもない。 仮に予備が買ってあったとしても、一台故障したらもう「次」はない訳で。 SW RAIDなら、OSがLinuxである限り、HDDとして認識してくれりゃHWはなんでもOK。 取り敢えず適当なPCに取り付けてやれば、アレイの読み書きは可能になる。 非常時のことを考えると、この差は大きい。 ま〜結局は、運用コストの差、という話ではあるがw
141 名前:login:Penguin mailto:sage [2010/04/08(木) 19:15:49 ID:5/ctPl71] >>122 mdadmのmanページ、-eオプションのところにバージョン毎の違いが書いてある。 ストライピングに関する記憶は朧げだけど、メタデータはmdデバイスではなく、 コンポーネントデバイスに書き込まれるため、ストライピングの対象にならない。 はずなんだけど、自信がないな。 mdadmはdefault==0.90だけど、ディストロのパーティション管理では、 異なることがある。例えば、openSUSEはRAID1の場合は1.0だった。
142 名前:login:Penguin mailto:sage [2010/04/08(木) 20:27:51 ID:+Jfsgp79] だから並盛を安くするんじゃなくて、大盛りをもう少し安くて 特盛りをもっと安くすればいいんだよ。 どうせ客層なんて男ばっかりなんだから。
143 名前:login:Penguin mailto:sage [2010/04/08(木) 20:28:43 ID:+Jfsgp79] ごめんとしか言いようがない。
144 名前:login:Penguin mailto:sage [2010/04/08(木) 20:38:47 ID:P5Oyw2sf] 男がみんな大食いだと思ったら間違いだ。
145 名前:login:Penguin mailto:sage [2010/04/12(月) 23:05:43 ID:AKilMbBg] >>142 よかったな ttp://getnews.jp/archives/55557
146 名前:login:Penguin mailto:sage [2010/04/15(木) 20:38:03 ID:3rydDv6Y] >>130 亀レスで何だが、使用者が10人程度なら 可用性よりバックアップを優先すべきだと思うが バックアップはしてるの? サルベージしているなら怪しいと思ってるんだが。。。