[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 2chのread.cgiへ]
Update time : 03/25 17:52 / Filesize : 300 KB / Number-of Response : 996
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

RAID総合スレッド No.3



1 名前:login:Penguin [2007/01/11(木) 12:55:58 ID:rL+q6m/Y]
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.co.jp/product/raid/os_support_list.html

Linux EVMS 一般
ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html
ttp://evms.sourceforge.net/

... あと続けてくらさい。

286 名前:login:Penguin mailto:sage [2007/09/22(土) 09:02:04 ID:+d+c9GIe]
>>285
つ[MegaRAID 428マニュアル]

287 名前:login:Penguin mailto:sage [2007/09/23(日) 10:00:24 ID:XVZYMXtq]
/proc/mdstatで[UU]ってなってるのにresyncしてる。
なんだこり?

288 名前:login:Penguin mailto:sage [2007/09/23(日) 20:27:26 ID:GZ/+MXCS]
>>287
前スレの895の事例は?

895 名前:login:Penguin[sage] 投稿日:2006/11/10(金) 21:39:27 ID:bNIZOw4y
debian-sargeの2.6.8-3-386を使用しています。
久々に電源を入れなおしたところ、
再同期が始まってしまいました。
4つのディスクのどれかが脱落したようにも見えないのですが、
同期外れもなしに再同期が始まるときって
どういう場合なんでしょうか?

>cat /proc/mdstat
Personalities : [raid5]
md0 : active raid5 sdb1[0] sdd1[3] sda1[2] sdc1[1]
732587520 blocks level 5, 128k chunk, algorithm 2 [4/4] [UUUU]
[>....................] resync = 4.2% (10416768/244195840) finish=3755.4min speed=1035K/sec
unused devices: <none>

903 名前:login:Penguin[sage] 投稿日:2006/11/11(土) 20:51:30 ID:e3BClQL/
>>895
確か長時間止めてたRaidを起動するとresyncというかチェックが走ったような希ガス
man mdadmあたりに書いてあったような。。。


289 名前:281 mailto:sage [2007/09/26(水) 16:54:47 ID:R04+ijwq]
>>282
mdadm.confをデフォルトからいじってみたのですが、
エラーはなくならず、mdadmのバージョンを下げてみたり、
元にもどしたりしたところ、warningは出なくなり、
initrdもできるようになりましたが、
やはり起動時に自動的にマウントすることはできませんでした。
結局/etc/rc.localに"mount /dev/vg0/lv0 /samba"と書いて、
マウントするようにしている状態です。

ちなみにmdadm.confは、こんなかんじです。
----
DEVICE /dev/sdb1 /dev/sdc1
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=cf98cc9f:54e7b704:3cf3c1ab:04141d7c
CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST <system>
MAILADDR root
----

290 名前:login:Penguin mailto:sage [2007/09/26(水) 21:32:41 ID:+JTi2+Dv]
>281 キミはそもそもマシンの話を聞けてないんだよ :-D
/usr/share/doc/mdadm/README.upgrading-2.5.3.gz
は読んだのか?



291 名前:283 mailto:sage [2007/09/28(金) 01:47:43 ID:zIk+oOYu]
>>284
ありがと、参考になります。

ちなみに、いろいろあって衝動買いはまだしていません。
そうこうしているうちにEdenのSATAx4付ITX M/Bの登場を知り
無理すれば買えそうな懐具合で悩んでいるところ…

#半年分、水道代未納の同居人の代わりに全額払ったら
#ちょびっと頼りない懐具合、本来ヲレは電気代全額係なのによぉ


292 名前:login:Penguin mailto:sage [2007/09/28(金) 22:30:14 ID:zocg/t++]
>>281
起動時のコンソールログを調べてみたら?
LVの認識とマウントのどっちが先に行われているか。

ってUbuntuのデフォルトは/boot/grub/menu.lstでsilentになってるから
出てこないんだっけか


293 名前:login:Penguin mailto:sage [2007/10/05(金) 17:39:13 ID:aHTjkmHH]
基本的な事で質問して申し訳ないんですが、
RAIDカードを差し替えた場合って、既存のRAID0の構成でまんま使えるんでしょうか。
オンボードの物からRAIDカードに変えたんですが、正常に認識しなくて困ってます…

294 名前:login:Penguin mailto:sage [2007/10/05(金) 18:11:53 ID:RN6iC0Sq]
そらそーだ
ディスクに書くRAIDメタデータなんて各メーカー独自だ



295 名前:login:Penguin mailto:sage [2007/10/05(金) 20:21:44 ID:aHTjkmHH]
>>294
それはくまった…
結局めんどくさい手段を取らないといけないということですね。
ありがとうございました。

296 名前:login:Penguin mailto:sage [2007/10/05(金) 21:19:49 ID:Bkszhi+D]
データを抜いて戻して はい おっぱいぴー! ですね。

297 名前:login:Penguin mailto:sage [2007/10/05(金) 21:40:04 ID:1cqRS2HI]
>>295
次からはMDでドゾー

298 名前:login:Penguin mailto:sage [2007/10/05(金) 22:24:28 ID:sbcHKtJI]
>296
誤:おっぱいぴー
正:おっぱっぴー(オーシャンパシフィックピース)

>297
メディアのMDだったりしてw

299 名前:login:Penguin mailto:sage [2007/10/07(日) 03:44:25 ID:mpYD9xP7]
Debian に sil3124 で ハードウェアRAID5 を組もうと思ってるんだが
情報が少なくて困ってる。(俺のググり方が下手なだけかな)

Debian、sil3124、ハードウェアRAID5 の条件で
ドライバや手順に関する情報あったら教えてくれないか?

300 名前:login:Penguin mailto:sage [2007/10/07(日) 09:04:02 ID:rbmirQ/U]
linux-ata.org/driver-status.html

301 名前:login:Penguin [2007/10/07(日) 11:05:14 ID:mpYD9xP7]
>>300

すまん。説明が悪かった。
sata_sil24 があるのは知っていた(一応、このサイトも事前に眺めている)し、入れてみたんだが
これ入れただけだと複数のドライブとして認識してしまうよね

BIOS側のRAID設定を解釈させた上で、1つのドライブとして認識させたかったんで
なにか方法があるかと思って、調べてみたけど見当たらなかったんで聞いてみた

> Q&A
> 3. I have a Silicon Image SATA RAID card. Why doesn't Linux support my hardware RAID?
> A. It's not hardware RAID. It is software RAID, provided by the BIOS on the card.

>>300 は、これが言いたかったのなら、ごめんなさいでした。…コレ見て思ったんだが
sil3124は、BIOS側のRAID設定だろうが、linux側のソフトウェアRAIDだろうが関係なかったりするの?

302 名前:login:Penguin mailto:sage [2007/10/07(日) 11:29:27 ID:OlJTro86]
関係ないというか、ソフトRAIDカード(RAIDカード上のコードがCPUを使って
必死に複数台に書き込むタイプのRAID)は

・他のカードに切り替えることができない(RAID構成のパラメータ管理方法が違うため)
・Linuxのmdより悪い実装で遅いことすらある

といいことなしなので、単なるSATAカードとして使い、単体ドライブを認識させて
後はmd使えというのが定番の答。md+lvmにすれば途中でディスクを追加・交換したり
するのも自由自在にできる(若干手間だから漏れはmdのみだけど)。

303 名前:login:Penguin mailto:sage [2007/10/07(日) 13:53:21 ID:F3d4jqxR]
>>302
激しく同意。管理の手間考えるとlvmはねー……。
あと関係なかったらすまんがPortMultiplierは全般に鬼門だから注意

304 名前:301 mailto:sage [2007/10/07(日) 18:08:00 ID:mpYD9xP7]
ageてた…すまん。orz

>>302
ありがとう。よく理解できた
ごちゃごちゃ言わずに md の恩恵を享受することにする
余裕があったら、md+lvm にしてみる

>>303
と聞いたことがあったんで、避けてるよ
心配してくれてありがとう



305 名前:login:Penguin mailto:sage [2007/10/07(日) 18:22:51 ID:oxRMUtwe]
板で全部やるのはどーよ。
えらい楽だぞ。
どれくらいで故障するのかが問題だな。
それをどうやって検知するのかも問題w

306 名前:login:Penguin mailto:sage [2007/10/07(日) 23:48:33 ID:WejonAB/]
不良セクターのあるHDDの活用方法ってないのでしょうか?
ext3じゃなくて新しいフォーマットありましたよね
あれでフォーマットしたら不良セクターのあるとこだけよけてくれたりしないのかな

307 名前:login:Penguin mailto:sage [2007/10/08(月) 00:28:34 ID:YaM75dRs]
つ badblocks
でも寿命間近なHDDではあろうから、使う度胸は漏れにはないな・・・
メモリの壊れたところを避けるbadramパッチとかもあるけど、微妙に貧乏性?>Linux


308 名前:login:Penguin mailto:sage [2007/10/08(月) 01:53:48 ID:4P0RdQEd]
badblocks設定したHDDをRAID5に組み入れてるけど、
半年くらい問題なく動いてるな。。。たまたまだろうけどw
たまにfsckして増えていないか確認してます。

309 名前:login:Penguin mailto:sage [2007/10/09(火) 06:10:00 ID:Zd8jdHw+]
raid-1 をやってみようかなぁなんてふと思った今北ですが、
www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO-4.html#ss4.4
これはディスク2つをフォーマットする形になるのでしょうか?
それとも、主ディスクと副ディスクがあるとして、副ディスクをフォーマットして、主ディスクのデータをコピーするような形になるんでしょうか?
ディスク2つをフォーマットするのならどこかデータを一時退避しないといけないのですが、2つは空きディスクもっていないのでムリカナァと。

310 名前:login:Penguin mailto:sage [2007/10/09(火) 06:28:28 ID:l7SMboZo]
>>309
たぶんraid-disk 0にあるデバイスからのコピーになると思う
あるいは、主ディスクだけのアレイを--forceつきで強制起動しておいて
hotaddとかかなぁ……これだと確実に主ディスクからのコピーになるはずだけど。
どちらもやったことないから保証はできない……

安全側に倒すために、できるなら一時退避(バックアップ)を強く奨めます。

311 名前:login:Penguin mailto:sage [2007/10/09(火) 09:42:26 ID:gFNRvPVM]
mdadmならmissing

312 名前:login:Penguin mailto:sage [2007/10/09(火) 22:37:58 ID:HKV3wXfK]
データを失うことの恐怖に比べれば
予備のディスクのひとつくらい安いものさ


313 名前:login:Penguin mailto:sage [2007/10/10(水) 13:43:05 ID:6CsTwXc1]
raidを使おうとして、データをなくした人も結構いるが。。

314 名前:login:Penguin mailto:sage [2007/10/10(水) 13:45:39 ID:keWQBLxK]
raidにした安心感でバックアップしてないバカもたこさんいる



315 名前:login:Penguin mailto:sage [2007/10/10(水) 14:00:09 ID:c6a7mM5s]
>>たこさん
こんにちわ(*>∀<)/

316 名前:login:Penguin mailto:sage [2007/10/10(水) 21:22:41 ID:pmWLI9af]
たこさんカワユス

317 名前:login:Penguin [2007/10/13(土) 23:33:28 ID:eMKVNvrK]
すんません、質問です。
debianでmdでraid5を構築してたんですが、他のPCにこのraidを移すとき、/dev/hdb1〜/dev/hde1までの順番や位置が入れ替わっても問題ないのでしょうか。
実は取り外したときに順番がわからなくなっちゃって、どうしようか困っているのです。それに新システムの構成上どうしても/dev/hdeからになっちゃうんで、それもどうなのかと。

318 名前:login:Penguin mailto:sage [2007/10/13(土) 23:44:08 ID:iOJsc/uY]
>>317
Persistent Superblockがあれば問題ない
あるかどうかはアレイ作ったときの指定によるんだけど、最近だと作るのがでふぉだっけ…?

319 名前:login:Penguin mailto:sage [2007/10/13(土) 23:58:59 ID:PvWu112N]
さっそくバックしてないたこさん登場

320 名前:login:Penguin mailto:sage [2007/10/14(日) 00:06:07 ID:HSMNg90n]
>>317
mdならHDD内に順番書いてあるよ

321 名前:login:Penguin mailto:sage [2007/10/15(月) 20:20:32 ID:w9rgZYRz]
HDL4-G1.0のHDDをddで複製して、LinuxPCで読めるか試してみた。

ddで複製って段階で元のHDL4に戻して、正常動作するか不安だったけど
普通のLinuxでCUI操作するぶんには問題無いっぽい。確認後、四基とも複製。
#Windows上のディスク複製ツールだとどうだか知らんよ

で、インストール直後の素のVineLinux4.1のmdadmでassembleできた。
さらに、HDL4では83になっているパーティションコードをfdにすると
Linux起動時にmd0が編成されている…

けど、中がXFSでフォーマットされているらしいのな orz

XFSを使えるっぽいubuntoで試したら…mdadmが入っていなかったorz
今自宅に回線来ていないからapt-getできんのよ。

で、今考え中。VineでXFSを使えるようにするの面倒臭そ…

ちまちま低速なHDL4からLANで新サーバーにコピーするより
直でPCに持ってくほうが速いと思ったんだけどなぁ…

ちなみに、HDL4はDebian GNU/Linuxベースっぽい。

RAID5ホームサーバー製品のCPUボード故障時の復旧のために
こういう機能のある1CD Linuxがあるといいなぁと思った。


322 名前:login:Penguin mailto:sage [2007/10/15(月) 22:19:35 ID:G7rWOMJX]
>>321
つ RIP

323 名前:321 [2007/10/16(火) 07:33:42 ID:5m1gOou3]
>322
ごめん、意味わかんない。

とりあえずOpenfilerで、なんとかなりそうな気がしてきた。
xfsリペアかけて読めるようになったけど、全部lost+foundに逝っちゃったから
その前に、なんかまずいことやったんだと信じたい。また後日だな。


324 名前:login:Penguin mailto:sage [2007/10/16(火) 20:16:00 ID:cgFz1bYo]
ubuntuにmdadm入れたとき保存してあったと思うからメールで送ろうか?w



325 名前:login:Penguin mailto:sage [2007/10/17(水) 02:54:28 ID:kkrXZBdi]
質問があります。
システムは単独のHDD(例:/dev/hda)にインストールし、別途オンボード SATAに
HDD複数台を使って(例:/dev/sda 〜 /dev/sdd)
md で RAID md0 を組み、データ領域として mount していたとします。

後日、システムの /dev/hda に、別のディストリビューションをクリーンインストールしました。
このとき、データ領域としてつかっていた md0 は、クリーンインストールしたあとも
しかるべく mdadm.conf を書けば mount できるのでしょうか?

>>317 とほとんど同じ状況です。

うまくいえないのですが、アレイを構成する HDD は、
アレイを操るツールやシステムには依存していないと思っていいのですか?
# 入れ替え前と後で、kernel や mdadm のバージョンが多少違っていても、
# 入れ替え後の mdadm がアレイを認識できれば問題ない?

326 名前:login:Penguin mailto:sage [2007/10/17(水) 07:55:08 ID:5hAko6Nc]
mdadm.confなんか書かなくても、勝手に/dev/md0として自動認識してくれると思うけど。
そういう質問をするってことは、# cat /proc/mdstatとかしても
/dev/md0が表示されないってことでOK?

327 名前:login:Penguin mailto:sage [2007/10/17(水) 09:07:32 ID:TrrqXopo]
いつごろ作ったmdかにもよるから>自動認識
ためしにKnoppixとかでブートしてみれば?それで認識すれば無問題。

328 名前:325 mailto:sage [2007/10/17(水) 10:46:22 ID:Ri74/EYj]
レスどうもありがとうございます。

いや、まだやっているわけではなくて、
今:fedora を入れてるマシンがある。データ領域用にHDD4を確保してきたが、まだRAIDを組んでいない
今後:Ubuntu 7.10 が正式リリースされたらクリーンインスコしたい

・さきにfedora上でアレイを組んでおいて、Ubuntu 7.10 が正式リリースされたら
 システム用HDDに OS だけ入れ替えて、アレイはそのまま流用、ということをしたい
・あるいは、7.10 はもうすぐリリースされるので、それまで待つ

と考えていました。

どうせ入れなおすので、ちょっとやってみようと思います。



329 名前:login:Penguin mailto:sage [2007/10/17(水) 11:13:32 ID:pEeOZTAK]
nashのraidautorunが単一バイナリになれば簡単なのにな

330 名前:login:Penguin mailto:sage [2007/10/17(水) 13:48:28 ID:XO21wWLP]
サイズの違うHDDでraid5ってできるのでしょうか?
80G(新品)x2 60G(古くて死にそう)x1
だと60Gx3に強制的になってしまうのでしょうか?

最初に死ぬのは60Gなのは確実なので60Gx3でない場合でも
問題ないとは思ってるのですが


331 名前:login:Penguin mailto:sage [2007/10/18(木) 00:50:16 ID:DgGfsmJx]
このスレは mdadm がメインだと思いますが、実用的かどうかはともかく、
mdadm を使わずにマザーのオンボードRAID と dmraid で、Ubuntu で RAID をやってみました。

[自作PC] Linuxマシン用自作PCスレッド 2
pc11.2ch.net/test/read.cgi/jisaku/1172122190/473-

とはいえ自分は mdadm をやったことがないので、mdadm でやり直してみることにしました。


332 名前:login:Penguin mailto:sage [2007/10/18(木) 01:56:40 ID:ZVc4Ky30]
>>330
少し頭使えよ

333 名前:login:Penguin mailto:sage [2007/10/18(木) 07:59:46 ID:/72Qgdo5]
>>330
足りない20GB分は宇宙からのパワーにより補完されるので問題ありません。

334 名前:321 [2007/10/21(日) 07:06:49 ID:GLuYmvWu]
結局HDL4のHDDのdd複製からやりなおして、よけいな操作なしで
mdadm --assembleしてxfsrepairしたのだが、やはり壊れている。
9割くらいは残っているから、ディレクトリ名とか調べて復旧してみたけど
なんか、不安になって、この方法での移行はあきらめた。

RAID5 NASのM/B故障時の復旧手段にはなるかもしれんけどね…

で、今C7/1.5GHzでのソフトウェアRAIDとSRCS14L(2003年もの)でのRAIDが
ほぼ同じ性能で困っている。LAN負荷を伴っても性能差が小さく
SRCS14Lの発熱と、RAIDカード故障時のリスク考えると、ソフトで行くべきか…

C7付きM/BにGbE挿すと、状況が変わる気がするけど
100BASE(via-rhine)では、6MB/s程度しか出ていないんよね。
RAID5自体は、RAID5上の別名コピーで2GBを90秒弱でいけるんだけどね。




335 名前:login:Penguin mailto:sage [2007/10/21(日) 12:43:32 ID:sZ2k6dRm]
個人でファイル鯖専用なら運用の柔軟性からいってソフトが良い。

336 名前:321 [2007/10/21(日) 18:25:01 ID:GLuYmvWu]
やっぱそうかな…ちなみに、現在VineLinux4.0インストール直後のドライバー構成で
なおかつ、SRCS14Lでは66bit,66MHzのカードを33bit,33MHzで動かしている。
良いM/BならRAID5自体の性能は、より良いのかもしれない。

ソフトウェアRAID5の性能は、sata_viaのポートとsata_sil(3114)複合の状態より
PCIの3114をPCIeの3132にしたほうが、わずかに高速化した気がした。
(HDDはSATA2もの)
PCIeの内部4portのSATA2カードが欲しいのだが、店頭在庫では見かけない。
商品自体が存在しないんだろうか…?


337 名前:login:Penguin mailto:sage [2007/10/21(日) 21:13:13 ID:CyPL93bH]
質問があります。
HDD4台を買って来ました。システム領域とは別に、4台でSoftwareRAID5を組もうと思っています。
このスレと過去スレを見ると、mdadm + LVM と組み合わせている人が多いようですが、
その理由(メリット)がわかりません。どう幸せになるのか、教えてください。

LVMを使わない場合は、4台ともディスク丸ごと fdisk で、パーティションタイプを fd でフォーマットして、
# mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
とやればおしまいですよね。

4台のRAID5 から 5台のRAID5 にする場合は、
・HDDを買ってきて増設。パーティション丸ごと fd でフォーマットする
・# mdadm /dev/md0 --add /dev/hde1

これでアレイは大きくなるが、ファイルシステムは自動的には増えてくれないので、
resize_reiserfs とかでファイルシステムを大きくする。

こうすれば、LVM は必要ない気がするのですが、どうして LVM と組み合わせる人が多いのでしょうか?


338 名前:login:Penguin mailto:sage [2007/10/21(日) 21:15:43 ID:ccIALbTr]
>>337
pvmoveで死にかけのドライブを交換できる。

339 名前:337 mailto:sage [2007/10/21(日) 21:35:04 ID:CyPL93bH]
>>338
レスどうもありがとうございます。

md を使わず、LVMのみで HDD4台とかで大きい単一のパーティションを作った場合、
たとえば不良なHDDを交換したいときに、pvmove で不良なHDD上に乗っかっているデータを追い出し
(PEをほかのVGに追い出し)、新しいHDDとさしかえる、というのはわかります。

しかし md を使っている場合、不良なドライブがあれば、mdadm --fail で不良扱いにし、
mdadm --remove で取り外し、mdadm --add で好感して追加すればいいので、
やはり LVM と組み合わせる理由がわからないのですが・・・

340 名前:login:Penguin mailto:sage [2007/10/21(日) 21:51:55 ID:ccIALbTr]
>>339
そうだね。今のmdadmはいろいろと出来るみたいだね。
俺の場合は慣れなかな。
mdadmが出る前(raidtoolsの頃)からlvmで色々と出来てたからね。

ところで、RAID0でも
mdadm /dev/md0 --add /dev/sda1 --fail /dev/sdb1 --remove /dev/sdb1
でいけるの?

341 名前:login:Penguin mailto:sage [2007/10/21(日) 22:19:12 ID:Py2daiOH]
ゆとり教育世代には仮想化や論理化のメリットが理解困難なようだ

342 名前: ◆Zsh/ladOX. mailto:sage [2007/10/21(日) 22:36:32 ID:beoHAJJS]
漏れも>>337と同じ意見。
LVM使ったこと無いorz

343 名前:login:Penguin mailto:sage [2007/10/22(月) 02:51:20 ID:+aosTp7W]
つーか>>337、addだけじゃ駄目だろ

344 名前:337 mailto:sage [2007/10/22(月) 03:23:03 ID:wCu8JRMx]
LVM を間に挟んでおけば、以下のようなことができるかと考えてみました。

>>337 のように 4台でRAIDを組む。とりあえず LVM を構成してからパーティションを作る。
・1台故障した(例:/dev/sdd)のでもう一台買ってきたが、同じ値段で容量の大きなHDDが買えた。
・新しく買ってきた HDD に、以前と同じ容量の /dev/sdd1 をつくり、mdadm --add /dev/sdd1 する
・新しく買ってきたHDDの、残りの容量を /dev/sdd2 として fdisk で確保。パーティションIDは 8e とする。

/dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、ファイルシステムを保持したまま、
HDDを余すところなく使えるかな。ただしこの時点では /dev/sdd2 は冗長化されてないですが。

>>343
add するだけでリビルドが始まると思っていたのだけど、もうすこしコマンドが必要なのでしたっけ?




345 名前:login:Penguin mailto:sage [2007/10/22(月) 03:47:32 ID:RbFtcdsq]
できるかもしれんが、

> /dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、

これやったら駄目じゃね?
sdd2は単独で使うのが良いと思われ。

346 名前:login:Penguin mailto:sage [2007/10/22(月) 06:25:14 ID:afLW6y8j]
片方のドライブが壊れたなど問題が起きたときにメールで送信してくれるユーティルティソフトはありませんか?


347 名前:login:Penguin mailto:sage [2007/10/22(月) 09:14:07 ID:xtIOR2qi]
>>344
grow

>>346
mdadm

348 名前:login:Penguin mailto:sage [2007/10/24(水) 20:03:46 ID:bA8/b9hE]
>>337
250GBと500GBの混在で、ソフトウェアRAID5のPCサーバーを作っています。

Vineだし、慣れでext3で行っていますが
reiserFSだと将来拡張できてウマーという認識でいいのでしょうか?


立て続けHDD故障のリスクを抑えるためにも
RAID1の240GBと、RAID5の240GB*4として運用しています。
まぁマーフィの法則的には、500GB二つが立て続けに逝くでしょうが…

LVMは、LVMもmdadmも使い慣れない状態で
LVM導入は無駄にリスクを増すと思って、私もLVMは使っていません。
むしろ、LVM使いたくなかったから、慣れたVineで行った次第。

なお、起動デバイスはCFをSATA変換してそのまま。
実験の都合で、RAIDと別ディスクにしたかったし、電力消費面で(略)

私用だし、設定終わった時点で、ddでバックアップしておけばいいや発想。


349 名前:login:Penguin mailto:sage [2007/10/25(木) 02:23:44 ID:SbJgUcvr]
>>348
単にresizeするだけなら対応していないfsの方が少ないはず。

それはともかく、LVMはたしかに柔軟性があっていいんだけど、どうも
機能過剰感があるし台数的に少ない個人レベルでは物理ディスク単位で
管理する単純性の方を優先して漏れも使ってない。

HDDやパーティションに縛られない柔軟性は便利といえば便利だけど、
ブロックの切り出しはファイルをloopbackとかnbdで晒せば同様のことが
できなくもないし、HDD更新時のアップグレードとかも

RAID時:
新HDDをRAIDに追加 -> 同期が終わったら、旧ディスクは壊れたことにして外す -> RAIDをresizeして完了

RAID+LVM時:
新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す

と手順は違うものの、最近は同程度のゴールは達成できるようになってるから
まあいいかと。LVMを併用すれば選択肢は確かに増える(例:パーティションを
細かく切っても後悔せずにすむ自由とか)のだけど、構築ポリシと運用ポリシで
そこは我慢(という程不満でもないけど)して、より少ない知識で動かせたほうが
いいかなと。仕事じゃないし。

350 名前:login:Penguin mailto:sage [2007/10/25(木) 05:36:25 ID:a7PkADFx]

> RAID+LVM時:
> 新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す

mdを新規に組むなら、わざわざLVMに追加しなくても良いのでは?
別個にLVM作成して、rsyncで。

351 名前:login:Penguin mailto:sage [2007/10/25(木) 11:57:18 ID:nruqF/xu]
使った事が無い奴に限ってあーだこーだ文句言うんだよな
単なる食わず嫌いだよ
LVMが面倒くさいと思ったことは無いね

352 名前:login:Penguin mailto:sage [2007/10/25(木) 12:08:55 ID:D3bEYjzi]
仕事でUnixさわってりゃ、嫌でも使うもんだしなw


353 名前:login:Penguin [2007/10/25(木) 12:11:33 ID:OJWp8+U0]
はいはい

354 名前:login:Penguin mailto:sage [2007/10/25(木) 19:23:40 ID:8UJAa78q]
とりあえず LVM を使わずに4台を RAID5 にしようとしたが、

# mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1

をやったあと、cat /proc/mdstat すると、

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sda1[0] sdd1[4] sdc1[2] sdb1[1]
   937705728 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
   [===>.................] recovery = 17.9% (56190968/312568576) finish=64.8min speed=65860K/sec

となって、なぜか一台が fail 扱いになってリビルドが走っている。
しかも必ず途中でOSが固まってリセットせざるを得なくなる。
リセットすると、またリビルドが走る→OSが固まる。

・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう
・なぜリビルドが最後までできないんだよう

HDD、ほぼ新品で、Windows で使っていたときにはフォーマットまで終わったのに。
もう一度 fdisk からやりなおそうかな。





355 名前:login:Penguin mailto:sage [2007/10/26(金) 13:10:51 ID:2kfwd15n]
>>354
>・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう

これは、そういうもの。
前に何が書かれているか判らないから、最初に一回、
全部のブロックに対して辻褄合わせをする必要がある。

>・なぜリビルドが最後までできないんだよう
こりゃ変だな。
ハードウエアかソフトがどっか壊れてるかも。


356 名前:login:Penguin mailto:sage [2007/10/26(金) 22:51:06 ID:2+3v138+]
>>351
複雑な構成はトラブルの元だよ。仕事ならなおさら。
自分にしか迷惑かからないんなら別に問題ないけど。
分からなければ引き継ぎとかトラブルシューティングの苦労考えてみるといい。


357 名前:login:Penguin mailto:sage [2007/10/26(金) 23:39:11 ID:VCuGyTp8]
>>350
rsync同期だと、同期作業中は停止(=他に何もできない)時間になる。
LVMレベルで掃き寄せれば、停止時間は壊れた(ことにした)旧ディスク抜く作業時間だけ。

358 名前:login:Penguin mailto:sage [2007/10/27(土) 00:11:21 ID:4ZTrW6oo]
-> LVMに加入させ、新ディスクへファイルを掃き寄せる

こんなこと出来たっけ。
lvcreateでpvを指定する?そもそもファイルシステムの拡張は?
lvmあまり解かってないので〜

359 名前:login:Penguin mailto:sage [2007/10/27(土) 00:25:02 ID:US/tv6oE]
つ pvmove

360 名前:login:Penguin mailto:sage [2007/10/27(土) 00:35:04 ID:4ZTrW6oo]
理解しました。
ありがとう。

361 名前:login:Penguin mailto:sage [2007/10/27(土) 07:28:26 ID:HMAtdp9w]
>>354
最初からcleanなアレイ作るよりfail -> resyncする方が速いから嫌なら--force付けろ
ってmanに書いてあるのに読まずにblogとかで騒いでるのたまにいるよね


362 名前:login:Penguin mailto:sage [2007/10/27(土) 18:22:59 ID:GzcOi8yc]
ところで mdのパフォーマンスってあまり実測乗ってないよね

www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.txt
によると
RAID-0 : パフォーマンスは N * P MB/s に近くなります。
RAID-1 : 読み込みのパフォーマンスは N * P に近い値になりますが、書きこみはデバイスが 1 台の場合と同等以下
RAID-5 : 読み書き両方ともにパフォーマンスは向上
などと書いてあって、新たな知見を得たというかなんというか・・・
これはあれか、RAID1の4台構成で、readだけはraid0並で無駄に強固なアレイ、とか作れるのかw

というのはともかく、同時n本のアクセスでどの程度の速度出ますよグラフが見あたらない。
H/Wのボードだとたまに有るんだけど。RAID5の同時5本read程度なら速度落ちない体感はある。
mdでRAID10や5の詳細ベンチ結果落ちてたら教えてください。


# 「RAID-5 のための合理的な chunk-size は 128 KB ですが」とか書いてあって凹んだorz

363 名前:login:Penguin mailto:sage [2007/10/27(土) 20:25:18 ID:TpR9h4x8]
>>362
RAID1だけど速くならないよ(下はHDD単体)

# hdparm -tT /dev/md0
/dev/md0:
Timing cached reads: 5944 MB in 2.00 seconds = 2975.51 MB/sec
Timing buffered disk reads: 192 MB in 3.01 seconds = 63.84 MB/sec

# hdparm -tT /dev/sdc
/dev/sdc:
Timing cached reads: 5888 MB in 2.00 seconds = 2947.58 MB/sec
Timing buffered disk reads: 196 MB in 3.01 seconds = 65.11 MB/sec

364 名前:321 [2007/10/27(土) 20:38:03 ID:HbBH9mvu]
>>362
たしかに、私もMTUと同じのノリでchunksizeを大きく設定してRAID5組んだら
さっぱり速度が出なくてがっかりした。その後何度か変えてみた。
で、128KBより256KBのほうが、微妙に書き込みが速いと思って、そのまま使っている。

性能条件は、CPU1コアのHT無し環境だと、いろいろ条件は変わるだろうから
CPU負荷を変えながら、テストできるツールがあるといいな。

ベンチマークオフ会やるにはRAID編成に時間かかるもんね。




365 名前:login:Penguin mailto:sage [2007/10/27(土) 20:45:42 ID:9wm9rUig]
なんか、面白そうね。
俺もちょっとhdparmで速度測定してくる!

366 名前:365 mailto:sage [2007/10/27(土) 20:52:22 ID:9wm9rUig]
# hdparm -tT /dev/md0
Timing cached reads: 2096 MB in 2.00 seconds = 1047.58 MB/sec
Timing buffered disk reads: 318 MB in 3.01 seconds = 105.50 MB/sec

# hdparm -tT /dev/sda
Timing cached reads: 2168 MB in 2.00 seconds = 1084.36 MB/sec
Timing buffered disk reads: 190 MB in 3.01 seconds = 63.03 MB/sec

# hdparm -tT /dev/sdb
Timing cached reads: 2368 MB in 2.00 seconds = 1184.16 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.68 MB/sec

# hdparm -tT /dev/sdc
Timing cached reads: 2348 MB in 2.00 seconds = 1174.73 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.83 MB/sec

# hdparm -tT /dev/sdd
Timing cached reads: 2812 MB in 2.00 seconds = 1406.45 MB/sec
Timing buffered disk reads: 184 MB in 3.00 seconds = 61.26 MB/sec

# hdparm -tT /dev/sde
Timing cached reads: 2076 MB in 2.00 seconds = 1037.62 MB/sec
Timing buffered disk reads: 160 MB in 3.00 seconds = 53.26 MB/sec

# hdparm -tT /dev/sdf
Timing cached reads: 3032 MB in 2.00 seconds = 1516.29 MB/sec
Timing buffered disk reads: 190 MB in 3.03 seconds = 62.69 MB/sec

md0の要素全てに試してみたけど、なぜかsdeだけが遅いぞ・・・?
死兆星が光ってる?

367 名前:362 mailto:sage [2007/10/28(日) 00:59:50 ID:71qYpNbN]
すまぬ、引用が不十分ででした。そして503で書き込めない間に長文化
「Read performance is good, especially if you have multiple readers or seek-intensive workloads.
 The RAID code employs a rather good read-balancing algorithm, that will simply let the disk
 whose heads are closest to the wanted disk position perform the read operation.」
ということで、複数同時readとかrandom readで速くなるよ、ということらしい>RAID1
で、hdparm -T & だとたぶんキャッシュに乗ってしまうと思うし、ddか何かを同時数本走らせるか、rreadするプログラムが必要かもしれない。
計測方法の定番が無いあたりが1つ目の問題のような・・・
chunk sizeや/procのstripe_cache_sizeやqueue/schedulerも実験してみたいんだけど、シーケンシャルreadなベンチじゃ効果が見えんです。

>>364
おお、実験されましたか。
Win系のように(良くも悪くも)デファクトなベンチツールが有るといいんですが。
timeと簡単スクリプトで、と思ったけど意外に難しく断念w
ディスク空き容量がデカければ巨大ファイル作って好きにseek発生出来るんですが、/dev直はなんか怖いっす。
どうなんでしょ、/dev/md0にrreadするだけなんですがどなたか書けますか?

368 名前: ◆Zsh/ladOX. mailto:sage [2007/10/28(日) 02:27:22 ID:DiHVZTpi]
過去スレでmdのチューニングの話が出てたお

369 名前:321 [2007/10/28(日) 21:46:34 ID:PihVE9KW]
hdbenchクローンはあるんよね。

ただ、コンパイルできない時に、どうしたらいいのか戸惑ったりもする。
今、メインとノートのVine4.1環境にはhdbench入れてあるけど
新造のVine4.0のままのRAID5機ではコンパイルエラーで後回しになってる。

hdbenchのためにファイルサーバー機にXも入れといたのにさ。
GbEごしにhdbenchで見ても、GbEのドライバーがボトルネックの状況だし…


370 名前:login:Penguin mailto:sage [2007/10/28(日) 23:11:58 ID:8YMFjw47]
hdparm の実行例が、たとえば >>366 にあるが、シーケンシャルリードだけなのかな?

適当にぐぐると、iozone、bonnie++ をみつけたが(そういえば聞いたことがあるな)
妥当かどうかはよくわからない。

371 名前:login:Penguin mailto:sage [2007/10/28(日) 23:30:15 ID:PnOUhN2H]
方々で見かけるし、bonnie++かなぁ。

うちの宅鯖も測り直したいが、クローラのデータエリアとして
24h稼働中なんでなかなか止められない……

372 名前:362 mailto:sage [2007/10/30(火) 00:00:50 ID:1HogexSN]
ざっと走らせてみたものの

bonnie++
これってFSとかキャッシュ・・・syncなオプションを使えと言うことか。
出力結果がややこい

dbench
クライアントの挙動をsimったプロセス数を指定、みたいな。
dbench NでNに1〜30あたりまで放り込んでみるとRAIDらしさが・・・出てないな。-sS必須か。
何故かシングルドライブの方が速い。わからねえ。Verによって挙動違うし。tbenchはまだ読んでない。

stress
cpu,mem,io,disk等に分けてN fork。でもベンチにならんよねこれ

tiobench
Nスレッドでベーシックなディスクベンチ。これが一番いいかも。問題は使い方がよくわから(ry
LatencyやCPU使用率の一覧比較を出してくれて便利。

その他 apt-cache search benchmark

373 名前:login:Penguin mailto:sage [2007/10/30(火) 09:07:47 ID:34EF8s3m]
postmarkがおすすめ。
ただディスクベンチではなくファイルシステムベンチマークだけど・・・
同じファイルシステムを使っていれば相互比較はできるはず。

374 名前:login:Penguin mailto:sage [2007/10/30(火) 10:05:05 ID:D9D8Yw5C]
postmarkはZFS専用。

まぁ同じベンチソフト使っていれば、ファイルシステム間での
比較はできるけどな。
ベンチマークソフトによって特定のファイルシステムで
特別性能がよかったり悪かったりするから、
何をベンチするか考えてから。



375 名前:login:Penguin mailto:sage [2007/11/01(木) 12:34:00 ID:7nciWttU]
>>366
同一モデルでプラッタ容量違いの外れを引いただけ。

376 名前:login:Penguin mailto:sage [2007/11/01(木) 13:12:38 ID:62ZK10ox]
>>366
# hdparm -tT /dev/md0
Timing cached reads: 1834 MB in 2.00 seconds = 916.99 MB/sec
Timing buffered disk reads: 400 MB in 3.00 seconds = 133.12 MB/sec
# hdparm -tT /dev/sdb
Timing cached reads: 1834 MB in 2.00 seconds = 916.90 MB/sec
Timing buffered disk reads: 220 MB in 3.01 seconds = 73.18 MB/sec
# hdparm -tT /dev/sdc
Timing cached reads: 1824 MB in 2.00 seconds = 912.33 MB/sec
Timing buffered disk reads: 224 MB in 3.02 seconds = 74.08 MB/sec
# hdparm -tT /dev/sdd
Timing cached reads: 1822 MB in 2.00 seconds = 910.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.34 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1842 MB in 2.00 seconds = 920.98 MB/sec
Timing buffered disk reads: 200 MB in 3.02 seconds = 66.24 MB/sec
# hdparm -tT /dev/sdf
Timing cached reads: 1822 MB in 2.00 seconds = 910.41 MB/sec
Timing buffered disk reads: 216 MB in 3.02 seconds = 71.42 MB/sec
# hdparm -tT /dev/sdg
Timing cached reads: 1820 MB in 2.00 seconds = 909.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.47 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1820 MB in 2.00 seconds = 910.07 MB/sec
Timing buffered disk reads: 222 MB in 3.02 seconds = 73.51 MB/sec

というわけでたまたまじゃない?
もっかいやってみれば?

377 名前:login:Penguin mailto:sage [2007/11/01(木) 14:01:44 ID:1iefkY+v]
>>366
シングルユーザモードで起動してますよね?
通常だとデーモンとか動いて、20-30%は簡単に変わるので。。。

378 名前:366 mailto:sage [2007/11/01(木) 18:47:22 ID:Gt+V+zuD]
たくさんのレスありがとうです。

たまたまかもしれませんし。
フツーにマルチでやってたんで、今度シングルで試してみます〜。

379 名前:login:Penguin mailto:sage [2007/11/02(金) 04:20:45 ID:QaC2YeMr]
CentOS5でインストールの段階でmdadmを使用してHDD2台(sda,sdbとして)をRAID1に設定した後に、
片方が破損して取り外したという仮定をして実験をしてみたんですが、
HDD1台(sda)で起動させようとすると「GRUB Hard Disk Error」で止まるorz
もう一台(sdb)だけを繋いで起動すると普通に起動してくるんだけど、何故だろう。
2台繋いだ状態で起動して、sdaに # /sbin/grub-install /dev/sda としても状態変わらず。
接続ポート入れ替えてもダメでした。
パーティション情報や grub.conf も晒した方が良いなら晒します。
誰か分かる方いたらご教示下さい。

380 名前:379 mailto:sage [2007/11/02(金) 06:02:03 ID:QaC2YeMr]
自己解決?
なんとなくGRUBに直接どちらからでも起動できるように書いてやればいい気がしてきた。
今シンク中なので終わったらやってみます。

381 名前:login:Penguin mailto:sage [2007/11/02(金) 06:29:50 ID:oty1mOnF]
>>381
DOSのブートローダをいれて、
両方のHDDでブートパーティションをアクティブに設定、とか。

382 名前:login:Penguin mailto:sage [2007/11/02(金) 11:11:28 ID:7sg8THe2]
0x80と認識されるか0x81と認識されるのかでブートコードが違う必要がある

383 名前:379 mailto:sage [2007/11/02(金) 18:53:15 ID:QaC2YeMr]
遅くなりましたが出来ました。
>>381さんの手も良いかなと思ったのですが、以下のような感じでOKでした。

# grub
 grub> root (hd0,0)
 grub> setup (hd0)
 grub> root (hd1,0)
 grub> setup (hd1)

こんな感じでどちらからも起動できるようにしたら一発。
grub-install では、こういう風には入力されないんですね。

384 名前:login:Penguin mailto:sage [2007/11/03(土) 02:06:07 ID:toJHQDFC]
Linux で 3ware 9550SX-8LP を RAID 5で使ってるんですが、
既に作られてるユニットの容量をCLIで変更する方法をどなたか教えていただけないでしょうか。

現在以下のように 500GB×3 + spare という状態です。

Unit UnitType Status     %Cmpl Stripe Size(GB) Cache AVerify IgnECC
------------------------------------------------------------------------------
u0  RAID-5  OK       -   64K   931.303  ON   OFF   OFF
u1  SPARE   OK       -   -    465.753  -   OFF   -

Port  Status      Unit  Size    Blocks      Serial
---------------------------------------------------------------
p0   OK        u0   465.76 GB  976773168   H8******
p1   OK        -   465.76 GB  976773168   9Q******
p2   OK        u0   465.76 GB  976773168   H8******
p3   OK        u0   465.76 GB  976773168   H8******
p4   OK        u1   465.76 GB  976773168   9Q******
p5   NOT-PRESENT   -   -      -       -
p6   NOT-PRESENT   -   -      -       -
p7   NOT-PRESENT   -   -      -       -

このu0 に使われていない p1を足して p0-3で 500GB×4 + spareにしたいのです。
CLIのマニュアル(P.62)に従って

# tw_cli /c0/u0 migrate type=raid5 disk=0-3

とやってみたのですが、
Error: (CLI:008) Invalid ID specified. Found a specified ID is already in use.
とエラーになってしまいます。
何がまずいのでしょう?



385 名前:login:Penguin mailto:sage [2007/11/03(土) 22:23:32 ID:rg+D7DYl]
>>384
RAID再構築

386 名前:login:Penguin mailto:sage [2007/11/04(日) 04:56:40 ID:QRh/db2g]
>>385
japan.3ware.com/products/serial_ata2.asp
3ware 9550SXの特徴
オンライン容量増設および RAID レベルマイグレーション機能搭載






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<300KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef