RAID総合スレッド No. ..
[2ch|▼Menu]
263:login:Penguin
07/09/10 10:30:56 FRmNxXcA
>>262
IOを発生させないようにする。
SATAカードを挿す。

ところで、おまいはそのマシンのユーザなのか、
業者で設定だけすればよいのか?

264:261
07/09/10 12:18:57 bcnjR5k4
>>263
自家用鯖です。
7台買っちゃった・・・ のはいいとしても、うち4台投入済みで、
どうしたものかと。

> IOを発生させないようにする。
それはそうなのですが、鯖なので「IOは客次第」というのも事実です。
で、リミッタを掛けられないものかと。

> SATAカードを挿す。
検討はしますが、どれが使えるやら・・・
ICH8上でSATAを使える鳥を探したほうが速いのかしら?


265:login:Penguin
07/09/10 12:24:15 FRmNxXcA
>>264
ここは正攻法で、SATAドライブを認識させるのがよいのでは。
客に迷惑かけるくらいなら。

update5(2.6.9-55)にして新しいAHCIドライバでマザボの
コントローラがネイティブで認識できないかやってみたら?
URLリンク(rhn.redhat.com)

IOパターンが分かれば、メモリ上に逃す、NFSに逃すとか
やればよいとおもうけど。

266:login:Penguin
07/09/11 03:13:00 1eKow4TN
>>262
>書き込み要求をするプロセスに対し適切なio待ちを発生させる。

IOスケジューラが悪さしてるとか。
# cat /sys/block/hda/queue/scheduler
で確認。deadlineとかになってると、大量IOプロセスがIOキューを占有する可能性がある

267:login:Penguin
07/09/11 07:29:39 Koj2yGIB
IDE互換モードでもDMAに出来ないの?

268:login:Penguin
07/09/11 10:15:48 VARFPXVr
>ICH8上でSATAを使える鳥を探したほうが速いのかしら?

カーネルの問題でしょ?
ディストリ関係ないじゃん?

269:login:Penguin
07/09/11 10:26:53 +giQtmHn
>>268
ディストロに含まれているカーネル(ドライバ)の問題。

270:login:Penguin
07/09/14 13:48:18 Qp7pOiTy
>>269
同じ意味じゃないのか?
カーネルに組み込むかカーネルモジュールとしてビルドするかの違いじゃないの?

271:login:Penguin
07/09/14 13:59:25 LGchwi2d
>>269
No
ディストロがいつのカーネルを収録しているか、
どれくらいバックポートしているか、という意味。

272:login:Penguin
07/09/14 16:17:45 J3tBG9+k
そんなにリコンパイルがイヤなのか・・・

273:login:Penguin
07/09/14 16:58:41 vvlhDw0v
>>272
なんでディストリ利用するかってえとアップデートをオートマティックにやりたいからなので
カーネルがアップデートするたびにリコンパイルするのは確かに嫌だわな


274:login:Penguin
07/09/14 17:34:16 iYDjqHcw
商用だとサポートの対象外になったりするんじゃないのかな?


275:login:Penguin
07/09/14 19:35:57 Qp7pOiTy
>ディストリ: Scientific Linux 44
なんでこのディストリを選んだのか分からんけど
カーネルひとつリビルドするのが面倒でディストリを
乗り換えるほうを選択するって事は元々このディスト
リに拘ってた訳では無いって事か……。

それにカーネルなんて脆弱性が無ければ別にバージョン
アップしても毎回アップデートする必要もないと思うん
だけどねぇ。

リビルドするほうが面倒か、標準のカーネルで使えそうな
ディストリを探すほうが面倒かは本人の自由だぁーっ!
って事でガンガッテくらしあ。
漏れにはICH8が何なのか調べても詳しいことが理解できな(ry

276:login:Penguin
07/09/14 22:01:10 4s3K/OrJ
RAIDスレとしては適切な答えではないかもしれないが
マザボでエミュレーションとかしないで
普通に新しいディストロをインストールして
その上でVMware Serverなどを使って
Scientific Linux 44を動かすこともできるんではないかと。



277:login:Penguin
07/09/15 10:03:03 us6rkrJ5
何の為だかもわからんな

278:login:Penguin
07/09/15 18:16:51 W+7omWYo
ソフトウェアRAIDを組み合わせてRAID50を構築することってできますか?

279:login:Penguin
07/09/16 12:26:33 z8cQ3GjF
余裕で

280:login:Penguin
07/09/16 12:41:28 quamL2ab
できるけど、おススメはしない


281:login:Penguin
07/09/18 23:19:28 JnRQfMu1
>>260
かなり遅レス(アク禁でして)ですが・・・
話を聞く気がないのなら、最初っからききませんって。
いろいろいただいたアドバイスを試して、それでもだめだったんです。
いちおう無理矢理な解決策は見つけましたけど・・・。
そんなことおっしゃらずに、
何か思い当たる方法があるのなら教えていただきたいです。

282:login:Penguin
07/09/19 22:15:18 Lkk29FxI
>>281
何を試したのか分からないけど、
/etc/mdadm/mdadm.confを設定してwarningを無くしてみたかい?

ルートファイルシステムじゃないから、絶対にinitrdで構成しないと
いけない事はないと思うけど。


283:login:Penguin
07/09/21 09:57:43 KtH/rsSr
Avidemuxのreindex系処理でmdadmだけのRAID0でもあてになることに感銘した。

気をよくして、既に遅さにがっかりしきったIO-DATA HDL4-Gに代わって
PCでソフトウェアRAIDでRAID5ファイルサーバーを作る気になっています。アホだから。

PentiumIII-m/1.2GHzのノートPCを使い
RAID5を10GBのパーティションx4(実HDDは2.5インチの二基)で試し
この程度のCPUがあれば、HDL4-Gよりはましな気がしています。
多少はウェブを調べてみましたが、いろいろ調べきれなかったことがあります。

1.ソフトウェアRAIDでRAID5を構築する場合、小容量より大容量のほうが速度が落ちる傾向があるか?
2.かりに1の傾向にあるとして、それは実メモリの増量で改善できる種類の問題なのか?
3.現在のうちのHDL4-Gの書き込み5MB/s程度は、100BASEのSambaでも超えられるんじゃないか?
(HDL4-GはGbEを採用しジャンボフレームにも対応しますが…トホホ)

EPIAのC3/1GHz付M/BのPCIx1に4ポートSATAカードを挿すと
オンボードの100BASE-Tで行くしかないんだよなぁ…で踏み止まりました。先日
ただ、一昨日パチンコに少し勝ったので、今日は踏み止まらない気がします(笑)

これは無謀無計画に終わりそうなんでしょうか…

あと、HDL4-GのHDDをそのままPC上に移すことは、理論上不可能か…
HDL4-GのRAID関係仕様を調べてみる価値はあるのか…も気になっています。
5MB/sで700GBを移し替える日が来るわけですし…

284:login:Penguin
07/09/21 10:27:20 l3v0EWvd
>>283
> 1.ソフトウェアRAIDでRAID5を構築する場合、小容量より大容量のほうが速度が落ちる傾向があるか?

ディスクが多い程アクセス分散でが大きい→高速化
ディスクが大きいほど外周にある領域の容量が増える(割合は増えない)→高速化???

> 2.かりに1の傾向にあるとして、それは実メモリの増量で改善できる種類の問題なのか?

個人的にはファイル鯖はキャッシュ命だと思っているので4Gとか積んでます。
ディレクトリエントリが結構メモリに載るので少なくともその分のシークは減らせるはず。

> 3.現在のうちのHDL4-Gの書き込み5MB/s程度は、100BASEのSambaでも超えられるんじゃないか?

2〜3年前に250x4/RAID5で組んでたときには、100BASEで巨大1ファイル転送で10MB/sくらいは出てました。

285:login:Penguin
07/09/21 16:28:27 SoDKq3bm
スイマセン、質問です。

CentOSでMegaRAID 428を使おうとすると、インストーラが
パーティションを設定するところで、論理ドライブは1つ(RAID1)
しかないのにsda、sdb、sdc……と複数台表示されてしまいます。

インストール開始時にドライバが必要なのでしょうか?
もしそうでしたら、ドライバの入手先等をお教えいただけ
ませんでしょうか?


286:login:Penguin
07/09/22 09:02:04 +d+c9GIe
>>285
つ[MegaRAID 428マニュアル]

287:login:Penguin
07/09/23 10:00:24 XVZYMXtq
/proc/mdstatで[UU]ってなってるのにresyncしてる。
なんだこり?

288:login:Penguin
07/09/23 20:27:26 GZ/+MXCS
>>287
前スレの895の事例は?

895 名前:login:Penguin[sage] 投稿日:2006/11/10(金) 21:39:27 ID:bNIZOw4y
debian-sargeの2.6.8-3-386を使用しています。
久々に電源を入れなおしたところ、
再同期が始まってしまいました。
4つのディスクのどれかが脱落したようにも見えないのですが、
同期外れもなしに再同期が始まるときって
どういう場合なんでしょうか?

>cat /proc/mdstat
Personalities : [raid5]
md0 : active raid5 sdb1[0] sdd1[3] sda1[2] sdc1[1]
732587520 blocks level 5, 128k chunk, algorithm 2 [4/4] [UUUU]
[>....................] resync = 4.2% (10416768/244195840) finish=3755.4min speed=1035K/sec
unused devices: <none>

903 名前:login:Penguin[sage] 投稿日:2006/11/11(土) 20:51:30 ID:e3BClQL/
>>895
確か長時間止めてたRaidを起動するとresyncというかチェックが走ったような希ガス
man mdadmあたりに書いてあったような。。。


289:281
07/09/26 16:54:47 R04+ijwq
>>282
mdadm.confをデフォルトからいじってみたのですが、
エラーはなくならず、mdadmのバージョンを下げてみたり、
元にもどしたりしたところ、warningは出なくなり、
initrdもできるようになりましたが、
やはり起動時に自動的にマウントすることはできませんでした。
結局/etc/rc.localに"mount /dev/vg0/lv0 /samba"と書いて、
マウントするようにしている状態です。

ちなみにmdadm.confは、こんなかんじです。
----
DEVICE /dev/sdb1 /dev/sdc1
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=cf98cc9f:54e7b704:3cf3c1ab:04141d7c
CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST <system>
MAILADDR root
----

290:login:Penguin
07/09/26 21:32:41 +JTi2+Dv
>281 キミはそもそもマシンの話を聞けてないんだよ :-D
/usr/share/doc/mdadm/README.upgrading-2.5.3.gz
は読んだのか?



291:283
07/09/28 01:47:43 zIk+oOYu
>>284
ありがと、参考になります。

ちなみに、いろいろあって衝動買いはまだしていません。
そうこうしているうちにEdenのSATAx4付ITX M/Bの登場を知り
無理すれば買えそうな懐具合で悩んでいるところ…

#半年分、水道代未納の同居人の代わりに全額払ったら
#ちょびっと頼りない懐具合、本来ヲレは電気代全額係なのによぉ


292:login:Penguin
07/09/28 22:30:14 zocg/t++
>>281
起動時のコンソールログを調べてみたら?
LVの認識とマウントのどっちが先に行われているか。

ってUbuntuのデフォルトは/boot/grub/menu.lstでsilentになってるから
出てこないんだっけか


293:login:Penguin
07/10/05 17:39:13 aHTjkmHH
基本的な事で質問して申し訳ないんですが、
RAIDカードを差し替えた場合って、既存のRAID0の構成でまんま使えるんでしょうか。
オンボードの物からRAIDカードに変えたんですが、正常に認識しなくて困ってます…

294:login:Penguin
07/10/05 18:11:53 RN6iC0Sq
そらそーだ
ディスクに書くRAIDメタデータなんて各メーカー独自だ

295:login:Penguin
07/10/05 20:21:44 aHTjkmHH
>>294
それはくまった…
結局めんどくさい手段を取らないといけないということですね。
ありがとうございました。

296:login:Penguin
07/10/05 21:19:49 Bkszhi+D
データを抜いて戻して はい おっぱいぴー! ですね。

297:login:Penguin
07/10/05 21:40:04 1cqRS2HI
>>295
次からはMDでドゾー

298:login:Penguin
07/10/05 22:24:28 sbcHKtJI
>296
誤:おっぱいぴー
正:おっぱっぴー(オーシャンパシフィックピース)

>297
メディアのMDだったりしてw

299:login:Penguin
07/10/07 03:44:25 mpYD9xP7
Debian に sil3124 で ハードウェアRAID5 を組もうと思ってるんだが
情報が少なくて困ってる。(俺のググり方が下手なだけかな)

Debian、sil3124、ハードウェアRAID5 の条件で
ドライバや手順に関する情報あったら教えてくれないか?

300:login:Penguin
07/10/07 09:04:02 rbmirQ/U
URLリンク(linux-ata.org)

301:login:Penguin
07/10/07 11:05:14 mpYD9xP7
>>300

すまん。説明が悪かった。
sata_sil24 があるのは知っていた(一応、このサイトも事前に眺めている)し、入れてみたんだが
これ入れただけだと複数のドライブとして認識してしまうよね

BIOS側のRAID設定を解釈させた上で、1つのドライブとして認識させたかったんで
なにか方法があるかと思って、調べてみたけど見当たらなかったんで聞いてみた

> Q&A
> 3. I have a Silicon Image SATA RAID card. Why doesn't Linux support my hardware RAID?
> A. It's not hardware RAID. It is software RAID, provided by the BIOS on the card.

>>300 は、これが言いたかったのなら、ごめんなさいでした。…コレ見て思ったんだが
sil3124は、BIOS側のRAID設定だろうが、linux側のソフトウェアRAIDだろうが関係なかったりするの?

302:login:Penguin
07/10/07 11:29:27 OlJTro86
関係ないというか、ソフトRAIDカード(RAIDカード上のコードがCPUを使って
必死に複数台に書き込むタイプのRAID)は

・他のカードに切り替えることができない(RAID構成のパラメータ管理方法が違うため)
・Linuxのmdより悪い実装で遅いことすらある

といいことなしなので、単なるSATAカードとして使い、単体ドライブを認識させて
後はmd使えというのが定番の答。md+lvmにすれば途中でディスクを追加・交換したり
するのも自由自在にできる(若干手間だから漏れはmdのみだけど)。

303:login:Penguin
07/10/07 13:53:21 F3d4jqxR
>>302
激しく同意。管理の手間考えるとlvmはねー……。
あと関係なかったらすまんがPortMultiplierは全般に鬼門だから注意

304:301
07/10/07 18:08:00 mpYD9xP7
ageてた…すまん。orz

>>302
ありがとう。よく理解できた
ごちゃごちゃ言わずに md の恩恵を享受することにする
余裕があったら、md+lvm にしてみる

>>303
と聞いたことがあったんで、避けてるよ
心配してくれてありがとう

305:login:Penguin
07/10/07 18:22:51 oxRMUtwe
板で全部やるのはどーよ。
えらい楽だぞ。
どれくらいで故障するのかが問題だな。
それをどうやって検知するのかも問題w

306:login:Penguin
07/10/07 23:48:33 WejonAB/
不良セクターのあるHDDの活用方法ってないのでしょうか?
ext3じゃなくて新しいフォーマットありましたよね
あれでフォーマットしたら不良セクターのあるとこだけよけてくれたりしないのかな

307:login:Penguin
07/10/08 00:28:34 YaM75dRs
つ badblocks
でも寿命間近なHDDではあろうから、使う度胸は漏れにはないな・・・
メモリの壊れたところを避けるbadramパッチとかもあるけど、微妙に貧乏性?>Linux


308:login:Penguin
07/10/08 01:53:48 4P0RdQEd
badblocks設定したHDDをRAID5に組み入れてるけど、
半年くらい問題なく動いてるな。。。たまたまだろうけどw
たまにfsckして増えていないか確認してます。

309:login:Penguin
07/10/09 06:10:00 Zd8jdHw+
raid-1 をやってみようかなぁなんてふと思った今北ですが、
URLリンク(www.linux.or.jp)
これはディスク2つをフォーマットする形になるのでしょうか?
それとも、主ディスクと副ディスクがあるとして、副ディスクをフォーマットして、主ディスクのデータをコピーするような形になるんでしょうか?
ディスク2つをフォーマットするのならどこかデータを一時退避しないといけないのですが、2つは空きディスクもっていないのでムリカナァと。

310:login:Penguin
07/10/09 06:28:28 l7SMboZo
>>309
たぶんraid-disk 0にあるデバイスからのコピーになると思う
あるいは、主ディスクだけのアレイを--forceつきで強制起動しておいて
hotaddとかかなぁ……これだと確実に主ディスクからのコピーになるはずだけど。
どちらもやったことないから保証はできない……

安全側に倒すために、できるなら一時退避(バックアップ)を強く奨めます。

311:login:Penguin
07/10/09 09:42:26 gFNRvPVM
mdadmならmissing

312:login:Penguin
07/10/09 22:37:58 HKV3wXfK
データを失うことの恐怖に比べれば
予備のディスクのひとつくらい安いものさ


313:login:Penguin
07/10/10 13:43:05 6CsTwXc1
raidを使おうとして、データをなくした人も結構いるが。。

314:login:Penguin
07/10/10 13:45:39 keWQBLxK
raidにした安心感でバックアップしてないバカもたこさんいる

315:login:Penguin
07/10/10 14:00:09 c6a7mM5s
>>たこさん
こんにちわ(*>∀<)/

316:login:Penguin
07/10/10 21:22:41 pmWLI9af
たこさんカワユス

317:login:Penguin
07/10/13 23:33:28 eMKVNvrK
すんません、質問です。
debianでmdでraid5を構築してたんですが、他のPCにこのraidを移すとき、/dev/hdb1〜/dev/hde1までの順番や位置が入れ替わっても問題ないのでしょうか。
実は取り外したときに順番がわからなくなっちゃって、どうしようか困っているのです。それに新システムの構成上どうしても/dev/hdeからになっちゃうんで、それもどうなのかと。

318:login:Penguin
07/10/13 23:44:08 iOJsc/uY
>>317
Persistent Superblockがあれば問題ない
あるかどうかはアレイ作ったときの指定によるんだけど、最近だと作るのがでふぉだっけ…?

319:login:Penguin
07/10/13 23:58:59 PvWu112N
さっそくバックしてないたこさん登場

320:login:Penguin
07/10/14 00:06:07 HSMNg90n
>>317
mdならHDD内に順番書いてあるよ

321:login:Penguin
07/10/15 20:20:32 w9rgZYRz
HDL4-G1.0のHDDをddで複製して、LinuxPCで読めるか試してみた。

ddで複製って段階で元のHDL4に戻して、正常動作するか不安だったけど
普通のLinuxでCUI操作するぶんには問題無いっぽい。確認後、四基とも複製。
#Windows上のディスク複製ツールだとどうだか知らんよ

で、インストール直後の素のVineLinux4.1のmdadmでassembleできた。
さらに、HDL4では83になっているパーティションコードをfdにすると
Linux起動時にmd0が編成されている…

けど、中がXFSでフォーマットされているらしいのな orz

XFSを使えるっぽいubuntoで試したら…mdadmが入っていなかったorz
今自宅に回線来ていないからapt-getできんのよ。

で、今考え中。VineでXFSを使えるようにするの面倒臭そ…

ちまちま低速なHDL4からLANで新サーバーにコピーするより
直でPCに持ってくほうが速いと思ったんだけどなぁ…

ちなみに、HDL4はDebian GNU/Linuxベースっぽい。

RAID5ホームサーバー製品のCPUボード故障時の復旧のために
こういう機能のある1CD Linuxがあるといいなぁと思った。


322:login:Penguin
07/10/15 22:19:35 G7rWOMJX
>>321
つ RIP

323:321
07/10/16 07:33:42 5m1gOou3
>322
ごめん、意味わかんない。

とりあえずOpenfilerで、なんとかなりそうな気がしてきた。
xfsリペアかけて読めるようになったけど、全部lost+foundに逝っちゃったから
その前に、なんかまずいことやったんだと信じたい。また後日だな。


324:login:Penguin
07/10/16 20:16:00 cgFz1bYo
ubuntuにmdadm入れたとき保存してあったと思うからメールで送ろうか?w

325:login:Penguin
07/10/17 02:54:28 kkrXZBdi
質問があります。
システムは単独のHDD(例:/dev/hda)にインストールし、別途オンボード SATAに
HDD複数台を使って(例:/dev/sda 〜 /dev/sdd)
md で RAID md0 を組み、データ領域として mount していたとします。

後日、システムの /dev/hda に、別のディストリビューションをクリーンインストールしました。
このとき、データ領域としてつかっていた md0 は、クリーンインストールしたあとも
しかるべく mdadm.conf を書けば mount できるのでしょうか?

>>317 とほとんど同じ状況です。

うまくいえないのですが、アレイを構成する HDD は、
アレイを操るツールやシステムには依存していないと思っていいのですか?
# 入れ替え前と後で、kernel や mdadm のバージョンが多少違っていても、
# 入れ替え後の mdadm がアレイを認識できれば問題ない?

326:login:Penguin
07/10/17 07:55:08 5hAko6Nc
mdadm.confなんか書かなくても、勝手に/dev/md0として自動認識してくれると思うけど。
そういう質問をするってことは、# cat /proc/mdstatとかしても
/dev/md0が表示されないってことでOK?

327:login:Penguin
07/10/17 09:07:32 TrrqXopo
いつごろ作ったmdかにもよるから>自動認識
ためしにKnoppixとかでブートしてみれば?それで認識すれば無問題。

328:325
07/10/17 10:46:22 Ri74/EYj
レスどうもありがとうございます。

いや、まだやっているわけではなくて、
今:fedora を入れてるマシンがある。データ領域用にHDD4を確保してきたが、まだRAIDを組んでいない
今後:Ubuntu 7.10 が正式リリースされたらクリーンインスコしたい

・さきにfedora上でアレイを組んでおいて、Ubuntu 7.10 が正式リリースされたら
 システム用HDDに OS だけ入れ替えて、アレイはそのまま流用、ということをしたい
・あるいは、7.10 はもうすぐリリースされるので、それまで待つ

と考えていました。

どうせ入れなおすので、ちょっとやってみようと思います。



329:login:Penguin
07/10/17 11:13:32 pEeOZTAK
nashのraidautorunが単一バイナリになれば簡単なのにな

330:login:Penguin
07/10/17 13:48:28 XO21wWLP
サイズの違うHDDでraid5ってできるのでしょうか?
80G(新品)x2 60G(古くて死にそう)x1
だと60Gx3に強制的になってしまうのでしょうか?

最初に死ぬのは60Gなのは確実なので60Gx3でない場合でも
問題ないとは思ってるのですが


331:login:Penguin
07/10/18 00:50:16 DgGfsmJx
このスレは mdadm がメインだと思いますが、実用的かどうかはともかく、
mdadm を使わずにマザーのオンボードRAID と dmraid で、Ubuntu で RAID をやってみました。

[自作PC] Linuxマシン用自作PCスレッド 2
スレリンク(jisaku板:473-番)

とはいえ自分は mdadm をやったことがないので、mdadm でやり直してみることにしました。


332:login:Penguin
07/10/18 01:56:40 ZVc4Ky30
>>330
少し頭使えよ

333:login:Penguin
07/10/18 07:59:46 /72Qgdo5
>>330
足りない20GB分は宇宙からのパワーにより補完されるので問題ありません。

334:321
07/10/21 07:06:49 GLuYmvWu
結局HDL4のHDDのdd複製からやりなおして、よけいな操作なしで
mdadm --assembleしてxfsrepairしたのだが、やはり壊れている。
9割くらいは残っているから、ディレクトリ名とか調べて復旧してみたけど
なんか、不安になって、この方法での移行はあきらめた。

RAID5 NASのM/B故障時の復旧手段にはなるかもしれんけどね…

で、今C7/1.5GHzでのソフトウェアRAIDとSRCS14L(2003年もの)でのRAIDが
ほぼ同じ性能で困っている。LAN負荷を伴っても性能差が小さく
SRCS14Lの発熱と、RAIDカード故障時のリスク考えると、ソフトで行くべきか…

C7付きM/BにGbE挿すと、状況が変わる気がするけど
100BASE(via-rhine)では、6MB/s程度しか出ていないんよね。
RAID5自体は、RAID5上の別名コピーで2GBを90秒弱でいけるんだけどね。


335:login:Penguin
07/10/21 12:43:32 sZ2k6dRm
個人でファイル鯖専用なら運用の柔軟性からいってソフトが良い。

336:321
07/10/21 18:25:01 GLuYmvWu
やっぱそうかな…ちなみに、現在VineLinux4.0インストール直後のドライバー構成で
なおかつ、SRCS14Lでは66bit,66MHzのカードを33bit,33MHzで動かしている。
良いM/BならRAID5自体の性能は、より良いのかもしれない。

ソフトウェアRAID5の性能は、sata_viaのポートとsata_sil(3114)複合の状態より
PCIの3114をPCIeの3132にしたほうが、わずかに高速化した気がした。
(HDDはSATA2もの)
PCIeの内部4portのSATA2カードが欲しいのだが、店頭在庫では見かけない。
商品自体が存在しないんだろうか…?


337:login:Penguin
07/10/21 21:13:13 CyPL93bH
質問があります。
HDD4台を買って来ました。システム領域とは別に、4台でSoftwareRAID5を組もうと思っています。
このスレと過去スレを見ると、mdadm + LVM と組み合わせている人が多いようですが、
その理由(メリット)がわかりません。どう幸せになるのか、教えてください。

LVMを使わない場合は、4台ともディスク丸ごと fdisk で、パーティションタイプを fd でフォーマットして、
# mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
とやればおしまいですよね。

4台のRAID5 から 5台のRAID5 にする場合は、
・HDDを買ってきて増設。パーティション丸ごと fd でフォーマットする
・# mdadm /dev/md0 --add /dev/hde1

これでアレイは大きくなるが、ファイルシステムは自動的には増えてくれないので、
resize_reiserfs とかでファイルシステムを大きくする。

こうすれば、LVM は必要ない気がするのですが、どうして LVM と組み合わせる人が多いのでしょうか?


338:login:Penguin
07/10/21 21:15:43 ccIALbTr
>>337
pvmoveで死にかけのドライブを交換できる。

339:337
07/10/21 21:35:04 CyPL93bH
>>338
レスどうもありがとうございます。

md を使わず、LVMのみで HDD4台とかで大きい単一のパーティションを作った場合、
たとえば不良なHDDを交換したいときに、pvmove で不良なHDD上に乗っかっているデータを追い出し
(PEをほかのVGに追い出し)、新しいHDDとさしかえる、というのはわかります。

しかし md を使っている場合、不良なドライブがあれば、mdadm --fail で不良扱いにし、
mdadm --remove で取り外し、mdadm --add で好感して追加すればいいので、
やはり LVM と組み合わせる理由がわからないのですが・・・

340:login:Penguin
07/10/21 21:51:55 ccIALbTr
>>339
そうだね。今のmdadmはいろいろと出来るみたいだね。
俺の場合は慣れなかな。
mdadmが出る前(raidtoolsの頃)からlvmで色々と出来てたからね。

ところで、RAID0でも
mdadm /dev/md0 --add /dev/sda1 --fail /dev/sdb1 --remove /dev/sdb1
でいけるの?

341:login:Penguin
07/10/21 22:19:12 Py2daiOH
ゆとり教育世代には仮想化や論理化のメリットが理解困難なようだ

342: ◆Zsh/ladOX.
07/10/21 22:36:32 beoHAJJS
漏れも>>337と同じ意見。
LVM使ったこと無いorz

343:login:Penguin
07/10/22 02:51:20 +aosTp7W
つーか>>337、addだけじゃ駄目だろ

344:337
07/10/22 03:23:03 wCu8JRMx
LVM を間に挟んでおけば、以下のようなことができるかと考えてみました。

>>337 のように 4台でRAIDを組む。とりあえず LVM を構成してからパーティションを作る。
・1台故障した(例:/dev/sdd)のでもう一台買ってきたが、同じ値段で容量の大きなHDDが買えた。
・新しく買ってきた HDD に、以前と同じ容量の /dev/sdd1 をつくり、mdadm --add /dev/sdd1 する
・新しく買ってきたHDDの、残りの容量を /dev/sdd2 として fdisk で確保。パーティションIDは 8e とする。

/dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、ファイルシステムを保持したまま、
HDDを余すところなく使えるかな。ただしこの時点では /dev/sdd2 は冗長化されてないですが。

>>343
add するだけでリビルドが始まると思っていたのだけど、もうすこしコマンドが必要なのでしたっけ?


345:login:Penguin
07/10/22 03:47:32 RbFtcdsq
できるかもしれんが、

> /dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、

これやったら駄目じゃね?
sdd2は単独で使うのが良いと思われ。

346:login:Penguin
07/10/22 06:25:14 afLW6y8j
片方のドライブが壊れたなど問題が起きたときにメールで送信してくれるユーティルティソフトはありませんか?


347:login:Penguin
07/10/22 09:14:07 xtIOR2qi
>>344
grow

>>346
mdadm

348:login:Penguin
07/10/24 20:03:46 bA8/b9hE
>>337
250GBと500GBの混在で、ソフトウェアRAID5のPCサーバーを作っています。

Vineだし、慣れでext3で行っていますが
reiserFSだと将来拡張できてウマーという認識でいいのでしょうか?


立て続けHDD故障のリスクを抑えるためにも
RAID1の240GBと、RAID5の240GB*4として運用しています。
まぁマーフィの法則的には、500GB二つが立て続けに逝くでしょうが…

LVMは、LVMもmdadmも使い慣れない状態で
LVM導入は無駄にリスクを増すと思って、私もLVMは使っていません。
むしろ、LVM使いたくなかったから、慣れたVineで行った次第。

なお、起動デバイスはCFをSATA変換してそのまま。
実験の都合で、RAIDと別ディスクにしたかったし、電力消費面で(略)

私用だし、設定終わった時点で、ddでバックアップしておけばいいや発想。


349:login:Penguin
07/10/25 02:23:44 SbJgUcvr
>>348
単にresizeするだけなら対応していないfsの方が少ないはず。

それはともかく、LVMはたしかに柔軟性があっていいんだけど、どうも
機能過剰感があるし台数的に少ない個人レベルでは物理ディスク単位で
管理する単純性の方を優先して漏れも使ってない。

HDDやパーティションに縛られない柔軟性は便利といえば便利だけど、
ブロックの切り出しはファイルをloopbackとかnbdで晒せば同様のことが
できなくもないし、HDD更新時のアップグレードとかも

RAID時:
新HDDをRAIDに追加 -> 同期が終わったら、旧ディスクは壊れたことにして外す -> RAIDをresizeして完了

RAID+LVM時:
新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す

と手順は違うものの、最近は同程度のゴールは達成できるようになってるから
まあいいかと。LVMを併用すれば選択肢は確かに増える(例:パーティションを
細かく切っても後悔せずにすむ自由とか)のだけど、構築ポリシと運用ポリシで
そこは我慢(という程不満でもないけど)して、より少ない知識で動かせたほうが
いいかなと。仕事じゃないし。

350:login:Penguin
07/10/25 05:36:25 a7PkADFx

> RAID+LVM時:
> 新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す

mdを新規に組むなら、わざわざLVMに追加しなくても良いのでは?
別個にLVM作成して、rsyncで。

351:login:Penguin
07/10/25 11:57:18 nruqF/xu
使った事が無い奴に限ってあーだこーだ文句言うんだよな
単なる食わず嫌いだよ
LVMが面倒くさいと思ったことは無いね

352:login:Penguin
07/10/25 12:08:55 D3bEYjzi
仕事でUnixさわってりゃ、嫌でも使うもんだしなw


353:login:Penguin
07/10/25 12:11:33 OJWp8+U0
はいはい

354:login:Penguin
07/10/25 19:23:40 8UJAa78q
とりあえず LVM を使わずに4台を RAID5 にしようとしたが、

# mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1

をやったあと、cat /proc/mdstat すると、

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sda1[0] sdd1[4] sdc1[2] sdb1[1]
   937705728 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
   [===>.................] recovery = 17.9% (56190968/312568576) finish=64.8min speed=65860K/sec

となって、なぜか一台が fail 扱いになってリビルドが走っている。
しかも必ず途中でOSが固まってリセットせざるを得なくなる。
リセットすると、またリビルドが走る→OSが固まる。

・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう
・なぜリビルドが最後までできないんだよう

HDD、ほぼ新品で、Windows で使っていたときにはフォーマットまで終わったのに。
もう一度 fdisk からやりなおそうかな。



355:login:Penguin
07/10/26 13:10:51 2kfwd15n
>>354
>・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう

これは、そういうもの。
前に何が書かれているか判らないから、最初に一回、
全部のブロックに対して辻褄合わせをする必要がある。

>・なぜリビルドが最後までできないんだよう
こりゃ変だな。
ハードウエアかソフトがどっか壊れてるかも。


356:login:Penguin
07/10/26 22:51:06 2+3v138+
>>351
複雑な構成はトラブルの元だよ。仕事ならなおさら。
自分にしか迷惑かからないんなら別に問題ないけど。
分からなければ引き継ぎとかトラブルシューティングの苦労考えてみるといい。


357:login:Penguin
07/10/26 23:39:11 VCuGyTp8
>>350
rsync同期だと、同期作業中は停止(=他に何もできない)時間になる。
LVMレベルで掃き寄せれば、停止時間は壊れた(ことにした)旧ディスク抜く作業時間だけ。

358:login:Penguin
07/10/27 00:11:21 4ZTrW6oo
-> LVMに加入させ、新ディスクへファイルを掃き寄せる

こんなこと出来たっけ。
lvcreateでpvを指定する?そもそもファイルシステムの拡張は?
lvmあまり解かってないので〜

359:login:Penguin
07/10/27 00:25:02 US/tv6oE
つ pvmove

360:login:Penguin
07/10/27 00:35:04 4ZTrW6oo
理解しました。
ありがとう。

361:login:Penguin
07/10/27 07:28:26 HMAtdp9w
>>354
最初からcleanなアレイ作るよりfail -> resyncする方が速いから嫌なら--force付けろ
ってmanに書いてあるのに読まずにblogとかで騒いでるのたまにいるよね


362:login:Penguin
07/10/27 18:22:59 GzcOi8yc
ところで mdのパフォーマンスってあまり実測乗ってないよね

URLリンク(www.linux.or.jp)
によると
RAID-0 : パフォーマンスは N * P MB/s に近くなります。
RAID-1 : 読み込みのパフォーマンスは N * P に近い値になりますが、書きこみはデバイスが 1 台の場合と同等以下
RAID-5 : 読み書き両方ともにパフォーマンスは向上
などと書いてあって、新たな知見を得たというかなんというか・・・
これはあれか、RAID1の4台構成で、readだけはraid0並で無駄に強固なアレイ、とか作れるのかw

というのはともかく、同時n本のアクセスでどの程度の速度出ますよグラフが見あたらない。
H/Wのボードだとたまに有るんだけど。RAID5の同時5本read程度なら速度落ちない体感はある。
mdでRAID10や5の詳細ベンチ結果落ちてたら教えてください。


# 「RAID-5 のための合理的な chunk-size は 128 KB ですが」とか書いてあって凹んだorz

363:login:Penguin
07/10/27 20:25:18 TpR9h4x8
>>362
RAID1だけど速くならないよ(下はHDD単体)

# hdparm -tT /dev/md0
/dev/md0:
Timing cached reads: 5944 MB in 2.00 seconds = 2975.51 MB/sec
Timing buffered disk reads: 192 MB in 3.01 seconds = 63.84 MB/sec

# hdparm -tT /dev/sdc
/dev/sdc:
Timing cached reads: 5888 MB in 2.00 seconds = 2947.58 MB/sec
Timing buffered disk reads: 196 MB in 3.01 seconds = 65.11 MB/sec

364:321
07/10/27 20:38:03 HbBH9mvu
>>362
たしかに、私もMTUと同じのノリでchunksizeを大きく設定してRAID5組んだら
さっぱり速度が出なくてがっかりした。その後何度か変えてみた。
で、128KBより256KBのほうが、微妙に書き込みが速いと思って、そのまま使っている。

性能条件は、CPU1コアのHT無し環境だと、いろいろ条件は変わるだろうから
CPU負荷を変えながら、テストできるツールがあるといいな。

ベンチマークオフ会やるにはRAID編成に時間かかるもんね。


365:login:Penguin
07/10/27 20:45:42 9wm9rUig
なんか、面白そうね。
俺もちょっとhdparmで速度測定してくる!

366:365
07/10/27 20:52:22 9wm9rUig
# hdparm -tT /dev/md0
Timing cached reads: 2096 MB in 2.00 seconds = 1047.58 MB/sec
Timing buffered disk reads: 318 MB in 3.01 seconds = 105.50 MB/sec

# hdparm -tT /dev/sda
Timing cached reads: 2168 MB in 2.00 seconds = 1084.36 MB/sec
Timing buffered disk reads: 190 MB in 3.01 seconds = 63.03 MB/sec

# hdparm -tT /dev/sdb
Timing cached reads: 2368 MB in 2.00 seconds = 1184.16 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.68 MB/sec

# hdparm -tT /dev/sdc
Timing cached reads: 2348 MB in 2.00 seconds = 1174.73 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.83 MB/sec

# hdparm -tT /dev/sdd
Timing cached reads: 2812 MB in 2.00 seconds = 1406.45 MB/sec
Timing buffered disk reads: 184 MB in 3.00 seconds = 61.26 MB/sec

# hdparm -tT /dev/sde
Timing cached reads: 2076 MB in 2.00 seconds = 1037.62 MB/sec
Timing buffered disk reads: 160 MB in 3.00 seconds = 53.26 MB/sec

# hdparm -tT /dev/sdf
Timing cached reads: 3032 MB in 2.00 seconds = 1516.29 MB/sec
Timing buffered disk reads: 190 MB in 3.03 seconds = 62.69 MB/sec

md0の要素全てに試してみたけど、なぜかsdeだけが遅いぞ・・・?
死兆星が光ってる?

367:362
07/10/28 00:59:50 71qYpNbN
すまぬ、引用が不十分ででした。そして503で書き込めない間に長文化
「Read performance is good, especially if you have multiple readers or seek-intensive workloads.
 The RAID code employs a rather good read-balancing algorithm, that will simply let the disk
 whose heads are closest to the wanted disk position perform the read operation.」
ということで、複数同時readとかrandom readで速くなるよ、ということらしい>RAID1
で、hdparm -T & だとたぶんキャッシュに乗ってしまうと思うし、ddか何かを同時数本走らせるか、rreadするプログラムが必要かもしれない。
計測方法の定番が無いあたりが1つ目の問題のような・・・
chunk sizeや/procのstripe_cache_sizeやqueue/schedulerも実験してみたいんだけど、シーケンシャルreadなベンチじゃ効果が見えんです。

>>364
おお、実験されましたか。
Win系のように(良くも悪くも)デファクトなベンチツールが有るといいんですが。
timeと簡単スクリプトで、と思ったけど意外に難しく断念w
ディスク空き容量がデカければ巨大ファイル作って好きにseek発生出来るんですが、/dev直はなんか怖いっす。
どうなんでしょ、/dev/md0にrreadするだけなんですがどなたか書けますか?

368: ◆Zsh/ladOX.
07/10/28 02:27:22 DiHVZTpi
過去スレでmdのチューニングの話が出てたお

369:321
07/10/28 21:46:34 PihVE9KW
hdbenchクローンはあるんよね。

ただ、コンパイルできない時に、どうしたらいいのか戸惑ったりもする。
今、メインとノートのVine4.1環境にはhdbench入れてあるけど
新造のVine4.0のままのRAID5機ではコンパイルエラーで後回しになってる。

hdbenchのためにファイルサーバー機にXも入れといたのにさ。
GbEごしにhdbenchで見ても、GbEのドライバーがボトルネックの状況だし…


370:login:Penguin
07/10/28 23:11:58 8YMFjw47
hdparm の実行例が、たとえば >>366 にあるが、シーケンシャルリードだけなのかな?

適当にぐぐると、iozone、bonnie++ をみつけたが(そういえば聞いたことがあるな)
妥当かどうかはよくわからない。

371:login:Penguin
07/10/28 23:30:15 PnOUhN2H
方々で見かけるし、bonnie++かなぁ。

うちの宅鯖も測り直したいが、クローラのデータエリアとして
24h稼働中なんでなかなか止められない……

372:362
07/10/30 00:00:50 1HogexSN
ざっと走らせてみたものの

bonnie++
これってFSとかキャッシュ・・・syncなオプションを使えと言うことか。
出力結果がややこい

dbench
クライアントの挙動をsimったプロセス数を指定、みたいな。
dbench NでNに1〜30あたりまで放り込んでみるとRAIDらしさが・・・出てないな。-sS必須か。
何故かシングルドライブの方が速い。わからねえ。Verによって挙動違うし。tbenchはまだ読んでない。

stress
cpu,mem,io,disk等に分けてN fork。でもベンチにならんよねこれ

tiobench
Nスレッドでベーシックなディスクベンチ。これが一番いいかも。問題は使い方がよくわから(ry
LatencyやCPU使用率の一覧比較を出してくれて便利。

その他 apt-cache search benchmark

373:login:Penguin
07/10/30 09:07:47 34EF8s3m
postmarkがおすすめ。
ただディスクベンチではなくファイルシステムベンチマークだけど・・・
同じファイルシステムを使っていれば相互比較はできるはず。

374:login:Penguin
07/10/30 10:05:05 D9D8Yw5C
postmarkはZFS専用。

まぁ同じベンチソフト使っていれば、ファイルシステム間での
比較はできるけどな。
ベンチマークソフトによって特定のファイルシステムで
特別性能がよかったり悪かったりするから、
何をベンチするか考えてから。

375:login:Penguin
07/11/01 12:34:00 7nciWttU
>>366
同一モデルでプラッタ容量違いの外れを引いただけ。

376:login:Penguin
07/11/01 13:12:38 62ZK10ox
>>366
# hdparm -tT /dev/md0
Timing cached reads: 1834 MB in 2.00 seconds = 916.99 MB/sec
Timing buffered disk reads: 400 MB in 3.00 seconds = 133.12 MB/sec
# hdparm -tT /dev/sdb
Timing cached reads: 1834 MB in 2.00 seconds = 916.90 MB/sec
Timing buffered disk reads: 220 MB in 3.01 seconds = 73.18 MB/sec
# hdparm -tT /dev/sdc
Timing cached reads: 1824 MB in 2.00 seconds = 912.33 MB/sec
Timing buffered disk reads: 224 MB in 3.02 seconds = 74.08 MB/sec
# hdparm -tT /dev/sdd
Timing cached reads: 1822 MB in 2.00 seconds = 910.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.34 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1842 MB in 2.00 seconds = 920.98 MB/sec
Timing buffered disk reads: 200 MB in 3.02 seconds = 66.24 MB/sec
# hdparm -tT /dev/sdf
Timing cached reads: 1822 MB in 2.00 seconds = 910.41 MB/sec
Timing buffered disk reads: 216 MB in 3.02 seconds = 71.42 MB/sec
# hdparm -tT /dev/sdg
Timing cached reads: 1820 MB in 2.00 seconds = 909.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.47 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1820 MB in 2.00 seconds = 910.07 MB/sec
Timing buffered disk reads: 222 MB in 3.02 seconds = 73.51 MB/sec

というわけでたまたまじゃない?
もっかいやってみれば?

377:login:Penguin
07/11/01 14:01:44 1iefkY+v
>>366
シングルユーザモードで起動してますよね?
通常だとデーモンとか動いて、20-30%は簡単に変わるので。。。

378:366
07/11/01 18:47:22 Gt+V+zuD
たくさんのレスありがとうです。

たまたまかもしれませんし。
フツーにマルチでやってたんで、今度シングルで試してみます〜。

379:login:Penguin
07/11/02 04:20:45 QaC2YeMr
CentOS5でインストールの段階でmdadmを使用してHDD2台(sda,sdbとして)をRAID1に設定した後に、
片方が破損して取り外したという仮定をして実験をしてみたんですが、
HDD1台(sda)で起動させようとすると「GRUB Hard Disk Error」で止まるorz
もう一台(sdb)だけを繋いで起動すると普通に起動してくるんだけど、何故だろう。
2台繋いだ状態で起動して、sdaに # /sbin/grub-install /dev/sda としても状態変わらず。
接続ポート入れ替えてもダメでした。
パーティション情報や grub.conf も晒した方が良いなら晒します。
誰か分かる方いたらご教示下さい。

380:379
07/11/02 06:02:03 QaC2YeMr
自己解決?
なんとなくGRUBに直接どちらからでも起動できるように書いてやればいい気がしてきた。
今シンク中なので終わったらやってみます。

381:login:Penguin
07/11/02 06:29:50 oty1mOnF
>>381
DOSのブートローダをいれて、
両方のHDDでブートパーティションをアクティブに設定、とか。

382:login:Penguin
07/11/02 11:11:28 7sg8THe2
0x80と認識されるか0x81と認識されるのかでブートコードが違う必要がある

383:379
07/11/02 18:53:15 QaC2YeMr
遅くなりましたが出来ました。
>>381さんの手も良いかなと思ったのですが、以下のような感じでOKでした。

# grub
 grub> root (hd0,0)
 grub> setup (hd0)
 grub> root (hd1,0)
 grub> setup (hd1)

こんな感じでどちらからも起動できるようにしたら一発。
grub-install では、こういう風には入力されないんですね。

384:login:Penguin
07/11/03 02:06:07 toJHQDFC
Linux で 3ware 9550SX-8LP を RAID 5で使ってるんですが、
既に作られてるユニットの容量をCLIで変更する方法をどなたか教えていただけないでしょうか。

現在以下のように 500GB×3 + spare という状態です。

Unit UnitType Status     %Cmpl Stripe Size(GB) Cache AVerify IgnECC
------------------------------------------------------------------------------
u0  RAID-5  OK       -   64K   931.303  ON   OFF   OFF
u1  SPARE   OK       -   -    465.753  -   OFF   -

Port  Status      Unit  Size    Blocks      Serial
---------------------------------------------------------------
p0   OK        u0   465.76 GB  976773168   H8******
p1   OK        -   465.76 GB  976773168   9Q******
p2   OK        u0   465.76 GB  976773168   H8******
p3   OK        u0   465.76 GB  976773168   H8******
p4   OK        u1   465.76 GB  976773168   9Q******
p5   NOT-PRESENT   -   -      -       -
p6   NOT-PRESENT   -   -      -       -
p7   NOT-PRESENT   -   -      -       -

このu0 に使われていない p1を足して p0-3で 500GB×4 + spareにしたいのです。
CLIのマニュアル(P.62)に従って

# tw_cli /c0/u0 migrate type=raid5 disk=0-3

とやってみたのですが、
Error: (CLI:008) Invalid ID specified. Found a specified ID is already in use.
とエラーになってしまいます。
何がまずいのでしょう?

385:login:Penguin
07/11/03 22:23:32 rg+D7DYl
>>384
RAID再構築

386:login:Penguin
07/11/04 04:56:40 QRh/db2g
>>385
URLリンク(japan.3ware.com)
3ware 9550SXの特徴
オンライン容量増設および RAID レベルマイグレーション機能搭載

387:login:Penguin
07/11/04 15:41:59 cbkyEPJh
HDL4-G1.0を買ってルーターに問題なく接続できました。共有はMICROSOFT式にして
XPの方ではドライブを割り当てしました。XPからのコピーや読み取りは問題
なかったです。Linuxでは、Sambaでマウントして、色々試してみたら読み取りでも
コピーでもXPの倍ぐらいになった。1.2Gbぐらいのファイルはなんと8分かかる場合
ありました。50GbのMP3フォルダーはAmarokでスキャンしようとしたら一晩中
やってもおきたら22%しか読めなかったです。

本体のBiosには変な設定あるかな。このハードで経験がある人がいたら
手伝ってください。

388:login:Penguin
07/11/04 17:09:06 eI5sYsvU
これのどこがRAIDの話題なんだ? (もしかしてマルチ?)

389:login:Penguin
07/11/04 17:26:28 cbkyEPJh
ごめん、マルチでないです。
RAID設定が原因になっているかと思って。書き忘れてすみませんでした。
初期設定のRAID5です。そんなに重くならないはずでしょう?
RAIDよりSAMBAだと思うけど、LINUX→RAIDなしのXPへの書き込みは
遅くならないで。

390:321
07/11/05 14:37:32 bQ+V7ACj
うちも、HDL4-G1.0が遅くて、放棄作業中。
その放棄作業(つまり新規PC RAID5 serverへのファイル転送)が
通信途絶頻発で難航しているほど。

Linuxからの接続で、必要な設定変更はあるのかもしれないけど
これといった情報は見つかっていないし、RAID5やっていく上で
(HDD4機の発熱とCPU発熱の比率とか)RAID5 NASに魅力を感じなくなった。

…そっか、見たらLinux板にはSambaスレ無いのな。
UNIX板にあるみたいだから、ヲレも調べてみるか…
あと、HDL4担当のスレはハードウェア板にある。


391:login:Penguin
07/11/05 21:06:17 6eGjWErn
>>387
もう少し整理してわかりやすく書こうや
・何が問題なのか
・何をどうやったら問題が起きたのか
・他に何を試したのか
・その他、主観で気になること

>>390 の状況も加味すると、「窓から投げ捨てろ」で一蹴されるのがオチだぞ


392:384
07/11/07 12:34:29 j1cRifCj
その後の報告。
月曜朝サポートが動き出したところで電話して聞きました。
どうもマニュアルの記述が間違っているようで、RAIDを構成するドライブを全部指定するのではなく、
新たに追加するドライブだけを記述するのが正解らしい。
>>384の場合、tw_cli /c0/u0 migrate type=raid5 disk=1 で桶、と。

実行にどれくらい時間がかかるのか聞いてみたところ「おおよそ1GBあたり1分」との返事。
1.5TBだと1500分……25時間かよっ!!
とゆーことで、月曜夜から実行したら今朝がたようやく終わりました。約28時間。
バックグラウンド動作だからいいんだけど。

393:384
07/11/07 12:36:06 j1cRifCj
さて、無事 1.5TBになったのですが、今度はパーティションを拡張しなけりゃいけません。
Partedを使う予定なのですが、これがどのくらい時間がかかるかご存じの方いらっしゃいませんか?
GParted等でもいいのですが、実際にやったことのある方で、××GB→○○GBのサイズ変更が
約△△時間かかった、など実例を教えて頂けるとありがたいのですが。

パーティションサイズの変更は、当然 unmountしないとできないんで、どれくらいの時間
利用不能になるのか見当をつけておきたいのです。
数時間〜半日程度なら夜間にやれば問題ないけど、丸一日以上とかって話なら代替ドライブを
用意しないといけないので。

くだ質の方で聞いたのだけど、有意な返答を得られませんでした。
こちらの方がこういった処理を経験した方が多そうなので、いささかスレ違いではありますが
よろしくお願いします。

394:login:Penguin
07/11/07 12:55:52 ZtZ/usYi
>>393
だれも普通そんなことしないから、有意な回答なんて得られない。
普通はlvm+xfsで一瞬


395:login:Penguin
07/11/07 13:15:20 RKolPaG2
よく喋るやっちゃ
たいていの場合>>394かmdadmでgrow。どちらも君の構成じゃ使えん。


次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

4318日前に更新/300 KB
担当:undef