RAID総合スレッド No. ..
237:login:Penguin
08/09/03 09:36:58 GOWpJIT8
ソース見ると、こういうことだべ。
2.6.18のraid1.c
* This routine returns the disk from which the requested read should
* be done. There is a per-array 'next expected sequential IO' sector
* number - if this matches on the next IO then we use the last disk.
* There is also a per-disk 'last know head position' sector that is
* maintained from IRQ contexts, both the normal and the resync IO
* completion handlers update this position correctly. If there is no
* perfect sequential match then we pick the disk whose head is closest.
*
* If there are 2 mirrors in the same 2 devices, performance degrades
* because position is mirror, not device based.
*
* The rdev for the device selected will have nr_pending incremented.
*/
static int read_balance(conf_t *conf, r1bio_t *r1_bio)
238:login:Penguin
08/09/03 10:31:37 E4hwRJkf
1ビットだか1バイトずつ交互に読み書きするから読み書き2倍ってのは嘘か
239:login:Penguin
08/09/03 19:50:17 Yeu4fcGq
raid5=raid0<raid1
程度だと思われるが実装によって逆転する。
240:login:Penguin
08/09/03 21:37:57 xUNUra92
>>234-236
裏技と言うほどのことじゃないけど、それを実現したいなら、
mdadm -C /dev/md0 -l 10 -p f2 -n 2 /dev/sda1 /dev/sdb1
こうやって、2 台だけで RAID10 を組んでみたら?
きちんとミラーリングされた上で、読み取り速度は
シングル スレッドでも 2 倍になるよ。
241:login:Penguin
08/09/04 00:12:57 B1PfYM1l
234が想定アクセスパターンを言わないと何の議論もできんと思われ
並列アクセスするプロセス数と、ランダム・シーケンシャルの別、それからリード・ライト比率
242:login:Penguin
08/09/04 00:58:57 UTrxmu/B
>>241
じゃあ極端な例ということで、100MB/sのシーケンシャルI/O性能を持つHDD2台のRAID-1で
1.1プロセス、シーケンシャルリード100%の場合
2.2プロセス、片方シーケンシャルライト、片方シーケンシャルリード100%の場合
この場合に期待できる
a.各プロセス単位でのリード性能(MB/s)
b.計算機全体で達成されるリード性能(MB/s)
はおおよそどうなる?2プロセス時はI/O時間が均等に回ってくるとして。
争点は1aが100MB/sなのか200MB/sなのか、2bが100MB/sなのか
150MB/sなのかということかと思うが。
243:login:Penguin
08/09/04 19:35:51 B1PfYM1l
アクセス単位とかスケジューラでとんでもなく変わるだろうけど、とりあえず計算
つっこみよろしく
1a 並列読み出し (α)27.2MB/s (β)100MB/s (γ)200MB/s 片ディスク読み出し 100MB/s
2b 2.56MB/s
仮定として、
RAID1
7200rpm 平均シークタイム 8ms
noopスケジューラ
ファイルシステムを考えない(メタデータ読み書きがない)
mdドライバのリクエスト振り分けは理想的
リード・ライト対象領域はそれぞれ連続
各プロセスのアクセス単位64KB
1aα アクセス単位ごとに回転待ちが発生する場合
1000ms / (回転待ち 4.17ms + データ読み出し 0.655ms) * 64KB * 2 = 27.2MB/s
1aβ 2つのディスクの回転角が一致している場合には回転待ちは省略できるが、
次の目的セクタに行くまでの回転時間は両ディスク同じなので結局変わらない。
1aγ 2つのディスクの回転角がそのトラックでのアクセス単位分だけずれている場合
リードリクエストが来た瞬間にヘッドが目的セクタ上にあるので回転待ちも省略可能
2b 片ディスク読み出し
書きこみオペが来ると両ディスクが書き込み先までシークする必要がある。
1aβ/γのように回転待ちの省略が期待できないので
1000ms / (読み 0.655ms + シーク8ms + 回転待ち4.17ms + 書き 0.655ms + シーク8ms + 回転待ち4.17ms) / 64KB = 2.56MB/s
244:login:Penguin
08/09/04 19:48:19 B1PfYM1l
すまん、1aβ変なこと書いてる…
1aβ リード完了地点からアクセス単位分だけ先に次の目的セクタがあるので、
回転待ちは最小限で済むが、一方の回転待ち時間=他方の読み出し時間なので結局変わらない。
で。
245:login:Penguin
08/09/04 23:56:09 WdYxWaI1
1TB*4でraid組みたいのですが、raid5にするのと、raid1にするのでは
どちらが生存性が高いでしょうか?
現状では500GB*2でraid1を組んでいます。
246:login:Penguin
08/09/05 02:43:09 /T+bWScm
RAID5は1台の破損まで復旧可能で3TB利用可能
RAID1だと1台の破損まで復旧可能で1TB利用可能なドライブが2つ
確率だけでいえば当然RAID1
RAID10だと1台の破損は復旧可能、2台の破損はミラーしてるペアでなければ復旧可能で2TB利用可能
247:login:Penguin
08/09/05 04:45:32 1sBBnm+4
>>245
RAID5だと再構築時にアレイの他のディスクにアクセスしに行くから
負荷も危険性も上がる。RAID1なら対となるディスクのみアクセス。
243-244だけど、1aαも1aγも実際にはまず起こらないだろうから
1プロセスで同じ領域を読む限り、1aについては100MB/sでFAかと。
248:login:Penguin
08/09/05 04:56:12 GrlZSlCm
FA(笑)
249:245
08/09/05 06:16:01 aZwTzuar
>>246,247
速度は気にしていないので、raid1で組むことにします。
ついでなので1TB*6で3TBにする事にします。
ありがとうございました。
250:login:Penguin
08/09/05 10:34:09 2aSQ8pMt
mysqlのマスターのためにはどんな構成がよいですか?
今は高速回転のディスクでにRAID1にしてます。
251:login:Penguin
08/09/05 13:29:39 1sBBnm+4
そういや3台以上でRAID1組むと3台以上に分散してくれるんだろうか
並列ランダムリード中心ならうまいことレイテンシ隠蔽できそうだけど
252:login:Penguin
08/09/06 16:52:55 mklTZhL5
>>250
メモリ山ほど積んでオンメモリインデックス
それかSSD
253:login:Penguin
08/09/07 01:22:02 AQmY2t2w
>>240
そんなことができるのか。知らんかった。
確かにhdparmでは2倍になってるし、片方のHDDを外してもデータに問題はなかったから、
ミラーリングもされてるみたいね。
RAID10って時点で絶対に4台必要なんだと思って、考えたこともなかったよ。
254:login:Penguin
08/09/07 02:08:53 dwiRmWpQ
2台のRAID10って一体データはどういう風に乗ってるんだ?
255:login:Penguin
08/09/07 02:52:54 AQmY2t2w
>>254
240氏のやり方だと、RAID10ってのはあくまでも名前だけで、
実際は234氏が言ってるような読み込みだけが速いRAID1状態になってる。
書き込みは単体のときと(たぶん)同じ速度。読み込みは約2倍。
で、1台外してもデータには問題なくて、そのときは読み込みも単体と
同じ程度の速度に落ちる、って感じ。
実際のHDDにどうやってデータが書き込まれているのかは、俺にはわからん。
256:login:Penguin
08/09/07 09:00:17 3IVMMvgf
>>255
man md
257:login:Penguin
08/09/09 10:43:41 XWIPazgz
[root@puchiko root]# cat /proc/mdstat
Personalities : [raid5] [raid4] [raid1]
md2 : active raid5 sdc1[3] sdd1[2] sdb1[0]
490223232 blocks level 5, 32k chunk, algorithm 2 [3/2] [U_U]
[>....................] recovery = 0.0% (118528/245111616) finish=275.4min speed=14816K/sec
md1 : active raid1 sde1[2] sda1[0]
199141632 blocks [2/1] [U_]
[>....................] recovery = 0.4% (991424/199141632) finish=123.3min speed=26775K/sec
md3 : active raid5 sdl1[3] sdk1[2] sdj1[1] sdi1[0] sdh1[4] sdg1[6]
2441919680 blocks level 5, 32k chunk, algorithm 2 [6/5] [UUUUU_]
[>....................] recovery = 2.8% (13738880/488383936) finish=421.5min speed=18766K/sec
unused devices: <none>
豪勢にリカバリー中・・・コケないことを祈る
258:login:Penguin
08/09/09 10:53:35 a8VHVsbk
.: + ...:. ..:...:.. :. +
. ..: .. . + .. : .. .
.. + ..:. .. ..
+ :. . +..
. : .. + .. .
.. :.. >>257 ..
. + |: |
|: |
.(二二X二二O
|: | ..:+ ..
∧∧ |: |
/⌒ヽ),_|; |,_,,
_,_,,_,〜(,, );;;;:;:;;;;:::ヽ,、
" "" """""""",, ""/;
"" ,,, """ ""/:;;
"" ,,""""" /;;;::;;
259:login:Penguin
08/09/09 22:05:16 XWIPazgz
終了したよ! sdcが壊れててmd2はRAID1にしたけど。。。
md3はRAID6にするべきではないか考え中。チラ裏スマソ
260:login:Penguin
08/09/10 04:30:01 wQXa/rnK
おつ
261:login:Penguin
08/09/10 21:04:02 6XTL7ehC
いまフツーにRAID1してるんですけど、
単体のSSDに替えたら信頼性はUp?Down?
答えが出ないので教えてください
IntelのSSD良さげですよね
262:login:Penguin
08/09/10 21:23:58 mTxqzEnL
>>261
既存のHDD RAIDをSSD RAIDにしたらどうなるかってこと?
単純にMTBF比較であればHDDが市販のもので60万時間程度、
SSDが200万時間程度なので、信頼性は上がるだろう。
とはいっても確率論だが。
263:261
08/09/10 21:36:09 6XTL7ehC
HDD RAID1→SSD1個非RAIDです。
数字上は信頼性ちょいアップだけど...
何万台も運用するわけではないので運次第ってとこですかね?
264:login:Penguin
08/09/10 22:39:23 mTxqzEnL
>>263
運の要素が大きいだろうな。
HDDだとクラッシュの危険があるし、SSDだと書き込み回数の制限がある
(ある程度は散らしているが確実なものではない)。
265:login:Penguin
08/09/11 13:52:38 t86QBmcU
>>262
> 単純にMTBF比較であればHDDが市販のもので60万時間程度、
> SSDが200万時間程度なので、信頼性は上がるだろう。
あれ?
HDDの方はRAID1なんだから
「60万時間程度」が同時に二つ壊れる可能性との比較になるよね。
HDD RAIDの方が信頼性上なんじゃない?
正確な計算法が分からんけど。
266:login:Penguin
08/09/11 13:54:54 czapuPka
SSDもRAIDじゃないのか?
267:login:Penguin
08/09/11 19:45:48 x4yKwbl5
>>266
>>261を声に出して100回読め
268:266
08/09/11 22:53:18 czapuPka
ごめん、262しか読んでなかったorz
269:login:Penguin
08/09/12 21:58:14 AhnXV+bh
教えてください。
dmraidで作ったRAIDデバイスと、
フツーにLinux上で作ったソフトウェアRAIDって性能は一緒だよね?
dmraidってのは(Intel Matrix Strageみたいな)BIOSで作ったRAID情報を読み取って、
LinuxソフトウェアRAIDを自動的に構成するツールだと考えてるんだが、この理解は正しい?
あとdmraidで構成したRAIDデバイスが壊れたときは、BIOSで修復かけてもいいのでしょうか?
270:login:Penguin
08/09/13 05:43:54 yFc3xM/P
mdとdmraidの性能比較みたいなページがないか検索してみたらいいよ
271:login:Penguin
08/09/13 16:57:51 LK2wbKHe
>>264
フラッシュ寿命問題って、単に代替セクタ機能でカバーできるんじゃないの?
当然書き込み先を散らすといった手立てをした上での話だけど。
同じく疲労するDVD-RAMとかだって似たような対策打ってるんだから、
よほど書き込みアクセスが反復する用途でない限り大丈夫なんじゃないかと。
272:login:Penguin
08/09/13 17:50:12 ch1kjtqk
書き込み分散とかセクタ代替も込みで製品としてのMTBF出してるだろうから
外から見る限り、書き込み分散とかセクタ代替機能は特に考慮しなくても問題ない
…というのが理想なんだけど、
書き込み分散方式とアクセスパターンとの兼ね合いがあるだろうからなあ
273:login:Penguin
08/09/14 16:09:17 aCb6t4HK
>>269
dmraid知らんけど、互換性があるなんて聞いたことないな。
URLリンク(sourceforge.jp)
ここのを読むとプロプライエタリなソフトRAIDに対してのラッパーみたいなもの?
mdadmとはあまり関係なさそうな。
274:login:Penguin
08/09/14 22:01:49 IYFhfqhh
まあラッパーでいいのかな。BIOS(RAIDカードとかの)で切った
RAID構成のパラメータをLinux側に取り込んでそのまま扱えるようにする
わけだから。
こうするとRAID構成の一部はLinux、別の部分はWindowsみたいな
共存ができるけど、そういう部分切り出し利用しないならOS側の
ソフトRAID機能を使った方がいいというのは百万回くらいいわれてる通り。
275:login:Penguin
08/09/14 23:38:16 JSPVgMYR
> 百万回くらいいわれてる
暇なときでいいんで、リストくれ
276:ヒャクマンハウソ、スマソ
08/09/15 11:53:48 a7BuBquH
>>275
リストを出すのは簡単なのだが、2ちゃんのスレはあまりにも
容量が厳しすぎるので勘弁してください mOm
277:login:Penguin
08/09/15 16:04:26 gKAquFIw
>>276
ここに貼り付ける必要なくね。
圧縮してどこかのアップローダに置いて、ここには URL 一行書けばいいよ。
278:login:Penguin
08/09/19 05:28:28 BR3MquqB
>>225-226
サウスのヒートシンクが貧弱なマザーなら、サウスが熱でやられる。
サウスを冷やせ。
側面にファン取り付け穴が二つ開いてるケースなら、下の方だ。
279:login:Penguin
08/09/20 12:32:05 2jxpiAok
HDD RAIDの仕組みがよく分からないのですが、
例えば、RAID1で500GBで組む、
とした場合、
この500GBと組んだ、という情報は
RAIDカードのみが認識することになるんでしょうか?
(HDD自体には特にRAID云々の情報は書き込まれない?)
現在500GBでRAID1組んでいて、1TBに変えたのですが、
ユニット拡張機能がRAIDカードについていないため、
500GBで認識されてます。
この場合、
一旦関係ない1TB載せて、再度RAID1組んで、
(RAIDカードに1TB情報載せて)
関係ない1TBをはずして、500GBと認識されてた1TB HDDを
載せれば、拡張目的果たせるんでしょうか?
ちなみに3wareの8006-2lp使ってます
280:login:Penguin
08/09/20 15:56:49 9fflWZZq
>>279
ふつうはRAIDに関する情報をハードディスクのどこか(ふつうはディスクの先頭などの
固定の場所)に書き込む。そうでないものもあるにはあるが。
ユニット拡張機能とやらが何なのか知らんが、3wareのユーティリティなどで
できるのではないか。
281:279
08/09/20 16:39:03 2jxpiAok
>>280
うわーーー
おっしゃるとおりですね。
試してみましたが、だめでした。
ユニット拡張は、
いわゆるRAIDカードが構築した論理?ドライブを
実際のディスク容量に拡張するものです。
現在はRAID1作成時のディスク容量で実HDD容量ではないので
それを実HDDの容量に補正したいわけですが、
3wareのCLIでは無いよう何です(汗
何か代替方法ないでしょうか・・・。
282:279
08/09/20 19:18:27 2jxpiAok
結局HDDにRAID情報が書き込まれてるんで、
別HDDへ、ddやコピー系でコピーしてもダメポなんですよね・・・
ああ激しく鬱だ orz
283:login:Penguin
08/09/24 10:25:25 NY4tqg7z
mdadm -Aで無理やり起動したら
failed to RUN_ARRAY /dev/md0: Input/output error
これってどういう事……汗
284:login:Penguin
08/09/24 15:31:23 3ffijfuO
コンポーネントデバイスがご臨終
285:login:Penguin
08/09/25 21:02:44 LfvtnWd8
RAID5におけるresyncについて教えてください
debianで構築したGLANTANKにUSB接続で6台のHDDでRAID5を構築していました。
帰宅したところHDDに頻繁にアクセスしているのでtelnet接続したところ、下記のような状況でResync状態にあるようです。
fumifumi@GLANTANK:~$ sudo cat /proc/mdstat
Password:
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid5 sda1[0] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
1562842880 blocks level 5, 64k chunk, algorithm 2 [6/6] [UUUUUU]
[>....................] resync = 4.3% (13630588/312568576) finish=2230.8min speed=2232K/sec
md0 : active raid1 hdb3[1] hda3[0]
77649600 blocks [2/2] [UU]
この状態でmd1のデータは無事に復旧しますでしょうか?
残り一日以上かかりそうですが、完了時にはデータが空っぽにならないか心配です。
ちなみにdfコマンドでは
/dev/md1 1538319916 1457990512 2187260 100% /share/usb
と表示されており、昨日までの使用状況とは変わっていません。(現時点では。。)
/shaer/usbにアクセスしようとしても反応がない状況です。
どんどんデータが開放されているのでしょうか?
力量不足で情けないですが、このまま待つのがよいのか?データは保持されるのか?
アドバイス・ご教示お願いします。
ps.resyncとrebuildはちがいますよね?
286:login:Penguin
08/09/25 22:29:45 hqNskNnF
((((´д'))))
287: ◆Zsh/ladOX.
08/09/25 23:03:20 uxBh3s9z
待つしかない。
(rsync中も遅いだけで使えた稀ガス)
反応が無いって
cd /share/usb
しても
・cdが成功しない
・cdはできるがその後lsとかでコマンドの反応が無い
ってこと?
288:login:Penguin
08/09/25 23:43:29 LfvtnWd8
>>287
早速のレスありがとうございます。
cd /share/usbに反応しませんでした。
プロンプトに戻ってこなかったです。
先の書き込みをした後は
sudo cat /proc/mdstat
にて状況を見ていたのですが、先ほど急にtelnetが切断して接続不能になりました。
#resync中でも再起動可能とのことだったのでsudo reboot等試みましたが、リブートはしませんでした。
それ以外はmdstatしたりdfして状況を見てました。
telnet接続できない現在でも、USB接続のHDDには相変わらずアクセスし続けているので、引き続きresyncは実行されているようですが、pingも利かない状態におちいってます。
GLANTANKのパワー不足?かもしれません。
繰り返しで申し訳ないですが、データは無事と思ってよいでしょうか?
その他書き込みした事項以外で確認すべきことがあればアドバイスください。
返答よろしくお願いします。
敬具
289: ◆Zsh/ladOX.
08/09/26 00:02:45 uxBh3s9z
>>288
まず、データは無事です。
> GLANTANKのパワー不足?かもしれません。
現状はこれかな。
最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
そのPCにHDDを6台接続してresyncした方が良い鴨
(USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)
290: ◆Zsh/ladOX.
08/09/26 00:11:25 D+db+I6m
あーでも今GRANTANKシャットダウンできないのか。
電源ボタンぽちしてシャットダウンしたりするのかなぁ。
どうすっぺねぇ
291:login:Penguin
08/09/26 00:19:03 7oAA51Rx
>>289
> まず、データは無事です。
ありがとうございます。気長に待つことにします。
先の書き込みでお分かりのように大事なデータや怪しいデータなどなど目いっぱい詰め込んで快適につかっていたのですが、初トラブルで、心配です。
希望が出てきたので、おとなしく観測します
#容量いっぱいなので、入れ替えながらかつかつ運用です。。
> > GLANTANKのパワー不足?かもしれません。
> 現状はこれかな。
やはりそうでしょうか。外部アクセスを拒絶してしまってます。
先ほどまでworkhroupにいたGLANTANKがいなくなってますし、resyncに専念してしまっているのかな?
なんとかがんばってくれぇ>SH
#感情的で申し訳ないです。こういう時ほど落ち着いて対処ですよね
> 最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
> そのPCにHDDを6台接続してresyncした方が良い鴨
いまさらこのようなことが可能なのでしょうか?
リブートできない状況ではリスクが大きいかと。。
どちらにしてもLinuxな環境がないので乗り換えは厳しいです。
> (USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)
説明不足ですいません。
6台はい〜るに6台のHDDを詰め込んでますので使用UBSポートは1つで大丈夫です。
#それにしてもなぜ?このような状態に。。。
有益なアドバイスいただきありがとうございました。
何か思いつかれたら、また返答いただければ幸いです。
敬具
292: ◆Zsh/ladOX.
08/09/26 00:35:12 D+db+I6m
> どちらにしてもLinuxな環境がないので乗り換えは厳しいです。
CDブートのlinuxを使えば良い。
が、どっちにしろgrantankを上手く落とせた場合の話になってしまうけど
ではもう寝るので健闘を祈ります。
293:login:Penguin
08/09/26 00:52:55 7oAA51Rx
>>292
いろいろお世話になりました。
とりあえず現状のまま様子をみます。
夜遅くまでお付き合いいただきありがとうございました。
敬具
294:login:Penguin
08/09/26 11:36:30 UHMIOaKO
>>293
resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
WD10EACS-D6B0 x 4でRAID5を使ってるけど、80MB/secから最終的に40MB/secに落ちる程度の速度は出るよ。
どれかのHDDが壊れかけで足引っ張ってたりするんじゃないかと想像するんだけど。
dmesgとかsmartを確認した方が良さそう。
あと、あんまりかつかつまで使わない方が良いと思うよ。
環境依存かもしれないけど、2.7TB中50GB程度空きになった状態で何度かフリーズを経験してて、
空きが結構ある状態では一度もフリーズしてない。
(OS:Fedora9、FS:XFS)
295:login:Penguin
08/09/26 20:14:20 7oAA51Rx
>>294
> resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
よく覚えてませんが、たぶん構築時もこんなものだったような??
> dmesgとかsmartを確認した方が良さそう。
寄せ集めの320GB-IDEをUSB接続なのでこんなものかと。。
いただいた情報をヒントに調べてみます。
> あと、あんまりかつかつまで使わない方が良いと思うよ。
余裕を持ちたいのは山々ですが。。いろいろ詰め込んじゃうんですよね。
どこもかしこもかつかつで。。貧乏性で消せない性格がいけませんね。
速度よりも容量重視でこうなっちゃいました。。
296:login:Penguin
08/10/05 10:49:30 Ze8uaqdI
/proc/mdstatがcheckになるのは、なぜですか?
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : active raid6 sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0]
2930279808 blocks level 6, 64k chunk, algorithm 2 [5/5] [UUUUU]
[>....................] check = 0.7% (7653376/976759936) finish=3794.0min speed=4256K/sec
/var/log/messages
Oct 5 01:06:01 host kernel: md: data-check of RAID array md1
Oct 5 01:06:01 host kernel: md: minimum _guaranteed_ speed: 1000 KB/sec/disk.Oct 5 01:06:01 host kernel: md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for data-check.
Oct 5 01:06:01 host kernel: md: using 128k window, over a total of 976759936 blocks.
md0についても同じメッセージが出ています。
ファイルシステムは、md0, md1ともにXFSです。
1時6分から何かが始まっていますが、cron.dailyは6時25分に設定されているので
cronによって起動された何かが原因ではありません。
OSを再起動したとか、ホットスワップしたタイミングでもありません。
OS: Debian GNU/Linux 4.1(etch)
カーネル: 2.6.26.5へ入れ替え
です。
297:login:Penguin
08/10/05 13:12:24 rOZmgU0Y
/etc/cron.d/mdadm じゃね?
298:296
08/10/05 14:55:41 Ze8uaqdI
おっしゃるとおりです。
6 1 * * 0 root [ -x /usr/share/mdadm/checkarray ] && [ $(date +\%d) -le 7 ] && /
usr/share/mdadm/checkarray --cron --all --quiet
となってました。
どうもありがとうございました。
299:login:Penguin
08/10/11 18:12:33 ZuxskNzz
SATAのHDDが10個ぐらいのRAID組みたいのだが
一番安く済む方法教えてほしい
300:login:Penguin
08/10/11 20:12:37 0pLPQ9Sw
普通はエントリーモデル買って100万円ぐらいじゃない?
301:login:Penguin
08/10/11 23:40:03 qfaubBp2
>>300
80 万くらいの差額はどうするべ?
302:login:Penguin
08/10/12 00:04:53 0pLPQ9Sw
80万円の差額ってなぁに?
たしかにボッてるとおもうけど
冗長性のあるコントローラや電源だと
このくらいするかなと思います
そもそも家庭向けだとスロット数が4つぐらいだよ
303:login:Penguin
08/10/12 00:07:47 MFK5+p1z
冗長性云々必要なの?
> SATAのHDDが10個ぐらいのRAID組みたいのだが
としか書かれてないよ。
304: ◆Zsh/ladOX.
08/10/12 00:16:53 BnTxnZIJ
サウスにSB700とかSB750とかICH9とかICH10のマザー
+
クロシコSATA2I2-PCIeを2個使う
ってところか。
HDDはお好きなのでどうぞ。
305:login:Penguin
08/10/14 16:22:59 NijeoAer
最近Supermicroのベアボーンが、実はかなりコストパフォーマンスが高いことに気付いた。
SOHO向けのファイルサーバ用途なんかだと、かなりいい感じだと思う。
バラでパーツ集めるより安心確実安上がり。
306:login:Penguin
08/10/15 01:00:02 MFbQNNJJ
もしドライブベイ4つあるサーバーあったら
@SASでraid1+0
ASASでraid6
BSATAでraid1+0
CSATAでraid6
のうちどれが良いと思います?
速度、コスト、耐障害、障害時復旧等
それぞれの面から教えてください。
307:login:Penguin
08/10/15 02:07:17 ZK7oP6Ef
>>306
シーケンシャルなら24
ランダムなら13
コストなら34
耐障害なら24
ディスク負荷高い場合は障害復旧での負荷13
308:login:Penguin
08/10/17 23:47:36 yE7dhqMk
>>306
これ見て思い出したんだけど
RAID1+0ってRAID0+1って言うのもあったんだね
1+0のほうが耐障害で0+1が速度だっけ?
309:login:Penguin
08/10/18 03:28:34 CvVG09ig
>>308
その2種類の動作は呼び方が定義されていない
普通採用される方式は
RAID0の各HDDがミラーリングされている方式
もう一つは信頼性ガタ落ちの
RAID0をミラーリングした方式
速度はどっちも同じ(リトライ処理とか考えると異なるかもしれんが)
310:login:Penguin
08/10/22 23:03:41 OER6wkY9
>>308
ミラーリングボリュームのストライピングか
ストライピングボリュームのミラーリングか、だね
ストライプサイズ近辺のアクセス粒度だと、シークとアクセス振り分けの関係で
性能特性が微妙に違ってきそうな感じ。分かるような違いは出ないと思うけど…
ちなみにmdのRAID10はさらに別物
311:login:Penguin
08/10/25 23:44:02 WFYSKaa5
mdadmでRAID1を組んでext3でフォーマットしました。
別のext3のディスクからディレクトリを
cp -a
でコピーし、
du
で見たところディレクトリ全体の容量が微妙に違います。
ですが、ディレクトリ内の各ファイルの容量はそれぞれ一致しています。
これは、ジャーナリングのメタデータの容量が違うから、ですか?
それとも、RAIDに起因するものですか?
312:login:Penguin
08/10/26 01:23:25 Z2w8/cR8
その「微妙」というのが何KBなのか何MBなのか、そしてどっちが多いのか
エスパーじゃない俺には全然わからないけど
単にディレクトリエントリの消去済み領域の分だったりしないかね。
313:login:Penguin
08/10/26 02:35:57 J0AWp7Ql
コピー元と先のそれぞれ上の階層で
ls -l すると 4096B だけコピー先のディレクトリが小さいので、
おっしゃる通りですね。勉強になりました。
314:login:Penguin
08/10/28 15:40:50 OkmvC/aL
3wareの9500Sで700GB*8のRAID5を構築したのですが、
ファイルシステムが上手く作れなくて大変困っております。
使用しているのはFedora Core 7です。
# parted /dev/sdb
GNU Parted 1.8.6
Using /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Number Start End Size Type File system Flags
(parted) mkpart primary ext2 0 -0
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Number Start End Size Type File system Flags
1 512B 852GB 852GB primary ext2
となって、5250GBと表示されているのに、パーティションを作ろうとすると
852GBのパーティションしかできません。
RAIDの最初期化なども行ってみたのですが症状は変わりませんでした・・
どなたか、アドバイスを下さいませんでしょうか?
315:login:Penguin
08/10/28 16:02:30 7kZ3n49D
> Partition Table: msdos
なあ、DOSパーティションテーブルで扱えるサイズに上限があるの知ってる?
316:314
08/10/28 16:11:53 OkmvC/aL
できました!大変ありがとうございました。
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 17.4kB 5250GB 5250GB primary
317:login:Penguin
08/10/28 17:16:12 XbLUcb3e
え〜っと
ネタ……だよね?
318:login:Penguin
08/10/28 17:29:33 XbLUcb3e
しかし、ドライブが普通にTBクラスになってくると
それまで遭遇したことのない状況に直面することも多そうだな。
1TB 1万円の時代がこんなに早くやって来ようとは…
319:login:Penguin
08/11/02 00:36:09 36V/uKQX
すまんが教えてくれ。
500GBx4(RAID5)を構成してたうちの1台が故障したんで、容量アップもかねて
1TBx3(RAID5)に変更した。
データ移行は全HDDを同時に搭載して、md0(500GBx4)とmd1(1TBx3)を作成して
コピーした。
500GBx4を取り外して1TBx3だけにしたんだが、再起動後もmd0じゃなくmd1として
認識される。
今までデバイス名はmd0を使っていたんで、これからもそうしようと思ってたんだが。
CentOS5を使ってるんだが、これをmd0に直すことは出来ないか?
困ってるというほどじゃないんだけど、気持ち悪くて・・・orz
320:login:Penguin
08/11/02 01:09:58 n6/w/1q1
>>319
私も現在稼働中のRAIDの容量アップを狙ってましてその件について気になります。
憶測ですが、
/etc/mdadm/mdadm.conf
/etc/fstab
/boot/grub/menu.lst
の3つを編集すればmd1をmd0にできるかもしれません。
mdadm.confをいじったらmdadmコマンドを実行しないといけないかもしれません。
RAID初心者なのであまり信用しないでください。
判断の材料になればと思いまして書かさせていただきました。
くれぐれもいきなりファイルを書き換えたりせず調べてから行ってくださいね。
321:login:Penguin
08/11/02 01:29:20 36V/uKQX
>>320
レスありがとう。
/etc/mdadm/mdadm.conf
→今までmd0だったのをコメントアウトし、md1として記載していたのをmd0に書き換えた。
/etc/fstab
→md0でマウントして欲しかったので、記載は変更せず。
/boot/grub/menu.lst
→ルートパーティションもカーネル置き場もRAIDの対象外にしてあるので、変更せず。
この状態で、1TBx3(RAID5)がmd1で、md0にはデバイスが何も割り当てられていない。
仕方ないので今は、/etc/fstabを修正し(md0→md1)で動作させてる。
何をすれば直るんだろう・・・
322:login:Penguin
08/11/02 04:27:52 yzuijVl/
>>319
mdボリューム自体に書き込まれてる番号を見てるんで
superblock弄らないと直せない
やめておいたほうがいい
323:login:Penguin
08/11/02 08:56:30 36V/uKQX
>>322
ああ、そうなんだ・・・
わかった。ありがとう。
あきらめることにするよ
324:login:Penguin
08/11/07 08:51:39 1rUaDWwq
アロハですべて解決だお田口くん^^
325:login:Penguin
08/11/08 20:24:12 dUpxLcHs
アロハ田口君、使えないRAID・使えないクソ板というならここにはこないでくれ!
326:login:Penguin
08/11/08 22:09:50 1FtiGeqJ
md raid1なデバイスが開始しなくなったのですが、
縮退も何もしていないようなので原因が掴めずにいます。
再構成すれば正常に復帰することは確認していますが、
どのような原因でこの状況になり、どのような対応をするべきなのか、
勉強のために助言をいただければ大変ありがたいのですが。
# cat /proc/mdstat
md1 : inactive sdb1[0] sda1[1]
12345678 blocks super 1.0
# mdadm --detail /dev/md1
/dev/md1:
Raid Level : raid1
Raid Devices : 2
Total Devices : 2
Preferrer Minor : 2
Persistence : Superblock is persistent
State : active, Not started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
# mdadm --examine /dev/sd[ab]1
/dev/sda1
State : clean
Checksum : 1234abcd - correct
Events : 4
/dev/sdb1
State : active
Checksum : 56789abc - correct
Events : 5
327:login:Penguin
08/11/08 22:30:16 vwNnhBNG
>>326
raid1ドライバは起動時にロードされてる?
パーティションタイプの設定は間違ってない?
328:326
08/11/08 22:39:01 1FtiGeqJ
>>327
全く同様に作成した複数のRAID1デバイスがありますが、このデバイスのみ開始しません。
ちなみにパーティションは/としてマウントされる設定になっています。
329:326
08/11/08 23:01:02 1FtiGeqJ
昨日までは問題なく機能していたのですが、一体何が原因なのやら。
念のため、パーティションテーブルとmdadm.confも
バックアップと比較してみましたが、完全に一致しています。
330:login:Penguin
08/11/08 23:12:58 vwNnhBNG
ルートってのが怪しい気も・・・
# dmesg | grep md
とか
331:326
08/11/08 23:42:00 1FtiGeqJ
>>330
# cat /var/log/boot.msg | grep_wetware md
mdadm: /dev/md0 has been started with 2 drives.
mdadm: failed to RUN_ARRAY /dev/md1: Input/output error
mdadm: /dev/md2 has been started with 2 drives.
mdadm: No arrays found in config file
このシステムは普通のinitrdだと起動しないので、
今Knoppixを改造する方法を調べていますが、メディアがないという・・・。
332:326
08/11/09 00:02:30 1FtiGeqJ
システム自体は自動復旧できるので、あまり困ってはいませんが、
復旧スクリプトはOSをカスタムクリーンインストールするだけなので、
原因究明に必要そうなデータは全部消えてしまいます。
全く関係ありませんが、M/BのRAID機能(Fake RAID)には
SB等のオンチップなもの、別途チップを搭載したオンボードなものがあります。
後者の場合、搭載チップが大手デベロッパのもの(Silicom Imageとか)なら、
全く同じチップを搭載したRAIDカードが簡単に手に入ります。
「Fake RAIDを使いたいが、拡張カードに余裕がない。しかしオンチップでは不安」
という場合にはそのようなM/Bを選ぶのもいいかもしれません。
また、PATA・SATAなどが搭載されているものでも、似た型番のファームウェアで(略
他のOSと共用しないのであれば、LinuxでFake RAIDを選ぶ理由はそうないと思いますが。
333:326
08/11/09 21:20:22 DGt7Zimz
どうも最近のカーネルで同じような現象が出るようです。
いくつかのフォーラムで話題に上っていましたが、いずれも原因は不明でした。
大きな実害はない(RAIDでシステムが起動しなくなるのは実害ですが)ため、
週末も終わりますので、このあたりで調査を打ちきりたいと思います。
付き合ってくださった方、ありがとうございました。
334:326
08/11/09 21:47:37 DGt7Zimz
同様の現象に遭遇された場合は、RAIDを構成し直すことでデータロスなく復旧できます。
私の環境では復旧作業はメンテナンスモードで完結しましたが、
カスタムinitrdなので、他の環境ではレスキューCDやLive CDが必要かもしれません。
復旧するには、RAIDを再構成し、必要であれば適当に同期します。
UUIDが変化している場合は、UUIDを元に戻すか、mdadm.confに反映してください。
# ルートをRAID構成にしているような方は理解していると思いますが、
# /boot/initrd/etc/mdadm.confです。念のため。
私の環境ではinternal bitmapが正しく認識されませんでした。
このあたり詳しくないので分からないのですが、作り直してやれば問題なく動くようです。
一応、エラーなくブートすることは確認していますが、
結局初期化してしまったため、正常に運用できることは確認していません。
また、この現象は再現性があるようなので、再び発現するかもしれません。
カーネルを大体2008年上半期のものに戻せば、再発しなくなる"らしい"ですが。
335:login:Penguin
08/11/14 17:41:14 SvkwSzc6
うちは64bit Ubuntu環境だが、書き込み負荷が大きいとRAIDが応答しなくなる。
非RAIDのシステムディスクも巻き込んで書き込めなくなっているらしく、
Fxの設定なんかが戻ってる。シャットダウンも途中でバスエラーで止まるし。
対処法は >>334 に同じ。
P35のサウスが腐ってるのか、ドライバが腐ってるのか。
なんでやー
336:login:Penguin
08/11/22 20:07:08 Jtc1qcI2
CentOSでSATAのHDDをミラーリングしたいのだが
ハードウェアRAIDで2台を接続できるやつでお勧めありませんか?
そんなに高性能でなくて構いません
337:login:Penguin
08/11/22 20:32:30 eQKAaNGp
べつにソフトウェアでやればよくね
338:login:Penguin
08/11/22 20:42:46 pwVAVQnO
個人的にはLinuxと言えば3wareのイメージが強い
339:login:Penguin
08/11/23 10:20:29 NMmGdMk5
沖縄に外国人3000万人受け入れ計画
URLリンク(life.bbs.thebbs.jp)
こんな法案が可決したら日本は破綻する
(ちなみに東京の人口は1280万人)
選挙権がある方は良く考えて投票してください
340:login:Penguin
08/11/23 14:17:08 xbEoWaWj
まず物資の輸送が不可能
餓死させるのが計画のうちなら知らんが。
>>337
ブートローダのメンテが若干面倒だから、そのあたりを嫌うなら
透過的に扱えるHW-RAIDの方が良いかも。
341:login:Penguin
08/11/24 13:53:42 nIHbOfOU
3ware Escalade 9500S-4LP
adaptec Serial ATA RAID 2410SA
どっちを買おうか悩んでます
ハードウェアRAIDの方がよいらしいのですが
どうやって見分けるかがわかりません。
エロい人教えてください
342:login:Penguin
08/11/24 14:17:15 gPfZJ3UU
>>341
PC外付けタイプならまず確実にハードウェアRAID。
その2つもハードウェアだと思うけど。
Adaptecの方はややスペックが落ちるから3wareでいいんじゃ?
(使ったことないし、ぷらっとオンラインの説明見て書いてるだけだけど)
343:login:Penguin
08/11/24 16:16:07 hCv1ixFI
質問です。
現在CentOS5のmdadmを使用してRAID5構築しています。
これをRAID6に変換したくてGoogle先生に聞いたのですがサイト見つかりませんでした。
@可能なのか?
A検索するキーワード、もしくはお勧めのサイト
をご教示いただけると幸いです。
344:login:Penguin
08/11/24 16:45:51 VO9j9Wmt
知る範囲ではフルバックアップ+リストアしかないと思われ
最新のmdadmは知らないから、サイト見つけてman読んでくれ
345:login:Penguin
08/11/24 21:36:30 GzuV7Usu
高価なストレージでもRAIDレベル変換は命がけだよ
なにしろメモリ上にしかデータがない瞬間があるからね
346:login:Penguin
08/11/24 22:24:15 l3Kl+Jqd
>>343
可能だったとしても君には無理だと思うよ。
347:login:Penguin
08/11/25 00:09:58 dBliCIAC
>>343
>>107-111
348:login:Penguin
08/11/25 00:11:10 dBliCIAC
IDにCIA… ガタガタブルブル(違
349:login:Penguin
08/11/29 22:26:04 jRDp7xVJ
RAID構築してた二つのHDDを
普通に使用しようとしてフォーマットしたら
エラーでフォーマットできないんだが
どうすればいいのでしょうか?
DESTROYで完全消去しようとしても
エラーで消去できません(泣
350:login:Penguin
08/11/29 22:44:47 jRDp7xVJ
ローレベルフォーマットも無理だった・・・orz
俺の知識じゃなんともならん・・・
誰か助けてください。
351:login:Penguin
08/11/29 23:01:17 vVaLqDtx
>>350
もしかしてRocetRaid?
HDDの設定値書き換えるらしいので他環境では使えなくなるらしいよ。
352:login:Penguin
08/11/30 02:12:02 oiqzRYao
adaptec 1210SA っていうやつなんだけど・・・
353:login:Penguin
08/11/30 02:12:49 oiqzRYao
途中で書き込んだかも
adaptec 1210SA っていうやつなんだけど・・・
RocketRAIDでは違うようです。
354:login:Penguin
08/11/30 02:46:09 pP7UJGw1
>>349
どうしても他の方法が駄目なら試してみて。
もう一度、同じRAIDを構築する。
それからRAIDのレベルを1にして再構築。
そしてバラしてから一個づつフォーマット。
355:login:Penguin
08/11/30 03:27:32 oiqzRYao
>>354
RAID1を構築しようとすると
開始直後から固まって動いてくれないです
356:login:Penguin
08/11/30 05:07:23 pP7UJGw1
>>355
最初のレベルは何?
最初RAID 0なら、同じようにRAID 0で構築しないといけないよ。
それで問題ないなら、次にRAID1で再構築。
同じカードなら、これができないはずはないと思うけど。
もちろんOSは別のHDDだよね。
後は、プロンプト開いてfixmbrしてみるしかないかな?
使い方はググってくれ。
357:login:Penguin
08/11/30 06:13:18 I/61r+v7
ふつーに物理的に壊れたんじゃんないの
358:login:Penguin
08/11/30 12:40:13 oiqzRYao
>>356
OSは同じHDDですorz
まだ購入して一週間ぐらいしか経過していないんだが・・・汗
359:login:Penguin
08/11/30 14:28:11 lQ5yOOgC
この書き方だと導入時のHDDテストもしてないっぽいな
360:login:Penguin
08/11/30 14:41:41 oiqzRYao
powermaxっていうツールで
Advanced Test (Full Scan Test) っていうテストぐらいしかしてないです
361:login:Penguin
08/11/30 17:06:27 lQ5yOOgC
んー、それならテストとして最低ラインはクリアか
フォーマットが無理ならddで全領域ゼロうめとか
# dd if=/dev/zero of=/dev/sdX bs=1M
LBAで見える以外の領域に何かされてたらこれじゃ解決しない
どのレベルでどんな問題が起こってるのかきちんと書かれてないな
RAIDカードのBIOSなのか、OSレベルなのか、ローレベルフォーマットって
いうならメーカ製ツールなのか。半ばエスパー質問化してる
362:login:Penguin
08/12/09 23:45:42 cEZNK+Gg
長文失礼します、
DELL ワークステーション 450GB 15000回転×4枚 検討中ですが
SAS RAID5 か SAS RAID10でヒジョーに悩んでおります・・
一般論では RADID5のほうが良くない(書き込み遅い・2枚壊れたらアウト)
と言われます。
が、DELLに言わせれば それは主にSATAの話であって、
SAS RAID5 の場合 PERC 6 SASコンが演算する?ので
書き込み速度もそれほど遅くならないし、HDDが同時に2枚壊れるなんて
ほとんど有り得ないから大丈夫との回答・・
もし本当なら やはり作業領域の広い RAID5にしたい気持ちですが、
それを押し切ってでも あえてRAID10にする決定的なメリットを
ご存知のかた いませんでしょうか?
(RAID10の速さ・安心感も捨てがたいのも事実です)
363:login:Penguin
08/12/09 23:59:13 3GSXNjdZ
>>362
PERC 6 SASコンの演算性能を確認してからでもよくない?
>HDDが同時に2枚壊れるなんて
>ほとんど有り得ないから大丈夫との回答
逝ったらデータ保証してくれるのか、って言ってみたいね。
多分なーんにも考えずに言ってるだろうから。
364:login:Penguin
08/12/10 00:13:28 wgpxAUYw
RAID10だったとしてもデータ保証は無いし、そもそもRAIDの守備範囲じゃない
何にも考えてなさそうなのは同意だが
365:login:Penguin
08/12/10 00:31:00 OPHXMwCC
>>363
早速のアドバイス有難うございます。
RAID5特有の データとパリティ情報を分散して記録する手間ってヤツですよね
今回の場合、
RAID5→作業可能領域:1350GB バックUP領域:450GB
読み速度:○ 書き速度:△ 故障時復旧:2枚逝ったらアウト
RAID10→作業可能領域:900GB バックUP領域:900GB
読み速度:◎ 書き速度:◎ 故障時復旧:3枚逝ったらアウト
といったところでしょうが HDDの壊れ具合やHDD作業領域の大きさ等、
未体験ゆえ 何かに例えようもなく、
さて どうしたもんかという感じでざいます・・
366:login:Penguin
08/12/10 00:34:11 4CJ8G9lA
>>365
RAID10は組み合わせによっちゃHDD2二つ死んでもアウトじゃないか?
367:login:Penguin
08/12/10 00:36:52 OPHXMwCC
>>366
すみません まだあまり詳しくはないですが
0+1 と 1+0 の違いということでしょうか?
368:login:Penguin
08/12/10 00:42:14 4CJ8G9lA
>>367
URLリンク(itpro.nikkeibp.co.jp)
の後半部分
369:login:Penguin
08/12/10 00:48:16 wgpxAUYw
>>365
データ守りたいの?可用性を上げたいの?
データを守りたいだけならRAIDは無意味だから
JBOD2つ作ってバックアップしなさい
370:login:Penguin
08/12/10 01:04:08 OPHXMwCC
>>368 わかりやすいページでした、有難う御座います
この場合 当然1+0ですね
>>369 以下のような説明文を見つけたのですが
そう簡単に一安心というのも なかなか難しいものですねw
実際、JBODは複数のディスクを単に1つにまとめて
大容量の単一ディスクに見せかけるだけの技術だ。
パリティなど冗長コードの仕組みはなく、
耐障害性は向上するどころか悪くなる。
冗長性がないという点で JBODはRAID 0とよく似ている。
しかし、RAID 0が複数のディスクを並行して読み書きすることで性能を高めているのに対し、
JBODでは基本的に1台ずつ読み書きされるので性能は向上しない。
371:login:Penguin
08/12/10 01:20:23 OPHXMwCC
やはり どちらにしてもバックUPは欠かせないように思いました。
・作業領域重視なら まめにバックUPをとりつつ RAID5
・作業速度重視なら たまにバックUPをとりつつ RAID10
という2つの選択理由で最終的な悩みに突入してみます。
結局は 作業領域450GBの差・互いの体感速度差 が
なかなか想像できないという悩みなワケですが・・
372:login:Penguin
08/12/10 01:34:19 Ual94Maq
書き込みの早さは、
RAID10 > 5 > 6
の認識であってますか?
373:login:Penguin
08/12/10 01:36:45 4CJ8G9lA
レイテンシは逆に増えるからね、
よほど大容量データを転送しない限り体感できないに一票
RAIDは間違ってデータ消したとか、
ウイルスがデータ壊したとか、
ソフトウエアの問題から起きるデータ消滅には無力。
HDDが故障する確率と間違ってデータ消す確率、
どちらが高いかを考えるとバックアップの重要性に気づくはず。
374:login:Penguin
08/12/10 02:01:36 OPHXMwCC
しかし 最もポピュラー且つ 全てのバランスがとれているのはRAID5だ
という意見もあるしな〜 聞けば聞くほど迷ってしまうところです
375:login:Penguin
08/12/12 16:45:01 n9kgBBfI
>>370
JBODって何のためにあるのか分からんよな・・・
障害発生しても別にいいやってスタンス(例えば2ch鯖w)で使うもんなんかな?
376:login:Penguin
08/12/12 19:38:52 IRfMgGF6
昔のドライブあたりの容量が小さかった時代には
有効な手段だったんだよ。
今となっては無価値だが。
377:login:Penguin
08/12/12 20:46:10 uz8EwwXm
全然分かってないな…。
メリットはドライブごとのアクセス並列化。
XFSみたいな、ファイルシステム内で複数のアロケーション単位に
分散して使っていくファイルシステムと組み合わせて、
並列入出力のアクセス時間を隠蔽する。
RAID1+0だと、アクセス単位がストライプ単位より大きい場合は
並列入出力が事実上不可能。
378:login:Penguin
08/12/12 20:51:14 7DMsWCHl
J(ust)BOD
379:login:Penguin
08/12/15 20:30:18 cQdvEHh1
>>377
まじか
したら>>370の説明は間違いってことじゃん
つーことは、RAID0と違って、JBOD中の1台が死んでも全体が死ぬわけじゃない?
380:login:Penguin
08/12/16 05:33:07 habB3SiC
>>379
1台死亡でボリュームが死ぬのは一緒。RAID0だと領域が櫛状に死亡するから、
完全な形で救出できるファイルが極端に少なくなるけど。
381:login:Penguin
08/12/16 12:40:23 V99gDv+F
JBODの実装次第なんじゃないの?
例えばどのハードウェアRAIDでも必ず >>377,380 と言える
保証はどこにもないと思う。
382:login:Penguin
08/12/16 14:57:27 habB3SiC
何当たり前の事を……。
370も377も必ずその動作になるとは言っていないぞ?
380もそりゃ実装次第だが、RAID0を名乗る以上実装はストライピングだろうし、
JBODを名乗るなら領域連結だろう
383:login:Penguin
08/12/16 17:00:56 KlJRATvp
小学生の口ゲンカみてーだな
> 「必ず」とは言ってない
そんなこといつ言った?
何時何分何秒だ?
とか続きそうw
384:login:Penguin
08/12/16 17:15:15 O0nTK2wv
>>383
そうなの?死ぬの?
385:login:Penguin
08/12/16 18:47:07 MbHpuTDI
よく分からなくなってきた
RAIDだとJBODのような並列入出力はできないわけ?
386:login:Penguin
08/12/16 23:29:57 habB3SiC
JBODだろうがRAIDだろうが並列入出力できるかは実装次第。
RAID0系(5/6含む)はほぼ不可能というかできても実用的じゃない。
387:login:Penguin
08/12/17 10:12:16 mORUj6fC
並列入出力って、
RAIDよりもNCQとかその辺の仕事では?
388:login:Penguin
08/12/17 12:42:06 lUpz3ShW
ここまでの話の要約
JBODとRAID0のメリット・デメリットは実装次第で、
絶対的な話として、どちらがどうとは言えない
次ページ最新レス表示スレッドの検索類似スレ一覧話題のニュースおまかせリスト▼オプションを表示暇つぶし2ch
5047日前に更新/284 KB
担当:undef