[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 2chのread.cgiへ]
Update time : 03/27 04:33 / Filesize : 284 KB / Number-of Response : 945
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

RAID総合スレッド No.4



1 名前:login:Penguin mailto:sage [2008/04/15(火) 21:49:14 ID:Ve/x9iF4]
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 pc11.2ch.net/test/read.cgi/linux/1168487758/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.co.jp/product/raid/os_support_list.html

Linux EVMS 一般
ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html
ttp://evms.sourceforge.net/

... あと続けてくらさい。

486 名前:login:Penguin mailto:sage [2009/01/09(金) 22:25:36 ID:+wvRjhFl]
Windows特有なのが、RAID0で起動を高速化って文化じゃないかな?
それがあるから、フェイクRAIDが大人気。

Linuxだとmdドライバに比べてフェイクRAIDが有利な要素が少ないから
結果的に(本物の)ハードウェアRAIDとmdに二分されるんだと思う。
Windowsにmdドライバやmdadmが移植されれば
フェイクRAIDよりmdのほうが柔軟で、人気が出たりするかもよ?

つかフェイクRAIDクラッシュの質問がOKWaveとかに多いのよね<Win
「M/BのBIOS updateで読めなくなった」とか、もう何と言っていいのやら orz


487 名前:login:Penguin mailto:sage [2009/01/09(金) 23:52:35 ID:Al1IJSIe]
mdと、dmってどう違うの?
意図して文字列を逆にしているみたいに思える。

488 名前:login:Penguin mailto:sage [2009/01/10(土) 01:48:52 ID:loOCjssc]
>>487
md: LinuxのソフトウエアRAIDドライバ
dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ

>>485
本物のRAIDカードというのは、RAIDカード単体で本体のCPUの補助なしでRAIDを行なえるカードのこと。
例えばXORアクセラレータが付いてるだけのRAIDカードは本物のRAIDカードじゃない。
具体的にはIntel IOPが載っててバッテリーバックアップユニットが付けられるRAIDカードは本物のはず。

個人的には非標準的なドライバをあまり信用できないのでmd派。本物高いし。

489 名前:486 mailto:sage [2009/01/10(土) 13:36:09 ID:odJ/+a4Y]
>>486
俺も自作初めたばかりの無知な頃にフェイクRAIDで痛い目みたわw
nforce2のraidだったかなぁ・・・raid0速い!って喜んでたわ

>>488
大学の研究室である程度まとまった金でRAID組まされることあんだよね。
研究室の共用サーバにインストールするんだが、何度か面倒な目にあった。
もう全部業者任せにしようかと思うわ・・・

自分でやるならやっぱmdだな

490 名前:login:Penguin mailto:sage [2009/01/10(土) 14:22:42 ID:8L5rYSxp]
>>486
WindowsにもSoftware RAIDはついてるのに、なぜか活用されてないね。
なんちゃってRAIDなんかよりそっち使えばいいのに・・・

491 名前:login:Penguin mailto:sage [2009/01/10(土) 15:34:13 ID:sulqjtr0]
ここで言われてる「本物」でお奨めになものってどんなのがあります?

492 名前:login:Penguin mailto:sage [2009/01/10(土) 16:15:58 ID:o9R1cT+y]
ETERNUS

493 名前:login:Penguin mailto:sage [2009/01/10(土) 17:02:57 ID:3dK3csV8]
>>486>>490
md4ramって移植版のドライバがある。
ライトバックキャッシュを利かせて使いたいが開発が滞っているみたい。
壊れてもいいデータしか置かないけど2chブラウザのログ置きに最適。

494 名前:login:Penguin mailto:sage [2009/01/12(月) 01:59:14 ID:/Son47ik]
>>488
>md: LinuxのソフトウエアRAIDドライバ
>dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ

じゃあ、biosraidがdmraidで動作しているからといって、ハードウェア処理されているわけでなく、
結局は、linuxのmdドライバでraidの処理がなされているわけなんだ。

biosraidにプロミスってあったから、これはオンボードでハード処理されて、
linuxには一個のディスクとして見せているんだと勘違いしていました。





495 名前:login:Penguin mailto:sage [2009/01/12(月) 04:47:57 ID:nRZhkl6m]
Promiseという時点でそもそも

496 名前:login:Penguin mailto:sage [2009/01/12(月) 13:44:42 ID:/Son47ik]
オンボードの、promiseと刻印されたあのチップは何?



497 名前:login:Penguin mailto:sage [2009/01/12(月) 17:33:13 ID:odrqpoZ2]
FakeRAIDは、専用のインタフェースチップ使うよ。

itpro.nikkeibp.co.jp/article/Keyword/20070824/280335/


498 名前:login:Penguin mailto:sage [2009/01/12(月) 17:50:42 ID:gg7V03n9]
>>496
www.promise.com/
IDE,SATAのインターフェイスを作っている会社。
他にもストレージ関係をやってるのかな?

ハードウエアRAIDの会社のイメージは無いな。

499 名前:login:Penguin mailto:sage [2009/01/12(月) 22:04:06 ID:/Son47ik]
promiseといえば、raidのイメージが付きまとうのは、
昔、大きなraidのpciカードの黄色い外箱に、promiseと書いてあったからだ。



500 名前: ◆Zsh/ladOX. mailto:sage [2009/01/12(月) 22:57:48 ID:HR1zAo8l]
sx4000使ってたけど。
悪いイメージは無い。
数年前にPC内の画像を晒した記憶あり。

501 名前:login:Penguin mailto:sage [2009/01/13(火) 21:30:47 ID:UzNBMlny]
今、debian etchのamd64でHDD2台を使って
ソフトウェアRAIDでミラーリングしています。
技術力の不足から、amd64をあきらめてi386バージョンを
インストールしてやり直そうと考えているんですけど
この場合、RAIDを解除して1台目のディスクにi386をインストールした後に
2台目のディスクからデータをコピーして、改めてミラーリングの設定にする
ということは可能ですか?

502 名前:login:Penguin mailto:sage [2009/01/13(火) 22:15:55 ID:UQqV5nIq]
degradedになっても良ければ

503 名前:login:Penguin mailto:sage [2009/01/13(火) 22:26:17 ID:UzNBMlny]
>>502
degradedってのを調べて見ました。
それって、一時的ってことですか?
それとも、i386で改めて新しくRAID1を構成しても
後遺症的なものが残るという意味ですか?

504 名前:login:Penguin mailto:sage [2009/01/13(火) 22:37:13 ID:JlH/mAiu]
解除もクソもi386インスロースした時点でRAIDの情報消えてるんじゃないの?



505 名前:login:Penguin mailto:sage [2009/01/13(火) 22:40:26 ID:UzNBMlny]
>>504
インストールするのは、1台目のHDDだから
2台目のドライブは、ケーブル抜いてしまえばいいんじゃないかと考えてたんですが。
インストール後に、ケーブル繋いでマウント・・・ってのは無理なんですか?

506 名前:login:Penguin mailto:sage [2009/01/13(火) 22:47:11 ID:JlH/mAiu]
あーデーターの移行の方法ね。
普通にマウントしてコピーしてから、mirrorの設定して2台目上書きすればいいと思うよ。

507 名前:login:Penguin mailto:sage [2009/01/13(火) 22:50:34 ID:UzNBMlny]
>>506
ありがとう。細かな手順調べて、実行してみます。

508 名前:login:Penguin mailto:sage [2009/01/14(水) 14:35:19 ID:0aFf9qq6]
>>488
>>497
ためになりました。ありがとう。



509 名前:login:Penguin mailto:sage [2009/01/15(木) 01:12:00 ID:9+zR18Pi]
>>494

dmraidは、つまり、mdのラッパーオブジェクトのようなものだと考えればいいかな。
ただし、>>497 で引用されているように、
dmraidは、biosで管理されているraidの設定情報を使用しているわけか。
だから、ataドライバの読み込みの時点で、代わりにdmraidが使用されて、
そのraid構成が有効化されるのだね。
すなわち、dmraidでは、通常の非アレイディスクのように認識させることも可能なんだ。

この考え方で、
合ってますでしょうか。



510 名前:login:Penguin mailto:sage [2009/01/15(木) 14:26:29 ID:knA7Hlz9]
BUFFALOのeSATA外付けHDD(RAID1)をLinuxにつないで使っています。
HDDに不具合が生じた場合、それを確認する方法(ツール・アプリ)はないのでしょうか?

511 名前:login:Penguin mailto:sage [2009/01/15(木) 14:34:19 ID:Rfu3LZdb]
BUFFALOに聞けよw

512 名前:login:Penguin mailto:sage [2009/01/16(金) 02:11:08 ID:32Awgl8B]
fakeRAID(BIOSraid)で、ミラーリングアレイを構築、そしてFedora7で使用しています。
障害発生時に備えて、試しに、ハードディスクを一つを外してみました。
BIOSraid画面でエラー表示が出た後、そのままlinuxブートローダーが起動しました。

device-mapperの処理で、failure, no such deviceを表示、そして、no volumeになりました。
ついに、Kernel Panicで停止しました。
レイドアレイが正常ではないのでそれはそうだろうと思い、

BIOS画面にて、そのRAIDモードを解除し、通常のIDEモードに切り替えました。
単体のハードディスクで起動を試みようというわけです。
ブートローダーが動き、カーネルの読み込みが始まります。

しかし、先ほどと同じような具合で、device-mapper関係のエラーで、kernel panicで停止しました。
これは意外でした。

自動的に、単体のハードディスクのための処理へと切り替えてくれないようです。

つまり、もしもhddが片方故障した場合には、必ず再び同じraid構成を機能させておくということになると思います。
しかし、あえてここで、device-mapperの使用を解除して、通常の起動に切り替えるというようなことはできないのでしょうか。
教えてください。




513 名前:475 mailto:sage [2009/01/16(金) 03:08:08 ID:32Awgl8B]
475です。
連投ですみません。別件の問があります。

>>475 のdfコマンドの結果は、fedora10でのfakeraidのミラーリング構成でのものです。(同じものを下に引用しました)
-----------------------------------------------------------------------------
<Fedora10での結果>
/dev/mapper/VolGroup00-LogVol00
476871688 55799360 396848584 13% /
/dev/sda1 194442 21960 162443 12% /boot
tmpfs 896296 1152 895144 1% /dev/shm
-----------------------------------------------------------------------------

ところが、fedora7での同様の構成(マザーは異なっている)にて、dfコマンドをすると、
下記のようになります。


 これらをみると、Fedora7では/bootなど特殊なディレクトリは、/dev/mapper/pdc_dacjp1で管理されていることがわかり、
そしてfedora10では/bootが/dev/sda1にて直接管理されているようです。
fedora10にて、教えていただいたように「dmraidコマンド」でraidの構成の具合を確認したところ、>>481 のように正常のようです。

 このFedora7と10でのraid1における、/bootに対する表示の差は何を意味しているのですか。
Fedora10になって、dmraidがより高度化して、/dev/sdaでraid1をラッピングしているわけなのでしょうか?

----------------------------------------------------------------------------------------
<Fedora7での結果>
Filesystem 1K-ブロック 使用 使用可 使用% マウント位置
/dev/mapper/VolGroup00-LogVol00
148297964 29496048 111147312 21% /
/dev/mapper/pdc_dacjp1
101086 19396 76471 21% /boot
tmpfs 2032296 0 2032296 0% /dev/shm

514 名前:login:Penguin mailto:sage [2009/01/16(金) 03:13:14 ID:rwDT7nUQ]
LVMの問題ではなくて?



515 名前:login:Penguin mailto:sage [2009/01/18(日) 13:33:02 ID:mOdWiiXB]
mdadm使いにくいよー
raidtoolsのほうがバタ臭いけどいい

mdadmで一番むかつくのが良くわからないタイミングで
ディスクがspareにされて、元に戻したいのに戻せない。イライラ

516 名前:login:Penguin mailto:sage [2009/01/18(日) 22:48:12 ID:06Dcpdo5]
raid6がお亡くなりになった。
HDDというよりSATAカードが死亡したっぽい。
(玄人志向とPromiseのSATAカードの2枚挿しで8つHDDをくっつけてる。
今回は玄人志向がお亡くなりになった。)

再起動してカードは復活したみたいなので
(配下のHDDが/devに戻ってきた&badblocksが通った)
HDDをArrayに追加しようとしたが
配下のHDDが全部faulty removedに落ちちゃってて
mdadm -Aでもcannot get array info for /dev/md0と表示されエラー。

このスレの64氏の現象に近い気がするが、
superblock書き換えなどは出来る自信ないので
mdadm -Cで再度Array構築しなおした。

ここんとこバックアップをサボってたから結構痛いわー。


つーかもうSATAカードとかあまり使わないで済むように
ちゃんとしたファイルサーバ組んだ方がいいな。

517 名前:login:Penguin mailto:sage [2009/01/19(月) 00:09:08 ID:L7Ubbq6r]
カードまたいでRAID5/6組んでたら、カード死亡には対応できんよなぁ。
カード単位でお亡くなりになるケースは結構ありがちだし対策したいところ。

カードを1枚にしてそこに全部ぶら下げればカードが死んでも
全部見えなくなるだけでsuperblock更新されないから、516は防げるかも。

同じ考え方で、台数が必要な場合はSATAカード2枚準備して、
SATAカードをまたいでmdのRAID1を組んでそれを繋げるとか、
同じカードのSATAポート群とかカードのRAID機能でRAID5/6を
作ってそれをmdで繋げるとか。

518 名前:login:Penguin mailto:sage [2009/01/19(月) 06:19:37 ID:CHw0KQY0]
>お亡くなりになる
やめてください、そういう表現。
葬式の臭いがしてくる。




519 名前:login:Penguin mailto:sage [2009/01/19(月) 10:43:16 ID:L7Ubbq6r]
は?

520 名前:login:Penguin mailto:sage [2009/01/19(月) 17:06:36 ID:426uxyHi]
カード死んだら葬式みたいなもんだろ…

521 名前:login:Penguin mailto:sage [2009/01/19(月) 17:30:39 ID:/o7gcRDM]
データさえ生きてりゃ今夜が山状態だろ。

522 名前:login:Penguin mailto:sage [2009/01/19(月) 17:38:24 ID:hR5pv9yI]
>>515
次に使うまでに
一度「バタ臭い」の意味を調べた方がいいと思う。

523 名前:login:Penguin mailto:sage [2009/01/19(月) 19:31:23 ID:AVvVP96W]
○バタくさ・い【―臭い】

(形)

〔バタはバターの意〕西洋風な感じがする。また、西洋かぶれしている。
「―・い表現」「―・い顔立ち」



◎きなくさ・い 4 【きな臭い】

(3)なんとなく怪しい。うさんくさい。
「どことなく―・い話」


三省堂提供「大辞林 第二版」より

524 名前:login:Penguin mailto:sage [2009/01/19(月) 20:42:12 ID:8LWc0G4T]
西洋人は信用するなって事ですね。



525 名前:ライナス [2009/01/19(月) 21:21:54 ID:CHw0KQY0]
もともこもない

526 名前:login:Penguin mailto:sage [2009/01/20(火) 11:04:32 ID:QUoqwrOB]
いままで、raid1で十分だと思っていた。
でも、もし、片方が壊れて、もう片方に不良セクタ君があったら、データは損傷してしまう。
そこで、raid5の出番である。
ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
でも、raid5は、ディスク2台が同時期に壊れてしまったら、もはやすべて終わりである。

で、そこで、raid6の出番。今は、6(二方式の内、パリティーを分散する方式の方)が一般化しているんだね。
ストライプという概念は同じであるけど、パリティーを強化して、ディスクが2台壊れても平気なようにしてあるんだね。

ディスクが安価な今は、冗長な構成でも苦しくないね。

カードが壊れたという人が↑の方にあったけど、カードってそんなに壊れやすいの?
カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。


それから、そもそも先に不良セクタをマークしておいたら、raid1でもいいんじゃないかな。




527 名前:login:Penguin mailto:sage [2009/01/20(火) 11:39:38 ID:tmOakhLn]
復旧可能かどうかはカードの壊れ方次第では。

壊れた結果ムチャクチャなデータを
デタラメに書き込まれたら
どう頑張っても復旧でけんだろう。

カードが壊れやすいかどうかは
これまたカード & 運次第かと。
俺は一度も壊れた経験ないけど。

528 名前:login:Penguin mailto:sage [2009/01/20(火) 11:45:10 ID:gBT8fCPT]
>>526
日頃の行いが悪いからHDDが壊れる。

529 名前:login:Penguin mailto:sage [2009/01/20(火) 13:11:48 ID:jayBGkBw]
>>526
なんつーか理解してないな

> ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
RAID5でもRAID1でも、単体ではdegradedでの不良セクタに対処できない点は同じ

> カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。
それが>>517

> それから、そもそも先に不良セクタをマークしておいたら、
経時の不良セクタ発生に対処できない

まぁカードが壊れることはそれほど多くない。
業務で大量に管理していれば結構見るけれど、個人でやる分には当たる確率は低い。

530 名前:login:Penguin mailto:sage [2009/01/20(火) 18:33:36 ID:n7Hnf9Lk]
516だが再構築の際エラーが出て停止
その後色々試したがなんかカードのBIOSから一部のHDDがみえたりみえなかったり
ついにはbadblocksも通らないHDDが出始めた

もしかしたら今回の犯人はカードじゃなくHDDがカードを巻き込んで落ちたのかも

と思っていた時
海門のニュースを知った

6台が該当です。
本当にありがとうございました。

531 名前:login:Penguin mailto:sage [2009/01/20(火) 18:46:34 ID:AAZq+mqB]
RAIDを組むハードディスクは、製品や製造ロットを同じものにしないほうがいい、というのは本当だったか。
530に同情するよ。サーバーが落ちても気は落とすな。


532 名前:login:Penguin mailto:sage [2009/01/20(火) 20:46:45 ID:3icForSX]
>>531
基本中の基本
RAID1ペア組むときはメーカーから変える

533 名前:login:Penguin mailto:sage [2009/01/20(火) 21:20:12 ID:QUoqwrOB]
>海門
=sea gate
ファームウェアの不具合の件ですよね
困るよなあ、といいつつ、私も、そのメーカーのディスクでした。
ハードディスク買うなら、”海門”と決めていたんです。なんか、壊れにくいイメージがあるから。
壊れたことがない。かちゃん、かちゃん、かちゃん、なんて絶望的な音をさせたことがないということです。



534 名前:login:Penguin mailto:sage [2009/01/21(水) 11:28:11 ID:KNJKiqg2]
以前は同じモデルでも容量がちょっと違っていて、
交換したら容量不足で使えないという悲しいことが
ちょくちょくあったが、
最近は違うメーカーでも問題が起きなくなったので
ありがたい。





535 名前:login:Penguin mailto:sage [2009/01/21(水) 12:56:36 ID:1/Cy7HwZ]
いつ消えるか分からないメーカーのサービスに期待して全領域使っちゃうのは馬鹿だろ
保証されてるのは例えば500GBなら500,000,000,000Bまで。

536 名前:login:Penguin mailto:sage [2009/01/21(水) 13:04:54 ID:xEzc7nEM]
ぴったりの500GBのディスクが無ければ、
750GBのディスクを買えばいいのに。

537 名前:login:Penguin mailto:sage [2009/01/21(水) 14:35:01 ID:Lxj+eixA]
同じモデルって前提だろ
バカか バカなのか

538 名前:login:Penguin mailto:sage [2009/01/21(水) 15:07:49 ID:+OFl4BAS]
個人でしょぼいRAID5環境を動かしていましたが
ばっちりRAIDカードが壊れたことあります。
というか、フェイクRAIDしか無いカードをmdで使っているのに
RAIDカードと言うのか?とは思います。

玄人志向の4ポートPCI SATAカードでした。
C7のSATA2ポートなM/BでRAID5をやるために使いましたが
一年弱で、4つのうち一つのポートが動作しなくなりました。

予備HDDはあったので、HDDを入れ替えても認識せず
よくよく調べると、カードのほうが死んでいたというオチ。

急場をしのぐために、オンボードのSATAポートとの混在RAID5として
そのまま2ヶ月程度、問題なく動きました。(その後SATAカードを交換)

今はPCIeの1430SAで、あえてmdドライバー。


ところで、Linuxでホットスワップで再認識する条件とか手順ってどうなるのでしょうか?
とりあえず、普通に抜き差しするとダメっぽいのですが…
チップやドライバーではなく、玄人志向のカードがホットスワップ非対応だったのかなぁ…



539 名前:login:Penguin mailto:sage [2009/01/21(水) 15:42:19 ID:C3awCYv6]
普通に抜き差しでok。sata_sil24のはずなので対応してる。
多分カーネルが古いのが原因。

540 名前:login:Penguin mailto:sage [2009/01/21(水) 15:47:09 ID:xqg3zZth]
外す前にこれでHDDの電源を落としておく方が安全
# echo 1 > /sys/block/sdX/device/delete

541 名前:login:Penguin mailto:sage [2009/01/21(水) 15:47:43 ID:NpsqSYmx]
ロット揃えたほうがパフォーマンス良さそうなのでRaidアレイ組むときは毎回揃えてるけど、
豪快なロット不良見ると怖くなるな。

542 名前:538 mailto:sage [2009/01/22(木) 02:32:04 ID:9i3fv5RC]
>>539,>>540
ありがとうございます。試してみたらできました。
というかオチがあります。

これ、取り外した時点でデバイスが消えないのは仕様なのでしょうか?
たとえば、普通にfdisk -lには出てきます。

HDDを止めて再スピンアップさせることで初期化が行なわれて
現在接続されているHDDの情報に書き換わるという挙動のようです。

で、以前はHDDの停止と再スピンアップなどは行なわなかったために
差し替え直後のfdisk -lで、HDD情報が更新されていないことを理由に
ホットプラグが正常になされていないと判断していました orz


#/sys/block/sdX/device/下のファイルについては
#どこ探せば情報が見つかるものでしょうか…


543 名前:login:Penguin mailto:sage [2009/01/22(木) 15:19:59 ID:CwsVQNf2]
>>541
> ロット揃えたほうがパフォーマンス良さそうなので

意味が分からない

544 名前:login:Penguin mailto:sage [2009/01/22(木) 15:31:18 ID:7lkmeW2Z]
昔はRAID組むなら同一型番できればロットも揃えようっていう風潮だった。
型番同じでもファーム違うと微妙にキャッシュアルゴリズム変わってたりするし。
その場合ベンチの結果も微妙に変わる。
アクセス速度近い方が効率よさそうじゃん。
当然同じようにアクセスするディスクでロットまで同じだと壊れるのも一緒になるから
ロットくらいはばらした方が良いって言う人もいたけど。



545 名前:login:Penguin mailto:sage [2009/01/22(木) 20:50:46 ID:u0UB26l/]
ロットどころかメーカーからばらす。

まぁ結局はRAIDに何を求めるか、なわけだが、
あるのかかどうか分からないパフォーマンス向上を目当てに
同時故障リスクを採る選択は、俺はしないね

546 名前:login:Penguin mailto:sage [2009/01/22(木) 21:43:17 ID:xRfSeFjv]
>>540
そんな/sysの下の物体の情報って、一体どこで見つけるの?ソース?
俺はいままで

 sdparm -C stop /dev/sda

とかしてたよ。

547 名前:login:Penguin mailto:sage [2009/01/22(木) 21:57:04 ID:u0UB26l/]
>>546
基本はソースだけど、その場合むしろsdparmの方がいいんでは?
/sys直叩きだといちいちカーネルの仕様変更追っかけないといけなくなる

548 名前:login:Penguin mailto:sage [2009/01/23(金) 01:31:55 ID:iL0wYbEo]
>>544
昔って何十年前の話?

549 名前:login:Penguin mailto:sage [2009/01/23(金) 01:35:42 ID:gP0PPzWy]
5年前

550 名前:login:Penguin mailto:sage [2009/01/23(金) 03:37:27 ID:93gY8ymT]
ディスクアレイはロットは知らんがメーカーと型番くらいは揃ってるな。
メーカーバラバラだったら同じ所からは二度と買わんわw

551 名前:login:Penguin mailto:sage [2009/01/23(金) 12:07:20 ID:3M4C0RkK]
>>549
俺の周辺の風潮では5年前でも
安全のためにロットは揃えるな
だったが。

ま、地方によって違うんだろうな。

552 名前:login:Penguin mailto:sage [2009/01/23(金) 13:08:14 ID:7Cxp47f1]
まだDECがあったころ、導入したDECのサーバーは業者が段ボール箱から次々とHDDを
取り出して組み込んでいたから同じロットだったんじゃないかと思うんだが、記憶が確かではない。
それが俺のRAID初体験なのでロットのことまで気が回らなかった。

HDD組み込み済みのRAIDボックスはどうなんだろうか?同一ロットにならないようにしているのかな?

ちなみに自分で組むときは、新しく買ってきたやつと予備としてストックしてあるやつを混ぜて使うようにしている。





553 名前:login:Penguin mailto:sage [2009/01/24(土) 04:31:39 ID:ptL5pKyY]
>>533
シーゲートのファームウェア不良の件、
ウインドウズ用には、不具合検出用のツールがあるが、
どうしてリナックス用にはないのだろう。
リナックスユーザーは多いだろうに。
それとも、あるんですか?



554 名前:login:Penguin mailto:sage [2009/01/24(土) 07:30:04 ID:u99vPwbM]
>>553
切捨てられてるんだろう。いつものこと。



555 名前:login:Penguin mailto:sage [2009/01/24(土) 13:11:53 ID:Di00Ifqv]
検出専用ソフトではなく
CD版のSeatoolsでブートすりゃいいんじゃないかと思うが

556 名前:login:Penguin mailto:sage [2009/01/24(土) 21:47:35 ID:ptL5pKyY]
ありがとう



557 名前:login:Penguin mailto:sage [2009/01/28(水) 00:26:06 ID:ir2fam9u]
#mdadm -C /dev/md0 -l5 -n4 /dev/sd[bcde]1
で、cat /proc/mdstatで状態見るとリビルドしてるけど なぜか[UUU_]
はあ?と思ってmdadm -D /dev/md0 してみると
/dev/sde1 がspare rebuildingになって勝手にspare扱いになってる。
意味がわからない。スペアなんか作りたくないし。そんな指定はどこにもしてない。
エスパーレスおながいします。

558 名前:login:Penguin mailto:sage [2009/01/28(水) 00:38:08 ID:LK11AqVS]
>>557
zero superblockした?

559 名前:login:Penguin mailto:sage [2009/01/28(水) 07:15:42 ID:ir2fam9u]
>>558
sdb1〜sde1 全部にmdadm --zero-superblock してみましたが
変わりませんでした。

こうなるのも謎です。なぜ[4]なのか・・・
>md0 : active raid5 sde1[4] sdd1[2] sdc1[1] sdb1[0]

560 名前:login:Penguin mailto:sage [2009/01/28(水) 07:34:42 ID:LK11AqVS]
mdの構成対象外でも、システム内に3に相当するsuper-minor番号の
パーティションがあるとそうなるかも…
# mdadm --examine /dev/sdb1
するとどうなります?

561 名前:login:Penguin mailto:sage [2009/01/28(水) 07:39:07 ID:ir2fam9u]
こうなりました

/dev/sdb1:

(長いので省略、多分あまりこの部分は関係なさそうです)

Number Major Minor RaidDevice State
this 0 8 17 0 active sync /dev/sdb1

0 0 8 17 0 active sync /dev/sdb1
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 0 0 3 faulty
4 4 8 65 4 spare /dev/sde1

562 名前:login:Penguin mailto:sage [2009/01/28(水) 13:57:54 ID:3QasENir]
よく分からんけど、
単にhdeが故障してfaultyになっただけなんでわ。
hde交換してみれば?

>>431みたいなこともあるし、
SW-RAIDのハードウェア異常時の表示は
あまり信頼しない方がいい。

563 名前:login:Penguin mailto:sage [2009/01/28(水) 13:59:12 ID:3QasENir]
なんか変だな。

× あまり信頼しない方がいい。
○ あまり信頼できない。

だね。

564 名前:login:Penguin mailto:sage [2009/01/29(木) 01:18:01 ID:PTiNMDCX]
>>561
他のデバイスもexamineしてみると、違いから何か分かるかもしれない。
あと新規構築時にはパリティが不整合の状態なのでresyncするのが通常動作。
でもresync時の追加パーティションってspare表示になる仕様だったっけか?



565 名前:login:Penguin mailto:sage [2009/01/29(木) 06:27:34 ID:12B6/rA+]
mdadmでRAID5を設定してるんですが、RAIDを構成してる各ディスクを
hdparmでスタンバイに移行するように設定しても大丈夫でしょうか?

566 名前:561 mailto:sage [2009/01/29(木) 07:16:39 ID:WiRmM86x]
[UUU_]でリビルド完了を待ったところ[UUUU]になって
sde1[3]になりました。原因はよくわかりません。

567 名前:login:Penguin mailto:sage [2009/01/29(木) 19:37:09 ID:PTiNMDCX]
>>566
たぶん構築時リビルドだろう
ためしに1台をfaulty removeしてもう一回追加、同じ現象になったら間違いない

568 名前:561 mailto:sage [2009/01/30(金) 21:48:37 ID:pZmCaYyi]
>>567
今回は初めての事象なんですが
Linuxかmdadmがアレイ対象のドライブではないどこかに情報覚えてるってことですよね
それを消せればいいような気がします

569 名前:login:Penguin mailto:sage [2009/01/31(土) 21:10:43 ID:INV0scHx]
>>568
調べるとしたら設定ファイルとしてはmdadm.conf
場所は/etcとか/etc/mdadmとか

570 名前:login:Penguin mailto:sage [2009/02/08(日) 22:42:30 ID:Ey2JVBl4]
全国のmdadmファンのじょしこうせいのみなさ〜ん
みんな知ってるかなぁ?RAID0ってgrowでボリュームを大きくできないんですよ。
で、当然のごとく、RAID10もできないのですよ。

4wayのRAID5をでかいHDDに差し替えていって、grow機能で
250GBx4から500GBx4に移行したことがあったんだけど…

今回は1TBx4に差し替えつつ500GBパーティションx4の
RAID5とRAID10を作った上で、データを移し
1TBパーティションx4に移行しようとして
いざそこまできてgrowできないことを知ったという orz

こういうのをトホホって言うんだと思った。
まぁ、reiserfsからXFSへの切り替えもあったし
なんとかmissing付きでRAID10を起動したりして片付けた。

将来もっとでかいHDDに移行するときは
それなりの用意をせざるをえないなぁ…


571 名前:login:Penguin mailto:sage [2009/02/08(日) 23:27:56 ID:Nj6iWNXA]
えらくピンポイントだなw

572 名前:login:Penguin mailto:sage [2009/02/09(月) 12:39:22 ID:9FAXyoAI]
LVM組み合わせれば
RAID自体のボリューム拡張できなくても
実用上は問題ないんじゃ

573 名前:login:Penguin mailto:sage [2009/02/09(月) 12:46:53 ID:Eg6suWBI]
>>571,572
えらいおっさん臭いじょしこうせいだな

574 名前:初心者の通りすがり [2009/02/16(月) 21:37:32 ID:4jXnyPos]
お忙しいところ恐縮ですが、質問があるのですが、
誰かお助けを・・

1、mdadmなどのソフトウェアRAIDで、HDDの不良セクタを自動回避するプログラムは組み込まれているのでしょうか?
それとも、セクタ不良の箇所が出た時点で、HDD交換になってしまうのでしょうか?

2、もし、上記のシステムが組まれている場合、HDDに標準で搭載されている機能として、実際に使用者が確認出来る不良セクタは
ハードディスクの隠れ領域の余裕空間に代替された不良セクタがそれ以上代替出来る空間がなくなって現れる使用(いまどきのHDDはみなそうですよね?)はずですが、
代替のセクタが現れている時点でセクタのゆとりがなくなっているわけで、そのため、そのセクタを不良セクタとして認識する必要があると思います。
しかし、RAIDの場合、すべてのHDDの同じアドレスのセクタを使用不能にする必要(仮に他のHDDのセクタが正常でも、1うのHDDが以上であれば)があると考えられますが、
これらの対応はされているのでしょうか?

3、可能であれば、RAIDとしてアレイに組み込む前に、HDDのセクタチェックをしてから、アレイに組み込めればと思うのですが、
そのようなLinuxプログラムはあるのでしょうか?(ものすごい時間かかるPGのような気がしますが・・)

RAIDその他に関して、初心者で的外れな質問の可能性がありますが、お教えいただければ幸いです。
よろしくお願いします。





575 名前:初心者の通りすがり [2009/02/17(火) 01:22:44 ID:FIlRA3Ek]
自己レスです。
3、のセクタチェックは、mkfs の -c オプションがその任を担っている事が分かりました。
またbadblocks という同じ機能を持つものも発見しました。ただどうやらRead checkだけのようです。


576 名前:login:Penguin mailto:sage [2009/02/17(火) 01:34:14 ID:rlTL3AkS]
つ badblocks -w

577 名前:login:Penguin mailto:sage [2009/02/17(火) 01:56:17 ID:ljmr48rY]
>>574
1: 不良セクタの回避は通常HDDファームのレイヤの仕事。
mdのレイヤだと特になし。FSは実装次第。
SMARTで異常値が出るような状態なら普通は交換処置。

2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合
そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。
従って
>すべてのHDDの同じアドレスのセクタを使用不能にする必要
はない

3: 上に書いたようにセクタチェックは別のレイヤの仕事。
RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。
ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが

578 名前:login:Penguin mailto:sage [2009/02/17(火) 02:17:44 ID:IoPZgIsc]
rebuild 時に sw RAID1 が壊れたという話をちらほら聞くけど、
これどうなってるの

579 名前:初心者の通りすがり [2009/02/17(火) 02:26:38 ID:FIlRA3Ek]
お返事ありがとうございます!

> 1: 不良セクタの回避は通常HDDファームのレイヤの仕事。
> mdのレイヤだと特になし。FSは実装次第。
> SMARTで異常値が出るような状態なら普通は交換処置。
なるほど、それではRAIDにおける致命的なHDDの時期というのは、HDDが認識しなくなったような場合だけと
いうことでしょうか?(ここでの質問では適切なHDD交換時期、不良セクタが多くなった場合などを考慮せず、
まったく使えないという状態におけるHDDの交換についての件です)

ここで、疑問なのですがinode領域などのセクタにおいても、RAID 1なり5なりでデータを復旧できる場合には、
問題なく利用できると考えても大丈夫なのでしょうか?

また無学で恐縮なのですが、このSMARTについて少しご教授いただけませんか?

> 2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合
> そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。
> 従って
> >すべてのHDDの同じアドレスのセクタを使用不能にする必要
> はない



580 名前:初心者の通りすがり [2009/02/17(火) 02:28:11 ID:FIlRA3Ek]
認識が違っているかもしれませんが・・
このLBAの自動交換は、HDDの代替セクタがある場合そうだと思うのですが、すでに代替
セクタが無い場合、表に見えてしまうと思いますが、mdadmなどはブロックデバイスとして
活動しているということは、LBA(シリンダとセクタから計算されるやつですよね、たしか・・)
を基準に管理されているとなれば、ミラーリングなどで、データをそっくりコピーする仕組みのもの
などは、不良セクタによって、大きな問題になるのではないでしょうか?

よくWEBでも見かけるのは、死んだHDDの代わりにスペアHDDをいれて、Rebuildしている最中に、
不良セクタが発見されて、両方死んでしまったという話も聞きます。

ここでもし、不良セクタ(セクタという言い方が悪いかもしれませんのが、LBA(Logical Block Address)と読み替えていただければ幸いです)
を発見したときに、正常なHDD側のデータを他の未使用セクタに移動させ、不良セクタとして使用不可にして、すべてのセクタの同期を取ることができれば、問題は小さいのではと
考えた次第です。

> 3: 上に書いたようにセクタチェックは別のレイヤの仕事。
> RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。
> ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが

すみません、そうですよね・・mkfsではRAID構築後なのでどのような動きになるのか、
ちょっと分かりませんが、RAIDシステムがセクタ不良とか見えなくしてしまいますよね。
ちょっと勘違いをしていました。ということは、HDDをセクタ単位でチェックするして
、不良セクタがあったら故障フラグを立てる機能のものはない感じでしょうか?

こんな遅い時間にお答えいただきすみません。


581 名前:初心者の通りすがり [2009/02/17(火) 02:48:36 ID:FIlRA3Ek]
SMART分かりました!
ttp://hddbancho.co.jp/the_hdd_withthebadsectorisrecycled.html

なるほど、HDDの持っている情報のことだったんですね。
このページの考え方からすと、代替セクタがなくなったら、HDDは故障と見做すため、
RAIDシステムでは、このような表に出てきたセクタ不良を解決できていない可能性が高いですね。
ただ、ここにもあるように定期的なリフレッシュが無いと唐突なセクタ不良が、代替セクタの有無に関係なく
でるので、やはり本当はRAIDで対応したほうがよい気がします。(役割的に)

もちろん、Googleの研究成果(不良セクタが出始めたら(代替セクタがなくなったら)HDDの寿命が2次曲線的に劣化する)
もあるのでHDDの交換時期については議論が分かれると思いますが、上記の問題はちょっと違う気もします。


582 名前:HDDからSSDへ mailto:age [2009/03/12(木) 09:35:49 ID:yKkrCTUa]
SSDを使うようになれば、もうRAIDは必要なくないですか。



583 名前:login:Penguin mailto:sage [2009/03/12(木) 10:14:53 ID:sI0gyPRm]
必要ないと思うならそれでいいんじゃないの。

584 名前:login:Penguin mailto:sage [2009/03/12(木) 11:55:03 ID:nculPVj6]
>582
つ冗長化



585 名前:login:Penguin mailto:sage [2009/03/12(木) 12:24:21 ID:unsLfwpp]
そうだね。
SSDは故障することは
絶対にないから
RAIDなんて不要になるね。
すばらしいことだね。

586 名前:login:Penguin [2009/03/12(木) 22:00:05 ID:yKkrCTUa]
SSDの書き込み速度はともかく、読み込み速度は、SLCではかなり高速なので、
冗長化のために、RAIDを使うという意味合いも薄れてくるように思える。
これから、SSDの容量も現在のHDD並に増えていくだろうと思う。

RAIDとSSDとの関係は本当にどうなるのだろう。







[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<284KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef