1 名前:login:Penguin mailto:sage [2008/04/15(火) 21:49:14 ID:Ve/x9iF4] Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/ スレ 3 pc11.2ch.net/test/read.cgi/linux/1168487758/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.co.jp/product/raid/os_support_list.html Linux EVMS 一般 ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html ttp://evms.sourceforge.net/ ... あと続けてくらさい。
512 名前:login:Penguin mailto:sage [2009/01/16(金) 02:11:08 ID:32Awgl8B] fakeRAID(BIOSraid)で、ミラーリングアレイを構築、そしてFedora7で使用しています。 障害発生時に備えて、試しに、ハードディスクを一つを外してみました。 BIOSraid画面でエラー表示が出た後、そのままlinuxブートローダーが起動しました。 device-mapperの処理で、failure, no such deviceを表示、そして、no volumeになりました。 ついに、Kernel Panicで停止しました。 レイドアレイが正常ではないのでそれはそうだろうと思い、 BIOS画面にて、そのRAIDモードを解除し、通常のIDEモードに切り替えました。 単体のハードディスクで起動を試みようというわけです。 ブートローダーが動き、カーネルの読み込みが始まります。 しかし、先ほどと同じような具合で、device-mapper関係のエラーで、kernel panicで停止しました。 これは意外でした。 自動的に、単体のハードディスクのための処理へと切り替えてくれないようです。 つまり、もしもhddが片方故障した場合には、必ず再び同じraid構成を機能させておくということになると思います。 しかし、あえてここで、device-mapperの使用を解除して、通常の起動に切り替えるというようなことはできないのでしょうか。 教えてください。
513 名前:475 mailto:sage [2009/01/16(金) 03:08:08 ID:32Awgl8B] 475です。 連投ですみません。別件の問があります。 >>475 のdfコマンドの結果は、fedora10でのfakeraidのミラーリング構成でのものです。(同じものを下に引用しました) ----------------------------------------------------------------------------- <Fedora10での結果> /dev/mapper/VolGroup00-LogVol00 476871688 55799360 396848584 13% / /dev/sda1 194442 21960 162443 12% /boot tmpfs 896296 1152 895144 1% /dev/shm ----------------------------------------------------------------------------- ところが、fedora7での同様の構成(マザーは異なっている)にて、dfコマンドをすると、 下記のようになります。 これらをみると、Fedora7では/bootなど特殊なディレクトリは、/dev/mapper/pdc_dacjp1で管理されていることがわかり、 そしてfedora10では/bootが/dev/sda1にて直接管理されているようです。 fedora10にて、教えていただいたように「dmraidコマンド」でraidの構成の具合を確認したところ、>>481 のように正常のようです。 このFedora7と10でのraid1における、/bootに対する表示の差は何を意味しているのですか。 Fedora10になって、dmraidがより高度化して、/dev/sdaでraid1をラッピングしているわけなのでしょうか? ---------------------------------------------------------------------------------------- <Fedora7での結果> Filesystem 1K-ブロック 使用 使用可 使用% マウント位置 /dev/mapper/VolGroup00-LogVol00 148297964 29496048 111147312 21% / /dev/mapper/pdc_dacjp1 101086 19396 76471 21% /boot tmpfs 2032296 0 2032296 0% /dev/shm
514 名前:login:Penguin mailto:sage [2009/01/16(金) 03:13:14 ID:rwDT7nUQ] LVMの問題ではなくて?
515 名前:login:Penguin mailto:sage [2009/01/18(日) 13:33:02 ID:mOdWiiXB] mdadm使いにくいよー raidtoolsのほうがバタ臭いけどいい mdadmで一番むかつくのが良くわからないタイミングで ディスクがspareにされて、元に戻したいのに戻せない。イライラ
516 名前:login:Penguin mailto:sage [2009/01/18(日) 22:48:12 ID:06Dcpdo5] raid6がお亡くなりになった。 HDDというよりSATAカードが死亡したっぽい。 (玄人志向とPromiseのSATAカードの2枚挿しで8つHDDをくっつけてる。 今回は玄人志向がお亡くなりになった。) 再起動してカードは復活したみたいなので (配下のHDDが/devに戻ってきた&badblocksが通った) HDDをArrayに追加しようとしたが 配下のHDDが全部faulty removedに落ちちゃってて mdadm -Aでもcannot get array info for /dev/md0と表示されエラー。 このスレの64氏の現象に近い気がするが、 superblock書き換えなどは出来る自信ないので mdadm -Cで再度Array構築しなおした。 ここんとこバックアップをサボってたから結構痛いわー。 つーかもうSATAカードとかあまり使わないで済むように ちゃんとしたファイルサーバ組んだ方がいいな。
517 名前:login:Penguin mailto:sage [2009/01/19(月) 00:09:08 ID:L7Ubbq6r] カードまたいでRAID5/6組んでたら、カード死亡には対応できんよなぁ。 カード単位でお亡くなりになるケースは結構ありがちだし対策したいところ。 カードを1枚にしてそこに全部ぶら下げればカードが死んでも 全部見えなくなるだけでsuperblock更新されないから、516は防げるかも。 同じ考え方で、台数が必要な場合はSATAカード2枚準備して、 SATAカードをまたいでmdのRAID1を組んでそれを繋げるとか、 同じカードのSATAポート群とかカードのRAID機能でRAID5/6を 作ってそれをmdで繋げるとか。
518 名前:login:Penguin mailto:sage [2009/01/19(月) 06:19:37 ID:CHw0KQY0] >お亡くなりになる やめてください、そういう表現。 葬式の臭いがしてくる。
519 名前:login:Penguin mailto:sage [2009/01/19(月) 10:43:16 ID:L7Ubbq6r] は?
520 名前:login:Penguin mailto:sage [2009/01/19(月) 17:06:36 ID:426uxyHi] カード死んだら葬式みたいなもんだろ…
521 名前:login:Penguin mailto:sage [2009/01/19(月) 17:30:39 ID:/o7gcRDM] データさえ生きてりゃ今夜が山状態だろ。
522 名前:login:Penguin mailto:sage [2009/01/19(月) 17:38:24 ID:hR5pv9yI] >>515 次に使うまでに 一度「バタ臭い」の意味を調べた方がいいと思う。
523 名前:login:Penguin mailto:sage [2009/01/19(月) 19:31:23 ID:AVvVP96W] ○バタくさ・い【―臭い】 (形) 〔バタはバターの意〕西洋風な感じがする。また、西洋かぶれしている。 「―・い表現」「―・い顔立ち」 ◎きなくさ・い 4 【きな臭い】 (3)なんとなく怪しい。うさんくさい。 「どことなく―・い話」 三省堂提供「大辞林 第二版」より
524 名前:login:Penguin mailto:sage [2009/01/19(月) 20:42:12 ID:8LWc0G4T] 西洋人は信用するなって事ですね。
525 名前:ライナス [2009/01/19(月) 21:21:54 ID:CHw0KQY0] もともこもない
526 名前:login:Penguin mailto:sage [2009/01/20(火) 11:04:32 ID:QUoqwrOB] いままで、raid1で十分だと思っていた。 でも、もし、片方が壊れて、もう片方に不良セクタ君があったら、データは損傷してしまう。 そこで、raid5の出番である。 ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。 でも、raid5は、ディスク2台が同時期に壊れてしまったら、もはやすべて終わりである。 で、そこで、raid6の出番。今は、6(二方式の内、パリティーを分散する方式の方)が一般化しているんだね。 ストライプという概念は同じであるけど、パリティーを強化して、ディスクが2台壊れても平気なようにしてあるんだね。 ディスクが安価な今は、冗長な構成でも苦しくないね。 カードが壊れたという人が↑の方にあったけど、カードってそんなに壊れやすいの? カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。 それから、そもそも先に不良セクタをマークしておいたら、raid1でもいいんじゃないかな。
527 名前:login:Penguin mailto:sage [2009/01/20(火) 11:39:38 ID:tmOakhLn] 復旧可能かどうかはカードの壊れ方次第では。 壊れた結果ムチャクチャなデータを デタラメに書き込まれたら どう頑張っても復旧でけんだろう。 カードが壊れやすいかどうかは これまたカード & 運次第かと。 俺は一度も壊れた経験ないけど。
528 名前:login:Penguin mailto:sage [2009/01/20(火) 11:45:10 ID:gBT8fCPT] >>526 日頃の行いが悪いからHDDが壊れる。
529 名前:login:Penguin mailto:sage [2009/01/20(火) 13:11:48 ID:jayBGkBw] >>526 なんつーか理解してないな > ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。 RAID5でもRAID1でも、単体ではdegradedでの不良セクタに対処できない点は同じ > カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。 それが>>517 > それから、そもそも先に不良セクタをマークしておいたら、 経時の不良セクタ発生に対処できない まぁカードが壊れることはそれほど多くない。 業務で大量に管理していれば結構見るけれど、個人でやる分には当たる確率は低い。
530 名前:login:Penguin mailto:sage [2009/01/20(火) 18:33:36 ID:n7Hnf9Lk] 516だが再構築の際エラーが出て停止 その後色々試したがなんかカードのBIOSから一部のHDDがみえたりみえなかったり ついにはbadblocksも通らないHDDが出始めた もしかしたら今回の犯人はカードじゃなくHDDがカードを巻き込んで落ちたのかも と思っていた時 海門のニュースを知った 6台が該当です。 本当にありがとうございました。
531 名前:login:Penguin mailto:sage [2009/01/20(火) 18:46:34 ID:AAZq+mqB] RAIDを組むハードディスクは、製品や製造ロットを同じものにしないほうがいい、というのは本当だったか。 530に同情するよ。サーバーが落ちても気は落とすな。
532 名前:login:Penguin mailto:sage [2009/01/20(火) 20:46:45 ID:3icForSX] >>531 基本中の基本 RAID1ペア組むときはメーカーから変える
533 名前:login:Penguin mailto:sage [2009/01/20(火) 21:20:12 ID:QUoqwrOB] >海門 =sea gate ファームウェアの不具合の件ですよね 困るよなあ、といいつつ、私も、そのメーカーのディスクでした。 ハードディスク買うなら、”海門”と決めていたんです。なんか、壊れにくいイメージがあるから。 壊れたことがない。かちゃん、かちゃん、かちゃん、なんて絶望的な音をさせたことがないということです。
534 名前:login:Penguin mailto:sage [2009/01/21(水) 11:28:11 ID:KNJKiqg2] 以前は同じモデルでも容量がちょっと違っていて、 交換したら容量不足で使えないという悲しいことが ちょくちょくあったが、 最近は違うメーカーでも問題が起きなくなったので ありがたい。
535 名前:login:Penguin mailto:sage [2009/01/21(水) 12:56:36 ID:1/Cy7HwZ] いつ消えるか分からないメーカーのサービスに期待して全領域使っちゃうのは馬鹿だろ 保証されてるのは例えば500GBなら500,000,000,000Bまで。
536 名前:login:Penguin mailto:sage [2009/01/21(水) 13:04:54 ID:xEzc7nEM] ぴったりの500GBのディスクが無ければ、 750GBのディスクを買えばいいのに。
537 名前:login:Penguin mailto:sage [2009/01/21(水) 14:35:01 ID:Lxj+eixA] 同じモデルって前提だろ バカか バカなのか
538 名前:login:Penguin mailto:sage [2009/01/21(水) 15:07:49 ID:+OFl4BAS] 個人でしょぼいRAID5環境を動かしていましたが ばっちりRAIDカードが壊れたことあります。 というか、フェイクRAIDしか無いカードをmdで使っているのに RAIDカードと言うのか?とは思います。 玄人志向の4ポートPCI SATAカードでした。 C7のSATA2ポートなM/BでRAID5をやるために使いましたが 一年弱で、4つのうち一つのポートが動作しなくなりました。 予備HDDはあったので、HDDを入れ替えても認識せず よくよく調べると、カードのほうが死んでいたというオチ。 急場をしのぐために、オンボードのSATAポートとの混在RAID5として そのまま2ヶ月程度、問題なく動きました。(その後SATAカードを交換) 今はPCIeの1430SAで、あえてmdドライバー。 ところで、Linuxでホットスワップで再認識する条件とか手順ってどうなるのでしょうか? とりあえず、普通に抜き差しするとダメっぽいのですが… チップやドライバーではなく、玄人志向のカードがホットスワップ非対応だったのかなぁ…
539 名前:login:Penguin mailto:sage [2009/01/21(水) 15:42:19 ID:C3awCYv6] 普通に抜き差しでok。sata_sil24のはずなので対応してる。 多分カーネルが古いのが原因。
540 名前:login:Penguin mailto:sage [2009/01/21(水) 15:47:09 ID:xqg3zZth] 外す前にこれでHDDの電源を落としておく方が安全 # echo 1 > /sys/block/sdX/device/delete
541 名前:login:Penguin mailto:sage [2009/01/21(水) 15:47:43 ID:NpsqSYmx] ロット揃えたほうがパフォーマンス良さそうなのでRaidアレイ組むときは毎回揃えてるけど、 豪快なロット不良見ると怖くなるな。
542 名前:538 mailto:sage [2009/01/22(木) 02:32:04 ID:9i3fv5RC] >>539 ,>>540 ありがとうございます。試してみたらできました。 というかオチがあります。 これ、取り外した時点でデバイスが消えないのは仕様なのでしょうか? たとえば、普通にfdisk -lには出てきます。 HDDを止めて再スピンアップさせることで初期化が行なわれて 現在接続されているHDDの情報に書き換わるという挙動のようです。 で、以前はHDDの停止と再スピンアップなどは行なわなかったために 差し替え直後のfdisk -lで、HDD情報が更新されていないことを理由に ホットプラグが正常になされていないと判断していました orz #/sys/block/sdX/device/下のファイルについては #どこ探せば情報が見つかるものでしょうか…
543 名前:login:Penguin mailto:sage [2009/01/22(木) 15:19:59 ID:CwsVQNf2] >>541 > ロット揃えたほうがパフォーマンス良さそうなので 意味が分からない
544 名前:login:Penguin mailto:sage [2009/01/22(木) 15:31:18 ID:7lkmeW2Z] 昔はRAID組むなら同一型番できればロットも揃えようっていう風潮だった。 型番同じでもファーム違うと微妙にキャッシュアルゴリズム変わってたりするし。 その場合ベンチの結果も微妙に変わる。 アクセス速度近い方が効率よさそうじゃん。 当然同じようにアクセスするディスクでロットまで同じだと壊れるのも一緒になるから ロットくらいはばらした方が良いって言う人もいたけど。
545 名前:login:Penguin mailto:sage [2009/01/22(木) 20:50:46 ID:u0UB26l/] ロットどころかメーカーからばらす。 まぁ結局はRAIDに何を求めるか、なわけだが、 あるのかかどうか分からないパフォーマンス向上を目当てに 同時故障リスクを採る選択は、俺はしないね
546 名前:login:Penguin mailto:sage [2009/01/22(木) 21:43:17 ID:xRfSeFjv] >>540 そんな/sysの下の物体の情報って、一体どこで見つけるの?ソース? 俺はいままで sdparm -C stop /dev/sda とかしてたよ。
547 名前:login:Penguin mailto:sage [2009/01/22(木) 21:57:04 ID:u0UB26l/] >>546 基本はソースだけど、その場合むしろsdparmの方がいいんでは? /sys直叩きだといちいちカーネルの仕様変更追っかけないといけなくなる
548 名前:login:Penguin mailto:sage [2009/01/23(金) 01:31:55 ID:iL0wYbEo] >>544 昔って何十年前の話?
549 名前:login:Penguin mailto:sage [2009/01/23(金) 01:35:42 ID:gP0PPzWy] 5年前
550 名前:login:Penguin mailto:sage [2009/01/23(金) 03:37:27 ID:93gY8ymT] ディスクアレイはロットは知らんがメーカーと型番くらいは揃ってるな。 メーカーバラバラだったら同じ所からは二度と買わんわw
551 名前:login:Penguin mailto:sage [2009/01/23(金) 12:07:20 ID:3M4C0RkK] >>549 俺の周辺の風潮では5年前でも 安全のためにロットは揃えるな だったが。 ま、地方によって違うんだろうな。
552 名前:login:Penguin mailto:sage [2009/01/23(金) 13:08:14 ID:7Cxp47f1] まだDECがあったころ、導入したDECのサーバーは業者が段ボール箱から次々とHDDを 取り出して組み込んでいたから同じロットだったんじゃないかと思うんだが、記憶が確かではない。 それが俺のRAID初体験なのでロットのことまで気が回らなかった。 HDD組み込み済みのRAIDボックスはどうなんだろうか?同一ロットにならないようにしているのかな? ちなみに自分で組むときは、新しく買ってきたやつと予備としてストックしてあるやつを混ぜて使うようにしている。
553 名前:login:Penguin mailto:sage [2009/01/24(土) 04:31:39 ID:ptL5pKyY] >>533 シーゲートのファームウェア不良の件、 ウインドウズ用には、不具合検出用のツールがあるが、 どうしてリナックス用にはないのだろう。 リナックスユーザーは多いだろうに。 それとも、あるんですか?
554 名前:login:Penguin mailto:sage [2009/01/24(土) 07:30:04 ID:u99vPwbM] >>553 切捨てられてるんだろう。いつものこと。
555 名前:login:Penguin mailto:sage [2009/01/24(土) 13:11:53 ID:Di00Ifqv] 検出専用ソフトではなく CD版のSeatoolsでブートすりゃいいんじゃないかと思うが
556 名前:login:Penguin mailto:sage [2009/01/24(土) 21:47:35 ID:ptL5pKyY] ありがとう
557 名前:login:Penguin mailto:sage [2009/01/28(水) 00:26:06 ID:ir2fam9u] #mdadm -C /dev/md0 -l5 -n4 /dev/sd[bcde]1 で、cat /proc/mdstatで状態見るとリビルドしてるけど なぜか[UUU_] はあ?と思ってmdadm -D /dev/md0 してみると /dev/sde1 がspare rebuildingになって勝手にspare扱いになってる。 意味がわからない。スペアなんか作りたくないし。そんな指定はどこにもしてない。 エスパーレスおながいします。
558 名前:login:Penguin mailto:sage [2009/01/28(水) 00:38:08 ID:LK11AqVS] >>557 zero superblockした?
559 名前:login:Penguin mailto:sage [2009/01/28(水) 07:15:42 ID:ir2fam9u] >>558 sdb1〜sde1 全部にmdadm --zero-superblock してみましたが 変わりませんでした。 こうなるのも謎です。なぜ[4]なのか・・・ >md0 : active raid5 sde1[4] sdd1[2] sdc1[1] sdb1[0]
560 名前:login:Penguin mailto:sage [2009/01/28(水) 07:34:42 ID:LK11AqVS] mdの構成対象外でも、システム内に3に相当するsuper-minor番号の パーティションがあるとそうなるかも… # mdadm --examine /dev/sdb1 するとどうなります?
561 名前:login:Penguin mailto:sage [2009/01/28(水) 07:39:07 ID:ir2fam9u] こうなりました /dev/sdb1: 〜 (長いので省略、多分あまりこの部分は関係なさそうです) 〜 Number Major Minor RaidDevice State this 0 8 17 0 active sync /dev/sdb1 0 0 8 17 0 active sync /dev/sdb1 1 1 8 33 1 active sync /dev/sdc1 2 2 8 49 2 active sync /dev/sdd1 3 3 0 0 3 faulty 4 4 8 65 4 spare /dev/sde1
562 名前:login:Penguin mailto:sage [2009/01/28(水) 13:57:54 ID:3QasENir] よく分からんけど、 単にhdeが故障してfaultyになっただけなんでわ。 hde交換してみれば? >>431 みたいなこともあるし、 SW-RAIDのハードウェア異常時の表示は あまり信頼しない方がいい。
563 名前:login:Penguin mailto:sage [2009/01/28(水) 13:59:12 ID:3QasENir] なんか変だな。 × あまり信頼しない方がいい。 ○ あまり信頼できない。 だね。
564 名前:login:Penguin mailto:sage [2009/01/29(木) 01:18:01 ID:PTiNMDCX] >>561 他のデバイスもexamineしてみると、違いから何か分かるかもしれない。 あと新規構築時にはパリティが不整合の状態なのでresyncするのが通常動作。 でもresync時の追加パーティションってspare表示になる仕様だったっけか?
565 名前:login:Penguin mailto:sage [2009/01/29(木) 06:27:34 ID:12B6/rA+] mdadmでRAID5を設定してるんですが、RAIDを構成してる各ディスクを hdparmでスタンバイに移行するように設定しても大丈夫でしょうか?
566 名前:561 mailto:sage [2009/01/29(木) 07:16:39 ID:WiRmM86x] [UUU_]でリビルド完了を待ったところ[UUUU]になって sde1[3]になりました。原因はよくわかりません。
567 名前:login:Penguin mailto:sage [2009/01/29(木) 19:37:09 ID:PTiNMDCX] >>566 たぶん構築時リビルドだろう ためしに1台をfaulty removeしてもう一回追加、同じ現象になったら間違いない
568 名前:561 mailto:sage [2009/01/30(金) 21:48:37 ID:pZmCaYyi] >>567 今回は初めての事象なんですが Linuxかmdadmがアレイ対象のドライブではないどこかに情報覚えてるってことですよね それを消せればいいような気がします
569 名前:login:Penguin mailto:sage [2009/01/31(土) 21:10:43 ID:INV0scHx] >>568 調べるとしたら設定ファイルとしてはmdadm.conf 場所は/etcとか/etc/mdadmとか
570 名前:login:Penguin mailto:sage [2009/02/08(日) 22:42:30 ID:Ey2JVBl4] 全国のmdadmファンのじょしこうせいのみなさ〜ん みんな知ってるかなぁ?RAID0ってgrowでボリュームを大きくできないんですよ。 で、当然のごとく、RAID10もできないのですよ。 4wayのRAID5をでかいHDDに差し替えていって、grow機能で 250GBx4から500GBx4に移行したことがあったんだけど… 今回は1TBx4に差し替えつつ500GBパーティションx4の RAID5とRAID10を作った上で、データを移し 1TBパーティションx4に移行しようとして いざそこまできてgrowできないことを知ったという orz こういうのをトホホって言うんだと思った。 まぁ、reiserfsからXFSへの切り替えもあったし なんとかmissing付きでRAID10を起動したりして片付けた。 将来もっとでかいHDDに移行するときは それなりの用意をせざるをえないなぁ…
571 名前:login:Penguin mailto:sage [2009/02/08(日) 23:27:56 ID:Nj6iWNXA] えらくピンポイントだなw
572 名前:login:Penguin mailto:sage [2009/02/09(月) 12:39:22 ID:9FAXyoAI] LVM組み合わせれば RAID自体のボリューム拡張できなくても 実用上は問題ないんじゃ
573 名前:login:Penguin mailto:sage [2009/02/09(月) 12:46:53 ID:Eg6suWBI] >>571 ,572 えらいおっさん臭いじょしこうせいだな
574 名前:初心者の通りすがり [2009/02/16(月) 21:37:32 ID:4jXnyPos] お忙しいところ恐縮ですが、質問があるのですが、 誰かお助けを・・ 1、mdadmなどのソフトウェアRAIDで、HDDの不良セクタを自動回避するプログラムは組み込まれているのでしょうか? それとも、セクタ不良の箇所が出た時点で、HDD交換になってしまうのでしょうか? 2、もし、上記のシステムが組まれている場合、HDDに標準で搭載されている機能として、実際に使用者が確認出来る不良セクタは ハードディスクの隠れ領域の余裕空間に代替された不良セクタがそれ以上代替出来る空間がなくなって現れる使用(いまどきのHDDはみなそうですよね?)はずですが、 代替のセクタが現れている時点でセクタのゆとりがなくなっているわけで、そのため、そのセクタを不良セクタとして認識する必要があると思います。 しかし、RAIDの場合、すべてのHDDの同じアドレスのセクタを使用不能にする必要(仮に他のHDDのセクタが正常でも、1うのHDDが以上であれば)があると考えられますが、 これらの対応はされているのでしょうか? 3、可能であれば、RAIDとしてアレイに組み込む前に、HDDのセクタチェックをしてから、アレイに組み込めればと思うのですが、 そのようなLinuxプログラムはあるのでしょうか?(ものすごい時間かかるPGのような気がしますが・・) RAIDその他に関して、初心者で的外れな質問の可能性がありますが、お教えいただければ幸いです。 よろしくお願いします。
575 名前:初心者の通りすがり [2009/02/17(火) 01:22:44 ID:FIlRA3Ek] 自己レスです。 3、のセクタチェックは、mkfs の -c オプションがその任を担っている事が分かりました。 またbadblocks という同じ機能を持つものも発見しました。ただどうやらRead checkだけのようです。
576 名前:login:Penguin mailto:sage [2009/02/17(火) 01:34:14 ID:rlTL3AkS] つ badblocks -w
577 名前:login:Penguin mailto:sage [2009/02/17(火) 01:56:17 ID:ljmr48rY] >>574 1: 不良セクタの回避は通常HDDファームのレイヤの仕事。 mdのレイヤだと特になし。FSは実装次第。 SMARTで異常値が出るような状態なら普通は交換処置。 2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合 そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。 従って >すべてのHDDの同じアドレスのセクタを使用不能にする必要 はない 3: 上に書いたようにセクタチェックは別のレイヤの仕事。 RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。 ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが
578 名前:login:Penguin mailto:sage [2009/02/17(火) 02:17:44 ID:IoPZgIsc] rebuild 時に sw RAID1 が壊れたという話をちらほら聞くけど、 これどうなってるの
579 名前:初心者の通りすがり [2009/02/17(火) 02:26:38 ID:FIlRA3Ek] お返事ありがとうございます! > 1: 不良セクタの回避は通常HDDファームのレイヤの仕事。 > mdのレイヤだと特になし。FSは実装次第。 > SMARTで異常値が出るような状態なら普通は交換処置。 なるほど、それではRAIDにおける致命的なHDDの時期というのは、HDDが認識しなくなったような場合だけと いうことでしょうか?(ここでの質問では適切なHDD交換時期、不良セクタが多くなった場合などを考慮せず、 まったく使えないという状態におけるHDDの交換についての件です) ここで、疑問なのですがinode領域などのセクタにおいても、RAID 1なり5なりでデータを復旧できる場合には、 問題なく利用できると考えても大丈夫なのでしょうか? また無学で恐縮なのですが、このSMARTについて少しご教授いただけませんか? > 2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合 > そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。 > 従って > >すべてのHDDの同じアドレスのセクタを使用不能にする必要 > はない
580 名前:初心者の通りすがり [2009/02/17(火) 02:28:11 ID:FIlRA3Ek] 認識が違っているかもしれませんが・・ このLBAの自動交換は、HDDの代替セクタがある場合そうだと思うのですが、すでに代替 セクタが無い場合、表に見えてしまうと思いますが、mdadmなどはブロックデバイスとして 活動しているということは、LBA(シリンダとセクタから計算されるやつですよね、たしか・・) を基準に管理されているとなれば、ミラーリングなどで、データをそっくりコピーする仕組みのもの などは、不良セクタによって、大きな問題になるのではないでしょうか? よくWEBでも見かけるのは、死んだHDDの代わりにスペアHDDをいれて、Rebuildしている最中に、 不良セクタが発見されて、両方死んでしまったという話も聞きます。 ここでもし、不良セクタ(セクタという言い方が悪いかもしれませんのが、LBA(Logical Block Address)と読み替えていただければ幸いです) を発見したときに、正常なHDD側のデータを他の未使用セクタに移動させ、不良セクタとして使用不可にして、すべてのセクタの同期を取ることができれば、問題は小さいのではと 考えた次第です。 > 3: 上に書いたようにセクタチェックは別のレイヤの仕事。 > RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。 > ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが すみません、そうですよね・・mkfsではRAID構築後なのでどのような動きになるのか、 ちょっと分かりませんが、RAIDシステムがセクタ不良とか見えなくしてしまいますよね。 ちょっと勘違いをしていました。ということは、HDDをセクタ単位でチェックするして 、不良セクタがあったら故障フラグを立てる機能のものはない感じでしょうか? こんな遅い時間にお答えいただきすみません。
581 名前:初心者の通りすがり [2009/02/17(火) 02:48:36 ID:FIlRA3Ek] SMART分かりました! ttp://hddbancho.co.jp/the_hdd_withthebadsectorisrecycled.html なるほど、HDDの持っている情報のことだったんですね。 このページの考え方からすと、代替セクタがなくなったら、HDDは故障と見做すため、 RAIDシステムでは、このような表に出てきたセクタ不良を解決できていない可能性が高いですね。 ただ、ここにもあるように定期的なリフレッシュが無いと唐突なセクタ不良が、代替セクタの有無に関係なく でるので、やはり本当はRAIDで対応したほうがよい気がします。(役割的に) もちろん、Googleの研究成果(不良セクタが出始めたら(代替セクタがなくなったら)HDDの寿命が2次曲線的に劣化する) もあるのでHDDの交換時期については議論が分かれると思いますが、上記の問題はちょっと違う気もします。
582 名前:HDDからSSDへ mailto:age [2009/03/12(木) 09:35:49 ID:yKkrCTUa] SSDを使うようになれば、もうRAIDは必要なくないですか。
583 名前:login:Penguin mailto:sage [2009/03/12(木) 10:14:53 ID:sI0gyPRm] 必要ないと思うならそれでいいんじゃないの。
584 名前:login:Penguin mailto:sage [2009/03/12(木) 11:55:03 ID:nculPVj6] >582 つ冗長化
585 名前:login:Penguin mailto:sage [2009/03/12(木) 12:24:21 ID:unsLfwpp] そうだね。 SSDは故障することは 絶対にないから RAIDなんて不要になるね。 すばらしいことだね。
586 名前:login:Penguin [2009/03/12(木) 22:00:05 ID:yKkrCTUa] SSDの書き込み速度はともかく、読み込み速度は、SLCではかなり高速なので、 冗長化のために、RAIDを使うという意味合いも薄れてくるように思える。 これから、SSDの容量も現在のHDD並に増えていくだろうと思う。 RAIDとSSDとの関係は本当にどうなるのだろう。
587 名前:login:Penguin mailto:sage [2009/03/12(木) 22:03:50 ID:f8xSmkwI] >>586 冗長化の意味間違って覚えていないか?
588 名前:login:Penguin mailto:age [2009/03/12(木) 22:21:41 ID:yKkrCTUa] あっ、ごめん。 今読み返したら、おかしいって思った。 ssdは壊れないので冗長化する必要はない、と使うべき。 でも、ストライピングのことは日本語でなんていうんだろう。
589 名前:login:Penguin mailto:sage [2009/03/12(木) 22:47:16 ID:nculPVj6] へー壊れないの?すごいね
590 名前:login:Penguin mailto:sage [2009/03/12(木) 23:17:36 ID:ZcXhWDBc] 春だなぁ
591 名前:login:Penguin mailto:sage [2009/03/12(木) 23:36:46 ID:xwF18dEu] まだ基幹システムとかではフラッシュメモリのSSDは使われていないからね あの分野でのSSDといえばDRAMをバックアップ電源で保護しているものだからな
592 名前:login:Penguin mailto:sage [2009/03/13(金) 00:18:53 ID:xF/8kpEU] >>591 Acard ANS-9010ですね。わかります。
593 名前:login:Penguin mailto:age [2009/03/13(金) 00:21:33 ID:gAax1MH3] 今普及している方のバックアップ電源不要のSSD(SLCタイプ)の寿命は伸びているし、 そもそも、稼動部分がないので、壊れないと考えてもいいんじゃないですかね。
594 名前:login:Penguin mailto:sage [2009/03/13(金) 00:24:13 ID:khYqmRB3] .| | | | | | | | | | || | | .| | | レ | | | | | J || | | ∩___∩ | | | J | | | し || | | | ノ\ ,_ ヽ .| レ | | レ| || J | / ●゛ ● | .J し | | || J | ∪ ( _●_) ミ .| し J| 彡、 |∪| | .J レ / ∩ノ ⊃ ヽ ( \ / _ノ | | \ " / | | \ / ̄ ̄ ̄ /
595 名前:login:Penguin mailto:sage [2009/03/13(金) 00:31:59 ID:HFjGgXnG] ID:gAax1MH3
596 名前:login:Penguin mailto:sage [2009/03/13(金) 00:34:36 ID:gAax1MH3] 不良セクタですか?
597 名前:login:Penguin mailto:sage [2009/03/13(金) 00:37:05 ID:FglLNM8V] SSDの仕組みの説明だけ読んで 長所短所の説明は読んでいない人っている? そもそもWindowsだとRAID0がRAIDの中心みたいに考えている人も多いけど 一般的にはRAIDの中心にあるのは、可用性の向上にあるわけで SSDを用いることで、RAIDが不要になるってことは、かけらほどにも無い要素でしょ? 速度面では、SSDがSATAの速度を満たしたとしても メモリーバスよりはるかに遅いストレージにストライピングが不要ということは無いし 大容量のものほど割高なストレージの特性からも、ストライピングは有用。 可用性においては、フラッシュメモリーSSDの耐久性は 無限なわけでもなく、加速テスト的な使い方で壊して見せている人もいる。 RAID1,5,10が不要なわけがない。 というか、たとえDRAMだって、壊れることはあるし SSDの制御基盤レベルの故障だって、理論上はある。 #まじれすかこわるい
598 名前:login:Penguin mailto:sage [2009/03/13(金) 00:39:47 ID:E2+gGF86] まじれすかっこいい
599 名前:login:Penguin mailto:sage [2009/03/13(金) 00:48:09 ID:gAax1MH3] >>597 私は、リナックスでソフトレイドで、ミラーリングしか使ったことがありません。 SSDでも物理レベルで壊れるんですか。 ということは、SSDでさえもミラーリングが要りますね。 すみません。マジレスありがとうございます。 でもわからない点がいくつか。 可用性とはどういう意味なのでしょうか。耐久性の向上という意味なのでしょうか。 マジで、意味がわかりません。可用という単語を私は日本人なのですが辞書で引きました。 載っていません。直訳してみれば、「用いることができる性質」ということですよね。 専門用語らしいので、どういう意味を一般的に指すのかピンときません。
600 名前:login:Penguin mailto:sage [2009/03/13(金) 01:02:52 ID:nEmQi6SY] >>599 「可用性」でぐぐれよ……。最初に答えが出てきてるのに。 つか、RAIDを語るのに可用性を知らんて、議論以前の問題だろ。 あと、SSDが壊れないってどれだけ頭がお花畑ー。 データセンタじゃ、HDDどころか、電源もマザーもCPUもメモリもRAIDコントローラもネットワークカードも毎日のように壊れてるぞ。
601 名前:login:Penguin mailto:sage [2009/03/13(金) 01:17:57 ID:gAax1MH3] >電源もマザーもCPUもメモリもRAIDコントローラもネットワークカードも毎日のように壊れてるぞ 密封固体コンデンサになったんで、もう、茶色い花が咲くことはないだろうと喜んでいたんですが、 やっぱりこれも甘いですか。 でも、いったいどうして、それらのデバイスは壊れるんでしょうかねえ。 どうして、見たところどうもなっていない電源が壊れているのかわかりません。 どこが物理的に壊れているんでしょう。 ソフトウェアは壊れない。ハードウェアが壊れるんだ。 私のつくったソフトは壊れたことがないですが、ハードウェアが壊れるんで、 放っておくことができなくひどく残念です。 ハードウェアさえ壊れなければ、安泰なのになあ。 (すみません、Windowsと、Linuxが壊れてしまったら私のもだめですよね)
602 名前:login:Penguin mailto:sage [2009/03/13(金) 02:45:00 ID:IObRXwbU] gAax1MH3が壊れてる件について
603 名前:login:Penguin mailto:sage [2009/03/13(金) 02:56:17 ID:gAax1MH3] ついに、ばれたかー。602は、なかなか鋭いな。 そう、わたしの本体は、ハカセがつくった人工知能プログラム。 だから、低レイヤーのことはアクセスできず何もわからないんだー。 以上の冗談はおいて、おいて、 >>601 について、マジレスを希望しています。
604 名前:login:Penguin mailto:sage [2009/03/13(金) 04:37:32 ID:B/yX40Kk] ソニータイマーと同じ。 以上
605 名前:login:Penguin mailto:sage [2009/03/13(金) 05:41:36 ID:HFjGgXnG] >>602 それをニヨニヨしながら見守るのが今の流れです
606 名前:login:Penguin mailto:sage [2009/03/13(金) 07:13:37 ID:gAax1MH3] >ソニータイマー そういうのもあるんですね。初めて知りました。 でも、たとえば半導体なら、どういう機序で破壊されていくのでしょうかねえ。 タイマーが短い素子ってなんでしょうか。 CPUや、DRAMのタイマーは何がそうしているんでしょうか。内部の細い線の蒸発?
607 名前:login:Penguin mailto:sage [2009/03/13(金) 12:09:30 ID:4rdjPXAi] 形あるものは、何であれ、いずれは壊れるよ。 こんな当たり前のことを知らないなんて、 リアル小学生か?
608 名前:login:Penguin mailto:sage [2009/03/13(金) 15:23:16 ID:HSB+9X6W] SSDでもHDDでもRAIDで雑誌に取り上げられるのはRAID0での性能ばかり なんでRAID0使う理由があるの?冗長性が無いじゃん
609 名前:login:Penguin mailto:sage [2009/03/13(金) 16:13:48 ID:6eQQWDsF] スレが妙な流れなので、清めます。 もっちゃらへっぴ〜もけもけさ〜
610 名前:login:Penguin mailto:sage [2009/03/13(金) 22:55:58 ID:OBlhHJW3] SSDはディスククラッシュはないから、SMARTでの寿命予測の信頼性が 上がって、結果としてRAID0でもOKOKとなる可能性はあるね。それでも 事故時には全部吹っ飛ぶけど、最大の事故要因が潰れるだけでも 従来のRAID0よりははるかに安心できる。
611 名前:login:Penguin mailto:sage [2009/03/13(金) 23:34:38 ID:HSB+9X6W] 性能を上げたければRAID0+1にすればいいのに なんで冗長性の無いRAID0にするのか良く分からん
612 名前:login:Penguin mailto:sage [2009/03/14(土) 00:18:48 ID:AaTK9Cfj] そこはそれ、RAID10(0+1ではなく1+0)が注目されたのは HDDの低価格化がより進んだ最近のことだから まだ、雑誌記事としての啓蒙が進んでいないんじゃないかな。 うちは今年になってから 500GBx4のRAID5を1TBx4のRAID10に切り替えた。 WDのgreenを選んだから、読み出しは500GB(7200rpm)の頃と 比較していないけど、書き込みは速くなって満足してる。 個人的には、動画のCMカット(無再圧縮加工)には 少しでも速いストレージが欲しいと思ったことがある。 Windowsだと、起動速度に執着している人が多いかのように思える。 そういうところにRAID0需要はあるんだと思う。 一基のHDDで大容量を求めるのは、割高でありながら… 故障時のダメージも相対的に大きくなるから RAIDで複数のHDDをまとめつつ、可用性も高めてウマー (1TBのRAID10は2TBのRAID1より安上がりって話)