1 名前:login:Penguin mailto:sage [2009/09/16(水) 23:34:35 ID:JK/kMdkU] Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/ スレ 3 pc11.2ch.net/test/read.cgi/linux/1168487758/ スレ 4 pc11.2ch.net/test/read.cgi/linux/1208263754/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.com/ja-JP/_common/os_support/linux/ Linux EVMS 一般 ttp://evms.sourceforge.net/ Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。 ... あと続けてくらさい。
159 名前:login:Penguin mailto:sage [2010/07/27(火) 23:35:52 ID:CDEVG/fS] >>156 RAIDボードのBIOSからExpoprt JBODとかか? PromiseだとJBOD利用でも必ずBIOSからUnitを作成しないとデバイスが認識しなかった。
160 名前:login:Penguin mailto:sage [2010/07/28(水) 00:58:03 ID:C+9PDLMA] Promiseは平然と「1台構成でもアレイ組まなきゃ見えませんから^^」とか言い出す基地害板だからな
161 名前:login:Penguin mailto:sage [2010/07/28(水) 09:01:33 ID:E6Ms9Bcd] HardRAIDカードって壊れたときの対処ってどーなんすか? HDD2個でRAID1使ってた場合 復旧不可能?
162 名前:login:Penguin mailto:sage [2010/07/28(水) 11:42:36 ID:fYI1FyG/] 何がどう壊れたかによって話が変わる 漠然と言われても
163 名前:login:Penguin mailto:sage [2010/07/28(水) 12:29:45 ID:esiaNd7h] >>160 HighPoint RocketRAID 2300とかは「1台でもアレイ組め」に加えて、 POSTの際に繋がってるディスクのデータを(アレイのメンバじゃなくても問答無用で)壊すけどな!
164 名前:login:Penguin mailto:sage [2010/07/28(水) 14:26:58 ID:lqUxMOoj] >>163 それ嘘だ。 イニシャライズせずにレガシーのまま使えばアレイ組まなくても使える。
165 名前:163 mailto:sage [2010/07/28(水) 14:43:25 ID:esiaNd7h] >>164 1台でもアレイ組めは俺の記憶違いか。すまん。
166 名前:login:Penguin mailto:sage [2010/07/28(水) 17:14:44 ID:fXbebyC4] >>165 いやいや、結構はまりやすいよ。RAIDボードでのSingle DiskとJBODの設定は。 前者はハードディスクを消去するボードもあるし、後者もJBODでもUNITを作成しないとハードディスクを認識しない等。 俺もいろんなメーカーのRAIDボードメンテナンスしていたが今でもごちゃごちゃ。 一番楽なのはLinux SoftwareRAIDだな。
167 名前:156 mailto:sage [2010/07/29(木) 19:45:06 ID:MQlBotXc] みなさんの言うとおり、SAS6iRを挿しそのままHDDをつなぎ替えて起動してみましたところ初めからHBAとなり、何もせずに移行できました。 ありがとうございました。
168 名前:156 mailto:sage [2010/07/29(木) 22:21:04 ID:MQlBotXc] ベンチ計測してみた。 SAS6iR HDD8台(WD10EADS) ソフトウエアRAID6 hdparmでread測定したら、251MB/sだった。 たぶん遅い部類なんだろうな。
169 名前:login:Penguin mailto:sage [2010/07/29(木) 22:31:18 ID:hc5F77Bz] >>168 多分バス速度で頭打ち。
170 名前:login:Penguin mailto:sage [2010/09/04(土) 01:19:05 ID:XZAw0nxj] ttp://hellokitty68.main.jp/wiki/Linux_Software_RAID5 ここを参考にしてraid1からraid5へ移行する実験をしてるのですが、 echo raid5 > /sys/block/md0/md/level の段でこけます。 -bash: echo: write error: デバイスもしくはリソースがビジー状態です となります。 viしてもE667 : Fsync failedでやっぱり変更できません。 原因や対策をご存知の形はいらっしゃいませんか? OSはCentOS5.5、Fedora13の両方で試しましたが同じような状況です。 環境はVM上です。
171 名前:login:Penguin mailto:sage [2010/09/04(土) 07:17:14 ID:w4DAMBkG] itpro.nikkeibp.co.jp/article/Keyword/20091106/340168/ そもそもそんなことが出来るのを今知った
172 名前:login:Penguin mailto:sage [2010/09/04(土) 11:47:48 ID:gxReY0uS] Fedora12の5→6はecho raiid6 で行ったがなぁ addした後で # mdadm --grow /dev/mdXn --raid-level 5 --raid-devices=3 --backup-file=どっか で行かんかな
173 名前:login:Penguin mailto:sage [2010/09/04(土) 16:30:06 ID:RWU7tg0Q] >>170 情報が少なくてよくわかんない とりあえず、以下のコマンドの実行結果を貼ってくれれば何かわかるかも # cat /proc/partitions # cat /proc/mdstat # mdadm --detail /dev/md0
174 名前:login:Penguin mailto:sage [2010/09/04(土) 18:28:47 ID:PnMMuH/V] >>170 ちゃんとrootユーザで実行したか? sudoで実行しても蹴られるぞ。 $ sudo -s でrootになってもう一度実行してみて。
175 名前:login:Penguin mailto:sage [2010/09/04(土) 18:41:14 ID:XZAw0nxj] >>170 です 参考にしていたサイトがSUSEを使ってやったようなので、 ためしにSUSE11.3で同じようにやったら問題なく出来ました。 実際にCentOSで500GBのRAID1を組んでるファイルサーバーを 将来的にRAID5で運用したいと思い実験をしています。 ですのでCentOSで出来るようになるのが目標です。 >>172 もうしわけないです。 --backup-fileオプションの使い方が良くわかりませんでした。 勉強します。 >>173 次のレスに貼り付けます。
176 名前:login:Penguin mailto:sage [2010/09/04(土) 18:45:24 ID:XZAw0nxj] # cat /proc/partitions major minor #blocks name 8 0 8388608 sda 8 1 104391 sda1 8 2 522112 sda2 8 3 7759395 sda3 8 16 4194304 sdb 8 17 4192933 sdb1 8 32 4194304 sdc 8 33 4192933 sdc1 8 48 4194304 sdd 8 49 4192933 sdd1 9 0 4192832 md0 # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdd1[2](S) sdc1[1] sdb1[0] 4192832 blocks [2/2] [UU] unused devices: <none>
177 名前:login:Penguin mailto:sage [2010/09/04(土) 18:47:23 ID:XZAw0nxj] # mdadm --detail /dev/md0 /dev/md0: Version : 0.90 Creation Time : Fri Sep 3 23:42:20 2010 Raid Level : raid1 Array Size : 4192832 (4.00 GiB 4.29 GB) Used Dev Size : 4192832 (4.00 GiB 4.29 GB) Raid Devices : 2 Total Devices : 3 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Fri Sep 3 23:58:31 2010 State : clean Active Devices : 2 Working Devices : 3 Failed Devices : 0 Spare Devices : 1 UUID : 5e7be737:36419030:20c51d1d:ba7d4872 Events : 0.2 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 - spare /dev/sdd1
178 名前:login:Penguin mailto:sage [2010/09/04(土) 18:52:43 ID:XZAw0nxj] >>174 もちろんrootです。 今再確認してやってみましたがやはりrootでもダメでした。 # fuser /sys/block/md0/md/level ってやっても結果が返ってこないから プロセスが使ってるとかではないように思います。 それともfuserの使い方間違えてるのかなぁ・・・
179 名前:login:Penguin mailto:sage [2010/09/04(土) 20:45:43 ID:PnMMuH/V] >>178 ブロックデバイスの3重RAID1に変換してから、3デバイスのRAID5に変換してみて。
180 名前:login:Penguin mailto:sage [2010/09/04(土) 22:58:56 ID:XMPA/Vxp] >>171 には、カーネル2.6.30以降とか書いてあるのだが CentOSは2.6.18とかだろ? Fedora13で不可(>>170 )というのはわからんけどね。 正確にどのバージョンから可能になるのか、俺は知らないが。
181 名前:login:Penguin mailto:sage [2010/09/05(日) 00:04:30 ID:HUBnDTBu] >>179 # mdstat --grow /dev/md0 -n 3 をやるってことですよね? その後、 --glow -l 5とかやってもダメでした。 例のファイルへのechoも相変わらず蹴られます。
182 名前:login:Penguin mailto:sage [2010/09/05(日) 13:59:40 ID:ca0DYFqh] >>180 年末〜来年明け頃リリースされるであろう EHEL6(Kernel2.6.32)ベースのCent6待ちと勝手に予測
183 名前:login:Penguin mailto:sage [2010/09/05(日) 23:51:45 ID:0TzuHuxG] >>181 残念ながら、>>180 の指摘のとおりCentOS5のカーネルが古くてダメっぽい CentOS5の環境にRHEL6のカーネル(2.6.32)だけを(無理やり)入れて、 2.6.32で起動すればRAID1->RAID5に変更できた。 RHEL6のカーネルは↓のSRPMからCentOS5上でビルドしたけど超面倒だった ttp://ftp.ne.jp/Linux/distributions/redhat/ftp.redhat.com/rhel/beta/6/source/SRPMS/kernel-2.6.32-19.el6.src.rpm データのバックアップを取ってRAIDアレイを作り直した方が安全&確実
184 名前:login:Penguin mailto:sage [2010/09/06(月) 18:34:36 ID:tFSr8hS+] Fedora13(今は2.6.34)で出来ないのがホント不可解だよね metadata 0.90が悪いのかと思ったけど手元ではそんなこと無いし
185 名前:login:Penguin mailto:sage [2010/09/06(月) 21:02:06 ID:mrESGec/] fedora13のインストーラーのカーネル(2.6.33.3-85.fc13.x86_64)でも 普通にRAID1→RAID5に変更できたよ >>170 のfedora13で出来ないってのは何かの間違いだと思う
186 名前:login:Penguin mailto:sage [2010/09/08(水) 11:21:02 ID:4n0gc/4A] >>170 です >>182 いや、そうならそうで早く出て欲しいですね。。。 >>183 ビルドしたってことはrpm -ivh ではないんですよね? カーネルの構築はLinuxを弄り始めた頃に挫折して、 それ以来一度もやってなくて苦手意識ありありです。 もしよければさわりだけでも教えていただけますか? ググったところ、ここが参考になりそうとは思ったのですが。 ttp://www.atmarkit.co.jp/flinux/rensai/linuxtips/a113rebuild.html >>184 >>185 うーん、もしかしたら僕の作業に間違いがあったかも知れません。 もう一度やってみます。 SUSEインストール→Raid5に変更→CentOSインストールしなおし で出来たにはできたけど、これはちょっと非現実的ですよね。 目標は現在のOSのままやりたいので。 その点では>>183 さんのように Raid変更のためだけにカーネルだけ変えて起動するっていうのが いいような気がしました。
187 名前:login:Penguin mailto:sage [2010/09/09(木) 00:31:31 ID:uO+QGL4T] >>186 knoppixみたいなLiveCDは? 一応手順も貼っとくけど、自己責任でヨロ 0. kernel-2.6.32-19.el6.src.rpmをダウンロード (/root/kernel-2.6.32-19.el6.src.rpm) 1. ディレクトリ準備 # cd /usr/src/redhat # mkdir BUILD RPMS SOURCES SPECS 2.SOURCESディレクトリでSRPMを展開(何故か、rpm -iで入れようとしたらCRCエラーと言われたので) # cd /usr/src/redhat/SOURCES/ # rpm2cpio /root/kernel-2.6.32-19.el6.src.rpm | cpio -id 3. config-genericを編集 # vi config-generic →以下の2行を追加 CONFIG_SYSFS_DEPRECATED=y CONFIG_SYSFS_DEPRECATED_V2=y 4. kernel.specをSPECSディレクトリに移動&編集 # mv kernel.spec ../SPECS/ # cd ../SPECS/ # vi kernel.spec →2箇所変更 コメントアウトされている「%define buildid〜」のコメント解除し、適当に変更(例:%define buildid .centest) 「%define signmodules 1」を「%define signmodules 0」に変更 つづく
188 名前:login:Penguin mailto:sage [2010/09/09(木) 00:38:48 ID:uO+QGL4T] >>187 のつづき 5. パッケージビルド(--targetは適宜変更) # rpmbuild -bb --target=i686 --without kdump --without perf --without perftool --without kabichk --without fips --without debuginfo --without dracut --without vdso_install kernel.spec →エラーが無ければ/usr/src/redhat/RPMS/i686/にカーネルパッケージが出来る 6. カーネルパッケージを強制インストール # cd /usr/src/redhat/RPMS/i686/ # rpm -ivh --nodeps kernel-2.6.32-19.centest.i686.rpm ちなみに、"--nodeps"無しの場合のエラー kernel-firmware >= 2.6.32-19.centest は kernel-2.6.32-19.centest.i686 に必要とされています grubby >= 7.0.4-1 は kernel-2.6.32-19.centest.i686 に必要とされています mkinitrd >= 6.0.61-1 は kernel-2.6.32-19.centest.i686 に必要とされています udev < 145-11 は kernel-2.6.32-19.centest.i686 と競合します。 7, 初期RAMディスク再作成 テストした環境では、この時点で作成されている初期RAMディスクが異常で起動できない (mkinitrdの依存無視してるから当たり前?) 展開してみると、sd_modが入っていなかった sd_mod及び依存ドライバを含めて初期RAMディスク作り直し # mkinitrd -f --builtin=ehci-hcd --builtin=ohci-hcd --builtin=uhci-hcd --with=sd_mod --with=scsi_tgt --with=crc-t10dif /boot/initrd-2.6.32-19.centest.i686.img 2.6.32-19.centest.i686 (↑4で設定したbuildidの合わせてファイル名とカーネルは適宜変更) VMware Workstation 7の仮想マシンは上記でOK。 ハードウェア構成で必要なドライバは変わるので、事前に2.6.18のカーネルが起動した状態で ロードされているドライバを確認しておき、必要に応じて初期RAMディスクに含めること。 8. 再起動→2.6.32で起動OK
189 名前:login:Penguin mailto:sage [2010/09/11(土) 13:37:57 ID:ylGEDvFt] >>187 本当に丁寧に教えていただいてありがとうございます。 本当に面倒な作業なんですね。 今夜にでも試してみようと思います。 fedora13のLiveCDを使って/sys/block/md0/md/level の書き換えが出来ました。 正確には/sys/block/md127/md/levelです。 LiveCDで起動したらmd127にされてしまいました。 そのままecho raid5やって、 CentOSで再起動。 再起動後にもlevelファイルの中身はraid5だったので、 growしてみたところうまくいきました。 で、md127のままなのが気に入らなかったので #mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1 #mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1 #mdadm --misc --stop /dev/md127 #mdadm -C /dev/md0 -l 5 -n 3 /dev/sdb1 /dev/sdc1 /dev/sdd1 と、これでmd0になりました、データも失っていません。 これ以外の方法が思いつかなかったんですが、 もっとスマートな方法があったら教授願いたいです。 mdadmまだ使いこなせてません。 カーネルが古くてもmdadmのバージョンが条件を満たしていれば できるみたいですね。 みなさん、親身になって答えてくださりありがとうございました。
190 名前:login:Penguin mailto:sage [2010/09/11(土) 13:46:22 ID:D+LL5OKu] --super-minor=0 --update=super-minor
191 名前:login:Penguin mailto:sage [2010/09/14(火) 21:32:42 ID:Oy6zCGq+] -l1したら/bootにする場合でRAIDを理解しないローダー使うときは--metadata=0.90指定しろよ、って言われたわ >>116-122
192 名前:login:Penguin mailto:sage [2010/09/17(金) 23:06:24 ID:QPHXo1u7] チラ裏メモ Fedora12 x86_64(mdadm 3.0.3-2)だと7台構成のRAID6→8台構成にreshapeしようとすると mdadm: Need to backup 120K of critical section.. mdadm: /dev/md1: failed to save critical region でエラー Fedora13 x86_64(mdadm 3.1.2-10)にupgradeしたら mdadm: Need to backup 120K of critical section.. (黙ってreshape開始) で成功 mdadm 3.0.3-2のままでもRAID5の6台→7台の変更と7台のRAID5→7台のRAID6はできたので 3.0.3-2には半端に不具合が残ってる気がする
193 名前:login:Penguin mailto:sage [2010/09/20(月) 08:16:15 ID:YPDhyYqG] WD20EARSでRAID6組もうと思うんだけど、AFTってなんか関係してくるん?
194 名前:login:Penguin mailto:sage [2010/09/21(火) 01:48:27 ID:MEa3sArJ] >>193 hibari.2ch.net/test/read.cgi/jisaku/1279640392/475 kernel が対応していれば問題なしかと
195 名前:login:Penguin mailto:sage [2010/09/21(火) 19:49:57 ID:sGME08sR] >>193 ハードウェアRAIDカードの場合、一部のカードで不具合報告あるから要確認 hibari.2ch.net/test/read.cgi/jisaku/1275144136/108
196 名前:login:Penguin mailto:sage [2010/09/23(木) 10:27:21 ID:aw/haffN] >>193-194 回答ありがと。 SAS6/iRでソフトRAID6なんだが報告なさげだから人柱なのかな?
197 名前:login:Penguin mailto:sage [2010/09/24(金) 20:46:05 ID:a9oJcDud] >>195 あ、なつかしい。俺がまとめた奴だw 引用ありがと。
198 名前:login:Penguin mailto:sage [2010/10/01(金) 15:40:17 ID:lKU+sDuG] CentOS 5.4でHDD3台をRAID5でひとまとめにして使っていました。 最近になって容量が足りなくなってきたので、 同じ容量のHDDを1台追加し、領域拡張しょうとしているのですがうまくいきません。 liliumrubellum.blog10.fc2.com/blog-entry-181.html ここの手順通りに進めたのですが、最後にファイルシステムを拡張するところで # resize2fs -p /dev/md0 resize2fs 1.39 (29-May-2006) resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0 Couldn't find valid filesystem superblock. このようなエラーメッセージが表示されます。 マウントしているのがいけないのかと思い、umountを実行しましたが、 resize2fsのエラーメッセージは変化ありませんでした。 どうしたらうまく拡張できるのでしょうか? ちなみに、マウント先は/homeで、アンマウント方法はumountコマンドだけでなく、 /etc/fstabを書き換え、起動時からこのデバイスをマウントしないようにすることも試しましたが、 結果は変わりませんでした。
199 名前:login:Penguin mailto:sage [2010/10/01(金) 17:10:57 ID:iIUT3HXi] Centの5.4辺りのkernelとmdadmのバージョンで Online RAID Level Migrationってできるんだっけ?
200 名前:198 mailto:sage [2010/10/02(土) 09:00:00 ID:l0eD4IK+] 参考にしたサイトには書かれてないみたいですが、 lvextend -l 89425 RAID5_01/home で論理ボリュームを拡張したあと e2fsck -f /dev/RAID5_01/home を実行すれば、追加HDD分の容量が増えました。 マウントしていない状態で行ったので、アンマウント必須かはわかりません。 次やるときはマウントせずに試してみます。 あと、/etc/mdadm.confに num-devices=(数字) という記述がなかったので、今回は何も書き換えなかったのですが、 特に問題なく動いているみたいです。 ディストリによってはこのファイルの書き換えは必要ないのでしょうか。 とにかく、そんなわけで自己解決しました。お騒がせしました。
201 名前:198 mailto:sage [2010/10/02(土) 10:24:36 ID:l0eD4IK+] 誤: 次やるときはマウントせずに試してみます。 正: 次やるときはマウントしたまま試してみます。 でしたorz
202 名前:login:Penguin mailto:sage [2010/10/02(土) 10:30:33 ID:QA6hlIsa] >>200 リンク先のページを開こうとするとブラウザが固まるんで判らんのだが、要するに 自分とこのシステム構成(RAID + LVM + ext3)を把握しないまま、 RAID + ext3のシステムについて書いたブログエントリをそっくりそのまま真似して 「うまくいかない!」 ……というオチ?
203 名前:198 mailto:sage [2010/10/02(土) 16:57:53 ID:l0eD4IK+] >>202 だいたいそんな感じです。 さすがに自分のところの構成くらい把握してるつもりですが、 どこ見てもこのやり方で書いてあったんで、 ほとんどの構成で通用するやり方だと思い込んでいました。 さらにエラーメッセージが resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0 なので、これを読んで「LVM使ってるからやり方が違うんだ」 という発想にたどり着けず、途方にくれてました。
204 名前:login:Penguin mailto:sage [2010/11/03(水) 14:54:37 ID:EB+4MiCj] 最近のマザーボードはRAIDカード搭載の物が多いですけど Linuxで使うならソフトウェアRAIDの方が無難ですか?
205 名前:login:Penguin mailto:sage [2010/11/03(水) 15:02:33 ID:+mHxq1R3] >>204 いえす
206 名前:login:Penguin mailto:sage [2010/11/03(水) 15:58:28 ID:aR2r0zLp] >>204 ×最近のマザーボードはRAIDカード搭載の物が多いですけど ○最近のマザーボードはRAID機能搭載の物が多いですけど ソフトウエアRAIDだとハードウエア(マザーとかボードとか)変えてもコマンド打てば復活する 移し変え時の別のハードウエアへの接続位置(順)は適当でいい 1,2,3,4→2.4.1.3としてもちゃんと復活してくれる ハードウエアRAIDだとハードウエアを変えるとデータがあるのに見えない 場合によっては消える
207 名前:login:Penguin mailto:sage [2010/11/03(水) 16:29:41 ID:EB+4MiCj] >>205 ,206 ありがとうございます ソフトウェアRAIDにしておきます
208 名前:login:Penguin mailto:sage [2010/11/03(水) 16:34:52 ID:3a2ffMIU] >>206 「最近のマザーボード」とやらに載ってるようなのは 「ハードウェアRAID」ですらない。 >>206 の書きようだとハードウェアRAIDには 何のメリットもないように見えるなw たぶんハードウェアRAIDを使ったことがないんだろうが。
209 名前:login:Penguin mailto:sage [2010/11/03(水) 21:15:46 ID:KClY6dlN] マザボのRAID機能をどうこう言ってる相手に、ハードウェアRAIDのメリットも糞もないわw メリットがあるとして、それを得るには幾ら投資すりゃいいのさ 個人レベルはもちろん、業務レベルでも一部を除けば、ソフトウェアRAIDで充分だよ
210 名前:login:Penguin mailto:sage [2010/11/03(水) 23:07:53 ID:uttDJDAa] 費用対効果で考えればいい 同じ効果を安くできるならそれでいいって考え方でいいじゃん 人それぞれだけど
211 名前:login:Penguin mailto:sage [2010/11/03(水) 23:19:18 ID:uttDJDAa] ちなみにオレはソフトウエアRAID派 馬鹿なんで、USBメモリ起動で8台 RAID6で運用しています USBメモリのイメージを別でとってあるんでUSBメモリが壊れても無問題
212 名前:login:Penguin mailto:sage [2010/11/04(木) 00:42:42 ID:A0zlTMZq] >>209 >>208 の指摘は (1)>>206 は疑似HW RAIDとHW RAIDをゴチャマゼにしている (2)HW RAIDにはSW RAIDとは違うメリットがある という別々の二点なのだが?
213 名前:login:Penguin mailto:sage [2010/11/04(木) 00:45:21 ID:A0zlTMZq] (2)に関しては >>206 の書き方では初心者に誤解を与える という指摘だな
214 名前:login:Penguin mailto:sage [2010/11/04(木) 03:20:39 ID:BL47owsD] >>212 擬似HW RAID用ドライバ開発されてなかったっけ? ちょっとだけ負荷軽くなる奴
215 名前:login:Penguin mailto:sage [2010/11/04(木) 14:46:16 ID:1Zlxj7jT] SW RAIDの欠点はRebuildやResync時にI/Oバス帯域を食いまくるところか。 >>214 擬似HW RAIDは dmraidドライバでIntel/nVidiaチップセット向けRAID対応だったかも。
216 名前:login:Penguin mailto:sage [2010/11/05(金) 21:53:06 ID:ZjVbxW85] いろんな用途と複合的に使うにはHW RAIDが有利
217 名前:login:Penguin mailto:sage [2010/11/05(金) 22:48:44 ID:hdBmVs+M] SCSIのRAIDは信用できるが IDE/ATA/SATAのRAIDはなんか信用できない SATAならむしろOSの機能のソフトRAIDを選びたい
218 名前:login:Penguin mailto:sage [2010/11/05(金) 23:13:14 ID:9wgeowow] 「なんか」とか
219 名前:login:Penguin mailto:sage [2010/11/05(金) 23:15:05 ID:QtPoCyoP] スカ爺の言うことだし
220 名前:login:Penguin mailto:sage [2010/11/06(土) 00:35:09 ID:Qew0bHFo] チッ、うっせーな…反省してま〜す
221 名前:login:Penguin mailto:sage [2010/11/06(土) 05:06:40 ID:6aJUodpE] >>211 フラッシュメモリをRAID5/6で使うと、あっという間に寿命が来るぞ。 バックアップ取ってあるなら、RAID0で使った方が寿命長いんじゃないか?
222 名前:login:Penguin mailto:sage [2010/11/06(土) 21:20:03 ID:/PdZ4pGk] フラッシュメモリは起動用でHDDは8台でRAID6ですよ コレダメならESXやESXiのUSBメモリ起動もダメってことじゃ?
223 名前:login:Penguin mailto:sage [2010/11/08(月) 22:40:45 ID:/LP5nvaW] >>222 swapは?
224 名前:login:Penguin mailto:sage [2010/11/10(水) 20:17:26 ID:fV4mstBN] メモリ2Gしかないけど、作らない。
225 名前:login:Penguin mailto:sage [2010/11/12(金) 21:32:47 ID:10OTEzMQ] こんばんは。 Xenserver5.6(Centosがベース)上で、Windows2008R2をファイルサーバ として動かしてます。 そして、ホスト側にてディスク2TB×4本でRAID10を組んでます。 ですが、ゲスト側に割り当てれるHDDイメージが1つあたり最大2TBまでのため、 しかたなく、2TBイメージ×2つを割りあえてて、ファイルサーバを動かしてます。 そのため、2008R2サーバ上ではディスクが2つ見える状態ですが、 使いやすくするために以下いずれかの方法で4TB×1にしたいのです。 1.スパンボリューム 2.RAID0 のいずれかでまとめるならば、1、2でパフォーマンスは異なったりするのでしょうか? (スパンボリュームのほうは試しましたが、データがあるのであまり変更したくないです) もし、知ってる方がいらっしゃいましたら教えていただけないでしょうか。
226 名前:login:Penguin mailto:sage [2010/11/13(土) 07:07:21 ID:bwqwb+4h] >>225 XenServerのことは知らんが、ネタは物理ドライブじゃなくて ディスクアレイに置いてあるイメージファイルなんだろ? 同一アレイに置いてあるイメージファイルをRAIDをしても高速化するとは思えんから、 普通にスパンボリュームでいいんじゃね?
227 名前:login:Penguin mailto:sage [2010/11/13(土) 10:49:54 ID:RbGidMq7] >>226 試してみました。書き忘れましたがベースのRAID10はソフトウェア(mdadm)です <条件> * MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s] OS : Windows Server 2008 R2 Datacenter Edition (Full installation) [6.1 Build 7600] (x64) ★JBOD Sequential Read : 121.461 MB/s Sequential Write : 95.109 MB/s Random Read 512KB : 20.740 MB/s Random Write 512KB : 34.521 MB/s Random Read 4KB (QD=1) : 0.516 MB/s [ 126.0 IOPS] Random Write 4KB (QD=1) : 0.881 MB/s [ 215.1 IOPS] Random Read 4KB (QD=32) : 1.068 MB/s [ 260.6 IOPS] Random Write 4KB (QD=32) : 1.073 MB/s [ 262.0 IOPS] Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5) Date : 2010/11/12 22:56:08
228 名前:login:Penguin mailto:sage [2010/11/13(土) 10:50:35 ID:RbGidMq7] >>226 ★RAID0 Sequential Read : 66.657 MB/s Sequential Write : 82.209 MB/s Random Read 512KB : 20.065 MB/s Random Write 512KB : 42.841 MB/s Random Read 4KB (QD=1) : 0.563 MB/s [ 137.4 IOPS] Random Write 4KB (QD=1) : 2.608 MB/s [ 636.8 IOPS] Random Read 4KB (QD=32) : 1.232 MB/s [ 300.8 IOPS] Random Write 4KB (QD=32) : 2.544 MB/s [ 621.2 IOPS] Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5) Date : 2010/11/12 23:19:09 ★単体 Sequential Read : 225.816 MB/s Sequential Write : 106.714 MB/s Random Read 512KB : 30.901 MB/s Random Write 512KB : 59.968 MB/s Random Read 4KB (QD=1) : 0.694 MB/s [ 169.5 IOPS] Random Write 4KB (QD=1) : 1.636 MB/s [ 399.5 IOPS] Random Read 4KB (QD=32) : 1.336 MB/s [ 326.3 IOPS] Random Write 4KB (QD=32) : 1.730 MB/s [ 422.4 IOPS] Test : 1000 MB [D: 0.0% (0.2/1859.2 GB)] (x5) Date : 2010/11/12 23:28:41
229 名前:login:Penguin mailto:sage [2010/11/13(土) 10:51:44 ID:RbGidMq7] >>226 結果、何もしないのが一番よいことがわかりました。 RAID0だとすごく遅くなり、JBODだと単体の半分ぐらいです。 (予想外の結果でした) 単体のドライブ2台を同時にベンチするとJBODぐらいのスピードに なったので、恐らく書き込みなど分散→さらにRAID10にて分散など 無駄な感じとなって、落ちまくってるんだと思います。 #なんどやっても、同じでしたorz
230 名前:login:Penguin mailto:sage [2010/11/14(日) 00:17:04 ID:UO38LBbx] 別にストレージ用のサーバ立ててiSCSIでマウントする とかが当世風じゃね? いろいろと融通が利くし
231 名前:login:Penguin mailto:sage [2010/11/14(日) 01:58:03 ID:IF1j6YbV] >>230 iSCSIでのディスク利用は考えてるのですが、ネットワーク周りを 強化してないので、とりあえずはローカルディスクで外部NASに バックアップするような構成です。 iSCSI使うなら、ライブマイグレーションを使うことが目的になりそう ですので、ホスト側を冗長しないとメリットなさそうですし、ディスク側 や経路上のNW機器も冗長しないと怖いです。 (ゲスト8台動いてますが、その最中にディスクが切り離されると 思うとゾッとします) iSCSIを試す分には全然大丈夫なのですが、個人運用で本格利用 するにはコストがかかりそうなので今のところ見送ってます。 #ホスト側が落ちたら同じなんですけどね。でも、冗長化してないiSCSI 利用よりかはトラブルが発生しにくいかなと思ってます。 #職場ではesxiを入れたブレードサーバとかで構築してますが。 (もちろんディスクは外部で)
232 名前:login:Penguin mailto:sage [2010/11/15(月) 19:22:57 ID:gNCbtYKe] 質問いいですか win7とubuntuあたりでRAID構成を共有したいのですが、できますかね
233 名前:login:Penguin mailto:sage [2010/11/16(火) 11:08:25 ID:HeKRLUlf] >>232 一台でマルチブートって事? ならオンボのRAIDドライバはどちらでも使える。
234 名前:login:Penguin mailto:sage [2010/11/16(火) 21:29:52 ID:JnnqGF7a] test
235 名前:login:Penguin mailto:sage [2010/11/16(火) 21:33:44 ID:VWoXCYbw] DELL SAS6/iR RAIDカード で、 WD20EARS-00MVWB0 で、 ソフトRAID6いけるかな?
236 名前:login:Penguin mailto:sage [2010/11/16(火) 22:39:33 ID:Szhcfl18] 8台くらいで構成したmdのraid5or6or10のベンチマークするとどの程度パフォーマンスが出るもんです? そのうち自分でも試すつもりだけど参考用のデータとかあったりします?
237 名前:login:Penguin mailto:sage [2010/11/17(水) 21:34:48 ID:j19cjkTS] エスパー RAIDするメディアにもよる
238 名前:login:Penguin mailto:sage [2010/11/20(土) 19:44:31 ID:cFLVa63Z] 速度はあんまり出ないよ シーゲートの7200回転1.5TB x 6 のRAID6 hdparm -ft /dev/md1 /dev/md1: Timing buffered disk reads: 418 MB in 3.00 seconds = 139.15 MB/sec
239 名前:login:Penguin mailto:sage [2010/11/21(日) 00:09:27 ID:1IPGonEa] 骨董品の幕の6L(250GB)*8本のRAID6で /dev/md1: Timing buffered disk reads: 874 MB in 3.00 seconds = 291.07 MB/sec 250〜300弱の間でふらふらする
240 名前:login:Penguin mailto:sage [2010/11/21(日) 11:17:38 ID:zCTXq4aL] 情報サンクス。 今4台のRAID5でkvmのホストやらせてるがゲスト7つ起動するとdisk i/oで詰まってる感じがするので台数増やしたら改善できないかなと思ったのだけれど。 cpu負荷との兼ね合いもあるけどチャレンジしてみようかと思います。 これでkvm自体がボトルネックだったら泣けるなあ。
241 名前:login:Penguin mailto:sage [2010/11/21(日) 22:40:45 ID:jxLFhocQ] >>240 ゲスト毎に違うHDD用意するのが幸せになれるんじゃないの? って、7台+システム1台はさすがに厳しいな
242 名前:login:Penguin mailto:sage [2010/11/28(日) 19:06:34 ID:gL5KRMCh] >>116 激しく遅レスだけど、WD20EARSでmd RAIDやるならポイント2つ押さえておけば大丈夫。 green-rabbit.sakura.ne.jp/blog/2010/11/27/2191/ - RAIDのデータ開始位置をセクタの区切りに合わせる - LVMのデータ開始位置をRAIDのチャンクサイズに合わせる ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。 (パーティションはRAIDディスクに対してLVMで管理)
243 名前:login:Penguin mailto:sage [2010/11/28(日) 22:00:44 ID:RmwuvbbY] 6台のraid6をmdadmで構築していました。 1台FailになったのでHDDを交換して復旧させようとしたら 次々とHDDがFailになり復旧できなくなりました。 これってもうダメなのでしょうか? dmesg見るとHDD自体は認識しているようなのですが。
244 名前:login:Penguin mailto:sage [2010/11/28(日) 22:25:22 ID:5Q0sCNVi] それってコントローラーかマザーボード/CPUが死んでるんじゃ…
245 名前:login:Penguin mailto:sage [2010/11/28(日) 22:27:33 ID:OW3cc9+0] 同ロットのHDDで揃えてたんだろ。良い教訓。
246 名前:login:Penguin mailto:sage [2010/11/28(日) 22:31:24 ID:Tsm3YN7+] >>242 linux初心者にわかりやすくコマンドください WD20EARS8台でRAID6にしたいのです
247 名前:login:Penguin mailto:sage [2010/11/28(日) 22:51:00 ID:RmwuvbbY] すみません。ちょっとパニくってましたw mdadm --assemble --force /dev/md0 したら、とりあえず4台で再構築が始まったみたいです。 >>245 全部同じではないけれど半分くらいは同じだったかも。
248 名前:login:Penguin mailto:sage [2010/11/28(日) 22:54:14 ID:ZKkrEg8g] >>246 リンク先のエントリを読んで解らんヤツにれいどろくなど宝の持ち腐れである! アレが解らん人間にディスクがお釈迦ってデグったアレイを復旧できるとは思えんなw
249 名前:login:Penguin mailto:sage [2010/11/28(日) 23:25:31 ID:Tsm3YN7+] キモは2つか
250 名前:login:Penguin mailto:sage [2010/11/28(日) 23:34:15 ID:hDElDxYb] >ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。 どうやるの?
251 名前:login:Penguin mailto:sage [2010/11/28(日) 23:57:43 ID:ZKkrEg8g] >>250 パーティションを指定する代わりにデバイス全体を指定すればいいだけ。
252 名前:login:Penguin mailto:sage [2010/11/29(月) 00:16:37 ID:5KK7FVso] パーティションタイプでfd(Linux RAID Auto Detect) を使う必要があるのかと思い、 1ディスク1パーティションの時でもパーティションを切っていたよ。。。。
253 名前:login:Penguin mailto:sage [2010/11/29(月) 00:36:55 ID:C+YWZRYM] >>252 /dev/sda1とかパーティションを切ったのに mdadm --create -n 4 -l 5 /dev/sd[abcd] でパーティションテーブルを吹っ飛ばす、というのはお約束なドジの一つだよねorz
254 名前:login:Penguin mailto:sage [2010/11/29(月) 05:05:30 ID:hkKkYSLf] でも、微妙な容量差を揃えられるように 1領域でもパーティションにした方が良いんじゃないかね。
255 名前:login:Penguin mailto:sage [2010/11/29(月) 20:05:55 ID:BBunKmhs] >>254 確かに。そのあたりは、下記でも触れられていますね。 https://raid.wiki.kernel.org/index.php/Partition_Types 個人的には、交換用に新しく買ったディスクのサイズがちょっと小さかったら、 そのとき対処すれば良いんじゃないかなー、と思ってます。 mdadm --grow --size= でサイズ変更するだけなので。 あ、RAID1以外だと時間かかりそうだし障害時にやるのはあれだから、 --create するときにあらかじめ --size しておけば良いんじゃないのかなー。
256 名前:login:Penguin mailto:sage [2010/11/29(月) 20:37:16 ID:NGnnNc2T] >ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。 6台でRAID6とかでも関係ない?
257 名前:login:Penguin mailto:sage [2010/11/29(月) 20:57:34 ID:BBunKmhs] >>256 関係ないよ。 >>255 でも書いたけど、RAID6ならRAID構築するときにサイズ指定しておくと良いよ。 (サイズは HDD の容量から 100MB程度引いておく) % mdadm --create --size=サイズ(ディスク1台当たりに使用するサイズ[kb],64の倍数) そうじゃないとHDDこけて交換しようと思ったときに、 同一モデルHDDでも容量が少なかった場合に困る。
258 名前:login:Penguin mailto:sage [2010/11/29(月) 20:59:28 ID:rjjhbUoR] 容量ちょっとだけ大きいの買ってくるだけでいいやん
259 名前:login:Penguin mailto:sage [2010/11/29(月) 21:03:21 ID:BBunKmhs] >>258 でも、2TB使ってそういう状況になったら、2.5TB とか 3.0TBとかになって、GB単価違いすぎて泣ける気が