[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 2chのread.cgiへ]
Update time : 10/11 12:51 / Filesize : 203 KB / Number-of Response : 591
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

RAID総合スレッド No.5



1 名前:login:Penguin mailto:sage [2009/09/16(水) 23:34:35 ID:JK/kMdkU]
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 pc11.2ch.net/test/read.cgi/linux/1168487758/
スレ 4 pc11.2ch.net/test/read.cgi/linux/1208263754/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.com/ja-JP/_common/os_support/linux/

Linux EVMS 一般
ttp://evms.sourceforge.net/

Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。
... あと続けてくらさい。

159 名前:login:Penguin mailto:sage [2010/07/27(火) 23:35:52 ID:CDEVG/fS]
>>156
RAIDボードのBIOSからExpoprt JBODとかか?
PromiseだとJBOD利用でも必ずBIOSからUnitを作成しないとデバイスが認識しなかった。

160 名前:login:Penguin mailto:sage [2010/07/28(水) 00:58:03 ID:C+9PDLMA]
Promiseは平然と「1台構成でもアレイ組まなきゃ見えませんから^^」とか言い出す基地害板だからな

161 名前:login:Penguin mailto:sage [2010/07/28(水) 09:01:33 ID:E6Ms9Bcd]
HardRAIDカードって壊れたときの対処ってどーなんすか?

HDD2個でRAID1使ってた場合
復旧不可能?

162 名前:login:Penguin mailto:sage [2010/07/28(水) 11:42:36 ID:fYI1FyG/]
何がどう壊れたかによって話が変わる
漠然と言われても

163 名前:login:Penguin mailto:sage [2010/07/28(水) 12:29:45 ID:esiaNd7h]
>>160
HighPoint RocketRAID 2300とかは「1台でもアレイ組め」に加えて、
POSTの際に繋がってるディスクのデータを(アレイのメンバじゃなくても問答無用で)壊すけどな!

164 名前:login:Penguin mailto:sage [2010/07/28(水) 14:26:58 ID:lqUxMOoj]
>>163
それ嘘だ。
イニシャライズせずにレガシーのまま使えばアレイ組まなくても使える。

165 名前:163 mailto:sage [2010/07/28(水) 14:43:25 ID:esiaNd7h]
>>164
1台でもアレイ組めは俺の記憶違いか。すまん。


166 名前:login:Penguin mailto:sage [2010/07/28(水) 17:14:44 ID:fXbebyC4]
>>165
いやいや、結構はまりやすいよ。RAIDボードでのSingle DiskとJBODの設定は。
前者はハードディスクを消去するボードもあるし、後者もJBODでもUNITを作成しないとハードディスクを認識しない等。
俺もいろんなメーカーのRAIDボードメンテナンスしていたが今でもごちゃごちゃ。
一番楽なのはLinux SoftwareRAIDだな。

167 名前:156 mailto:sage [2010/07/29(木) 19:45:06 ID:MQlBotXc]
みなさんの言うとおり、SAS6iRを挿しそのままHDDをつなぎ替えて起動してみましたところ初めからHBAとなり、何もせずに移行できました。
ありがとうございました。




168 名前:156 mailto:sage [2010/07/29(木) 22:21:04 ID:MQlBotXc]
ベンチ計測してみた。
SAS6iR HDD8台(WD10EADS) ソフトウエアRAID6
hdparmでread測定したら、251MB/sだった。
たぶん遅い部類なんだろうな。

169 名前:login:Penguin mailto:sage [2010/07/29(木) 22:31:18 ID:hc5F77Bz]
>>168
多分バス速度で頭打ち。

170 名前:login:Penguin mailto:sage [2010/09/04(土) 01:19:05 ID:XZAw0nxj]
ttp://hellokitty68.main.jp/wiki/Linux_Software_RAID5

ここを参考にしてraid1からraid5へ移行する実験をしてるのですが、
echo raid5 > /sys/block/md0/md/level
の段でこけます。
-bash: echo: write error: デバイスもしくはリソースがビジー状態です
となります。
viしてもE667 : Fsync failedでやっぱり変更できません。
原因や対策をご存知の形はいらっしゃいませんか?
OSはCentOS5.5、Fedora13の両方で試しましたが同じような状況です。
環境はVM上です。

171 名前:login:Penguin mailto:sage [2010/09/04(土) 07:17:14 ID:w4DAMBkG]
itpro.nikkeibp.co.jp/article/Keyword/20091106/340168/

そもそもそんなことが出来るのを今知った

172 名前:login:Penguin mailto:sage [2010/09/04(土) 11:47:48 ID:gxReY0uS]
Fedora12の5→6はecho raiid6 で行ったがなぁ
addした後で
# mdadm --grow /dev/mdXn --raid-level 5 --raid-devices=3 --backup-file=どっか
で行かんかな

173 名前:login:Penguin mailto:sage [2010/09/04(土) 16:30:06 ID:RWU7tg0Q]
>>170
情報が少なくてよくわかんない
とりあえず、以下のコマンドの実行結果を貼ってくれれば何かわかるかも

# cat /proc/partitions
# cat /proc/mdstat
# mdadm --detail /dev/md0


174 名前:login:Penguin mailto:sage [2010/09/04(土) 18:28:47 ID:PnMMuH/V]
>>170
ちゃんとrootユーザで実行したか?
sudoで実行しても蹴られるぞ。

$ sudo -s

でrootになってもう一度実行してみて。

175 名前:login:Penguin mailto:sage [2010/09/04(土) 18:41:14 ID:XZAw0nxj]
>>170です
参考にしていたサイトがSUSEを使ってやったようなので、
ためしにSUSE11.3で同じようにやったら問題なく出来ました。

実際にCentOSで500GBのRAID1を組んでるファイルサーバーを
将来的にRAID5で運用したいと思い実験をしています。
ですのでCentOSで出来るようになるのが目標です。

>>172
もうしわけないです。
--backup-fileオプションの使い方が良くわかりませんでした。
勉強します。

>>173
次のレスに貼り付けます。

176 名前:login:Penguin mailto:sage [2010/09/04(土) 18:45:24 ID:XZAw0nxj]
# cat /proc/partitions
major minor #blocks name

8 0 8388608 sda
8 1 104391 sda1
8 2 522112 sda2
8 3 7759395 sda3
8 16 4194304 sdb
8 17 4192933 sdb1
8 32 4194304 sdc
8 33 4192933 sdc1
8 48 4194304 sdd
8 49 4192933 sdd1
9 0 4192832 md0


# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[2](S) sdc1[1] sdb1[0]
4192832 blocks [2/2] [UU]

unused devices: <none>

177 名前:login:Penguin mailto:sage [2010/09/04(土) 18:47:23 ID:XZAw0nxj]
# mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Fri Sep 3 23:42:20 2010
Raid Level : raid1
Array Size : 4192832 (4.00 GiB 4.29 GB)
Used Dev Size : 4192832 (4.00 GiB 4.29 GB)
Raid Devices : 2
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Fri Sep 3 23:58:31 2010
State : clean
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1

UUID : 5e7be737:36419030:20c51d1d:ba7d4872
Events : 0.2

Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1

2 8 49 - spare /dev/sdd1



178 名前:login:Penguin mailto:sage [2010/09/04(土) 18:52:43 ID:XZAw0nxj]
>>174
もちろんrootです。
今再確認してやってみましたがやはりrootでもダメでした。


# fuser /sys/block/md0/md/level

ってやっても結果が返ってこないから
プロセスが使ってるとかではないように思います。
それともfuserの使い方間違えてるのかなぁ・・・



179 名前:login:Penguin mailto:sage [2010/09/04(土) 20:45:43 ID:PnMMuH/V]
>>178
ブロックデバイスの3重RAID1に変換してから、3デバイスのRAID5に変換してみて。

180 名前:login:Penguin mailto:sage [2010/09/04(土) 22:58:56 ID:XMPA/Vxp]
>>171には、カーネル2.6.30以降とか書いてあるのだが
CentOSは2.6.18とかだろ?
Fedora13で不可(>>170)というのはわからんけどね。

正確にどのバージョンから可能になるのか、俺は知らないが。

181 名前:login:Penguin mailto:sage [2010/09/05(日) 00:04:30 ID:HUBnDTBu]
>>179
# mdstat --grow /dev/md0 -n 3
をやるってことですよね?

その後、
--glow -l 5とかやってもダメでした。
例のファイルへのechoも相変わらず蹴られます。

182 名前:login:Penguin mailto:sage [2010/09/05(日) 13:59:40 ID:ca0DYFqh]
>>180
年末〜来年明け頃リリースされるであろう
EHEL6(Kernel2.6.32)ベースのCent6待ちと勝手に予測

183 名前:login:Penguin mailto:sage [2010/09/05(日) 23:51:45 ID:0TzuHuxG]
>>181
残念ながら、>>180の指摘のとおりCentOS5のカーネルが古くてダメっぽい

CentOS5の環境にRHEL6のカーネル(2.6.32)だけを(無理やり)入れて、
2.6.32で起動すればRAID1->RAID5に変更できた。

RHEL6のカーネルは↓のSRPMからCentOS5上でビルドしたけど超面倒だった
ttp://ftp.ne.jp/Linux/distributions/redhat/ftp.redhat.com/rhel/beta/6/source/SRPMS/kernel-2.6.32-19.el6.src.rpm

データのバックアップを取ってRAIDアレイを作り直した方が安全&確実


184 名前:login:Penguin mailto:sage [2010/09/06(月) 18:34:36 ID:tFSr8hS+]
Fedora13(今は2.6.34)で出来ないのがホント不可解だよね
metadata 0.90が悪いのかと思ったけど手元ではそんなこと無いし

185 名前:login:Penguin mailto:sage [2010/09/06(月) 21:02:06 ID:mrESGec/]
fedora13のインストーラーのカーネル(2.6.33.3-85.fc13.x86_64)でも
普通にRAID1→RAID5に変更できたよ
>>170のfedora13で出来ないってのは何かの間違いだと思う


186 名前:login:Penguin mailto:sage [2010/09/08(水) 11:21:02 ID:4n0gc/4A]
>>170です

>>182
いや、そうならそうで早く出て欲しいですね。。。

>>183
ビルドしたってことはrpm -ivh ではないんですよね?
カーネルの構築はLinuxを弄り始めた頃に挫折して、
それ以来一度もやってなくて苦手意識ありありです。
もしよければさわりだけでも教えていただけますか?
ググったところ、ここが参考になりそうとは思ったのですが。
ttp://www.atmarkit.co.jp/flinux/rensai/linuxtips/a113rebuild.html

>>184>>185
うーん、もしかしたら僕の作業に間違いがあったかも知れません。
もう一度やってみます。


SUSEインストール→Raid5に変更→CentOSインストールしなおし
で出来たにはできたけど、これはちょっと非現実的ですよね。
目標は現在のOSのままやりたいので。
その点では>>183さんのように
Raid変更のためだけにカーネルだけ変えて起動するっていうのが
いいような気がしました。

187 名前:login:Penguin mailto:sage [2010/09/09(木) 00:31:31 ID:uO+QGL4T]
>>186
knoppixみたいなLiveCDは?
一応手順も貼っとくけど、自己責任でヨロ

0. kernel-2.6.32-19.el6.src.rpmをダウンロード
(/root/kernel-2.6.32-19.el6.src.rpm)

1. ディレクトリ準備
# cd /usr/src/redhat
# mkdir BUILD RPMS SOURCES SPECS

2.SOURCESディレクトリでSRPMを展開(何故か、rpm -iで入れようとしたらCRCエラーと言われたので)
# cd /usr/src/redhat/SOURCES/
# rpm2cpio /root/kernel-2.6.32-19.el6.src.rpm | cpio -id

3. config-genericを編集
# vi config-generic
→以下の2行を追加
CONFIG_SYSFS_DEPRECATED=y
CONFIG_SYSFS_DEPRECATED_V2=y

4. kernel.specをSPECSディレクトリに移動&編集
# mv kernel.spec ../SPECS/
# cd ../SPECS/
# vi kernel.spec
→2箇所変更
 コメントアウトされている「%define buildid〜」のコメント解除し、適当に変更(例:%define buildid .centest)
 「%define signmodules 1」を「%define signmodules 0」に変更

つづく



188 名前:login:Penguin mailto:sage [2010/09/09(木) 00:38:48 ID:uO+QGL4T]
>>187のつづき
5. パッケージビルド(--targetは適宜変更)
# rpmbuild -bb --target=i686 --without kdump --without perf --without perftool --without kabichk --without fips --without debuginfo --without dracut --without vdso_install kernel.spec
→エラーが無ければ/usr/src/redhat/RPMS/i686/にカーネルパッケージが出来る

6. カーネルパッケージを強制インストール
# cd /usr/src/redhat/RPMS/i686/
# rpm -ivh --nodeps kernel-2.6.32-19.centest.i686.rpm
 ちなみに、"--nodeps"無しの場合のエラー
kernel-firmware >= 2.6.32-19.centest は kernel-2.6.32-19.centest.i686 に必要とされています
grubby >= 7.0.4-1 は kernel-2.6.32-19.centest.i686 に必要とされています
mkinitrd >= 6.0.61-1 は kernel-2.6.32-19.centest.i686 に必要とされています
udev < 145-11 は kernel-2.6.32-19.centest.i686 と競合します。

7, 初期RAMディスク再作成
テストした環境では、この時点で作成されている初期RAMディスクが異常で起動できない
(mkinitrdの依存無視してるから当たり前?)
展開してみると、sd_modが入っていなかった
sd_mod及び依存ドライバを含めて初期RAMディスク作り直し

# mkinitrd -f --builtin=ehci-hcd --builtin=ohci-hcd --builtin=uhci-hcd --with=sd_mod --with=scsi_tgt --with=crc-t10dif /boot/initrd-2.6.32-19.centest.i686.img 2.6.32-19.centest.i686
(↑4で設定したbuildidの合わせてファイル名とカーネルは適宜変更)

VMware Workstation 7の仮想マシンは上記でOK。
ハードウェア構成で必要なドライバは変わるので、事前に2.6.18のカーネルが起動した状態で
ロードされているドライバを確認しておき、必要に応じて初期RAMディスクに含めること。

8. 再起動→2.6.32で起動OK


189 名前:login:Penguin mailto:sage [2010/09/11(土) 13:37:57 ID:ylGEDvFt]
>>187
本当に丁寧に教えていただいてありがとうございます。
本当に面倒な作業なんですね。
今夜にでも試してみようと思います。


fedora13のLiveCDを使って/sys/block/md0/md/level
の書き換えが出来ました。
正確には/sys/block/md127/md/levelです。
LiveCDで起動したらmd127にされてしまいました。
そのままecho raid5やって、
CentOSで再起動。
再起動後にもlevelファイルの中身はraid5だったので、
growしてみたところうまくいきました。
で、md127のままなのが気に入らなかったので
#mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1
#mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1
#mdadm --misc --stop /dev/md127
#mdadm -C /dev/md0 -l 5 -n 3 /dev/sdb1 /dev/sdc1 /dev/sdd1

と、これでmd0になりました、データも失っていません。
これ以外の方法が思いつかなかったんですが、
もっとスマートな方法があったら教授願いたいです。
mdadmまだ使いこなせてません。

カーネルが古くてもmdadmのバージョンが条件を満たしていれば
できるみたいですね。

みなさん、親身になって答えてくださりありがとうございました。

190 名前:login:Penguin mailto:sage [2010/09/11(土) 13:46:22 ID:D+LL5OKu]
--super-minor=0 --update=super-minor

191 名前:login:Penguin mailto:sage [2010/09/14(火) 21:32:42 ID:Oy6zCGq+]
-l1したら/bootにする場合でRAIDを理解しないローダー使うときは--metadata=0.90指定しろよ、って言われたわ
>>116-122

192 名前:login:Penguin mailto:sage [2010/09/17(金) 23:06:24 ID:QPHXo1u7]
チラ裏メモ

Fedora12 x86_64(mdadm 3.0.3-2)だと7台構成のRAID6→8台構成にreshapeしようとすると

mdadm: Need to backup 120K of critical section..
mdadm: /dev/md1: failed to save critical region

でエラー
Fedora13 x86_64(mdadm 3.1.2-10)にupgradeしたら

mdadm: Need to backup 120K of critical section..
(黙ってreshape開始)

で成功

mdadm 3.0.3-2のままでもRAID5の6台→7台の変更と7台のRAID5→7台のRAID6はできたので
3.0.3-2には半端に不具合が残ってる気がする

193 名前:login:Penguin mailto:sage [2010/09/20(月) 08:16:15 ID:YPDhyYqG]
WD20EARSでRAID6組もうと思うんだけど、AFTってなんか関係してくるん?

194 名前:login:Penguin mailto:sage [2010/09/21(火) 01:48:27 ID:MEa3sArJ]
>>193
hibari.2ch.net/test/read.cgi/jisaku/1279640392/475

kernel が対応していれば問題なしかと

195 名前:login:Penguin mailto:sage [2010/09/21(火) 19:49:57 ID:sGME08sR]
>>193
ハードウェアRAIDカードの場合、一部のカードで不具合報告あるから要確認
hibari.2ch.net/test/read.cgi/jisaku/1275144136/108


196 名前:login:Penguin mailto:sage [2010/09/23(木) 10:27:21 ID:aw/haffN]
>>193-194
回答ありがと。

SAS6/iRでソフトRAID6なんだが報告なさげだから人柱なのかな?

197 名前:login:Penguin mailto:sage [2010/09/24(金) 20:46:05 ID:a9oJcDud]
>>195
あ、なつかしい。俺がまとめた奴だw
引用ありがと。



198 名前:login:Penguin mailto:sage [2010/10/01(金) 15:40:17 ID:lKU+sDuG]
CentOS 5.4でHDD3台をRAID5でひとまとめにして使っていました。
最近になって容量が足りなくなってきたので、
同じ容量のHDDを1台追加し、領域拡張しょうとしているのですがうまくいきません。

liliumrubellum.blog10.fc2.com/blog-entry-181.html

ここの手順通りに進めたのですが、最後にファイルシステムを拡張するところで

# resize2fs -p /dev/md0
resize2fs 1.39 (29-May-2006)
resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0
Couldn't find valid filesystem superblock.

このようなエラーメッセージが表示されます。
マウントしているのがいけないのかと思い、umountを実行しましたが、
resize2fsのエラーメッセージは変化ありませんでした。

どうしたらうまく拡張できるのでしょうか?

ちなみに、マウント先は/homeで、アンマウント方法はumountコマンドだけでなく、
/etc/fstabを書き換え、起動時からこのデバイスをマウントしないようにすることも試しましたが、
結果は変わりませんでした。

199 名前:login:Penguin mailto:sage [2010/10/01(金) 17:10:57 ID:iIUT3HXi]
Centの5.4辺りのkernelとmdadmのバージョンで
Online RAID Level Migrationってできるんだっけ?

200 名前:198 mailto:sage [2010/10/02(土) 09:00:00 ID:l0eD4IK+]
参考にしたサイトには書かれてないみたいですが、
lvextend -l 89425 RAID5_01/home
で論理ボリュームを拡張したあと
e2fsck -f /dev/RAID5_01/home
を実行すれば、追加HDD分の容量が増えました。
マウントしていない状態で行ったので、アンマウント必須かはわかりません。
次やるときはマウントせずに試してみます。

あと、/etc/mdadm.confに
num-devices=(数字)
という記述がなかったので、今回は何も書き換えなかったのですが、
特に問題なく動いているみたいです。
ディストリによってはこのファイルの書き換えは必要ないのでしょうか。

とにかく、そんなわけで自己解決しました。お騒がせしました。

201 名前:198 mailto:sage [2010/10/02(土) 10:24:36 ID:l0eD4IK+]
誤: 次やるときはマウントせずに試してみます。
正: 次やるときはマウントしたまま試してみます。

でしたorz

202 名前:login:Penguin mailto:sage [2010/10/02(土) 10:30:33 ID:QA6hlIsa]
>>200
リンク先のページを開こうとするとブラウザが固まるんで判らんのだが、要するに

自分とこのシステム構成(RAID + LVM + ext3)を把握しないまま、
RAID + ext3のシステムについて書いたブログエントリをそっくりそのまま真似して
「うまくいかない!」

……というオチ?

203 名前:198 mailto:sage [2010/10/02(土) 16:57:53 ID:l0eD4IK+]
>>202
だいたいそんな感じです。
さすがに自分のところの構成くらい把握してるつもりですが、
どこ見てもこのやり方で書いてあったんで、
ほとんどの構成で通用するやり方だと思い込んでいました。

さらにエラーメッセージが

resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0

なので、これを読んで「LVM使ってるからやり方が違うんだ」
という発想にたどり着けず、途方にくれてました。

204 名前:login:Penguin mailto:sage [2010/11/03(水) 14:54:37 ID:EB+4MiCj]
最近のマザーボードはRAIDカード搭載の物が多いですけど
Linuxで使うならソフトウェアRAIDの方が無難ですか?

205 名前:login:Penguin mailto:sage [2010/11/03(水) 15:02:33 ID:+mHxq1R3]
>>204
いえす

206 名前:login:Penguin mailto:sage [2010/11/03(水) 15:58:28 ID:aR2r0zLp]
>>204
×最近のマザーボードはRAIDカード搭載の物が多いですけど
○最近のマザーボードはRAID機能搭載の物が多いですけど

ソフトウエアRAIDだとハードウエア(マザーとかボードとか)変えてもコマンド打てば復活する
移し変え時の別のハードウエアへの接続位置(順)は適当でいい
1,2,3,4→2.4.1.3としてもちゃんと復活してくれる

ハードウエアRAIDだとハードウエアを変えるとデータがあるのに見えない
場合によっては消える


207 名前:login:Penguin mailto:sage [2010/11/03(水) 16:29:41 ID:EB+4MiCj]
>>205,206
ありがとうございます
ソフトウェアRAIDにしておきます



208 名前:login:Penguin mailto:sage [2010/11/03(水) 16:34:52 ID:3a2ffMIU]
>>206
「最近のマザーボード」とやらに載ってるようなのは
「ハードウェアRAID」ですらない。

>>206の書きようだとハードウェアRAIDには
何のメリットもないように見えるなw
たぶんハードウェアRAIDを使ったことがないんだろうが。

209 名前:login:Penguin mailto:sage [2010/11/03(水) 21:15:46 ID:KClY6dlN]
マザボのRAID機能をどうこう言ってる相手に、ハードウェアRAIDのメリットも糞もないわw
メリットがあるとして、それを得るには幾ら投資すりゃいいのさ
個人レベルはもちろん、業務レベルでも一部を除けば、ソフトウェアRAIDで充分だよ

210 名前:login:Penguin mailto:sage [2010/11/03(水) 23:07:53 ID:uttDJDAa]
費用対効果で考えればいい
同じ効果を安くできるならそれでいいって考え方でいいじゃん
人それぞれだけど

211 名前:login:Penguin mailto:sage [2010/11/03(水) 23:19:18 ID:uttDJDAa]
ちなみにオレはソフトウエアRAID派
馬鹿なんで、USBメモリ起動で8台 RAID6で運用しています

USBメモリのイメージを別でとってあるんでUSBメモリが壊れても無問題


212 名前:login:Penguin mailto:sage [2010/11/04(木) 00:42:42 ID:A0zlTMZq]
>>209
>>208の指摘は
(1)>>206は疑似HW RAIDとHW RAIDをゴチャマゼにしている
(2)HW RAIDにはSW RAIDとは違うメリットがある
という別々の二点なのだが?

213 名前:login:Penguin mailto:sage [2010/11/04(木) 00:45:21 ID:A0zlTMZq]
(2)に関しては
>>206の書き方では初心者に誤解を与える
という指摘だな

214 名前:login:Penguin mailto:sage [2010/11/04(木) 03:20:39 ID:BL47owsD]
>>212
擬似HW RAID用ドライバ開発されてなかったっけ?
ちょっとだけ負荷軽くなる奴

215 名前:login:Penguin mailto:sage [2010/11/04(木) 14:46:16 ID:1Zlxj7jT]
SW RAIDの欠点はRebuildやResync時にI/Oバス帯域を食いまくるところか。

>>214
擬似HW RAIDは dmraidドライバでIntel/nVidiaチップセット向けRAID対応だったかも。

216 名前:login:Penguin mailto:sage [2010/11/05(金) 21:53:06 ID:ZjVbxW85]
いろんな用途と複合的に使うにはHW RAIDが有利


217 名前:login:Penguin mailto:sage [2010/11/05(金) 22:48:44 ID:hdBmVs+M]
SCSIのRAIDは信用できるが
IDE/ATA/SATAのRAIDはなんか信用できない
SATAならむしろOSの機能のソフトRAIDを選びたい



218 名前:login:Penguin mailto:sage [2010/11/05(金) 23:13:14 ID:9wgeowow]
「なんか」とか

219 名前:login:Penguin mailto:sage [2010/11/05(金) 23:15:05 ID:QtPoCyoP]
スカ爺の言うことだし

220 名前:login:Penguin mailto:sage [2010/11/06(土) 00:35:09 ID:Qew0bHFo]
チッ、うっせーな…反省してま〜す

221 名前:login:Penguin mailto:sage [2010/11/06(土) 05:06:40 ID:6aJUodpE]
>>211
フラッシュメモリをRAID5/6で使うと、あっという間に寿命が来るぞ。
バックアップ取ってあるなら、RAID0で使った方が寿命長いんじゃないか?

222 名前:login:Penguin mailto:sage [2010/11/06(土) 21:20:03 ID:/PdZ4pGk]
フラッシュメモリは起動用でHDDは8台でRAID6ですよ
コレダメならESXやESXiのUSBメモリ起動もダメってことじゃ?

223 名前:login:Penguin mailto:sage [2010/11/08(月) 22:40:45 ID:/LP5nvaW]
>>222
swapは?

224 名前:login:Penguin mailto:sage [2010/11/10(水) 20:17:26 ID:fV4mstBN]
メモリ2Gしかないけど、作らない。


225 名前:login:Penguin mailto:sage [2010/11/12(金) 21:32:47 ID:10OTEzMQ]
こんばんは。

Xenserver5.6(Centosがベース)上で、Windows2008R2をファイルサーバ
として動かしてます。

そして、ホスト側にてディスク2TB×4本でRAID10を組んでます。
ですが、ゲスト側に割り当てれるHDDイメージが1つあたり最大2TBまでのため、
しかたなく、2TBイメージ×2つを割りあえてて、ファイルサーバを動かしてます。

そのため、2008R2サーバ上ではディスクが2つ見える状態ですが、
使いやすくするために以下いずれかの方法で4TB×1にしたいのです。

 1.スパンボリューム
 2.RAID0

のいずれかでまとめるならば、1、2でパフォーマンスは異なったりするのでしょうか?
(スパンボリュームのほうは試しましたが、データがあるのであまり変更したくないです)

もし、知ってる方がいらっしゃいましたら教えていただけないでしょうか。

226 名前:login:Penguin mailto:sage [2010/11/13(土) 07:07:21 ID:bwqwb+4h]
>>225
XenServerのことは知らんが、ネタは物理ドライブじゃなくて
ディスクアレイに置いてあるイメージファイルなんだろ?

同一アレイに置いてあるイメージファイルをRAIDをしても高速化するとは思えんから、
普通にスパンボリュームでいいんじゃね?

227 名前:login:Penguin mailto:sage [2010/11/13(土) 10:49:54 ID:RbGidMq7]
>>226
試してみました。書き忘れましたがベースのRAID10はソフトウェア(mdadm)です

<条件>
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
OS : Windows Server 2008 R2 Datacenter Edition (Full installation) [6.1 Build 7600] (x64)

★JBOD
Sequential Read : 121.461 MB/s
Sequential Write : 95.109 MB/s
Random Read 512KB : 20.740 MB/s
Random Write 512KB : 34.521 MB/s
Random Read 4KB (QD=1) : 0.516 MB/s [ 126.0 IOPS]
Random Write 4KB (QD=1) : 0.881 MB/s [ 215.1 IOPS]
Random Read 4KB (QD=32) : 1.068 MB/s [ 260.6 IOPS]
Random Write 4KB (QD=32) : 1.073 MB/s [ 262.0 IOPS]

Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5)
Date : 2010/11/12 22:56:08



228 名前:login:Penguin mailto:sage [2010/11/13(土) 10:50:35 ID:RbGidMq7]
>>226
★RAID0
Sequential Read : 66.657 MB/s
Sequential Write : 82.209 MB/s
Random Read 512KB : 20.065 MB/s
Random Write 512KB : 42.841 MB/s
Random Read 4KB (QD=1) : 0.563 MB/s [ 137.4 IOPS]
Random Write 4KB (QD=1) : 2.608 MB/s [ 636.8 IOPS]
Random Read 4KB (QD=32) : 1.232 MB/s [ 300.8 IOPS]
Random Write 4KB (QD=32) : 2.544 MB/s [ 621.2 IOPS]

Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5)
Date : 2010/11/12 23:19:09

★単体
Sequential Read : 225.816 MB/s
Sequential Write : 106.714 MB/s
Random Read 512KB : 30.901 MB/s
Random Write 512KB : 59.968 MB/s
Random Read 4KB (QD=1) : 0.694 MB/s [ 169.5 IOPS]
Random Write 4KB (QD=1) : 1.636 MB/s [ 399.5 IOPS]
Random Read 4KB (QD=32) : 1.336 MB/s [ 326.3 IOPS]
Random Write 4KB (QD=32) : 1.730 MB/s [ 422.4 IOPS]

Test : 1000 MB [D: 0.0% (0.2/1859.2 GB)] (x5)
Date : 2010/11/12 23:28:41

229 名前:login:Penguin mailto:sage [2010/11/13(土) 10:51:44 ID:RbGidMq7]
>>226
結果、何もしないのが一番よいことがわかりました。
RAID0だとすごく遅くなり、JBODだと単体の半分ぐらいです。
(予想外の結果でした)

単体のドライブ2台を同時にベンチするとJBODぐらいのスピードに
なったので、恐らく書き込みなど分散→さらにRAID10にて分散など
無駄な感じとなって、落ちまくってるんだと思います。

#なんどやっても、同じでしたorz

230 名前:login:Penguin mailto:sage [2010/11/14(日) 00:17:04 ID:UO38LBbx]
別にストレージ用のサーバ立ててiSCSIでマウントする
とかが当世風じゃね?
いろいろと融通が利くし

231 名前:login:Penguin mailto:sage [2010/11/14(日) 01:58:03 ID:IF1j6YbV]
>>230
iSCSIでのディスク利用は考えてるのですが、ネットワーク周りを
強化してないので、とりあえずはローカルディスクで外部NASに
バックアップするような構成です。

iSCSI使うなら、ライブマイグレーションを使うことが目的になりそう
ですので、ホスト側を冗長しないとメリットなさそうですし、ディスク側
や経路上のNW機器も冗長しないと怖いです。
(ゲスト8台動いてますが、その最中にディスクが切り離されると
思うとゾッとします)

iSCSIを試す分には全然大丈夫なのですが、個人運用で本格利用
するにはコストがかかりそうなので今のところ見送ってます。

#ホスト側が落ちたら同じなんですけどね。でも、冗長化してないiSCSI
 利用よりかはトラブルが発生しにくいかなと思ってます。

#職場ではesxiを入れたブレードサーバとかで構築してますが。
 (もちろんディスクは外部で)

232 名前:login:Penguin mailto:sage [2010/11/15(月) 19:22:57 ID:gNCbtYKe]
質問いいですか
win7とubuntuあたりでRAID構成を共有したいのですが、できますかね

233 名前:login:Penguin mailto:sage [2010/11/16(火) 11:08:25 ID:HeKRLUlf]
>>232
一台でマルチブートって事?
ならオンボのRAIDドライバはどちらでも使える。

234 名前:login:Penguin mailto:sage [2010/11/16(火) 21:29:52 ID:JnnqGF7a]
test


235 名前:login:Penguin mailto:sage [2010/11/16(火) 21:33:44 ID:VWoXCYbw]
DELL SAS6/iR RAIDカード
で、
WD20EARS-00MVWB0
で、
ソフトRAID6いけるかな?

236 名前:login:Penguin mailto:sage [2010/11/16(火) 22:39:33 ID:Szhcfl18]
8台くらいで構成したmdのraid5or6or10のベンチマークするとどの程度パフォーマンスが出るもんです?
そのうち自分でも試すつもりだけど参考用のデータとかあったりします?

237 名前:login:Penguin mailto:sage [2010/11/17(水) 21:34:48 ID:j19cjkTS]
エスパー
RAIDするメディアにもよる



238 名前:login:Penguin mailto:sage [2010/11/20(土) 19:44:31 ID:cFLVa63Z]
速度はあんまり出ないよ
シーゲートの7200回転1.5TB x 6 のRAID6
hdparm -ft /dev/md1
/dev/md1:
Timing buffered disk reads: 418 MB in 3.00 seconds = 139.15 MB/sec

239 名前:login:Penguin mailto:sage [2010/11/21(日) 00:09:27 ID:1IPGonEa]
骨董品の幕の6L(250GB)*8本のRAID6で

/dev/md1:
Timing buffered disk reads: 874 MB in 3.00 seconds = 291.07 MB/sec

250〜300弱の間でふらふらする


240 名前:login:Penguin mailto:sage [2010/11/21(日) 11:17:38 ID:zCTXq4aL]
情報サンクス。
今4台のRAID5でkvmのホストやらせてるがゲスト7つ起動するとdisk i/oで詰まってる感じがするので台数増やしたら改善できないかなと思ったのだけれど。
cpu負荷との兼ね合いもあるけどチャレンジしてみようかと思います。

これでkvm自体がボトルネックだったら泣けるなあ。

241 名前:login:Penguin mailto:sage [2010/11/21(日) 22:40:45 ID:jxLFhocQ]
>>240
ゲスト毎に違うHDD用意するのが幸せになれるんじゃないの?
って、7台+システム1台はさすがに厳しいな

242 名前:login:Penguin mailto:sage [2010/11/28(日) 19:06:34 ID:gL5KRMCh]
>>116
激しく遅レスだけど、WD20EARSでmd RAIDやるならポイント2つ押さえておけば大丈夫。

green-rabbit.sakura.ne.jp/blog/2010/11/27/2191/

- RAIDのデータ開始位置をセクタの区切りに合わせる
- LVMのデータ開始位置をRAIDのチャンクサイズに合わせる

ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。
(パーティションはRAIDディスクに対してLVMで管理)

243 名前:login:Penguin mailto:sage [2010/11/28(日) 22:00:44 ID:RmwuvbbY]
6台のraid6をmdadmで構築していました。
1台FailになったのでHDDを交換して復旧させようとしたら
次々とHDDがFailになり復旧できなくなりました。

これってもうダメなのでしょうか?
dmesg見るとHDD自体は認識しているようなのですが。


244 名前:login:Penguin mailto:sage [2010/11/28(日) 22:25:22 ID:5Q0sCNVi]
それってコントローラーかマザーボード/CPUが死んでるんじゃ…

245 名前:login:Penguin mailto:sage [2010/11/28(日) 22:27:33 ID:OW3cc9+0]
同ロットのHDDで揃えてたんだろ。良い教訓。

246 名前:login:Penguin mailto:sage [2010/11/28(日) 22:31:24 ID:Tsm3YN7+]
>>242
linux初心者にわかりやすくコマンドください
WD20EARS8台でRAID6にしたいのです

247 名前:login:Penguin mailto:sage [2010/11/28(日) 22:51:00 ID:RmwuvbbY]
すみません。ちょっとパニくってましたw

mdadm --assemble --force /dev/md0
したら、とりあえず4台で再構築が始まったみたいです。

>>245
全部同じではないけれど半分くらいは同じだったかも。




248 名前:login:Penguin mailto:sage [2010/11/28(日) 22:54:14 ID:ZKkrEg8g]
>>246
リンク先のエントリを読んで解らんヤツにれいどろくなど宝の持ち腐れである!

アレが解らん人間にディスクがお釈迦ってデグったアレイを復旧できるとは思えんなw

249 名前:login:Penguin mailto:sage [2010/11/28(日) 23:25:31 ID:Tsm3YN7+]
キモは2つか

250 名前:login:Penguin mailto:sage [2010/11/28(日) 23:34:15 ID:hDElDxYb]
>ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。

どうやるの?

251 名前:login:Penguin mailto:sage [2010/11/28(日) 23:57:43 ID:ZKkrEg8g]
>>250
パーティションを指定する代わりにデバイス全体を指定すればいいだけ。

252 名前:login:Penguin mailto:sage [2010/11/29(月) 00:16:37 ID:5KK7FVso]
パーティションタイプでfd(Linux RAID Auto Detect) を使う必要があるのかと思い、
1ディスク1パーティションの時でもパーティションを切っていたよ。。。。

253 名前:login:Penguin mailto:sage [2010/11/29(月) 00:36:55 ID:C+YWZRYM]
>>252
/dev/sda1とかパーティションを切ったのに

mdadm --create -n 4 -l 5 /dev/sd[abcd]

でパーティションテーブルを吹っ飛ばす、というのはお約束なドジの一つだよねorz


254 名前:login:Penguin mailto:sage [2010/11/29(月) 05:05:30 ID:hkKkYSLf]
でも、微妙な容量差を揃えられるように
1領域でもパーティションにした方が良いんじゃないかね。

255 名前:login:Penguin mailto:sage [2010/11/29(月) 20:05:55 ID:BBunKmhs]
>>254 確かに。そのあたりは、下記でも触れられていますね。
https://raid.wiki.kernel.org/index.php/Partition_Types

個人的には、交換用に新しく買ったディスクのサイズがちょっと小さかったら、
そのとき対処すれば良いんじゃないかなー、と思ってます。

mdadm --grow --size= でサイズ変更するだけなので。

あ、RAID1以外だと時間かかりそうだし障害時にやるのはあれだから、
--create するときにあらかじめ --size しておけば良いんじゃないのかなー。

256 名前:login:Penguin mailto:sage [2010/11/29(月) 20:37:16 ID:NGnnNc2T]
>ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。
6台でRAID6とかでも関係ない?

257 名前:login:Penguin mailto:sage [2010/11/29(月) 20:57:34 ID:BBunKmhs]
>>256
関係ないよ。

>>255でも書いたけど、RAID6ならRAID構築するときにサイズ指定しておくと良いよ。
(サイズは HDD の容量から 100MB程度引いておく)

% mdadm --create --size=サイズ(ディスク1台当たりに使用するサイズ[kb],64の倍数)

そうじゃないとHDDこけて交換しようと思ったときに、
同一モデルHDDでも容量が少なかった場合に困る。



258 名前:login:Penguin mailto:sage [2010/11/29(月) 20:59:28 ID:rjjhbUoR]
容量ちょっとだけ大きいの買ってくるだけでいいやん

259 名前:login:Penguin mailto:sage [2010/11/29(月) 21:03:21 ID:BBunKmhs]
>>258
でも、2TB使ってそういう状況になったら、2.5TB とか 3.0TBとかになって、GB単価違いすぎて泣ける気が






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<203KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef