LVMを語らせていただけませんか?
at LINUX
[前50を表示]
500:login:Penguin
07/08/19 23:15:15 T6S2sCgB
512GBのVGに512GBを追加して、
1TBのLVを作ろうとしています。
PVの追加はできたのですが、lvextend ができない。
◆ vgdisplay -v
VG Size 931.52 GB
PE Size 4.00 MB
Total PE 238468
Alloc PE / Size 119234 / 465.76 GB
Free PE / Size 119234 / 465.76 GB
※ 119234のFree PEアリ。
◆ lvextend -l+5000 /dev/vg01/lv01
Extending logical volume lv01 to 485.29 GB
Insufficient free space: 124234 extents needed, but only 119234 available
availableが何故か 119234しかない。-l+119234 でも同じです。
PEサイズはデフォルトですがLVM2(SuSE10.2 / kernel2.6)なので関係ないですよね?
何が原因でしょうか?
501:login:Penguin
07/08/19 23:54:42 T6S2sCgB
結局、LVをremoveして、作り直しました。
その前にPEを64MBにしましたが、lvextend失敗に変化無し。
lvcreate で1TBを指定した場合、問題なく
作成されました。
でもextendできないと不便だなぁ・・。
502:login:Penguin
07/08/20 00:00:34 kH0aJAtz
Semper avarus eget
503:login:Penguin
07/08/20 12:50:52 9YNRh3lY
>何が原因でしょうか?
RTFM
504:login:Penguin
07/08/22 00:43:09 VSzDj+IC
-lと-Lは違うのだよおっさん
505:login:Penguin
07/09/02 00:04:10 9jcT6cwh
バグみたいよ。
506:login:Penguin
07/10/08 02:43:03 noXEAedN
/dev/hdb1をpvとしてvg1を作っていたのですが、
いきなり物理的に繋ぎ変えてhdb1からhdd1にしたら
認識しなくなっちゃいますか?
507:login:Penguin
07/10/08 07:49:33 bgwXsIR/
PVに当てられた固有IDで認識してるから、デバイス名には依存しない
つまり大丈夫ってことさ
508:login:Penguin
07/10/08 14:35:28 noXEAedN
>>507
ありがとうございます。何事もないように認識しました。
509:login:Penguin
07/10/09 17:26:27 CR7wiDCr
>>507
LVMに/を配置しているディスクhdaからddでsdaにディスクコピーしてgrub周りを書き換えましたが、
sdaで起動すると/マウント中にカーネルパニックが起きます。(hdaは取り外し済)
レスキューモードではマウントできるんですが、どうすれば起動できるようになりますか?
510:login:Penguin
07/10/09 17:37:31 dupuTztZ
dd? なんでpvmove使わなかったの
511:login:Penguin
07/10/09 21:43:02 gFNRvPVM
LVMなんて使わずcp -acがお似合いだと言ってやれ
512:login:Penguin
07/10/10 02:38:16 LDDKpBnL
>>505
一月遅れであれだが、
URLリンク(search.luky.org)
の件やね。
513:login:Penguin
07/10/13 00:05:08 l6GyC4t8
何台も同じパーティション構成のサーバを作るときって、今俺はLVM使ってないので、
予め作っといたパーティションテーブルの情報をsfdiskにぶち込んでパーティションを
切らせてたんだが、LVMで似たようなことをやろうとした時に楽にやれる方法ってある?
pvcreateとかvgcreateとかlvcreateとかをタラタラ流すスクリプト作るしかない?
514:login:Penguin
07/10/17 12:01:13 6v2jXhkm
>>513
1台作ったら、ddでメタデータをコピーすればいいんでない?
515:login:Penguin
07/10/25 11:17:23 4uCOppUn
LVMって複数のHDDにまたがって構築したとき、どれか一台でも故障すると、
全体が壊れて読み出せなくなるんだよね?
つまりLVMはRAID上に構築するのが大前提ですか?
516:login:Penguin
07/10/25 11:29:15 xk5fq29w
>>515
RAIDだって2台同時に死ねばいっしょ。
運用による。
壊れそうなHDDの予兆を察知してディスクを交換するか、
LVMの下のレイヤーで冗長性を確保する。
517:login:Penguin
07/10/25 11:55:52 D3bEYjzi
ストレージを使っていればLVMだけでいいけど、
内蔵とか単なる外付けディスクで組む場合は、RAID併用を考慮しないとね。
VxVMやZFSなんかはLVMとSoftwareRAIDの両方を兼ねているけど。
518:login:Penguin
07/10/25 15:04:00 Lgcv7leu
壊れてないディスクからも読み出せなくなるのか。。。
ファイル単位で記録してるわけじゃないから仕方無いかな。
519:login:Penguin
07/10/25 16:14:04 mZNLZbQp
>>518
ただし残るファイルもあるがな。
だが、250Gのディスクが吹っ飛んだとしたら250G以上の被害があるのは確実
そこは理解して使おう
ま、RAIDのJBODするよりは柔軟性があるってだけ
520:login:Penguin
07/10/25 16:14:41 mZNLZbQp
書いてから気づいたがRAIDのJBODて言い方は語弊があるな
521:login:Penguin
07/10/25 20:29:55 xk5fq29w
RAID0には違和感は感じないの?
522:login:Penguin
07/10/26 13:15:57 2kfwd15n
俺は、冗長度ゼロのディスクアレイなので1台故障したら全滅、
と解釈している。
523:login:Penguin
07/10/26 14:33:04 E+EQY5Mq
ファイルが不必要にディスクをまたがないような仕組みにしたら
ある程度軽減できるんじゃないかな。
524:login:Penguin
07/10/26 16:18:56 k8++Xzzr
それリニアモードじゃね?
525:login:Penguin
07/10/26 16:31:49 ICp0Nr8Q
リニアとかコンカチ(ネイト)とかいろいろ呼び方があるんだな。
526:login:Penguin
07/10/27 10:26:16 tpLgCQ0c
んーRAID5の/dev/md0をまるごとLVMで切って使ってるけど。
527:login:Penguin
07/11/10 17:50:37 75KqCEgM
fdisk -lの結果が実態とズレてて困ってるんだが、
こういうのってどうやったら修正できる?
Device Boot Start End Blocks Id System
/dev/sda1 * 1 12749 102400000 7 HPFS/NTFS
/dev/sda2 12750 12761 96390 83 Linux
/dev/sda3 12762 30401 141693300 8e Linux LVM
/dev/sda1は Linux LVMなのだが。
528:527
07/11/10 18:06:30 75KqCEgM
自己解決しました。微妙にスレ違いでした。
529:login:Penguin
07/11/20 01:30:54 jEvbITJ+
ハードウェア板からきました。
Linux の SoftRaid で インストール時にRAID1を組みました。
md0 -> /boot
md1 -> PV (/, swap)
この後md2 (RAID1)を追加で作成して上のmd1のVGに追加した後、
lv / を拡張しました。拡張して領域も増えてうまく行ったんですが、
再起動したら、/ が無いとか言われて Kernel Panicになります。
この場合どうしたらよいのか、またなぜそうなるのかがよくわかりません。
SoftRAIDを組んでない場合は / の拡張はうまく行くのですが・・・
よろしくお願いします。
530:login:Penguin
07/11/20 02:31:13 JgF19cQw
mkinitrdし直した?
531:login:Penguin
07/11/20 08:17:38 jEvbITJ+
>>530
し直してないです。
532:login:Penguin
07/11/20 08:20:33 FQmr64dD
>>531
聞いている側はそんなレス期待してない
そういうときは言われたことをやってから、その結果を答えるもんだ
533:login:Penguin
07/11/20 14:48:10 rmTyWI1j
>>530
>>532
ありがとうございました。
mkinitrd でうまく行きました。
オリジナルのイメージファイルから起動するとやはりカーネルパニックに
なりましたが、mkinitrd で作成しなおしたイメージから正常に起動できました。
534:login:Penguin
07/11/26 21:44:37 aR8zYa9e
Vine 3.2でLVMを入れようと思ったのですが、Howtoなど読みながらいろいろと
試行錯誤しているうちに妙な状態(消したはずのVGが認識されたり)になってしまいました。
一旦全部消してゼロからやり直そうと思い、apt-get remove lvmの後 /etc/lvm*を削除したのですが、
その後 fdiskからやり直すと、前回の設定がどこかに残ってしまっているようで、VGが既にある、と認識されてしまいます。
/etc/lvm* 以外に、どのファイルを削除すればスッピン状態に戻ってくれるのでしょうか?
535:login:Penguin
07/11/26 21:50:45 asrSmFuw
dd if=/dev/zero of=/dev/hd** とかで一旦ディスクをまっさらにしてみては?
pvscan が多分勝手に PV を見つけてくれちゃってるせいではないかと。
536:login:Penguin
07/11/26 21:57:57 kqJnnjsh
いや、そういうときはpvremoveを使うのが本式だろう
しかしfdiskしてるのに何でVGを検出するんだろな
537:534
07/11/26 22:43:44 aR8zYa9e
ファイルシステムからは見えない場所に情報が書き込まれている、ということでしょうか?
(vgscan すると、「前回作ったVG名」の内容で /etc/lvmtab.d/ および lvmtab か作られてしまいます)
なお、Vine 3.2 の LVMにはなぜか pvremove コマンドが入っていません。
/sbin で ls pv* すると出てくるのは以下のものだけです。
pvchange pvcreate pvdata pvdisplay pvmove pvscan
ちなみに LVM のバージョンは lvm-1.0.3-19vl1 となっています。
だいぶ古いですね。そのせいでしょうか。
538:login:Penguin
07/11/26 23:19:48 kqJnnjsh
lvm2じゃないのか…
適当なアドバイスですまんかった
539:login:Penguin
07/11/27 02:02:02 TK2aPOw7
fdiskしても同じサイズアロケートしたら前の情報丸々残ってるんじゃ・・・
わかりにくい例だけど
windowsでクイックフォーマットしても、復旧ツールで直せるのと同じだと思うよ。
540:login:Penguin
07/11/27 14:09:00 PE+7IEYU
initngってLVMに対応しました?
541:534
07/11/27 17:07:34 kwFAlWL3
>>539
なるほど。
ということで、一旦fdisk で先頭から数百MB程度の小さいパーティションを作り、これをext2で
フォーマットをかけた後、再度 fdisk で前回よりも少しだけ小さい LVM領域を確保しました。
この状態で vgscan を掛けたところ、今回は VGは検出されませんでした。
ところが、pvcreate -> vgcreate と進んだところで、前回と同じ VG名を指定したところ
「そのVG名は既に使われている、他のを指定しろ」と蹴られてしまいます。
前回だけでなく、これまでテストとかで使った VG名は全部残っているようです。
続いて ddでゼロ埋めしてみましたが、やはり過去の VG名は消えてくれません。
(もちろん vgremove を行おうとしても、「そんな VGねーよ」となります)
こうなるとLVM領域とは別の場所(システム側)に情報が保存されているとしか思えません。
ここで最初に戻ってしまうのですが、/etc/lvm* 以外に LVMの設定が保存されているファイル
というのは存在しないのでしょうか?
/etc 内のファイルは一通り grep してみたのですが、VG名が書き込まれているものはなさそうです。
/proc/lvmにもなさそうですし。(このディレクトリはapt-get remove した際、一度消えてました)
542:login:Penguin
07/11/27 17:11:28 4HpV7mg9
lvm2なら/etc/lvm配下だけなんだが…
/varとかに作ってるのかなぁ…
543:534
07/11/28 20:52:14 L0IMODeH
結局Vineを現行の4.1に upgradeして LVM2入れたところ、何の問題もなく設定できました。
LVM1でのトラブルの原因も解決法も分かりませんが、取り敢えずはヨシということで。
特に問題も出てないのにOSのメジャーバージョンアップって、余計な手間が掛かりそうで腰が引けてたんですが、
結果からいえば LVM1であれこれ苦労した時間を考えると、さっさと upgradeしときゃよかったっつー感じですw
お騒がせいたしました。
544:534
07/11/29 22:06:57 yTYjvc/A
連日申し訳ありませんが、引き続き質問です。
昨日は意図的に小さめのLVMボリュームを作成し、今日はそれを拡張するテストをしました。
(1)昨日余らせたHDDの空間を fdiskで LVM用に確保 (仮に /dev/hdb2 とします)
(2)そこにPV作成 → pvcreate /dev/hdb2
(3)昨日のVGを拡張 (VG名を仮に VG_1 とします) → vgextend VG_1 /dev/hdb2
と、ここまでは特に問題なく意図通りに進んだことを vgdisplay にて確認しました。
現在は
VG Name VG_1
VG Size 838.00 GB
Alloc PE / Size 6128 / 766.00 GB
Free PE / Size 576 / 72.00 GB
という状態です。
しかし次に LV(仮に LV_1 とします)の拡張を行おうとするとうまく行きません。
lvextend -L 838.0G /dev/VG_1/LV_1
lvextend -L +72.0G /dev/VG_1/LV_1
lvextend -l +576 /dev/VG_1/LV_1
どの指定方法でも
Insufficient free space: 6704 extents needed, but only 576 available
と表示され、拡張されません(766GBのまま)。
何がマズいのでしょう?
545:login:Penguin
07/11/29 22:48:29 choThEVO
>>544
man lvextend
をよく読め。
まぁ、意図したい操作をするのに一番いいのは
lvextend -l +100%FREE /dev/VG_1/LV_1
かな
546:login:Penguin
07/11/29 22:49:25 choThEVO
あとサイズの指定に小数点の数値は使えなかった気がするな。
547:534
07/11/30 04:03:15 XRlfEnID
>>545
もちろん man lvextendは散々読んだのですが……
-l, --extents [+]LogicalExtentsNumber[%{VG|LV|FREE}]
Extend or set the logical volume size in units of logical extents. With the + sign the value
is added to the actual size of the logical volume and without it, the value is taken as an
absolute one. The number can also be expressed as a percentage of the total space in the
Volume Group with the suffix %VG or relative to the existing size of the Logical Volume with
the suffix %LV or as a percentage of the remaining free space in the Volume Group with the
suffix %FREE.
-l, --extents [+]LEの数 [%{VG|LV|FREE}]
LVのサイズをLEユニットのサイズで拡張、もしくは設定する。+をつけると現在の LVのサイズの増分、
+がなければ値は(LVのサイズの)値そのものになる。また、末尾に%LVを付けると数値はVG全体中のパー
センテージを表し、%FREEを付ければVGの残りのフリーな空間のパーセンテージを表す。
-L, --size [+]LogicalVolumeSize[kKmMgGtT]
Extend or set the logical volume size in units in units of megabytes. A size suffix of M for
megabytes, G for gigabytes or T for terabytes is optional. With the + sign the value is
added to the actual size of the logical volume and without it, the value is taken as an abso-
lute one.
-L, --size [+]LVのサイズ[kKmMgGtT]
LVのサイズをメガバイト単位で拡張、もしくは設定する。数値の末尾にMを付けることでメガバイト、G
ではギガバイト、Tではテラバイトをそれぞれ表すこともできる。+記号を付けるとLVの現在のサイズか
らの増分を、なければ(LVのサイズの)値そのものになる。
"actual size"を「現在のサイズ」と解釈しましたが、これが間違っていますでしょうか?
548:534
07/11/30 04:04:21 XRlfEnID
いろいろぐぐって見たのですが、上記の解釈と矛盾するものは見つかりませんでした。
例えば URLリンク(www.docs.hp.com)
> 論理ボリュームの論理エクステント数を 100 に増加します。
>
> lvextend -l 100 /dev/vg01/lvol3
>
> 論理ボリュームのサイズを 400MB に増加します。
>
> lvextend -L 400 /dev/vg01/lvol4
論理エクステント(LE)の数というのは、物理エクステント(PE)の価と同じだと理解している
のですが、違うのでしょうか?
> lvextend -l +100%FREE /dev/VG_1/LV_1
> かな
前述の解釈が正しいならば、+0%FREEになりそうですが、違うのでしょうか。
また、%を付けないスタイルでの正しい指定方法はどうなるのでしょうか?
ちなみに、小数点以下は付けても付けなくても同じ結果でした。
549:534
07/11/30 04:14:11 XRlfEnID
>>547
あ、すいません。
訂正です。
-Lオプションでの%VGと%LVがゴチャマゼになっちゃってますね。
末尾に%VGを付けるとVG全体中でのパーセンテージを、%LVを付けると存在するLVに対する比率を表す
550:534
07/11/30 04:35:07 XRlfEnID
再度すみません。
remaining の解釈を間違っていました。
a percentage of the remaining free space in the Volume Group with the suffix %FREE
というのは「現在残っているVG中のフリーな空間」でのパーセンテージなのですね。
作業後に残る分ではなく。
従って -L +100%FREE は ADD 100% of the current FREE space の意味だと理解しました。
どうもありがとうございます。
あまり使う機会はないかもしれませんが、バイト数での正しい指定方法も教えて頂けるとありがたいです。
551:login:Penguin
07/11/30 08:19:54 PbsH8r35
>>550
× -L +100%FREE
○ -l +100%FREE
バイト数での正しい指定ってmanに書いてあるじゃないか…
-L [+]LVのサイズ[kKmMgGtT]
てか、うまく行かないなら小さい数字で少しずつ大きくしてみて
確かめればいいじゃん?(使用してなければ)拡張縮小思いのままなんだしさ
めんどいからちゃんと調べてはないけど、vgdisplayで出てくる数値は
読みやすいように丸められてるように思う。
だからlvextendでそのまま指定してもうまくいかない、と思う。
vgdisplay --units b
とかで見てみたらどう?
552:534
07/11/30 12:20:33 XRlfEnID
>>551
失礼。typoでした。
実は>>547-550は問題のPCとは別の場所から書き込んでました。
先ほど実機の方で試してみたところ、結果としてはダメでした。
-l +100%FREE
-l 100%VG
-L 838G
-L 838.0G
-L +72G
-L +72.0G
改めて全部試しましたが、前と同じですべて
> Extending logical volume LV_1 to 838.00 GB
> Insufficient free space: 6704 extents needed, but only 576 available
と出てしまいます。
1行目の内容(と2行目がすべて同じ数値であること)から察するに、どの指定方法も「正しい」ように思えます。
問題は何か別の原因?????
>>544の手順で、何か間違いがあるのでしょうか?
少なくとも、「空いてる空間を100%使え」あるいは「存在するVGを100%使え」と指定しているにも関わらず、
free spaceが不足している、というのは通常はありえないと思うのですが。
(空き容量がゼロだ、という表示になるならばまだ分かりますが)
553:login:Penguin
07/11/30 12:33:57 heZ0YSeF
Vineだから
554:534
07/11/30 12:47:10 XRlfEnID
> めんどいからちゃんと調べてはないけど、vgdisplayで出てくる数値は
> 読みやすいように丸められてるように思う。
というのは確かなのですが、-Lオプションがそもそも「メガバイト単位で指定」
なので、「丸められた数値」での指定が正しいはずでは。
ちなみに vgdisplay --unit bで表示される数値は
> VG Size 899795648512 B
> PE Size 134217728 B
> Total PE 6704
> Alloc PE / Size 6128 / 822486237184 B
> Free PE / Size 576 / 77309411328 B
となりますが、lvextend で「バイト単位での指定」を行う方法が存在しません。
最小単位が「キロバイト」です。
そもそもLVMが管理する最小単位はバイトではなくPE or LEであるはずです。
555:534
07/11/30 12:50:18 XRlfEnID
ということで、LEの数を直接指定してみました。(まだやっていなかった)
-l 6704
-l +576
全く同じ表示でした。
> Insufficient free space: 6704 extents needed, but only 576 available
6704が「増分」とみなされてしまうのならば、と
-l 576
も試してみましたが、これだと
> New size given (576 extents) not larger than existing size (6128 extents)
> lvextend: Add space to a logical volume
と、「本来の正しい」エラーメッセージが出てきます。
もうお手上げです。
556:login:Penguin
07/11/30 12:50:33 PbsH8r35
>>552
だから単位の丸め方に違いがあるんじゃないかなって見解示したじゃん
本当は837.99999GBくらいだけど、838.00GBって表示しちゃうのかも。ということ。
!!!憶測でしかないから本当はどうか知らんがな!!!
で、ワークアラウンドとして、小さい量から積み重ねて増やす。
10Gずつとか。何回かやって、そのたびにvgdisplayで残りを確認。
完全にFree PEが0になったら積み重ねた量を足し算してみればいいと思う。
一気に増やすも少しずつ増やすも一緒だ。
557:534
07/11/30 17:33:33 XRlfEnID
>>556
仰ることは分からないでもないですが、>>552に書いたとおり、
-l +100%FREE
-l 100%VG
というパーセンテージの指定方法でもまったく同じエラーメッセージが出る
という点から考えて問題点は別にある(指定サイズの大小ではない)のは明らかと思われます。
と、書くと「やってもみないで」と言われそう wですので、
一応 -L +1K と最小の指定で実行してみましたが、結果はやはり
> Insufficient free space: 6129 extents needed, but only 576 available
となります。
(もちろん実際の最小の増分は1Kバイトではなく、PEのサイズになりますので、
実質 -l +1と同じ指定になります)
>>553の通り、Vine 依存の問題なのでしょうかねぇ……
本来はこんなに手間がかかる作業ではないんでしょうけど。
困りました。
558:534
07/11/30 19:13:33 XRlfEnID
実のところ、Vine依存のトラブルというよりは
根本的に LVMボリューム拡張の手順を間違えている
という可能性の方が高いような気がしているのですが。
実際に何度も拡張を経験している方の目から見て
>>544の手順というのは正しいのでしょうか?
559:login:Penguin
07/11/30 19:19:58 heZ0YSeF
>>558
>>512あたりを嫁
560:534
07/11/30 20:38:57 XRlfEnID
>>559
なるほど。
リンク先記事では複数HDDとなってますが、実際は複数PVを含む LVは全部 NGなのですね。
(最初の一つ分のPV以上のサイズにできない)
これじゃなんのための LVMか分かりませんね。
(縮小はできるけど、やっぱり主用途は拡張でしょうから)
しかし、もう 4ヶ月も前の投稿なのに、まだアップデートされてないってのが……
Vineなワケですかw
取り敢えず原因が分かりました。
どうもありがとうございました。
561:login:Penguin
07/11/30 22:35:07 PbsH8r35
わけわかんね、Vine腐ってるんじゃないの?
もうそんなディストリ投げ捨てろ
って書こうとして自粛してたのだが、本当に腐ってたのかよw
562:login:Penguin
07/12/07 20:25:25 0Todx2Do
lvm2 Build Date: 2007年12月01日
Dタン..
563:login:Penguin
07/12/30 03:47:41 GnmabIoz
lvm2ってミラーリング(Mirror/UXのlvcreate -mみたいな)とかストライピングできるようになった?
clvmってやつがRHEL4up4でクラスタ化ボリュームミラーリングとか書いてあったからもしかしたら
できるようになったのかなー?
URLリンク(www.jp.redhat.com)
564:login:Penguin
07/12/30 14:48:22 kD6wUebp
あれ?
ミラーリングはすでにできてたんじゃなかったっけ?
ストライピングは無理だけど。
565:login:Penguin
08/01/01 01:06:02 k+j/wHVO
2.6カーネル下でのsnapshotって安定して使えるようになった?
566:login:Penguin
08/01/01 08:11:57 B56glK3n
2.6.19 あたりは安定していた。
最近のはいまいち。
567:login:Penguin
08/01/19 17:42:04 M8Nmbs0I
>>407にもあるように
/dev/VolGroup00/LogVol00: The filesystem size (according to the superblock) is 1310720 blocks
The physical size of the device is 1277952 blocks
Either the superblock or the partition table is likely to be corrupt!
/dev/VolGroup00/LogVol00: UNEXPECTED INCONSISTENCY; RUN fsck MANUALLY.
(i.e.,without -a or -p options)
このようになってしまった場合の解決策ありませんか?(´・ω・`)
physizal sizeの縮小に対して filesystem sizeの縮小がおこなえていないことが原因なのはわかるのですが
具体的にどこで設定できるのかがここ数日挑戦しても解決できません。
どなたかアドバイスいただけませんか(つд⊂)
568:login:Penguin
08/01/21 14:32:19 CLm+aD3F
ファイルシステムをまず小さくしてからLVを小さくしなきゃダメ
そもそも小さくできるファイルシステムは限られてる。確か、
ファイルシステム標準のツールで小さくできるのはReiserだけで、
GNU parted で ext[23] も小さくできる、んだっけかな?
いずれにしても壊れてしまってるものは運良く復元できるかも
しれないしダメかもしれない。
569:login:Penguin
08/01/21 20:06:22 0424Edot
CentOS4.6で
SCSI device sdf: 20507805696 512-byte hdwr sectors (10499997 MB)
こんなディスクをつけたんだけど、pvcreateすると、
PV Size 9.55 TB / not usable 1.00 MB
なんて言われる。0.5TBはどこへ行った?
570:login:Penguin
08/01/21 20:22:40 0424Edot
20507805696*512/1024/1024/1024/1024=9.5497
すまね。
あまりの天使の取り分の多さに気が動転してたようだ。
571:login:Penguin
08/01/21 21:51:29 C2nM2YT+
>>568
ext2,ext3はe2fsprogs付属のresize2fsで小さくできるよ。
作業ミスが怖いからGNU Partedを使ったほうがいいけど‥
572:login:Penguin
08/01/21 22:00:50 y073FPoP
partedは最近の拡張に追い付いてこれてるか?
573:567
08/01/22 05:35:38 KvGSt0M/
レスありがとうございます!
resize2fsを試してみたのですが
resize2fs: Can't read an block bitmap while trying to resize /dev/XXX
とでてしまい次へすすめませんでした。
また、GNU partedというヒントから検索してみたところ
/**ファイルシステム総合スレ その1**/
スレリンク(linux板)
こちらの640〜647の下りで似たようなケースを発見しました。
上記のケースではMBMの区画エディタにて復旧できたそうです。が
残念ながら、肝心の区画エディタO&Oのoodlinuxなるソフトウェアの公開が停止しているようで
試すことができませんでした。orz
万策つきた感じでしょうか(T-T
574:567
08/01/22 05:43:25 KvGSt0M/
O&O Defrag Linux BETAはベータで開発中止、ボツったそうです・・・。
575:567
08/01/22 06:33:11 KvGSt0M/
すいません、深夜作業でテンパってたみたいです。
上記のケースではMBMの区画エディタを利用したわけですね。
休憩後チャレンジしてみます:)
576:567
08/01/22 07:55:09 KvGSt0M/
MBM区画エディタではect3閲覧できずorz
577:login:Penguin
08/01/22 12:03:32 yiAXiNME
MBMに区画の中を見る能力なんてない
あんたのスキルじゃあまりに無茶だろ、その作業は、正直
578:login:Penguin
08/01/23 09:17:27 lfCjtbY5
LVMにMBM無意味だし
もう諦めろよ
579:567
08/01/23 09:52:59 FgvqTTFZ
あきらめずにKNOPPIXから
vgchage,e2fsck,resize2fs,lvextend,lvreduceを駆使して、
もとのphysical sizeに戻し正常な状態になんとかもどせました。
お世話様でした。m(__)m
580:login:Penguin
08/01/23 11:33:50 6pJ/x7kZ
良かったな
581:login:Penguin
08/02/02 17:34:16 Sk+gOLYe
manみたかんじだと-mと-iでミラーもストライピングもできるってかいてあるんだが
ちゃんと使えるならmdadmとかのraid0、raid1、raid10とは機能的にかぶるよね、どっちが良いんだろ?
clusterlvmでも-mと-i使えるんだろうか?
raid5とraid6も使えるようになればlvmだけでよくなりそうやね
582:login:Penguin
08/02/02 21:42:55 hWODtnUX
VxVM化するのか。
バグも同じように増えていくんだろうなw
583:login:Penguin
08/02/07 02:19:17 hSH8lz3u
RAID総合スレでも同じような話題が出ているな。
っていうか内部で raid5 とかやっちゃうと、不良HDDがでたときに、
pvmove で健康なHDDに寄せるということができなくなっちゃうんじゃないの?
あ、raid5 だから、一台とりかえてリビルドすればいいのか。
なんか頭がこんがらがってきた。
584:login:Penguin
08/02/07 02:47:04 MhI2GJBO
くだ質だったらすみません。
LVM で2個イチにまとめた 500GBx2 のボリュームを2つ使っています。
具体的には /dev/hda と /dev/hdb で /VolGroup00、
/dev/hdc と /dev/hdd で /VolGroup01 を作成しています。
前者を /home に割り当て、後者をそのバックアップ /home_backup にしています。
ここで疑問なのですが、LVM を構成するHDDの一つに障害が発生した場合、
その LVM をバラして各 HDD の内容を救出する、というようなことは可能なのでしょうか
いま現在は上述どおりバックアップも取っているのでまだいいのですが、
いずれは VolGroup00 側の HDD も VolGroup01 側の HDD も故障すると思うので、
そういう事態がないとは言い切れません。
どうなんでしょうか?
やはり LVM をバラすとそのドライブは読めなくなってしまうのでしょうか。
585:login:Penguin
08/02/07 03:34:36 wkwo0mxs
「lvm 故障 復旧」でぐぐってみれば?
情報はいっぱい出てくるよ。
586:login:Penguin
08/02/07 08:32:32 PJ0xyyBI
>>584
>>149〜あたりの話かな?
587:login:Penguin
08/02/07 10:29:17 j9YRu0Ee
どうもありがとうございます。
>>148-156 の大作ですね ←自分のメモ用です。すみません。
ちょっとじっくり読ませていただきたいと思います。
588:login:Penguin
08/03/04 23:11:07 K8yPdd7W
くだらねぇ...。
で相手にさらなかった(長文すぎて)ので質問させてください。
勉強不足なのはわかってますので、ご容赦を。眠くてかなり思考力おちてます。
ぶっちゃけた話、FC4でLVM組んでますが、/dev/hda2に/dev/VolGroup00/LogVol0[01]があったとして、
そのVGとLGを消してしまった場合、元に戻す方法ってありますか?
/dev/hda2の中にboot以外とswapのみはいってました。(=LV00,LV01)
最悪LVMでなくても普通のファイルシステムとしてマウントできる方法とかないのでしょうか?
LVMの管理情報が消えたときって中身のデータ自体は無事ですよね?
全くバックアップをとってないのというのはあきれてますが、頼まれたら嫌とはいえない性格ですので。
かなりこまってます。
申し訳ないですが、分かる方ヒントのみで結構ですので、お教えください。
589:login:Penguin
08/03/04 23:29:41 f138xmmP
FC4を捨ててから出直してこい
590:login:Penguin
08/03/05 02:36:07 HWfQXJWF
まず寝ろ
591:login:Penguin
08/03/05 08:51:14 W53eNevY
ないんじゃね?
592:login:Penguin
08/03/05 09:16:46 V8HqIqNE
>>588
dd if=/dev/hda2 bs=512 count=255 skip=1 | strings
これで何も見えなかったら諦めれ。
593:login:Penguin
08/03/08 16:44:17 tl0WRxQT
>>592
レス有り難う。つД`)・゚・。・゚゚・*:.。..。.:*・゚
ちなみに古いPV,LVはのこってない。
ちゅうか、痕跡もなかったです。
で、馬犬 目 ぽ..._〆(゚▽゚*)、データレスキューの会社に頼みましょうっていったら、
じゃ、そうしてって...。
最初からプロにまかせりゃはやいっていってるのに。
本当に(;´ρ`) グッタリ でした。
本当、こんな訳わからんことにレスしてくれて有り難う。
もっと精進します。
594:login:Penguin
08/03/08 18:01:09 OXyuHSqg
SUSE 9から10にあげたんだ。
LVMは1のままだったんだ。
スナップショットとったらLVM関係がうごかねーんだ。
リブートしたらはんぐなんだ。
うわー。
595:login:Penguin
08/03/12 20:33:22 7jQsVz/g
最近やっとLVMの意味がわかった
しかしまぁ・・・・いまさらHDをいじるのが怖いw
OS入れ替えのときにLVMにしてみます
596:login:Penguin
08/03/15 07:00:20 5C7unTpW
>>594
いい事いうじゃねえか。
で、やれるんだな?
今すぐ頼むぞ。
597:login:Penguin
08/03/24 17:48:52 xks+NIrR
>>595
LVMの意味を教えて下さい。
598:login:Penguin
08/03/24 21:07:48 xwvutk/t
>>597
>>1に書いてある
599:login:Penguin
08/03/26 10:27:32 /rbx928m
スナップショットが簡単にできるならと思い、Fedora8で
# lvcreate --snapshot --size=1G --name snap0 /dev/VolGroup00/LogVol00
そしたらエラーになった。
Insufficient free extents (1) in volume group VolGroup00: 96 required
デフォルトインストールなので VolGroup00はLogVol00だけで空きはない。
HDD追加せずにsnapshot領域を確保するには
LogVol00を縮小できればいいような気がするけど、できるの?
600:login:Penguin
08/03/26 10:51:42 JMhK92pu
FSが縮小に対応していて、もちろん空きがあれば。
601:login:Penguin
08/03/26 14:16:06 /rbx928m
>>600
あんがと、できるかどうかから調べるのはNG時のショックが大きいので躊躇してた。
一応
1. レスキューでmountせずに起動
2. lvm vgchange -ay /dev/VolGroup00 <-LVM有効化
3. fsck.ext3 -f /dev/VolGroup00/LogVol00
4. resize2fs /dev/VolGroup00/LogVol00 34G
-- reboot --
5. lvresize -L34G /dev/VolGroup00/LogVol00
6. lvcreate --snapshot ・・・・
無事 snapshot 領域確保できた。
602:login:Penguin
08/04/09 22:10:32 5v+cawCi
pvmove中でも普通にpc使って大丈夫なのかぁ。
なんかlinuxはどの作業が危険だとか認識される/されないが分かりづらいな。
クラッシュしても続きからいけるとか書いてるから安心してwebをm
603:login:Penguin
08/04/10 00:26:18 5lkztsUT
mountされてなきゃただのI/Oよ
604:login:Penguin
08/04/10 02:25:07 GkLC0n+x
>>603
いやマウント中の作業です。
無事終わった。
605:login:Penguin
08/05/05 12:04:22 qLvyVB3C
LVM3開発開始だとか
606:login:Penguin
08/05/05 12:43:49 p+flnnxD
LVM3はちゃんとバリアが効くようにしてください
607:login:Penguin
08/06/04 22:30:36 n3tY6HIr
LVM(中身はext3)の外付けHDDがあります。
これを別のマシンにつないで中を見たいのですが
どうやってLVMをマウントすればいいのでしょうか?
普通だったら
nfs -t ext3 /dev/sda /mnt
だと思うのですがLVMの場合はどうすれば???
608:login:Penguin
08/06/05 08:30:16 pEFbHf00
>>607
pvscanしてvgchange -a yしたらいいと思うよ。
609:login:Penguin
08/06/05 17:10:26 JbNBeTqA
nfs?
610:login:Penguin
08/06/05 18:13:27 21YGfzJ8
lvcreateであいているスペースすべてを作成するには以下のコマンドであっていますか?
lvcreate -l 100%FREE -n LV VolGrouptest
URLリンク(linux.die.net)
↑読んだんですけどいまいち-lオプションのVGとFREEについてわからなくて・・・
611:login:Penguin
08/06/05 23:22:00 xuMIbzDB
起動ドライブのVolGroup00をVolGroup99にしたら起動しなくなったのだけれど
助けて
612:login:Penguin
08/06/06 11:11:47 25LbsBUl
>>611
インスコCDのレスキューモードで起動して名前直せばいいんじゃない?
613:login:Penguin
08/06/06 12:48:36 F4ZUbmLb
>>610
>>544-557あたり読んでみれば?
俺がどうしてもサイズ変更できなくて苦闘したときのやりとりだが。
いろんなパターン片っ端から試してる。
(やってるのはlvextendだが指定方法は同じ)
ちなみに、オチはVineのバグだったとゆーw
614:login:Penguin
08/06/07 01:30:03 juXFIy0Q
>>610
%指定は動かないから実装されてないんだと思ってたよ
615:login:Penguin
08/06/07 21:03:01 Gk9jVHRS
gpartedでLVMの入ったパーティションをリサイズ(拡大)したいのですが
どうしてもうまくいきません。
もちろん空きはあります。fdiskで新しいパーティションをつくれます。
どうやってパーティションを広げたらいいでしょうか?
616:login:Penguin
08/06/07 21:10:21 AVJ99GJ4
>>615
未対応
617:login:Penguin
08/06/09 13:15:08 Qv/HdhEc
>>615
pvresize
でもぶっちゃけリスクを負いたくないなら新しいパーティションをPVに追加するだけでもいいんじゃないかと
618:login:Penguin
08/06/14 00:42:09 GtA4XCQf
LinuxLVMで質問です
起動時、grub> のプロンプトでkernel行のroot= の部分でルートファイルシステムを指定しようと思うのですが、
LVMのデバイス名(vg名やlv名)を忘れてしまった場合、
TABキーやfindコマンドを使ってもルートファイルしシステムがLVMなので補完したくてもできない場合、
Linux のLiveCD等で起動してLVMのデバイス名を調べるしかないですか?
619:login:Penguin
08/06/14 12:58:34 uzvw2+4m
複数ディスクをLVMで1ボリュームにしてガバっと使いたいんだけど
LVMのデメリットって何?
1つのディスクが死んだら終わりとか?
620:login:Penguin
08/06/14 14:00:20 1+VSoFd/
多少のオーバーヘッドがあるくらい?
あとトラブル時に対応できるスキルがないとダメなくらいかな?
よくわかんないけど。
621:login:Penguin
08/06/14 15:12:39 6SEFplCp
ゴミどもめ
622:login:Penguin
08/06/14 20:08:31 ae9YVSGi
オーバーヘッドだけ?
束ねたディスクのうち1台が死んだらどーなるの?
623:login:Penguin
08/06/14 20:34:58 sC2X09Sk
全滅
624:login:Penguin
08/06/14 21:02:44 qs0Dc9DK
上がってるから何気に開いたらこのスレ2002年からあるのか…
625:login:Penguin
08/06/15 02:37:09 B19FrabJ
>>619
動的に容量を増減できるところはメリットかなぁ
626:login:Penguin
08/06/15 16:20:52 CdTlYS0s
>>622
LVMは普通RAIDと一緒に使う。
RAIDの上にLVM。
627:login:Penguin
08/06/15 19:47:05 BA+ZzdGW
ZFS vs. Linux Raid vs. Linux LVM vs. Linux LVM + Raid
URLリンク(www.unixconsult.org)
628:login:Penguin
08/07/01 21:37:53 3IykgVK0
一つのディレクトリに2箇所からmountすれば
単一のボリュームとして扱われると信じてたころが懐かしい
2箇所からリンク引っ張って合体とか・・・
そういう仕様で作ってくださいとエロい人にいいたい
RAIDの上にLVM必至とか、安全なんだか危険なんだか
便利なんだか面倒くさいんだか全然わかんねーよ
そんな理由でLVMに踏みきらない人は多いはず
629:login:Penguin
08/07/01 21:58:45 0HA3LMf0
漏れも漏れも
使ってるトリのインストーラの標準がLVMだから
切るのまんどくさい。つーかやめていただきたい。
630:login:Penguin
08/07/02 08:03:43 1ybAcnmw
>>626
世の中のUNIXサーバーは、内蔵ディスクに「RAIDの上にLVM」なんてことは
しないが。
LVMミラーリングでRAID1を構成することはよくあるが。
631:login:Penguin
08/07/02 09:16:38 RgaN+n31
俺のRHEL5はインストール時RAID5の上でLVMしてる…
コレって普通じゃないの?
632:login:Penguin
08/07/02 12:33:30 kY+rYQjq
>>630
UNIXサーバとやらだったら
ハードウェアRAIDがデフォルトなんじゃないの?
633:login:Penguin
08/07/02 12:41:27 15uy4jBz
別にデフォルトではないよ。
634:login:Penguin
08/07/02 15:19:43 eGcFOXuW
というか、カードタイプのハードウェアRAIDなんかまず使わん。
635:login:Penguin
08/07/02 20:16:05 1ybAcnmw
ハードウェアRAID使ってるのなんて、PCみたいな廉価なサーバーぐらいしか
思い浮かばん・・・
636:login:Penguin
08/07/04 00:33:48 X/oJ9laK
最近のUNIXサーバは内蔵ディスクでハードウェアRAIDに対応しているものが多いと思う
HPでもSunでも
ただ>>626は外部ストレージのことを言ってる様な気がする
637:login:Penguin
08/07/04 01:57:46 7gcupJvt
>>636
> 内蔵ディスクでハードウェアRAID
?
638:login:Penguin
08/07/05 10:54:50 MeeUCArm
>>637
マザーにRAIDチップが載ってるタイプのことと想像。
639:login:Penguin
08/07/06 19:41:38 AtahaQoe
URLリンク(www.atmarkit.co.jp)
ふつうターゲット上でLVMじゃねーの?
640:login:Penguin
08/07/25 23:39:36 8Ned7Kmk
言っちゃうぞ。
まだスナップショット駄目なんだってな。
素直に evms にしときゃあ……くっ……
641:login:Penguin
08/07/27 03:15:50 RwYz5TZf
LVMを構成しているHDDのうち、1台が故障したとき、
LVMで構成したファイルシステム全体が見えなくなるのでしょうか。
それとも、一部のファイルのみが見ることができなくなるんでしょうか?
642:login:Penguin
08/07/27 12:21:57 zvF1vjzN
ちょっと検索すりゃ
すぐ出てくる話だと思うが
643:login:Penguin
08/07/28 06:10:17 vcSXj+Qj
LVMに経験ある人の話を直積
聞きたいから来たわけだが
644:login:Penguin
08/07/28 06:29:35 vcSXj+Qj
とだけ書いても会話になりそうにないから付け足して書けば、
僕の予想では、LVMの上に構築するファイルシステムの種類によって違うのだと思う。
ファイルへのインデックスが書かれている番地が偏在しているようなファイルシステムで
インデックスがたまたま位置したHDDが故障すれば全部が見えないこともあるし、
逆の場合は、大きなバッドセクタのようになり、ファイルが虫食い状態になる。
そう考えていいのですか?
それとも、LVMシステムがボリューム構築に利用する情報がHDDの障害に脆くて
HDDが1個焼失してもLVMが機能しなくなるのでしょうか・・・。
645:login:Penguin
08/07/28 11:36:57 DQdsBUbz
ちょっと検索すりゃ
(LVMに経験ある人の話が)
すぐ出てくる話だと思うが
646:login:Penguin
08/07/29 01:14:16 8d+X+gCG
>>644
LVMはファイルシステムから見たらただのブロックデバイスだよ。
647:login:Penguin
08/07/29 06:42:34 lGh89x8f
例えばHDD10個をつなげてLVMを作れば、どこかで故障が起こる可能性は10倍に増える。
対障害性能があるRAIDと組み合わせて(2重化として対障害は積算か)も、効果が相殺されて厳しい気がする。
だけど10個つなげばLVM全体から見ればHDD一つは1/10の故障となるから故障規模は小さくなるわけで
結局RAID+LVMを構成するかしないか決断がつくには、
1個のHDDの故障が、どれだけのデーターの損失波及するかによるよね。
物理的損失より必ず論理的な情報損失のほうが大きくなるわけで、
一つはLVMシステムが持っている管理情報がダメージを受けること、
もう一つは上に構成したファイルシステムに障害がおこりダメージが派生することだ。
すなわちLVMやファイルシステムの障害が個別のデーターではなく、それ以上にデーター全体の整合性に波及することが
怖い。
その辺のから解脱できたひといたら語ってほしい。
648:login:Penguin
08/07/29 08:45:05 cjUPK7RU
> 例えばHDD10個をつなげてLVMを作れば、どこかで故障が起こる可能性は10倍に増える。
基本情報処理から勉強し直したほうがいいよ。
それと、「データー」って何?
649:login:Penguin
08/07/29 13:43:57 FOLu2OoK
135から読み直せ
650:login:Penguin
08/07/29 14:39:34 PdclCiTI
実際には、モノの故障率によって変わってくるけど、まあ10倍でいいよ(笑)
651:login:Penguin
08/07/31 13:47:14 jh4IJeuA
>>135
厳しい現実がかかれてるね・・了解。
652:login:Penguin
08/08/13 12:21:14 XmgY44KA
>>648
稼働率0.9のHDDを10台用意し、それらで一つのボリュームグループを作ったら、
LVMの稼働率は0.9^10になります。
653:login:Penguin
08/08/13 12:24:28 XmgY44KA
>>648
>>650
お前らなんでそんなに不親切で知ったかぶりな態度をとるんだ?
そんな小馬鹿にした態度をとる暇があったら答えを書けよ答えを。
654:login:Penguin
08/08/13 12:47:02 XmgY44KA
ああ、つまり、答えを知らない初心者君が同じ初心者をいたぶっているだけか。
655:login:Penguin
08/08/13 23:45:22 sho8OfFG
二週間遅れのツッコミ乙
656:login:Penguin
08/08/15 23:56:12 Dahhif8C
やっと勉強して帰ってきたらしい
657:login:Penguin
08/09/14 12:01:57 O5/W6Pyy
ソフトウェアのストライピングが微妙な件
658:login:Penguin
08/09/14 14:11:22 QHy0db2G
スレ違い?
659:login:Penguin
08/09/17 03:24:11 s5weIHPc
単にインタリーブしてるだけだしな
660:login:Penguin
08/09/25 14:46:51 m/JW7tpN
lvm 使うか普通にパーティション切るかで考えてるですが、
将来HDD交換して増量させたい場合は、lvmの方が良いんでしょうか?
lvmならパーティションのように困らず
自由に領域を変更できる、みたいなのがウリな気がしますが、
結局Gpartedとかでパーティション増やせるし変わらない気がします。
そこのところどうなんでしょう。
これまでlvmを使ってきましたが、
gpartedなどが対応していないため、
部分的にコピーしたい場合など非常に不便に感じています。
ああ、これパーティション切ってたら、パーティションコピーして
終わりなのになあ・・・みたいな感じです。
661:login:Penguin
08/09/25 15:28:36 wLKYoEG2
おれはlvm使わないなぁ。メリットがわからん。
662:login:Penguin
08/09/25 16:04:36 LyRk07KA
交換して増量するなら大してかわらないだろう
追加して増量するときに威力を発揮すると思うんだが・・・
663:login:Penguin
08/09/25 16:15:48 5Y5rOSdf
>>660
HDD交換で増量ではなく
HDD追加で増量のときにメリット大。
ただ、普通に足したらHDD故障時に面倒になるんで
大抵の人はRAIDと組み合わせて使ってるのでは。
RAID + LVM + XFSの組み合わせが
容量変化の要求に対して柔軟に対応できて
かつ安全な組み合わせだと思うが。
こういったメリットが分からない、
あるいは、そのメリットが不必要な人は
別に無理して使うもんでもないと思う。
664:login:Penguin
08/09/25 16:16:44 5Y5rOSdf
ヲ
一部カブった
665:login:Penguin
08/09/25 16:24:35 Mtld4aS2
HDなんて揺らさずに冷やしまくれば10年は壊れない。
と最近思えてきた。
666:login:Penguin
08/09/26 05:29:58 L6fJPxoG
うちのサーバも663の組み合わせにしてるけど、
XFSだと容量を減らせないのが場合によっては扱いづらいかも。
元々は多数のストレージデバイスをうまく抽象化したり、
容量割り当てを固定化しないためのものだから、
660みたいな容量ぎりぎりでやりくり(?)するような使い方は
LVMとしては想定の外だろうね
LVMを使う場合はその複雑性とつきあう必要も出てくるから、
小規模なら使わない方が良い場合も多いだろうね。
667:login:Penguin
08/09/26 10:28:02 3nl099Gm
おれはsnapshotが便利だから使ってるよ。
668:login:Penguin
08/09/26 13:39:08 XgVKNEXu
>>665
それは間違い
669:login:Penguin
08/09/26 13:49:21 QI1JpPNb
>>665
URLリンク(gigazine.net)
670:login:Penguin
08/09/26 14:05:40 c/zlIyMB
>>669
GoogleのHDの使い方と、一般人のHDの使い方は違うから
一概にそうも言えないと思うが。GoogleのHDは環境によるダメージを
受ける前に別の要因で死んだ可能性もあるし。
671:login:Penguin
08/09/26 15:13:37 XgVKNEXu
故障については個人的な経験のみで語ると恥をかく
672:login:Penguin
08/09/29 21:05:23 UaUxgw6s
俺の脳みそを拡張するには
どのようなコマンドを実行すればいいでしょうか?
673:login:Penguin
08/09/29 21:12:44 L4lBHZ6L
>>672
vi
674:login:Penguin
08/09/29 21:23:05 4IQ0HTwg
>>669
頼むからその手のデマをばらまかないでくれ。
グーグルのはサーバルームで冷却されてるのが前提だ。
675:login:Penguin
08/09/29 21:26:58 L4lBHZ6L
>>674
で、君はどんなデマをばらまきたいのかな?
676:login:Penguin
08/09/30 00:51:45 0Isl7Nwk
>>675
意味不明だな。グーグルのアレを出して「HDDは高温でも大丈夫」と
言いふらすのは有害なデマだって事だ。アレを持ち出す奴はみんなそう。
だが実際は、「(サーバルームの温度範囲において)寿命と温度との相関はない」。
異論があるならどうぞ。
677:login:Penguin
08/09/30 00:54:08 iiLEqaD/
>>676
誰がそんな事を言いふらしているのだろうか?
やはり君が少しおかしい人なだけだろ
678:login:Penguin
08/09/30 13:17:49 zvVIh1Zj
>>676
サーバルームの温度範囲を越えた場合のデータってある?
679:login:Penguin
08/09/30 13:40:02 7DeFMFdL
>>676
グーグルのアレを出して「HDDは高温でも大丈夫」と
言いふらしているやつがどこかにいるのか?
お前の脳内に聞こえてくる声かもしれんがそれがデマだよ。
680:676
08/10/02 20:33:06 twJATkUN
>>677
>>679
> お前の脳内に聞こえてくる声かもしれんがそれがデマだよ。
ギガジンの紹介当時、自作板のHDDスレッドには寿命と温度は
無関係と突撃してくる量産型の厨が山ほど涌いたよ。
なら質問だが、>>669が>>665(温度と振動に気をつける)に対して
ギガジン記事のURL貼ったのはそれ以外の「どういう意図」だと思う?
当人じゃないから分からない、と言い逃れるなら意味不明だぞ。
>>678
そもそも20-50度の範囲での使用が前提で、家庭だと夏場
簡単に50度を超える。
電子部品で温度が無関係なんてありえない。
元論文
URLリンク(labs.google.com)
Figure 4: Figure 5: とそのコメント。
・AFRは年間故障率。
・45度未満では温度と故障率に関係ない。
(が、30度未満と45度以上では高い数値)
・あとFig5の3年目に注目。特定モデルの傾向が影響か。
似た別のアブストラクトもどっかで見た気がするが、
これしか見つからないので読みづらくても我慢しる。
/.-Jのやり取りも見とくこと。全件表示が望ましい。
URLリンク(slashdot.jp)
次ページ最新レス表示スレッドの検索類似スレ一覧話題のニュースおまかせリスト▼オプションを表示暇つぶし2ch
4652日前に更新/243 KB
担当:undef