/**ファイルシステム総合スレ その8**/
at LINUX
[前50を表示]
200:login:Penguin
08/01/12 17:24:53 Y+I93RRs
lsyncd
URLリンク(www.pri.univie.ac.at)
これか?
201:login:Penguin
08/01/12 17:37:47 zybZJIGE
で、ループしてinotifyは監視できるノード数に限界があって・・・、で戻る。
inotifyで/以下監視しようとするとさくっと死亡します。
ただし、/home以下ならユーザー数や利用のされ方しだいでは可能。
現実的な策としてAppleの実装は参考になるよ。
もっとも根底からinotifyとは違う方式なので、単にログサーバが
別途あればいけるというようなことにはならない>Linux
202:login:Penguin
08/01/12 17:56:05 Bx7hU4VM
>>198
> HDDの障害はRAID構成で対処できるけど、
> RAIDコントローラーの障害、ファイルシステムの破損は、
> 結局外部メディアにバックアップしておくしかない。
> もし落雷や火事にまで対応するのなら、ネット経由でのバックアップが必要。
よくわからんが、その「どのファイルいぢったかイベントドリブンでメモしときましょう型」
バックアップってさ、結局そのメモスレッドが走ってるCPUマシンが障害起こしたら
おしまいじゃねーの?
バージョン(世代)管理型のバックアップでもないようだし
RAIDコントローラーの障害を心配して、RAIDにしない理由がいまいちわからん。
RAIDコントローラーを一枚(or一台)余計に
買って使わないで保存しとけば、RAIDでOKじゃね?
203:login:Penguin
08/01/12 20:48:27 1iC8xxCD
>>202
ID:jzLk1uOI はRAIDを使わないとは言ってないのでは?
RAIDがあってもバックアップは大切。
そのバックアップを早くしたいって話なんじゃないの?
204:login:Penguin
08/01/12 22:13:37 jzLk1uOI
>>201
同意。
>>202
203の通り。
>>203
代わりのレスあり。
205:login:Penguin
08/01/12 22:16:35 4BgmnGqv
>>204
金も知恵も使いたくないなら
RAID1やってバックアップとるとき抜いて、
別マシンで差分とればいいんじゃね?
206:login:Penguin
08/01/12 22:23:07 jzLk1uOI
>>205
RAID1の片方のHDD抜いたら、
ホットスペアディスクに転送始まって、
終わるまで重くてしょうがないよ。
それにわざわざデータセンター行かないとできないし。
207:login:Penguin
08/01/12 23:01:22 Bx7hU4VM
>>204
RAID5/6でもダメ?
バックアップ取りたいってのは分かる気がするけど
んーとさ、これってファイルシステムレベルで
やる話なのかな?って思った。
アプリケーションレベルで保存先二つにするとか、
ユーザのログアウト時にユーザの書き込み範囲だけ
バックアップ同期するとかそんなんでもよさげな気がす。
208:login:Penguin
08/01/12 23:28:26 gMk/W/4K
>>207
というかブロックレベルでやればいいよな、と思った。なに?EMC高い?AX4なら100万以下だぜ
209:login:Penguin
08/01/12 23:43:07 Bx7hU4VM
>>208 そりゃそれなら文句ないだろうけど。
ここの話で、確かにもう少しそういうものの小規模、低コストなものは需要があるのかもしれんね、とおもた。
210:login:Penguin
08/01/12 23:58:53 D/8nBsgE
クラスターファイルシステムもここでいいんかな?
iSCSI+ocfs2でファイル共有したいんだが、centos5.1とubuntu7.10だと同時にマウントできない
centos5.1同士、ubuntu7.10同士は問題ない
centos5.1がocfs2 1.2.7-1、ubuntu7.10がocfs2 1.24
バージョン違うと共有できんのかな?
gfs2はバージョン違うとダメだったりします?
ocfs2とgfs2のそれぞれの利点がさっぱり分かりません・・・
211:login:Penguin
08/01/13 10:03:01 Nollm+Al
>>210
基本的に、クラスタで両方からいっぺんにアクセスされる可能性があるものの場合は
バージョンをあわせなきゃダメだろ。バージョンが違うと言うことは機能に違いが
あるということなのだから。
212:login:Penguin
08/01/13 13:45:13 uE2Jrzt9
>>204
URLリンク(nzfug.nz.freebsd.org)
FreeBSDの話だけど。
ZFSでsnapshot作って、前回のsnapshotとのバイナリ差分をリモートに送信・同期させる方法。
213:login:Penguin
08/01/13 14:04:33 weLbJnIm
そういえばUNIXマガジン買ったやつはいないのか。
214:login:Penguin
08/01/13 14:42:06 T1kxn9Tz
>>208
そのAXなんちゃらEMかんちゃらも高いからなあ。
なら自分は手順覚えれば無料のを使った方がいいや。
215:204
08/01/13 22:38:13 PiB7mojI
>>207
> アプリケーションレベルで保存先二つにするとか、
Webアプリが出力したデータをバックアップするときは、この方法使うこと多いね。
けど、FTPでアップされたファイルとかだと
デーモンをいじらないと出来ないから、キツいねー。
>>212
おっ、これ理想的かも。
216:login:Penguin
08/01/14 00:20:29 qmocvwzd
NetBSD上でだけど、ファイルの書き込みや移動、削除が発生すると
ファイルパスを通知するファイルシステムを昔作ったよ。
理由はmknmzが毎度毎度ディレクトリを全部スキャンして遅かった
からなんだけど…。
既存のファイルシステム(overlay filesystem)のコードを流用したから、
結構簡単に作れたよ。
Linuxでも検討してみたけど、ファイルシステムの設計がスタッカブル
じゃないんで面倒臭くなってやめちゃったなあ。
今ならFUSEとunionfsを駆使すれば、同じようなことでできるんじゃないかな?
217:login:Penguin
08/01/14 00:37:09 6n5zEajJ
aufs使えばできそうだな。
218:login:Penguin
08/01/14 02:19:06 qPxdU3yy
vfsで実装
219:210
08/01/15 02:26:55 BF3bHG9k
>>211
やっぱそうですよね、合わせないとダメですよね・・・
ubuntuの方を1.27にしてみます
ocfs2とgfs2の違いは相変わらずよく分からん、ocfs2の方が設定簡単そうぐらいしか
220:login:Penguin
08/01/15 03:29:14 Ar++HS05
SDカードのFATエントリなんか他のエリアと比べて
何倍も書き換えられると思うんだけど
フラッシュメモリの使い方として問題ないの?
221:login:Penguin
08/01/15 03:30:48 jvp0V+W6
今はフラッシュメモリ側で散らす機能があるでしょ。
222:login:Penguin
08/01/15 03:40:12 Ar++HS05
ほー、なるほど賢いね。
カードに直接そういう機構がそなわってるってこと?
それともカードを扱う使用機器のドライバ側ってこと?
223:login:Penguin
08/01/15 03:42:21 edpzbljx
カード側で持ってるよ。アルゴリズムは各社の極秘中の極秘だそうだ
まあカードの書き換え速度や寿命に如実に影響する肝の部分だしな
224:login:Penguin
08/01/15 03:54:19 Ar++HS05
なるほどありがとう。
しかしそうするとメモリーカード上のフラグメンテーションって
純粋に仮想的なもので実測には影響しないのかな。
225:login:Penguin
08/01/15 03:57:55 edpzbljx
フラッシュメモリはSDRAMみたいにバーストリードで速度が上がるとかいう要素は無いだろう
ランダムリードと言っても元々数KB〜数十KB単位のセル単位で読み書きだし
そのセルが物理的に離れた箇所にあったとしても、スピンドル回してヘッドがギコギコ動く訳じゃないから
どれだけアクセス時間がかかるかとかはほとんど誤差の領域じゃないかねえ
まあ俺も素人だから正味のところはわからんが
それよりもコントロールロジックの処理速度の方が遥かに影響が大きそうだ
226:login:Penguin
08/01/15 04:23:10 RzvkwwJj
知ってる方がいたら教えてほしいのですが、ext3のdata=journalのモードってのは
本当にフルデータジャーナリングなのでしょうか。メタデータだけじゃなくて、データ
の変更についてもジャーナルログに書き出してるんでしょうか。
大抵の文書には、
「フルデータジャーナリングじゃ」だから「2度データが書き出される」と書いてあるのですが、
@ITの記事によると「journalモードではディスクへの書き込みが完了したことを確認してから
ジャーナリングの記録を行う」とありまして、同期書き込み+メタデータジャーナリングのよう
な解説をしてあります。これだとデータの書き出しは1度だけです。
URLリンク(www.atmarkit.co.jp)
詳しく解説してあるので、@ITの方が正しいような感じがするのですが、どんなもんでしょう。
それからもう一つ疑問なのですが、フルデータジャーナリング使うぐらいなら
同期マウントした方が良い気がするのですが間違ってますか?
(同期マウントでもメタデータの更新中に停電したらアウト…なのかな)
アホな質問ですいません
227:login:Penguin
08/01/23 01:52:59 N7D3q8Og
ここで言う同期マウントって例えば?
228:login:Penguin
08/01/23 13:49:47 1HOl8oN3
-o sync, dirsync
229:login:Penguin
08/01/23 14:27:45 l6jXIqfH
同期モードでmountしている状態でもクラッシュしたらfsckが必要ですし
実現できる機能が違いますよね
230:login:Penguin
08/01/25 05:13:31 V+xKWgCR
そもそも同期モードで書いてる途中で落ちたとして、
どこまで何を書いたかは誰が覚えてるんだろうねぇ?
231:login:Penguin
08/01/25 19:51:15 OAhQQFKa
誰も覚えていない。
書き込みそのものがなかったものになるだけ。
232:login:Penguin
08/01/26 07:10:51 nkamkNao
それはジャーナル有る場合だろ
233:login:Penguin
08/01/26 07:50:09 8OpwyOTH
はあ?
234:login:Penguin
08/01/26 14:24:53 nFnPAV3G
同期・非同期とトランザクションの区別はつけようぜ。
235:login:Penguin
08/01/26 15:24:51 Pvih2f3X
>>232
fsckでなかったものにされるんじゃね?
ジャーナルなんて関係ないでしょ。
236:login:Penguin
08/01/26 15:53:50 8QyNar63
>>235
fsckすると残りのジャーナルを適用することもある。
どっちが整合性を保ちつつデータを保全できるかによるようだ。
237:login:Penguin
08/01/26 17:14:55 X0RlC9mR
ちょっとまて >>226の
>フルデータジャーナリング使うぐらいなら同期マウントした方が良い
かどうかだろ
ジャーナリング無しで同期書き込みしたらfsckでロールバックかかるってこと??
238:login:Penguin
08/01/26 17:25:57 IqVOKU/f
ちゃんと流れ読めよ
239:login:Penguin
08/01/26 19:00:37 Pvih2f3X
>>236
なんでそうなるのか、それがわからん。
同期の場合は、sync()にしろwrite()にしろ、書き込みがすべて終わるまで戻ってこないんでしょ?
対象がジャーナルFSであっても。
>>237
fsckで行う作業をロールバックというな。
240:login:Penguin
08/01/26 21:51:13 X0RlC9mR
状況がよく分からんのだが、ファイルの内容書き換え中に落ちたとして、
fsckでどうやってロールバックされるわけ?
>>230な状況になるんじゃないのか
241:login:Penguin
08/01/27 01:29:39 LrB7nbuV
RDBMSの場合は、SQLレベルでの論理的な操作すべてが記録されているから、
直前のバックアップデータに対してログをリプレイすることで、完全復旧ができるというわけだが、
ファイルシステムに当てはめて考えれば、バイトレベルの操作すべてに対してログが採られていなければ、データの中身までは保障できないということになる。
現実的には、そんなことしてたらログの量がとてつもなくなるから、到底無理な話。
ジャーナルFSが復旧処理でやっていることは、通常のfsckがすべてのファイルに対して実行する検査を
ログをなめることで省略しているにすぎない。
当然、正常に閉じていないファイルは、問答無用でlost+found逝きとなる。
これをロールバック/フォワードなどという言うには違和感あるでしょ?
242:login:Penguin
08/01/27 03:02:00 i1WeOFxf
>>241
データについてもする場合はopen以後のwriteは別領域に書いて、
適当なタイミングでFS構造からの参照を付け替えればいいだけ。
この場合、write中にクラッシュした後の復旧でロールバックする。
ただし XFS とかの実装だとcreat自体はコミット済みだから
0バイトファイルが残ってくれたりとある意味困った挙動になったり。
さらに進んでNTFSとかreiser4ではアプリ側からトランザクション性を
制御した書き込みができる(た?)はずだけど、どういう形なんだっけ?
あとfsckがやってるのは正常に閉じられなかったファイルではなく、
参照があるのに参照先がないとか、参照がないのに実体があるとかの
FS構造としての不整合状態をブロックをなめて発見したものを
lost+foundに集めたりクリアしたりしてるだけで、閉じられなかった
ファイルを救ってるわけではない。
243:login:Penguin
08/02/02 17:24:24 Sk+gOLYe
どこのスレが該当するかわからんがとりあえずここに。
mdadmでraid1構築、ocfs2にフォーマットしてマウントは問題ないんだが、
raid0とraid10で同じ事をやると失敗する。
(ひとまずローカルディスクで実験してます。最終的にはiSCSIを複数使ってやる予定)
以下マウント時のエラー
ocfs2_hb_ctl: I/O error on channel while starting heartbeart
mount.ocfs2: Error when attempting to run /sbin/ocfs2_hb_ctl: "Operation not permitted"
/etc/init.d/o2cb statusすると確かにハートビートが動いてない。
んで手動でocfs2_hb_ctl -S -d /dev/md7(作ったRAIDデバイスがmd7)実行するも
ocfs2_hb_ctl: I/O error on channel while starting heartbeart
でダメ。
これはocfs2の仕様なんですかね?GFS2だとなんとかなる?
clvmで-iと-mのが可能性あったりするのかなあ、もうわけわからん
244:login:Penguin
08/02/06 21:12:32 xB+Vp2Cl
トーバルズ:OS XはVistaよりマシ、でもファイルシステムはゴミ
URLリンク(japanese.engadget.com)
ktkr
245:login:Penguin
08/02/06 21:24:53 xsQFoZY7
誰か言ってやってくれ
LinuxはServer2008よりマシ、でもファイルシステムはゴミ
246:login:Penguin
08/02/06 21:35:04 CEBTMN4n
>>245
いやそれは逆だろ。
ファイルシステムはマシだが・・・。
247:login:Penguin
08/02/06 21:43:01 bycraF9D
NTFSってどうなん?
248:login:Penguin
08/02/06 21:45:17 AbBwRF41
ゴミ
249:login:Penguin
08/02/06 21:45:58 kmV4D3eE
速度的に光るものはないが、耐久力はゾンビ級。
ext3なんかよりよっぽど優れたfsだと思うんだけどな…
250:login:Penguin
08/02/06 21:59:15 MW2Uiq4L
>>249 それ賛同
251:login:Penguin
08/02/07 00:55:39 Jh0j2rM7
リーナスってバカだな
252:login:Penguin
08/02/07 03:33:18 UdsqPHwZ
ntfsでファイルがぶっ飛んで破片も出てこないのはプログラムが悪いの?
253:login:Penguin
08/02/07 10:56:01 NVBqFf6j
俺なんかはntfsよりreiser・・・じゃなかった、xfsで何事も無かったように再起動できたことに驚愕したものだが。
ntfsだとどっか壊れるよなーという落とし方をしてしまった時のことだ。
まぁxfsはfsckしないからというのもあるだろうが。
254:login:Penguin
08/02/07 11:16:04 JbuBRM/5
>>253
どこかに0バイトのファイルが転がってるかもよ。
255:login:Penguin
08/02/07 17:47:13 nagQT8db
ちなみにどういう落とし方したの?
256:login:Penguin
08/02/07 18:16:17 lsDyIYji
酒を飲みつつ恋愛論を語った
257:login:Penguin
08/02/07 18:26:42 MhI2GJBO
たしかにntfsだとぶっ壊れそうだ。
あとできちんとf*ckしとけよ。
258:login:Penguin
08/02/08 02:06:16 5Qp7toYJ
いったいなんのスレだよw
>>253
xfsはマウント時にfsckするんじゃなかったっけ?
259:login:Penguin
08/02/08 02:20:17 SRnPVqDy
>>258
昔のxfs_fsck.c
int
main(int argc, char **argv)
{
return 0;
}
今はshell scriptになったな。
260:不明なデバイスさん
08/02/08 07:58:24 YoHKP6tC
>>198 索引の更新日付は収容ファイルの更新で変更になる、
だから索引の更新日付をチェックして前回バックアップした日付以前なら
その索引直下に収容のファイルは対象外にできる、
そうすれば処理時間は一桁以下にできるのでは。
261: ◆YtPQzYyEH.
08/02/08 15:40:09 C4+Xg+NF
262: ◆JuFLxjEbXg
08/02/08 15:42:03 C4+Xg+NF
な
263:login:Penguin
08/02/08 16:39:10 lO2z0Hih
NTFS自体は機能とパフォーマンスを考えたら
PC用のファイルシステムではトップクラスじゃねーかと思う
大元のHPFSが優れていたんだろうな
しかしNTやVistaでさえその機能をきちんと使っていない点でクソ
それとフラグメント化が激しすぎるのもクソ
HFSは褒める部分を探すのに苦労して苦労して、それでも何も見つからないくらいにクソ
さらにそれを告げると信者が火病起こしてわめきだすのがさらにウザくてクソ
ext系は、とりあえず動きますよって段階では不満は無いんだが
それ以上のものでもないし、お世辞にも優れた部分は見出せない
偉大なる平凡
xfsは、こんなもんタダで使わせてもらって本当にいいんスか?って感じだな
jfsは知らん
reiser fsはこれからどうなっちゃうの?って感じ
264:login:Penguin
08/02/08 16:49:38 B7rrj2AA
NTFSは異常終了無しで半年使って、chkdskかけたら数千ファイルのaclが吹っ飛んだことがorz
FSが問題なのかどうか微妙なラインだが手痛かった。
xfsはcronでデフラグかけてるといい感じでうごいてる。
reiserは・・・ボリュームでかいとマウント時にものっそ時間かかるんだが・・・
265:login:Penguin
08/02/08 18:25:44 WpMOTmXO
xfsは古いマシンで使うぶんには良いんだけどね。
新しいserverに入れる気はおきないな、mlみてたら怖くて。
266:login:Penguin
08/02/08 18:42:58 PGSC+VCd
>>264
それはどんなファイルシステムでも書き込んだ後1度も読み取りもしなかった領域が
不良セクタ化したらウンコーッ って話だろ。
267:login:Penguin
08/02/08 18:47:17 oKxB/QKg
>>265
新しいマシンだと何か不具合出るの?
最近のコードが安定してない、って話なら分かるけど。
268:login:Penguin
08/02/08 22:53:36 5Qp7toYJ
xfsはシュルシュル、reiserfsはヌルヌル。
性能いいのはreiserなんだろうけど、
xfsはそこそこ性能を発揮して低負荷。
>>259
あーあー、そうだったそうだった。
月イチxfs_check使ってるので忘れてたわ。
269:login:Penguin
08/02/09 11:55:22 I5g2yu0o
>>264
MSKB831374、831375、327009、873437とか該当してなかった?
270:login:Penguin
08/02/09 12:20:37 woPPxICV
xfsはファイルの削除が遅い。カーネルツリー削除するのに時間がかかるよー。
271:login:Penguin
08/02/09 13:11:25 aL9fnslD
削除なんてバックグラウンドでやらせときゃいいじゃん
272:login:Penguin
08/02/09 13:18:17 JxDwlQM6
>>266
いやRAIDだし不良セクタ関係ないw
ハード障害に対するFSの耐久性の話ではない。
273:login:Penguin
08/02/10 21:20:25 zTNy08k4
3wareのRAID板で1TB*3のRAID5を構築したのですが、
Linuxのファイルシステムとしてデータ領域に適しているのはどれになるんでしょうか?
CPUはGeodeNXのDualなのでパワーはあまりありません。メモリは2GB積んでます。
reiserfsとXFSとで検討の枠を絞ってしまっていいものか、
最近のトレンドが分からないのでご意見ください。
現状持ってる数年前のイメージでは以下の感じ。
XFS
○ ファイルシステムが大きくてもマウントが早い
○ あまり負荷がかからない
○ reiserfsより早い
× ファイルの削除が遅い
× fsckちゃんとしてるのかよく分からない・・・
reiserfs
○ ファイルシステムの縮小が唯一できる
× ファイルシステムが大きくなるとマウントが遅い
最近はどうなんでしょうか?
274:login:Penguin
08/02/10 21:29:22 GwVP/ZS2
>>273
個人で使うなら大して変わらないから好きなの使えば?
275:login:Penguin
08/02/10 21:33:29 BEDS9Otr
個人で1TBx3か?すごいな
276:login:Penguin
08/02/10 21:43:31 GwVP/ZS2
>>275
1TB 2.5万だからちょっとしたおもちゃだろ?
277:login:Penguin
08/02/10 22:46:57 41EqjFSS
1Tx3が2.5万x3
ML115が1.5万
メモリ2Gを0.5万で追加したとしても
9.5万で2TなNASが用意できる時代ですぜ。
278:login:Penguin
08/02/10 22:52:26 kPqZgS0L
知らない間にバカ安になってるな。
うちのノートPCのHDDも取りかえたい。
279:login:Penguin
08/02/10 23:13:04 jaGVAHE6
1Tも入れるものが無い
280:login:Penguin
08/02/11 00:55:40 v/vK9WxC
>>273
どちらが良いとは言わない、だがこれだけは言わせてくれ。
・xfs_repair & xfs_check は、1TB につき 1GB のメモリが必要。
・プロセス毎で使えるメモリ量は限られている。(特に32bitな環境では)
・メモリを増設しても、プロセス毎で使えるメモリ量は変わらない。
281:login:Penguin
08/02/11 00:57:39 NXuZoz9l
>>280
>・xfs_repair & xfs_check は、1TB につき 1GB のメモリが必要。
すごくフラグメントしてたり、むちゃくちゃになってしまった時に
必要なだけで、普段はそんなに要らない。
もっともcheckやrepairが必要なときは、かなり終わってるけどな。
282:login:Penguin
08/02/11 12:55:43 hHXFn50e
>>281
> > xfs_repair & xfs_check は、1TB につき 1GB のメモリが必要。
> すごくフラグメントしてたり、むちゃくちゃになってしまった時に
> 必要なだけで、普段はそんなに要らない。
俺は、良く聞く4MB/i-nodeにつき128MB/RAMという、xfs_repairの昔からの定説から
1TBならi-nodeはおよそこれ位だから、RAMはだいたい1GB的な一般解を>>280は導いてきたと思ったんだが
i-nodeの大きさだけじゃなく、フラグメントも関係あるのか?
俺はツーリングとか、息子の運動会、家族旅行で流し撮りした映像の置き場や、編集用として
WD7500AAKS×4を2410SAでRAID5運用していたわけだが、RAMは1GBしか積んでない
当然中身はGBオーバーの動画ファイル群のみ
だが突然の電源断や、停電などで落ちた際にxfs_checkをかける時でも、これまで一度として
メモリが足りなくなったりしたことはこれまでなかった
俺はこれをエクステントが効いている為に、i-nodeの大きさ自体はそれほど増えていないからだと
理解していた訳なんだが、もしフラグメントが関係しているなら、一度もxfs_fsrをかけたこともなく
使用量も80%を余裕で超えているこのディスクは、相当に断片化しているはずなんだけどな
283:login:Penguin
08/02/11 13:01:33 L4qR2Tu7
フラグメントは関係ない
284:268
08/02/12 02:16:28 XWn0I4iF
>>280
システム移行時にサブ(メモリ256MBのP3)機で1.5TBのxfs_checkしたけど、
メモリ食う仕様忘れててswapディスクなしだと見事に固まったな。
低速ながらswapディスク付けたら一晩ちょいでどうにか終わってた。
285:login:Penguin
08/02/14 10:51:10 U8W3css3
URLリンク(www.smalltown.ne.jp)
おれもxfsってたまに重くなると思ってた。
こういうのもログを別ディスクにしたら性能あがるのかね
286:login:Penguin
08/02/14 10:57:56 S8QS6vkZ
>>285
swapに追い出せないジャーナル用のメモリを他のアプリや
カーネルと取り合いしてメモリ上でスラッシングしている
んじゃないかな。
287:login:Penguin
08/02/14 10:59:02 S8QS6vkZ
だから、高速なディスクに素早くジャーナルを書き出せれば
起きないのではないかと思う。
288:login:Penguin
08/02/16 10:58:54 1+pZMLPj
>>281
xfs_repair,xfs_checkは正常にマウントできなくなった時に使う。
1TB当たり1GBは正解。
ただし、今じゃxfs_repair -L位しか使った記憶ないなぁ
289:login:Penguin
08/02/21 00:04:34 Qe0QvPTZ
SuSEでブート領域を外部ディスクにして使ってます。
その外部ディスクが停止したりしてI/Oが一時的にでも停止すると、
ext3 が即座に Read-only で自動的にリマウントされます。
調べたところこれはext3(ext2)の仕様のようですが、どうにかして
リブートせずに Read-write でリマウントできないでしょうか?
今まで試したことは以下の通りです。
1. mount の remount オプションの使用
2. マウントしたまま fsck をかけた後、1を実施
tune2fs のエラー発生時のハンドリングは Continue になっています。
スレ違いでしたらすいません。
290:login:Penguin
08/03/02 13:54:44 hc9C85N7
1FSあたりのファイル,ディレクトリ数って、増えすぎると速度落ちるよね?
その辺のデータって詳しいサイト無いかな。若しくは影響出やすいFSの体験談とか。
1ディレクトリに大量ファイルってのはまたちょっと別なんだけど。
291:login:Penguin
08/03/02 13:57:47 e0Thmhwp
それはフラグメンテーション
292:login:Penguin
08/03/02 15:02:36 hc9C85N7
あぁ、ファイルの読み取り速度とかディスク速度とかじゃなくて、
ファイルへのアクセス速度(fopen完了までとか)ね。
293:login:Penguin
08/03/02 15:09:57 e0Thmhwp
それもフラグメンテーション
294:login:Penguin
08/03/02 21:13:23 hc9C85N7
なんのこっちゃ・・・
えーとじゃあ、デフラグした状態で。
295:login:Penguin
08/03/02 21:19:19 1ooFJNDl
>影響出やすいFS
FATとかか?
296:login:Penguin
08/03/02 22:01:33 QO19JZJo
実装を別にしてもあれが糞なのは疑いようがない
297:login:Penguin
08/03/02 22:03:01 88VAzaOv
手軽さと互換性をちょっとは評価してもいいとは思うが
298:login:Penguin
08/03/03 14:31:32 olTABkIp
NTFSはドライブ内のファイル数が増えてくると急に遅くなる気はするな
MFT周りなんだろうけどよくわからん
FATは論外として、xfsもファイル数増えるとなんかもっさり。
reiserは結構耐える感じ? まnotailとかのオプションにもよるだろが
299:login:Penguin
08/03/03 15:01:41 JCTvrwL7
単純にindexが肥えていじるのに時間かかるようになるから。
ファイルシステムは大体そういうものだ。
reiserはそういう状況でもそれなりに動く様に設計されとる。
300:login:Penguin
08/03/03 15:08:13 8CT1QtMK
ここまで客観的な数値ゼロ
301:login:Penguin
08/03/03 17:34:55 QQPe3/34
>>290が体験談を望んでるから妥当な流れ
別に有ってもかわまんので書いてくれても良いよ>>300
302:login:Penguin
08/03/03 19:17:19 ic5kxWI3
xfsに変えたら彼女ができました!
303:login:Penguin
08/03/03 20:25:58 i1bQg1Re
reiserfsに変えたら妻が失踪しました!
304:login:Penguin
08/03/03 20:59:30 vUAhW00A
zfsはどうなんだろうね、linuxでも早いところつかえるようにならなかね
305:login:Penguin
08/03/03 23:37:31 aMHSs4ys
jfsに変えたらサーバが青いタワー型に!
306:login:Penguin
08/03/04 00:03:47 MG8dmV58
>>305
逆だろ、それ。
307:login:Penguin
08/03/04 00:40:55 mPcUgsuW
>>303
そういや、あれってどうなったんだろ。
保釈されたんかな?殺人容疑だからありえないか。
308:login:Penguin
08/03/04 13:36:55 luMzogFa
Reiserfsってどの程度のファイル数耐えられる?
ext2みたく酷くはないと思うが怖くて使ってない
309:login:Penguin
08/03/04 20:56:04 2F2RseEP
inodeが動的にあれだからなあ。
結構いくと思うけど。
310:login:Penguin
08/03/04 21:53:43 kk4vfn0k
参考までにどぞ。
TimeMachineに頼れない人のための完全バックアップ方法:日経パソコンオンライン
URLリンク(pc.nikkeibp.co.jp)
311:login:Penguin
08/03/16 21:01:35 flqkXLd1
ディレクトリエントリつーの?findしたときに読まれるデータを、
優先的にキャッシュに残しとくFSとかオプションとか無いかね。
312:login:Penguin
08/03/17 10:38:08 4IyCtHoK
それは FS というか単にキャッシュのアルゴリズムでは?
313:login:Penguin
08/03/17 12:26:47 7b6j/OHS
キャッシュバッファのレイヤですな
314:login:Penguin
08/03/17 14:54:29 nm4uxoxm
普通はページキャッシュかブロックバッファと言わないか?
キャッシュバッファだと馬から落馬みたいだ
315:login:Penguin
08/03/17 15:22:06 pTUBucW/
>>311
Linuxならディレクトリエントリキャッシュはあるけど。
316:login:Penguin
08/03/18 01:32:40 jCQs8JOZ
>>314
buffer cacheといいたかったんだろう。
317:login:Penguin
08/03/23 15:41:33 NvqLU+q0
>>316
しかしバッファキャッシュはfindの高速化になんの関係もないので本来の意図は
i-cache, d-cacheではあるまいか?
318:login:Penguin
08/03/23 16:57:13 4i3/VEiN
>>317
通常のファイルシステムでは、ファイル名ってのはdirectory fileに格納されているので、buffer cacheは関係なくはないんじゃね?
むしろdirectory entryのcacheはfindには関係なくないか?
inodeのcacheを使うかどうかもfindのオプションによると思う。
319:login:Penguin
08/03/24 11:41:29 xCc6BPh+
そのへんよくわからんな
Linuxのディスク〜fs〜buffスレとか無いものか
320:login:Penguin
08/03/28 22:28:36 26zHaioF
UBI File System
URLリンク(kerneltrap.org)
321:login:Penguin
08/03/29 21:41:44 f/e2EUT3
>>320
JFFS2のスケーラビリティーが悪すぎたので100倍程度では心元ない
322:login:Penguin
08/03/30 04:13:47 GQ0aE0r7
ext4dev は早く正式なext4にならないかな
323:login:Penguin
08/03/30 11:01:12 IoGJIZKZ
ext4絡みでVFS廻り、相当変わってる?
324:login:Penguin
08/03/30 12:32:47 pKiGTBVm
>>323
変わってませんので安心してFUDをお続けください。
325:login:Penguin
08/03/30 14:13:24 o6yKIr3w
ext3はjbdが1スレッドしかいないおかげで、しばしばこいつがボトルネックになったけど、
ext4では改善されるんかね?
XFSみたくノード毎にほしいよね
326:login:Penguin
08/03/30 15:22:11 IoGJIZKZ
いや、最近のxfsのアホみたいな変更の量は、
VFSが変わったせいかと思ったんだが。そうじゃないのね。
327:login:Penguin
08/03/30 20:33:55 hAIGTsTG
>>326
どこも変わってないじゃん
328:login:Penguin
08/03/30 22:09:21 o6yKIr3w
XFSつながりで、話を脱線させると、最近David Chinnerの
Per-superblock unused dentry LRU パッチを評価してるんだけど、
これ、いいな。
だいぶ速くなる
329:login:Penguin
08/04/02 23:36:16 miBB8ivN
raid0とXFS組み合わせたらext2の1/7ぐらいしか性能でなかった。
ボスケテ・・・
チューニングパラメタとかあんの?
330:login:Penguin
08/04/02 23:45:20 MwvMzT8M
>>329
何を書いたかによるんでねぇの
331:login:Penguin
08/04/02 23:47:09 miBB8ivN
>>330
dbenchでのスループット
332:login:Penguin
08/04/02 23:53:19 miBB8ivN
ちなみに本日の測定結果
ext2: 470MB/s
ext3: 150MB/s
XFS: 70MB/s
333:login:Penguin
08/04/02 23:57:54 ljKkX6tm
reiserfs…
334:login:Penguin
08/04/03 00:03:41 itZB1pzN
>>333
LKMLみててビルドエラーしたよん系以外の話題でreiserfsはとんとご無沙汰。
あれはもうダメじゃないか?
335:login:Penguin
08/04/03 00:16:25 5AUHYNuG
話題にならないということは、reiserfs3が安定しているということだ。
よいことではないですか。
336:login:Penguin
08/04/03 00:19:23 XQFAcyR9
多分、JFSも超安定してるんだろうなあ・・・
337:login:Penguin
08/04/03 01:06:02 Ztawo/Fi
>>336
JFSはサンプルが少なすぎるのかもねw
まあ、俺はext3に裏切られてから、IBMを信じて使ってたけど。
338:login:Penguin
08/04/05 14:39:51 CsBMf95s
正式ext4マダ〜?
339:login:Penguin
08/04/05 17:01:10 gcliPWD0
たぶん福田総理の辞任→新総理誕生とタイミングが同じになると思う。
340:login:Penguin
08/04/05 22:37:23 BOqKZkDS
>>338
正直新FSを名乗るほどは変わってないという印象
341:login:Penguin
08/04/06 12:51:02 2TQbeNBN
ext2→ext3よりは変わってるだろ
342:login:Penguin
08/04/06 17:43:04 Wl/OXr5s
16TBを越えるストレージが必要になるまでは、reiserfs使ってたほうが良くない?
343:login:Penguin
08/04/06 17:49:50 u2gn5b5I
reiserは8TBまで
実際にハマってXFSにした。
344:login:Penguin
08/04/07 21:57:37 QCSgi87J
はよext4でないかなー。
Reiserやxfsはハードの進化に追いついてないし、JFSは死に体だし。
345:login:Penguin
08/04/07 22:04:07 W1D8Pi3p
>>xfsはハードの進化に追いついてないし
kwsk!
346:login:Penguin
08/04/07 22:04:21 jcVZQx+d
ext?がハードの進化に追いついてるかというとそれも疑問符が付くと思うのだが
reiser4の方が近代的でね?
347:login:Penguin
08/04/07 22:09:03 XafXBPQU
死んだ子の年を数えるのは止めようぜ
348:login:Penguin
08/04/07 22:14:16 pnasWVod
...zfs....
349:login:Penguin
08/04/08 08:05:49 vX51nrv+
>>332
>ちなみに本日の測定結果
>ext2: 470MB/s
>ext3: 150MB/s
>XFS: 70MB/s
JFSもやってくれー
350:login:Penguin
08/04/08 12:40:57 7jql+r0w
>>345
いまC2D対応やってます状態。xfs使うならPen4以前で。
351:login:Penguin
08/04/08 12:42:54 77bTVWBc
>>350
そのやってます状態のパッチは?
352:login:Penguin
08/04/08 20:06:46 t6pXtMUO
>>350
ああ、開発主体のSGIがスパコン屋さんなので、去年まではIA64メイン、
今年からはx86_64メインだからね。
x86_32 はどうしてもワンテンポ遅れるんだけど、正直それで困ってる人もいないという・・・
353:login:Penguin
08/04/08 21:59:28 kp2pJUVD
>>350
対応って具体的に何するの?
ちゃんとしたSMP対応した時点でマルチコア対応と変わらんし。
354:login:Penguin
08/04/09 11:03:15 XsC9hakW
>>353
普通そう考えるだろうが、そうじゃなかったのがXFSの凄い(?)ところ。
355:login:Penguin
08/04/09 11:21:07 irm1RyJp
ここまで具体的な数値またはコード、0。
356:login:Penguin
08/04/09 13:21:43 XsC9hakW
mm絡みのあのpatchとかlock絡みのあのpatchとか思い浮かぶのはあるんだが、
ゴミの山みたいなpatchの中から探し出してくるのがダルすぎ
定量的に比較したことは無いが、ext3はあれほどpatch多くない気がするがどうなんだ?
357:login:Penguin
08/04/09 13:29:32 P7VWxNnr
ext4でデフラグがようやく使えるようになると聞いたのですが。まだ未実装だっけか。
しないとパフォーマンス悪いってのはやっぱ、
linuxでは「必要ない」、ではなく「できない」の間違いだったってことですよね。
358:login:Penguin
08/04/09 13:42:10 KQOYg6Em
今時のHDDにデフラグって必要ないんじゃないの?
359:login:Penguin
08/04/09 13:48:54 XsC9hakW
ext4の本流にはまだmergeされてない。
が、NECの人が頑張っている流れで実装はある。ext3用のも。
ext2/3ではデフラグが必要ないというより、開発当時の環境では、
デフラグのコストが性能の低下より大きかった、という話じゃないかな。
最近のドライブの大容量化や高速化でそうも言っていられなくなっただけ。
360:login:Penguin
08/04/09 16:46:40 bJQ+WBXU
どんなに断片化に強かろうが、使っていれば少しづつ断片化していく訳だが
サーバ市場で普及が進んだおかげでLinuxを長期運用する例が増え
比例して断片化の進み具合やその影響も馬鹿にならなくなってきて
それを解消したがる顧客の声もそこそこの規模になり
更にext4は状況によってext2/3より断片化が発生しやすくなってしまった。
このような時代の流れによりNEC開発陣はデフラグツール開発の大義名分をゲット。
金庫番との死闘と末、開発費を捻出させることに成功したのであった。やったね。
こうですか?わかりません><
361:login:Penguin
08/04/09 17:00:20 KQOYg6Em
HDD側のキャシュ増やした方がいいような?
362:login:Penguin
08/04/09 18:30:34 LVCZieeg
>>360
発想が昭和の人って素敵って感じだね。
363:login:Penguin
08/04/09 18:46:45 5v+cawCi
俺デフラグずっと眺めてるの好きなのでぜひグラフィカルなUIを用意してもらいたい。
364:login:Penguin
08/04/09 23:04:39 HmwSCQL2
>>363
win98のころのブロックが移動して色変わってくの好きだったのに2kぐらいから
ただの棒になって色変わるだけになってつまんなくなったな
365:login:Penguin
08/04/09 23:44:17 OcdXE9xM
ブロックのやつはそれこそDOSな時代からだよ。
あれは趣があった。
366:login:Penguin
08/04/09 23:57:02 MHOGD1vi
乗せたらダマス 魔法の絨毯 騙され続けて四半世紀だな
デフラグってプラセボつーか依存だよね。3日開けずにやっている香具師いる。
367:login:Penguin
08/04/10 00:23:32 A4V/r+Uq
デフラグを高速化するために最新のHDDを買い、
HDDがフラグメントしないようにデータをあまり書かない。
そんな時代も俺にはありました・・・
368:login:Penguin
08/04/10 00:40:21 sVUazSs4
神経質な奴ほどデフラグ中毒になりやすい。
デフラグ中の画面を延々見てる奴。
洗濯中にグルグル回ってるのを延々見てる奴。
両者は似ているようで少し層が違う。
369:login:Penguin
08/04/10 00:53:04 M4lYQAYA
defrag中毒のヤシはLFS系のfsつかえばいいのに
370:login:Penguin
08/04/10 01:30:53 NY5kJFee
デフラグの画面は人間の生産性を驚異的に落とす最悪のGUIなので
ライフハック(笑)的には真っ先に削除されるべき
371:login:Penguin
08/04/10 01:49:42 gvIBE6hj
LFSとか言われてもな
372:login:Penguin
08/04/10 04:06:43 Gfyr/fVJ
>>368
洗濯機のグルグルは気持ちが落ち着く
デフラグはイライラする・・真逆
373:login:Penguin
08/04/10 10:21:47 REpR0D1a
なんか洗濯機を眺めながら一人で酒を飲んでるって芸人がいなかったっけ?
374:login:Penguin
08/04/10 10:49:40 H34Gbw9O
麒麟の非公園生活者の方(川島)だったな。
ちなみに今は洗濯機そっちのけで眞鍋かをりに乗っかってるとか。
375:login:Penguin
08/04/10 15:59:42 AsPLT2gw
>>350
C2D対応のソースまだぁ?
376:login:Penguin
08/04/10 18:46:32 4oJRCPdx
デフラグはHFS+のように、
自動デフラグ解消機能をFSに埋め込むって案はないの?
良くアクセスするファイルを、HDDの先頭に移動して高速化するって案は?
377:login:Penguin
08/04/10 19:46:00 g/S3sRn9
vxfsマンセー
378:login:Penguin
08/04/11 02:25:29 xdk7g0sU
>>376
>良くアクセスするファイルを、HDDの先頭に移動して高速化するって案は?
そういう製品もあるよ
ただHDDの先頭は汚染されやすい
(プラッタ上のゴミ等は遠心力で外周に向かいやすい)
ってことを考えると労力の割には微妙だなあと俺は思う
379:login:Penguin
08/04/11 02:33:15 2V7teuhD
良くアクセスするファイルってほとんどの期間osのキャッシュ上にあるんじゃないかな?
ブート時の立ち上がりアクセスを連続化とかそういうのはlinuxじゃ難しそうだし、思想的に好かれなそう。
380:login:Penguin
08/04/11 10:18:34 gfqUbArl
>(プラッタ上のゴミ等は遠心力で外周に向かいやすい)
どんなファイルシステムだよ、と思ったら物理メディアの話か…
381:login:Penguin
08/04/11 11:50:29 NtcJovKM
HDDの中はクリーンでしょ・・・
382:login:Penguin
08/04/11 12:54:43 xdk7g0sU
>>381
プラッタとヘッダが接触する→破片が飛ぶ
あと誤解されがちだがHDDは密閉されていないので
埃等の進入も無いわけではない
383:login:Penguin
08/04/11 14:27:02 NtcJovKM
>>382
ヘッドが接触した時点でバッドセクタ発生で使用中止するでしょ。
気圧調整のために穴が空いているけど、フィルタシールされているから、
埃は外部から侵入しないよ。
384:login:Penguin
08/04/11 15:04:27 xdk7g0sU
フィルタがあるから進入しないというのは暴論だな
385:login:Penguin
08/04/11 15:32:21 EtOBVwEL
>>382
昔のHDDと違って今のはヘッドは接触してないでしょ。
といってもμとかそれ以下のオーダーで離れてるだけだけど。
386:login:Penguin
08/04/11 17:24:52 510mZMoh
しょっちゅうカコンカコンいってますが何か?
387:login:Penguin
08/04/11 20:26:13 2qIbW6EC
破片云々や遠心力云々、
ヘッドの接触を前提に語ってる奴の言葉など、何一つ信用できない。
ちなみに、ヘッドの浮く高さはよく煙草の煙より狭いと言われるが
だからこそ、そのサイズのゴミさえ侵入しないように作られている。
388:login:Penguin
08/04/11 20:31:20 2V7teuhD
てかもうSSDになるんだから、ランダムリードのアクセスはかなり無視できるだろう。
書き込みの遅さと読み込みの速さをどううまくカバーできるかとかやってるのかな?
なんとなくだが追記型のが相性良さそう。
389:login:Penguin
08/04/11 20:34:54 9r4cpd5H
よくわからんが
コンタクト・スタート・ストップとかで接触するんじゃないの。
390:login:Penguin
08/04/12 01:21:44 zKuK+tHg
非動作時等に接触するのは事実だが
そこが回転しているかどうか。
動いていない部分にヘッドが接触して破片がとぶって、
どれほどの衝撃でヘッドが着地するのかと。
391:login:Penguin
08/04/12 02:04:05 UJnKfLiT
>>388
現状ではランダムリードが遅いSSDなんて腐るほどある。
今のHDDでMemoryいっぱい積んだ方が安くて速い。
392:login:Penguin
08/04/12 03:55:16 ddANuM0+
>>390
>非動作時等に接触するのは事実だが
接触しない。今のHDDは電源が落ちると自動的にシッピングゾーンに
ヘッドがリトラクトされる。
現実問題として、実使用時においてゴミがとかヘッドが接触とかありえない。
一番可能性があるのが動作時に外部から強い衝撃を受けた時にヘッドがプラッタと接触し、
HDD内にマイクロな粒子が飛散する恐れがある。
この場合はバッドセクタが発生し、加速度的に増殖して壊れるだろう。
393:login:Penguin
08/04/12 09:44:05 B8KR3TA1
スレ開いて自作板かとオモタwwwww
394:login:Penguin
08/04/12 10:19:10 3VfCSwj0
ぐうぐる[しっぴんぐぞーん]→うぃきぺでぃあ
| ディスク停止時には磁気ヘッドとプラッタは接触しているが(この際の磁気ヘッド位置をシッピングゾー
| ンと呼ぶ)
395:login:Penguin
08/04/12 11:29:27 D6Z7h6V2
全然話についてけないんですけどぉ〜><
平常レベルに落としてよぉ〜><
396:login:Penguin
08/04/12 11:56:44 ddANuM0+
>>394
ううん、すまん。俺が分解したIBMのHDDはdiscから完全にヘッドが外れて
ヘッド格納部に格納されるタイプだったんだよ。
このタイプの方がより安全だしね。
スレ違いなのでこのへんで。
397:login:Penguin
08/04/12 13:21:02 3VfCSwj0
>>396
それはload/unload(ramp load)方式のドライブで、IBM/HGSTのデスクトップ及び各社のモバイル
向けドライブに採用されています。停止時の安全性と省電力が売りですが、反面load/unload機構は
アームがrampと接触するため耐久性に疑問があること、及びload時にヘッドがプラッタに衝突する
こと、このため結局プラッタ外周部にデータを記録しないランディングゾーンを設けなければならない
ことなど、良いことづくめではありません。
一方停止時にヘッドが着陸するcontact start/stop方式はエンタープライズドライブ及びseagateの
デスクトップに採用されています。古典的な方式なので十分な安全性が確保されていること、
エンタープライズドライブはそもそも回りっ放しが前提なこと、外周の高速な部分が利用できること
などが利点です。反面、モーターが停止するとヘッドは必ず着陸するため、スライダの摩耗や
摩耗による微粒子の飛散などの問題は避け得ません。接触部分は削れにくいようにタフにできて
いますし、プラッタの記録面はゴミが飛んで来てもさらりと受け流すようにコーティングされています
(ふさふさの毛が生えている感じ)。その上に潤滑材が流れていますからまるでマットプレイです。
というようにどちらが一方的に優れているというわけではありませんし、どちらも製品寿命の範囲では
十分な耐久性があるのでもはや信仰の領域です。
……だったのですが、最近load/unload方式に革命的な進歩があり、最新の製品ではついに外周部の
ランディングゾーンがなくなりました。これはついに悲願のヘッドとプラッタの完全非接触が実現したと
いうことであり、load/unloadが一歩前に出たという印象です。
398:login:Penguin
08/04/12 13:21:22 3VfCSwj0
>>390
ランディングゾーンはデータ記録部分と違い、停止時にスライダが吸着しないようにわざとデコボコに
作られています。スピンドルモータが完全に停止するまでスライダが魔法的作用で浮いていられれば
よいのですが、現実には回転数が低下した時点で着陸するため、停止するまでガリゴリ削られまくり
です。この状態からモータを回し始めれば、浮揚するまでの間また削られまくりです。
>>387
景気よく動いていたドライブの電源を落とすと急激に冷えて内部の気圧が下がり、あろうことか
外界の汚れた空気を吸い込んでしまいます。もちろんフィルタで異物の侵入を阻むのですが、
世の中完璧には行かないもので。ハードディスクは温度変化が大敵です。
>>378
確かに内周で発生した微粒子は外周に向かって飛散しますが、スライダより遥かに軽い粒子が
吹き飛ばされることなくプラッタに着地するのは極めて稀なことです。また、そういうことが起こっても
困らないように設計されています。ハードディスク30年の歴史の積み重ねはそう短いものでもありません。
というわけでディスクの先頭に重要なデータを置いても困らないぜ? というお話でした。
っていうかバックアップ取っとけ!
399:login:Penguin
08/04/12 15:40:45 EsTwxU42
おまえら、たまにはスレタイ読んでくれw
400:login:Penguin
08/04/12 15:58:09 1E/jpGQt
コメントアウトされているようです。
401:login:Penguin
08/04/12 15:59:16 EsTwxU42
なるほどw
402:login:Penguin
08/04/12 17:04:40 OZPQRFfQ
この前、夜中、コンパイルしている時、地震があったんだ。
目が覚めるほどの。
その時、ハードディスクから、
「スチュ、チー、チー、チー」と、異音が…。
俺、「うぉーーー」
けど、なす術もなく、夜中で何もしたくなかったから、放ったらかしで。
翌日、どうしたもんかと思いつつ、
パッケージシステムのファイルダイジェストを確かめるコマンドで
チェックしてみたけど、大丈夫だったみたいだから、気にしないことにした。
思い出したから、書いてみた。
403:login:Penguin
08/04/20 18:58:46 plVuI/pr
reiserfsck --rebuild-tree って対象パーティション上に reiserfs らしきものを
見つけるとそれを復元してしまうもんなの?man reiserfsck を見たらそうも読み取れるんだが。
説明下手だけど今起こったことを書く。
/dev/hda9 上に dd で吸い出した別の HD の NTFS パーティションのイメージがある。
まあ、dd if=/dev/hdb1 of=~/ntfs.img をやっただけ。
ntfs.img の中には vmware の Virtual HD の中に reiserfs パーティションがある。
シングルユーザモードで立ち上げて reiserfsck --rebuild-tree /dev/hda9 を
実行したら /dev/hda9 のディレクトリツリーが ntfs.img の中の vmware.vmdk の
reiserfs パーティションの中身に変わってた。
当然ツリーだけが置き換わったんで、ファイルの中身とかはめちゃくちゃなんだけど。
もう何が起こったのかさっぱりわからん。こんなことってありえるもんなのか?
404:login:Penguin
08/04/20 19:01:13 plVuI/pr
ちなみに、ntfs.img の中の vmware.vmdk の中は reiserfs に
Debian をインストールしてました。
reiserfsck --rebuild-tree を実行したらこうなってた。
$ df -h
Filesystem サイズ 使用 残り 使用% マウント位置
/dev/hda1 957M 400M 558M 42% /
tmpfs 502M 0 502M 0% /lib/init/rw
udev 10M 108K 9.9M 2% /dev
tmpfs 502M 0 502M 0% /dev/shm
/dev/hda8 1.9G 33M 1.9G 2% /tmp
/dev/hda6 12G 2.7G 8.6G 24% /usr
/dev/hda7 1.9G 1.6G 313M 84% /var
/dev/hda9 205G 79G 127G 39% /home
$ ls /home
bin dev initrd lib opt sbin tmp vmlinuz.old
boot etc initrd.img lost+found proc selinux usr
cdrom home initrd.img.old mnt root srv vmlinuz
405:login:Penguin
08/04/20 19:37:17 +sFhjnt6
Exactly(その通りでございます)
406:login:Penguin
08/04/20 19:47:37 plVuI/pr
追試してみたら再現したんで自己解決。
結論は、
reiserfs のパーティションを dd 等で吸い出したイメージを
置いてあるパーティションでは reiserfsck --rebuild-tree を
絶対に実行してはいけない。
あらかじめ gzip で圧縮したり、rm で消しておけば大丈夫っぽい。
rm で消した程度だと見つけられるんじゃないかと思ったけど平気だった。
# mkfs.reiserfs /dev/hda9
# mount -t reiserfs /dev/hda9 /mnt
# ls /mnt
#
# dd if=/dev/hda1 of=/mnt/hda1.img
# ls /mnt
hda1.img
# umount /mnt
# mount -t reiserfs /dev/hda9 /mnt
# ls /mnt
bin dev initrd.img media root sys vmlinuz
boot etc initrd.img.old mnt sbin tmp vmlinuz.old
cdrom home lib opt selinux usr
debootstrap initrd lost+found proc srv var
# /mnt/bin/bash
bash: /mnt/bin/bash: cannot execute binary file
次ページ最新レス表示スレッドの検索類似スレ一覧話題のニュースおまかせリスト▼オプションを表示暇つぶし2ch
4674日前に更新/225 KB
担当:undef