1 名前:名無しさん@お腹いっぱい。 [2007/06/13(水) 15:28:31 ] 64ビットのチェックサム、128bitアドレッシング、RAID、ホットスペア、 スナップショット、ストレージプールなどの豊富な機能を備え、 次世代のファイルシステムとして期待されるZFSについて語るスレです。 ○前スレ [次世代] ZFS [ファイルシステム] pc11.2ch.net/test/read.cgi/unix/1146631270/ ○関連スレ /**ファイルシステム総合スレ その7**/ pc11.2ch.net/test/read.cgi/linux/1173530292/ ○関連リンク Solaris ZFS ttp://www.sun.com/software/solaris/zfs.jsp OpenSolaris ttp://www.opensolaris.org/os/ ソース ttp://opensolaris.org/os/community/zfs/source/
503 名前:502 mailto:sage [2007/12/01(土) 12:19:19 ] すまん、501を498宛だと勘違いしてたよ。。。
504 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/16(日) 15:53:44 ] ZFS on rootなFreeBSD環境をmicroSD上に構築してみる bsdhouse.org/yamasa/diary/20071119.html
505 名前:名無しさん@お腹いっぱい。 [2008/01/03(木) 18:56:08 ] 複数ディスクをJBODで構築した場合、ディスクに一つ障害が出たらファイル全部喪失してしまうんでしょうか。
506 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/03(木) 19:14:25 ] 基本的にそういう理解でいい。 残りのディスクだけで完結しているファイルは、なんとかサルベージできるかも知れんけど。 ちなみに、スレ違いだな。
507 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/03(木) 20:52:50 ] >>506 ZFSでも一人が死ぬとのプール全体が終わってしまうのですね。 ディスクの足し算引き算が容易にできるFSを探しててzfsはどうかと思った次第。 Windows Home Serverの方がイメージに近いので、そっちで検討してみます。
508 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/03(木) 21:05:06 ] 事前に抜く予定が分かっていてファイルの移動を ボリュームマネージャにやらせるのは zfs でできるんじゃないっけ? もしくは RAID5 構成で1本抜いて一本挿し直してみたいなことを想像してる?
509 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/03(木) 21:18:56 ] >>508 作りたいのは自宅ファイルサーバ。 録画機能つきTV(REGZA)のデータandその他もろもろデータ置き場。 (1)とにかくでかい1ボリュームが欲しい。容量が足りなくなったらHDD足すだけでOK。(ZFS,WHS) (2HDD故障でファイル消失しても泣かない。でも正常なディスクのファイルが読めなくなるはやだ。(WHS) (3)なるべく低イニシャルコストで。(ZFS) こんなところです。 (1)(2)はFuse使ってunionfsの亜種みたいなのを作って実現してみようかとも思ってます。
510 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/03(木) 21:22:44 ] >>508 なので計画的にディスクを抜くというよりも障害時の影響範囲を最低限にしたいんです。 でも、RAID1,5,Zのようなディスクを余計に消費してまでの完全性はいらないんです。
511 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/05(土) 12:59:08 ] >>508 ZFSはディスクを足すのは簡単だけど、減らすことはできないと思ってたけど。 >>509 ファイルシステム以下の層でやるより、ディレクトリ分類とシンボ リックリンクで済ませた方が早くない?
512 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/08(火) 14:24:39 ] >>511 > ZFSはディスクを足すのは簡単だけど、減らすことはできないと思ってたけど。 仕様的にはできるはずなのでは。「まだ実装されてない」って話だったが、 今の状況は知らんw > ファイルシステム以下の層でやるより、ディレクトリ分類とシンボ > リックリンクで済ませた方が早くない? オレもそう思う。
513 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/08(火) 16:41:45 ] それをファイル単位で自動的にやってくれるのがWHSのDEな. DEはファイルシステムの層でやってるのではない.
514 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/08(火) 18:30:45 ] UNIX 板なんだから謎の略語は展開してあげるのが親切かと。 Windows Home Server の Drive Extender だよね。
515 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/08(火) 20:10:20 ] ZFSが/で使えないのは何がたりない? 早くUFSからオサラバしたいぜ
516 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/08(火) 21:11:18 ] OpenSolarisやFreeBSDならできるよ
517 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/09(水) 01:46:49 ] >>515 FreeBSDなら ttp://wiki.freebsd.org/ZFSOnRoot とか ttp://blog.ninth-nine.com/diary/20071103.txt とか >>504 とか
518 名前:名無しさん@お腹いっぱい。 [2008/01/11(金) 02:23:46 ] >>480-484 zfs-102A 来た zfs.macosforge.org/?p=6 Bugs Fixed in this Rev: 5448925: sync ZFS with Solaris build 72 5405398: zfs needs kqueue(2) API support 5602507: Leopard9A581: Kernel trap at 0×4d351d9c, type 14=page fault, registers: 5592757: Kernel panic when writing to a zfs volume 5482932: Raidz parity rewrite issue 5641577: ZFS: panic: zap->zap_u.zap_fat.zap_phys->zap_magic == 0×2F52AB2ABULL failed 5621659: assertion failed in /Users/local/zfs-101-latest_fixes/zfs_kext/zfs/zfs_dir.c line 730: error == 0 5643944: ZFS get/set and mountpoints are misbehaving 5645880: Finder copy and “delete” broken in zfs-101 plus fixes..
519 名前:名無しさん@お腹いっぱい。 [2008/01/12(土) 00:39:11 ] >>518 記事出た。 128bit FS「ZFS」のMac OS X Leopard用最新ビルドが公開 journal.mycom.co.jp/news/2008/01/11/008/index.html
520 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/12(土) 02:08:59 ] にしても、基本的にOS X 10.6まで待ちというのは長いな…
521 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/13(日) 00:36:48 ] デカイファイルの削除時にカーネルパニックになる場合があるね。 基本的な動作は問題なさげ。 USBメモリー16本でRAIDZ組んでみた。ランダムアクセスで100MB前後出る。 が、速度の結果が不安定。zfs側で用意したキャッシュの分の速度も含まれてるのかも?
522 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/13(日) 00:48:28 ] >>521 > USBメモリー16本でRAIDZ組んでみた > が、速度の結果が不安定 どうやってつないだ? そもそもボトルネックってどこよ? > zfs側で用意したキャッシュの分の速度も含まれて 普通にそうなるだろ?
523 名前:521 mailto:sage [2008/01/13(日) 12:49:43 ] >>522 試したのは、102aを10.5.1で。 USB4ポートに4ポートハブと、16ポートハブ(中身は多段ハブだった)で確認。 ボトルネックは主にハブだね。USBメモリーはPQI U339Proで、ファームを最新に書き換え済み。 単体での20MB弱のリードを確認してる。 キャッシュについては、確かにそうだ。 ベンチの結果、ランダムリードで5MB/secから100MB/secまである。 パリティの処理とのカブリか、ベンチに使ったソフト(Xbench)の出来の加減なのか… 現状、zfsのraidzの挙動に詳しいわけではないので、もちょっと色々試してみる予定。 どっちにしても実際に動かす分にはかなり快適。
524 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/13(日) 13:07:52 ] >>521 それはデカイ問題じゃないのか
525 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/13(日) 13:51:05 ] 10.5.1てマコス? そのUSBポートはひとつのICHに繋がっていて合計60MB/sの帯域しかない。 それを超えたらもちろんcacheの速度。
526 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/13(日) 13:56:45 ] >>523 > USB4ポートに4ポートハブと、16ポートハブ(中身は多段ハブ… USB2 って 480Mbps じゃなかったけ? 16 ポートって 4x4 の 2 段だろ? ここのトランザクション増えると ここに足引っ張られるのみえみえじゃん?
527 名前:521 mailto:sage [2008/01/13(日) 20:27:39 ] お遊びにそんな怒らんでも。Leopardだね。>>519 のもの。 G5 Macだから、ボトルネックがチップセットにあるのか不明。 一応、ハブもダメだし、あっちこっちダメなのは認識してる。 でかいファイルでだめなのは再現性不明。7GB位のファイルで確認してたんだが…その後起きない。 次でたらバグ報告しようかと思ってるんだが。
528 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/14(月) 00:48:28 ] >>527 G5だとEHCIは32bit/33MHz PCIの下だから帯域は4ポートとその他諸々全部ひっ くるめてPCI1本分。実はIntelよりマシ。
529 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/16(水) 02:14:29 ] なんでPCIの下のEHCIが、 ICH内蔵のEHCIよりマシなのか ぜんぜん理解できない
530 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/16(水) 10:20:31 ] 俺も理解できない。 先にUSBの仕様上上限がネックになるのに何故PCIの話持ち出してるのか。
531 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/16(水) 10:39:18 ] USB3.0 の話なのだよ
532 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/16(水) 20:08:26 ] >>529 IntelのICH内蔵EHCIはUSBポート全部合わせて60MB/sの帯域しかない。 (EHCI2個を内蔵しているものはそれぞれが60MB/sの帯域を持つ) PCI-USB bridgeならば少なくともこの制限はない、ということ。 逆にもっと酷いものが載っているかもしれないが。 >>530 USBメモリを16本挿して遊んでるので「USBの仕様上上限」とやらは問題にならない。 重要なのは経路の一番細い部分。すべてのUSBはひとつのEHCIを経由するわけだから、 ここの帯域が速度の上限となる。だからEHCIがどこに繋がっているかの話をした。 理解していただけたか。
533 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/16(水) 21:49:55 ] なるほど。勉強になった。
534 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/16(水) 23:35:12 ] >IntelのICH内蔵EHCIはUSBポート全部合わせて60MB/sの帯域しかない。 >PCI-USB bridgeならば少なくともこの制限はない、ということ。 そんなの始めて聞いたゼ。 前段の、1EHCI辺り60MB/sしか出ないのかがホントなのか、はおいといて、 もしそうだとしても、後段の「PCI-USB brigde」ってのは結局のところEHCIなわけだから、 1つしかなければ、そこも結局60MB/s以上出るはずがないという話になると思うけど?
535 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/17(木) 01:20:54 ] なるほど、PCI-USB bridgeとやらが、何か*HCIとは違うすごい物という勘違いを してるわけか。
536 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/17(木) 01:49:42 ] >>534 Intel製のICH内蔵EHCIが60MB/sでFSBに繋がっているということが 他社製のEHCIの構造に何か影響を及ぼしていると言っているのか? もしそうなら言ってくれ。君のことは早々に忘れることにする。 そうでなくても大概スレ違いなので次のレスで完結してくれるようお願いする。 >>535 君はもう少し誰かの役に立つことを書け。
537 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/17(木) 08:18:30 ] 何、Intel製のICH内蔵EHCIだけ(特に性能が悪くて、) ICH内部バス(ふつうFSBとは言わない)からRootHubまで 60MB/s(480Mbps)しかないけど、 他のメーカ(NEC,VIA,SIS,AMDなど)のEHCIはそこは133MB/sの太さがある、と?
538 名前:名無しさん@お腹いっぱい。 [2008/01/17(木) 09:17:04 ] 揚げてみる
539 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/17(木) 10:01:43 ] 負け惜しみはよくわかったからそろそろ他でやってくれないか。
540 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/17(木) 10:27:27 ] zfs の話題マダーーー? チンチン
541 名前:名無しさん@お腹いっぱい。 [2008/01/17(木) 15:44:38 ] お互いほどほどにな。 元々の実験自体は中々面白いものだったし。
542 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/18(金) 11:40:59 ] ZFSファイルシステムのバグでJoyent、長時間ダウンを余儀なくされる jp.techcrunch.com/archives/joyent-suffers-major-downtime-due-to-zfs-bug/
543 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/18(金) 12:45:11 ] >>542 それって、(リリース版Solarisでなく)OpenSolaris、それもsnv_43なんていう古いバージョンのを 使っててバグ踏んだだけじゃん。snv_60で9ヶ月ぐらい前にfixされてるバグだし。 discuss.joyent.com/viewtopic.php?id=19430 opensolaris.org/jive/thread.jspa?threadID=49020
544 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/18(金) 14:33:35 ] Joyentとしては、とにかく他人のせいにしとかないとね。 あ、TechCrunchのfounderは記事に名前の出てるOmnidriveのinvestorでもあるのか。
545 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/18(金) 16:21:01 ] つーか、このレベルの障害がこれだけ大きく出るってことは、逆に それ以上のものはほぼ皆無ってことになるんじゃねーか? すげーじゃん。
546 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/20(日) 04:37:45 ] ゆとり脳かよ
547 名前:521 mailto:sage [2008/01/21(月) 01:43:43 ] Leopard上でのzfsだけど、デバイスのエラーが起きたとき(orパリティからの復帰時)にカーネルパニックおきるや。 6本のUSBメモリーでraidz2にして、1~2本抜いてその分新しいのをプールに追加すればほら元通りってデモやろうとしてたけど、 なんどやってもその場でパニックまたはzpool statusを実行した途端パニック。レポート送信ポチッとな。 あと、16ポートハブは出来が悪い。たくさんデータ転送してたら突然の電源断。熱が多いようだし、そのせいかもしれないが。 Mac/Winの複数環境で試したが、相性ではなさそう。一部ポートだけ接続不良とかもランダムで起きてる気がする。 さらに、機能とは関係ないが、コネクタがいい加減についてるから、差したブツがランダムで斜めになってるし。 16ポートにUSBメモリー直接差したら、ガタツキまくりのぶつかりまくりの離れまくり。熱問題も含めて延長ケーブル経由にしてしまった。 …高い遊びの割に、結果がしょんぼり。USBメモリーは当初の予定通りデータ入稿用ストックに。 ハブは、Mac Book Airを買ったら使う、かなぁ?
548 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/21(月) 02:30:08 ] ハブの電源容量は?16ポート全部使うとスペックオーバの場合もあるぞ。
549 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/21(月) 07:57:17 ] >>547 乙でした。 職業ライターさんかな? だとしたら、スレ違いだけどVT -d、IOV特集とかお願い。
550 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/03(日) 14:00:28 ] USB端子の電力供給ってかなりショボイから、 6本同時接続自体が無謀な気もするんだが・・・
551 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/05(火) 21:03:20 ] >>550 ハブをバスパワーにしなければ無問題ではないかと
552 名前:名無しさん@お腹いっぱい。 [2008/02/05(火) 21:13:34 ] WindowsでZFS使いたいなあ…
553 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 09:52:49 ] >>552 他人に頼るな。自分でなんとかしてみろ
554 名前:名無しさん@お腹いっぱい。 [2008/02/06(水) 10:00:37 ] C/C++は一応出来るけどWindowsのドライバなんて作ったことない… まあ、6月ぐらいになったら暇になるから勉強のつもりで挑戦してみるか
555 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 10:50:44 ] MS-Windows がまともに稼働するだけの機能は全部もってるんだろ? ZFS。 ZFS オンリーな環境で MS-Windows がまともに動いたらちょっと爽快かもな。
556 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 12:58:56 ] >>555 いや機能だけでいうなら全然足りない。
557 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 13:34:23 ] そうか? 例えば?
558 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 19:26:05 ] このスレをNTFSで検索しれ
559 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 20:21:52 ] 「俺の根拠はお前が探せ」
560 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 21:09:43 ] 「半年ROMれ」
561 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 21:12:54 ] >>558 re-parse file は symbolic link、sparse file は hole。 multiple stream は extended attributes (fsattr)だろうな。 以上なら UFS にもあるぞ。 extended attributes は Solaris 9 以降だったと思うが。 暗号化が実装途上だというのはすでに言及されてるからいいとして、 トランザクションとか他の事項については中身を知らんから何とも。 556や558は知ってるならちゃんと説明してくれ。
562 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 21:46:10 ] Windowsが動作可能なFSって、動作するだけなら長いファイル名さえ使えれば 問題ないんでないの? NTFSと同等の機能が必要かどうかは、OS上で何を動作させるか次第だと思うんだけど。
563 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 21:48:43 ] 横槍だがリパースポイントは、 その機構を利用してジャンクションやシンボリックを実現しているだけで、 本質はもっと汎用的な動的再解析のための枠組み。 Windowsでは階層化ストレージのために使っていたりするが、 独自の再解析のアルゴリズムを追加してリパースさせることもできる。はず。 寡聞にして聞いたことがないが。
564 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 22:02:30 ] >>561 ZFS に sparse file(hole) ってあったっけ? あと junction 相当の directory hardlink とかどうだっけ。 まあ機能制限ありなら FAT 上でだって XP は動くわけで、 そういうのでいいなら ZFS 上で Win 動かすのに問題はないんじゃない? あと Win Server の Volume Shadow Copy って、これ snapshot 相当なの? 誰か使ったことある?
565 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 22:04:16 ] NTFSの最もよく使われているであろう暗号化機能が 無いというだけで十分ではないか。
566 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/06(水) 22:06:06 ] 最近のノートなビジネスクライアントでは必須だからな……
567 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/07(木) 03:21:19 ] じゃあ暗号化を考えなきゃ、使える、と?
568 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/07(木) 10:20:14 ] いや、暗号化なんてどうでもいいだろ。とりあえず大文字小文字の同一視と ACL カバーしてりゃ問題なかろ。
569 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/07(木) 22:22:54 ] ttp://d.hatena.ne.jp/softether/20060202#p2 [質問] スライドでは、NTOSKRNL はデバイスドライバコードを一切含んでいないということだったが、では ntfs.sys や scsi.sys、disk.sys などのハードディスクを読み書きするデバイスドライバはどうやって読み込まれるのか? NTOSKRNL を呼び出す PreLoader (恐らくブートセクタプログラムおよび ntldr のこと) に NTFS などのファイルシステムドライバが特別なコードとして組み込まれている。 [質問] では、サードパーティの開発者が例えば新しいファイルシステムを開発してそれ用のデバイスドライバを書いたとしても、そのファイルシステムのドライブ上に NT カーネルを置いてブートすることは不可能ということか? 現在のところ不可能である。
570 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/07(木) 22:24:56 ] と言うような話を思い出したけど、よくよく話題を追うと機能として満たしてるかどうかだった悪寒
571 名前:名無しさん@お腹いっぱい。 [2008/02/09(土) 10:24:38 ] X4500に16TBのZFSファイルシステム作ってみた。 コマンド叩いて、すぐに完成。 Disk 46本全て使ったので、完了するまでに待たされるかと思ったよ。 やっぱり、いいな。ZFS。 でも、細かな所で機能やユーティリティが不足しているので、以下の機能を 早く正式に取り込んで欲しいな。 ・send -r ZFSプールの中の全ファイルシステムを再帰的にsend ・snapshot/send/recvのスケジューリング機能 ・scrubをバックグラウンドで定期的には知らせる機能 X4500はバックアップ用ストレージとして使っている。 1000T 1本にNFS writeして、50MB/sec位。 ストレージの性能はもうちょっと上なので、10Gの時の書き込み性能を 試してみたいな。だれか10GでNFSシーケンシャルwrite性能計った事無い?
572 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/09(土) 17:17:30 ] nfsd にあたるリモートpoolを扱う機能が欲しいな。 バックアップが格段に楽になる。 経路の暗号化付きで。
573 名前:名無しさん@お腹いっぱい。 [2008/02/10(日) 13:10:05 ] ZFSは素晴らしいよな。近年まれに見る優れたファイルシステム。 周辺のかゆい所に手を入れて、早いところSVM/UFSやVxVM/VxFS捨てて欲しいわ。 夏あたりに出てくるというSolaris10+ZFSベースのNASにも期待。 ZFSはNetApp ONTAPの機能の大半をカバーしているからな。NetApp買わなくても 良くなるかもしれない。
574 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/10(日) 14:39:54 ] >>571 zpool の RAID はどういう風に組みました? 6 本の RAID-Z を複数かな
575 名前:名無しさん@お腹いっぱい。 [2008/02/10(日) 14:57:39 ] 9D+2PのRAID-Z2を4セット、1ファイルシステム
576 名前:名無しさん@お腹いっぱい。 [2008/02/11(月) 11:06:23 ] 次のupdateで、OSブートに対応した版が出てくるんだろうか? 最近のSunサーバは、ハードウェアRAID搭載なので、SVMにお世話になる頻度は 減ったが。X4500みたいな未搭載機もあるしな。 あと、/ からZFSになっていると管理上楽
577 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/11(月) 13:15:05 ] OSブート対応はブートROM側に変更が必要なのでは。
578 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/11(月) 18:25:35 ] SPARCのこと? OpenBootの変更が必要ない方法で進められてると思ったが。
579 名前:名無しさん@お腹いっぱい。 [2008/02/11(月) 19:19:51 ] OpenBootもUPFATE可能な作りだしな。
580 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/11(月) 19:47:38 ] OpenBootに変更は必要ない。 Case Materials for PSARC 2006/525 new-boot sparc ttp://www.opensolaris.org/os/community/arc/caselog/2006/525/final-materials/spec/ x86同様、多段階ブートになる。 早くにOBPから切り離されるため、場合によってはブートが速くなるらしい。 そもそもNVRAMに大きなコードが入るとは思えないわけだが。
581 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/11(月) 21:56:03 ] やっぱり多段ブートなのかぁ。sector 1-15に収まり切るのかな。
582 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/11(月) 22:13:52 ] >>576-581 既に Project Indianaの成果物は www.opensolaris.org/jive/thread.jspa?messageID=169793&tstart=0#169793 ZFSオンリーの構成でインストールされますよ。
583 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/11(月) 22:15:23 ] ん。あ、早とちりか。SPARC版か・・・すまね。
584 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/12(火) 01:17:46 ] このスレNTに詳しい奴もいるんだな
585 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/12(火) 13:51:26 ] MS-Windows7 の標準ファイルシステム。
586 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 20:04:54 ] VCSがサポートしてくれれば、全面的にZFSに乗り換えるんだが。 ZFSサポートしているHAはSunClusterのみだからなぁ。 FirstWatchからずっとVERITASを支持してきた俺だが、 SunClusterを検討する時期に来ているんだろうか。
587 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/12(火) 20:53:33 ] Cluster ableなZFSはまだかっ
588 名前:名無しさん@お腹いっぱい。 [2008/02/16(土) 17:57:28 ] SXDEのZFS新機能の説明を読んでみた。待望のsend -Rが。 階層的に作成したファイルシステムを一撃でバックアップ取れて、復元も可能。 docs.sun.com/app/docs/doc/817-2271/gfwqb?a=view # zfs snapshot -r users@today # zfs list NAME USED AVAIL REFER MOUNTPOINT users 187K 33.2G 22K /users users@today 0 - 22K - users/user1 18K 33.2G 18K /users/user1 users/user1@today 0 - 18K - users/user2 18K 33.2G 18K /users/user2 users/user2@today 0 - 18K - users/user3 18K 33.2G 18K /users/user3 users/user3@today 0 - 18K - # zfs send -R users@today > /snaps/users-R # zfs destroy -r users # zfs receive -F -d users < /snaps/users-R # zfs list NAME USED AVAIL REFER MOUNTPOINT users 196K 33.2G 22K /users users@today 0 - 22K - users/user1 18K 33.2G 18K /users/user1 users/user1@today 0 - 18K - users/user2 18K 33.2G 18K /users/user2 users/user2@today 0 - 18K - users/user3 18K 33.2G 18K /users/user3 users/user3@today 0 - 18K -
589 名前:名無しさん@お腹いっぱい。 [2008/02/16(土) 17:58:20 ] rshやsshと組み合わせて、リモートレプリケーションするのが すごく楽になったぜ。
590 名前:名無しさん@お腹いっぱい。 [2008/02/16(土) 18:04:42 ] あと、cache deviceの機能。どの様な場面を想定しているのかな? SSD? # zpool create pool mirror c0t2d0 c0t4d0 cache c0t0d0 # zpool status pool pool: pool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM pool ONLINE 0 0 0 mirror ONLINE 0 0 0 c0t2d0 ONLINE 0 0 0 c0t4d0 ONLINE 0 0 0 cache c0t0d0 ONLINE 0 0 0 errors: No known data errors
591 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/21(木) 00:10:38 ] ZFSというのはRAID構成のまま増設が出来ちゃったりするの? RAID 6+2+0相当で、そこまで出来るなら鯖管に真面目に検討させたいなぁ。
592 名前:名無しさん@お腹いっぱい。 [2008/02/21(木) 23:00:54 ] >RAID構成のまま増設が出来ちゃったり ってどう言う意味? あと、RAID6+2+0ってどんなメリットが? しかもRAID2 ?? と言うか、そんなの構成可能なHW RAIDやSW RAIDがあるわけ?
593 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/23(土) 11:40:15 ] 6+2+0 = 8 ナ ナンダッテー!! Ω ΩΩ っていうw
594 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/23(土) 13:18:26 ] なんだこいつ
595 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/23(土) 13:59:04 ] ZFS じゃないけど敢えて言うなら Infrant の ReadyNAS みたいなイメージなのかな?
596 名前:名無しさん@お腹いっぱい。 [2008/02/23(土) 20:34:15 ] ZFSはオンライン拡張可能だけど、1台だけDisk増設と言った使い方は お薦めできない。RAID-Z 4+1分の容量を追加とか。そんな感じでやるべき。
597 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/27(木) 09:27:16 ] 自宅のファイルサーバとしてFreeBSD7.0-R + ZFS + samba3.0.28という 組み合わせで導入してみたけど、いまいち使い物にならない。 wiki.freebsd.org/ZFSTuningGuide にあるとおり、 vm.kmem_size="512M" vm.kmem_size_max="512M" としたけど、クライアントのVista SP1マシンから数GBのデータをコピー しようとしたらkmem_map too smallで落ちる。設定を640MBまで増やして みてもダメ。どこまで増やせば安定するのかな。 というかそもそもメインメモリ1GBじゃファイルサーバにZFS使うのには ぜんぜん足りないのか。
598 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/27(木) 09:51:12 ] kldstatでzfs.koが組み込まれてるのを確認してから、 sysctl -a | grep vfs.zfs.prefetch_disable デフォルト値0を1に変えてみたらどうだろう。 他にも設定できる箇所は沢山あるけど、個人的には簡単に動く印象は無いな。
599 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/27(木) 11:25:05 ] そうなのかぁ. amd64でメモリ4GB オーバー当り前,とかが実質の前提なのかな?
600 名前:598 mailto:sage [2008/03/27(木) 11:52:53 ] 簡単に動く印象は無いと書いたけど、 zfsをマウントしてFreeBSD使うだけなら、そう苦労は無いね。 他と絡めてなにかすると、簡単にボロが出る。といった方が正しかった。 細かい仕様まで追ってないので外してるかも知れないけど、 >>597 のケースは、zfsがキャッシュ(即ちメモリ)を開放するタイミングの問題だと思う。 zfsに食わせるメモリを超えるサイズのファイル(zfsのパリティ込み)を他のシステム(ここではsamba)から渡すと、 最大でファイルサイズの倍以上メモリが必要だと思う。
601 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/27(木) 12:31:52 ] 512Mじゃ足りないのか。 安心して使えるメモリ量がわからないことには、ファイルサーバには使えないな。 本家であるSolarisのZFSも同じ挙動するのかなぁ。
602 名前:名無しさん@お腹いっぱい。 [2008/03/27(木) 13:22:26 ] どちらにせよ今のところFreeBSDではZFSでSambaはうまくいかないぽい。 unix.derkeiler.com/Mailing-Lists/FreeBSD/current/2007-08/msg00601.html 自分の経験では、ZFSなSamba公開dirにWinXPからちょっと多目のファイル(1000個とか) の入ったフォルダをコピーすると、コピー先でファイルの数がおかしくなったり そのフォルダが1回で消せなくなったりした。 FreeBSDに加え、Solaris、LinuxのZFS-FUSE、3つともメモリ256MB割り当てのVMwareで試したが Solaris、LinuxのZFS-FUSEは問題起きなかった。
603 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/27(木) 13:28:29 ] >>597 i386の項目も見るんだ options KVA_PAGES=512 としてから再コンパイルが必要。 vm.kmem_size は 1 GB にしないとダメとあるね。