[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 2ch.scのread.cgiへ]
Update time : 07/23 09:49 / Filesize : 180 KB / Number-of Response : 770
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

OpenSolaris/Illumos (OpenIndiana, etc.) 6



1 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/05/19(土) 16:18:42.91 .net]
OpenSolaris/Illumos プロジェクト、派生ディストリビューション総合スレ
Sun/Oracle からリリースされる本家「Solaris」に関しては専スレでお願いします

前スレ:OpenSolaris/Illumos (OpenIndiana, etc.) 5
toro.2ch.net/test/read.cgi/unix/1285876800/

OpenSolaris 公式サイト opensolaris.org/
Illumos 公式サイト illumos.org/

Genunix(OpenSolaris コミュニティ/ミラーサイト) genunix.org/

[ディストリビューション一覧]
・ OpenIndiana openindiana.org/
    (OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Nexenta OS nexenta.org/
    (Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせ)
・ StormOS stormos.org/
    (Nexenta ベースのデスクトップ向けディストリビューション)
・ AuroraUX auroraux.org/
    (通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris jaris.jp/
    (日本発のプロジェクト)
・ Belenix belenix.org/
・ SchilliX schillix.berlios.de/
・ MilaX milax.org/
・ etc.

488 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/14(土) 09:43:55.45 .net]
Dedupの効率?みたいな物の比較ってある?
確かにZFSでDedupしても予想の半分程度しか減らないことがある
Compressと併用すると効率が悪くなったりしないよね

489 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/14(土) 17:36:55.37 .net]
dedupは思ったほど効果なかったなぁ
そのデメリットがあまりにひどすぎて使うのやめたが
gzip圧縮の方がかなり効く

そもそもdedupがそんなに必要となる状況ってどんなのがあるんだろう?
バックアップで各世代をそのまま保存しつつ、変更がないから同じファイルが
いくつも存在するといった場合なら、そもそもsnapshotバックアップでいいし

490 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/14(土) 20:40:55.24 .net]
仮想マシンのイメージファイル置き場がメジャーじゃね
ひな形vmをコピーする際にzfs cloneすればいいんだが、実際は丸コピした方が楽な場合が多くw
(ファイル単位でclone出来るようにはならんのか?)

491 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/14(土) 20:50:36.07 .net]
マジレスすると、メールアーカイブで添付ファイルとかに効くと思う

492 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/14(土) 22:28:48.23 .net]
添付ファイル単位で単離されてるならそりゃ効くだろうけども
メル鯖によってはbase64encされた状態でtextの間に挟まってないかそれ? dedup効くのかね

493 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/14(土) 22:42:06.40 .net]
>>490
cloneはファイルシステムを分けて使う場合は便利だけど、
逆にそれが不便になる場合もあるからねぇ

さくらでZFSストレージをVPSのファイルサーバに使って大失敗してたけど
あれどんなシステムでどんな失敗だったんだろうな

494 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/14(土) 23:55:38.85 .net]
上で上がってたような特定用途の領域を必要なだけFSとして切り出してdedupかけるのが
(メモリ的にも現実的な)本来の用途なわけで、数TB、数十TBのプール全体にdedupかけて、なんてのはアホの極みでしかないな。
1GBくらいのディスクイメージcpして使用領域増えてないわーい、みたいなブログ記事たまに見るけどそんなこと言ってもねぇ・・・

495 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/15(日) 01:01:29.62 .net]
さくらの場合はnfsで使っていて1000台ぐらいで性能が頭打ちに
なったとかどっかで見た気がする。
そもそもnfsを使うのが筋が悪かった。

496 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/15(日) 01:33:43.51 .net]
特定用途のvm置き場にdedupかけたけど効果はさっぱりだったな。ブロックサイズ固定まではしてみなかったが
さくらはzfsでdedupかけてたのかな?
どちらにせよzfs自体が大規模トラフィックに向いてない気がするな。nfsは構造上小規模向けだろうに
GlusterFSやらの分散型でスケールアウト狙った方が



497 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/15(日) 01:38:34.13 .net]
NFSはそもそも共有して意味があるんであって
クライアントが別々にのファイルにアクセスするなら
NFSする意味がないからな
iSCSIの方が良かったんじゃないのかと

cloneで同じ設定のVMを作り出すのは便利だからそこだけうまくやってればねぇ

498 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/15(日) 09:54:37.02 .net]
共有してるからvMotionできる
iSCSIよりずっと手軽で管理しやすい

499 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/15(日) 10:44:40.53 .net]
それは微妙にzfsとは違う方向から異論が出そうだが、
iscsiの使い勝手が悪い件については賛成。
そりゃnfsでファイル見えてりゃ規模が大きくなればなるほど管理が圧倒的に楽になる。
ただzfsでサブディレクトリ作ってもクライアントから追加でマウントしないと共有が見えない。
Linuxのnfsdで出来てるんだから何とかしろよ絶対便利だろそれorz

500 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/15(日) 11:04:15.45 .net]
サブディレクトリ???

501 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/15(日) 17:33:27.78 .net]
ファイルシステムのことかな?
そりゃ別だからmountしないと見えない

502 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/15(日) 20:47:49.35 .net]
ああ、zfs createで作られるマウントポイントってなんつーの?
zfs create pool/zfs1
zfs create pool/zfs1/zfs2
zfs create pool/zfs1/zfs2/zfs3
みたく階層化たりとか。
Linux系はpool/zfs1をnfs共有しとくとその下に増やしても自動で見えるイメージ
inodeとか誤魔化せば出来るんじゃねーかやってくれよっていう

503 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/15(日) 22:41:29.91 .net]
>>502
ふっ、貴様はまだbtrfsを知らないようだな・・・

504 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/15(日) 22:48:48.99 .net]
>>502
ZFS用語的にはtype=fliesystemかな? datasetでもいいか

ハードリンクできないから下手なことしたら混乱しそうだけどな

505 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/16(月) 00:20:56.53 .net]
階層化たり???

506 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/16(月) 00:29:12.62 .net]
btrfsってこれのことですかーっ >_<
ttp://togetter.com/li/513383

>>504
おお、あれfilesystemっていうのか。>>502みたく階層化して使う場合ってどう表現すればいいんだろ
「filesystemの中にfilesystemをマウントする」とかか。これだと通じるかどうか微妙なラインだが



507 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/16(月) 00:34:52.91 .net]
>>506
filesytem単位にmountpointは設定できるからなぁ
defaultでは自動でそのまま階層化されるけどね

508 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/16(月) 15:28:03.50 .net]
ZFSの階層構造はプロパティとかの管理上便利ってだけでファイルシステムとしては独立してるんだから
運用上はext4とかの領域作りまくって色んなフォルダにマウントしてるのと変わらん。
>>507の言うようにdefaultだとZFS上の階層構造そのままの位置にマウントするからフォルダ的に扱える気がするだけだな。

dedupを実際に活用できてる現場ってどれくらいあるのかね?
それなりに大きいストレージだと個人レベルじゃ用意できない量のメモリを必要とするし、
それだけのメモリを用意できるストレージだとストレージ自体ももっと大規模で結局メモリ足りないんじゃ?と思ってしまう。
メモリー積んでdedupかけるより、dedupで削減できる容量分のHDD追加した方がコスト的にマシなケースしか浮かんでこない。

509 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/16(月) 16:13:29.19 .net]
zfs on Linuxの環境だが既存fsの下層に新規fs作ったらESXi側から見えたよ
エクスポートの設定の問題か

そしてアンマウントできなくなっちまったが

510 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/16(月) 16:59:21.54 .net]
>>509 499あたりが書いてるが
Linuxでは可能. vm単位でfs作ってcloneしたら即アクセスできる
Solarisではfs作る度にクライアント側でマウントしないと使えない

511 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/16(月) 17:28:53.06 .net]
誠に失礼した

512 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/16(月) 23:26:31.49 .net]
NFSv4 mirror mount ってのがあるんですって。
docs.oracle.com/cd/E19120-01/open.solaris/817-2271/gfwqw/index.html
図は
Oracle Solaris 11 ZFSを使ってみよう(概要・設計ガイド) - 富士通
jp.fujitsu.com/platform/server/sparc/technical/document/pdf/00_ZFS.pdf
のページ40に。この、富士通のzfs文書シリーズ、良いですね。

513 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/17(火) 00:28:29.14 .net]
ESXiは5.5になってもNFSv4はまだ使えないですかそうですか

514 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/17(火) 13:19:40.89 .net]
zfs on linux以外は糞ということですねそうですね

515 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/17(火) 15:09:43.09 .net]
ZFS使おうとして Linux選ぶやつなんか、いるの?

516 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/17(火) 21:36:45.50 .net]
>>508
Linux LVM的に言えば
ZPOOL=VG
ZFS filesystem=LV
みたいなもんだからな
別々のLVだからmountも別

NFSクライアント側でハードリンクしたらどうなるかちょっと気になってきた



517 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/21(土) 16:56:55.29 .net]
>>515
そらzfs on Linuxが安定したら乗り換える人多いだろうよ

518 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/21(土) 21:18:52.91 .net]
ZFS使うためだけにOpenIndianaやFreeBSD選んでる人が結構いそうだからな。
元々がLinux使いならそりゃZFSもLinuxで使えた方が嬉しいだろう。

このスレも9割くらいZFSスレになってるけど、Solaris系で使ってる人半分もいなかったりしてw

519 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/21(土) 23:22:13.32 .net]
Linuxが使いやすいとは全く思わないが、使えるデバイスの多さ(ドライバの充実度)が
半端ないからなぁ

520 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/22(日) 00:28:18.14 .net]
数は力だよ、アニキ。

521 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/22(日) 10:46:04.53 .net]
>>517
すでにかなり安定してるし、0.6.1以降は安定版扱いだよ

522 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/22(日) 11:45:00.62 .net]
自称安定版か。
これまでどれほど自称に騙されてきた事か・・・
もう誰も信じない、俺が信じるのはサポート契約だけだ!(死亡フラグ)。

523 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/23(月) 00:03:48.30 .net]
Btrfsは非常に安定した安心なファイルシステムです

524 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/23(月) 01:23:40.18 .net]
>>523
たしかに、いつまで経ってもちゃんとしたものが出てこないという
意味では安定しまくっている。

ってか、raid5/6程度の実装に何年かかってるんだろうね。
zfsが発表の翌年にはほぼ実用になってたのが異常に早いのかも知れないが。

525 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/23(月) 03:16:53.76 .net]
ZFSはオーパーツだからしょうがない。

526 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/24(火) 21:11:41.15 .net]
>>524
>>523はレス内容そのままのネタツイートが由来だぞw
ググると安定・安心っぷりがわかる



527 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/24(火) 21:25:04.24 .net]
togetter.com/li/513383
これか。
こんなネタ知らんわ。

528 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/26(木) 21:15:11.55 .net]
>>517
安定しそうにもないから >515 なんだが..w
# Linuxに ZFSを安定に稼働させられるわけがない、という..

>>521
そんなバカなww

>>524
深い泥田に柱は、結局立たないんだよ。
JFSや XFSで実証済みなので鉄板です。
本家の人達が来て大量に地盤改良剤を注入しましたがダメでしたw
途中で意味不明のヨコヤリまで入る始末。議論はケンカ腰でやるもんだそうです(爆笑)

529 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/26(木) 21:23:13.40 .net]
>>528
>そんなバカなww
ttps://groups.google.com/a/zfsonlinux.org/forum/#!topic/zfs-announce/ZXADhyOwFfA
>Today the ZFS on Linux project reached an important milestone with the official 0.6.1 release!
>Over two years of use by real users has convinced us ZoL is ready for wide scale deployment
>on everything from desktops to super computers.

530 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/27(金) 02:54:42.32 .net]
nfsの利便性とドライバ充実度のメリットがでかいなぁ

531 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/27(金) 04:47:54.08 .net]
LinuxのNFSは正直あまり使いたくない

532 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/27(金) 08:52:06.33 .net]
NFSv4はFreeBSDの方が結構バギーだったんじゃない? 今は知らないけど。
あと2000年代前半でzero copy化されてパフォーマンスはその時
かなり上がったよ。

533 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/28(土) 13:46:51.29 .net]
本家Solarisでさえ、デフォルトのファイルシステムに採用するのに5年以上かかったのに。

534 名前:名無しさん@お腹いっぱい。 mailto:sage [2013/12/29(日) 15:42:42.87 .net]
>>532
NFSの版とか zero copy入ってるかどうかとかそんな次元の話してるようじゃ
どーしよーもなくてさww

535 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/23(木) 22:02:52.18 .net]
ZFSの質問です
2TBのmirrorのpoolにファイルシステムを置いてますが、これが残り23GBくらいになったところで
急激に遅くなってきました

ハード的に強化するとしたら、メモリ?HDD追加?
どちらでしょうか

536 名前:名無しさん@お腹いっぱい。 [2014/01/23(木) 22:34:23.55 .net]
>>535
ZFSは使用量80%未満で使う事が、大前提。これは、メーカーも言っていること。
ZFSはpoolの空き容量が20%切ったところで、遅くなり出す。
10%切ったら、遅くなるだけじゃなく、色々弊害出だして、危機的状況。

大至急HDDの追加、現状poolからのデータ退避をすすめる。



537 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/23(木) 22:53:13.01 .net]
今のmirror vdev1つなプールにもう1セットmirrorを追加すれば。
急場はしのげそうですね。
使用量・負荷の均衡が取れるのははるか先でしょうから、
少しずつでも、外へ退避してから書き戻し、していくといいと思います。

538 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/24(金) 01:19:35.47 .net]
ttp://ftp-admin.blogspot.jp/2013/12/zfs.html
ftp-adminの人も同じこと書いてるね.

539 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/24(金) 19:06:00.90 .net]
空き容量が残り20%を切ったら、コピーオンライトというのを切ればいいのか
ふむふむ...

540 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/24(金) 21:20:36.42 .net]
アッ

541 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/25(土) 18:22:04.86 .net]
それを すてるなんてとんでもない!

542 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/26(日) 08:00:38.44 .net]
スレ違いだったら申し訳ありません

今までSolarisをまともに使ったことがないので
一から勉強したいのですが、そういった目的の場合
SolarisとOpenSolarisはどちらが向いているでしようか
他OSの経験は公私双方でWindows、RHELあたりを
主に扱ったことがあります

543 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/26(日) 09:22:26.69 .net]
犬厨ってのは、なんでクソつまらんコピペをばらまこうとか思えるんだろう?
とっとと精神科なりに入院すればいいのに

544 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/26(日) 10:21:22.99 .net]
>>542
コピペ改変
toro.2ch.net/test/read.cgi/unix/1380865524/728

545 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/26(日) 15:06:54.60 .net]
ダミーの dataset 作って、そこに reservation でも設定すれば
空き容量食い尽くすってのは未然に防げるのかな。

546 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/26(日) 15:38:56.59 .net]
親FS(pool直下、同名)にrefreservation



547 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/26(日) 19:49:03.06 .net]
空き容量なくなってきたら古いsnapshot消して凌いでたわ

548 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/26(日) 21:40:59.90 .net]
1分毎のホームディレクトリスナップショットで、
ゴミ箱要らず

気兼ねなくrmできるようになりました...となるのかな?

549 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/26(日) 22:17:10.31 .net]
timesliderが15分毎にスナップショット取ってくれるので
時には助かるけど、ゴミ箱も手に入るなら欲しい。
ZFSのsharesmbには無いから、Sambaに浮気したり。

550 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/27(月) 16:16:07.98 .net]
>>548
rm対策より上書き対策で助かるけどね

551 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/27(月) 21:45:17.94 .net]
zfsにnfsやsmbや統合されてるのはいいんだけど他のと併用する場合にどの程度競合するのか分からなくて怖い
sambaやglusterfsなんかで別途shareした場合安定動作するのか?というのが怖くてzfs内蔵のを使い続けてる

552 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/27(月) 23:14:02.28 .net]
同じポート使うから、sambaと共存は無理じゃないの?

553 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/30(木) 19:26:57.63 .net]
nfsはOKということ??

554 名前:名無しさん@お腹いっぱい。 [2014/01/30(木) 19:55:55.29 .net]
レイヤー違うもんをごちゃ混ぜに考えてんのか?
何が分からんのかが、分からん

555 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/30(木) 21:15:20.89 .net]
今ふと思ったんだけど、raidzでzvol作って、そこで、FAT32やext2みたいな軽量なファイルシステム置けば、
信頼性と高速性を両立できるんじゃないかな?

556 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/30(木) 21:21:51.18 .net]
物理的な障害はともかく、ファイルシステムぶっ壊れるのに変わりない気がするがな



557 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/30(木) 22:02:21.76 .net]
>>555
ZFSはZFS上の整合性しか取ってくれないが、それで良いか?
ZVOL上のデータなんて、考えてくれないぞ?
つか、ZOVL上でいくら軽いFS動かそうが、下でZFS動いてたら一緒じゃ?
直接ZFS扱えるんなら、ZFSそのまま使えば良いんじゃ無いの・・・
無駄にアホなことやってるようにしか見えん。。。

よく言われることだが、ZFSはハードをけちる為の物じゃないから、
パフォーマンスほしけりゃ、それだけ金かけろって事。

558 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/31(金) 22:42:29.96 .net]
OIでglusterfsなんで動くの?

559 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/01/31(金) 23:09:02.57 .net]
>>558
ソースからコンパイルして、動かしてる人はいるぽいよ。

560 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/01(土) 13:30:48.01 .net]
compression on + dedup on の500Gを zfs destroy かけた。
コマンドは async_destroyのおかげで即終了。
けど zfs set sharesmb=name= とかいじってたら
NFSクライアントからサーバごと見えなくなり、焦って電源サイクル。
mounting ZFS: 1/nn とか出たまま固まる。
ようやくログインできても動きが怪しい。
その後30分ぐらい iostat で svc_t が5桁台を示してたけど
zpool get の freeing が 0 になったら、完全に回復した。
教訓。大容量destroyはサービス停止時に。asyncに頼らない。

561 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/01(土) 13:36:45.98 .net]
compression=lz4は、良いですね。

562 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/01(土) 14:39:39.74 .net]
>>545>>546
80%(か90%)の容量でquotaかければいいんじゃないの?

563 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/01(土) 15:35:03.47 .net]
>>559
nfsとzfsが競合しないのかそれ

564 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/01(土) 15:57:14.97 .net]
>>560
dedupは削除の時に激重になるんだよね
snapshot作ってる時はrmではわからないが
snapshot destroy や zfs destroyで発動する

565 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/01(土) 20:23:45.94 .net]
>>562
1. ファイル入れる FS に quota
2. ファイル入れない FS に (ref)reservation

どっちでも目的は達せられる。
ただ、ファイル入れる FS の quota は
別の目的で設定したいこともあるだろうから、
ファイル入れない FS の設定で対応した方が
融通は利きやすいだろう。

566 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/01(土) 20:59:27.92 .net]
>>563
NFS共有してない、SMB専用の場所いじってました。

先人の言や、自分でも試してみて、やっぱり
dedup=offに戻すと決めての過程なので、いいんですけどね。
すんごい遅い、途中で再起動しちゃうとより一層遅い。聞いてた通りでした。



567 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/01(土) 21:55:41.05 .net]
>>566
zfs自体には本体の冗長性がないからglusterfsでレプリカすればかなり良いのではという思いつきなんだが
いろいろ難しそうだな

568 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/01(土) 22:02:07.90 .net]
「本体の冗長性」ってなに?

569 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/01(土) 22:39:54.91 .net]
サーバ1台丸ごと死んだ場合の可用性

570 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/02(日) 14:57:02.79 .net]
サーバ丸ごと死んだら、さすがのZFSでも、どうにもならんだろ

571 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/02(日) 15:09:08.41 .net]
ちょっとは話の流れ読めよw

572 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/03(月) 23:34:23.98 .net]
ブートドライブをzfs mirror化するお話を巷で散見しますが、
ふとMBRやgrubもmirror・raidz化できるのかな?なんて思ったりしました

573 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/03(月) 23:39:27.44 .net]
ttp://docs.oracle.com/cd/E23824_01/html/E24456/storage-4.html
The root pool must be created as a mirrored configuration or as a single-disk configuration. A RAID-Z or a striped configuration is not supported.

ttp://docs.oracle.com/cd/E19253-01/819-5461/ggtia/index.html
Booting From an Alternate Disk in a Mirrored ZFS Root Pool
x86# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c0t1d0s0

574 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/15(土) 20:31:04.34 .net]
ZFSのミラーってセクタ位置まで同一にする保証ってあったっけ?
あるならMBRに使っても問題ないだろうけど、疑問。

575 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/15(土) 20:52:24.69 .net]
MBRがファイルシステムに含まれるかどうか、考えれば分かるんじゃね?

576 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/16(日) 23:06:44.42 .net]
たしかZFSのブート領域はセクタミラーを保証してた筈。
先頭から512byteまでかな
だけど、BIOSがZFSを理解出来なきゃいけないので、
パソコンでマルチブートするのは難易度高いかと



577 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/17(月) 19:21:00.41 .net]
両方のディスクにブート情報書き込まないと起動しなかったような。

578 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/18(火) 22:43:15.48 .net]
> だけど、BIOSがZFSを理解出来なきゃいけないので、
ご冗談を。

579 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/02/25(火) 13:26:40.63 .net]
6TB HDD対応してます?

580 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/03/05(水) 23:09:19.00 .net]
OpenIndianaのcifs serverでファイルサーバやってるんですが、このcifs serverって、
samba serverやWindows のファイル共有と違う動作するものなんですかね?
AndroidのES Files explorerやGhost Commanderで接続できないのが
不思議です

581 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/03/06(木) 13:34:35.48 .net]
Sambaの開発方面によると、SMBや CIFSというのは MSの OSによってアホほど
違って、なにもかも実装するのはとてもムリだそうなので、当然違いはあると思うよ。
Sunの時に開発した人達は今でも近いところにいるのかなぁ..

582 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/03/07(金) 22:12:41.98 .net]
そうですか
oi付属のcifs serverよりも、Sambaに入れ替えた方が筋が良いのかな...

583 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/03/08(土) 00:17:19.94 .net]
>>582
カーネルモジュールであるゆえの絶対性能を取るか互換性を取るかのトレードオフだと思う

584 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/03/08(土) 01:20:18.75 .net]
cifsはmsがライセンスしないといろいろ正しい実装ができないようで、
sambaはそれゆえに互換性の問題で、頭を悩ませてきた

solarisのcifsは、msからライセンスを受けてるものかもしれない。

ちなみに、sambaみたいにNTFSのACLを強引にUnix permissionにするのではくて、
zfs aclにそのまま入るので、互換性はたかいはず。
問題はillumosが、fork後にどこまで追いかけてるかだな。

585 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/03/08(土) 02:47:18.49 .net]
ファイルサーバでSolaris 11使ってるけど、
ES Files explorerから問題なく使用できてるよ。

586 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/03/13(木) 19:09:40.07 .net]
>>585
それはoiを捨てろという託宣ですかね



587 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/03/30(日) 08:49:19.76 .net]
初歩質問ですみません、oiのCUIとGUIの切り替えってどうやってやればいいのでしょうか?

588 名前:名無しさん@お腹いっぱい。 mailto:sage [2014/03/30(日) 10:04:44.25 .net]
CUI: svcadm disable gdm
GUI: svcadm enable gdm






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<180KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef