OpenSolaris/Illumos (OpenIndiana, etc.) 5 at UNIX
[2ch|▼Menu]
[前50を表示]
650:名無しさん@お腹いっぱい。
11/10/13 01:43:54.77
>>647
同時に壊れる確率が高いとどうなるのかね?
チェックサムやECCに頼れるのは、その冗長で回復できる範囲に限られる。

651:やんやん ◆yanyan72E.
11/10/13 14:17:55.64
USBストレージの欠点は
パフォーマンスについての信頼性が著しく低いことで、
壊れやすいことではないと思うんだが。。。

ZFSはそれなりにパフォーマンスが保証されたデバイスで
使う前提で設計されているだろうから、その前提が崩れた時に
どうなるのか分からないというのが、論点なのではないの?

652:名無しさん@お腹いっぱい。
11/10/13 15:15:49.36
>ZFSはそれなりにパフォーマンスが保証されたデバイスで使う前提で設計されているだろうから
そうなのかな?15krpmの高価・高速なSASドライブじゃなくて安価・(比較的)低速なSATAでも高信頼性・高性能を実現するぜってコンセプトのような。
もちろんSATAドライブ使うのとUSB外付けにするのはまったく別次元の話だが・・・
絶対的な速度の問題じゃなく、「パフォーマンスについての信頼性」(安定性?)でUSBってSATAに対してどれくらい劣ってるんだろうか。

653:名無しさん@お腹いっぱい。
11/10/13 17:55:54.06
>>601
>> OpenSolaris 2009.06で追加ドライバー入れるのが正解?

IBMの x3650 M3て 2Uサーバーで使ってるんだけど、時計が狂う。
すごい勢いで進む場合と、1秒時計が進むのに 5秒くらいかかったりもする。

pkg image-updateやって snv_111bから snv_133にしたら SMBIOSんとこで
panicって上がらなくなるんだけど、その後元の snv_111bで上げて
使ってたらしばらくは時計が狂わなかった。

今は起動後狂うんだけど、touch /reconfigureしてリブートすると
なぜか直る。電源断後、起動ではダメ。

使われてるドライバーが違うとか、なんか確認する方法ある?
UEFIのせい?

654:名無しさん@お腹いっぱい。
11/10/15 00:27:07.02
>>652
USBはSATAに比べ、接続が途切れたり、ストールしやすいということだろう。

655:名無しさん@お腹いっぱい。
11/10/15 15:56:14.05
その話はUSB 2.0までと3.0でまた変わるような

656:名無しさん@お腹いっぱい。
11/10/15 15:58:47.70
OSの(たぶんWinよりはかなり)エラー時の対応が充実していないUSB&ストレージクラスドライバを、
デバイス(ドライバ)障害時の動作検証が(たぶんNTFSよりはかなり)為されてないZFSで使う場合に、
どの程度の総合信頼性になるのかってとこだよな。
USB接続デバイスに1000以上のqueueつっこんで応答無くなった場合には何秒待つの?とか、
どういうエラーモードならデバイスにリセット送ってやり直すの?とか検証以前に誰も使ってねぇし安定するわけがない

657:名無しさん@お腹いっぱい。
11/10/15 16:25:29.20
はいはいワロスワロス

>誰も使ってねぇし安定するわけがない

誰も使ってないのに、安定しないのは分かるわけですね。エスパーさんすごいですね

658:名無しさん@お腹いっぱい。
11/10/15 19:00:22.94
誰も使ってないのに安定してるのか。すごいなー(棒)

659:名無しさん@お腹いっぱい。
11/10/15 20:13:28.63
USBハードディスクにoi151aをインストールしようと思ってますが、
できます?
ちなみにoi151ではinit 5シャットダウンがうまく走らず、PCの電源が落ちませんでした。

660:名無しさん@お腹いっぱい。
11/10/15 20:55:57.08
>>659
oi_148bではできたし、できると思う。oi_151aにアップデートしても問題なく動作してる。
シャットダウンもできる。

661:名無しさん@お腹いっぱい。
11/10/17 08:52:23.67
URLリンク(www.yomiuri.co.jp)
円周率10兆桁!会社員が計算…世界記録更新
「昨年10月10日からは、新たにハードディスクの記憶容量を
一般パソコンの約50台分の48TB(テラバイト)に増強して
10兆桁への挑戦を開始。たびたびハードディスクが故障し、
計算できなくなる日が計180日もあったが、その期間も含め、約1年かけて大記録を達成した。」

とあるが、ZFSで簡単にRAIDZとか組んでいたらもっと短縮できたか?

ファイルシステムだけでなくて、CPU、GPUがエラー起こしてないか、
ECCつかってるのかとか突っ込みどころ満載だが、つぎに20兆ケタまで
挑戦して10兆ケタまで同じならとりあえず10兆桁までは正しいと思うしかないか。
(東大の金田氏がやっているように、べつの計算方法で検証しているのだろうが、
そこまで新聞記事でも書いてほしいもんだ。)


662:名無しさん@お腹いっぱい。
11/10/17 12:26:36.56
ついったーでやれ

663:名無しさん@お腹いっぱい。
11/10/17 18:16:20.89
>一般パソコンの約50台分の48TB(テラバイト)に増強して

えーと、うちのHDDが今ん所 37TBだから、一般パソコンの1.3台分かな。



664:名無しさん@お腹いっぱい。
11/10/17 21:28:57.32
>>663
エロ動画ばかり貯めてるんじゃないよ。

665:名無しさん@お腹いっぱい。
11/10/17 22:52:39.19
>>663
それが逸般パソコンだって事を認識しようぜ

666:名無しさん@お腹いっぱい。
11/10/18 01:50:59.91
>>664
エロ動画で37TB埋められるやつはむしろ尊敬するわ

667:名無しさん@お腹いっぱい。
11/10/18 05:20:18.82
ZFSスレがあるなら、そこでいい話題が多いな。

668:名無しさん@お腹いっぱい。
11/10/18 06:28:53.72
昔はあったけどいつの間にか無くなったな
強いて言えばこことか
スレリンク(linux板)

厳密に分けるほどどっちも盛り上がってないし構わんと思うけど

669:名無しさん@お腹いっぱい。
11/10/18 08:23:47.44
今だとZFS動くのはSolaris系、Nexenta、FreeNAS系、Linuxで強引に動かす系とかか?
有ってもいいかもな>ZFS総合スレ

670:名無しさん@お腹いっぱい。
11/10/18 11:31:59.13
ZFSの今の認知度ならスレ立ててすぐに寂れるってことは無いだろうし
情報が集約されてたほうが個人的にもありがたいな

先日ZFS Day 2011.10も開催されたところだし、需要は多いだろうね

671:名無しさん@お腹いっぱい。
11/10/18 14:38:49.58
Linuxで強引に動かす系にも手を出してる自分(とFUSE使いの人たち)からするとUnix板でいいのか悩むところではある。
Unix板でLinux使う話はNGなんだっけ?じゃなければUnix板でいいと思うけど>ZFSスレ
ただZFSネタを別スレにするとここが著しく過疎る気がw

672:名無しさん@お腹いっぱい。
11/10/21 21:36:22.34
それは言えるw
でも過疎ってもこの板だからそうそう落ちないからいいんじゃないか。

ZFSで独立したスレは需要あると思う。
zfs-discussも平気でFreeBSDでの話とか出てくるしねえ。

673:名無しさん@お腹いっぱい。
11/10/22 01:02:24.01
とりあえず立ったら使わせてもらうよ

674:名無しさん@お腹いっぱい。
11/10/22 09:55:36.11
ところで、linuxのZFSはどういう経緯で実装可になったの?

675:名無しさん@お腹いっぱい。
11/10/22 10:42:44.21
FUSE使ったりネイティブ版を自分でビルドして組み込むことのどこに問題が?

676:名無しさん@お腹いっぱい。
11/10/22 10:48:57.90
カーネルモジュール作成用のソース配布するから自分でビルドして使ってねっていう形態で
公式のLinuxカーネルに取り込まれることはないよ。
GPLのシンボル全部外してLinux用のカーネルモジュール作るのは大変そうだけど。

677:名無しさん@お腹いっぱい。
11/10/23 00:37:07.89
>>674
ライセンスはどうあれOSSなんだからいじったソース公開するのは自由よね、という形態。
というわけでソースは配ってるけどどっかのディストリに含まれることは多分無い。
まぁUbuntu向けppaとか公開されててボタン一発で入れられちゃう状態だけどw

678:名無しさん@お腹いっぱい。
11/10/23 01:21:53.58
Linuxでも、ZFS rootイケるの?

679:名無しさん@お腹いっぱい。
11/10/23 18:27:58.48
Solarisなら、ZFS rootも問題ない。

680:名無しさん@お腹いっぱい。
11/10/27 21:36:46.58
            ∩_ 
           〈〈〈 ヽ
          〈⊃  }
   ∩___∩  |   |
   | ノ      ヽ !   !
  /  ●   ● |  /
  |    ( _●_)  ミ/ こいつ最高にアホ
 彡、   |∪|  /
/ __  ヽノ /
(___)   /

681:名無しさん@お腹いっぱい。
11/10/27 22:01:20.92
>>679-680
どっちもクソつまんない

682:名無しさん@お腹いっぱい。
11/10/31 13:43:35.17
いいや。クソつまる。

683:名無しさん@お腹いっぱい。
11/10/31 16:16:51.14
ZFSの話題もHDD価格高騰とともに消え去ったか。

684:名無しさん@お腹いっぱい。
11/10/31 22:53:39.93
>>683
年明け位から下がり始めるんじゃないかな?

685:忍法帖【Lv=9,xxxP】
11/11/01 00:31:29.76
あれ?

686:名無しさん@お腹いっぱい。
11/11/01 21:16:36.23
>>678
URLリンク(github.com)
いけなくもなくもなくもないような

687:名無しさん@お腹いっぱい。
11/11/04 19:50:59.44
>>683-684
回復まで半年かかるという噂も…

688:名無しさん@お腹いっぱい。
11/11/04 20:23:06.84
ZFS関連の操作の話題は別にここでやる必要ないから、どうでもいいかな。

まあ、春かGW頃まで復旧しないだろうね。

689:名無しさん@お腹いっぱい。
11/11/06 17:09:33.89
NexentaCore 3.0.1をインスコしようとしてるんだけど、Loading Kernelのところで
止まって先に進まない。

REIDカード外すと先に進むからこいつが悪さしてるようなんだけど、このREID
カード上に作ったアレーにインスコすることは出来ないんでしょうか?カードはLSI
です。

690:名無しさん@お腹いっぱい。
11/11/06 17:16:50.36
「REID」って何?
想像はつくけど、敢えて訊いて見る。

691:名無しさん@お腹いっぱい。
11/11/06 18:12:16.72
あ、すみません LEIDです。日本人はL/R区別苦手です。

692: 忍法帖【Lv=40,xxxPT】
11/11/06 18:15:27.71
もりあがってまいりますた!

693:名無しさん@お腹いっぱい。
11/11/06 18:15:52.13
そういう問題じゃないと思う。語源というか基本を理解してるかどうか。
つまり個人の問題。

694:名無しさん@お腹いっぱい。
11/11/06 19:31:16.11
会話でRとLの区別が苦手なのはよく知られてると思うけど、
読み書きで区別が苦手っていうのは、また斬新な意見だな。

695:名無しさん@お腹いっぱい。
11/11/06 19:52:11.28
All light LOL

日本人以前に読み書きの能力に問題があるだろう。
LEIDカードかぁ…

696:名無しさん@お腹いっぱい。
11/11/06 19:57:15.03
そのカード欲しいな
アレーってなるのか

697:名無しさん@お腹いっぱい。
11/11/07 01:40:14.64
>>691
こいつ日本人バカにし過ぎだろ…

698:名無しさん@お腹いっぱい。
11/11/07 01:49:54.89
日本人のふりをした半島の人でしょ

699:名無しさん@お腹いっぱい。
11/11/07 01:51:32.02
マジレスすると、略される前の単語を発音と一緒に覚えるようにすれば、そう言う問題は起こりにくい。

700:名無しさん@お腹いっぱい。
11/11/07 01:57:23.16
すみません、689です。
>691 が誰なのかは知りませんがREID→レイドのtypomissです。すみません。
カードはLSI(というかAMCCというか3ware)の9650SEで、これをHPのML110G6って
いうサーバに挿しています

ML110 G6
URLリンク(h50146.www5.hp.com)

9650SE
URLリンク(japan.3ware.com)

NexentaCoreのISOイメージは↓のページからダウンロードしました。
ダウンロードはWindows7 Enterprise版(64bit)にインストールしたFireFox7.0.1
で行って、それをTDKのCD-RWに焼いて使っています。CD-RWに焼く際はWindows標
準の機能を使っています。ダウンロードしたISOファイルの解凍にはlhaplusという
ツールを使いました。
URLリンク(www.nexenta.org)

キーボードとマウスはML110G6に付属してきたものではなく、SonyのPS2純正キーボ
ードとマウス(SHPH-10240)を使っています。モニタは三菱電機のDiamondcrysta
RDT261WHです。



701:名無しさん@お腹いっぱい。
11/11/07 03:27:57.72
とりあえず「RAID」で検索して、その意味から勉強し直した方が良いと思うぞ。
で、その後に URLリンク(www.oracle.com) で検索するとよろし。

702:名無しさん@お腹いっぱい。
11/11/07 03:42:34.36
>>701
適切な回答が出来ないなら黙ってようね。ウザイから。

>>700
3wareがopensilarisに対応したのはすんごい遅かった(codeset9.5.1とか)ので
標準ではドライバは入っていません。だからといってbootで固まるのはダサいと
思うけど、それはそういうものとして諦めて下さい。

703:名無しさん@お腹いっぱい。
11/11/07 04:54:45.62
うざいのが大量に涌いてるなw

エラソーに語りつつのopensilarisにもワロタが
typoを必ず盛り込んでくる>>689は芸達者すぎるw
typomissとか狙い過ぎだろおいww

704:名無しさん@お腹いっぱい。
11/11/07 08:41:53.24
さすがにこのレベルだと、入ったとしても使いこなせないから諦めた方がいい。


705:名無しさん@お腹いっぱい。
11/11/07 08:53:45.39
>>702
お前も適切な回答が出来ないなら黙ってようね。ウザイから。

706:名無しさん@お腹いっぱい。
11/11/07 09:46:29.11
>>699
そういうお前は Solarisがなんの略か意識して使ってるんだろな(OPEN Lookなき今でも)w

707:名無しさん@お腹いっぱい。
11/11/07 09:50:00.48
どうでもいい
釣られ杉

708:名無しさん@お腹いっぱい。
11/11/07 10:18:36.60
シッタカしつつOPEN LOOKをOPEN Lookと書いちゃう人ってw

709:名無しさん@お腹いっぱい。
11/11/07 10:26:46.15
あ、すみません OPEN ROOKです。日本人はL/R区別苦手です。

710:名無しさん@お腹いっぱい。
11/11/07 10:31:23.06
つまんない一発ネタ繰り返すのってサイアク〜

711:名無しさん@お腹いっぱい。
11/11/07 10:34:20.74
LEID = Legacy Equipment of Inexpensive Disks

712:名無しさん@お腹いっぱい。
11/11/07 12:41:09.27
>>711
努力は買う

713:名無しさん@お腹いっぱい。
11/11/07 15:09:03.32
中古SCSIでアレイか。なるほど。

714:名無しさん@お腹いっぱい。
11/11/07 19:27:09.74
SCA 80pinなドライブ割と持ってんだけどw SCA->SASなアダプターとか出んかね?
SCA->Firewireでもいいんだがw # 昔 50pinのやつあったけど。

715:名無しさん@お腹いっぱい。
11/11/07 19:51:16.96
中古だとあれー?なことにならないか心配

716:名無しさん@お腹いっぱい。
11/11/07 23:16:16.02
>>715
審議中(AA略

717:名無しさん@お腹いっぱい。
11/11/08 08:56:26.21
>>714
2.5SATA-3.5SCAはあったけど逆は見たことないな、あったとしても多分普通にsasドライブ買った方が安いかと、アダプターで一万位するし

718:名無しさん@お腹いっぱい。
11/11/11 23:38:22.53
solaris11が出たみたいだけど、OpenIndiana/Illumos的には何か影響とか動きはあるの?

719:名無しさん@お腹いっぱい。
11/11/12 01:20:24.40
あっちはあっち、こっちはこっち。

720:名無しさん@お腹いっぱい。
11/11/12 09:12:38.59
>>719
cddl素材とか無視するのはもったいなくね?

721:名無しさん@お腹いっぱい。
11/11/12 11:09:44.82
cddl?

722:名無しさん@お腹いっぱい。
11/11/18 18:44:37.73
winのマイドキュメントとLinuxのhome置き場に使いたいと思ってます。
アカウントはad管理してて40ユーザーぐらい。
winとLinuxどちらからも同じようにファイルアクセスしたいが、どうすればいいんでしょう?
どちらからアクセスしても同じADユーザーなら同じuidでoiに書き込まなきゃならないのは理解してるんですが。
あ、あとwinの「過去のバージョン」機能も使いたいです

723:名無しさん@お腹いっぱい。
11/11/18 19:44:48.79
solaris11 の ZFS 上で sharesmb 使えばいい

724:名無しさん@お腹いっぱい。
11/11/18 21:15:53.55
別にSol11じゃなくてOIでよくね?

krb5.confか何か書いてsharesmbすればできると思う。

そしてZFSのsnapshot取れば以前のバージョンから見えるようになる。

725:名無しさん@お腹いっぱい。
11/11/18 21:44:16.68
>>724
ZFSのsnapshotってsmbのバージョン機能にそのまま反映されるんだ…知らなかったorz

726:名無しさん@お腹いっぱい。
11/11/18 22:23:22.44
ZFSで "ゴミ箱" 機能も実現できるのかな?

727:名無しさん@お腹いっぱい。
11/11/22 20:44:48.85
我が家では、ZFSファイルサーバ兼dyndns更新サーバとして、sshポートフォワードサーバとして活躍中...
別にsolarisじゃなくてもいいか...

728:名無しさん@お腹いっぱい。
11/11/23 02:03:43.96
ほぅ、他のOSでZFSを動かしたいと申すか

729:名無しさん@お腹いっぱい。
11/11/23 08:32:55.55
comstarの論理ユニットに物理テープドライブを割り当てる方法が調べてもよく分からないのだけど
できるはずという話とパッチ当ててドライバ突っ込まないと駄目という話があって混乱してます。
結局素のままのOIでこれはできます?

730:名無しさん@お腹いっぱい。
11/11/23 20:36:40.08
素直にoiが入るサーバで、いっぱいDISKのるのでおすすめってなんだろ?
1Uか2Uくらいがいいんだけど。

いわゆるRAIDカードがなくって、素のDISKがいっぱい入るやつだと安心かなー。

HCLのような情報って今でもあるんだっけ?


731:名無しさん@お腹いっぱい。
11/11/23 23:10:05.10
URLリンク(www.oracle.com)

732:名無しさん@お腹いっぱい。
11/11/24 00:53:19.26
>>731
それを買うなら、わざわざoiでなくSoraris11を選択するだろう。


733:名無しさん@お腹いっぱい。
11/11/24 02:13:04.92
>>730
URLリンク(www.sunwaytech.co.jp)
とかで、M/Bは選び放題。

734:名無しさん@お腹いっぱい。
11/11/24 06:22:52.26
ColdFusionが吐いたエラー、中国語圏になってる(笑)

735:名無しさん@お腹いっぱい。
11/11/24 08:09:45.90
>>733
バックパネル見た限りじゃM/Bは専用品じゃないのか?

736:名無しさん@お腹いっぱい。
11/11/24 18:14:08.14
SuperMicroのUIO対応マザーボードが選び放題ってとこか

737:733
11/11/24 20:34:57.93
SuperMicroは大体同型で2種類ケースは出てるので、UIO対応じゃないのもあるよ
URLリンク(www.sunwaytech.co.jp)

738:名無しさん@お腹いっぱい。
11/11/25 05:51:53.50
>>733
このケースの向かって左側最下段にGPU入れたら熱死するかな

739:名無しさん@お腹いっぱい。
11/11/25 06:09:43.52
DL380でoiっていいかなぁ。
RAIDカードつけてDISK10個くらいzfsでみえるかなあ。

試しで買うにはちょっと高いよなぁ。

740:名無しさん@お腹いっぱい。
11/11/25 07:03:04.20
Supermicroはjaistでも使ってるね。
E16だっけ?

741:名無しさん@お腹いっぱい。
11/11/25 22:20:31.39
保守

742:名無しさん@お腹いっぱい。
11/11/26 11:56:05.66
DL380に2009.06入れようとして、SmartArray用のドライバを追加で読み込まないと
ディスクが見れなかった気がした。

ドライバが腐ってるかどうかは知らない。実用したことはないので。

743:名無しさん@お腹いっぱい。
11/11/26 16:14:57.74
SmartArrayのドライバって64bit化されてたっけ?
前に入れた事あるんだけどドライバが32bitだけしか無くて少しハマった経験がある。

744:名無しさん@お腹いっぱい。
11/11/26 20:30:45.29
これだこれだ。
URLリンク(ftp-admin.blogspot.com)

745:名無しさん@お腹いっぱい。
11/11/26 21:39:40.14
>>744
いまだったら45台入るのが出てるね。
URLリンク(www.sunwaytech.co.jp)
これだと最初の質問してた方の用途とはかけ離れちゃうけど

746:名無しさん@お腹いっぱい。
11/11/27 03:36:56.15
ZFSとRAIDカードって相性悪くなかった?

747:名無しさん@お腹いっぱい。
11/11/27 07:40:50.38
>>744-745
これおもしろいな
EMCやその他ストレージ買おうと考えてたがこんな自作ちっくなのも有りなんだな


748:名無しさん@お腹いっぱい。
11/11/27 09:59:20.80
RAID5で束ねたHDDをRAIDZでさらに束ねる至福。

749:名無しさん@お腹いっぱい。
11/11/27 10:44:53.35
>>746
相性はともかく、遅くなるってことだね
「いいから生ディスク見せろやゴルァ!」で、
パーテーション切るだけで遅くなるってどこかで読んだ

750:名無しさん@お腹いっぱい。
11/11/27 10:48:39.54
>>748
それWrite Holeがおきるんじゃないか?

751:名無しさん@お腹いっぱい。
11/11/27 14:23:19.82
>>748
お前バカだろ

752:名無しさん@お腹いっぱい。
11/11/27 15:53:37.25
ハードウェアーRAID6のアレーの上に非RAIDのZFS
これが一番現状では一番ベスト

753:名無しさん@お腹いっぱい。
11/11/27 17:39:21.33
752氏の活躍を見守りたい

754:名無しさん@お腹いっぱい。
11/11/27 21:29:42.08
一番一番だけ読んだ

755:名無しさん@お腹いっぱい。
11/11/28 21:27:07.09
素敵な748の方法を見てふと思ったんだがw
IOps稼げないraidzの件、ブロックサイズの最小を512から64kくらいに引き上げたら
WriteHoleはあるがread時の分散は為される・・・ってことはある?
そこの部分は設定できんのかな。
IOps稼ぎつつ高可用性求めてraidz2とかにしたい場合、
トンデモなドライブ数が必要になってきてかなり残念な仕様だよね>zfs


756:名無しさん@お腹いっぱい。
11/11/28 21:49:18.94
高可用性を求めるなら冗長分の比率はそう下げられないのに何言ってんだ?

757:名無しさん@お腹いっぱい。
11/11/28 22:18:05.42
高可用性というのは貧民向けではないからな

758:名無しさん@お腹いっぱい。
11/11/28 22:35:11.42
中華陽性

759:名無しさん@お腹いっぱい。
11/11/28 22:44:24.71
>>756
言ってる意味が分からんw
冗長分の比率? 台数じゃなくて?
まさかraidz2よりmirror使えとか言うんじゃないだろうな

760:名無しさん@お腹いっぱい。
11/11/29 09:27:29.30
高可用性をある程度求めるなら、それに応じた冗長分も自ずと決まるということから
冗長の比率も可用性に応じた下限が存在するということ。

冗長化の仕組みとか意味とかを勉強するといい。

761:名無しさん@お腹いっぱい。
11/11/29 15:31:44.48
高可用性求めるならRAID6かRAIDZ2、ただしRAIDZ2はIO性能悪いのでRAIDZ2-0にする必要がある。
RAID6ならそこまでしなくてもIO性能高いのでドライブ数に見合った性能がほしければZFSは糞FSとしか言いようがない


762:名無しさん@お腹いっぱい。
11/11/29 19:41:06.14
RAID-4なWAFLが何か言いたそうです……

763:名無しさん@お腹いっぱい。
11/11/29 20:18:41.81
わっふるわっふる

764:名無しさん@お腹いっぱい。
11/11/29 22:00:52.50
RAID-Z3を忘れないでください…

765:名無しさん@お腹いっぱい。
11/11/30 12:26:38.84
HDD数増やせば増やすほど性能劣化するつーのは設計上の不備だよな
ハードウェアRAID6が最強ということになってしまうので今後のZFSに期待

766:名無しさん@お腹いっぱい。
11/11/30 13:04:51.45
RAIDって性能向上の為の技術じゃないんだけどな、本来は

767:やんやん ◆yanyan72E.
11/11/30 13:43:15.47
RAID-Z*の為のハードウェアアクセラレーターってないのかしら。

768:名無しさん@お腹いっぱい。
11/11/30 18:46:19.15
どうせ何やっても最終的にはバスで律速されて終わり

769:名無しさん@お腹いっぱい。
11/11/30 19:53:38.68
だれがシーケンシャルリードの話をしろと

770:名無しさん@お腹いっぱい。
11/11/30 20:43:27.27
HDDを増やせば増やすほど故障が怖くなるのがRAID5,6なんじゃなかったっけ
どうせ単アレイに突っ込むHDD数は一定以上にはできないし比較するような話でも無いと思うんだけどなぁ

771:名無しさん@お腹いっぱい。
11/11/30 22:37:00.16
>>770
RAID5はリビルド中の高負荷でHDDが死ぬケースが少なくない

772:名無しさん@お腹いっぱい。
11/11/30 22:46:19.15
770には縁のないIOPSのおはなしかとおもわれ
ていうか増やして怖くないRAIDレベルがあるとでも

773:名無しさん@お腹いっぱい。
11/11/30 23:03:00.95
RAID1?

774:名無しさん@お腹いっぱい。
11/12/02 05:06:45.46
(RAID10じゃなくて)RAID1なら増やせば増やすほど安心だな!って誰もやらんわw

>>765
>HDD数増やせば増やすほど性能劣化する
そうなん?

775:名無しさん@お腹いっぱい。
11/12/02 14:44:47.07
大雑把にいうと、hole作らないために、例えば4台構成で3KB書くとすると
raidz:disk1〜3に1KB、disk4にパリティ書く
raid5:disk1に3KB書いてdisk2〜3から64KB読んでdisk4に64KBパリティ書く
でraidzつえーなんだけど、3KB読むには
raidz:disk1〜3から1KB読んでzfsチェックサム計算合ってたら完了
raid5:disk1から3KB読む
ということになるので、raidz構成ドライブのうち最も遅いドライブ速度に律速する。
主なるIO負荷であるところの細かいrandom readが同時に来る場合IO性能はraid5>>>raidzて感じ
zfsで速度要るなら2〜3way mirrorをストライプするしかない。容量と両立は無理。

ということだと思うけど聞きかじっただけなのでえろいひとよろ。raid5もなんか違うかも

776:名無しさん@お腹いっぱい。
11/12/02 20:18:40.38
高田純次かとおもた。

777:名無しさん@お腹いっぱい。
11/12/02 21:05:46.70
>>775
えろいひとじゃないけど、raidzはその動作であってるかと。
x10 のraidz2 pool作って運用してるけど、読込が書かれてるように全ドライブからの
読込するのでかなり遅い。x5 raidz のStripeのがよかったなーと今更ながらに後悔中。
速度がそんなに必要なpoolではないので、まだよかったんですが。

778:名無しさん@お腹いっぱい。
11/12/02 22:56:54.58
>>777
我慢できないレベル?
CPUのスペック’とかメモリどれくらいつんでるの?

うちの会社で現在ファイルサーバにするマシンスペックと
構成を決めてるんだが・・・


779:名無しさん@お腹いっぱい。
11/12/02 23:24:17.29
>>775
blogが何言ってるかよくわかんないのでもう少し説明加えてください。特に前編

780:名無しさん@お腹いっぱい。
11/12/03 05:53:37.58
>>778
スペック書いちゃうと色々アレだけど、まぁいいやw

CPU Xeon3460
M/B X8SIA-F
MEM ECC Reg 8GB x4
Net e1000g x2
IB ConnectX x1
HBA LSI 9211-8i
SAS Expander Intelのヤツ
HDD Seagete ST32000542AS 2T x 10 RAIDZ2
HDD HGST HDS5C303(CoolSpin) 3T x 5 RAIDZ
ZIL + L2ARC PX-128M2P x 1
OS NexentaCore 3.1.1

基本的にうちは、普段はSRP、サーバ仮運用中でiSCSIでzvolを切り出しして使ってるので、
ブロック単位のI/Oが多いんだけど、10台の方のRAIDZ2をBlockSize 32kで作ってる。
で、こっちはReadは60MB/sくらい。5台の方もBlockSize 32kでReadは200MB/s超える位。
10台の方は、iostat -xtC 1とかで見てると、Readが120MB/sくらいなんだけど、
zpool iostat -v pool名で確認すると60MB/sくらいで読んでます。
zilとl2arcをちょっとRAID使ってパフォーマンスの底上げしようかと画策中ですわ。

781:名無しさん@お腹いっぱい。
11/12/03 16:30:25.95
>>778
どうしてもraidz使おうって計画なの? 用途にもよるだろうけど、
CPUなんてC2D世代でいいしメモリも8G位でいいと思うが、
HDDだけは沢山詰める筐体にしてmirror+stripeで使えばいいと思うよ
よほど容量重視でない限り大きな問題点が無い万能構成。
compress onでレイテンシ気になるならCPU、dedupするならメモリ、と
あとはオプション要素でボトルネックパーツが決まってくるよ

>>780
stor free版で限界容量かー、とおもったらcoreなのか。syspoolは?
あとその系のHDDってRAIDに挿して相性どう?
時々Solaris系ドライバの腐敗具合と相まって酷いことになるものがorz
BlockSizeを変えるとどう影響するのかよかったら解説よろ
zvolの場合ってまた違う話なんだっけ??


782:名無しさん@お腹いっぱい。
11/12/03 17:02:46.26
OI148
xeon5110+MEM 8GB
lsi 8 port sas hba
raidz2(WD1002FAEX 4台)+zil(intel SSD 40GB)+l2arc(intel SSD 120GB)

# bonnie++ -d /tank01/ -n 0 -b -u root
Version 1.03c ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
ss02 16G 58970 88 118604 37 83418 31 53780 99 246847 30 3432 9
ss02,16G,58970,88,118604,37,83418,31,53780,99,246847,30,3432.2,9,,,,,,,,,,,,,

783:780
11/12/03 18:23:07.53
>>781
色々テストして行ってたら結局mirror + stripeが良いわけがよくわかりましたよ。
後々の容量拡張とかも考えたら楽だし。
大容量のzfsのストレージがmirror+stripeなのがよくわかりまわしたわ。

syspoolは書き忘れですw 普通に2.5のHDDを使ってますね。
うちはHDDが原因でこけたことはないですね。
ちなみに、RAIDCardではなくSASのHBA(mpt_sas)ですわ。
OpenSolarisじゃないけど、検証でSolaris11の環境を別で作って色々試してる
んですが、そっちだとRAIDカードのドライバ(mr_sas)が原因で止まる止まる orz
あと、止まったのってzilとかl2arcのデバイスを追加・削除したときによく刺さりましたね。
この辺は元々動作中に頻繁に追加・削除なんてしないと思うので運用中には
問題になりにくいんですが、検証中に各デバイスの有り無しのパフォーマンスチェックして
たら結構止まりました。

上記のBlockSizeはzvolのvolblocksizeの間違いです。最初は小さくすればランダムのI/O
のパフォーマンスがあがるからいっかーと思ってデフォルトの8kで作ってたんですが、上記に書いてた
ような状態になりまして、32kで作り直した直後にSRP Initiatorが死んでチェックできてないんです orz
BlockSizeは小さくすればその分ランダムの性能が上がる予定だったんですが、raidzだと>>775氏が
書いてるような状態なのでそんなことは無く、バランスの良いvolblocksizeを探してる最中です。

784:名無しさん@お腹いっぱい。
11/12/03 20:29:48.51
>>783
syspoolはstorのインストーラが全領域mirrorで確保するので困ったなとw
RAIDカードはやっぱり運試しみたいになりますかーorz 何やってもダメなRoMBのラック鯖があったり。
でもwrite cache付いてる板はzfsでも速いんで。理屈上はSSDよりも。ZIL置けますです。

recordsizeとvolblocksize(blocksize)あたりの原理と影響度知りたいんですが>>755に反応無いみたいだし
アライメントの話ばっかhitするし。recordsizeいじってたらnfs遅くなったんでよく分からんです。
blocksize=512でraidzが1block毎に分散してdiskに書いているなら、rreadは高速化されるんじゃないのかとか、
いやせめてntfsやらの4k単位で増やした方がIO減るしdiskレイテンシがマシになるんじゃとか、そもそも
blocksize=32kだとしてraidz下のdiskには32k単位で書かれるのかどうかとか、ソース嫁的FAQがみあたらない状態
で、チューン諦めてmirror+stripeにしたのが>>775
尚、HDDを部分的に交換した場合、そのdiskのwriteが遅いとraidzやmirrorがwrite完了待ちするんで、
zfsもうちょっと賢くなって欲しい

785:名無しさん@お腹いっぱい。
11/12/04 01:24:13.12
>>784
syspoolの仕様はcoreでも一緒ですねw
RAIDカードは手元のLSI 9220とAdaptec ASR-6445で試してみましたけど、後者はドライバがない為論外、
LSIの方は負荷かけるとフリーズっていう状態で・・・。あとは借り物のカードが数枚あるんでそっちも試してみる
予定ですが。ARECAのカードがoi151だとサポートされてるので試してみたいものの、個人で検証してる関係
で費用が捻出できずw 10GbEオーバーのストレージとして使おうとすると、WriteCache付きのRAIDカード使っ
て、Poolもzilもl2arcもRAIDで作る方が速いんじゃないかと思ってます。

自分もrecordsizeとvolblocksize辺りの原理と影響度はよく理解できてないですね。Solaris11でrecordsize
の最大サイズが1MBまで上がってるのは、多台数での分散書込・読込のパフォーマンスアップの為ってどっかで
見たような(記憶違いならごめんなさい)。
recordsizeはあくまでその値をなるべく使うようにってものじゃないかと。
zfsの書込が可変長ストライプなんで、nfsとかだとファイル毎に変ってる気がします。
うちでzvolへのzilの書込を見てるとrecordsize 128kだと、128kでzilへは書込いってますね。
その後poolへ書き出ししてる際に個々のDiskへどの位のblocksizeで書込してるかはiostatである程度割り
出ししてます。zilへ書かれてる内容=実際に書込む内容って前提が付きますけど。
あと、うちが遅いのはシンプロビジョニングでzvol作ってるからってのもあるかもしれず。

HDDを部分的に交換は、pool,zil,l2arc全部で同様の状態なりますね。
安全側に振ってるんでそういう挙動になってるんだと思います。
とりあえず色々実験してて思ったのはボトルネックが素直に出るファイルシステムだなーと。
zfsの王道の設定以外を行うと賢くない部分がよくでてきますなw

786:名無しさん@お腹いっぱい。
11/12/04 17:41:56.71
>>785
おー、今度情報探してみます >>Solaris11でrecordsize UP
raidドライバはdiskが死んだときにarrayごと応答が無くなるものがあって憤死しました。adaptecだったか。事前検証しづらすぎ。
l2arcですがFIFOで消えてくのはちょっと・・・バックアップでfile総舐めしたら残念なことに。もう少し賢くならんものか。

うちもiostatあたりで検討付けてますがdtrace勉強しないと細かい部分は分からないなぁと。
nfsはそこかしこに高速化用cacheが有ってそれありきで動いてるんでネックが解析しづらいです。
シンプロはどうなんでしょうね。cowでsnapshotあったりするとIO的には大した増加は無さそうではあるけど


787:名無しさん@お腹いっぱい。
11/12/05 01:12:35.90
>>786
スナップショットを取ってsecondarycacheプロパティをいじれば良いんじゃ無いかな

788:名無しさん@お腹いっぱい。
11/12/05 02:02:08.62
>>787
あ、backup時に一時的にl2arcをoffにするって感じでしょうか?
snap作ってそのl2arc(+arc)をnoneにしてbackup用にreadさせればいいわけですね。
なるほど、そこまでアクティブに弄る方法は考えてませんでした。やってみます、ありがとうございます

789:名無しさん@お腹いっぱい。
11/12/05 16:02:20.44
しかもその方法ならl2arcが無効になるのはそのスナップショット経由のアクセスだけのはずだから
他のアクセスによるライブや他のスナップショットのl2arcへの影響に干渉しない、はず?

790:名無しさん@お腹いっぱい。
11/12/05 17:12:59.73
なんかすげえなZFS

791:名無しさん@お腹いっぱい。
11/12/06 21:44:27.81
久しぶりに覗いたらなんか伸びてる。

>>775
>ということになるので、raidz構成ドライブのうち最も遅いドライブ速度に律速する。
その例では確かにそうだとわかるんだが、実際にそんなもんなのか?
3KB「だけ」読むことなんて実際は無いわけで、ランダムにしろシーケンシャルにしろ
まとまったデータ読み出すときはRAID5もZも結局全部のHDDにアクセス(=遅いドライブ速度に律速)することになると思うんだが。

なんにせよZFSで速度稼ぎたいならzilとl2arcをSSDで盛り盛りするくらいしか思いつかんけど。

792:名無しさん@お腹いっぱい。
11/12/07 00:24:12.29
>>791
RAIDカードの制御にもよるだろうけど、
ストライプサイズ64k位で組んでる場合、
64k以下のファイルを連続で読み出すとき、
複数のHDDに分かれていれば、それぞれのHDDに
オーバーラップさせてで読み出しかけられるから、
やっぱ早いんじゃ無いか?遅い奴に足は引っ張られるが。
回転待ち分を結構隠蔽出来そうな気がする。

ZFSの場合は1つ読むにも全部のHDDから読み出さなきゃ
ならんと言うことなら、確実に差は出ると思うけど。

793:名無しさん@お腹いっぱい。
11/12/07 07:50:36.03
どんなときでも全部に読みに行くのが確定しているならそれはそれで扱いやすい
RAIDのストライプサイズはそのアレイへのアクセスときっちりかみ合ってないといけないし
パターンがばらけていると全体的に速度を出すのは難しい

794:名無しさん@お腹いっぱい。
11/12/07 12:44:07.12
どんなときでも全部に読みに行くならどのように扱うと高速化するわけ?
両側から読み出して合致確認する実装のRAID1、並に高速化しそうな要素が見当たらないんだけど。
raid5で全体的に速度を出すのは難しいがraidzならできる、というなら是非その手法を教えてくれ

795:名無しさん@お腹いっぱい。
11/12/07 13:49:05.43
そのまえに>>793のいったい何処に raidzを高速化できる と書いてあったのか教えてくれ
あれは使い道ごとにプロファイリングしていじり倒すよりリソース突っ込むだけの方が楽だって話をしただけだぞ
見たい物だけ見て言いたいことだけ言うのは君の勝手だが有りもしない物を有るように言われても困る

796:名無しさん@お腹いっぱい。
11/12/07 21:35:45.78
raidz
1. れいどぜっと
2. れいどじー
3. れいづ

797:名無しさん@お腹いっぱい。
11/12/07 21:36:49.77
見えないものが見えているんだろうねw

798:名無しさん@お腹いっぱい。
11/12/07 21:39:39.37
>>796
3.はないだろう

799:名無しさん@お腹いっぱい。
11/12/07 22:54:20.20
れいど乙

800:名無しさん@お腹いっぱい。
11/12/07 23:00:42.54
>>794はなんだかわからんが>>793がいう扱いやすいというのも意味が分からんがな。
zfsはブロックサイズ可変だからその理屈ではより一層速度を出すのが難しいことになっちまうよ

801:名無しさん@お腹いっぱい。
11/12/08 08:33:54.76
RAID-Zは可変ストライプ幅でデータブロックのサイズに応じて使用するディスクの本数を変更する。
すべてのドライブに必ずアクセスするという話のソースはどこだ?

802:名無しさん@お腹いっぱい。
11/12/08 12:31:21.01
かなり昔だけど、サンの日本法人の社員が、間違った解釈でZFSの概要をプレゼンした事があったよ。
ディスクの本数じゃなくて、全部のディスクに書きこむそのデータが増減するっていう解釈で。
たぶん、それソースにしてんじゃないのかな(もっとも、その元になった外人のプレゼンでは間違ってなかったんだけど…)。
あるいは、単に勘違いしてるだけなのかもしれないけど。

803:名無しさん@お腹いっぱい。
11/12/08 12:35:07.35
むしろどういうアルゴリズムで使用するディスク本数を変更するのかソースw

804:名無しさん@お腹いっぱい。
11/12/08 12:43:44.19
>>801
ブロックサイズが512〜128kで可変であるからといってwrite hole回避できるわけじゃない
どう処理されてると思ってる?

805:名無しさん@お腹いっぱい。
11/12/08 13:13:00.60
ZFSにはWrite Hole問題は存在しないわけですが?馬鹿なの?

806:名無しさん@お腹いっぱい。
11/12/08 13:48:31.32
>>803
可変ストライプ幅に関してはZFS開発者がプレゼンだか講演だかで使った図付きのスライドがある。
たぶん>>802のプレゼンと同じ奴。

807:名無しさん@お腹いっぱい。
11/12/08 13:56:15.90
>>805
お前話について行ってないだろ・・・
write hole回避のためにzfsが取った手法を書いてみ?
結果として読み込み時どうなる?

808:名無しさん@お腹いっぱい。
11/12/08 14:18:45.67
>>804
話の流れをすっ飛ばしてるから何言っているのかさっぱり分からん。
書き込みホール問題の話なんかしてないぞ。大丈夫か?

809:名無しさん@お腹いっぱい。
11/12/08 14:30:37.22
>>801が言ってるのは(disk数-1)*512B未満の書き込み時に未使用のdiskにも書き込むかって話(たぶん)。重箱なんで伝わってないんだろ
〜512B:1diskからのreadでおk
〜1024B:2diskからのreadが必要(raid5より遅い)
〜2048B:4diskからのreadが必要(raid5よりかなり遅い)
・・・
となるので、>>793-795 ?あたりの「どんなときでも全部に読みに行く」に例外があるぞ!と言いたいんだと思れ


810:名無しさん@お腹いっぱい。
11/12/09 08:58:16.04
>>802
よほどデータが小さいかディスク台数が多くない限りそうなるんじゃ?

811:名無しさん@お腹いっぱい。
11/12/13 03:14:19.23
sharesmb=onでWindows7に公開しているフォルダがあるんですが、
Windowsからファイルを作成した場合のデフォルトのパーミッションは
どこで制御されているのでしょうか?
ちなみにworkgroupでの運用です。

812:名無しさん@お腹いっぱい。
11/12/22 20:49:58.28
Solaris11のソースコードがリークしてたけど、クローズドな部分まで入ってたみたいだがどーなるんだろうな。
OpenIndianaのML見てると見ちゃ駄目って話になってるが(そりゃ当然だが)

813: 忍法帖【Lv=40,xxxPT】
11/12/22 22:55:02.47
SunでもできなかったメインラインのSolarisの完全ソースコード公開
流石Oracle
そこにシビれるあこがれるゥ
一足早いお年玉ってことで

814:名無しさん@お腹いっぱい。
11/12/22 22:55:39.63
「お母さーん」「見ちゃいけません!」

815:名無しさん@お腹いっぱい。
11/12/22 23:19:44.25
OIで使えてるSATA増設ボードって何がある?
OI_148で使えることになってるはずの88SE9130/88SE9128/88SE9125/88SE9120を
OI_151aは認識してくれないんだけど・・・
とりあえず2port有れば良いんだけど、やっぱSil系が無難なのかなぁ。


816:名無しさん@お腹いっぱい。
11/12/23 00:06:48.97
>>815
上げてる系は全部駄目だね。
うちでも88SE9128を試したけど駄目だった。Solaris11でも駄目。
JMicronをOIだとお勧めしたような。

817:名無しさん@お腹いっぱい。
11/12/23 23:57:07.38
SASのHBA刺すのが一番早い

818:名無しさん@お腹いっぱい。
11/12/26 18:21:29.32
と言われるは分かっていたし、他に方法も無いので、
サクッとLSI SAS9211-4i を仕入れてきた。
取りあえず、IRファームのまま使おう。
問題起こったら、ITに変えるっつー方向で。

819:名無しさん@お腹いっぱい。
11/12/26 23:12:55.28
Solaris系ってなんでユーザー名8文字以下(ほぼ)強制なの?
識別子としてそれ以上文字数必要なのかって話はともかく、個人名ベースのIDだと
普通に文字数足りないと思うんだけど、どういう運用が想定されてるんですか。

820:名無しさん@お腹いっぱい。
11/12/27 00:03:17.21
バイナリ互換を破りそうな変更には保守的だから

821: 忍法帖【Lv=40,xxxPT】
11/12/27 00:16:48.89
個人名ベースのIDとか要らんやん

822:名無しさん@お腹いっぱい。
11/12/27 06:58:21.53
yamanash
fukushim
kunitach
かっこいいじゃん

823:やんやん ◆yanyan72E.
11/12/27 07:17:45.30
8文字制限はSunOS時代から変わってないだけだと。
Linuxなんかではとっくにとっぱわられた制限だけれど。

824: 忍法帖【Lv=40,xxxPT】
11/12/27 08:46:12.75
くにたっは

825:名無しさん@お腹いっぱい。
11/12/27 09:18:11.45
>>823
変わってないじゃなくて「変えていない」
LinuxはABI軽視で変えまくってたからな

826:名無しさん@お腹いっぱい。
11/12/27 12:36:28.09
ところでzfsでcopies=2とか3とかした場合のread性能って改善される?
もちろん状況に依るだろうけどIOps稼げるなら1つの手だなと。

827:名無しさん@お腹いっぱい。
11/12/27 17:30:37.46
>>826
それはたしか部分損傷対策だからコピーが別ディスクに作られることは保証されてなかった気がする。

828:名無しさん@お腹いっぱい。
11/12/27 18:20:34.98
>>827
なるべく別ディスクに書こうとする、位?
複数コピーされたデータ(mirrorやcopies)のどれを読みに行くかはどうやって決めてるんだろう
copyされたデータに主と副があってエラー時のみ副を読むのかな
mirrorにするとIOps上がるよって言われてるけどどうやって分散させてるのかよく分からない

829:名無しさん@お腹いっぱい。
11/12/27 20:47:37.03
実は /etc/default/passwd の PASSLENGTH=6 とか
sendmail のアレとか NFS のソレとか、色々色々

830:名無しさん@お腹いっぱい。
11/12/27 21:47:08.75
akihabar
monzenna
kabutoch

もういいかw

831:名無しさん@お腹いっぱい。
11/12/27 22:06:17.11
>>828
ミラーアレイを複数ストライプする方が上がるって意味や無いか?
その場合はアレイの数だけ分散されるわけだからraidzより良いはず。
まあ、その代わりに冗長性は比べられんけど。

832:名無しさん@お腹いっぱい。
11/12/27 22:49:06.67
>>831
いや、mirrorでもIOpsは上がるって見たことあるんだけど、なんか読み違えてたかなぁ?
ストライプにすればとりあえず上がるのは確かだと思う。
ミラーでも一応両方のディスクからだいたい半々で読んでるみたいだから、1Diskの時の性能とはまた異なった結果になるだろうとは思うんだけど、
どういう方法で振り分けてるのかは分からないんで、例えば10台でミラーとか作った場合(作れる?) readが分散されるのかどうかは分からない。
10台に分散して読みに行くなら何となくIOps上がるような気はするけどうどうなんだろう?

833:名無しさん@お腹いっぱい。
11/12/28 09:56:27.71
SAS の HBA とかを使って、RAID-Z を組んだ場合って、
ディスクが故障したらケースのランプが点滅したりする?

MegaRAID 9260-4i のハードウェア RAID と 9211-4i
の RAID-Z で悩んでる。

834:名無しさん@お腹いっぱい。
12/01/07 11:53:45.73
diskアクセスが多いので、dtraceで
zfs_write,zfs_read,zfs_putpage,zfs_getpageをひっかけてみたら、
/usr/lib/**/*.soあたりを中心に大量にzfs_getpageが発生していて、
不定期に50MB/s程度のdiskreadを生じているようなのですが、
そもそもzfs_getpageってどういう意味の操作になるんでしょうか?
ARCなどのキャッシュに乗らないdiskアクセスというのが謎なのですが。

835:名無しさん@お腹いっぱい。
12/01/08 21:18:34.03
KVM+ZFSが使えるOSって、今のところSmartOSくらい?

836:名無しさん@お腹いっぱい。
12/01/08 23:37:08.04
ADSLモデムでインターネットに繋げるにはどうしたらいいでしょう?

837:名無しさん@お腹いっぱい。
12/01/08 23:50:49.95
>>836
電源を入れます。

838:名無しさん@お腹いっぱい。
12/01/10 21:37:02.39
>>836
深く考えすぎずに、ADSLモデムの下にルータを繋げてその下にマシンをつけれ


とマジレスしてみた

839:名無しさん@お腹いっぱい。
12/01/11 10:17:39.09
>>834
昔ソースを読んだ通りのままなら、zfs_getpageはmmapした領域への読み込みで
呼び出されるはず。
*.soの少なくともテキスト領域はmmapされるはずなので、そこをページフォルト経由で
読み込むときにgetpageが出ると思う。
zfs_getpageの場合はreadとは違ってARCには乗らずに、普通のFSでも使う方の
キャッシュに乗せるようにしてたはず。
read/write経由でのファイルアクセスとmmap経由での参照の一貫性を維持するために、
mmapされてるファイルについては特別扱いしてた気がする。

840:名無しさん@お腹いっぱい。
12/01/11 14:57:51.73
zpoolの領域を目一杯使ってしまって残り領域が0になってしまいました。
いらないファイルを削除して空き容量を増やしたいのですが、なぜかファ
イルを消してもすぐに復活してしまい消せません。

どうすればファイルを消すか、移動出来るでしょうか?snapshotは取って
いません。

841:名無しさん@お腹いっぱい。
12/01/11 20:41:24.63
復活するだと!?

842:名無しさん@お腹いっぱい。
12/01/11 20:51:24.57
ラピュタか

843:名無しさん@お腹いっぱい。
12/01/11 21:10:50.54
pfexec touch /barusu

844:名無しさん@お腹いっぱい。
12/01/12 06:18:00.95
>>840
復活すると言うよりは、単に削除に失敗してるだけ。削除って多分Windows
からsmb経由でやってるでしょ?

Snapshotを削除して空きを作る手段も取れないし、諦めるしかないよ。
データを一旦別のデバイスに逃がしてからpoolの削除→作成を行うしかない。
まあ、これを機会にバグ放置のzfsの使用を止めるべきだと思うがね。

845:名無しさん@お腹いっぱい。
12/01/12 10:24:57.04
oracleってさまざまな技術をダメにしてきたからな

846:名無しさん@お腹いっぱい。
12/01/12 10:55:32.63
>>845
ZFSがno spaceでファイル削除出来ないバグはoracleに買われる前から存在する
んですが?


847:名無しさん@お腹いっぱい。
12/01/15 12:52:45.18
>>840
いらないファイルをddで切り詰めれば消せるようになるらしいよ。試してみて。
URLリンク(www.surlyjake.com)

# df -h
Filesystem Size Used Avail Capacity Mounted on
themirror 39G 39G 0B 100% /home/jacob/themirror
# rm 3gfile
rm: 3gfile: No space left on device
# dd if=/dev/null of=3gfile
0+0 records in
0+0 records out
0 bytes transferred in 0.000046 secs (0 bytes/sec)
# rm 3gfile



次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

4948日前に更新/246 KB
担当:undef