1 名前:名無しさん@お腹いっぱい。 mailto:sage [2010/10/01(金) 05:00:00 ] OpenSolaris/Illumos プロジェクト、派生ディストリビューション総合スレ Sun/Oracle からリリースされる本家「Solaris」に関しては専スレでお願いします 前スレ:OpenSolaris総合スレッド その4 hibari.2ch.net/test/read.cgi/unix/1267016339/ OpenSolaris 公式サイト opensolaris.org/ Illumos 公式サイト illumos.org/ Genunix(OpenSolaris コミュニティ/ミラーサイト) genunix.org/ [ディストリビューション一覧] ・ OpenIndiana openindiana.org/ (OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換) ・ Nexenta OS nexenta.org/ (Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせ) ・ StormOS stormos.org/ (Nexenta ベースのデスクトップ向けディストリビューション) ・ AuroraUX auroraux.org/ (通常の x86、AMD64 に加え、PowerPC にも対応) ・ Jaris jaris.jp/ (日本発のプロジェクト) ・ Belenix belenix.org/ ・ SchilliX schillix.berlios.de/ ・ MilaX milax.org/ ・ etc.
755 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/28(月) 21:27:07.09 ] 素敵な748の方法を見てふと思ったんだがw IOps稼げないraidzの件、ブロックサイズの最小を512から64kくらいに引き上げたら WriteHoleはあるがread時の分散は為される・・・ってことはある? そこの部分は設定できんのかな。 IOps稼ぎつつ高可用性求めてraidz2とかにしたい場合、 トンデモなドライブ数が必要になってきてかなり残念な仕様だよね>zfs
756 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/28(月) 21:49:18.94 ] 高可用性を求めるなら冗長分の比率はそう下げられないのに何言ってんだ?
757 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/28(月) 22:18:05.42 ] 高可用性というのは貧民向けではないからな
758 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/28(月) 22:35:11.42 ] 中華陽性
759 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/28(月) 22:44:24.71 ] >>756 言ってる意味が分からんw 冗長分の比率? 台数じゃなくて? まさかraidz2よりmirror使えとか言うんじゃないだろうな
760 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/29(火) 09:27:29.30 ] 高可用性をある程度求めるなら、それに応じた冗長分も自ずと決まるということから 冗長の比率も可用性に応じた下限が存在するということ。 冗長化の仕組みとか意味とかを勉強するといい。
761 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/29(火) 15:31:44.48 ] 高可用性求めるならRAID6かRAIDZ2、ただしRAIDZ2はIO性能悪いのでRAIDZ2-0にする必要がある。 RAID6ならそこまでしなくてもIO性能高いのでドライブ数に見合った性能がほしければZFSは糞FSとしか言いようがない
762 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/29(火) 19:41:06.14 ] RAID-4なWAFLが何か言いたそうです……
763 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/29(火) 20:18:41.81 ] わっふるわっふる
764 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/29(火) 22:00:52.50 ] RAID-Z3を忘れないでください…
765 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/30(水) 12:26:38.84 ] HDD数増やせば増やすほど性能劣化するつーのは設計上の不備だよな ハードウェアRAID6が最強ということになってしまうので今後のZFSに期待
766 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/30(水) 13:04:51.45 ] RAIDって性能向上の為の技術じゃないんだけどな、本来は
767 名前:やんやん ◆yanyan72E. mailto:sage [2011/11/30(水) 13:43:15.47 ] RAID-Z*の為のハードウェアアクセラレーターってないのかしら。
768 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/30(水) 18:46:19.15 ] どうせ何やっても最終的にはバスで律速されて終わり
769 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/30(水) 19:53:38.68 ] だれがシーケンシャルリードの話をしろと
770 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/30(水) 20:43:27.27 ] HDDを増やせば増やすほど故障が怖くなるのがRAID5,6なんじゃなかったっけ どうせ単アレイに突っ込むHDD数は一定以上にはできないし比較するような話でも無いと思うんだけどなぁ
771 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/30(水) 22:37:00.16 ] >>770 RAID5はリビルド中の高負荷でHDDが死ぬケースが少なくない
772 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/30(水) 22:46:19.15 ] 770には縁のないIOPSのおはなしかとおもわれ ていうか増やして怖くないRAIDレベルがあるとでも
773 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/11/30(水) 23:03:00.95 ] RAID1?
774 名前:名無しさん@お腹いっぱい。 [2011/12/02(金) 05:06:45.46 ] (RAID10じゃなくて)RAID1なら増やせば増やすほど安心だな!って誰もやらんわw >>765 >HDD数増やせば増やすほど性能劣化する そうなん?
775 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/02(金) 14:44:47.07 ] 大雑把にいうと、hole作らないために、例えば4台構成で3KB書くとすると raidz:disk1〜3に1KB、disk4にパリティ書く raid5:disk1に3KB書いてdisk2〜3から64KB読んでdisk4に64KBパリティ書く でraidzつえーなんだけど、3KB読むには raidz:disk1〜3から1KB読んでzfsチェックサム計算合ってたら完了 raid5:disk1から3KB読む ということになるので、raidz構成ドライブのうち最も遅いドライブ速度に律速する。 主なるIO負荷であるところの細かいrandom readが同時に来る場合IO性能はraid5>>>raidzて感じ zfsで速度要るなら2〜3way mirrorをストライプするしかない。容量と両立は無理。 ということだと思うけど聞きかじっただけなのでえろいひとよろ。raid5もなんか違うかも
776 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/02(金) 20:18:40.38 ] 高田純次かとおもた。
777 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/02(金) 21:05:46.70 ] >>775 えろいひとじゃないけど、raidzはその動作であってるかと。 x10 のraidz2 pool作って運用してるけど、読込が書かれてるように全ドライブからの 読込するのでかなり遅い。x5 raidz のStripeのがよかったなーと今更ながらに後悔中。 速度がそんなに必要なpoolではないので、まだよかったんですが。
778 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/02(金) 22:56:54.58 ] >>777 我慢できないレベル? CPUのスペック’とかメモリどれくらいつんでるの? うちの会社で現在ファイルサーバにするマシンスペックと 構成を決めてるんだが・・・
779 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/02(金) 23:24:17.29 ] >>775 blogが何言ってるかよくわかんないのでもう少し説明加えてください。特に前編
780 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/03(土) 05:53:37.58 ] >>778 スペック書いちゃうと色々アレだけど、まぁいいやw CPU Xeon3460 M/B X8SIA-F MEM ECC Reg 8GB x4 Net e1000g x2 IB ConnectX x1 HBA LSI 9211-8i SAS Expander Intelのヤツ HDD Seagete ST32000542AS 2T x 10 RAIDZ2 HDD HGST HDS5C303(CoolSpin) 3T x 5 RAIDZ ZIL + L2ARC PX-128M2P x 1 OS NexentaCore 3.1.1 基本的にうちは、普段はSRP、サーバ仮運用中でiSCSIでzvolを切り出しして使ってるので、 ブロック単位のI/Oが多いんだけど、10台の方のRAIDZ2をBlockSize 32kで作ってる。 で、こっちはReadは60MB/sくらい。5台の方もBlockSize 32kでReadは200MB/s超える位。 10台の方は、iostat -xtC 1とかで見てると、Readが120MB/sくらいなんだけど、 zpool iostat -v pool名で確認すると60MB/sくらいで読んでます。 zilとl2arcをちょっとRAID使ってパフォーマンスの底上げしようかと画策中ですわ。
781 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/03(土) 16:30:25.95 ] >>778 どうしてもraidz使おうって計画なの? 用途にもよるだろうけど、 CPUなんてC2D世代でいいしメモリも8G位でいいと思うが、 HDDだけは沢山詰める筐体にしてmirror+stripeで使えばいいと思うよ よほど容量重視でない限り大きな問題点が無い万能構成。 compress onでレイテンシ気になるならCPU、dedupするならメモリ、と あとはオプション要素でボトルネックパーツが決まってくるよ >>780 stor free版で限界容量かー、とおもったらcoreなのか。syspoolは? あとその系のHDDってRAIDに挿して相性どう? 時々Solaris系ドライバの腐敗具合と相まって酷いことになるものがorz BlockSizeを変えるとどう影響するのかよかったら解説よろ zvolの場合ってまた違う話なんだっけ??
782 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/03(土) 17:02:46.26 ] OI148 xeon5110+MEM 8GB lsi 8 port sas hba raidz2(WD1002FAEX 4台)+zil(intel SSD 40GB)+l2arc(intel SSD 120GB) # bonnie++ -d /tank01/ -n 0 -b -u root Version 1.03c ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP ss02 16G 58970 88 118604 37 83418 31 53780 99 246847 30 3432 9 ss02,16G,58970,88,118604,37,83418,31,53780,99,246847,30,3432.2,9,,,,,,,,,,,,,
783 名前:780 mailto:sage [2011/12/03(土) 18:23:07.53 ] >>781 色々テストして行ってたら結局mirror + stripeが良いわけがよくわかりましたよ。 後々の容量拡張とかも考えたら楽だし。 大容量のzfsのストレージがmirror+stripeなのがよくわかりまわしたわ。 syspoolは書き忘れですw 普通に2.5のHDDを使ってますね。 うちはHDDが原因でこけたことはないですね。 ちなみに、RAIDCardではなくSASのHBA(mpt_sas)ですわ。 OpenSolarisじゃないけど、検証でSolaris11の環境を別で作って色々試してる んですが、そっちだとRAIDカードのドライバ(mr_sas)が原因で止まる止まる orz あと、止まったのってzilとかl2arcのデバイスを追加・削除したときによく刺さりましたね。 この辺は元々動作中に頻繁に追加・削除なんてしないと思うので運用中には 問題になりにくいんですが、検証中に各デバイスの有り無しのパフォーマンスチェックして たら結構止まりました。 上記のBlockSizeはzvolのvolblocksizeの間違いです。最初は小さくすればランダムのI/O のパフォーマンスがあがるからいっかーと思ってデフォルトの8kで作ってたんですが、上記に書いてた ような状態になりまして、32kで作り直した直後にSRP Initiatorが死んでチェックできてないんです orz BlockSizeは小さくすればその分ランダムの性能が上がる予定だったんですが、raidzだと>>775 氏が 書いてるような状態なのでそんなことは無く、バランスの良いvolblocksizeを探してる最中です。
784 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/03(土) 20:29:48.51 ] >>783 syspoolはstorのインストーラが全領域mirrorで確保するので困ったなとw RAIDカードはやっぱり運試しみたいになりますかーorz 何やってもダメなRoMBのラック鯖があったり。 でもwrite cache付いてる板はzfsでも速いんで。理屈上はSSDよりも。ZIL置けますです。 recordsizeとvolblocksize(blocksize)あたりの原理と影響度知りたいんですが>>755 に反応無いみたいだし アライメントの話ばっかhitするし。recordsizeいじってたらnfs遅くなったんでよく分からんです。 blocksize=512でraidzが1block毎に分散してdiskに書いているなら、rreadは高速化されるんじゃないのかとか、 いやせめてntfsやらの4k単位で増やした方がIO減るしdiskレイテンシがマシになるんじゃとか、そもそも blocksize=32kだとしてraidz下のdiskには32k単位で書かれるのかどうかとか、ソース嫁的FAQがみあたらない状態 で、チューン諦めてmirror+stripeにしたのが>>775 尚、HDDを部分的に交換した場合、そのdiskのwriteが遅いとraidzやmirrorがwrite完了待ちするんで、 zfsもうちょっと賢くなって欲しい
785 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/04(日) 01:24:13.12 ] >>784 syspoolの仕様はcoreでも一緒ですねw RAIDカードは手元のLSI 9220とAdaptec ASR-6445で試してみましたけど、後者はドライバがない為論外、 LSIの方は負荷かけるとフリーズっていう状態で・・・。あとは借り物のカードが数枚あるんでそっちも試してみる 予定ですが。ARECAのカードがoi151だとサポートされてるので試してみたいものの、個人で検証してる関係 で費用が捻出できずw 10GbEオーバーのストレージとして使おうとすると、WriteCache付きのRAIDカード使っ て、Poolもzilもl2arcもRAIDで作る方が速いんじゃないかと思ってます。 自分もrecordsizeとvolblocksize辺りの原理と影響度はよく理解できてないですね。Solaris11でrecordsize の最大サイズが1MBまで上がってるのは、多台数での分散書込・読込のパフォーマンスアップの為ってどっかで 見たような(記憶違いならごめんなさい)。 recordsizeはあくまでその値をなるべく使うようにってものじゃないかと。 zfsの書込が可変長ストライプなんで、nfsとかだとファイル毎に変ってる気がします。 うちでzvolへのzilの書込を見てるとrecordsize 128kだと、128kでzilへは書込いってますね。 その後poolへ書き出ししてる際に個々のDiskへどの位のblocksizeで書込してるかはiostatである程度割り 出ししてます。zilへ書かれてる内容=実際に書込む内容って前提が付きますけど。 あと、うちが遅いのはシンプロビジョニングでzvol作ってるからってのもあるかもしれず。 HDDを部分的に交換は、pool,zil,l2arc全部で同様の状態なりますね。 安全側に振ってるんでそういう挙動になってるんだと思います。 とりあえず色々実験してて思ったのはボトルネックが素直に出るファイルシステムだなーと。 zfsの王道の設定以外を行うと賢くない部分がよくでてきますなw
786 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/04(日) 17:41:56.71 ] >>785 おー、今度情報探してみます >>Solaris11でrecordsize UP raidドライバはdiskが死んだときにarrayごと応答が無くなるものがあって憤死しました。adaptecだったか。事前検証しづらすぎ。 l2arcですがFIFOで消えてくのはちょっと・・・バックアップでfile総舐めしたら残念なことに。もう少し賢くならんものか。 うちもiostatあたりで検討付けてますがdtrace勉強しないと細かい部分は分からないなぁと。 nfsはそこかしこに高速化用cacheが有ってそれありきで動いてるんでネックが解析しづらいです。 シンプロはどうなんでしょうね。cowでsnapshotあったりするとIO的には大した増加は無さそうではあるけど
787 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/05(月) 01:12:35.90 ] >>786 スナップショットを取ってsecondarycacheプロパティをいじれば良いんじゃ無いかな
788 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/05(月) 02:02:08.62 ] >>787 あ、backup時に一時的にl2arcをoffにするって感じでしょうか? snap作ってそのl2arc(+arc)をnoneにしてbackup用にreadさせればいいわけですね。 なるほど、そこまでアクティブに弄る方法は考えてませんでした。やってみます、ありがとうございます
789 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/05(月) 16:02:20.44 ] しかもその方法ならl2arcが無効になるのはそのスナップショット経由のアクセスだけのはずだから 他のアクセスによるライブや他のスナップショットのl2arcへの影響に干渉しない、はず?
790 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/05(月) 17:12:59.73 ] なんかすげえなZFS
791 名前:名無しさん@お腹いっぱい。 [2011/12/06(火) 21:44:27.81 ] 久しぶりに覗いたらなんか伸びてる。 >>775 >ということになるので、raidz構成ドライブのうち最も遅いドライブ速度に律速する。 その例では確かにそうだとわかるんだが、実際にそんなもんなのか? 3KB「だけ」読むことなんて実際は無いわけで、ランダムにしろシーケンシャルにしろ まとまったデータ読み出すときはRAID5もZも結局全部のHDDにアクセス(=遅いドライブ速度に律速)することになると思うんだが。 なんにせよZFSで速度稼ぎたいならzilとl2arcをSSDで盛り盛りするくらいしか思いつかんけど。
792 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/07(水) 00:24:12.29 ] >>791 RAIDカードの制御にもよるだろうけど、 ストライプサイズ64k位で組んでる場合、 64k以下のファイルを連続で読み出すとき、 複数のHDDに分かれていれば、それぞれのHDDに オーバーラップさせてで読み出しかけられるから、 やっぱ早いんじゃ無いか?遅い奴に足は引っ張られるが。 回転待ち分を結構隠蔽出来そうな気がする。 ZFSの場合は1つ読むにも全部のHDDから読み出さなきゃ ならんと言うことなら、確実に差は出ると思うけど。
793 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/07(水) 07:50:36.03 ] どんなときでも全部に読みに行くのが確定しているならそれはそれで扱いやすい RAIDのストライプサイズはそのアレイへのアクセスときっちりかみ合ってないといけないし パターンがばらけていると全体的に速度を出すのは難しい
794 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/07(水) 12:44:07.12 ] どんなときでも全部に読みに行くならどのように扱うと高速化するわけ? 両側から読み出して合致確認する実装のRAID1、並に高速化しそうな要素が見当たらないんだけど。 raid5で全体的に速度を出すのは難しいがraidzならできる、というなら是非その手法を教えてくれ
795 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/07(水) 13:49:05.43 ] そのまえに>>793 のいったい何処に raidzを高速化できる と書いてあったのか教えてくれ あれは使い道ごとにプロファイリングしていじり倒すよりリソース突っ込むだけの方が楽だって話をしただけだぞ 見たい物だけ見て言いたいことだけ言うのは君の勝手だが有りもしない物を有るように言われても困る
796 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/07(水) 21:35:45.78 ] raidz 1. れいどぜっと 2. れいどじー 3. れいづ
797 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/07(水) 21:36:49.77 ] 見えないものが見えているんだろうねw
798 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/07(水) 21:39:39.37 ] >>796 3.はないだろう
799 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/07(水) 22:54:20.20 ] れいど乙
800 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/07(水) 23:00:42.54 ] >>794 はなんだかわからんが>>793 がいう扱いやすいというのも意味が分からんがな。 zfsはブロックサイズ可変だからその理屈ではより一層速度を出すのが難しいことになっちまうよ
801 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/08(木) 08:33:54.76 ] RAID-Zは可変ストライプ幅でデータブロックのサイズに応じて使用するディスクの本数を変更する。 すべてのドライブに必ずアクセスするという話のソースはどこだ?
802 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/08(木) 12:31:21.01 ] かなり昔だけど、サンの日本法人の社員が、間違った解釈でZFSの概要をプレゼンした事があったよ。 ディスクの本数じゃなくて、全部のディスクに書きこむそのデータが増減するっていう解釈で。 たぶん、それソースにしてんじゃないのかな(もっとも、その元になった外人のプレゼンでは間違ってなかったんだけど…)。 あるいは、単に勘違いしてるだけなのかもしれないけど。
803 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/08(木) 12:35:07.35 ] むしろどういうアルゴリズムで使用するディスク本数を変更するのかソースw
804 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/08(木) 12:43:44.19 ] >>801 ブロックサイズが512〜128kで可変であるからといってwrite hole回避できるわけじゃない どう処理されてると思ってる?
805 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/08(木) 13:13:00.60 ] ZFSにはWrite Hole問題は存在しないわけですが?馬鹿なの?
806 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/08(木) 13:48:31.32 ] >>803 可変ストライプ幅に関してはZFS開発者がプレゼンだか講演だかで使った図付きのスライドがある。 たぶん>>802 のプレゼンと同じ奴。
807 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/08(木) 13:56:15.90 ] >>805 お前話について行ってないだろ・・・ write hole回避のためにzfsが取った手法を書いてみ? 結果として読み込み時どうなる?
808 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/08(木) 14:18:45.67 ] >>804 話の流れをすっ飛ばしてるから何言っているのかさっぱり分からん。 書き込みホール問題の話なんかしてないぞ。大丈夫か?
809 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/08(木) 14:30:37.22 ] >>801 が言ってるのは(disk数-1)*512B未満の書き込み時に未使用のdiskにも書き込むかって話(たぶん)。重箱なんで伝わってないんだろ 〜512B:1diskからのreadでおk 〜1024B:2diskからのreadが必要(raid5より遅い) 〜2048B:4diskからのreadが必要(raid5よりかなり遅い) ・・・ となるので、>>793-795 ?あたりの「どんなときでも全部に読みに行く」に例外があるぞ!と言いたいんだと思れ
810 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/09(金) 08:58:16.04 ] >>802 よほどデータが小さいかディスク台数が多くない限りそうなるんじゃ?
811 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/13(火) 03:14:19.23 ] sharesmb=onでWindows7に公開しているフォルダがあるんですが、 Windowsからファイルを作成した場合のデフォルトのパーミッションは どこで制御されているのでしょうか? ちなみにworkgroupでの運用です。
812 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/22(木) 20:49:58.28 ] Solaris11のソースコードがリークしてたけど、クローズドな部分まで入ってたみたいだがどーなるんだろうな。 OpenIndianaのML見てると見ちゃ駄目って話になってるが(そりゃ当然だが)
813 名前: 忍法帖【Lv=40,xxxPT】 mailto:sage kani? [2011/12/22(木) 22:55:02.47 ] SunでもできなかったメインラインのSolarisの完全ソースコード公開 流石Oracle そこにシビれるあこがれるゥ 一足早いお年玉ってことで
814 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/22(木) 22:55:39.63 ] 「お母さーん」「見ちゃいけません!」
815 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/22(木) 23:19:44.25 ] OIで使えてるSATA増設ボードって何がある? OI_148で使えることになってるはずの88SE9130/88SE9128/88SE9125/88SE9120を OI_151aは認識してくれないんだけど・・・ とりあえず2port有れば良いんだけど、やっぱSil系が無難なのかなぁ。
816 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/23(金) 00:06:48.97 ] >>815 上げてる系は全部駄目だね。 うちでも88SE9128を試したけど駄目だった。Solaris11でも駄目。 JMicronをOIだとお勧めしたような。
817 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/23(金) 23:57:07.38 ] SASのHBA刺すのが一番早い
818 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/26(月) 18:21:29.32 ] と言われるは分かっていたし、他に方法も無いので、 サクッとLSI SAS9211-4i を仕入れてきた。 取りあえず、IRファームのまま使おう。 問題起こったら、ITに変えるっつー方向で。
819 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/26(月) 23:12:55.28 ] Solaris系ってなんでユーザー名8文字以下(ほぼ)強制なの? 識別子としてそれ以上文字数必要なのかって話はともかく、個人名ベースのIDだと 普通に文字数足りないと思うんだけど、どういう運用が想定されてるんですか。
820 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/27(火) 00:03:17.21 ] バイナリ互換を破りそうな変更には保守的だから
821 名前: 忍法帖【Lv=40,xxxPT】 mailto:sage kani? [2011/12/27(火) 00:16:48.89 ] 個人名ベースのIDとか要らんやん
822 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/27(火) 06:58:21.53 ] yamanash fukushim kunitach かっこいいじゃん
823 名前:やんやん ◆yanyan72E. mailto:sage [2011/12/27(火) 07:17:45.30 ] 8文字制限はSunOS時代から変わってないだけだと。 Linuxなんかではとっくにとっぱわられた制限だけれど。
824 名前: 忍法帖【Lv=40,xxxPT】 mailto:sage [2011/12/27(火) 08:46:12.75 ] くにたっは
825 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/27(火) 09:18:11.45 ] >>823 変わってないじゃなくて「変えていない」 LinuxはABI軽視で変えまくってたからな
826 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/27(火) 12:36:28.09 ] ところでzfsでcopies=2とか3とかした場合のread性能って改善される? もちろん状況に依るだろうけどIOps稼げるなら1つの手だなと。
827 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/27(火) 17:30:37.46 ] >>826 それはたしか部分損傷対策だからコピーが別ディスクに作られることは保証されてなかった気がする。
828 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/27(火) 18:20:34.98 ] >>827 なるべく別ディスクに書こうとする、位? 複数コピーされたデータ(mirrorやcopies)のどれを読みに行くかはどうやって決めてるんだろう copyされたデータに主と副があってエラー時のみ副を読むのかな mirrorにするとIOps上がるよって言われてるけどどうやって分散させてるのかよく分からない
829 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/27(火) 20:47:37.03 ] 実は /etc/default/passwd の PASSLENGTH=6 とか sendmail のアレとか NFS のソレとか、色々色々
830 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/27(火) 21:47:08.75 ] akihabar monzenna kabutoch もういいかw
831 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/27(火) 22:06:17.11 ] >>828 ミラーアレイを複数ストライプする方が上がるって意味や無いか? その場合はアレイの数だけ分散されるわけだからraidzより良いはず。 まあ、その代わりに冗長性は比べられんけど。
832 名前:名無しさん@お腹いっぱい。 mailto:sage [2011/12/27(火) 22:49:06.67 ] >>831 いや、mirrorでもIOpsは上がるって見たことあるんだけど、なんか読み違えてたかなぁ? ストライプにすればとりあえず上がるのは確かだと思う。 ミラーでも一応両方のディスクからだいたい半々で読んでるみたいだから、1Diskの時の性能とはまた異なった結果になるだろうとは思うんだけど、 どういう方法で振り分けてるのかは分からないんで、例えば10台でミラーとか作った場合(作れる?) readが分散されるのかどうかは分からない。 10台に分散して読みに行くなら何となくIOps上がるような気はするけどうどうなんだろう?
833 名前:名無しさん@お腹いっぱい。 [2011/12/28(水) 09:56:27.71 ] SAS の HBA とかを使って、RAID-Z を組んだ場合って、 ディスクが故障したらケースのランプが点滅したりする? MegaRAID 9260-4i のハードウェア RAID と 9211-4i の RAID-Z で悩んでる。
834 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/07(土) 11:53:45.73 ] diskアクセスが多いので、dtraceで zfs_write,zfs_read,zfs_putpage,zfs_getpageをひっかけてみたら、 /usr/lib/**/*.soあたりを中心に大量にzfs_getpageが発生していて、 不定期に50MB/s程度のdiskreadを生じているようなのですが、 そもそもzfs_getpageってどういう意味の操作になるんでしょうか? ARCなどのキャッシュに乗らないdiskアクセスというのが謎なのですが。
835 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/08(日) 21:18:34.03 ] KVM+ZFSが使えるOSって、今のところSmartOSくらい?
836 名前:名無しさん@お腹いっぱい。 [2012/01/08(日) 23:37:08.04 ] ADSLモデムでインターネットに繋げるにはどうしたらいいでしょう?
837 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/08(日) 23:50:49.95 ] >>836 電源を入れます。
838 名前:名無しさん@お腹いっぱい。 [2012/01/10(火) 21:37:02.39 ] >>836 深く考えすぎずに、ADSLモデムの下にルータを繋げてその下にマシンをつけれ とマジレスしてみた
839 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/11(水) 10:17:39.09 ] >>834 昔ソースを読んだ通りのままなら、zfs_getpageはmmapした領域への読み込みで 呼び出されるはず。 *.soの少なくともテキスト領域はmmapされるはずなので、そこをページフォルト経由で 読み込むときにgetpageが出ると思う。 zfs_getpageの場合はreadとは違ってARCには乗らずに、普通のFSでも使う方の キャッシュに乗せるようにしてたはず。 read/write経由でのファイルアクセスとmmap経由での参照の一貫性を維持するために、 mmapされてるファイルについては特別扱いしてた気がする。
840 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/11(水) 14:57:51.73 ] zpoolの領域を目一杯使ってしまって残り領域が0になってしまいました。 いらないファイルを削除して空き容量を増やしたいのですが、なぜかファ イルを消してもすぐに復活してしまい消せません。 どうすればファイルを消すか、移動出来るでしょうか?snapshotは取って いません。
841 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/11(水) 20:41:24.63 ] 復活するだと!?
842 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/11(水) 20:51:24.57 ] ラピュタか
843 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/11(水) 21:10:50.54 ] pfexec touch /barusu
844 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/12(木) 06:18:00.95 ] >>840 復活すると言うよりは、単に削除に失敗してるだけ。削除って多分Windows からsmb経由でやってるでしょ? Snapshotを削除して空きを作る手段も取れないし、諦めるしかないよ。 データを一旦別のデバイスに逃がしてからpoolの削除→作成を行うしかない。 まあ、これを機会にバグ放置のzfsの使用を止めるべきだと思うがね。
845 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/12(木) 10:24:57.04 ] oracleってさまざまな技術をダメにしてきたからな
846 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/12(木) 10:55:32.63 ] >>845 ZFSがno spaceでファイル削除出来ないバグはoracleに買われる前から存在する んですが?
847 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/15(日) 12:52:45.18 ] >>840 いらないファイルをddで切り詰めれば消せるようになるらしいよ。試してみて。 ttp://www.surlyjake.com/2010/01/zfs-cant-rm-no-space-left-on-device/ # df -h Filesystem Size Used Avail Capacity Mounted on themirror 39G 39G 0B 100% /home/jacob/themirror # rm 3gfile rm: 3gfile: No space left on device # dd if=/dev/null of=3gfile 0+0 records in 0+0 records out 0 bytes transferred in 0.000046 secs (0 bytes/sec) # rm 3gfile
848 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/17(火) 12:49:45.65 ] >>839 ARCを通らないこともあるのか 超参考になった
849 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/21(土) 10:07:35.05 ] ttp://wiki.openindiana.org/oi/oi_151a_prestable0+Release+Notes
850 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/23(月) 23:34:26.69 ] 素人のcrossbowに関する質問 1. etherstubってbridgeと何が違うの? 2. vnicをzoneにアサインして外部に出るときはvlanインターフェース経由にしたい。どうやったらいいかな?
851 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/01/26(木) 19:32:03.67 ] 2はvnicでvid指定すればいいことに気付いたけど、これvid変えるときはvnic作り直しか?
852 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/02/09(木) 13:56:46.56 ] fdiskでsunディスクラベルを作成するってなんなんですか? さくせいすると fdisk -lってやると表示が前と変わってもどせませんでした そのあとcfdiskをやったら元にもどりました 教えてください。
853 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/02/09(木) 20:47:36.44 ] fdiskでSunディスクラベルを作成するということです。
854 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/02/09(木) 21:15:07.31 ] すみませんが詳しい方のみ回答をお願いします
855 名前:名無しさん@お腹いっぱい。 mailto:sage [2012/02/09(木) 22:16:28.03 ] はい、次の方、どうぞ