OpenSolaris/Illumos (OpenIndiana, etc.) 5 at UNIX
[2ch|▼Menu]
[前50を表示]
600:名無しさん@お腹いっぱい。
11/09/27 01:03:37.09
もともと vfstab だし

601:587
11/09/27 21:43:42.60
>>595
> OpenSolaris 2009.06で追加ドライバー入れるのが正解?

これでインストールできた。

LSI MegaRAID 9260つうのが入っとる。↓これが参考になった。

URLリンク(www.byte.nl)

602: 忍法帖【Lv=10,xxxPT】
11/09/27 21:47:57.22
>>601


603:名無しさん@お腹いっぱい。
11/09/28 01:15:19.99
>>601

因みに同じくIBMの似たようなサーバで、instして正常に動くのだが、
ドライバがおかしいのかRAIDの1玉が死ぬと全体が止まるという症状があった。
RAIDコントローラーの意味ねぇよ氏ねとか思って結局別のOS入れちゃったんだけど実験しといた方がいいw


604:587
11/09/28 10:16:18.54
>>601
いちおー Solaris 11 Express 201011で USBメディア作ってあげてみたけど
やったけどやっぱり同じ、SMBIOSで panic。なんでじゃーw
Solaris 10 10/09以降で対応ってしっかり書いてあるのに..

>>603
MegaRAIDでは冗長構成なしで ZFSでミラーしようかと思ってる。
気をつけるよさんきゅ

605:名無しさん@お腹いっぱい。
11/09/29 08:24:05.08
Solaris 10 8/11登場 - ZFSv29搭載 | エンタープライズ | マイコミジャーナル
URLリンク(journal.mycom.co.jp)

これのソースは公開されるの?

606:名無しさん@お腹いっぱい。
11/09/30 11:58:24.79
Open系ユーザは切り捨てですか、ひどいな...
>ZFSv28 以降、ZFSに複数の実装が
>登場し非互 換が発生する
>可能性がある。


607:名無しさん@お腹いっぱい。
11/09/30 11:59:09.52
そういやZFSは暗号化がないのか

608:名無しさん@お腹いっぱい。
11/09/30 14:04:14.28

>> ZFSv28 以降、ZFSに複数の実装が登場し非互 換が発生する可能性がある。

すぐこんなこと書きたがるやつ信用できんなw
自分で forkするつもりでもあるんならまだしも。

609:名無しさん@お腹いっぱい。
11/10/01 17:09:33.57
oi151(not equal 151a)で、再起動すると/etc/nsswitch.confの内容が元に戻ってしまうためhostsの名前解決が出来なくて困っているんですけど、
これって自動復元のサービスでも動いているんでしょうか?

その都度/etc/nsswitch.confを
hosts: files dns mdns
に書き換えてやってるんですが、面倒くさくてしょうがないです。
このままだと、遠隔リブートもできないし。

610:名無しさん@お腹いっぱい。
11/10/01 22:54:16.64
NWAMをとっとと止めろ

611:名無しさん@お腹いっぱい。
11/10/02 16:52:08.85
え?

612:名無しさん@お腹いっぱい。
11/10/02 21:21:11.79
>>609
>>288

613:名無しさん@お腹いっぱい。
11/10/06 00:27:18.97
>>605
その記事書いた人って、昔から割といい加減なことを書くことがあるから、
実際に起きてる事と情報元以外は話半分くらいにした方が良いよ。

>>609
Oracle Solarisのドキュメントでも、過去のOpenSolarisのドキュメントでも、
ネットワークの設定については詳しく解説されてるから、一度読んだ方が良いと思う。
手動で設定ファイルを変更したい場合、nwamっていうサービスを切らないといけない。

614:名無しさん@お腹いっぱい。
11/10/06 00:49:45.41
そもそもSolaris 10のソースは公開されたことがない

OpenSolarisプロジェクトで公開されていたのは
Solaris 11として開発が進行中だったソースコード

615:名無しさん@お腹いっぱい。
11/10/06 01:09:57.43
長文失礼します
ZFSのemulated volume(zvol)のスナップショットについての質問です。
現在zfs+iscsi環境を構築するためのテストをvirtualBOX上で行なっているのですが、
zvolのスナップショットを取った時の振る舞いについて期待とは異なる結果になりました。
行った実験は以下のとおりです。

616:名無しさん@お腹いっぱい。
11/10/06 01:12:22.57
本来ならばsolarisで実験するべきですがvirtualBOXではうまくいかなかったので
FreeBSD8.2とScientific Linux6.1+zfs on linux0.6.0-rc5でテストしています。

8GBのzpoolであるpool0を作成
zfs create -V 5.5GB pool0/vol0 でzvolであるvol0をpool0から5.5GB分切り出し
vol0をiscsiで別マシン(centos6)に提供し、ext4でフォーマット


617:名無しさん@お腹いっぱい。
11/10/06 01:14:32.33
この時点でのzfs list
NAME     USED AVAIL REFER MOUNTPOINT
pool0       5.67G 2.12G 32.9K   /pool0
pool0/vol0   5.67G 7.37G 441M

796MBをvol0に書き込みした後のzfs list
NAME     USED AVAIL REFER MOUNTPOINT
pool0      5.67G 2.12G 32.9K    /pool0
pool0/vol0   5.67G 6.65G 1.14G

この時点でpool0/vol0のスナップショットを取った後のzfs list
NAME     USED AVAIL REFER MOUNTPOINT
pool0      6.90G 915M 32.9K    /pool0
pool0/vol0  6.90G 6.57G 1.23G


618:名無しさん@お腹いっぱい。
11/10/06 01:17:58.66
上記のようにスナップショット取得直前のvol0のREFER分だけpool0のAVAILが減少しています。
zvolではスナップショットの取得時点では容量を消費せず、取得時点と現時点との差分だけ容量を消費するのだと期待していました。
しかし実験では、スナップショットを取るためにはzpool全体の半分の容量しかzvolに割り当てできないことになり、
さらにzvolのREFERは中身のファイルシステム上でのファイル削除では減少しないので、定期的にミラーリングする方がましだということになってしまいました。
このような結果はzfsの仕様なのでしょうか。それともsolaris系では異なる動作をするのでしょうか。


619:名無しさん@お腹いっぱい。
11/10/06 02:22:21.76
zfs上のファイルとzvolを同じだと思ってるの?

620:名無しさん@お腹いっぱい。
11/10/06 02:46:57.58
たぶんreservationがわかってない
zfs(1M)のvolsizeのあたりでも読んでみれば

621:615
11/10/06 08:19:07.74
>>619
ZFSとzvolでのスナップショットには違いがあることは理解しています。
しかし、スナップショット取得時点では両者とも容量を消費しないはずでは、と考えています。

>>620
vol0に5.5GBが予約されているのは予想通りなのですが、
スナップショットが取得時に容量を消費するのがよくわかりません。

実際にデータを書き込みpool0のAVAIL<vol0のREFERの状態にするとスナップショットが取れませんでした。

622:名無しさん@お腹いっぱい。
11/10/06 19:03:28.23
だからzfs上のファイルとzvolを混同すんなと言っている

623:名無しさん@お腹いっぱい。
11/10/06 20:46:34.82
ZFSのお勉強スレがあるなら、そこで

624:名無しさん@お腹いっぱい。
11/10/07 08:16:17.07
バッキングストアを確保するかしないとか、そういう話?

625:名無しさん@お腹いっぱい。
11/10/07 18:17:49.94
混同するなと言ってる割には違いを説明できないんだなw

626:名無しさん@お腹いっぱい。
11/10/07 19:27:12.62
バカにされたまま放置されて悔しいんですねw

627:名無しさん@お腹いっぱい。
11/10/08 07:07:44.82
微妙に話が分からん
なんか知ってそうな人詳しく >>622

628:名無しさん@お腹いっぱい。
11/10/10 19:41:46.98
USBなんかの外付けHDDを数個ぶら下げてraidz poolにしたら安価に安全な大容量えられるんじゃね?
と一瞬思ったけどたぶんこれ地雷だよね?

629:名無しさん@お腹いっぱい。
11/10/10 20:30:15.18
いや正しいと思うぞ

630:名無しさん@お腹いっぱい。
11/10/10 20:36:50.67
比較的安価でそれなりに大容量のpoolを組めると思うけど
USBコントローラで律速されてしまうよね
USB3.0なら速度もある程度マシなのかな

631:名無しさん@お腹いっぱい。
11/10/10 20:49:52.79
USB自体が地雷

632:名無しさん@お腹いっぱい。
11/10/10 21:19:04.43
本人が承知の上で使っていればいいじゃん

633:名無しさん@お腹いっぱい。
11/10/10 23:14:46.36
USBでZFS使うくらいなら、eSATAにするわ。

634:名無しさん@お腹いっぱい。
11/10/10 23:17:00.35
>>628

ありなアプローチだと思う。遅くても良ければ。

Win7ホストの中の VMPlayerか、VirtualBoxで Solaris/SmartOS/OpenIndianaの
どれかを動かして、VMの設定で Raw SATA diskをアクセスできるようにすることで
ZFSを使ったwin用サーバーを作ろうかとおもっているところ。
USBディスクはもちろん、VBox, VMPlayerどちらでも割と簡単に仮想マシンから
簡単にアクセスできる。

生SATAディスクもできるはずだが、ディスクを入手してきたが、
マザーボードのポートの不足とケースの都合でまだ踏みきれてない。


635:634
11/10/10 23:23:04.89
>>628

ここみるべし
URLリンク(blogs.oracle.com)

この人はいくつか似たトピックでブログを投稿しているので参考になるかも。
触発されてAMDの5050eという発熱量がすくないCPUでシステム作ろうとしたが、発熱、静穏、ECCの有無から
TX100S1という安価サーバーを購入して、634で書いたようなことをこころみようとしえいる。


636:名無しさん@お腹いっぱい。
11/10/10 23:33:44.39
USB3.0なら、HUBにフラッシュメモリを何本か挿してRAIDZで使うってのは面白い
と思うしアリじゃないかと。速度も十分だろうし。

637:名無しさん@お腹いっぱい。
11/10/11 00:13:36.03
USB3.0で、これやればいいの?
URLリンク(blogs.oracle.com)

638:名無しさん@お腹いっぱい。
11/10/11 20:24:51.52
お?結構肯定的意見多いのな>USBでZFS
確かにコスパというか拡張性は最強だと思うのだが、
反面、故障モードがどこまで考慮されてるか不安ではあるな。
なんかで不具合生じたときに安心して対応交換できるのかがかなり危ういのではないか。

639:名無しさん@お腹いっぱい。
11/10/11 22:26:14.69
はぁ?


640:名無しさん@お腹いっぱい。
11/10/12 04:13:48.36
単体のコストだと内蔵HDD>外付けHDDなんだよなぁ。
SATAポートさえ足りてればUSBにする必要は無い気も。
USB3.0接続で非RAIDで個別認識できるHDDボックスを使うとかはどうだろう?
USB3.0一本に律速されるが充分速いような。

>>634
Linuxホストで同じこと挑戦したけど、LANの速度が出なくて挫折。せいぜい30MB/s前後だったかな。
Linuxホスト-PC間ではGbE活かせるんだが、仮想マシンのOIが遅い。
vmxnet3とか準仮想化ドライバも試みたんだが改善せず。
オンボLANが蟹、手持ちのLANボードもMarvellなもんで直にOI入れてもドライバの問題かやっぱりLAN遅いし。
結局ZFS on Linuxという安定性どこ行ったな構成で快適になってしまって溺れているところ。

641:名無しさん@お腹いっぱい。
11/10/12 13:11:18.26
solaris系はvmで動かすとやけに重い。なんぞチューニングできるのかも知らんが。
意外とnexenta storがNAS的用途にチューンされててIOより速かったw

USBでHDD増設できるならうれしい(台数増やせばLANの速度程度は出るんじゃね)けど、安定性には疑問だな
理屈としてはZFSでチェックサムかかるからUSBドライブが不安定でも大丈夫なんだが、
実際はというと怪しいよなぁww
トラぶった挙句zpoolごとお亡くなりとかありそう

642:名無しさん@お腹いっぱい。
11/10/12 14:00:24.88
IOより速いってなんだよ
OIのことか?

不安定なドライブでもチェックサムがあるから
理屈では安全だけど実際には怪しいって・・・
バカ丸出しにもほどがある

643:名無しさん@お腹いっぱい。
11/10/12 16:27:20.13
あぁすまんOIだ
で、具体的に何がいかんのか聞かせてもらおうかw

644:名無しさん@お腹いっぱい。
11/10/12 17:06:45.05
その程度のトラブルでpoolごと死亡とかあるんだったら、そもそもZFSなんか
使い物にならんわ

645:名無しさん@お腹いっぱい。
11/10/12 18:04:13.48
ZFSの仕組みがあるからハードエラーがあっても問題は起きないといっても
問題を起こしそうな事象は少ないに越したことはない、ということだろう。

646:名無しさん@お腹いっぱい。
11/10/12 18:05:32.75
それは幸せいっぱいだね

647:名無しさん@お腹いっぱい。
11/10/12 18:09:45.68
低い冗長度では対処できる状況も少ないのが当たり前

ハードウェアに問題のある環境でチェックサムがあっても怪しいよなぁ
とか言っちゃうのはバカの証拠だよねえ

648:名無しさん@お腹いっぱい。
11/10/12 18:40:12.42
そういや、napp-itの作者さんは、ESXi上でSASカードをPCI パススルーで認識させてNASとして使ってるみたいね。

あと、USB3.0ってOI151aで認識するんだっけ?
VM上からってのは、なしで

649:名無しさん@お腹いっぱい。
11/10/12 20:47:16.81
USBメモリ4本でRAIDZ実験してたらデータ吹っ飛んだ俺が通りますよっと


650:名無しさん@お腹いっぱい。
11/10/13 01:43:54.77
>>647
同時に壊れる確率が高いとどうなるのかね?
チェックサムやECCに頼れるのは、その冗長で回復できる範囲に限られる。

651:やんやん ◆yanyan72E.
11/10/13 14:17:55.64
USBストレージの欠点は
パフォーマンスについての信頼性が著しく低いことで、
壊れやすいことではないと思うんだが。。。

ZFSはそれなりにパフォーマンスが保証されたデバイスで
使う前提で設計されているだろうから、その前提が崩れた時に
どうなるのか分からないというのが、論点なのではないの?

652:名無しさん@お腹いっぱい。
11/10/13 15:15:49.36
>ZFSはそれなりにパフォーマンスが保証されたデバイスで使う前提で設計されているだろうから
そうなのかな?15krpmの高価・高速なSASドライブじゃなくて安価・(比較的)低速なSATAでも高信頼性・高性能を実現するぜってコンセプトのような。
もちろんSATAドライブ使うのとUSB外付けにするのはまったく別次元の話だが・・・
絶対的な速度の問題じゃなく、「パフォーマンスについての信頼性」(安定性?)でUSBってSATAに対してどれくらい劣ってるんだろうか。

653:名無しさん@お腹いっぱい。
11/10/13 17:55:54.06
>>601
>> OpenSolaris 2009.06で追加ドライバー入れるのが正解?

IBMの x3650 M3て 2Uサーバーで使ってるんだけど、時計が狂う。
すごい勢いで進む場合と、1秒時計が進むのに 5秒くらいかかったりもする。

pkg image-updateやって snv_111bから snv_133にしたら SMBIOSんとこで
panicって上がらなくなるんだけど、その後元の snv_111bで上げて
使ってたらしばらくは時計が狂わなかった。

今は起動後狂うんだけど、touch /reconfigureしてリブートすると
なぜか直る。電源断後、起動ではダメ。

使われてるドライバーが違うとか、なんか確認する方法ある?
UEFIのせい?

654:名無しさん@お腹いっぱい。
11/10/15 00:27:07.02
>>652
USBはSATAに比べ、接続が途切れたり、ストールしやすいということだろう。

655:名無しさん@お腹いっぱい。
11/10/15 15:56:14.05
その話はUSB 2.0までと3.0でまた変わるような

656:名無しさん@お腹いっぱい。
11/10/15 15:58:47.70
OSの(たぶんWinよりはかなり)エラー時の対応が充実していないUSB&ストレージクラスドライバを、
デバイス(ドライバ)障害時の動作検証が(たぶんNTFSよりはかなり)為されてないZFSで使う場合に、
どの程度の総合信頼性になるのかってとこだよな。
USB接続デバイスに1000以上のqueueつっこんで応答無くなった場合には何秒待つの?とか、
どういうエラーモードならデバイスにリセット送ってやり直すの?とか検証以前に誰も使ってねぇし安定するわけがない

657:名無しさん@お腹いっぱい。
11/10/15 16:25:29.20
はいはいワロスワロス

>誰も使ってねぇし安定するわけがない

誰も使ってないのに、安定しないのは分かるわけですね。エスパーさんすごいですね

658:名無しさん@お腹いっぱい。
11/10/15 19:00:22.94
誰も使ってないのに安定してるのか。すごいなー(棒)

659:名無しさん@お腹いっぱい。
11/10/15 20:13:28.63
USBハードディスクにoi151aをインストールしようと思ってますが、
できます?
ちなみにoi151ではinit 5シャットダウンがうまく走らず、PCの電源が落ちませんでした。

660:名無しさん@お腹いっぱい。
11/10/15 20:55:57.08
>>659
oi_148bではできたし、できると思う。oi_151aにアップデートしても問題なく動作してる。
シャットダウンもできる。

661:名無しさん@お腹いっぱい。
11/10/17 08:52:23.67
URLリンク(www.yomiuri.co.jp)
円周率10兆桁!会社員が計算…世界記録更新
「昨年10月10日からは、新たにハードディスクの記憶容量を
一般パソコンの約50台分の48TB(テラバイト)に増強して
10兆桁への挑戦を開始。たびたびハードディスクが故障し、
計算できなくなる日が計180日もあったが、その期間も含め、約1年かけて大記録を達成した。」

とあるが、ZFSで簡単にRAIDZとか組んでいたらもっと短縮できたか?

ファイルシステムだけでなくて、CPU、GPUがエラー起こしてないか、
ECCつかってるのかとか突っ込みどころ満載だが、つぎに20兆ケタまで
挑戦して10兆ケタまで同じならとりあえず10兆桁までは正しいと思うしかないか。
(東大の金田氏がやっているように、べつの計算方法で検証しているのだろうが、
そこまで新聞記事でも書いてほしいもんだ。)


662:名無しさん@お腹いっぱい。
11/10/17 12:26:36.56
ついったーでやれ

663:名無しさん@お腹いっぱい。
11/10/17 18:16:20.89
>一般パソコンの約50台分の48TB(テラバイト)に増強して

えーと、うちのHDDが今ん所 37TBだから、一般パソコンの1.3台分かな。



664:名無しさん@お腹いっぱい。
11/10/17 21:28:57.32
>>663
エロ動画ばかり貯めてるんじゃないよ。

665:名無しさん@お腹いっぱい。
11/10/17 22:52:39.19
>>663
それが逸般パソコンだって事を認識しようぜ

666:名無しさん@お腹いっぱい。
11/10/18 01:50:59.91
>>664
エロ動画で37TB埋められるやつはむしろ尊敬するわ

667:名無しさん@お腹いっぱい。
11/10/18 05:20:18.82
ZFSスレがあるなら、そこでいい話題が多いな。

668:名無しさん@お腹いっぱい。
11/10/18 06:28:53.72
昔はあったけどいつの間にか無くなったな
強いて言えばこことか
スレリンク(linux板)

厳密に分けるほどどっちも盛り上がってないし構わんと思うけど

669:名無しさん@お腹いっぱい。
11/10/18 08:23:47.44
今だとZFS動くのはSolaris系、Nexenta、FreeNAS系、Linuxで強引に動かす系とかか?
有ってもいいかもな>ZFS総合スレ

670:名無しさん@お腹いっぱい。
11/10/18 11:31:59.13
ZFSの今の認知度ならスレ立ててすぐに寂れるってことは無いだろうし
情報が集約されてたほうが個人的にもありがたいな

先日ZFS Day 2011.10も開催されたところだし、需要は多いだろうね

671:名無しさん@お腹いっぱい。
11/10/18 14:38:49.58
Linuxで強引に動かす系にも手を出してる自分(とFUSE使いの人たち)からするとUnix板でいいのか悩むところではある。
Unix板でLinux使う話はNGなんだっけ?じゃなければUnix板でいいと思うけど>ZFSスレ
ただZFSネタを別スレにするとここが著しく過疎る気がw

672:名無しさん@お腹いっぱい。
11/10/21 21:36:22.34
それは言えるw
でも過疎ってもこの板だからそうそう落ちないからいいんじゃないか。

ZFSで独立したスレは需要あると思う。
zfs-discussも平気でFreeBSDでの話とか出てくるしねえ。

673:名無しさん@お腹いっぱい。
11/10/22 01:02:24.01
とりあえず立ったら使わせてもらうよ

674:名無しさん@お腹いっぱい。
11/10/22 09:55:36.11
ところで、linuxのZFSはどういう経緯で実装可になったの?

675:名無しさん@お腹いっぱい。
11/10/22 10:42:44.21
FUSE使ったりネイティブ版を自分でビルドして組み込むことのどこに問題が?

676:名無しさん@お腹いっぱい。
11/10/22 10:48:57.90
カーネルモジュール作成用のソース配布するから自分でビルドして使ってねっていう形態で
公式のLinuxカーネルに取り込まれることはないよ。
GPLのシンボル全部外してLinux用のカーネルモジュール作るのは大変そうだけど。

677:名無しさん@お腹いっぱい。
11/10/23 00:37:07.89
>>674
ライセンスはどうあれOSSなんだからいじったソース公開するのは自由よね、という形態。
というわけでソースは配ってるけどどっかのディストリに含まれることは多分無い。
まぁUbuntu向けppaとか公開されててボタン一発で入れられちゃう状態だけどw

678:名無しさん@お腹いっぱい。
11/10/23 01:21:53.58
Linuxでも、ZFS rootイケるの?

679:名無しさん@お腹いっぱい。
11/10/23 18:27:58.48
Solarisなら、ZFS rootも問題ない。

680:名無しさん@お腹いっぱい。
11/10/27 21:36:46.58
            ∩_ 
           〈〈〈 ヽ
          〈⊃  }
   ∩___∩  |   |
   | ノ      ヽ !   !
  /  ●   ● |  /
  |    ( _●_)  ミ/ こいつ最高にアホ
 彡、   |∪|  /
/ __  ヽノ /
(___)   /

681:名無しさん@お腹いっぱい。
11/10/27 22:01:20.92
>>679-680
どっちもクソつまんない

682:名無しさん@お腹いっぱい。
11/10/31 13:43:35.17
いいや。クソつまる。

683:名無しさん@お腹いっぱい。
11/10/31 16:16:51.14
ZFSの話題もHDD価格高騰とともに消え去ったか。

684:名無しさん@お腹いっぱい。
11/10/31 22:53:39.93
>>683
年明け位から下がり始めるんじゃないかな?

685:忍法帖【Lv=9,xxxP】
11/11/01 00:31:29.76
あれ?

686:名無しさん@お腹いっぱい。
11/11/01 21:16:36.23
>>678
URLリンク(github.com)
いけなくもなくもなくもないような

687:名無しさん@お腹いっぱい。
11/11/04 19:50:59.44
>>683-684
回復まで半年かかるという噂も…

688:名無しさん@お腹いっぱい。
11/11/04 20:23:06.84
ZFS関連の操作の話題は別にここでやる必要ないから、どうでもいいかな。

まあ、春かGW頃まで復旧しないだろうね。

689:名無しさん@お腹いっぱい。
11/11/06 17:09:33.89
NexentaCore 3.0.1をインスコしようとしてるんだけど、Loading Kernelのところで
止まって先に進まない。

REIDカード外すと先に進むからこいつが悪さしてるようなんだけど、このREID
カード上に作ったアレーにインスコすることは出来ないんでしょうか?カードはLSI
です。

690:名無しさん@お腹いっぱい。
11/11/06 17:16:50.36
「REID」って何?
想像はつくけど、敢えて訊いて見る。

691:名無しさん@お腹いっぱい。
11/11/06 18:12:16.72
あ、すみません LEIDです。日本人はL/R区別苦手です。

692: 忍法帖【Lv=40,xxxPT】
11/11/06 18:15:27.71
もりあがってまいりますた!

693:名無しさん@お腹いっぱい。
11/11/06 18:15:52.13
そういう問題じゃないと思う。語源というか基本を理解してるかどうか。
つまり個人の問題。

694:名無しさん@お腹いっぱい。
11/11/06 19:31:16.11
会話でRとLの区別が苦手なのはよく知られてると思うけど、
読み書きで区別が苦手っていうのは、また斬新な意見だな。

695:名無しさん@お腹いっぱい。
11/11/06 19:52:11.28
All light LOL

日本人以前に読み書きの能力に問題があるだろう。
LEIDカードかぁ…

696:名無しさん@お腹いっぱい。
11/11/06 19:57:15.03
そのカード欲しいな
アレーってなるのか

697:名無しさん@お腹いっぱい。
11/11/07 01:40:14.64
>>691
こいつ日本人バカにし過ぎだろ…

698:名無しさん@お腹いっぱい。
11/11/07 01:49:54.89
日本人のふりをした半島の人でしょ

699:名無しさん@お腹いっぱい。
11/11/07 01:51:32.02
マジレスすると、略される前の単語を発音と一緒に覚えるようにすれば、そう言う問題は起こりにくい。

700:名無しさん@お腹いっぱい。
11/11/07 01:57:23.16
すみません、689です。
>691 が誰なのかは知りませんがREID→レイドのtypomissです。すみません。
カードはLSI(というかAMCCというか3ware)の9650SEで、これをHPのML110G6って
いうサーバに挿しています

ML110 G6
URLリンク(h50146.www5.hp.com)

9650SE
URLリンク(japan.3ware.com)

NexentaCoreのISOイメージは↓のページからダウンロードしました。
ダウンロードはWindows7 Enterprise版(64bit)にインストールしたFireFox7.0.1
で行って、それをTDKのCD-RWに焼いて使っています。CD-RWに焼く際はWindows標
準の機能を使っています。ダウンロードしたISOファイルの解凍にはlhaplusという
ツールを使いました。
URLリンク(www.nexenta.org)

キーボードとマウスはML110G6に付属してきたものではなく、SonyのPS2純正キーボ
ードとマウス(SHPH-10240)を使っています。モニタは三菱電機のDiamondcrysta
RDT261WHです。



701:名無しさん@お腹いっぱい。
11/11/07 03:27:57.72
とりあえず「RAID」で検索して、その意味から勉強し直した方が良いと思うぞ。
で、その後に URLリンク(www.oracle.com) で検索するとよろし。

702:名無しさん@お腹いっぱい。
11/11/07 03:42:34.36
>>701
適切な回答が出来ないなら黙ってようね。ウザイから。

>>700
3wareがopensilarisに対応したのはすんごい遅かった(codeset9.5.1とか)ので
標準ではドライバは入っていません。だからといってbootで固まるのはダサいと
思うけど、それはそういうものとして諦めて下さい。

703:名無しさん@お腹いっぱい。
11/11/07 04:54:45.62
うざいのが大量に涌いてるなw

エラソーに語りつつのopensilarisにもワロタが
typoを必ず盛り込んでくる>>689は芸達者すぎるw
typomissとか狙い過ぎだろおいww

704:名無しさん@お腹いっぱい。
11/11/07 08:41:53.24
さすがにこのレベルだと、入ったとしても使いこなせないから諦めた方がいい。


705:名無しさん@お腹いっぱい。
11/11/07 08:53:45.39
>>702
お前も適切な回答が出来ないなら黙ってようね。ウザイから。

706:名無しさん@お腹いっぱい。
11/11/07 09:46:29.11
>>699
そういうお前は Solarisがなんの略か意識して使ってるんだろな(OPEN Lookなき今でも)w

707:名無しさん@お腹いっぱい。
11/11/07 09:50:00.48
どうでもいい
釣られ杉

708:名無しさん@お腹いっぱい。
11/11/07 10:18:36.60
シッタカしつつOPEN LOOKをOPEN Lookと書いちゃう人ってw

709:名無しさん@お腹いっぱい。
11/11/07 10:26:46.15
あ、すみません OPEN ROOKです。日本人はL/R区別苦手です。

710:名無しさん@お腹いっぱい。
11/11/07 10:31:23.06
つまんない一発ネタ繰り返すのってサイアク〜

711:名無しさん@お腹いっぱい。
11/11/07 10:34:20.74
LEID = Legacy Equipment of Inexpensive Disks

712:名無しさん@お腹いっぱい。
11/11/07 12:41:09.27
>>711
努力は買う

713:名無しさん@お腹いっぱい。
11/11/07 15:09:03.32
中古SCSIでアレイか。なるほど。

714:名無しさん@お腹いっぱい。
11/11/07 19:27:09.74
SCA 80pinなドライブ割と持ってんだけどw SCA->SASなアダプターとか出んかね?
SCA->Firewireでもいいんだがw # 昔 50pinのやつあったけど。

715:名無しさん@お腹いっぱい。
11/11/07 19:51:16.96
中古だとあれー?なことにならないか心配

716:名無しさん@お腹いっぱい。
11/11/07 23:16:16.02
>>715
審議中(AA略

717:名無しさん@お腹いっぱい。
11/11/08 08:56:26.21
>>714
2.5SATA-3.5SCAはあったけど逆は見たことないな、あったとしても多分普通にsasドライブ買った方が安いかと、アダプターで一万位するし

718:名無しさん@お腹いっぱい。
11/11/11 23:38:22.53
solaris11が出たみたいだけど、OpenIndiana/Illumos的には何か影響とか動きはあるの?

719:名無しさん@お腹いっぱい。
11/11/12 01:20:24.40
あっちはあっち、こっちはこっち。

720:名無しさん@お腹いっぱい。
11/11/12 09:12:38.59
>>719
cddl素材とか無視するのはもったいなくね?

721:名無しさん@お腹いっぱい。
11/11/12 11:09:44.82
cddl?

722:名無しさん@お腹いっぱい。
11/11/18 18:44:37.73
winのマイドキュメントとLinuxのhome置き場に使いたいと思ってます。
アカウントはad管理してて40ユーザーぐらい。
winとLinuxどちらからも同じようにファイルアクセスしたいが、どうすればいいんでしょう?
どちらからアクセスしても同じADユーザーなら同じuidでoiに書き込まなきゃならないのは理解してるんですが。
あ、あとwinの「過去のバージョン」機能も使いたいです

723:名無しさん@お腹いっぱい。
11/11/18 19:44:48.79
solaris11 の ZFS 上で sharesmb 使えばいい

724:名無しさん@お腹いっぱい。
11/11/18 21:15:53.55
別にSol11じゃなくてOIでよくね?

krb5.confか何か書いてsharesmbすればできると思う。

そしてZFSのsnapshot取れば以前のバージョンから見えるようになる。

725:名無しさん@お腹いっぱい。
11/11/18 21:44:16.68
>>724
ZFSのsnapshotってsmbのバージョン機能にそのまま反映されるんだ…知らなかったorz

726:名無しさん@お腹いっぱい。
11/11/18 22:23:22.44
ZFSで "ゴミ箱" 機能も実現できるのかな?

727:名無しさん@お腹いっぱい。
11/11/22 20:44:48.85
我が家では、ZFSファイルサーバ兼dyndns更新サーバとして、sshポートフォワードサーバとして活躍中...
別にsolarisじゃなくてもいいか...

728:名無しさん@お腹いっぱい。
11/11/23 02:03:43.96
ほぅ、他のOSでZFSを動かしたいと申すか

729:名無しさん@お腹いっぱい。
11/11/23 08:32:55.55
comstarの論理ユニットに物理テープドライブを割り当てる方法が調べてもよく分からないのだけど
できるはずという話とパッチ当ててドライバ突っ込まないと駄目という話があって混乱してます。
結局素のままのOIでこれはできます?

730:名無しさん@お腹いっぱい。
11/11/23 20:36:40.08
素直にoiが入るサーバで、いっぱいDISKのるのでおすすめってなんだろ?
1Uか2Uくらいがいいんだけど。

いわゆるRAIDカードがなくって、素のDISKがいっぱい入るやつだと安心かなー。

HCLのような情報って今でもあるんだっけ?


731:名無しさん@お腹いっぱい。
11/11/23 23:10:05.10
URLリンク(www.oracle.com)

732:名無しさん@お腹いっぱい。
11/11/24 00:53:19.26
>>731
それを買うなら、わざわざoiでなくSoraris11を選択するだろう。


733:名無しさん@お腹いっぱい。
11/11/24 02:13:04.92
>>730
URLリンク(www.sunwaytech.co.jp)
とかで、M/Bは選び放題。

734:名無しさん@お腹いっぱい。
11/11/24 06:22:52.26
ColdFusionが吐いたエラー、中国語圏になってる(笑)

735:名無しさん@お腹いっぱい。
11/11/24 08:09:45.90
>>733
バックパネル見た限りじゃM/Bは専用品じゃないのか?

736:名無しさん@お腹いっぱい。
11/11/24 18:14:08.14
SuperMicroのUIO対応マザーボードが選び放題ってとこか

737:733
11/11/24 20:34:57.93
SuperMicroは大体同型で2種類ケースは出てるので、UIO対応じゃないのもあるよ
URLリンク(www.sunwaytech.co.jp)

738:名無しさん@お腹いっぱい。
11/11/25 05:51:53.50
>>733
このケースの向かって左側最下段にGPU入れたら熱死するかな

739:名無しさん@お腹いっぱい。
11/11/25 06:09:43.52
DL380でoiっていいかなぁ。
RAIDカードつけてDISK10個くらいzfsでみえるかなあ。

試しで買うにはちょっと高いよなぁ。

740:名無しさん@お腹いっぱい。
11/11/25 07:03:04.20
Supermicroはjaistでも使ってるね。
E16だっけ?

741:名無しさん@お腹いっぱい。
11/11/25 22:20:31.39
保守

742:名無しさん@お腹いっぱい。
11/11/26 11:56:05.66
DL380に2009.06入れようとして、SmartArray用のドライバを追加で読み込まないと
ディスクが見れなかった気がした。

ドライバが腐ってるかどうかは知らない。実用したことはないので。

743:名無しさん@お腹いっぱい。
11/11/26 16:14:57.74
SmartArrayのドライバって64bit化されてたっけ?
前に入れた事あるんだけどドライバが32bitだけしか無くて少しハマった経験がある。

744:名無しさん@お腹いっぱい。
11/11/26 20:30:45.29
これだこれだ。
URLリンク(ftp-admin.blogspot.com)

745:名無しさん@お腹いっぱい。
11/11/26 21:39:40.14
>>744
いまだったら45台入るのが出てるね。
URLリンク(www.sunwaytech.co.jp)
これだと最初の質問してた方の用途とはかけ離れちゃうけど

746:名無しさん@お腹いっぱい。
11/11/27 03:36:56.15
ZFSとRAIDカードって相性悪くなかった?

747:名無しさん@お腹いっぱい。
11/11/27 07:40:50.38
>>744-745
これおもしろいな
EMCやその他ストレージ買おうと考えてたがこんな自作ちっくなのも有りなんだな


748:名無しさん@お腹いっぱい。
11/11/27 09:59:20.80
RAID5で束ねたHDDをRAIDZでさらに束ねる至福。

749:名無しさん@お腹いっぱい。
11/11/27 10:44:53.35
>>746
相性はともかく、遅くなるってことだね
「いいから生ディスク見せろやゴルァ!」で、
パーテーション切るだけで遅くなるってどこかで読んだ

750:名無しさん@お腹いっぱい。
11/11/27 10:48:39.54
>>748
それWrite Holeがおきるんじゃないか?

751:名無しさん@お腹いっぱい。
11/11/27 14:23:19.82
>>748
お前バカだろ

752:名無しさん@お腹いっぱい。
11/11/27 15:53:37.25
ハードウェアーRAID6のアレーの上に非RAIDのZFS
これが一番現状では一番ベスト

753:名無しさん@お腹いっぱい。
11/11/27 17:39:21.33
752氏の活躍を見守りたい

754:名無しさん@お腹いっぱい。
11/11/27 21:29:42.08
一番一番だけ読んだ

755:名無しさん@お腹いっぱい。
11/11/28 21:27:07.09
素敵な748の方法を見てふと思ったんだがw
IOps稼げないraidzの件、ブロックサイズの最小を512から64kくらいに引き上げたら
WriteHoleはあるがread時の分散は為される・・・ってことはある?
そこの部分は設定できんのかな。
IOps稼ぎつつ高可用性求めてraidz2とかにしたい場合、
トンデモなドライブ数が必要になってきてかなり残念な仕様だよね>zfs


756:名無しさん@お腹いっぱい。
11/11/28 21:49:18.94
高可用性を求めるなら冗長分の比率はそう下げられないのに何言ってんだ?

757:名無しさん@お腹いっぱい。
11/11/28 22:18:05.42
高可用性というのは貧民向けではないからな

758:名無しさん@お腹いっぱい。
11/11/28 22:35:11.42
中華陽性

759:名無しさん@お腹いっぱい。
11/11/28 22:44:24.71
>>756
言ってる意味が分からんw
冗長分の比率? 台数じゃなくて?
まさかraidz2よりmirror使えとか言うんじゃないだろうな

760:名無しさん@お腹いっぱい。
11/11/29 09:27:29.30
高可用性をある程度求めるなら、それに応じた冗長分も自ずと決まるということから
冗長の比率も可用性に応じた下限が存在するということ。

冗長化の仕組みとか意味とかを勉強するといい。

761:名無しさん@お腹いっぱい。
11/11/29 15:31:44.48
高可用性求めるならRAID6かRAIDZ2、ただしRAIDZ2はIO性能悪いのでRAIDZ2-0にする必要がある。
RAID6ならそこまでしなくてもIO性能高いのでドライブ数に見合った性能がほしければZFSは糞FSとしか言いようがない


762:名無しさん@お腹いっぱい。
11/11/29 19:41:06.14
RAID-4なWAFLが何か言いたそうです……

763:名無しさん@お腹いっぱい。
11/11/29 20:18:41.81
わっふるわっふる

764:名無しさん@お腹いっぱい。
11/11/29 22:00:52.50
RAID-Z3を忘れないでください…

765:名無しさん@お腹いっぱい。
11/11/30 12:26:38.84
HDD数増やせば増やすほど性能劣化するつーのは設計上の不備だよな
ハードウェアRAID6が最強ということになってしまうので今後のZFSに期待

766:名無しさん@お腹いっぱい。
11/11/30 13:04:51.45
RAIDって性能向上の為の技術じゃないんだけどな、本来は

767:やんやん ◆yanyan72E.
11/11/30 13:43:15.47
RAID-Z*の為のハードウェアアクセラレーターってないのかしら。

768:名無しさん@お腹いっぱい。
11/11/30 18:46:19.15
どうせ何やっても最終的にはバスで律速されて終わり

769:名無しさん@お腹いっぱい。
11/11/30 19:53:38.68
だれがシーケンシャルリードの話をしろと

770:名無しさん@お腹いっぱい。
11/11/30 20:43:27.27
HDDを増やせば増やすほど故障が怖くなるのがRAID5,6なんじゃなかったっけ
どうせ単アレイに突っ込むHDD数は一定以上にはできないし比較するような話でも無いと思うんだけどなぁ

771:名無しさん@お腹いっぱい。
11/11/30 22:37:00.16
>>770
RAID5はリビルド中の高負荷でHDDが死ぬケースが少なくない

772:名無しさん@お腹いっぱい。
11/11/30 22:46:19.15
770には縁のないIOPSのおはなしかとおもわれ
ていうか増やして怖くないRAIDレベルがあるとでも

773:名無しさん@お腹いっぱい。
11/11/30 23:03:00.95
RAID1?

774:名無しさん@お腹いっぱい。
11/12/02 05:06:45.46
(RAID10じゃなくて)RAID1なら増やせば増やすほど安心だな!って誰もやらんわw

>>765
>HDD数増やせば増やすほど性能劣化する
そうなん?

775:名無しさん@お腹いっぱい。
11/12/02 14:44:47.07
大雑把にいうと、hole作らないために、例えば4台構成で3KB書くとすると
raidz:disk1〜3に1KB、disk4にパリティ書く
raid5:disk1に3KB書いてdisk2〜3から64KB読んでdisk4に64KBパリティ書く
でraidzつえーなんだけど、3KB読むには
raidz:disk1〜3から1KB読んでzfsチェックサム計算合ってたら完了
raid5:disk1から3KB読む
ということになるので、raidz構成ドライブのうち最も遅いドライブ速度に律速する。
主なるIO負荷であるところの細かいrandom readが同時に来る場合IO性能はraid5>>>raidzて感じ
zfsで速度要るなら2〜3way mirrorをストライプするしかない。容量と両立は無理。

ということだと思うけど聞きかじっただけなのでえろいひとよろ。raid5もなんか違うかも

776:名無しさん@お腹いっぱい。
11/12/02 20:18:40.38
高田純次かとおもた。

777:名無しさん@お腹いっぱい。
11/12/02 21:05:46.70
>>775
えろいひとじゃないけど、raidzはその動作であってるかと。
x10 のraidz2 pool作って運用してるけど、読込が書かれてるように全ドライブからの
読込するのでかなり遅い。x5 raidz のStripeのがよかったなーと今更ながらに後悔中。
速度がそんなに必要なpoolではないので、まだよかったんですが。

778:名無しさん@お腹いっぱい。
11/12/02 22:56:54.58
>>777
我慢できないレベル?
CPUのスペック’とかメモリどれくらいつんでるの?

うちの会社で現在ファイルサーバにするマシンスペックと
構成を決めてるんだが・・・


779:名無しさん@お腹いっぱい。
11/12/02 23:24:17.29
>>775
blogが何言ってるかよくわかんないのでもう少し説明加えてください。特に前編

780:名無しさん@お腹いっぱい。
11/12/03 05:53:37.58
>>778
スペック書いちゃうと色々アレだけど、まぁいいやw

CPU Xeon3460
M/B X8SIA-F
MEM ECC Reg 8GB x4
Net e1000g x2
IB ConnectX x1
HBA LSI 9211-8i
SAS Expander Intelのヤツ
HDD Seagete ST32000542AS 2T x 10 RAIDZ2
HDD HGST HDS5C303(CoolSpin) 3T x 5 RAIDZ
ZIL + L2ARC PX-128M2P x 1
OS NexentaCore 3.1.1

基本的にうちは、普段はSRP、サーバ仮運用中でiSCSIでzvolを切り出しして使ってるので、
ブロック単位のI/Oが多いんだけど、10台の方のRAIDZ2をBlockSize 32kで作ってる。
で、こっちはReadは60MB/sくらい。5台の方もBlockSize 32kでReadは200MB/s超える位。
10台の方は、iostat -xtC 1とかで見てると、Readが120MB/sくらいなんだけど、
zpool iostat -v pool名で確認すると60MB/sくらいで読んでます。
zilとl2arcをちょっとRAID使ってパフォーマンスの底上げしようかと画策中ですわ。

781:名無しさん@お腹いっぱい。
11/12/03 16:30:25.95
>>778
どうしてもraidz使おうって計画なの? 用途にもよるだろうけど、
CPUなんてC2D世代でいいしメモリも8G位でいいと思うが、
HDDだけは沢山詰める筐体にしてmirror+stripeで使えばいいと思うよ
よほど容量重視でない限り大きな問題点が無い万能構成。
compress onでレイテンシ気になるならCPU、dedupするならメモリ、と
あとはオプション要素でボトルネックパーツが決まってくるよ

>>780
stor free版で限界容量かー、とおもったらcoreなのか。syspoolは?
あとその系のHDDってRAIDに挿して相性どう?
時々Solaris系ドライバの腐敗具合と相まって酷いことになるものがorz
BlockSizeを変えるとどう影響するのかよかったら解説よろ
zvolの場合ってまた違う話なんだっけ??


782:名無しさん@お腹いっぱい。
11/12/03 17:02:46.26
OI148
xeon5110+MEM 8GB
lsi 8 port sas hba
raidz2(WD1002FAEX 4台)+zil(intel SSD 40GB)+l2arc(intel SSD 120GB)

# bonnie++ -d /tank01/ -n 0 -b -u root
Version 1.03c ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
ss02 16G 58970 88 118604 37 83418 31 53780 99 246847 30 3432 9
ss02,16G,58970,88,118604,37,83418,31,53780,99,246847,30,3432.2,9,,,,,,,,,,,,,

783:780
11/12/03 18:23:07.53
>>781
色々テストして行ってたら結局mirror + stripeが良いわけがよくわかりましたよ。
後々の容量拡張とかも考えたら楽だし。
大容量のzfsのストレージがmirror+stripeなのがよくわかりまわしたわ。

syspoolは書き忘れですw 普通に2.5のHDDを使ってますね。
うちはHDDが原因でこけたことはないですね。
ちなみに、RAIDCardではなくSASのHBA(mpt_sas)ですわ。
OpenSolarisじゃないけど、検証でSolaris11の環境を別で作って色々試してる
んですが、そっちだとRAIDカードのドライバ(mr_sas)が原因で止まる止まる orz
あと、止まったのってzilとかl2arcのデバイスを追加・削除したときによく刺さりましたね。
この辺は元々動作中に頻繁に追加・削除なんてしないと思うので運用中には
問題になりにくいんですが、検証中に各デバイスの有り無しのパフォーマンスチェックして
たら結構止まりました。

上記のBlockSizeはzvolのvolblocksizeの間違いです。最初は小さくすればランダムのI/O
のパフォーマンスがあがるからいっかーと思ってデフォルトの8kで作ってたんですが、上記に書いてた
ような状態になりまして、32kで作り直した直後にSRP Initiatorが死んでチェックできてないんです orz
BlockSizeは小さくすればその分ランダムの性能が上がる予定だったんですが、raidzだと>>775氏が
書いてるような状態なのでそんなことは無く、バランスの良いvolblocksizeを探してる最中です。

784:名無しさん@お腹いっぱい。
11/12/03 20:29:48.51
>>783
syspoolはstorのインストーラが全領域mirrorで確保するので困ったなとw
RAIDカードはやっぱり運試しみたいになりますかーorz 何やってもダメなRoMBのラック鯖があったり。
でもwrite cache付いてる板はzfsでも速いんで。理屈上はSSDよりも。ZIL置けますです。

recordsizeとvolblocksize(blocksize)あたりの原理と影響度知りたいんですが>>755に反応無いみたいだし
アライメントの話ばっかhitするし。recordsizeいじってたらnfs遅くなったんでよく分からんです。
blocksize=512でraidzが1block毎に分散してdiskに書いているなら、rreadは高速化されるんじゃないのかとか、
いやせめてntfsやらの4k単位で増やした方がIO減るしdiskレイテンシがマシになるんじゃとか、そもそも
blocksize=32kだとしてraidz下のdiskには32k単位で書かれるのかどうかとか、ソース嫁的FAQがみあたらない状態
で、チューン諦めてmirror+stripeにしたのが>>775
尚、HDDを部分的に交換した場合、そのdiskのwriteが遅いとraidzやmirrorがwrite完了待ちするんで、
zfsもうちょっと賢くなって欲しい

785:名無しさん@お腹いっぱい。
11/12/04 01:24:13.12
>>784
syspoolの仕様はcoreでも一緒ですねw
RAIDカードは手元のLSI 9220とAdaptec ASR-6445で試してみましたけど、後者はドライバがない為論外、
LSIの方は負荷かけるとフリーズっていう状態で・・・。あとは借り物のカードが数枚あるんでそっちも試してみる
予定ですが。ARECAのカードがoi151だとサポートされてるので試してみたいものの、個人で検証してる関係
で費用が捻出できずw 10GbEオーバーのストレージとして使おうとすると、WriteCache付きのRAIDカード使っ
て、Poolもzilもl2arcもRAIDで作る方が速いんじゃないかと思ってます。

自分もrecordsizeとvolblocksize辺りの原理と影響度はよく理解できてないですね。Solaris11でrecordsize
の最大サイズが1MBまで上がってるのは、多台数での分散書込・読込のパフォーマンスアップの為ってどっかで
見たような(記憶違いならごめんなさい)。
recordsizeはあくまでその値をなるべく使うようにってものじゃないかと。
zfsの書込が可変長ストライプなんで、nfsとかだとファイル毎に変ってる気がします。
うちでzvolへのzilの書込を見てるとrecordsize 128kだと、128kでzilへは書込いってますね。
その後poolへ書き出ししてる際に個々のDiskへどの位のblocksizeで書込してるかはiostatである程度割り
出ししてます。zilへ書かれてる内容=実際に書込む内容って前提が付きますけど。
あと、うちが遅いのはシンプロビジョニングでzvol作ってるからってのもあるかもしれず。

HDDを部分的に交換は、pool,zil,l2arc全部で同様の状態なりますね。
安全側に振ってるんでそういう挙動になってるんだと思います。
とりあえず色々実験してて思ったのはボトルネックが素直に出るファイルシステムだなーと。
zfsの王道の設定以外を行うと賢くない部分がよくでてきますなw

786:名無しさん@お腹いっぱい。
11/12/04 17:41:56.71
>>785
おー、今度情報探してみます >>Solaris11でrecordsize UP
raidドライバはdiskが死んだときにarrayごと応答が無くなるものがあって憤死しました。adaptecだったか。事前検証しづらすぎ。
l2arcですがFIFOで消えてくのはちょっと・・・バックアップでfile総舐めしたら残念なことに。もう少し賢くならんものか。

うちもiostatあたりで検討付けてますがdtrace勉強しないと細かい部分は分からないなぁと。
nfsはそこかしこに高速化用cacheが有ってそれありきで動いてるんでネックが解析しづらいです。
シンプロはどうなんでしょうね。cowでsnapshotあったりするとIO的には大した増加は無さそうではあるけど


787:名無しさん@お腹いっぱい。
11/12/05 01:12:35.90
>>786
スナップショットを取ってsecondarycacheプロパティをいじれば良いんじゃ無いかな

788:名無しさん@お腹いっぱい。
11/12/05 02:02:08.62
>>787
あ、backup時に一時的にl2arcをoffにするって感じでしょうか?
snap作ってそのl2arc(+arc)をnoneにしてbackup用にreadさせればいいわけですね。
なるほど、そこまでアクティブに弄る方法は考えてませんでした。やってみます、ありがとうございます

789:名無しさん@お腹いっぱい。
11/12/05 16:02:20.44
しかもその方法ならl2arcが無効になるのはそのスナップショット経由のアクセスだけのはずだから
他のアクセスによるライブや他のスナップショットのl2arcへの影響に干渉しない、はず?

790:名無しさん@お腹いっぱい。
11/12/05 17:12:59.73
なんかすげえなZFS

791:名無しさん@お腹いっぱい。
11/12/06 21:44:27.81
久しぶりに覗いたらなんか伸びてる。

>>775
>ということになるので、raidz構成ドライブのうち最も遅いドライブ速度に律速する。
その例では確かにそうだとわかるんだが、実際にそんなもんなのか?
3KB「だけ」読むことなんて実際は無いわけで、ランダムにしろシーケンシャルにしろ
まとまったデータ読み出すときはRAID5もZも結局全部のHDDにアクセス(=遅いドライブ速度に律速)することになると思うんだが。

なんにせよZFSで速度稼ぎたいならzilとl2arcをSSDで盛り盛りするくらいしか思いつかんけど。

792:名無しさん@お腹いっぱい。
11/12/07 00:24:12.29
>>791
RAIDカードの制御にもよるだろうけど、
ストライプサイズ64k位で組んでる場合、
64k以下のファイルを連続で読み出すとき、
複数のHDDに分かれていれば、それぞれのHDDに
オーバーラップさせてで読み出しかけられるから、
やっぱ早いんじゃ無いか?遅い奴に足は引っ張られるが。
回転待ち分を結構隠蔽出来そうな気がする。

ZFSの場合は1つ読むにも全部のHDDから読み出さなきゃ
ならんと言うことなら、確実に差は出ると思うけど。

793:名無しさん@お腹いっぱい。
11/12/07 07:50:36.03
どんなときでも全部に読みに行くのが確定しているならそれはそれで扱いやすい
RAIDのストライプサイズはそのアレイへのアクセスときっちりかみ合ってないといけないし
パターンがばらけていると全体的に速度を出すのは難しい


次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

4948日前に更新/246 KB
担当:undef