[表示 : 全て 最新50 1-99 101- 201- 2ch.scのread.cgiへ]
Update time : 06/17 06:14 / Filesize : 85 KB / Number-of Response : 294
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

Linuxでソフトウェアクラスタ〜



1 名前:1 [01/09/09 15:02 ID:vl/17jTM.net]
Linuxを使ってWebサーバ、Mailサーバ、DBサーバのソフトウェア
クラスタ(ロードバランスね)を実現する手段をいろいろと研究してます。

ttp://www.linuxvirtualserver.org/
ttp://www.linux.nttcom.ne.jp/solution/product/progartlce/
ttp://www.ace.comp.nec.co.jp/CLUSTERPRO/
ttp://www3.toshiba.co.jp/cn3/cluster/index_j.htm
ttp://www.turbolinux.co.jp/products/cluster/tlcs6/

これ以外にも何かあったらカキコお願いします
稼動実績やハードウェアクラスタと比較した場合の費用対効果など、
何でもどーぞ

116 名前:login:Penguin mailto:sage [04/11/05 13:20:33 ID:Cx6NA8ud.net]
Webサーバ2台+DBサーバ1台の構成で負荷分散したいのですが、
LVSのマシンを追加したり、市販のロードバランサのなどを
追加する予算はないような場合。
その場合、
DNSラウンドロビンにして、
Webサーバ2台をHeartBeat、Keepalive等を使って1台故障しても
サービス継続できる様にするって構成は現実的でしょうか?
HeartBeat,Keepalive自体それほど詳しくないのですが
このようなことは可能ですよね?
それとも、もっと良い方法などあるんでしょうか?


117 名前:login:Penguin mailto:sage [04/11/05 18:56:30 ID:g5maNyci.net]
普通クラスタソフトウェア使えば、DNSラウンドロビンなんぞする必要ないぞ。


118 名前:login:Penguin mailto:sage [04/11/05 21:04:52 ID:Hbx8yg6d.net]
>>116
こういう運用が可能です。
ultramonkey.jp/2.0.1/topologies/sl-ha-lb-overview.html


119 名前:login:Penguin mailto:sage [05/02/22 22:17:12 ID:wiT/Yf1R.net]
408 名前:login:Penguin 投稿日:05/02/21 18:21:37 ID:jyG3ZTYO
おい、SLES8の箱には「clustering」って書いてあるのに、入れてみてもどうしたらクラスタ組めるかちっとものわからねーぞ!!
大体マニュアルの何処にも「clustering」の「cluster」の字もないじゃないか!

いや、Installationガイド72ページの「option domain-name "cluster.suse.de";」ってこれ全然クラスタと関係ないじゃん!!ふざけんな糞のベル金返せ‐‐‐!!




409 名前:login:Penguin 投稿日:05/02/21 19:00:34 ID:A0XgvguO
つI


120 名前:login:Penguin [05/02/24 15:44:12 ID:O3InWtLB.net]
リナックスのクラスタって、ウエブサーバーを高速化する
のにつかわれたりしないのだろうか?

パフォーマンスをあげるのにつかわれないでしょうか?

121 名前:login:Penguin mailto:sage [05/02/24 23:04:28 ID:uj7PcG5v.net]
負荷分散型を高速化というのなら、あるよ。
その前にクラスタの種類や目的を勉強してきた方がいいな。

122 名前:sage [05/03/08 02:55:04 ID:VAV7zo0E.net]
www.linux.or.jp/JF/JFdocs/openMosix-HOWTO/index.html

123 名前:login:Penguin mailto:sage [05/03/08 02:57:49 ID:VAV7zo0E.net]
耐障害性能がどんなもんかな。。。
たくさんマシンを稼働させるとそれだけハードウェアエラーもおきやすい訳で。
ほかのノードから返されたデータの完全性はどうやって保証しているのか。

124 名前:login:Penguin mailto:sage [05/03/08 03:06:23 ID:VAV7zo0E.net]
CPUで生成されたデータはそれが仕様通りのデータであるかを
スマートに保証する仕組みってあるんですか。
ほかのCPUがクラスタから突如消えるとかならまだ何とかなりそうだけど
例えば熱暴走などで正規ではないデータが返されて、
それを検出できないとなると正直不安。。



125 名前:login:Fedora mailto:age [2005/03/25(金) 09:58:31 ID:5XL0QW5b.net]
Fedora Core 1のSCoreを5.8.2にアップデートし、
3台のマシンでHPCクラスタリングをしようと思ってます。

3台をNISでつなぎ、
gfsv.cl.org(NISサーバ、クラスタリングサーバ)
gfcl1.cl.org
gfcl2.cl.org
という構成にしております。

設定をして
$msgb -group pcc &
で、無事にgfcl1.cl.orgとgfcl2.cl.orgが表示されましたが、
その後、
$scout -g pcc
を実行すると、msgbの画面が青→赤→青と変化し、
SCOUT(gfsv): [gfcl1.cl.org] accept() timed out
と表示され、scoutが起動できません。

いろいろとネットを調べたのですが、載っておらず、困っております。
解決策をご存知の方、教えていただけると幸いです。

126 名前:mariko [2005/03/25(金) 15:00:59 ID:C7Cohu8t.net]

bourne shellを使用しているユーザがターミナルからシェルスクリプト
を実行し、あるジョブプロセスを起動します。シェルスクリプトを起動
したターミナルを閉じると、実行中のジョブプロセスは終了してしまい
ました。
C shellに変えて、同様のジョブを実行するシェルスクリプトを起動し
その後、スクリプトを起動したターミナルを閉じましたが、ジョブスクリプト
は実行を続けます。
この違いはなぜ起こるのでしょうか。
ご存知の方、おられましたら教えてください。

127 名前:mariko [2005/03/25(金) 15:06:31 ID:C7Cohu8t.net]
126を削除してください。
「くらだない質問」に書き込むつもりで間違えました。

128 名前:login:Penguin [2005/04/30(土) 13:09:55 ID:s+NsBMoO.net]
うまく成功してる人いる?

129 名前:login:Penguin mailto:sage [2005/05/08(日) 03:01:33 ID:TMmF5YOk.net]
OpenMosixってどうよ?
プログラム側の修正は無くてもいけそうだけどどうなの?

130 名前:login:Penguin mailto:sage [2005/06/04(土) 02:06:55 ID:wJF5rZXP.net]
Redhat GFSって分かりやすく言うと『互いのノードからSAN環境?の
ストレージのディスクを(2重に)マウントして、それぞれが書き込み可能な
状態にありながら互いのノードから書き込んだ内容は即座に反映されて
なおかつ整合性が保たれているファイルシステム(ext3の拡張??)』という事で
いいんですよね?

でも共有ストレージやSAN環境を使うことが前提になると個人での
導入は価格的に不可能っぽい・・・

www.jp.redhat.com/software/rha/gfs/

※ちなみにVMWareでFedoraを2ノード起動して物理ディスクを2ノード
からマウントさせて書き込みテストなんかをしてみましたが、マウントを
し直さない限り互いの書き込み内容は反映されてませんでした。。

131 名前:login:Penguin mailto:sage [2005/06/04(土) 10:58:16 ID:xNir4/mU.net]
>ストレージのディスクを(2重に)マウントして
何処にそんなことが書いてある?
あくまで、クラスタ環境での話だろ。

132 名前:130 mailto:sage [2005/06/04(土) 21:53:01 ID:wJF5rZXP.net]
>>131
ごめんなさい。表現がわかりずらかったですよね。
複数のクラスタノードからの共有ディスクの(仮想的な)多重マウントを実現していると
考えたのは以下のページの情報からです。

www.newtech.co.jp/products/san_pack/GFS/

NFSやSAMBAなんかだと、複数ノードからのアクセスはTCP/IPのレベルで
排他制御をしている形になると思います。でもFCSのチェックや再送制御
なんかで多少のオーバーヘッドが発生してレイテンシが高くなる。

Redhat GFSの場合はTCP/IPでカプセル化するのではなくSCSIプロトコル
を使用してアプリケーション層に近い場所で排他制御しているため、レイテンシ
が低くできることが利点?と考えたのですが・・・




133 名前:login:Penguin mailto:sage [2005/06/28(火) 14:02:49 ID:LCTfCsRV.net]
>>130,132
言いたいことは分かる.
どの程度の価格から辛いのかよくわかんないけど,
1) PCの箱空けて内蔵用SCSIディスクを共有
あるいは
2) iSCSI(あるいは nbd) を利用
とかだと安くGFSで遊べる.
1) は昔実際やったことあるけど, 電気的に大丈夫なのか不安に
なったので2週間くらいでやめた.


134 名前:login:Penguin mailto:sage [2005/07/19(火) 22:17:13 ID:pYhvHlhP.net]
ふむ



135 名前:login:Penguin [2005/07/26(火) 02:31:45 ID:ERF7wapp.net]
クラスター環境構築する時って何台も同じ環境のOSを用意するわけじゃないですか。
皆さん、マシンにOSをインストールする時って、1台1台Linux'をインストールしていくんですか。
それともなにかOSのイメージをHDDに書き込んで後は諸設定(IPとか)するだけでノードに参加できる!みたいな仕組みでもあるんでしょうか。
あ、それか、サイレントインストールみたいな仕組みをつくっちゃうとか?

その辺の実態がまったく分かってないのですが、どうなんでしょうか。

136 名前:login:Penguin mailto:sage [2005/07/26(火) 19:46:46 ID:2GA61JcO.net]
|  |
|  |∧_∧
|_|´・ω・`)
|梅| o終了o
| ̄|―u'
""""""""""

|  |
|  |∧_∧
|_|´・ω・`)
|桜| o ヽコト
| ̄|―u'  終了
""""""""""

|  |
|  |
|_|
|松|ミサッ
| ̄|   終了
""""""""""

137 名前:login:Penguin mailto:sage [2005/09/09(金) 15:49:48 ID:0TnVMNTo.net]
>>135 もう1ヶ月以上前の書き込みか・・・
Aoyama Plus では FDブートしてたっけ。

俺は昔、LANカードにブートプログラムを焼いたROM載せて、サーバからカーネル読んで
ブートさせてたことがある。完全ディスクレス。

138 名前:初心者 [2005/09/15(木) 01:58:54 ID:MAqHCqn7.net]
__ __ __ __ ____
|ACTIVE1 | |ACTIVE2 | |STANBY | ←サーバ3台
 ̄ ̄  ̄ ̄  ̄ ̄ ̄ ̄  ̄ ̄ ̄ ̄
|___3ノードクラスタ___|

3ノードクラスタを組んでACTIVE1が死んだときの動きは?

139 名前:login:Penguin mailto:sage [2005/09/15(木) 21:30:43 ID:keiNIEwh.net]
設定依存だヴァカ

140 名前:login:Penguin mailto:sage [2005/09/17(土) 14:32:34 ID:iMPirKtP.net]
(^Д^)9pプギャー

141 名前:login:Penguin [2005/09/29(木) 17:26:06 ID:0gCiPw4w.net]
複数サーバー間でディスクの内容を同期したいと思っている。
詳細は以下のとおり。
__ __ __ __
|ACTIVE | STANDBY | ←サーバ2台
 ̄ ̄  ̄ ̄  ̄ ̄ ̄ ̄
|___2ノード __|

ACTIVEがこけたら、STANDBYがディスク内容を引き継ぎ
継続運用する。共有ディスク型ではなく、あくまで各サー
バーのローカルディスクを使用するディスクミラー型を考えている。
ありきたりな構造だとおもうが、最適なソリューションはないか?
やっぱり、rsyncが手っ取り早いか?
こことかが有用かと参考にしてるんだが、いまいちわからん。

sources.redhat.com/cluster/

CLVMでミラーリングができる云々と聞いたことがあるんだが・・・・
なにかいい案あるなら教えてくれ。

142 名前:login:Penguin mailto:sage [2005/09/29(木) 17:41:48 ID:tWcgXCKk.net]
>>141
www.linux-ha.org/DRBD

143 名前:login:Penguin mailto:sage [2005/09/29(木) 21:01:28 ID:dP1QjXMF.net]
>>141
CLUSTERPRO LE

144 名前:login:Penguin [2005/10/01(土) 11:16:30 ID:EgT6Wx2j.net]
前段にUltra Monkey置く手もある。サービスにもよるが。



145 名前:login:Penguin mailto:sage [2005/10/02(日) 21:27:57 ID:KvTfYNKY.net]
>>135

なんか学生時代を思い出した。
普通に一晩で16台とかいんすとーるして、MPIのせっていとかしてた。
簡単にできるものだったのかよくわからないが、
それに比べるとScoreはFD入れるだけでノードのインストールが簡単にできた覚えがある。

というか、経験的にはクラスタを作ることよりクラスタで動くプログラムを作るのが難しいんじゃないかと思うのだが・・・。

しかし、卒業して今はPCはインターネットぐらいになってしまった。
しかも結構winで十分なことしかしてない自分に鬱だったり・・・。

146 名前:login:Penguin [2005/10/03(月) 11:57:10 ID:MuRNGphP.net]
>>144
レスサンクス。Ultra Monkeyはロードバランス型のHAソフトウェアがあったか。これを
使うと、シングルマスタ(Active|Standby)ではなく、マルチマスタ(Active|Active)
での運用が可能かと思うのだが、この場合やはりディスクの同期はどうしたらいいのだろう?
必然的に共有ディスク型になるのだろうか?できれば、ディスクは各サーバー内に配置したまま
のミラーディスク型でいきたいのだが・・・



147 名前:login:Penguin [2005/10/05(水) 23:13:19 ID:qDNRq113.net]
>>146

まず何のサービスを動かすかだ。
同時に更新かけるとややこしいので、片方参照のみだったらUltraMonkey&rsyncでいいんじゃね。

バランサ(Active|Standby) UltraMonkey
ファイルサーバ(Active|Active←参照のみ) rsync

まずければlinux-haかなんかで(Active|Standby)とするのがよかろう。
先に復旧手段考えておくのとテストしておくほうが良い。

変わったところでは並列ファイルシステムのPVFS2というのもある。HAになるかは知らん。

148 名前:login:Penguin mailto:sage [2005/10/11(火) 10:27:03 ID:0JYiyvzv.net]
>>146
oss.linbit.com/csync2/

drbd 〜0.7は、2マシンの(Active|Standby)しかできん。
drbd 0.8から3マシンに対応のロードマップがあるが....。

149 名前:login:Penguin [2005/10/14(金) 14:14:09 ID:k2lzvwax.net]
>>148
csync2よさげだね
誰かこのツール使用経験あるなら、インプレ頼む。

150 名前:login:Penguin [2005/10/20(木) 20:49:13 ID:RvvlWw9J.net]
昔は、LVS, OpenAFS, MySQLレプリケーション, Msessionといろいろと苦労したが、
これからは、OpenSSIで決まりだな.
openssi.org/cgi-bin/view?page=openssi.html
SQLiteをDB構築すると何も考えんでレプリケーションできてる. 検証汁
FC2 + OpenSSI 1.2.2が一番簡単

151 名前:login:Penguin mailto:sage [2005/10/20(木) 21:38:44 ID:5v1ocW5m.net]
>>150
これHPが昔からやっていてタンデムやディジタルのクラスター技術をLinuxに移植したって
やつだよね。 どうなんだろう。 かなりこれカーネルをいじりまくってるみたいだが
これを本家のカーネルに採用してもらおうという動きはあるのだろうか? 

3年前にRHの技術者とクラスター技術のことを話しててSSIの事を聞いたら「あれは醜い」
と一言で却下された。 

152 名前:login:Penguin [2005/10/24(月) 00:12:42 ID:lv1/5OYB.net]
>>151
SSIのことを知っているやつは若干だがいるようだな。
しかし、openMosixに比べると弱いな。なぜ? やっぱ(入門用)雑誌に書かれないとダメか。
ところで、RHってアキバのあの人達のこと? その発言が技術とか有用性とかとなんか関係あんの?

153 名前:151 mailto:sage [2005/10/24(月) 21:20:11 ID:XaG6Biyi.net]
>>152
RH==赤帽

154 名前:login:Penguin [2005/10/24(月) 22:49:16 ID:lv1/5OYB.net]
>>153
アキバのあの人達==アキバのHFビルの赤帽




155 名前:151 mailto:sage [2005/10/25(火) 01:21:58 ID:0Wt45N8p.net]
>>154
ボストンにあるエンジニア部門。 Enterprise Serverの部署だといってたけど、
本社からは離れてるからどれだけ中核に近い部門なのかは分かりませんね。

156 名前:login:Penguin [2005/11/03(木) 01:38:38 ID:kvg4YbTL.net]

  OK、redhat。
         (´∀`* ) 流石だな兄者
   ( *´∀`) /   ⌒i   
   /   \     | |
  /    / ̄ ̄ ̄ ̄/ |
__(__ニつ/ redhat!! / .| .|____
    \/____/ (u ⊃



157 名前:login:Penguin mailto:sarge [2005/11/03(木) 02:06:01 ID:eMVAmt92.net]
mencoderを複数マシンで分散エンコできるようになると
うれしいねぇ。



158 名前:login:Penguin [2006/01/16(月) 13:40:38 ID:XAJH1lPk.net]
REHLクローンのCentOS、白箱、SLなどにはGNU Free Documentation Licenseの元に
yumのグループインストールでRed Hat Cluster Suiteがインストールできます。
アクティブ&アクティブのHAクラスタやpiranhaで簡単設定のロードバランシングも手軽で素敵(ハート
最新のRHEL4のマニュアルは、英語ですがここに置いときますね。
mirror.centos.org/centos/4/docs/html/rh-cs-en-4/index.html
旧RHEL3日本語版はREDHATのドキュメントから落とせます。
www.jp.redhat.com/support/doc/rh-cs-ja-3-1.tar.gz


159 名前:login:Penguin mailto:sage [2006/01/16(月) 13:42:32 ID:XAJH1lPk.net]
Cluster Suite 大まか、こんな面子です。↓
* ccs-1.0.2-0.i686.rpm
* ccs-devel-1.0.2-0.i686.rpm
* cman-1.0.2-0.i686.rpm
* cman-devel-1.0.2-0.i686.rpm
* cman-kernel-2.6.9-39.8.i686.rpm
* cman-kernel-hugemem-2.6.9-39.8.i686.rpm
* cman-kernel-smp-2.6.9-39.8.i686.rpm
* cman-kernheaders-2.6.9-39.8.i686.rpm
* dlm-1.0.0-5.i686.rpm
* dlm-devel-1.0.0-5.i686.rpm
* dlm-kernel-2.6.9-37.9.i686.rpm
* dlm-kernel-hugemem-2.6.9-37.9.i686.rpm
* dlm-kernel-smp-2.6.9-37.9.i686.rpm
* dlm-kernheaders-2.6.9-37.9.i686.rpm
* fence-1.32.6-0.i686.rpm
* gulm-1.0.4-0.i686.rpm
* gulm-devel-1.0.4-0.i686.rpm
* iddev-2.0.0-3.i686.rpm
* iddev-devel-2.0.0-3.i686.rpm
* magma-1.0.1-4.i686.rpm
* magma-devel-1.0.1-4.i686.rpm
* magma-plugins-1.0.2-0.i386.rpm
perl-Net-Telnet-3.03-3.noarch.rpm
* piranha-0.8.1-1.i386.rpm
* rgmanager-1.9.38-0.i386.rpm
* system-config-cluster-1.0.16-1.0.noarch.rpm
* lvm2-cluster-2.01.14-1.0.RHEL4.i386.rpm

160 名前:login:Penguin [2006/01/30(月) 23:05:46 ID:nSafdTe/.net]
LifeKeeperてどうなの?

161 名前:login:Penguin mailto:sage [2006/05/06(土) 06:12:56 ID:i0wL+UYw.net]
>>158
www.centos.org/modules/news/article.php?storyid=108
CentOS-csgfs.repo を配置してあとはyum

162 名前:login:Penguin [2006/08/08(火) 16:50:37 ID:daGQirag.net]
OpenSSI 1.9.2 だれか言わんのか

163 名前:login:Penguin mailto:sage [2006/08/10(木) 22:56:55 ID:Bln7Zx8W.net]
>>105
二年越しのレスですまんが、ライフキーパーを使った案件に参加したことがある。
客は、日本最大携帯電話会社。
使い勝手と機能は申し分なかった。

164 名前:login:Penguin mailto:sage [2006/08/11(金) 13:46:32 ID:fEnmzKoS.net]
>>163
NにもKにもいっぱい売ってます。



165 名前:login:Penguin [2007/02/16(金) 01:17:54 ID:YaUL/yD+.net]
  \             U        /
             / ̄ ̄ ヽ,
            /        ',      /     _/\/\/\/|_
    \    ノ//, {0}  /¨`ヽ {0} ,ミヽ    /     \          /
     \ / く l   ヽ._.ノ   ', ゝ \       <   バーカ!  >
     / /⌒ リ   `ー'′   ' ⌒\ \    /          \
     (   ̄ ̄⌒          ⌒ ̄ _)    ̄|/\/\/\/ ̄
      ` ̄ ̄`ヽ           /´ ̄
           |            |
  −−− ‐   ノ           |
          /            ノ        −−−−
         /           ∠_
  −−   |    f\      ノ     ̄`丶.

166 名前:login:Penguin mailto:sage [2007/02/21(水) 21:43:35 ID:sqteC/ix.net]
test

167 名前:スチャラカ法学生 mailto:sage [2007/04/19(木) 22:49:11 ID:X1EkHbzE.net]
巫女 GNYO/Linuxで簡単にできるということを昨日知った。


ただし、PCクラスタができあがったところで、
それの上で何のプログラムを動かしたら良いのかが分からない。

Fording@homeなら自分のところにPenIIIがたくさんあるので、それを全部集めれば
そこそこの計算能力になるとは思うのだが、肝腎のやり方が使いかたが分からない。

168 名前:スチャラカ法学生 [2007/04/19(木) 22:51:52 ID:X1EkHbzE.net]
PCクラスタリングのキーワードになるSCoreというのももちろん知ったのは昨日である。

あげときますね、age

169 名前:login:Penguin mailto:sage [2007/04/27(金) 08:59:15 ID:NXUojOwi.net]
ベリタスクラスタサーバは?

170 名前:login:Penguin [2007/05/19(土) 17:37:24 ID:CKwuk/2W.net]
CentOSの最新版で標準装備されているってのは本当ですか?


171 名前:login:Penguin [2007/06/28(木) 13:19:32 ID:vDx4auzO.net]
米Sun、クラスタソフト「Solaris Cluster」をオープンソース化

enterprise.watch.impress.co.jp/cda/foreign/2007/06/28/10615.html?ref=rss

172 名前:login:Penguin [2007/10/02(火) 16:13:32 ID:TsvvWJ1+.net]
OpenSSI 1.9.1のインストールにチャレンジしたけど挫折

173 名前:login:Penguin [2007/10/13(土) 18:05:00 ID:oP8L0RXM.net]
高可用性(冗長化)のロードバランサというべきか、
負荷分散型クラスタというべきか、近年そういうことをLinux上の
ソフトウェアで実現するためのプロジェクト(UltraMonkey)があるよ。

(Layer4版)
ultramonkey.jp/
www.ultramonkey.org/

(Layer7版)
sourceforge.jp/projects/ultramonkey-l7/



174 名前:login:Penguin mailto:sage [2007/11/05(月) 21:41:21 ID:V3uFgejZ.net]
まるで盛り上がってないな。。。
やっぱ領域が特殊過ぎるのか?




175 名前:login:Penguin mailto:sage [2007/11/06(火) 00:01:11 ID:4nDI2QAP.net]
>>174

でも,ちゃんと更新チェックしてる俺ガイル

176 名前:login:Penguin mailto:sage [2007/11/09(金) 23:59:09 ID:ORAV0+EF.net]
>>1 の意図するところがわからんというか・・・
ソフトウェアクラスタってそもそも何なのさ。

177 名前:login:Penguin mailto:sage [2007/11/11(日) 09:48:55 ID:qloBt/dG.net]
別に何も分からなくないと思うけど?
「ソフトウェアクラスタ」って用語に違和感を覚えるなら、
ググってみるといいよ。

178 名前:login:Penguin mailto:sage [2007/11/13(火) 13:39:37 ID:PB6KLq+f.net]
共有ディスク作れないかな?

179 名前:login:Penguin mailto:sage [2007/11/18(日) 03:08:05 ID:yhMwoeHA.net]
dlmで作れるんだと思う。


180 名前:login:Penguin mailto:sage [2007/11/19(月) 15:26:44 ID:mRRJm1DJ.net]
やっぱそれか。


181 名前:login:Penguin mailto:sage [2007/11/26(月) 19:57:10 ID:HfNDWvFd.net]
centosのクラスターなんちゃらってパッケージ使うと
研究室に余ってる古いPCつかってCPUサーバーできたりするのかな


182 名前:login:Penguin mailto:sage [2007/11/26(月) 21:57:21 ID:wsulpwPu.net]
CentOSのはRHCSでしょ。
CPUサーバってのがグリッドのことなら、クラスタ違いだな。


183 名前:login:Penguin mailto:sage [2007/11/28(水) 17:14:58 ID:D2odrtC8.net]
2台のLinuxで共有IP-SANの構築を考えてるんですけど,どうでしょ?
こんな感じの構成で。
RAID+iSCSI+Heartbeat+DRBD+ocfs2(gfs2)
クラスタリングもロードバランシングも冗長化もできるのかなと。

参考
ttp://www.pcpro.co.uk/realworld/82284/san-on-the-cheap.html

既出だったらスマソ

184 名前:login:Penguin mailto:sage [2007/12/01(土) 14:48:22 ID:fCxadEhy.net]
それって2台で出来る?




185 名前:login:Penguin mailto:sage [2007/12/01(土) 21:18:32 ID://PyZDnk.net]
>>184
上の記事では2台でできるみないなことが書いてあったのですが。でも実際に手を動かしてるわけではないので,何ともいえません。。。
NICを複数枚つけて一台でiSCSIターゲットとロードバランサを兼ねればできるような気がします。
時間がありましたら実際にやってみます。

186 名前:login:Penguin mailto:sage [2007/12/01(土) 22:33:49 ID:4qQGVU/G.net]
ん?
最後の“ocfs2(gfs2)”って、そのページに載ってる?

187 名前:login:Penguin mailto:sage [2007/12/02(日) 00:23:36 ID:eTc1G+IX.net]
DRBDでprimary/primary構成にするにはocfsかgfsが必要になるような気がしたので。
上のページと完全に同じことをするわけではありません。そのページでは,片方のiSCSIターゲットをスタンバイとして,フェイルオーバーするところまでしか実験していないと思います。
一歩進めて,ロードバランシングまでしたいんです。LVSかなにかのロードバランサでiSCSIを使えたら冗長化だけでなく負荷分散もできるのかな,と思いまして。
でもLVSでiSCSIのロードバランシングができるかわからないんですよね。やってみないと。ググって調べてはみましたが,実例がみつりませんでした。
それにiSCSIのターゲット名が重複していいのかもわかりません。
などなど頭の中で考えてるところです。


188 名前:login:Penguin mailto:sage [2007/12/06(木) 18:32:42 ID:4O0dbiIb.net]
仮想マシン使って実験してみました。ごめんなさいこの仕組そのものが無理でした。
とんちんかんなこと書いてしまってお恥ずかしいです。

189 名前:login:Penguin mailto:sage [2007/12/06(木) 20:10:39 ID:OT011a00.net]
問われてたことの意味が分かったのかな?

190 名前:login:Penguin mailto:sage [2007/12/07(金) 08:14:19 ID:2tq5RpSB.net]
わかったと思います。
iSCSIのターゲットはファイルシステムを通さずにディスク(またはブロックデバイス?)にアクセスするんですよね?
iSCSIを利用してDRBDをprimary/primary構成にできなかったのはこのためだと思います。
iSCSIの代わりにNFSを使ってみたところ,設計どおりに動きました。
基本的なところがわかっておりませんでした。
スレ汚しして申し訳ありません。

191 名前:login:Penguin mailto:sage [2007/12/18(火) 23:58:44 ID:E/zgaCho.net]
Active|Activeの構成で

Aの鯖にIMAPとApache
Bの鯖にMySQLとJBossという構成にしておいて

もしAがフェイルした場合、Bの鯖に一時的に
IMAP、Apache、MySQL、JBossの全サービスを
稼働させるような設定ってできますよね?



192 名前:login:Penguin mailto:sage [2007/12/19(水) 09:50:33 ID:ORq8HQk/.net]
いまどきのクラスタウェアで相互スタンバイができないものはないやろ。


193 名前:login:Penguin mailto:sage [2007/12/20(木) 20:21:36 ID:W9W06TsY.net]
>>191
Active|Active構成?
Active|Stanby構成ならHeartBeatか何かでできるんじゃないですか?
A
 IMAPとApacheの稼動
 MySQLとJBossの待機
B
 IMAPとApacheの待機
 MySQLとJBossの稼動
という感じにして。
参考:ttp://www.thinkit.co.jp/free/compare/17/9/1.html

194 名前:login:Penguin mailto:sage [2007/12/20(木) 22:58:56 ID:FiT6vHgQ.net]
>>193
何が言いたいのか分からん。

>>191が聞いてんのは、Active/Stanby構成ではなく、Active/Active構成な。

さらにその答は>>192が書いた通り、普通出来るだろ?ってことで終わってる。



195 名前:login:Penguin mailto:sage [2007/12/22(土) 17:21:14 ID:ux8MmOmh.net]
>>194
知識不足ですみません。
Active/Active構成と相互スタンバイって矛盾しないですか?

196 名前:login:Penguin mailto:sage [2007/12/22(土) 19:26:36 ID:DLMVmbCB.net]
>>195
そのとおり。>>194も間違っている。
Active/Active構成と相互スタンバイは意味が違う。

相互スタンバイはまさに>>193のとおりで、
Active|Stanbyの変化バージョンに過ぎない。

そもそも、>>191の訊き方が間違っているわけだが。


197 名前:login:Penguin mailto:sage [2007/12/22(土) 21:22:11 ID:w9zyNYpZ.net]
>>196
ノードがActive/Activeなのと、リソースがActive/Activeなのは別次元の話。
さらに、両アクティブの相互スタンバイ構成ってのは、特段珍しい話じゃない。

198 名前:login:Penguin mailto:sage [2007/12/22(土) 21:42:18 ID:ux8MmOmh.net]
>>197
またまた知識不足ですみません。
「リソース」という言葉はどういう意味で使ってるんですか?
「ホットスタンバイ」と「コールドスタンバイ」の話ですか?

199 名前:login:Penguin mailto:sage [2007/12/22(土) 23:34:40 ID:DLMVmbCB.net]
>ノードがActive/Active
文脈よめよw
そうでないものは、ここで言うHAクラスタには含まれていないことは明らかだろ。


200 名前:login:Penguin mailto:sage [2007/12/23(日) 00:23:56 ID:4p2DvuoJ.net]
なんかバリバリ初心者ですみません。
ここでのノードとかリソースの用法がよくわからないんですけど,
ノード⇒マシン
リソース⇒ソフトウェアってことでOK?

負荷分散型(RAC)クラスタなら全てのマシンが稼動しているのが前提だし,
高可用型(HA)クラスタでもホットスタンバイがほとんどだと思ってました。
いわゆる相互スタンバイもホットスタンバイじゃなきゃ無理ですよね?

201 名前:login:Penguin mailto:sage [2007/12/23(日) 01:43:43 ID:V56WOVVS.net]
リソースといったら、アプリケーションとかファイルシステムとかサービス提供用のIPアドレス
なんかのことだろうな。まあ197は混乱させるのが目的としか思えないし、ほっとけばいいでしょ。

202 名前:login:Penguin mailto:sage [2007/12/23(日) 10:09:00 ID:4p2DvuoJ.net]
解説thx

203 名前:login:Penguin mailto:sage [2007/12/23(日) 20:55:15 ID:z/PVp5YH.net]
>>199>>201
とち狂って混乱してるのはお前らだけだろ。

204 名前:login:Penguin mailto:sage [2007/12/23(日) 21:30:35 ID:NUvkrnuU.net]
N+1型なんかだとコールドスタンバイのものもあるけど、
普通、HA型クラスタという場合には、コールドスタンバイのものは含めない。




205 名前:login:Penguin mailto:sage [2007/12/24(月) 22:02:33 ID:iXx2E2GT.net]
>>199
> >ノードがActive/Active
> 文脈よめよw
> そうでないものは、ここで言うHAクラスタには含まれていないことは明らかだろ。
文脈関係ねーな。
単にお前が無知なだけだろ。
片系スタンバイのHAクラスタは「ここで言うHAクラスタ」に含まれていないとでも?

>>200
「ノード」はネットワークに接続するモノで、ここではサーバを指す。
「リソース」は資源のことで、一般的なHAクラスタの場合は、
サービスを提供するプロセス、サービス用IPアドレス、共有ディスク等。

それから一般にRACってのはOracleのReal Application Clusterのことで、
負荷分散クラスタはLB(Load Balancing)クラスタと呼ぶ。

ついでに書いとくと、何らかのリソースがホットスタンバイかコールドスタンバイかと、
クラスタのノードやリソースがアクティブかスタンバイかってのは別次元の話。

206 名前:login:Penguin mailto:sage [2007/12/27(木) 01:49:00 ID:9/YPbotX.net]
gfs2用のcluster.conf書いてるのだが

Node Sts Inc Joined Name
1 x 0 fs0
2 M 32 xxxxx fs1

となってしまう何がいけないんだ?
下のconfがイケてないのかな?

<?xml version="1.0"?>
<cluster name="cluster1" config_version="3">
<cman two_node="1" expected_votes="1"/>
<clusternodes>
<clusternode name="fs0" votes="1" nodeid="1">
<fence>
<method name="single">
<device name="devfs0" ipaddr="192.168.1.13"/>
</method>
</fence>
</clusternode>
<clusternode name="fs1" votes="1" nodeid="2">
<fence>
<method name="single">
<device name="devfs1" ipaddr="192.168.1.12"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice name="manual" agent="fence_manual"/>
</fencedevices>
</cluster>

207 名前:login:Penguin [2008/01/07(月) 00:31:14 ID:WQVsiCBf.net]
openMosixでクラスタ入門しようと思うんですけど
いくつか疑問があって、
まず、CPUの扱いなのですが
マルチプロセッサと言う形になるのでしょうか?
ということは、マルチスレッドのプログラムであれば高速化が見込めるのでしょうか?
それとも、複数のプロセスで動かす事を念頭に置かなければ、無意味なのでしょうか?

もうひとつは、メモリの扱いなのですが
例えば、ホストAに2G、ホストBに4Gと詰まれてた場合
システムからは6Gのメモリとして見れるのでしょうか?
その場合、32bitのシステムでは上限に問題が出る気がするのですが・・・。


208 名前:login:Penguin mailto:sage [2008/01/11(金) 07:18:15 ID:P2KBbgjN.net]
>>207
マルチプロセッサと言う形だけど、
どちらかと言うと、プロセス単位での並列実行だね。
CPUの空いてるマシンでプロセスを実行する感じ。(マイグレードって言うんだけど)

で、マルチスレッドを使ってたりIOへのアクセスがあるプロセスだと、マイグレードが行えない。

メモリの扱いだけど、上のとおりなので、マイグレード先のメモリの量になる。

やっぱ、openMosixを使ってる人ってまだまだ少ないのかな。
便利なんだけどなぁ。

209 名前:login:Penguin mailto:sage [2008/01/11(金) 08:43:01 ID:Cn33Jkcc.net]
>>208
openMosixって,開発終了したんですよね?
もちろん古いバージョンのカーネルで十分安定してると
は思うんですけど,

210 名前:login:Penguin mailto:sage [2008/01/13(日) 13:11:21 ID:AWOvDWhj.net]
え?開発終了ってマジ?
おもっくそ、研究用途で、そのシステム組もうと検討してたんだが…
#まぁ、資料が少なすぎて困ってたわけだが。

やっぱ、既存のプログラムを修正しなくて良いってのが魅力的だったけど
ちゃんとMPIで組みなおすべきなのかな。パフォーマンスをあげるなら・・・。

211 名前:login:Penguin mailto:sage [2008/01/13(日) 19:55:42 ID:eAAYuMPu.net]
マイグレード
migrate じゃない?

212 名前:login:Penguin mailto:sage [2008/01/14(月) 05:41:55 ID:VkTPVUv8.net]
>>210
MPIでやるなら、色々他に検証すべき事があって面倒だぞ。
マルチスレッドじゃなくて、マルチプロセスで出来るなら、そっちでやった方が楽。
下手な実装だと、MPIは遅いぞ。

213 名前:login:Penguin mailto:sage [2008/01/14(月) 07:24:47 ID:S5aP0zcQ.net]
>>210

正確には2008年3月1日をもって終了。
ttp://openmosix.sourceforge.net/
ttp://sourceforge.net/forum/forum.php?forum_id=715406

商用版はまだ生きてると思う
ttp://www.mosix.com/

個人的にはSCoreとかRocks cludtersでクラスター組んで,
Grid Endgine等々のスケジューラーで,非MPIジョブを
キューに投入するのがいいんでないかと。

214 名前:login:Penguin mailto:sage [2008/01/14(月) 15:42:54 ID:6n5zEajJ.net]
>>213
終了理由がはっきりしないんだけど、

・OpenMosixが対象とするクラスタ規模は~8台程度
・マルチコアプロセッサが登場し、普及しつつある

ということでOpenMosixはもうなくてもいいやってこと?





215 名前:login:Penguin mailto:sage [2008/01/14(月) 15:50:47 ID:6n5zEajJ.net]
あ、8てのは「マルチコアがでてきたからもういいやー」という文面から
そのあたりを適用範囲として考えていたのね、という想像です。

216 名前:login:Penguin mailto:sage [2008/01/14(月) 15:52:43 ID:VkTPVUv8.net]
8以上になると、なんかあんの?
ネットワークのオーバーヘッドの方が大きくなって、性能が伸びなくなるって話?






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧](*・∀・)<85KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef