ESXi専用スレ ..
[2ch|▼Menu]
175:名無しさん@お腹いっぱい。
09/01/15 00:00:46 gr+2rmBX0
>>174
LSILOGICのサイトにもあったのか、漏れの使ったドライバも1201800になってた。


176:名無しさん@お腹いっぱい。
09/01/15 00:07:30 wL73T1Oy0
>>173
返す返すもありがとうございます。
どうやら私もいろいろ勘違いしていたみたいですね・・・。
LSI Logicのドライバについては、なんとか入手頑張ります。

>サーバメーカーからゴニョゴニョして試すべし。
欲しいドライバはXPがVMのSCSIコントローラを使うようにするためのドライバなわけですが、
ひょっとしてESXiをサーバに組み込んで売ってるベンダーのサイトにはゲストOS用の
VMデバイス向けドライバがゴニョゴニョできるようになっているのでしょうか?
いろいろ調べてみます。o(^-^)o

177:名無しさん@お腹いっぱい。
09/01/15 00:10:23 wL73T1Oy0
と、書いたら
>>174さんがよさげなドライバを紹介してくれていますね。
ありがとうございました。

178:名無しさん@お腹いっぱい。
09/01/15 01:32:04 BSSyCSj/0
動作確認用に、PCIの安い100M NIC買ってこようと思うんだけど
入手性の良い、オススメのってある?

179:名無しさん@お腹いっぱい。
09/01/15 10:59:21 dvQkotfl0
ESX i update2を使ってるんだけど
Windows2000Proはインストールできないのかなぁ・・・

2000proのインストーラは動くんだけど
なぜかハードディスクを認識しないんだ

ESXiでゲストOS選択に、2000Proがないから
2000ServerやOtherでやってみたけどダメだった


仕方ないので、
今はLinuxやWindows2000Serverをはインストールしてる

2000Proをインストールする方法はないですか?

180:150
09/01/15 11:00:49 UAD7kwyq0
やっと規制解除された・・
ローカルより外部ストレージが主流みたいなので
ARC-1680ix-24届いたらsolarisあたりで作ってみる
でもローカルのほうが速そうなんだけど
>>156 159
メモリはこれ以上増やすには、8GBメモリ必要だから厳しい
1仮想OSあたり2GBで10OSでぴったり20GBに調整してある

いろいろためしてみまーす

181:名無しさん@お腹いっぱい。
09/01/15 11:15:05 uUHCMygL0
>>180
ESXiでローカルストレージより外部ストレージが主流なのは
・ローカルでの対応デバイスの少なさ
・VMのイメージファイルのバックアップの容易さ
・アレイの状態監視、管理
などのためで、パフォーマンスのためではない。

182:名無しさん@お腹いっぱい。
09/01/15 11:55:33 BSSyCSj/0
オンボードSATAが認識できるマシンで、
安価にストレージの冗長性を確保したい場合は、
外付けのハードウェアRAID BOXが手軽でいいね。
\1万くらいからあるし、SATA接続でローカルディスクとして
認識するからアクセスも速い。
まぁ、ハードとしての信頼性は別問題だけど。

183:名無しさん@お腹いっぱい。
09/01/15 13:46:28 V1A9I8nt0
>>182
俺はそれやろうとして困ってる
外箱のハードウェアRAIDだと、
ESXiからみて外箱を使っても単体HDDでつないでも
完全に同じように見える外箱を使う必要がある

もし外箱自体が壊れた場合、
中に入ってたHDDを取り外して
マザーのSATAに単体のHDDを直接繋いでも、違うHDDだと認識されて
復旧できない

SSHを使ってでもいいから
VMFSなHDDをマウントする方法とか対処法ありますかね?

184:名無しさん@お腹いっぱい。
09/01/15 19:42:31 Mfeh8HN10
>>182
具体的にどのような製品を想定してます?これとか?
URLリンク(www.century.co.jp)

>>183
RAID箱自身が壊れた場合を想定してるんですよね。
昔の3wareとかはだめでしたね。

185:184
09/01/15 20:19:25 Mfeh8HN10
>>183
スマソ、後半読み違えてたRAIDの仕様云々じゃないんですね。
接続されるバスやデバイス名が異なるとVMFSが無事でも利用
できないということ?

186:名無しさん@お腹いっぱい。
09/01/15 20:58:13 vAkPy7up0
>>180
1680だったら、LANポートついているだろうから監視の問題は排除できるし
betaドライバ使えば問題なく認識してくるからローカルに使った方がいろいろ期待できそう

187:名無しさん@お腹いっぱい。
09/01/15 22:19:19 HEJgaeJm0
管理 I/F と同じサブネットで2台ぶらさげたら、1台しか外と通信できずにはまり中。

VLAN設定とかをいじらない場合、vmware player 等でいうブリッジ状態になっ
てると思ってたんだけど、違うの?


188:名無しさん@お腹いっぱい。
09/01/15 22:22:00 3XknZuOb0
ML115G5をメモリ4GBにしてESXi(3.5U3)をUSBブートで使ってます。
内蔵HDDはストレージとして認識でき、しばらくは読み書きも問題
なくでき、ゲストOSのインストールも成功する場合もあるんですが、
使っているうちに突然読み書きができなくなってしまいます。

MCP55: chipset revision 163 # のってるチップ
hda: GB0160EAFJE, ATA DISK drive

hda: task_no_data_intr: status=0x51 { DriveReady SeekComplete Error }
hda: task_no_data_intr: error=0x04 { DriveStatusError }
hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
hda: status error: status=0xd0 { Busy }

こんなエラーが出ているようなんですが、ML115G5の内蔵HDDを
ESXiで使うには何か設定が必要なんでしょうか?


189:名無しさん@お腹いっぱい。
09/01/15 22:23:10 HEJgaeJm0
>>188
ディスクが死にかけてるような……。

190:名無しさん@お腹いっぱい。
09/01/15 22:32:04 Mfeh8HN10
>>187
その2台の間では正常に通信できるのか?

191:名無しさん@お腹いっぱい。
09/01/15 22:36:17 FtqaQ3Ip0
多分既出の情報だろうけど、VMware Remote Console Plug-inの
vmware-vmrcに適当なオプションをつければ、ESXi上のVMコンソールも開けるんだな

192:名無しさん@お腹いっぱい。
09/01/15 22:54:38 HEJgaeJm0
>>190
できてます。

192.168.0.1/24 のネットワークに、192.168.0.10 の実I/F (=ESXi 管理I/F)
を差して、その中で 192.168.0.15 (Linux) 192.168.0.16 (WindowsXP) を動
かしてるんですが、Linux から外(192.168.0.1 = gw)は見えるものの、0.16
からは 0.15 と 0.10 は見えるが、0.1 は見えないという不思議な状況。

サブネット切ってルーティング書けば動くと思うんだけど、現状なんで動かな
いのかわからないと気持悪くて。

193:名無しさん@お腹いっぱい。
09/01/15 23:16:11 gr+2rmBX0
>>192
物理NICが1個だけで、vSwitchも1個だけ。
そのvSwitchにManagementNetwork(192.168.0.10/24)と
Linux(192.168.0.15/24)とXP(192.168.10.16/24)が
ぶら下がっているわけですな?
確かに不思議。

ManagementNetworkのSubnet、GW。
LinuxとXPのSubnet、GWも確認したい。

194:193
09/01/15 23:30:59 gr+2rmBX0
typoだ。
XP(192.168.0.16/24)

195:名無しさん@お腹いっぱい。
09/01/15 23:51:18 3XknZuOb0
>>189

ディスク側の問題なんですかね。。
ディスクは大容量のものに取り替える予定なので、
それで解消されるとよいのですが。
ちなみに、ESXiでなく、Fedora10+VMware Server2.0にゲストOS=Windows 7 Beta1だと、
しばらく使っていても何も問題ないんですが、
ESXiにWindows 7 Beta1だとインストール途中のファイル展開の途中で止まります。

>>192

XPでarp -s 使うとどうなるんでしょうね?


196:名無しさん@お腹いっぱい。
09/01/16 00:49:33 PIEt8XA30
arp -a じゃないのか?

197:名無しさん@お腹いっぱい。
09/01/16 01:47:18 dmr1My/A0
>>171
>>174
お二方のおかげで、VMのディスクの速度が上がりました。
シーケンシャルリードで、BusLogicだと概算30MB/sだったのが、LSILogicだと45MB/sと、
おおむね50%アップです。
ありがとうございました。

でも、同じH/WでVMwareServerを運用してたときに作ったVMのほうが依然として速い。
うーむ。なぜだ。
ホストOSで使ってたCentOSのディスク管理かメモリ管理が優れていたとか?
どっちにしろVMwareServerはスナップショットが一つなのでもう戻りたくないケドさ。

198:名無しさん@お腹いっぱい。
09/01/16 01:48:47 dmr1My/A0
書き忘れましたが、>>197>>170です。


199:名無しさん@お腹いっぱい。
09/01/16 02:17:55 fe+UbbyB0
URLリンク(www.networld.co.jp)
↑こんな情報もあるけど、Bus LogicとLSI Logicとで、
そんなに影響するもんなのか?

200:名無しさん@お腹いっぱい。
09/01/16 03:40:52 R6/8IWX20
>>185
>接続されるバスやデバイス名が異なるとVMFSが無事でも利用
>できないということ?

>>183 です
裸族の二世帯住宅(CRNS35EU2)で試したけど、正常に稼働している
HDDを取り外してマザーボードのSATAポートへ直結させたら
デバイス名が異なるため
VMFSは無事なんだけど、VMFSがマウントされませんでした

RAID箱でもRAIDカードでも、それ自体が壊れたら同じもので交換しない限り
無理なんですかね?

あんまり地球に優しくないけど1台でやるのを諦めて、2台鯖を用意して
iSCSIかNFSで使うのがベストなのかな

201:名無しさん@お腹いっぱい。
09/01/16 07:50:32 tYIC+GPE0
>>197

ゲストOS(XP)のデバドラの入れ変えってどうしました?
LSIのデバドラ入れてゲストのSCSIアダプタをBusからLSIに変えただけだとゲストの起動時にブルースクリーンで起動しないOTZ


202:名無しさん@お腹いっぱい。
09/01/16 14:34:02 XfZkzWAG0
>>200
RAIDの問題はないという前提で、>>26じゃだめかな?

203:名無しさん@お腹いっぱい。
09/01/16 15:56:04 gFIIee1g0
>>202
おぉ。VMFSのマウントがデキター
Thx
スレをちゃんと読めばよかったんですね吊ってきます

リンク先の手順は、英語だったので、日本語に翻訳
1.VI Clientを起動してESXiへログイン
2.Configurationタブ、Softwareの中のAdvanced Settingを開く
3.LVMの項目のLVM.EnableResignatureの値を「1」へ
4.Configurationタブ、Hardwareの中のStorage Adapterを開き「Rescan...」を実行
5.Configurationタブ、Hardwareの中のStorageを開くとVMFSがマウントされてることが分かる

204:名無しさん@お腹いっぱい。
09/01/16 18:14:37 jluhv1Nu0
同じポートにつなげばいいだけでは?


205:名無しさん@お腹いっぱい。
09/01/16 18:46:37 gFIIee1g0
>>204
RAID箱でつなぐと、ESXiはRAID箱のデバイス名で認識していて
RAID箱からHDD取り外して同じポートにつないでも
今度はHDDのデバイス名になるので、ESXiでは同じストレージとは認識してくれないんよ
なので同じポートにつなぐだけじゃ、駄目だった

206:名無しさん@お腹いっぱい。
09/01/16 19:11:39 1tz0KKsu0
>>201
197ではないが、
仮想マシンが落ちている状態で、ダミーHDDを追加。SCSIIDを別のバス ex.1:0 で。
SCSIカードが追加されるので、追加されたSCSIカードをLSILOGICに変更。
仮想マシンを起動。ドライバをインストール。仮想マシンを終了。
仮想マシンのCドライブ用SCSIカードをLSILOGICに変更。
仮想マシンを起動して、起動する事を確認。再度終了。
ダミーHDDと追加のSCSIを削除。
ウマー

207:名無しさん@お腹いっぱい。
09/01/16 20:45:59 1tz0KKsu0
>>112 のbcm5721が来た。
>>113氏は到着したかな?

Teamingのために多めに買ったのだが、現状使い道が無いなぁ。

208:名無しさん@お腹いっぱい。
09/01/16 20:59:11 zeteyds30
bcm5751摸造品疑惑
URLリンク(d.hatena.ne.jp)



209:名無しさん@お腹いっぱい。
09/01/16 21:12:09 1tz0KKsu0
>>208
ビックリした!
買ったのは5721だってばよ。

でも、手元にある5751は折った跡が無いなぁ(笑)

210:名無しさん@お腹いっぱい。
09/01/16 21:28:10 +LhtXyqG0
仮想SCCIコントローラの話が出てるけど、
結局、ESXiでXP x86を使うときは
URLリンク(download3.vmware.com)
↑のBusLogicの使うより
URLリンク(www.lsi.com)
↑LSI Logicの方がパフォーマンス良い、ってことでいい?

211:名無しさん@お腹いっぱい。
09/01/16 21:48:49 1tz0KKsu0
>>208
手元にある5721はリンク先の本物と言われている基板と同じ。
で、香港からebayで買った5751は偽造と言われている基板と同じ。

でも、これ偽造なのかな? 偽造だとすると良く出来てる。
素人なので金メッキとニッケルメッキの見分け方が分からない。
ESXiでの動作も確認済みだし、安かったからまぁいいか。
経過が楽しみだ。

>>210
我が家の環境ではbuslogicよりlsilogicの方が速かった。
貴方の環境でどうなるかは判らないなぁ。
試して報告してもらえると皆喜ぶと思うよ。

212:201
09/01/16 22:50:43 zeteyds30
>>206

!!できたよ。ありがとう!!

CrystalMarkで、
SeqRead/Write/512kRead/Write/4kRead/Write
Bus 75.49/2.2246/74.60/2.404/15.54/0.345
LSI 103.1/18.47/100.9/10.67/14.41/0.176
になった。4kは速度落ちてる様だけど、Seq/512kは劇的改善。
改善したけどWriteやっぱり遅い・・・。


213:170
09/01/16 23:24:20 dmr1My/A0
参考になるかわからないけど、VMのHDD速度について引き続き報告です。
URLリンク(blog.xe.bz) を読んで、VMwareServerのVMを
ESXiに持ってきてベンチとってみました。
VMwareConverterはIDEのHDDをBusLogicにしてしまいましたが、結果は70MB/sと
SCSIコントローラをLSI LogicとしてESXi上で作ったVMのものより上でした。

 〜 シーケンシャルリードまとめ 〜
1)VMwareSever1.0.8上のVM・・・約120MB/s
2)ESXiで作ったVM(BusLogic)・・・約30MB/s
3)ESXiで作ったVM(LSI Logic)・・・約45MB/s
4)1のVMをESXiに移動したVM(BusLogic)・・・約70MB/s
(参考:H/W=DELL PowerEdge2650、VMwareServer使ったときのホストOS=CentOS4.7)

もうわけがわかりません。
暇で暇でしょうがない方、似たような現象が他の環境でも再現するか追試してみてくだされ。
今回のH/WはCPUの仮想化対応も全然してない5〜6年前のものなので、
最近のサーバでは結果が違うかもしれません。

来週はESXi上にCentOSを乗っけてその中でVMwareServerを稼働して1)のVMのHDD速度を見ます。
普通に考えればすごく遅いんだろうけど、それでも2)や3)より早かったらどうしよう。
あとVMwareWorkstationのVMもVMwareConverterでESXiに持ってきてみようかな。
どうなるだろ。

ていうか、俺、仕事しろよ。

214:名無しさん@お腹いっぱい。
09/01/16 23:47:30 fe+UbbyB0
今までTypicalで作ってて、SCSIコントローラなんて全然気にしてなかったけど、
ちょっと試してみた。ESXiではなくServerで、OSもXPじゃなく2kで申し訳ないが。

環境は
Server 1.0.8
ホスト:Debian x86_64
ゲスト:Win2k SP4

仮想ディスクは事前割当で2GB。
ホストのシステムが入ってるのとは物理的に別ドライブに確保。

BusLogic(Tools付属 1.2.0.6)/LSI Logic(1.10.2.0)
--------------------------------------------------
CrystalDiskMark 2.2 (C) 2007-2008 hiyohiyo
Crystal Dew World : URLリンク(crystalmark.info)
--------------------------------------------------

Sequential Read : 38.229 → 57.044 MB/s
Sequential Write : 27.606 → 57.056 MB/s
Random Read 512KB : 27.427 → 57.773 MB/s
Random Write 512KB : 27.772 → 47.943 MB/s
Random Read 4KB : 1.469 → 1.967 MB/s
Random Write 4KB : 0.866 → 1.079 MMB/s

Test Size : 1000 MB

( ゚д゚)

( ゚д゚ )

215:名無しさん@お腹いっぱい。
09/01/17 00:05:25 1tz0KKsu0
我が家の環境はNFSだけど、XP32のLSILOGICで計測すると、
--------------------------------------------------
CrystalDiskMark 2.2 (C) 2007-2008 hiyohiyo
Crystal Dew World : URLリンク(crystalmark.info)
--------------------------------------------------

Sequential Read : 109.249 MB/s
Sequential Write : 104.502 MB/s
Random Read 512KB : 42.281 MB/s
Random Write 512KB : 101.854 MB/s
Random Read 4KB : 0.624 MB/s
Random Write 4KB : 2.722 MB/s

Test Size : 1000 MB
Date : 2009/01/16 15:02:23

こんな感じ。


216:名無しさん@お腹いっぱい。
09/01/17 00:13:11 LcAOsMEM0
>>215

NFSサーバ何使ってる?
うちはディスク4本でRAIDZ組んだけどZFSが遅いのかな。
Solaris側のNICはカニさんだしな・・・。
ESXiのNICはまさに疑惑のbcm5751w

まだまだチューニングしないと使えないなぁ・・・。

217:215
09/01/17 00:16:40 lcLrxQTL0
>>216
NFSサーバはserver2003R2 64bitのOS標準。
NFSサーバのNICはMarvell。

ESXiのNICは同じく疑惑のbcm5751だよ。


218:216
09/01/17 00:26:47 LcAOsMEM0
>>217

NFSでWindowsに負けるとは・・・OTZ
ESXi+ZFSって妄想してたほどバラ色ではないかも。

W2K3買うお金はないので、タダで使えるもので
もちっとがんばってみます。

219:名無しさん@お腹いっぱい。
09/01/17 00:34:14 lcLrxQTL0
>>216
我が家のNFS環境は、FreeNASが最も遅かった。
Openfilerはかなりマシだったけど、それでも遅い。
実は最速を叩き出したのはWindows2000+SFUの環境だった。


220:名無しさん@お腹いっぱい。
09/01/17 01:04:57 xx+58Yk20
それ、Solaris側のNICが蟹なのが一番の問題じゃないか?

221:名無しさん@お腹いっぱい。
09/01/17 01:28:52 FuGcS2XS0
>>216
Solarisのrgeドライバがかなり乙ってる。
受信はギガイーサの限界まで問題無く出るけど、
送信が何をしても140〜160Mbpsくらいしか出ない。
つまり、ESXi上のVMではwriteが20MB/s弱しか出ない。
BroadcomとかIntelのチップなら、同じTCPパラメータでも送受信ほぼ限界出ますお。

後、OpenSolarisとかのZFSをESXi側からNFSで使う場合、
zilを無効にしないとwriteの速度が使い物にならないくらい遅い(数MB/sとか)


222:221
09/01/17 01:31:18 FuGcS2XS0
あぁぁ、すまん。逆だった。
送信が940Mbpsくらいで、受信が140〜160Mbpsくらいっす>Solarisのrgeドライバ

223:名無しさん@お腹いっぱい。
09/01/17 01:39:16 FuGcS2XS0
ついでにベンチ結果ものせとこう

NFSサーバ: OpenSolaris2008.11 / HDDx6 ZFS raid-z compression=on / Intel Pro 1000PT
ESXi: 例のBCM5751 / SCSI: LsiLogic

・サイズ100M
Sequential Read : 105.0 MB/s
Sequential Write : 111.0 MB/s
Random Read 512KB : 104.6 MB/s
Random Write 512KB : 107.7 MB/s
Random Read 4KB : 14.91 MB/s
Random Write 4KB : 15.19 MB/s

・サイズ1000M
Sequential Read : 106.4 MB/s
Sequential Write : 98.23 MB/s
Random Read 512KB : 105.1 MB/s
Random Write 512KB : 97.38 MB/s
Random Read 4KB : 15.12 MB/s
Random Write 4KB : 9.676 MB/s

224:216
09/01/17 08:23:56 LcAOsMEM0
実はカニも疑ってて、bcm5751は2枚あったので一枚OpenSolaris
側に突っ込んだんだけど、うまく認識してなかったんだ。
(OSからは認識されるけど、NICのランプが全部消えてしまう)
なのでやむなくオンボードカニ使ってた。
これ以上はSolaris側の話になるからスレチだね。失礼。
NFS鯖側をIntelのNICに換えれたらまたベンチ報告するよ。

みんなありがとう。

225:名無しさん@お腹いっぱい。
09/01/17 12:00:42 lcLrxQTL0
>>223
おお! これは速い!
HDDx6が効いているのかな。

iSCSIが速いって聞くけど、誰か測ってくれないかな。


226:名無しさん@お腹いっぱい。
09/01/17 12:59:09 18kak+lJ0
蟹って、やっぱりだめ??
安くてSolarisで認識するから使ってるのだけど。
ヤフオクでインテル1000買った方が良いかな?


227:名無しさん@お腹いっぱい。
09/01/17 13:28:29 fBnHDaI60
アキバのQCPassで IntelとBroadcomチップのDualが安く出てるよ。

ESXiで使えるかまでは見ていないけどね。レポしてね



228:名無しさん@お腹いっぱい。
09/01/17 15:14:38 kZXN65J/0
>>226
最近の蟹(RTL8111C)は、発熱・CPU負荷も減ってかなりイイよ。
8111B以前は……。

まぁ、鯖マシンで無難なのは、やっぱりIntel/Broadcomだけど。

229:名無しさん@お腹いっぱい。
09/01/17 16:13:10 FuGcS2XS0
>>224
うちも5800/110Geのマザー使ってて同じ現象にあったよ。
色々試したら、一番上のPCI-Eスロットに挿したBCM5751と、
IDE(JMicronのJMB368)ポートに繋いでたDVDドライブが干渉してた。
どうせ鯖だし、運用時はDVDドライブ外す予定だったから、サクっと外して解決。

・・・もしかして疑惑のBCM5751だからなんだろうかorz

230:名無しさん@お腹いっぱい。
09/01/17 16:39:15 NTHvtui50
>アキバのQCPassで IntelとBroadcomチップのDualが安く出てるよ。

ありがとう!明日、買うよー

231:名無しさん@お腹いっぱい。
09/01/17 17:01:49 MJda/Mlr0
例)vmkfstools -i FreeNAS.vmdk ../../nas1/test.vmdk
とのこと。

232:名無しさん@お腹いっぱい。
09/01/17 17:03:00 MJda/Mlr0
すまん。誤爆。

233:216=224
09/01/17 20:51:28 LcAOsMEM0
>>228
GA-MA78G-DS3HオンボのRTL8111Cなんだ。
やっぱカニさんはWindowsで使えって事だね。
マザボ買う前によく調べておけばよかったよ。反省。


234:名無しさん@お腹いっぱい。
09/01/17 21:09:19 lcLrxQTL0
>>233
LAN用チップをチェックすると、買えるマザーが殆ど無くなるよ。
マトモなチップが載ってるのはハイエンドかサーバ用だけだから、
廉価マザーとNIC買った方が安いと思う。

ところで、疑惑の5751をお持ちの皆さん、ドライバCDはRでしたか?ROMでしたか?
スレ違いな話だと自覚しているので、不愉快な方はスルーよろしく。


235:名無しさん@お腹いっぱい。
09/01/17 21:49:23 LcAOsMEM0
シルク印刷だけど、なんとなくRっぽい色ではあるなぁ・・・。
RかROMか断言できるほど目が肥えてないのでなんとも言えず。
必要ないから開けてなかったけど、改めて見ると擦り傷があったり
指紋がすれたような跡があったり。


236:名無しさん@お腹いっぱい。
09/01/17 21:54:48 lcLrxQTL0
データ面の中心近く、「CDR UG 80」と書いてませんか?

237:名無しさん@お腹いっぱい。
09/01/17 22:09:05 LcAOsMEM0
ビンゴ!まさにその表記あり。そこ見ればよかったんだね。
ひとつ賢くなったw

238:名無しさん@お腹いっぱい。
09/01/17 22:15:38 lcLrxQTL0
ありがとうございます。
ヤフオクとebayのブツは同じと考えて良さそうですね。

疑惑は晴れませんが、あまり心配する必要は無さそうです。
私は素人ですが、5751の基板がそんなに酷いモノには見えません。
5721と5751では基板のパーツ番号も違ってますし、安い工場で
造られた廉価版の基板と考えるべきかと。

CD-Rですよね? と確認されてROMですと断言する程度の観察眼なら、
大したことはないと思う。


239:名無しさん@お腹いっぱい。
09/01/17 22:54:16 LcAOsMEM0
まともに使えてるんで、そんなには気にしてない。
カニさんよりよっぽどマシw


240:名無しさん@お腹いっぱい。
09/01/17 23:17:36 fBnHDaI60
昨日見つけたんだけど、Intel NICの Linux用 e1000eのドライバーが
新しいのがアップされているんだよね。

もしかするとVMwareも e1000eを更新してくれるのも近づいたかもしれ
ないと勝手に思ってる

元ネタ
URLリンク(communities.vmware.com)


241:名無しさん@お腹いっぱい。
09/01/17 23:29:01 kZXN65J/0
e1000e使えるようになったら、NECの安鯖のオンボードNICで動作するから(゚д゚)ウマーだな。

242:名無しさん@お腹いっぱい。
09/01/18 00:14:54 BzBl1wP40
そんなことよりも、さっさとUSBブート出来る様に修正してください!>ESXi


243:名無しさん@お腹いっぱい。
09/01/18 00:23:28 7RzjFhN60
>>242
これはまた・・・(笑)
ナイスボケ

244:名無しさん@お腹いっぱい。
09/01/18 00:31:54 irEV2Lqq0
ESXiサーバとVIクライントをギガビットで結んでみたけど
やっぱりコンソールのGUIは遅いね。結局VNCを使ってる。

245:名無しさん@お腹いっぱい。
09/01/18 00:52:33 4mN9cmJt0
そもそもコンソールのGUIってVNC使ってるんじゃなかったっけ?

246:名無しさん@お腹いっぱい。
09/01/18 02:03:03 nwwyLT2C0
>>244
Windows系は標準のRDPで要件満たすし、Linux系はCUIだけで十分だから
VDIのConsoleなんてほとんど使わない



247:名無しさん@お腹いっぱい。
09/01/18 03:17:11 2MoQrADw0
>>246
だよな。Windows系はRDPが一番快適。
ついでにmstscの/consoleオプションを覚えておくと幸せになれるかも。

248:名無しさん@お腹いっぱい。
09/01/18 03:39:45 XgjhQXRs0
個人的にはVMware Server Consoleが好きだな。解像度等も融通が利くし。
VI Clientのコンソールは、その辺 貧弱すぎる。
VNCは描画周りやキーボード関係に不具合多いのが何とも。
OS標準のRDPも使ってみたいけど、自分のとこは2kだから、ホストになれないんだよなー。

249:名無しさん@お腹いっぱい。
09/01/18 10:38:10 BMXFgEmY0
ゲストOSにIDE接続のHDDを要求するOSを入れたいのですが、ESXiが提供して
いるのはSCSI(をエミュレートした?)環境だけですよね。
IDEをエミュレートしたストレージを見せる方法はありませんか?

パーソナルメディアの「Bright/V」なるOS(BTRON規格準拠?「超漢字」ではない)
を発掘したので動かしてみたいのですが…。
こいつはマニュアルにも“SCSIタイプ(のハードディスク)は利用できません”と
明記されてしまっており、実際ESXi上に入れようとしましたが対応する環境が
ない、と(Bright/Vのインストーラに)いわれて終了してしまいます。

なおWindows7betaやUbuntuはインストールに成功しているので、そもそもHDD
が見えていない、ということはないはずです。

因みにBright/Vのハードウェア要件は、
・486DX以上のCPU
・IDEタイプのハードディスクドライブ(8.4Gバイト以下)
・16Mバイト以上のメインメモリ
などとなっています。

250:名無しさん@お腹いっぱい。
09/01/18 11:23:24 7RzjFhN60
>>249
VMWareServerならIDEのHDDが選択できるけど、
それではダメなの?


251:名無しさん@お腹いっぱい。
09/01/18 11:52:50 BMXFgEmY0
ありがとう。
VMwareServerでチャレンジしてみます。

ML115G5にESXiを入れたばかりなので、そちらで遊びたかったのですが。^^;
あっ、ESXi上のLinuxにVMwareServer入れてその上に導入してみようか。
重そうだけど。

252:名無しさん@お腹いっぱい。
09/01/18 12:01:19 XVNmyIQc0
RDPとVNCって、どっちがパフォーマンスいいのかな?

253:名無しさん@お腹いっぱい。
09/01/18 16:30:14 4ICcmJJG0
ESXi登録済んでインスコしようとするけど
VMware ESXi Installable Update 3 Refresh
VMware ESXi 3.5 Installable with HP Insight Management Components
の2種類のISOがあったけどインスコに使うのは前者の方でいいの?
後者はInstallableな文言があるからこっちかと思ったけど

254:名無しさん@お腹いっぱい。
09/01/18 16:38:26 7RzjFhN60
>>253
>>99-104

255:名無しさん@お腹いっぱい。
09/01/18 16:58:11 7RzjFhN60
URLリンク(d.hatena.ne.jp)

模造品呼ばわりは取り下げた様子。


256:名無しさん@お腹いっぱい。
09/01/18 20:40:28 F6HlbBAB0
ESXiって、ローカルのSATAをRAWディスクとして使うことは無理?

257:名無しさん@お腹いっぱい。
09/01/18 20:52:49 nwwyLT2C0
>>256
無理で〜す

258:名無しさん@お腹いっぱい。
09/01/18 21:28:38 fldCCtT30
>>257
即レスありがと。

そっか。
今はServer1.xを使用してて、システムとは別のデータ置き場用ドライブは
Physical Diskにしてるんだけど、ESXiではこういう使い方できないんだね。
障害時のサルベージが楽だから、好きなんだけどな >RAWディスク

259:名無しさん@お腹いっぱい。
09/01/19 06:02:21 53+Pg3CJ0
ESXiでは、EISTやCool'n'Quiet等のCPUクロック可変って動作しないよね?
やっぱり、アイドル状態が多いような用途なら、Serverの方が向いてるのかな。

260:名無しさん@お腹いっぱい。
09/01/20 11:36:32 Uf0w0Tne0
ESXi がDELL T105 で動作すると
>>62さんと>>18さんが言われてますが

T105では、USBメモリでブートさせないで
SATAディスクから起動できるのでしょうか?

ESXiをCDドライブからSATAドライブにインストールして
SATAドライブから起動させるようにしたいです。
USBメモリを使いたくないです。

もし詳しい方がいらっしゃいましたら
どうぞ教えて頂けないでしょうか。
よろしくお願いします。

261:名無しさん@お腹いっぱい。
09/01/20 13:28:29 7nbhOQxC0
>>260
ググったら、HDDへのインストールは無理、って情報出てくるよ。
自分は実機持ってないので、知らないが。

と言うか、USBメモリブートが嫌な理由って何?
安定性他 考慮しても、HDDよりいいと思うんだけど。

262:名無しさん@お腹いっぱい。
09/01/20 13:58:54 iP/DM1LQ0
T105とかだと、それ用に筐体内USBポートあるしな。

263:名無しさん@お腹いっぱい。
09/01/20 16:20:51 /cxzEowI0
USBブート+iSCSIでディスクレスおいしいです

264:名無しさん@お腹いっぱい。
09/01/20 20:04:13 U8q8dx/A0
ML115でUSBブートしてますが
5,6回に一回位はブートに失敗します。


265:名無しさん@お腹いっぱい。
09/01/20 20:13:23 RIeynME90
>> 261
さらにぐぐると、HDDから無理矢理起動させたのをレポしているのを見たことがある


266:名無しさん@お腹いっぱい。
09/01/20 20:12:53 KTUY9V/k0
ML115で ESXi USBブート実装されている方に質問です。

現在ML115の購入を検討しています。

内蔵ディスクはSATAでもESXiブート後認識していますか?
それとも、SASにする必要はありますか?

よろしくお願いします。


267:名無しさん@お腹いっぱい。
09/01/20 20:20:49 Uf0w0Tne0
>>261
>>262
>>263

ありがとうございます
しかしiSCSIストレージを持ってないので
ローカルのSATAディスクにインストールしたかったです

SATAディスクにインストールできないなら
iSCSIの代わりに、LinuxでNFSサーバを立ち上げました
しかし問題が出て困ってます

このNFSサーバのマウントポイントに
ESXiマシンのストレージ構成の追加でmountしようとすると
「ホスト構成中のエラー:NFS Error Unable to Mount filesystem:
The NFS server does not support MOUNT version 3 over TCP」
というエラーダイアログが出てきて、mountできません

NFSサーバはyumで最新バージョンにしたつもりですが・・・
他にどういうことが考えられますでしょうか?
他LinuxのNFSクライアントからはmountできてます

ちなみにNFSサーバはFedora8です

どうぞよろしくお願いします

268:名無しさん@お腹いっぱい。
09/01/20 20:30:22 1gGHHFhI0
>>267
何か言ってることが全然繋がらないんだが……

・現在、T105を持ってるのか
・何故、USBメモリブートではダメなのか
・今、ESXiを動かしてるマシンは、何からブートしてるのか

もしかして、USBメモリブートしたら、そこにしかOSインストール出来ないとか思ってないか?
ブートはUSBメモリからで、ゲストはOSはローカルSATAとか普通に可能だよ。
と言うか、基本的に他力本願過ぎる。

269:名無しさん@お腹いっぱい。
09/01/20 20:51:31 sBPrEgg+0
あと、LinuxでiSCSI target作ることも可能だし、Solaris使えば万全だし。
とにかく、もうちょっと知識つけろよ…

270:名無しさん@お腹いっぱい。
09/01/20 21:16:45 RIeynME90
っていうか、pdfのマニュアルで読みゃだいたい基本は解る。

試しに印刷したら結構いいこと書いてあるじゃん。と思った


271:名無しさん@お腹いっぱい。
09/01/20 21:35:49 U8q8dx/A0
Solaris10のiSCSIターゲットって、どうよ?
OpenfilerのiSCSIより良い点あるなら検討したいな

272:名無しさん@お腹いっぱい。
09/01/20 22:57:12 GSZT8UPj0
カスタムoem.tgzがまとめられてたサイトがあった
動くかどうか知らないがESXi Update3 へe1000eドライバ入れたoem.tgzとかあった
URLリンク(www.vm-help.com)

273:名無しさん@お腹いっぱい。
09/01/20 23:00:48 7nbhOQxC0
あぁ、やっぱハックしてる人達っているんだ。

274:名無しさん@お腹いっぱい。
09/01/20 23:10:59 emkKavOT0
>>271
ZFSのclone機能でVCBと同じような事が出来る。
(zfs snapshot -> clone作成 -> 別iscsiとして公開 -> backupとか)

ベンチは↓みたいな感じ。ハードウェアその他は>>223の構成。
zpoolからZFSボリューム(raw領域)作成して、それをiscsiで公開。
ESXiでVMFS領域として初期化して、その上にvmdk作成して測定。

CrystalDiskMark 2.2 (C) 2007-2008 hiyohiyo

Sequential Read : 104.440 MB/s
Sequential Write : 106.552 MB/s
Random Read 512KB : 102.342 MB/s
Random Write 512KB : 105.133 MB/s
Random Read 4KB : 12.718 MB/s
Random Write 4KB : 12.130 MB/s

Test Size : 1000 MB


275:名無しさん@お腹いっぱい。
09/01/20 23:46:31 OSRwlU1/0
>>266
ML115 G1でESXiを使ってるけど、オンボードSATAでは自分も>>188のような
症状に遭遇したので、安いRAIDカード(PERC5/i)を買った。

RAIDカードを使えばちゃんとインストーラからインストールできるので、
USBメモリも不要だよ。


276:名無しさん@お腹いっぱい。
09/01/21 00:59:28 t+1jWQBm0
Proliant買うなら、SmartArrayは付けておいたほうが後々が楽だ。


277:名無しさん@お腹いっぱい。
09/01/21 02:16:03 t+1jWQBm0
日本の政治屋よりも、イメージが明確で課題の粒度が適切だな。
あとはそれを実行できる実行部隊が揃えられるかどうかか。

278:名無しさん@お腹いっぱい。
09/01/21 02:17:03 t+1jWQBm0
げえっ!壮絶に誤爆った。スマソ

279:名無しさん@お腹いっぱい。
09/01/21 04:42:35 zcJcqI4B0
>>275
266です。

ありがとう。

280:名無しさん@お腹いっぱい。
09/01/21 08:08:44 24FiwlOf0
>>272
とっくに試した。おいらの環境ではFAILが発生し撃沈


281:名無しさん@お腹いっぱい。
09/01/21 08:37:30 2Qe1EuQw0


282:名無しさん@お腹いっぱい。
09/01/21 11:30:35 jO3ifkb60
ML115(1G)だけど、うちでは unsupported で起動後に一箇所書き換えるだけで
普通にオンボードSATAHDDにインストールできて、特に問題なく使えてます。
ディスク遅いのでRAIDカードの購入は検討中ですが。


283:275
09/01/21 14:07:19 R2e+5pf70
自分の時はHDDに高負荷を与えるとロックする傾向があるようだった。
2つのVMで同時にService Pack当てたりするとアウト。
HDDもSeagate, HGSTで何台か入れ替えてもみたんだけどね。


284:名無しさん@お腹いっぱい。
09/01/21 16:20:19 jO3ifkb60
FreeNAS にこれ入れると速くなったりするのかな?
URLリンク(fromto.cc)

285:sage
09/01/22 04:44:08 IPmhr60I0
ESXiを常用で使うことを考えるとUSBメモリはVMFSのファイルシステムが壊れたり
するからHDDにインストールしたほうがいいと思う。
数ヶ月いろいろな検証やら現場で触ってるけど、USBメモリはなにやら不安定。

家の環境ではupdate3では自作PC3台ともHDD認識しているな。
update2のときはNAS構築していたからよかったけど、SATA HDD認識したり
しなかったりで参った。

>284

それはないだろ。ていうかESXにFREENAS入れるとでしょ。
日本語おかしい。
ハイパバイザーがかんでる分、オーバーヘッドが生じやすくなるだろうし
そもそもが未対応のFreeBSDでも裏技でVmotionしちゃうって内容だし。
ちゃんとしたNIC使ってれば結構スピード出るよ。

286:名無しさん@お腹いっぱい。
09/01/22 08:52:15 UDa6ASQh0
>>283
ESXi に入れている FreeNAS に vmware-tools 入れると、という意。

ここまでしなくても普通に open-vm-tools 入れれば vmxnet は入るような気
もするが。


287:名無しさん@お腹いっぱい。
09/01/22 20:19:14 sCZFbep20
ESXiで複数NICを1つの仮想スイッチに割り当て、チーミングさせて、
物理の側で別々のスイッチに繋ぐのはダメですか?

うまくいくなら安物スイッチでも冗長化できるなぁと

288:名無しさん@お腹いっぱい。
09/01/22 20:37:23 oLoVMr4D0
そんなもん冗長化させる意味あるの?

289:名無しさん@お腹いっぱい。
09/01/22 21:02:37 Mg+cI6bE0
>>287
チーミングの目的が帯域なら、チーミングに意味が無いと思う。
個々の物理NICを別々の仮想スイッチに割り当てて、
それぞれの仮想スイッチに仮想マシンをぶら下げると、
使いにくいけど、帯域は分散できるよね。

それとも、目的は別かな?

290:名無しさん@お腹いっぱい。
09/01/22 22:32:16 jzPVvFwe0
>>287
スイッチが死んだ時の通信経路確保って話なら普通に有りですが。



291:287
09/01/22 22:33:15 sCZFbep20
>>288-289
レスありがとうございます。
ストレージをNASかiSCSIにしたときに、スイッチ壊れて
丸ごと止まったではつまらんなぁと思った次第です

物理サーバーは複数用意しとけば1台壊れてもリモートで何とかなるけど、
スイッチだとどうしようもないなと

292:名無しさん@お腹いっぱい。
09/01/22 23:30:39 Mg+cI6bE0
>>291
HAクラスタの世界?
ストレージの二重化、サーバの二重化、ネットワークの二重化だね。
接続が複雑になるし、トランキングやスパニングツリー、SANのクラスタなど面倒な世界。
仕事でもあまりやりたくないよ。



293:287
09/01/23 01:05:30 4NynvZil0
>>292
クラスタと言えるか微妙ですが、
VMwareの場合、サーバーとストレージ2つずつ用意して
片側のストレージから別の方へマシンイメージコピーしておけば、
どれか壊れてもリモートで何とかなる気がするのですが、
ふとスイッチがネックになるなと気づきました

まぁ環境整ったら遊びでやってみます

294:名無しさん@お腹いっぱい。
09/01/23 03:51:16 eBjVjJGR0
>>293
DRBDあたりをつかって冗長化?

295:名無しさん@お腹いっぱい。
09/01/23 17:33:14 uvCgqDW+0
ESXi UPS連動シャットダウンが実装出来たので参考までに

PerlとRemoteCLIのSDKが使いこなせれば、もっとシンプルに出来るのかも
しれないけど、スキルがないのでコマンドバッチのみで行ってます。
ご存知の通りESXiにはコンソールが無いので単体でのUPS連動は不可能。
そこで今回はコントローラーとして単体のWindowsマシンを使用。

Windowsマシンに必要なもの
・VMware VI Remote CLI
・sleepコマンド(2003Serverのリソースキット)
・sshの実行環境(cygwin)
・PowerChute等のUPS連動ソフト
・ESXiで作成したRSAキーファイル(id_rsa.pub)
作り方はここ URLリンク(communities.vmware.com)

PowerChuteでシャットダウンイベント発生時に
c:\ESXiに置いた以下のバッチを起動


296:名無しさん@お腹いっぱい。
09/01/23 17:33:54 uvCgqDW+0
ここから
@echo off
set cmddir="C:\Program Files\VMware\VMware VI Remote CLI\Perl\apps\"
set host_ip=192.168.1.1
set username=root
set password=password
set target_host=localhost.localdomain
set HOME=c:\ESXi

@echo 全ゲストOSのシャットダウン
%cmddir%\vm\vmcontrol.pl ^
--server %host_ip% ^
--username %username% ^
--password %password% ^
--operation shutdown

@echo 120(Sec) wait...
sleep 120

@echo ESXiサーバーpoweroff
ssh -i %HOME%\id_rsa.pub %username%@%host_ip% "/sbin/poweroff"
ここまで

hostops.plを使ってもメンテナンスモード→シャットダウンは可能だけど
次回起動時もメンテナンスモードのままで、自動的にゲストが立ち上がら
ないのでpoweroffでシャットダウン電源を落としてます。
sleep してるのはvmcontrol.plがゲストのシャットダウンの完了を待たないから。


297:名無しさん@お腹いっぱい。
09/01/23 19:43:24 AQi2tMeJ0
>>295
乙。
頑張ってるなー。

やっぱり、監視マシン立てなきゃ無理か。単体では難しそうだね。
実使用を考えると、iSCSIのターゲット側で管理するのがスマートかな。

298:名無しさん@お腹いっぱい。
09/01/24 01:47:10 8kV/ALyz0
>>297
レスありがと
「単体では不可能」は語弊があったかも
コントローラーをゲストに入れて、自分以外のVMをシャットダウン→poweroff→自分をシャットダウン
自分のシャットダウンが正常に行えないかもしれないけど、これなら単体での実装が可能だと思う。

今回PoweChuteが動いてたWindows機が手元にあったからそれを使ったけど、297の言う通り
iSCSIターゲットでコントロールするのがベストだね。sshとか最初から用意されているし。

295のリンク先にも載っているけどAPCのUPSを使っているなら、ここ URLリンク(www.apcupsd.org) から
フリーのdemonが入手可能です。

299:名無しさん@お腹いっぱい。
09/01/24 03:07:47 J2ds0uHL0
ESXiでFake RAIDが使えるようにならんもんかなー('A`)

300:名無しさん@お腹いっぱい。
09/01/24 03:25:48 3OYuFuMv0
>286

そういう意味だったのか、失礼しました
確かにそれならvmware-tools入ってないよりもスピード上がりそう。

そういえば、友人がESXiとACARD製のラムディスクの
組み合わせてテストしたら、vmware-toolsなしで
シーケンシャルリードやライトが確か300MB/s前後ぐらいだったのが
リードで350MB/s、ライトにいたっては480MB/sと大幅に向上したって
いってたよ。

ただGuestはXP SP3。

>295

リモートコマンドでシャットダウンかけるとGuestOSが全てシャットダウンして
メンテナンスモードに移行してからじゃないと受け付けてくれないのだけが
ネックなんだよね。

ただ、その方法はVMware社からはノンサポート扱いになってしまう方法なので、
自宅使用限定と書いたほうがいいかも。

あと、PowerShell版のVI Toolkitで強制シャットダウンのコマンドがあることが
わかったので単体のESXiで
GuestOSをシャットダウンしたあとにホストを強制シャットダウンする
スクリプトを組んで試してみたが、再度起動したあとにGuestOSを立ち上げようと
したらエラーが出た。
(そのときは再起動したらとりあえず治った。)

poweroffコマンドと同じ処理しているんじゃないかと睨んでいるんだけどどうなんだろう。
poweroffとREMOTE-CLIのhostops.plでのシャットダウン処理は当然ながら
一部異なることはログでわかったけど。

301:名無しさん@お腹いっぱい。
09/01/24 09:36:30 8gTfHa0x0
hostops.plで一旦メンテモード(全ゲストサスペンド)
→hostops.plでexit_maintenanceしてメンテナンス解除
→sshでpoweroff
どう?


302:名無しさん@お腹いっぱい。
09/01/24 11:34:26 aOuD9fD40
>>293
URLリンク(b.hatena.ne.jp)
これかー

303:名無しさん@お腹いっぱい。
09/01/24 14:56:21 3OYuFuMv0
>301

それなら普通に

vmcontrol.pl でGuestOSを全てシャットダウンかサスペンド
hostops.pl   でESXi Hostをメンテナンスモードに移行
hostops.pl   でESXi Hostをシャットダウン

でいいかと。
HA・DRS組んでなければメンテナンスモードへの移行は時間かからないから、
これで充分だと思う。
応用すれば起動時も自動でメンテナンスモードから復旧させられるし。

逆にVMwareHAやDRS有効にしている状態だとメンテナンスモードへの移行や
復帰は結構時間がかかるから、メンテモード移行→復帰→poweroffだと
余計時間がかかってしまう。

あと、こんなURL見つけた
本家のコミュニティもときどき調べてるけど、海外でもUPSがらみで困っている
人達がたくさんいるね

URLリンク(communities.vmware.com)

APCがVIMAでやろうとしていることもなあ…VMware Forumの展示で知って
いろいろと質問したけど、実際に触ってコマンド細かく調べてみたら
VIMAがGuestOSだからいろいろと問題があって使い物にならないんだよなあ…
GuestOSは今までどおりノンサポートっていってたし。

上のURLの投稿者の人も動作を疑っているようだけど、本当にこんな使えないもの
だすつもりなんだろうか、APC。
苦肉の策なのはわかるんだけど、これならRemote-CLIやVI Toolkitのほうが…

304:名無しさん@お腹いっぱい。
09/01/24 17:06:30 aLY+XGN+0
結局今のところU3でのe1000eの動作報告は無し?

305:287
09/01/24 22:10:19 3kjWCK1N0
>>302
レスありがとうございます。
目的からすれば、確かにありですが、OS上のソフトRAIDだとゲスト全部をいじる必要ありますね
ホットスタンバイレベルでなくて、コールドスタンバイかつソフト的には手動対応でいいので、
ハードとVMwareでどこまでできるかなぁと

306:名無しさん@お腹いっぱい。
09/01/25 08:28:08 S7YWLnliO
いまいちよくわからないんだけどメンテナンスモードって何?

307:名無しさん@お腹いっぱい。
09/01/25 10:31:23 8zGM2pGi0
>>304
ないね。Intelのホームページで e1000eの最新ドライバーが出ているから
Redhatベースでコンパイルして入れてみたら。

もしかすると神になれるかもよ。サイズがめちゃくちゃでかくなるけどね


308:名無しさん@お腹いっぱい。
09/01/27 09:00:10 76xnYiyq0

インテルDX58SO(チップセットX58 ICH10)+インテルi7の環境なんだが
ローカルのSATAディスクを認識してくれない

ICH9以降であれば、SATAディスクは認識できる
URLリンク(wiki.aggregate.jp)

その方法は次の通り
URLリンク(blogn.hirokasa.jp)

という感じだったが、ICH9では認識できても
ICH10では認識でないのかな???

どなたかICH10でSATAディスクの認識に成功されましたか?


309:名無しさん@お腹いっぱい。
09/01/27 09:07:09 eZRFu2ng0
>>308
URLリンク(www.vm-help.com)
コレは?

310:名無しさん@お腹いっぱい。
09/01/27 10:08:50 76xnYiyq0
>>309
ありがとう

このoem.tgzをUSBフラッシュの/bootbankにコピーしたいが
WIndowsマシンしかないので、それが出来ない・・・

仕方ないので、

USBフラッシュから起動したVMwareに
SSHログインして手で編集するしかないのかなぁ
/etc/vmware/simple.map
/usr/share/hwdata/pci.ids

もし何か良い方法がありましたら、アドバイスを頂けないでしょうか



311:名無しさん@お腹いっぱい。
09/01/27 12:22:56 mdUo3Fon0
ローカルストレージを使わないのが一番楽だ罠

312:名無しさん@お腹いっぱい。
09/01/27 14:07:42 F4WeZg5W0
>>309
ありがとう
でも、いろいろやってみたけどダメだった

ICH10のSATAディスクを認識させる方法がないかなぁ

リモートディスク(NFSなど)を使わないで
1台でテストしたいだよなぁ

VMWare社はなんでこんな不便なことにしたのかなぁ

XenやKVMが成長するまで我慢して待つかな


313:名無しさん@お腹いっぱい。
09/01/27 19:44:07 JKs2oURX0
>>310
USBメモリを Installメディアとする以下の方法で oem.tgz を入れ替えてみたらどうだろう?

Install ESXi 3.5 from a USB flash drive
URLリンク(www.vm-help.com)

チップセットが認識されて、HDDが認識できていることが確認できれば、
IDEをSCSIに見せかける手でインストールできると思う。
#強引な手だから、>188 あたりの問題がでるかもしれないけど。

Install ESXi 3.5 to an IDE drive
URLリンク(www.vm-help.com)

314:名無しさん@お腹いっぱい。
09/01/27 21:58:16 UrDIXeLDO
CDからLinux立ち上げろ

315:名無しさん@お腹いっぱい。
09/01/28 13:20:28 3cV6wavk0
>>313

CDからブートした場合と同じになる気がする

CDからブートして、
インストーラの途中で、IDEをISCSIに見せかける変更をしたけど
エラーでリブート選択の画面になってしまったよ

ESXiは面白いけど、プラットフォームで残念気分にさせるから
あまり広まらないかもしれないね

ブレードサーバは高価だし、SANやiSCSIは大げさだし、
ESXiが無償でも、それ以外にコストがかかり過ぎる

今のところ、これを企業で使った場合に
トータルコストが下がるとは思えないんだよな
まだ評価段階だから分からんけど・・・

XenやKVMの成長も楽しみだし
Hyper-Vもこれから評価してみるよ




次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

5144日前に更新/191 KB
担当:undef