[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 2chのread.cgiへ]
Update time : 06/05 06:33 / Filesize : 191 KB / Number-of Response : 862
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

Kinect ハック



1 名前:デフォルトの名無しさん [2010/11/27(土) 03:22:13 ]
あんなこといいな♪できたらいいな♪

OpenKinect
openkinect.org/

237 名前:デフォルトの名無しさん mailto:sage [2011/01/10(月) 20:52:40 ]
>>235-236
使っているバージョンがunstableだからそんなもの。
stable(1.0.0.23)の方を使わないとダメ。あとそれはavin2/SensorKinectのstableとは互換性がない(少なくともUbuntuでは)。
さっきWindowsにインストールしてみたけど全部バイナリパッケージをクリックするだけで問題なく動いた。
まずKinectをつながずに、
1. OpenNI-Win32-1.0.0.23.exeをインストール
2. SensorKinect-Win32-5.0.0.exeをインストール
3. NITE-Win32-1.3.0.17.exeをインストール
全部インストールしたらkinectをつなぐと、motor, audio, sensor(だっけ?)が出てくる。
ドライバーはインストール済みなので適当にはいを押して自動でインストールして終わり。
audioドライバーだけはまだない。

238 名前:デフォルトの名無しさん mailto:sage [2011/01/10(月) 20:56:53 ]
間違えた。
× avin2/SensorKinectのstableとは互換性がない
○ avin2/SensorKinectのunstableとは互換性がない

何にせよ上の3つダウンロードしてクリックすれば終わり。
(avin2/SensorKinectのバイナリは2011.01.07付けで登録された)


239 名前:デフォルトの名無しさん mailto:sage [2011/01/10(月) 21:03:36 ]
まあ結論から見ればそうなんだけどねえ。
これを常識とする内容でもないな。

240 名前:デフォルトの名無しさん mailto:sage [2011/01/10(月) 22:00:57 ]
そろそろ情報をまとめたいね。古い情報とかあって非常に見通しが悪い。

241 名前:デフォルトの名無しさん mailto:sage [2011/01/10(月) 22:16:05 ]
>>237
一応

1. https://github.com/avin2/SensorKinect/tree/master から落とした
  avin2-SensorKinect-b7cd39d.zip を展開
2. Kinectつないでavin2-*\Platform\Win32\Driverフォルダからドライバ入れる
2. OPENNI-Win32-1.0.0.23.exe 入れる
3. avin2-*\Bin\SensorKinect-Win32-5.0.0.exe 入れる
4, NITE-Win32-1.3.0.17.exe 入れる

の標準的な手順でやって、サンプルはNITEのも含めて大体動くは動くんですが、
Windowsで数分動かしているとUSB再接続の「キンコン」音と共にリセットされ、
アプリはタイムアウトエラー、デバイスマネージャではKinect Cameraに
黄色の「!」って感じで連続稼動ができない状態。

あと、こういったリセット(?)でUSB speedも変になってたりする事が
あるらしく、たまにUnknown USB device speedとかUSB HISPEEDでないよ
エラーが出て、ポート変えて挿し直さないといけなくなったりも頻繁。
電源は取ってるしUSBだってホスト直結なんだけどな・・・わからん。

なんとなくLinuxで動かす方が安定している気が。

242 名前:237 mailto:sage [2011/01/10(月) 23:19:44 ]
> 2. Kinectつないでavin2-*\Platform\Win32\Driverフォルダからドライバ入れる
↑これは余計でしょう。
> 1. OpenNI-Win32-1.0.0.23.exeをインストール
> 2. SensorKinect-Win32-5.0.0.exeをインストール
> 3. NITE-Win32-1.3.0.17.exeをインストール
うちはこの3つだけで安定動作してるなあ。基本的にWindowsでは動かしてないけど。
今試したらSampleSceneAnalysis.exeが10分ぐらいは問題なく動いている。
あとはライセンスキーぐらいかなあ。あれ間違えたライセンスキー入れてもそのままインストール進むし。

メッセージだけ見るとホスト側のUSBが安定して動作して内容に見えるけど・・・よくわからん。
むしろ1つUSBハブをかませたらどう? 1mぐらいまでならなんとか延長できる(3m延長すると確実に動かない)。





243 名前:デフォルトの名無しさん [2011/01/11(火) 17:25:35 ]
www.youtube.com/watch?v=eCbURRDUUdI

kinect-ultraソース公開きたー
code.google.com/p/kinect-ultra/

244 名前:デフォルトの名無しさん mailto:sage [2011/01/11(火) 17:53:54 ]
>>243
めっちゃいい部屋に住んでるな

245 名前:デフォルトの名無しさん mailto:sage [2011/01/11(火) 18:28:17 ]
来週買えそう



246 名前:デフォルトの名無しさん mailto:sage [2011/01/11(火) 19:07:55 ]
サイズもデザインも日本の家ではないな
海外在住なんじゃないか?

247 名前:デフォルトの名無しさん [2011/01/11(火) 19:17:51 ]
普通じゃね?

248 名前:デフォルトの名無しさん mailto:sage [2011/01/11(火) 22:33:28 ]
kinectから取得したデータをそのまま使っても綺麗なモーションにはならないね。
www.youtube.com/watch?v=zr4joUdna1I
一通りいじり倒したけど、ここからリアルタイムキャプターまではかなり遠いわ。
飽きた。

249 名前:デフォルトの名無しさん mailto:sage [2011/01/11(火) 23:14:29 ]
>>248
なんかおかくね?
サンプルとかMMDだと、もっと上手くいってるけど。

250 名前:デフォルトの名無しさん mailto:sage [2011/01/11(火) 23:19:49 ]
キャプチャー環境晒してもらわないとなんとも言えないと思うけど、足元見えてないんじゃないの?

251 名前:248 mailto:sage [2011/01/11(火) 23:22:27 ]
おかしいかな?
sinbadもMMDもジョイントに可動域の制限(コンストレイン)とか、無効データの時の扱いとか、
Kinectからもらった生データで動かしてるわけじゃないよね(多分)?
単に生データ表示してるだけなら、こんなものなのかなあと思ってるけど。。。。。
特に下半身のキャプチャー精度はひどい。

252 名前:248 mailto:sage [2011/01/11(火) 23:29:40 ]
一応環境は距離2m、ひざ下まで(足首は写ってない)。
気になっているのは最初のキャリブレーションポーズの認識が3回に1回ぐらいしか成功しなくて
うまくいった時でも5〜10秒はかかる事。もしかして根本的に精度が出てないとか?


253 名前:デフォルトの名無しさん mailto:sage [2011/01/11(火) 23:34:15 ]
>>252
キャリブレーションは、例のポーズとってれば、多少時間はかかるけどほぼ必ず認識するよ。
足先まで映ってないといかんと思う。(その分距離とらないといけないけど)

254 名前:デフォルトの名無しさん mailto:sage [2011/01/11(火) 23:40:40 ]
みんな腕を直角に曲げてから何秒で認識してる?


255 名前:デフォルトの名無しさん mailto:sage [2011/01/12(水) 00:03:40 ]
ヘソまで写ってりゃ1秒ちょい
根本的にお前の部屋が散らかってるかダボダボの服着てるとかだろう
なんにしろ、すぐに道具のせいにする奴は成功しない



256 名前:デフォルトの名無しさん mailto:sage [2011/01/12(水) 00:31:14 ]
モーキャプ作ってみたんだけど実際こんなもんで満足な精度は出てるのかな?
www.youtube.com/watch?v=oGGcBiqZWXo

とりあえずIKは未使用で可動域未設定でもここまではいけるんだが・・・

257 名前:デフォルトの名無しさん mailto:sage [2011/01/12(水) 00:52:29 ]
満足の基準は人それぞれ
精度は出るものではなく追求するもの

258 名前:デフォルトの名無しさん mailto:sage [2011/01/12(水) 01:14:50 ]
>>256
キャラの位置が動きまくってるのが気になるが、すごくいい感じじゃね?

259 名前:デフォルトの名無しさん mailto:sage [2011/01/12(水) 03:22:05 ]
手を背中に回したらどうなるか追求してください

260 名前:248 mailto:sage [2011/01/12(水) 08:27:16 ]
>>256
俺のところより圧倒的に精度がいい。
キャプチャー環境に何か問題があるのかもしれない。
もうちょっと頑張ってみるわ。
(部屋片付けないとダメかなあ。。。)


261 名前:248 mailto:sage [2011/01/12(水) 10:37:37 ]
結構改善した(と思う)。
- Kinectの高さを下げて床が多めにきっちり入るように変更。
- 画面内の金属質の面に全部タオルで覆う。
- 服を脱ぐ。
これでゆっくり動けばほぼ四肢をキャプチャーできた。
ただ早い動きをするとやっぱり動きが飛ぶ。どうもkinect関係なく描画がおかしいらしい。
そういえばATIのGPUでそんな問題が出ていた。
プリセットのモーションを再生する限り特に問題は出ていなかったので解決したと思っていたが、直ってなかったようだ。


262 名前:デフォルトの名無しさん mailto:sage [2011/01/12(水) 10:48:46 ]
Q. 精度が出ないんだが?
A. まず服を脱ぎます

がテンプレになる日も近い

263 名前:デフォルトの名無しさん mailto:sage [2011/01/12(水) 13:13:10 ]
ていうか真剣にキャプチャするならまじでボクサーパンツとかブリーフでやった方がいいよな

264 名前:デフォルトの名無しさん mailto:sage [2011/01/12(水) 22:39:54 ]
よし、キャプチャ用全身タイツを発売しよう!

265 名前:デフォルトの名無しさん [2011/01/12(水) 22:46:38 ]
チンコケースだけでよくね?



266 名前:デフォルトの名無しさん mailto:sage [2011/01/16(日) 22:51:22 ]
みんなもう飽きたのか・・・

267 名前:デフォルトの名無しさん mailto:sage [2011/01/16(日) 23:11:48 ]
趣味でモーションキャプチャして、んでどうすんの?っていう根本的問題があるからな。
日本向けはMMDがさっさと対応しちまったし、
高度な処理はMITやPrimesenseの独壇場でトーシロじゃ歯が立たない。
実用技術的には、MSが宣言した公式サポートが開始されたりASUSのXtionが出てきたりするこれからが本番だろう。
ゲーム業界向けの業務用ソフトなんかに組み込まれていくと予想。

268 名前:デフォルトの名無しさん mailto:sage [2011/01/16(日) 23:28:57 ]
ひと段落してきた感はある。

269 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 00:22:00 ]
マイノリティ・リポートみたいな感じでファイルとかwindow操作できないかな?
プロジェクターを使ってプレゼンやると面白そうなんだが

270 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 01:12:04 ]
ジョブズ猊下がMacBookにタッチパネルを搭載しない事について
「腕が疲れてやってられん」みたいなこと言ってたけど、
それと同じでそういうプレゼン用途以外では実用性がないと思う


271 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 02:45:00 ]
寝パソ最大のネックである「寝ながら文字入力」を補完するという役目を
背負っているじゃないか。

272 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 03:24:48 ]
玄関のドア前で踊ると開く鍵とか開発して欲しい

273 名前:デフォルトの名無しさん [2011/01/17(月) 09:18:21 ]
>>272
誰でも開いちゃうんじゃないか?w

274 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 09:28:53 ]
鍵を閉める踊りと開ける踊りを区別した上でブロックサインのように
踊りの中の特定のパターンのみに意味があるようになっていれば
他の人が適当に真似しても有効にならないようには出来るはず

275 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 09:53:52 ]
家の前で変な踊り踊ってる人がいたら不審人物だと思われないか



276 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 09:55:30 ]
やっぱり腰のピストン運動をリアルタイムキャプチャーして
ゲームに反映するのが一番いいと思うけどなあ

277 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 11:18:19 ]
いや、仮想の腰と実際の右手を連動させた方が実用的だ

278 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 16:40:50 ]
右手ばっか使ってると本番でダメダメになるぞ。
ちゃんと専用器具を使って腰を使った方がいい。

279 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 17:21:38 ]
専用器具を使ってると本番で刺激が足らなくなるという研究報告もあるな

ところで>>273については顔認証を組み合わせればいい
顔写真を印刷すればいいじゃないかという説もあろうが
玄関の前にお面を被って踊るデブがいたらそれは不審者だ

280 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 17:58:58 ]
ボーンのトラッキングって、MSで用意されたもの?
それともOpenNIの人が独自に開発したもの?

281 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 18:02:04 ]
NITEはPrimeSense社が開発してるプロプライエタリなライブラリ

282 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 19:21:01 ]
>>281
OpenNIのSampleでもボーントラッキング出来てるみたいだけど、
NITEを使ってやってるってことなのかな?

283 名前:デフォルトの名無しさん mailto:sage [2011/01/17(月) 19:41:01 ]
それNITE入れないと動かないよ!

284 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 00:04:12 ]
>>283
そうだったのか、、ありがとう

285 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 03:15:28 ]
おまえらコレ見てテンション上げようぜ

ttp://www.nicovideo.jp/watch/sm13326942



286 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 03:48:24 ]
>>285
左右よりも前後の動きに弱いみたいだね


287 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 03:50:54 ]
これ、日本のアニメーターさんに使ってもらうわけにはいかんのかなあ…

今までの3DCGのモーション付って大体は手作業でつけるから実に面倒くさくて
その作業を目にしたフツーのアニメーターさんは「手で描いたほうが早いわ」と即断するので3DCGには一切近づこうとせず
だから3DCG界隈は、2Dアニメ界との交流が途切れてしまい、技法その他が全然流入してこなくて
結果、PC操作はできるけどアニメの極意を知らないド素人がつけたロボット的モーションか
ダンサーや俳優さんのモーションキャプチャデータをただ垂れ流すだけ、という技術向上やノウハウ蓄積がこれといって無い状況が続き
日本の2Dアニメと3Dアニメはずっと分断したままで、国際的な競争力を持つこともなく…

でも、kinectのこのムーブメントをアニメーターさんが見たら
「こんなに簡単なら…俺だって3DCGアニメをやれそうだ」「俺だったら、もっとこんな感じに動かすね」と思うのではないか
「描いたほうが早い」から、「カメラの前で動いたほうが早い」に、時代が変わっていくのではないか
そこでようやく、2Dアニメーターが持っていた各種ノウハウが3DCGアニメと融合し始めて、新しい何かが生まれやすくなるのではないか

でもアニメーターさんは、個人が気軽にモーションキャプチャできる時代が到来しそうだ、それがアニメにも生かせそうだ、なんて全然知らないだろうし
kinectハックしてる側は、これがアニメ制作作業をグンと楽にする可能性がある、なんて夢にも思わないだろうし、世界は相変わらず分断したまま、kinectハックブームはお遊びの域を出ずに終了するのだろうか

288 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 03:57:20 ]
便所に落書きしてる分には構わないが、
間違ってもアニメーターにメールしたりはするなよ

289 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 05:09:54 ]
代々木アニメーション学院に電話汁

290 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 09:12:15 ]
もうちょっと簡単にできるようになればね。
最低でも
- モデルをロード
- モーションを取り込み
- モデル+モーションにしてセーブ
- ネットにアップロード
- ブラウザーで見る
がフリーで一括してできるようにならないと難しい。
2,3年でできるようになると思うけど、、、、

メタセコイアがボーン入れられない時点でもう終わってる。
あのへんから全部作り替えないと無理だね。

291 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 09:18:58 ]
MMDでいいじゃん

292 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 11:48:28 ]
お前がMMDで満足しているならそうなんだろ。お前はな。

293 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 14:05:06 ]
>>287
演技はだれがやるんよ、そういう人たちを雇うのだって金がかかるんだよ。
大きな演技してもらうには場所もひるようだしな。

294 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 15:08:28 ]
データ荒くてこんなん使えんよ
今はあくまでリアルタイムで優秀な技術であって
それ以上には全く使えない代物
3Dモーション付けてる人も「手付の方がいいや」って100%言う

今後に期待はしてるが、今はその時ではない

295 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 15:39:18 ]
>>294
データが荒いのは補完方法でいかようにでもなるとおもうがな。



296 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 16:00:24 ]
なんとでもなると口で言うのは簡単だが

297 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 16:10:06 ]
>>296
そもそも計測した時点でどんなデータでも離散した不連続な情報になってるだろ。
それが今までどのように加工されてきたかを考えればそういう返事はできないよねえ。

現状はハックしたドライバがそういうことやってくれてないから自前でやるだけだよ。
あれ、もしかして補完するためのアルゴリズムとかしらないの??

298 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 16:11:16 ]
そういうことは実際にやってみせてから言わないとかっこわるいだけだよ

299 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 16:24:26 ]
>>298
なに?コード書いてもらいたいわけ??
金くれたらやってやるけど払える?

300 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 16:31:18 ]
>>298
おまえはひとまず線形補完からはじめろよw
滑らかなのが欲しければベジェでつなぎあわせとけ。


301 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 16:34:32 ]
なんだ、できもしないのに言ってるんだ

302 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 16:35:30 ]
>>299
もっと具体的なことを書かないとお金が払えるかどうかは決められないでしょう

そんなわけで質問だけど、本当に補間だけなはずはないよね?
おそらく予測補間のことを言ってるのだろうけど、信頼度と速度とか抵抗とかから適当に予測して
補間するくらいのことは誰でも思いつくわけだけど
そもそもキャプチャー側の精度の問題でそれだけじゃデータが荒いことには代わりがなよね
俺みたいな素人にはそれ以上の補間って思いつかないんだが、なんかそれ以上の補間
が実際に応用されてる現場ってあるの?

303 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 16:57:40 ]
>>301
鏡見て独り言かw

>>302
まずはどの精度か定義しねえと話にならねえんだけど。

キャプチャ間隔のFPSのレートが低いのは曲線とか使った補完で十分だろ。

各制御点がフレーム間で大幅に飛ぶのは制御点用の
現在位置予測用のプログラムをかかねばなるまい。

数フレーム前までの位置の平均を積み重ねていって比較し、
差分をベクトルにして現在位置はこの辺でしょうっていうやつな。

閾値を利用したノイズフィルターも入れとけばそれなりなあたいになるだろ。

速度でるならリアルタイムでも使えるだろうし、
非リアルタイムならもっと凝ったこともできるでしょ。

骨格ベースで各間接位置の現在位置予測とかな。

あと、これをアニメーターに使わせたいとか、業務用のキャプチャに
使用しろよとかいう立ち居地じゃねえからな。

>>294のデータが荒くてはなしにならねってところで思考停止してるから突っ込んだだけだ。

304 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 17:15:16 ]
あーあー、やっぱり脳内で「こんなもんでできるだろ」程度にしか考えてなかったんだな
ノイズフィルタ「でも」って表現からもバレバレ。

305 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 17:20:45 ]
>>304はいはい天才チンパンジー愛ちゃんはおりこうですねw
内容のない書き込みしても自分の無能さをさらけ出してるだけだね。



306 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 17:22:58 ]
まあこういうものはオープンソースで1つしっかりしたものが公開されないと難しいだろうね

307 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 17:33:24 ]
>>303みたいなのも、もっともらしいことを書いてて実は内容のない書き込み。

308 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 17:53:09 ]
>>307
おまえを見てたらなんだか保護してやらなければならない義務感をかんじてきたよ。

309 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 18:06:30 ]
技術力も努力もしない他力本願な奴とそれに反応しちゃう奴、
醜い罵り合いのクソみたいなレスは他所でやってくれ。

310 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 18:14:32 ]
おまえもスルーできないならよそへ行けば?

311 名前:デフォルトの名無しさん mailto:sage [2011/01/18(火) 18:34:34 ]
2chっていつもこうだよな。
面白い話題が提起されてもカスが大量にやってきてすぐに潰してしまう。
そして何も進まない。

312 名前:デフォルトの名無しさん mailto:sage [2011/01/19(水) 00:28:54 ]
実際リアルタイム補完が出来たとして
それ自体フィードバック掛かって
補間したデータに合わせて手元のマニピュレータが動いて
人間の体が勝手に動くと面白いかもな


313 名前:デフォルトの名無しさん mailto:sage [2011/01/19(水) 00:42:37 ]
>>312
それならマニピレーターから実際の角度などをとりだしたほうがよくないかな?
フィードバックを外部機器でおこなうなら。

314 名前:デフォルトの名無しさん mailto:sage [2011/01/19(水) 01:53:24 ]
踊れない人を踊らせるのか

315 名前:デフォルトの名無しさん mailto:sage [2011/01/19(水) 12:17:54 ]
おっぱいまだですか?



316 名前:デフォルトの名無しさん mailto:sage [2011/01/19(水) 16:42:01 ]
ノートPC(と電源)があれば、どっか広い場所でキャプチャーできるな。
体育館とか・・・ハードル高いか

317 名前:デフォルトの名無しさん [2011/01/20(木) 01:17:58 ]
素人が3DアクションぽいRPGとか作るのに良さげ

318 名前:デフォルトの名無しさん mailto:sage [2011/01/20(木) 17:40:51 ]
>>316
キャプチャ対象は人だけと思うな!
車に積めば車間距離を警告できるかも

319 名前:デフォルトの名無しさん mailto:sage [2011/01/20(木) 17:44:10 ]
急な飛び出しに反応してブレーキ踏んでくれると嬉しい

320 名前:デフォルトの名無しさん mailto:sage [2011/01/20(木) 17:54:29 ]
それはもうあるのでは

321 名前:デフォルトの名無しさん mailto:sage [2011/01/20(木) 20:22:59 ]
兎に角もっとバカでも出来る開発環境を備えてないと、
クソゲーメーカーはクソゲー作り放題だろ。

322 名前:デフォルトの名無しさん mailto:sage [2011/01/21(金) 00:41:45 ]
筋肉に電極埋め込んで俺がキョドるのを補正して欲しい

323 名前:デフォルトの名無しさん mailto:sage [2011/01/21(金) 03:54:04 ]
悪いけど、キネクトでキャプチャーしたデータ直すくらいなら一から手付けでアニメーション付けたほうが圧倒的に早いし綺麗

モーキャプデータの修正やった事ある奴ならそれがどんだけ大変かすぐ分かる

上でCGでアニメーション付けるのが楽になるっつってるけど、現場からしたらキネクトはお遊びレベル

遊びでやるなら使えると思う

324 名前:デフォルトの名無しさん mailto:sage [2011/01/21(金) 03:56:44 ]
とりあえずサンプル動いたけど、その後どう遊んでいいのか行き詰まったので、
とりあえずmmdで遊んでみた。予想以上に楽しかった。女装癖が芽生えそうだ。

しかし3D画像処理とかロボ系の知識がないとちょっと厳しいかもねこれは。
俺の場合mmdのほうも使ったことないし、OpenGLとblenderで多少遊んだ経験
ぐらいしか無いんで、ちょっと途方に暮れてる。
kinectハックはドキュメントが豊富って言ってるの見たことあるけど、
OpenNIとかrosとかの英語の資料を地道に読んでいけばいろいろ分かってくるんだろうか?

325 名前:デフォルトの名無しさん mailto:sage [2011/01/21(金) 04:01:54 ]
キネクトとは別のところで認識関連の画像処理の文書を読んだことがあるけど
おそらく、相当専門的な知識がないと苦労する。
今の段階では、与えられたキャプチャー機能で何をするか、と言う方向で考えたほうがいいと思う。
(キャプチャー機能をどうこうするか、ではなく)
それこそ某スペシウム光線なり、エロ方向なりに。



326 名前:デフォルトの名無しさん mailto:sage [2011/01/21(金) 16:10:59 ]
XNAで遊んでるけど与えられたキャプチャー機能だけでもけっこう面白いよ


327 名前:デフォルトの名無しさん mailto:sage [2011/01/21(金) 16:13:54 ]
XnModuleCppRegistratration.h

328 名前:デフォルトの名無しさん mailto:sage [2011/01/23(日) 19:10:00 ]
xnGetSkeletonCalibrationPose()が返す文字列の長さってわからないから
へたするとメモリ破壊起こしますね

329 名前:デフォルトの名無しさん mailto:sage [2011/01/24(月) 16:47:46 ]
/** The maximum length of names of objects in OpenNI **/
#define XN_MAX_NAME_LENGTH 80


330 名前:デフォルトの名無しさん mailto:sage [2011/01/25(火) 03:00:24 ]
>>323
まあ、現状はそうでしょ。取れるボーンの数も少ないし。

ただある程度環境が整備されてきたとき、このテのアプローチで
廉価にそこそこのクオリティを出せるグループが出てくるかもしれない。
大量生産に向いてるかもしれない。

たとえば、ニコ動で上がってる歌1つ分のダンスとか、完全手付けだったら
クオリティにかかわらず相当の費用になるところだけど、(ノウハウが集積すれば)かなり短時間でできそう。

あとはkinectで撮った3Dボクセルと重ねて見ながらモーション手付けもしくは修正するというのも
1つの利用方法かも。

331 名前:デフォルトの名無しさん mailto:sage [2011/01/25(火) 16:40:46 ]
直接反映しちゃうんじゃなくてあくまでジェスチャーコマンド(俺用語)的な使い方のがいいな

332 名前:デフォルトの名無しさん mailto:sage [2011/01/25(火) 17:00:34 ]
要するに安価に入手できるリアルタイムモーションキャプチャユニットという事なのかな?
良い時代になったものだ・・・

333 名前:デフォルトの名無しさん mailto:hgvkkll [2011/01/26(水) 20:28:22 ]
>>330
確かにボーン数がまだ少ないから商業的に使い物にならないんだよな、、
 でも指先や顔の表情まで読み取れるようになるらしいから半年〜1年後は
面白い事になってそう。(モーション以外にもいろいろ使い道は増えそうだし、、)

「果報は寝て待て!」だね。

334 名前:デフォルトの名無しさん mailto:sage [2011/01/26(水) 22:40:04 ]
果報は寝て待て!という反面すごいのが出てくるとヤラれた!って気にもなるんだよな

335 名前:デフォルトの名無しさん mailto:sage [2011/01/27(木) 09:22:27 ]
高スペックにこだわり過ぎるのも考え物だぞ
妥協できるすれすれで実用性を追求するのも努力だ
任天堂とかアップルに見習うべきよな



336 名前:デフォルトの名無しさん mailto:sage [2011/01/27(木) 10:05:45 ]
>>335
ここは技術板なのでマーケッティングの話は巣でやって下さい。

337 名前:デフォルトの名無しさん mailto:sage [2011/01/27(木) 11:18:41 ]
表情の認識はXbox360で可能にするという話は出てるけど、OpenNIでサポートするか
どうかは不確かだと思う。
表情の認識自体は深度情報使わず画像認識だけでできる話だし。






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<191KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef