Motioncapture with Kinect for BGE ~導入編
【Realtime MotionCapture with Kinect for BlendeGameEngine】第2弾 導入編
まずは、BGEじゃなくて
単純に
BlenderでKinectのモーションキャプチャをリアルタイムに反映させる。
①まず、KinectをMacbookで認識、ジョイント確認まで。
NI MATEインストールして、起動。
そして、Kinect接続。
右上のアイコンから、Kinect認識されているのを確認。
『Show output』でKinectの起動状況を表示。
簡単にジョイントまで認識してくれます!
ちなみに、表示タイプは7種類用意されています。
View上で右クリックするとプルダウンメニューが表示されます。
②ジョイントデータを外部に送る設定
まず右上から、Controle Interfaceで画面表示。
Skeleton tracking の OSCを有効にする。
この画面でもジョイント認識を確認します。
③そして、BlenderでKinectからのデータを認識させる。
NI MATEプラグイン for Blender をダウンロード。
Blenderを起動。
File/UserPreferences(Ctrl+Alt+U)の起動。
Add-ons/InstallFromFile でダウンロードしたAddonファイルを指定。
※animation_delicode_ni_mate_tools.py(2017.4月現在のファイル名)
すると左にNI Mateのタブが出現!
図形タイプを球にして『 Start 』するとモーションキャプチャデータが反映され
リアルタイムにヒトが動く!
以上。
一通りやってみたらすごく簡単。
これは便利。
足を地面から上げたりする動作も、結構な精度で読み取ってくれる!
とりあえず、モーションキャプチャデータの保存や、
オリジナルキャラクターへのジョイント割り当てなど、
引き続き検証していきます。
ちなみに、NI MATE無料版の機能制限は以下の通り。
・Kinect同時起動は1台まで
・モーションキャプチャを記録できない
・OSC inputはできない
まぁ現状は特に問題なし!
モーションキャプチャの記録は、Blender側でやる(?)みたいだし。
大きなシステムにしようとしたら有料版買うかも。高くても年間2万とかみたいだし。
あとそのうちKinect v2欲しいな。
0 コメント:
コメントを投稿