3DCG屋さんの活動記録

PROFILE ★★こんな人です

映像制作会社でクリエイティブの修行中。日ごろはMaya&AEを中心にいろんなCGソフトを触りながら、TD寄りの作業が好きで、インタラクティブな体験型空間演出をやりたいと模索中。面白いこと新しいこと大好きな『素直』でいつづける

2017年6月28日水曜日

UEで自作ノード作成 C++のお勉強


私の周りにBGE使う人が皆無。。
UEを使う人はいる!

…とりあえずやりたいことを現実にするために、
いまはUEでプロトタイプを作ることが得策と考えました。。

とは言っても、過去に2回くらいEPIC GAMEを起動して、UEのサンプルをさわったくらいで、正直全く分からないレベル。

①ということで、まずは触ってみよう!自分のPCで起動するか試してみよう!笑
②そしてC++でノード(ブループリント?)を作ってみよう
  ※C言語の勉強もしなきゃと思ってたのでちょうどよい!いずれoFの本格使用にむけて。。



まず①

自宅PCで過去にインストールしたUnrealEngineを起動。
C++で新規プロジェクト作成する。

VisualStudio2013をインストールしてください


ダウンロードとインストール
(関係ないけど、自宅ネット速度遅すぎる。。Wifi受信機が安いからかな。早く有線にしたい!)

さらに、Unrealのバージョンも古かった(4.7 )ので
最新版(4.16)をダウンロード&インストーラ起動(一旦EPIC GAMES閉じる)

ちなみに、古いバージョンは EPIC GAMESから削除した。
さらに、最新版のインストールもEPIC GAMESから行う。

計6GBのファイルをDLするので、回線的に時間かかるから、いったん就寝。




2017年6月21日水曜日

Macから空間演出用に映像出力テスト VDMX5+Syphon


やること

● Macから映像出力
PC画面でちょこちょこ制作している身から、空間演出に向けた最初の一歩


HDMIでテレビモニターに出力とか、
DisplayPortをVGAに変換してプロジェクターに出力とか、
最近だとHDMIでプロジェクターに出力、とか

は、やっていた。
ただどれも画面の「ミラーリング」でしかなかった。

最終的には、VJライクで僕自身もPCで制御した映像演出をするかもしれないし
少なくとも現場で準備・セッティングしたりオペレーションしたりするときは
出力モニターへ「最終絵」と、オペレーションMacでの「作業画面」を分けなきゃ。

で、今までどうすっぺと思いながらモヤモヤしていましたが、
解決しそうなのでメモ。



●今回テストしたのは以下の環境
Mac VDMX ===AirPlay(Fire TV Stick)==>  テレビモニター

結果は・・・超絶かんたん!

手順はこのサイトを参考にさせてもらいながらやりました

①VDMXインストール(無料版あり。設定保存できないので、毎回やる必要あり)
②AirPlay接続、ディスプレイ設定でミラーリングをOFF
③VDMX起動、window/FullScreenOption/FullScreenで出力モニター選択

以上!簡単でしょ?




●今後の映像コラボを考えてSyphon使ってみる

oF、Processin、Blender、 Unity、UEとかの映像をSyphonを使ってVDMXに送信。
あとは上記と同じでモニターに出力。

と言うかSyphon使ったことなかったので、
それが Macに入っているのか、どうやって使うのか全くわからない。
調べりゃわかるだろう、とたかをくくっていたら・・・さぱり笑

結局、最初から入っているが
ServerとCliantがある。
これはMayaのBackburnerのサーバーとマネージャみたいなものかな?
と言うわけで、とりまProcessingの絵を Syhpon通してVDMXに送ってみる


まずは、ProcessingにSyphonのライブラリを追加。

スケッチ例をダウンロードして実行。
※実行画面が表示されない><?Syphonに飛ばすときはウインドウ表示されない?
これで、SyphonのServerに映像が送られた状態に!

ここで、VDMXから新規クリプ作成でSyphonを選択するとリストにProcessingが!

選択して映像出力!

わお簡単☆


以上。

このSyphonのServerとやらで
iPhoneのカメラ映像をリアルタイムに飛ばすに、しかもやり方によっては複数台同時に
VDMXで合成できるようです。すごい。・・・


今回は、空間演出したい!って思ってずっとやってみたかったことができた。


・ワイヤレスで最終映像の出力
 (MacBookはオペレーション画面)の成功
    ➡︎ FireTV Stick、 AirPaly、 VDMX

・Syphon使った映像転送・受信の成功
    ➡︎ Syphon(Server)、ProcessingのSyphonライブラリ、 VDMX


頭で理解するだけじゃなくて、実際手を動かして試してみるのはやらなきゃダメだ。
さてさて、これにKinect(Openpose)やゲームエンジン(BGE,UE,Unity)、Arduinoなど
混ぜて復号システムでインタラクティブなコンテンツ作りたいので、まだまだやることあるわ〜。
楽しいけど、、仕事と子育て(家事)で時間が取れず思うようにカタチにならない><;
頑張るぞ!




※おまけ 色々サイト

VJソフトまとめサイト 
・・・プロジェクションする形状変えれるMadmapper気になってるけど、
   一番オススメしてたVDMX使ってみた。確かにVJ(リアルタイム合成)ならこれか。

屋外100mで映像送るとき
・・・結論はHDMIは短距離専用なので、SDIに変換して送る。
   PC =HDMI=> HDMI-SDIコンバータ =SDI=> SDI-HDMIコンバータ =HDMI=> PJ
   と言うかコンバータ安い!Blackmagic製だし欲しい・・・公式サイト
   だって、コンパクトで機能十分で9800円!
   最低2台+ケーブル類だとしても3万円で100m出力システムができる!?

Syphon(Server)に対応していないソフトを力技でSyphonに飛ばす方法
・・・架空サブディスプレイ作成して、そこに表示されたものを飛ばす方法らしい。
   ただ、不具合エラー率がかなり高いとのこと。。。最終手段?



2017年6月20日火曜日

Lens Distort Nodeレンズのゆがみを再現


ついに、見つけてしまった!!!

Mayaで探し、自分で作ろうかと考えていたやつ・・・

そう


Lens Distort Node !

解説サイト(みなさんすごいです)


レンズの歪みを再現するやつです。
ポスプロ作業で、AEとかNUKEとかで使いながら、
『これ、一気にCGっぽさが消えるなぁ。ダイナミックな絵になるな』
て感じていて、
『MayaでリアルタイムにDistortしてくれるシェーダー?ノードないかなぁ』
って思いながらはや1年・・・


Blenderのノードコンポジットを知ってから、
BGEでリアルタイムにDistortできたら、
臨場感のあるダイナミックな映像になるな~と思って
Addonつくるか、でも計算方法わからんな、と思っていた今日この頃


ついに・・


見つけました!
というか、標準であったんですね。
もうBlenderすごい、どんどん好きになっていく。
欲しい機能、けっこうあるなぁ。
かゆいところに手が届くかは置いといて、まずは作れるって言うのがステキ。

あとは、このnodeがBGEでリアルタイムに反映できるかは又確認します。



※ちなみに備忘録
Aftereffects では OpticsCompensation エフェクトでできる。

2017年6月15日木曜日

Maya nClothでバルーン作成


風船・バルーン作成 nCloth  (maya2016.5)

・風船作成
モデル作成(PlatonicSolids/Icosahedron(12面体)をSmoothしてLinearにする)
Deform/Sculpt で丸くぷく!とする⇒ボール形状
nCloth適用
Shapeノード/Pressure/Pressure にマイナスの値を入れる-0.3 ⇒つぶれる(くしゃ)
あと、地面をnucleusで作成の際は、地面抵抗PlaneFrictionを少し上げる0.35
Pressureを2にする ⇒膨らむ(ぷくー)
AirFieldAttribute/Magnitudeにキー 最初0、浮いた後に30

風船の固さ(変形しにくくさ)は伸びにくさ  DynamicProperties/StretchResistance  ⇒80-100
縮みにくさ DynamicProperties/CompressionResistance ⇒10
QualitySetting   EvalutionOrder/Parallel

Mass 0.1-0.2
DynamicRelationShip でFieldの順番整理。風の後にタービュランスとか




・ロープ作成
プレーン 1x30
nCloth適用で一旦落とす
ここで Solvers/Set for Selected で今のシミュ形状を1fからにする。
端の頂点選択 Constaraint/TransformConstraint  ・・・・地面?に固定
逆の端の頂点選択&風船のどこか頂点選択 Constraint/Component to Component 風船と接続(Strength100-100,DynamicConstraintAttribute/ConstraintMethod Weld)


※SmoothはPreviewSmoothです


と、色々試してみたが
ここで驚愕の事実が・・・・
なんと公式サイトでバルーンのチュートリアルが!笑

しかもそこによると、
バルーンみたいな球体のモデルの作り方は

①PlatonicSolids/isonationlad(12面体)
②Smooth(PreviewSmoothではない!)でLinearに

とのこと!
ほんとだメッシュがめちゃ綺麗







モーショングラフィックにも使える!?AnimationNode for Blender


AnimationNodeというアドオンを追加することで
ノードベース(+プログラミングも併用できる)のアニメーションが作れ
オブジェクトを複製・規則的なアニメーション・数学的な表現を用いたい時に便利!

モーショングラフィックが作りやすいとのこと


Zachさんの動画がシンプルでわかりやすい!はじめにどうぞ

ZachさんはAnimationNodeのカテゴリでいくつかチュートリアルアップしてる
2Dっぽいのが多い?

とにかく色々できるっぽいぞ。
概念はMayaのMASHとも似ている?
というか、MASHがノードベースのアニメーションだから?
あ、だから後から色々パラメータ変えても破綻しないのか、MASHは。
Maya本体は結構破綻すること多い中で、MASHはかなり融通きくので大好き。

とにかく、MASHを使ってノードベースアニメーションを組む上で
必要なパラメータや、つなげる部分、プログラムを挟む部分を学べば
BlenderのAnimationNodeにも活かせる?

ただ、結局複雑なアニメーションしようとしたら
AnimationNodeをたくさん繋げないと!⇦そりゃそうかw

デモファイルで勉強するのもあり!
ここのドミノのファイルが良さげ

後からでもパスを変えると、後ろの設定が全部引き継がれる、すご!!
これ見ると、ノードの繋ぎ方が勉強なります。
「そこでXの回転制御するのか!」
「左端のノードのINDEX番号変えるとパスが変わる!」
てな感じで。
てかこれHoudiniの強みと一緒じゃないか!?
すごいなノードベース!


僕としては、こちら系の活用したい。
3D色の強いアニメーション
パーツごとにアニメーション。
ランダムノードが便利そう!!!



と、そんアドオン追加の流れでお勉強・・・

アドオン開発書籍(無料!)

なんなんだ!笑
もう平成29年はなんでも無料だな、すごすぎる。
所有するアドバンテージは薄れた、すぐに誰かが無料で提供してくれるから。
 ➡︎いろんなデータ・ツールを取り入れ、自分のリソースと融合し、社会にない新たな価値を提供し続けるのが重要かと。

アドオンで今回学んだこと
・アドオンには3つのサポートレベルが設定されている
・アドオンはPython
・アドオンの開発時の起動はコンソールから(winコマンドプロンプト、macターミナル)
・開発時はテキストエディタ・Pythonコンソールは必須パネル


以上!!
仕事でBlenderなかなか使えないけど
こうやって日々触りながら少しづつ作品作っていきたい。
あとはいざという時にがっつり制作したい。




2017年6月12日月曜日

BlenderでEXRマルチのレンダからコンポジットまで


Maya+Vray でEXRマルチパスレンダー
NUKEでコンポジット




Blenderのみでやってみよう!


ということで


まずは、EXRマルチパスレンダー

BlenderでVIEW視点をそのままカメラにする
BlenderでEXRマルチパスレンダリングする
ReflectionやRefractionをパスにするならBlenderRenderer(※CyclesはNG)


次に、マルチパスをコンポジット

ちょうどよく、通しのチュートリアルがあったのでオススメ!
・↑Cyclesでマルチパスのコンポジット(※Beautyと完全一致) ★★★
Cyclesでマルチパスコンポジット、わかりやすい簡易版

※フォトリアルでコンポジットまであるBlenderシーン
BlenderRendererならこちら(Freeの車モデル)


Cyclesならこちら(Freeの車モデル・公式サイト)



そしてこのモデルでBeautyと同じになるようにコンポジットするとこれ↓
(★★★のチュートリアル↑↑)

要は・・・

①Diffuse (Albedo?)  地の色
②Glossy (Reflection?) 反射
③Transmittion (Reflaction?) 透過
④Subsurface サブサーフェス
の各パスで
➡︎  ( Direct + Indirect ) × Color

その結果を全てAdd
➡︎ ①' + ②' + ③' + ④'

さらに、

⑤Emit (Illuminate) 発光
⑥Environment (Background) 背景

をAddして  
➡︎ ①' + ②' + ③' + ④' + ⑤ + ⑥

以上!
これで Image (Beauty) と一致する。
確認の仕方は、Difference で重ねて真っ黒になればオK。

ふむふむ、こうやって見るとコンポジット内容にも納得。


※ Blender小わざ
・下バーのBackgroundをONにして、Viewを背景に表示
・Shift+左 DDでラインにドット追加

2017年6月10日土曜日

EeVee‼︎‼︎‼︎‼︎‼︎ 待ってた!リアルタイム高品質レンダラ


これです、これ!
待ってましたよ、高品質なリアルタイムレンダラー
これさえあれば、DCCツールの強みであるモデリング、セットアップ、アニメーションなどを活かしつつ、BGEでインタラクティブなシステムにシームレスに移行できて、かつ高品質なコンテンツ制作、のパイプラインが完結するじゃないですか!

待ってました!(ってまだ正式公開じゃないけど。こちらからDL

EeVee(イーヴィー)




…3ヶ月前?から出てたけど、今日知ったのは内緒。。


とにかく、cyclesは高品質だけどBGEの完全なリアルタイムに対応してるかは…正直微妙だと感じてました。
が、このEeVeeは違うと思われます。
まだ英語の説明を熟読してないけど、そんな感じがするいろんな人のコメント!
興奮冷めやらない最速レビューをどーぞ!


レビューサイトはこちら


blender  でいろいろやってみたいぞ。
さて何からしようかな。


●やってみたいことリスト
・eeveeでフォトリアルなリアルタイム
・EXRのマルチパスコンポ→BGEにもある?
・カメラトラッキングと実写合成コンポ
・リジットボディ、水、布、FX!


BGEでAR!


そろそろ確立したいこと
・キャラクターセットアップ
・kinect連動 with NI MATE


※Blenderの日本語解説サイト !これで勉強しよう
http://blender-cg.net/

2017年6月7日水曜日

Mayaの起動時のFPSを変更する


起動後の設定画面でいまいち設定できなかったので、userPrefs.melを修正します。

アニメーション作業してから『あ”!』ってならないように
日常使うFPSに設定しておくことを強くオススメします!

設定方法は、Mayaを閉じた状態で以下ファイルをテキストで開く。

マイドキュメント/maya/<version>/prefs/userPrefs.mel

開くと、なが~い文字列が出てくるので
ctrl+F から『film 』を検索して『ntsc』にすれば、
FPSが24⇒30に変更されます、今後起動してもずっと!



図にあるとおり、いろんなFPSに変更できるみたいですね。
あと、タイムスライダーのレンジも修正すると便利です。

以上!!


参考サイト(なんだかいろいろ発信されてます!)




コンポジット作業途中でのプリコンポはTIFF?DPX?


4Kの実写合成しています・・・

で、今まではなぁなぁにしていた、プリコンポの画像形式。
納品がDPX 10bit だから、プリコンポもDPXでいいかな~って思って、
あまり考えずにTIFとDPXを混ぜてつかっていました。

とくに、アルファあるときはTIF で、アルファないときはDPXでみたいな。。


しかーーーーーし、、ダメだときずく!!!
私の作業の仕方が悪いのか、DPXは劣化が激しい><;
ノイズリダクションの具合によっては、マッハバンドが出るしディティールがつぶれる。
「なんでつぶれてんの?」って原因探してたらコレ。。。
まさかDPXがここまで劣化するとは思わない、、ので時間かかった。


ちなみに素材と作業環境は以下の通り
●SONY F55の 4K MFX 10bit 撮影素材 ※ Rec709
●Maya Vray で 4K EXR(multi pass) 16bit CG素材 ※ sRGB
●Aftereffects CC でコンポジション ※16bit, Rec709, LinearWorkSpace


とにかく、プリコンポするときは可逆圧縮のこれ!!!

  TIFF(LZW、16bit) 



納品がDPX 10bit指定のとき、階調がおかしくないか、バンドエラーがないか
しっかりチェック!!!!
とくに、真っ黒に近い暗い階調があやしいです!!

でもまあ、確かにファイルサイズはDPXよりTIFFのほうが重いから要注意です。
ちなみに今回の4Kでは、DPX 10bit 32MB/枚・TIFF 16bit 53MB/枚
ファイルサイズが1.5倍以上で20MB以上/枚の差!?
になった、これは10秒300fになったら6GBにもなる差ですよ><;


==============================
2017.6/7追記

やっぱりDPXも十分使えます。

最上位レイヤーに
ノイズ 0.1%
を追加すれば、マッハバンド解消した!

なぜかは分かりませんし、若干色味が変わる?気がする。。

マッハバンドが出るエラーに比べたら、まったく問題ないレベルなのと、
TIFに比べてファイルサイズが小さくなるメリットが大きい。



よって結論・・・

  DPX (10bit)  
※都度 Noiseエフェクト(0.1%)追加 

さすが業界で使われてるだけあるの形式。
用法容量を守って使いましょう。

DPXさん、劣化が激しいとか言ってごめんなさい。
おそらく私のAEの組み方が原因だろうと思われます!













2017年6月3日土曜日

Processingの画面キャプチャのテクニック


Processingの再生される画面をキャプチャしたい!
そんなときありませんか?

僕は、CG合成につかいたいなってとき、キャプチャしてましたが
細かいところで不満がいろいろありました。

それをほぼ全て払拭してくれる動画発見!
Daniel Shiffmanさんはたくさんチュートリアルをアップしてくれている方。
いつもありがとうございます。




解説の流れとしては・・・
①キャプチャして連番画像を保存する方法
②デフォルト機能で動画に変換する方法
③キーボード押したときだけキャプチャする方法(再生してる間ずっとじゃなくて)
④キャプチャ状況の表示ボタン(保存される画像には映らない!)
⑤実行中のfpsが落ちても動画変換の際に補正される方法

いやぁすごい。
必読!!!!!




2017年6月2日金曜日

Blenderの実践チュートリアル&画像や3Dモデルの無料DL


Midgeさんのウェブサイト

8K素材、モデルがDLできる。
個人的には、日本的なもみじや桜のシーン、果物モデルは重宝!
https://www.themantissa.net/resources/


Blenderはじめ多くのすぐ使えるチュートリアル
VJ系?トンネル系が個人的には気になる。
https://www.youtube.com/c/midgesinnaeve/videos

実写合成 手順まとめ(途中)


最近、実写合成の仕事が多いです。
ただ、独学的な部分もあって効率の良い方法を模索中。。。
特にコンポジットワークの手順は、まだまだ模索中!

と、気になる動画があった

この動画では、コンポジットワークが以下の通りだった。

なお、近景ショット、遠景ショットで少し異なるがここではまとめる。
レンダーパス(コンポジット順に)
・まずは不要なものを削除したり、必要なものを追加したOriginalPlate用意。
・3DCG Pass(⇦本当はこの時点でコンポ必要。CG Plate)
・DOF=Blur
・ColorCorrection
・MistPass
・LensDistortion
・Mask
・ColorGrade


そして、日々私が意識しているコンポジットワークと合わせるとこんな感じ。
ちょっと長いけど最後までお付き合いください。

①CGワーク(CG Plate)       ②実写ワーク(CleanPlate)
                  ・ノイズリダクション(ノイズ・グレイん除去)
Beautyを作る                              ・レンズ歪み補正(歪みをなくす)
                                   ・トラッキング(スタビライズ=手ブレの相殺)
                  ・マーカー削除
                                         ・余分なものを削除
                ---->    |    <-----
                                      |
                                      v
                                     
         ③合成ワーク
                           ・Maskで合成
                           ・レンズ歪み追加(歪みを戻す)
                           ・ノイズ・グレイン追加
         ・トラッキング(マッチムーブ=手ブレを戻す)
                           ・グレーディング
                           


せっかくなので、更に言えば、コンポジットワークの前に

CG Plateを作るまでの流れを説明。
まず、撮影素材でカメラトラッキング(3Dカメラ作成)。
同時に3DCGシーンの作成して、上記のカメラでレンダリング。
レンダリングではEXRでマルチパス書き出し。
(GI,Reflect,Refract,Illuminat,AO,DOF,Velocity...)