3DCG屋さんの活動記録

PROFILE ★★こんな人です

3DCGを活用した映像や没入体験コンテンツの制作をしています。テクノロジーの社会実装に興味があり。テクニカルディレクター。面白いこと新しいことにワクワクする気持ちに『素直』でいつづける。

2025年8月16日土曜日

QLabで“超”シンプル・ポン出し!— 5分で組んだ最小構成のメモ


 


「Resolume / TouchDesigner / GrandVJ / Unityでプレイヤー作る…?」と一週間ぐるぐるした末、QLabに着地。

結果、5分で欲しかった運用が完成しました。壁面演出や小規模イベントの“確実に出したいだけ”用途にぴったり。


つくった運用(5分)

  • 数字キー 1〜7 で7本の動画をポン出し

  • 再生が終わったら黒画面(勝手に次へ進まない)

  • 1本だけは「15秒動画ループ+5分BGMループ」を同時再生(いつでも止められる)

  • 「0」キーでフェードアウト&全停止(全キューを5秒で静かに落とす)


スクショ(配置の目安)

  • 図1:メインのキューリスト(一覧) — Main Cue List



  • 図2:動画キューのホットキー設定(1〜7を割り当て)



  • 図3:フェード&停止キュー(Stop target when done にチェック)



  • 図4:「0」キーでFade & stop all(5秒)するコメント・キュー



  • 図5:外部出力は設定 → Videoでサクッと指定




手順メモ(最短ルート)

1) 外部出力(プロジェクター/外部ディスプレイ)の指定

  1. メニュー Workspace Settings → Video を開く

  2. Video output for all cues に出力先ディスプレイを指定(図5)

    • 無料状態でも外部1系統への出力はOK(多画面や幾何補正は有料のVideo機能が必要)。(QLab)

複数HDMI端子があるMacなら、(専用のビデオウォール機器がなくても)Videoライセンスでマルチ出力・マッピングまで一気通貫できます。設定は Video → Output Routing / Stages の順で。(QLab)


2) 7本の動画を“数字キーでポン出し”

  1. Video Cue を7つ作成し、各ファイルを割り当て

  2. それぞれのキューを選び Inspector → Triggers → Hotkey Trigger にチェック

  3. キーを 1〜7 に割り当て(図2)

  4. 自動で次に進めたくない場合は、Auto-continue を使わない運用に(手動発火のみ)

再生が止まるとステージの下地が黒になります(Fill/Stage設定や出力スケーリングは用途に合わせて)。(QLab)


3) 「15秒動画ループ+5分BGMループ」を同時再生

  1. Group Cue を作成し、Mode: Start all children simultaneously

  2. 子に

    • Video Cue(15秒のループ:Playback で Loop をON)

    • Audio Cue(5分BGMのループ:同じく Loop をON)

  3. 必要ならFade Cueを同グループに足して、まとめて音量・映像のフェードアウトStop target when done(図3)


4) 「0」キーで“静かに全停止”

  • Comment Cue を1つ作成し、Triggers → Hotkey = 0

  • 同じパネルで When starting the action of this cue → Fade & stop → all → over time: 5.0s を指定(図4)

Panic(全停止)よりも“静かに落としたい”現場では、この Comment + Fade & stop all が安心。


ライセンスの話(超要点だけ)

  • 無料で使い始められる(Audio/Video/Lightingの基本は触れるが、Videoの多画面出力ワーピング/ブレンディングなど高度機能は有料のVideoが必要)。(QLab)

  • 日単位レンタルがあり、使った分がストアクレジット(= 実質“レンタル費の貯金”)として永久ライセンス購入に充当できます。いわゆるRent-to-own。(QLab)

  • ライセンスは同一アカウントで2台までインストール可(本番機+バックアップなど)。(QLab)

価格はショップで機能を選ぶと表示されます。レンタル料金は機能ごとに設定され、地域・税制でも前後するため、購入時にQLab公式ストアでの確認を。(QLab)


使ってみての所感(最小構成に最適)

  • 外部出力の指定が早い → 構成がシンプルならビデオスイッチャー不要でいける

  • ホットキー運用が堅い → “GOで出して、0で落とす”が現場の最小要件を満たす

  • ループ×同時再生 → BGMとループ映像をグループ1個でまとめられる

今回は WXGA(1,280×800)実機で検証。4K一画面のプレイバックも、Macとコーデック設計次第で現実的。多画面4K幾何補正を使うなら素直にVideoライセンスで。


クイックレシピ(コピペ用)

  1. Stage/Route を作成 → 出力先を指定(Settings → Video

  2. Video Cue ×7 を用意 → Triggers1〜7 を割り当て

  3. Group Cue(Start all children at once)に

    • 15秒Video(Loop)

    • 5分Audio(Loop)

    • Fade Cue(Stop target when done)

  4. Comment Cue を作り Hotkey=0Fade & stop all(5s)


おまけ:なぜQLabにしたか

当初は Resolume / TouchDesigner / GrandVJ / Unity で自作プレイヤーも検討。でも「手が覚えてる現場運用」に一番早く着地でき、レンタルで始めて必要なら買い切りに移行できるQLabが、**“まずは回す”**には最短でした(壁面演出の現場でも引き続き使う予定)。


参考(公式ドキュメント)

  • Rent-to-own / ストアクレジット2台インストールなどのFAQ。

  • 無料状態のビデオ出力の考え方(外部1系統)

  • Video出力・ルーティング/ステージ設定の基礎。

  • Fill/Fit/Stretch の表示挙動。


必要なら、この記事を社内Wiki向けに短縮版チェックリスト化もできます。欲しい版式あれば言ってください!

2025年8月10日日曜日

映像ファイル形式と4:4:4 / 4:2:2 / 4:2:0の使い分け (Tech備忘録)




ファイル形式4:4:4 / 4:2:2 / 4:2:0の使い分け

結論(まずこれでOK)

  • 再生用の本命ProRes 422(10bit)
    → 軽くて安定。まずはこれで試写。問題が出た場面だけ 422 HQに差し替え。

  • アーカイブ/最終保存ProRes 4444(10/12bit)
    → 最高画質で保管・再編集に強い。再生は重いので本番は 422 系を推奨。

  • 避けたい4:2:0(バンディング・色にじみが出やすい。壁面CGでは基本NG)


4:4:4 / 4:2:2 / 4:2:0 の要点

種別

クロマ

向く用途

長所

注意点

4:4:4

等倍(横/縦フル)

細線・原色境界が多いCG、テキスト

エッジが最もクリーン

データ/帯域が重い、機材要件が厳しい

4:2:2

横1/2(縦フル)

実写、ほとんどのCG、現場再生

画質と安定のバランス最強(推奨

横方向の極端な色境界で稀ににじみ

4:2:0

横1/2×縦1/2

配信・省帯域用途

データが軽い

壁面表示では破綻が目立ちやすい


「422」と「422 HQ」どっち?

  • まず 422(10bit)で試写 → もし色境界のにじみ/再サンプリングでの破綻が気になれば、そのカットだけ 422 HQ

  • HQは約1.5倍重い=ストレージ/再生負荷が上がるので、**“必要箇所だけHQ”**が現場最適。


ビット深度(超重要)

  • 10bit推奨(暗部グラデ対策に最も効く)。

  • 8bitだと黒〜低輝度で**段差(バンディング)**が出やすい。

  • 素材・出力・表示まで、可能な限り10bitで統一する。


出力パイプライン(色と帯域の実務)

  • GPU出力RGBフル または YCbCr 4:4:4で固定。

  • 帯域目安:4K60 4:4:4 8bit ≈ 18Gbps(HDMI 2.0上限付近)。10bitや更に高解像度は機材要件が上がる。

  • 分割出力(1080p×複数)なら 1080p60 4:4:4 10bitは現実的。

  • ケーブル/延長光HDMI(AOC)非圧縮HDBaseT など“18Gbps対応”を選ぶ。

  • GPU出力RGBフル or YCbCr 4:4:4で固定。

  • 4K604:4:4 8bit ≈ 18Gbps(HDMI 2.0上限付近)。4:4:4 10bitはさらに重く、機材要件が跳ね上がる。

  • 分割出力(1080p×複数)なら1080p60 4:4:4 10bitは現実的。

  • ケーブルは光HDMI(AOC)や非圧縮HDBaseTなど“18Gbps対応”を選定。など“18Gbps対応”を選定。


推奨ワークフロー(失敗しない手順)

  1. マスター:ProRes 4444 保存

  2. 再生用:ProRes **422(10bit)**で書き出し

  3. テスト

    • 原色の細線グリッド/斜めエッジ

    • 真っ黒〜5%グラデ
      実投射確認

  4. 破綻が見える箇所だけ 422 HQ に差し替え

  5. GPU:4:4:4/RGB、48kHz音声、余計な映像“演出”はOFF(超解像・補間など)


まとめ(TL;DR)

  • **現場の安定=ProRes 422(10bit)**が基本。

  • どうしても気になる絵だけ 422 HQ

  • 4:2:0は使わない

  • 品質の鍵は**“4:4:4よりもまず10bit”と正しい出力設定**。


OS/GPU 設定チェック(簡易)

  • Windows:WASAPI排他/10bit出力可否、GPUのRGBフル/4:4:4固定、HDR無効(必要時のみ)。

  • macOS:ディスプレイのリファレンスモード/色域、RGBフル、ミラー/拡張設定の確認。

  • GeoBox/分配機:EDID固定、入力4:4:4許可、スケーリング/超解像はOFF。

  • プロジェクター:映像“補正/補間”OFF、色温度/ガンマをRec.709/BT.1886に近づける。

クイックプリセット(例)

ケース

素材

GPU出力

備考

安定最優先

ProRes 422 10bit

1080p60 4:4:4 10bit

分割出力・長距離伝送に向く

線が多いCG

ProRes 422 HQ 10bit

1080p/2160p 4:4:4

帯域に余裕あるとき

保存用

ProRes 4444

アーカイブ/再編集用

必要なら、あなたのPC/GPU・GeoBox・プロジェクター型番に合わせて、最適な書き出しプリセットとGPU出力設定を具体的に作ります。


2025年8月8日金曜日

Notch入開101:ライブ演出映像製作のための基本ガイド(AIエージェント作成テスト記事)


Notch入門101:ライブ演出映像製作のための基本ガイド

3DCGや映像製作に携わっている人にとって、Notchはライブ向けの映像や演出映像をリアルタイムで制作できる非常に魅力的なツールです。この記事では、Notchを初めて触る人向けに、ソフトの概要からインストール方法、基本的な使い方までをまとめました。


Notchとは?

公式マニュアルではNotchを「高品質なコンテンツをインタラクティブに制作するためのリアルタイム・グラフィックスツール」と紹介しています。専用のGPUで高速に動作し、ノードベースのワークスペースやタイムラインを備え、アイデアをすばやく形にできるのが特徴です。

主な特徴

Notchの強みは、GPUを最大限に活用したリアルタイム処理にあります。公式サイトの機能一覧によると、以下のような機能が搭載されています。

  • 粒子・シミュレーション・ボリュメトリクス

  • プロシージャル生成

  • 2D/コンポジット/ポストプロセス

  • 3D照明・マテリアル

  • ビデオ&ライブ映像処理

  • センサー&インタラクティブ

  • Notch Blocks

  • バーチャルプロダクション対応

U2やFoo Fightersのツアー、ミュージカル『Frozen』などの大規模ライブでも使用された実績があり、プロフェッショナル向けにはメディアサーバーとの統合機能も用意されています。


インストール手順

Notchは公式サイトから60日間の無料トライアル版をダウンロードできます。

  1. アカウント作成

  2. インストーラを実行

  3. ライセンス選択画面で「Trial」を選択

製品版ライセンスを購入した場合は、自動でライセンスが適用されます。RFXライセンスを使用する場合はCodemeterドングルが必要です。


基本インターフェース

Notchはノードベースのワークスペースで構成されています。タイムラインやカーブエディタ、アセットブラウザなどが統合されており、リアルタイムでレンダリングを確認しながら制作できます。

主なパネル構成

  • ノードグラフ

  • タイムライン/カーブエディタ

  • ビューポート

  • プロパティ/インスペクタ


主要な機能とツール

  • コンポジット&色調補正

  • クローンとエフェクタ

  • ビデオ処理(背景除去・マスクなど)

  • 物理シミュレーション(布・ロープなど)

  • 高品質ライティングとマテリアル設定

  • センサー連携(Kinectやモーションキャプチャ)

  • パーティクルシステム

  • スクリプト&ロジック(JavaScript)

  • 外部連携(OSC・MIDI・Artnet など)


はじめてのシーンを作ってみる

基本は「ノードを追加してつなぐ」だけ。
シンプルなクローンアニメーションの例:

  1. Shape 3D ノードで基本形状を作成

  2. Cloner ノードで複製

  3. Continuous Modifier ノードでアニメーション追加

  4. Randomise Effectorで動きにバリエーションを追加

  5. CameraノードとPost FXノードで視点や演出を調整

ノードの接続によって、直感的かつ柔軟に構成できます。公式の「Notch Essentials」動画シリーズを見ながら実際に手を動かすと習得が早まります。


学習リソース

  • 公式チュートリアル(YouTube: Notch Essentials)

  • マニュアル(ノードリファレンス・検索機能あり)

  • コミュニティ(Discord・ブログ・ポッドキャスト)

  • その他サイト(Interactive & Immersive HQなど)


まとめ

NotchはGPUによる高速リアルタイムレンダリング、柔軟なノード構造、外部連携機能を備えた強力なツールです。ライブ演出やインタラクティブ映像に最適で、バーチャルプロダクションやXR分野でも存在感を高めています。

まずは無料トライアルを試しながら、ノードベースの制作に慣れていきましょう。この記事が、あなたの新しい表現のきっかけになれば幸いです。


タグ:Notch、リアルタイム映像、3DCG、モーショングラフィックス、VJ、ライブ演出


※この記事は AIエージェント「記事を書いて」と指示して、ログインから新規記事作成までのタスク処理をしてもらったテスト記事です。

2025年7月1日火曜日

MacbookでGemini CLIを使うまでの完全セットアップ手順(成功記録)


GoogleのAIモデル「Gemini」をローカルのターミナルから使うために、MacBook ProでCLIのセットアップを行いました。環境変数やパーミッションで詰まったものの、最終的に成功したので手順を記録します。

✅ 環境

  • 端末:MacBook Pro(Apple Silicon)
  • シェル:zsh
  • 目的:Gemini CLIでチャットやスクリプト実行
  • APIキー:Google AI Studioで発行

✅ セットアップ手順

1. nvmでNode.js(LTS)をインストール

curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash
source ~/.zshrc
nvm install --lts
nvm use --lts

2. Gemini CLIをグローバルインストール

npm install -g @google/gemini-cli

3. APIキーを環境変数に設定

一時的に使う場合:

export GEMINI_API_KEY="あなたのAPIキー"

恒久的に使う場合(起動時に有効):

echo 'export GEMINI_API_KEY="あなたのAPIキー"' >> ~/.zshrc
source ~/.zshrc

4. Geminiチャットを開始

gemini chat

🎉 これでターミナル上に対話プロンプトが表示されます。

✅ 補足メモ

  • 一部バージョンでは ~/.gemini/config.json を読まず、環境変数が必須
  • nvm を使えば npm の権限エラー(EACCES)を回避できる
  • APIキーを保護したい場合は:
    chmod 600 ~/.gemini/config.json

✍️ 最後に

CLIでGeminiを使うと、ちょっとしたプロンプトテストやスクリプト実行がとても便利になります。 Chatアプリを作ったり、テキスト解析に活かしたり、今後も活用していく予定です。

2025年4月13日日曜日

今どこにいる? 迷わないプロジェクト設計術(企画、設計、開発、運用展開)


 


プロジェクト全体フェーズ整理

【STEPで考える:プロジェクトの大枠フェーズ】

STEP

フェーズ名

概要

キーワード例

1

企画

何を・なぜやるか決める

コンセプト設計、ターゲット定義、目的の明文化

2

設計

どうやって作るか決める

要件定義、機能整理、画面設計、データ構成

3

開発

実際に作る

実装、テスト、フィードバック対応、納品準備

4

運展(運用・展開)

作ったものを公開・提供し、使われ続ける仕組みにする

展示設置、商品販売、体験提供、広報、フィードバック収集


STEP 1:企画フェーズ

  • - 社内・関係者ヒアリング(課題やニーズの把握)

  • - コンセプト・狙いの整理(なぜやるのか)

  • - 対象ユーザーや体験者の設定

  • - 展示/使用シーンのイメージ共有

STEP 2:設計フェーズ

  • - 要件定義(ユーザー操作、機能、環境)

  • - 機能整理(必要な機能の一覧化)

  • - 画面設計(ワイヤーフレーム、UI設計)

  • - データ設計(使用ファイル、状態遷移など)

  • - 仕様書作成(外部共有・開発連携用)

STEP 3:開発フェーズ

  • - 開発環境・アセット準備

  • - 実装(機能単位で組み立て)

  • - 中間テスト・修正対応

  • - 最終ビルド・安定化

  • - 現地セットアップ準備(端末設定など)

STEP 4:運用・展開フェーズ(公開・提供・活用・発展)

  • - ローンチ準備(展示設置/販売準備/公開イベントなど)

  • - ユーザー導線と体験品質の最終調整(現場導線・接客・混雑対策)

  • - 商品や体験の説明資料・多言語ガイド・販促ツール整備

  • - プロモーション施策(SNS・メディア・広告・パンフレット)

  • - 初期運用・運営体制整備(現場サポート・トラブル対応)

  • - 利用者の反応やデータ収集(アンケート・レビュー・ログ)

  • - 成果の見える化(報告・効果測定)と次回・他拠点展開の検討

このように、「企画 → 設計 → 開発 → 運用・展開」のSTEPで整理することで、展示や商品、体験施設など、さまざまなプロジェクトに対応可能な全体像がつかめます。関係者との合意形成や事前の方向性共有にも有効な視点です。