3DCG屋さんの活動記録

PROFILE ★★こんな人です

3DCGを活用した映像や没入体験コンテンツの制作をしています。テクノロジーの社会実装に興味があり。テクニカルディレクター。面白いこと新しいことにワクワクする気持ちに『素直』でいつづける。

2025年8月8日金曜日

Notch入開101:ライブ演出映像製作のための基本ガイド(AIエージェント作成テスト記事)


Notch入門101:ライブ演出映像製作のための基本ガイド

3DCGや映像製作に携わっている人にとって、Notchはライブ向けの映像や演出映像をリアルタイムで制作できる非常に魅力的なツールです。この記事では、Notchを初めて触る人向けに、ソフトの概要からインストール方法、基本的な使い方までをまとめました。


Notchとは?

公式マニュアルではNotchを「高品質なコンテンツをインタラクティブに制作するためのリアルタイム・グラフィックスツール」と紹介しています。専用のGPUで高速に動作し、ノードベースのワークスペースやタイムラインを備え、アイデアをすばやく形にできるのが特徴です。

主な特徴

Notchの強みは、GPUを最大限に活用したリアルタイム処理にあります。公式サイトの機能一覧によると、以下のような機能が搭載されています。

  • 粒子・シミュレーション・ボリュメトリクス

  • プロシージャル生成

  • 2D/コンポジット/ポストプロセス

  • 3D照明・マテリアル

  • ビデオ&ライブ映像処理

  • センサー&インタラクティブ

  • Notch Blocks

  • バーチャルプロダクション対応

U2やFoo Fightersのツアー、ミュージカル『Frozen』などの大規模ライブでも使用された実績があり、プロフェッショナル向けにはメディアサーバーとの統合機能も用意されています。


インストール手順

Notchは公式サイトから60日間の無料トライアル版をダウンロードできます。

  1. アカウント作成

  2. インストーラを実行

  3. ライセンス選択画面で「Trial」を選択

製品版ライセンスを購入した場合は、自動でライセンスが適用されます。RFXライセンスを使用する場合はCodemeterドングルが必要です。


基本インターフェース

Notchはノードベースのワークスペースで構成されています。タイムラインやカーブエディタ、アセットブラウザなどが統合されており、リアルタイムでレンダリングを確認しながら制作できます。

主なパネル構成

  • ノードグラフ

  • タイムライン/カーブエディタ

  • ビューポート

  • プロパティ/インスペクタ


主要な機能とツール

  • コンポジット&色調補正

  • クローンとエフェクタ

  • ビデオ処理(背景除去・マスクなど)

  • 物理シミュレーション(布・ロープなど)

  • 高品質ライティングとマテリアル設定

  • センサー連携(Kinectやモーションキャプチャ)

  • パーティクルシステム

  • スクリプト&ロジック(JavaScript)

  • 外部連携(OSC・MIDI・Artnet など)


はじめてのシーンを作ってみる

基本は「ノードを追加してつなぐ」だけ。
シンプルなクローンアニメーションの例:

  1. Shape 3D ノードで基本形状を作成

  2. Cloner ノードで複製

  3. Continuous Modifier ノードでアニメーション追加

  4. Randomise Effectorで動きにバリエーションを追加

  5. CameraノードとPost FXノードで視点や演出を調整

ノードの接続によって、直感的かつ柔軟に構成できます。公式の「Notch Essentials」動画シリーズを見ながら実際に手を動かすと習得が早まります。


学習リソース

  • 公式チュートリアル(YouTube: Notch Essentials)

  • マニュアル(ノードリファレンス・検索機能あり)

  • コミュニティ(Discord・ブログ・ポッドキャスト)

  • その他サイト(Interactive & Immersive HQなど)


まとめ

NotchはGPUによる高速リアルタイムレンダリング、柔軟なノード構造、外部連携機能を備えた強力なツールです。ライブ演出やインタラクティブ映像に最適で、バーチャルプロダクションやXR分野でも存在感を高めています。

まずは無料トライアルを試しながら、ノードベースの制作に慣れていきましょう。この記事が、あなたの新しい表現のきっかけになれば幸いです。


タグ:Notch、リアルタイム映像、3DCG、モーショングラフィックス、VJ、ライブ演出


※この記事は AIエージェント「記事を書いて」と指示して、ログインから新規記事作成までのタスク処理をしてもらったテスト記事です。

2025年7月1日火曜日

MacbookでGemini CLIを使うまでの完全セットアップ手順(成功記録)


GoogleのAIモデル「Gemini」をローカルのターミナルから使うために、MacBook ProでCLIのセットアップを行いました。環境変数やパーミッションで詰まったものの、最終的に成功したので手順を記録します。

✅ 環境

  • 端末:MacBook Pro(Apple Silicon)
  • シェル:zsh
  • 目的:Gemini CLIでチャットやスクリプト実行
  • APIキー:Google AI Studioで発行

✅ セットアップ手順

1. nvmでNode.js(LTS)をインストール

curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash
source ~/.zshrc
nvm install --lts
nvm use --lts

2. Gemini CLIをグローバルインストール

npm install -g @google/gemini-cli

3. APIキーを環境変数に設定

一時的に使う場合:

export GEMINI_API_KEY="あなたのAPIキー"

恒久的に使う場合(起動時に有効):

echo 'export GEMINI_API_KEY="あなたのAPIキー"' >> ~/.zshrc
source ~/.zshrc

4. Geminiチャットを開始

gemini chat

🎉 これでターミナル上に対話プロンプトが表示されます。

✅ 補足メモ

  • 一部バージョンでは ~/.gemini/config.json を読まず、環境変数が必須
  • nvm を使えば npm の権限エラー(EACCES)を回避できる
  • APIキーを保護したい場合は:
    chmod 600 ~/.gemini/config.json

✍️ 最後に

CLIでGeminiを使うと、ちょっとしたプロンプトテストやスクリプト実行がとても便利になります。 Chatアプリを作ったり、テキスト解析に活かしたり、今後も活用していく予定です。

2025年4月13日日曜日

今どこにいる? 迷わないプロジェクト設計術(企画、設計、開発、運用展開)


 


プロジェクト全体フェーズ整理

【STEPで考える:プロジェクトの大枠フェーズ】

STEP

フェーズ名

概要

キーワード例

1

企画

何を・なぜやるか決める

コンセプト設計、ターゲット定義、目的の明文化

2

設計

どうやって作るか決める

要件定義、機能整理、画面設計、データ構成

3

開発

実際に作る

実装、テスト、フィードバック対応、納品準備

4

運展(運用・展開)

作ったものを公開・提供し、使われ続ける仕組みにする

展示設置、商品販売、体験提供、広報、フィードバック収集


STEP 1:企画フェーズ

  • - 社内・関係者ヒアリング(課題やニーズの把握)

  • - コンセプト・狙いの整理(なぜやるのか)

  • - 対象ユーザーや体験者の設定

  • - 展示/使用シーンのイメージ共有

STEP 2:設計フェーズ

  • - 要件定義(ユーザー操作、機能、環境)

  • - 機能整理(必要な機能の一覧化)

  • - 画面設計(ワイヤーフレーム、UI設計)

  • - データ設計(使用ファイル、状態遷移など)

  • - 仕様書作成(外部共有・開発連携用)

STEP 3:開発フェーズ

  • - 開発環境・アセット準備

  • - 実装(機能単位で組み立て)

  • - 中間テスト・修正対応

  • - 最終ビルド・安定化

  • - 現地セットアップ準備(端末設定など)

STEP 4:運用・展開フェーズ(公開・提供・活用・発展)

  • - ローンチ準備(展示設置/販売準備/公開イベントなど)

  • - ユーザー導線と体験品質の最終調整(現場導線・接客・混雑対策)

  • - 商品や体験の説明資料・多言語ガイド・販促ツール整備

  • - プロモーション施策(SNS・メディア・広告・パンフレット)

  • - 初期運用・運営体制整備(現場サポート・トラブル対応)

  • - 利用者の反応やデータ収集(アンケート・レビュー・ログ)

  • - 成果の見える化(報告・効果測定)と次回・他拠点展開の検討

このように、「企画 → 設計 → 開発 → 運用・展開」のSTEPで整理することで、展示や商品、体験施設など、さまざまなプロジェクトに対応可能な全体像がつかめます。関係者との合意形成や事前の方向性共有にも有効な視点です。


2025年2月20日木曜日

MetaQuest 3SでPCVR!Air Link & SteamVRなどゼロから環境設定(はじめてセットアップした備忘録)


 



必要なもの

▼ハード

  • Meta Quest 3S
  • Windows PC(ゲーミングPC推奨)
  • 無線ルーター(Wi-Fi 5GHz推奨, Wi-Fi 6対応なら尚良し)

▼ソフト

  • Meta Quest Link(Winアプリ)
  • Steam(Winアプリ)
  • SteamVR(Winアプリ)

アジェンダ

  1. Quest 3のセットアップ
  2. Air Linkの接続トラブルと解決策
  3. SteamVR導入 & PCVR環境構築
  4. VRアプリで体験!
  5. トラブル発生…Quest 3を工場出荷時リセット
  6. まとめ & 次のステップ



Quest 3のセットアップ

Quest 3を自分のアカウントで登録。
目的は「MRでみんなが見れるVR体験」だけど、Richie's Plank Experience for MetaStor が900円という安さに一瞬脱線。

(MetaStoreとSteamで同じ名前のソフトでも別商品)


Air Linkの接続トラブルと解決策

有線のMeta Linkは即成功! PC画面がQuestに映って感動。
しかし、無線のAir Linkが認識されない…
PCは有線LAN、QuestはWi-Fi 5GHzで接続しているが、Air Linkのオプションが出ない。

解決策

  1. Windowsのファイアウォール(パブリック)を一時的に無効化
  2. Quest 3の設定に「Air Linkを有効にする」ボタンが出現!
  3. Air Linkが成功し、無線でPCのデスクトップが映る!



SteamVR導入 & PCVR環境構築

Air Link成功!次はSteamVRを試そう…と思ったら、
SteamVRがインストールされてない!盲点だった。

セットアップ手順

  1. SteamVRをインストール
  2. PC再起動 & OpenXRランタイム有効化
  3. Quest 3でAir Link再接続
  4. SteamVR起動!

おお!VR空間が広がる!



VRアプリで体験!

お絵描きアプリで3Dスプレーを使い、オブジェクトを動かす感触が最高!
「VIVEではやったことあったけど、スタンドアロンでPCVRが動くのは感動。」

💡 ポイント

  • ヘッドセットをしっかり固定 → トラッキング精度UP
  • 視線の調整 → ぼやけず鮮明な映像
  • 空間スケール & パーティクル表現が最高!


トラブル発生…Quest 3を工場出荷時リセット

SteamVRの途中で謎のパスコード要求 → 入力してもエラー連発。
スマホ & アプリ再起動してもダメ。
最終手段として工場出荷時リセット を決断。

初期化後の再設定

  1. スマホアプリでデバイス登録(開発者モードON
  2. アカウント & Wi-Fi設定
  3. OpenXRランタイム有効化
  4. SteamVRを再起動!


PCVR成功!Air Link & SteamVRで遊びまくる!

ついにSteamVRが起動!
「これがAir LinkのPCVRか…!」
お絵描きアプリで空間に描く感覚が楽しすぎる。


💡 今日の成果
Air Link成功!PCデスクトップを無線ミラーリング
SteamVRでVRアプリが動作
PCVRならではの自由なVR体験!



次のステップ

PCVR最高!次はMR合成を試すぞ!🎨🚀



------------

※もくもく会からの検証記録雑記メモを、GPTに整えてもらったものです。5分。