読み物

参考資料

Neuralangeloによる携帯電話からのニューラルサーフェス再構成

先日Nvidiaが発表したNeuralangeloに関する記事が公開されています。

https://www.fxguide.com/quicktakes/neural-surface-reconstruction-from-a-phone-with-neuralangelo/

 

Neuralangeloによる携帯電話からのニューラルサーフェス再構成

fxguideでは、NeRFの来るべきパワーについて書いてきましたが、NVIDIAはこの分野でのリーダー的存在です。多くの場合、アーティストは、デジタルツイン、コピー、またはデジタル複製を作成するために、環境や小道具をサンプリングする必要があります。
写真測量は、必要な画像の数という点で、現実的な問題を提起しています。NVIDIAは、NeRF技術を使用して3Dモデルを作成するために、携帯電話からのビデオを使用する研究を発表したばかりです。

ニューラルサーフェス再構成は、画像ベースのニューラルレンダリングを使用して高密度の3Dサーフェイスを回復する強力な方法であることがすでに示されていますが、現在の多くの方法は、十分に詳細なサーフェス構造を持つモデルを提供することに苦労しています。

 

この問題に対処するため、NVIDIA は多解像度 3D ハッシュグリッドのパワーとニューラルサーフェスレンダリングを組み合わせた Neuralangelo をリリースしました。このアプローチは、2つの重要な要素によって実現されています。

1つ目は、スムージング操作として高次導関数を計算するための数値勾配を使用することです。次に、Neuralangeloは、生成されたハッシュグリッドに対して、異なるレベルのディテールを制御する粗から細への最適化を使用しています。

Neuralangeloは深度マップのような追加のカメラ入力がなくても、従来の手法よりもはるかに優れた忠実度で、クリップから高密度の3D表面構造を効果的に生成することができます。これにより、ドローンや携帯電話の動画などのビデオキャプチャから、詳細な大規模シーンの再構成が可能になります。

Neuralangeloは、複雑なディテールやテクスチャを持つ3D構造を生成するので、VFXプロフェッショナルは、これらの3Dオブジェクトをお気に入りの3Dアプリケーションやデザインアプリケーションにインポートし、さらにプロダクション用に編集することができます。

 

なぜフォトグラメトリーではダメなのか?

通常の画像ベースのフォトグラメトリー技術では、キャプチャするシーンを表現するために「ボリューメトリック・オキュパンシー・グリッド」を使用します。

フォトグラメトリーの各ボクセルには、様々なオリジナルカメラビューからの対応する投影画像ピクセルの間に厳密な色の一貫性がある場合、それを「占有」とマークされます。この測光学的整合性の仮定は、自動露出を使用する場合や、反射面(非ランバートリアン)材料を撮影する場合に、一般的に失敗します(もちろん、現実世界では極めて一般的です)。

NeRF技術では、NeRF 3D再構成を行う際に、複数のビューにわたってこの色の恒常性制約を必要としなくなりました。比較すると、NeRFはビュー依存の効果でフォトリアリスティックな結果を達成します。つまり、フォトグラメトリーとは異なり、サーフェスは見る角度によって変化する様を捉えているようです。

 

どのように動作するのでしょうか?

マルチビューステレオ技術を使って点群を構築することもできますが、これはしばしばサーフェスの欠落やノイズにつながり、非ランバートゥアンの材料に苦労します。NeRFは、座標ベースの多層パーセプトロン(MLP)を使用してシーンを暗黙の関数として表現するため、ビュー依存の効果を持つフォトリアリスティックな画像を実現します。3Dの空間位置を色と体積の密度でマッピングするMLPで3Dシーンを符号化します。MLPの固有の連続性をニューラルボリュームレンダリングで活用することで、空間位置間を補間する最適化されたサーフェスを実現し、滑らかで完全なサーフェス表現が可能になります。これらのMLPニューラルレンダリングの問題点は、スケール感がないことでした。しかし、最近の論文Instant neural graphics primitives with a multiresolution hash encodingがこれに対処しました。この新しいスケーラブルな表現は、Instant NGP(Neural Graphics Primitives)と呼ばれています。

Instant NGPは、マルチ解像度ハッシュエンコーディングと軽量MLPを用いたハイブリッド3Dグリッド構造を導入しており、スケーラブルな表現が可能です。このハイブリッド表現は、ニューラルフィールドのパワーを大幅に向上させ、オブジェクトの非常に細かいディテールを表現することに大きな成功を収めました。NVIDIAの新作では、この新技術を用いた高忠実度のサーフェス再構成として、Neuralangeloを提供しています。Neuralangeloは、3Dシーンのニューラルレンダリング表現としてInstant NGPを採用し、ニューラルサーフェスレンダリングによって複数の異なるビューから作業するように最適化されています。

Neuralangeloはマルチビュー画像からシーンを再構築します。Neuralangeloは、ビデオクリップからカメラビューに沿って3D位置をサンプリングし、マルチ解像度ハッシュエンコーディングを使用して位置を符号化します。高次微分の数値勾配と粗から細への最適化戦略を用いて、ニューラル・サーフェス再構成のためのマルチ解像度ハッシュ・エンコーディングの力を提供するのです。

Neuralangeloは、物体中心のキャプチャや屋内外の大規模なシーンの濃密なシーン情報を極めて高い精度で効果的に復元し、通常の映像から詳細な大規模シーンの復元を可能にします。

 

Neuralangelo'sは、屋根の板、ガラスの窓ガラス、滑らかに輝く大理石など、実世界の複雑なテクスチャや複雑な素材を持つオブジェクトを翻訳することができます。 このメソッドの忠実度の高い出力により、その3D再構成はより有用なものとなります。
「Neuralangeloが提供する3D再構成機能は、クリエイターにとって大きなメリットとなり、デジタル世界で現実世界を再現するのに役立ちます」と、研究部門のシニアディレクターで論文の共著者であるMing-Yu Liuは語っています。「このツールにより、開発者は最終的に、小さな彫像から巨大な建物まで、詳細なオブジェクトを取り込んで、仮想環境、セットリファレンス再構成やゲーム、デジタルツインで使用できるようになります」

参考資料

ゲーム開発パイプラインにUSDを実装する。ポリフォニー・デジタル社インタビュー

グランツーリスモにUSD採用のインタビューが公開されています。CEDEC 2022の方が詳細な話だった気がするけど、とりあえずメモ。
どうしてNVIDIA?と思ったらOmniverse関連なのか。

https://developer.nvidia.com/blog/implementing-usd-for-game-development-pipelines-an-interview-with-polyphony-digital/?ncid=so-twit-535123

 

株式会社ソニー・インタラクティブエンタテインメントの子会社で、『グランツーリスモ』を開発したポリフォニー・デジタルは、30年にわたるプレイステーション用ソフトウェアタイトルの累計セルスルー売上が90M本を突破しました。2022年に発売された『グランツーリスモ7』は、シリーズ開始から25周年を迎え、「Universal Scene Description(USD)」の実装が行われました。USDは、3Dワールド内の描写、合成、シミュレーション、コラボレーションを行うためのAPIを備えたオープンシーン記述です。

Tools Pipeline Engineering Leadの安藤 恵美は、NVIDIAの最新リリースにおける統合プロセス、およびポリフォニーのゲーム開発パイプラインにおける採用計画について、NVIDIAと対談しました。

 

ゲーム開発のパイプラインにUSDを採用した理由は?

USDの技術は、映像制作のための大規模でマルチユーザー、多様なアセットパイプラインをサポートしています。映像制作用に設計されたライブラリですが、大規模で複雑なパイプラインをサポートするUSDの仕組みは、ゲーム内制作にも活用できると考えています。USDには、コンポジション、アセットリゾルバー、ファイルフォーマットプラグイン、カスタムスキーマなど、パイプライン構築に必要な機能がすでに用意されているため、私たちのパイプラインに合うように対応しました。

 

USDに変更することで、これまでできなかったことができるようになったのでしょうか?

USDは、Houdiniなどの異なるツールで編集できるという点で、以前のフォーマットとは異なります。USDのコンポジションはこれまでのフォーマットとは異なり、非破壊でデータを編集することが可能です。ゲーム独自の仕様が書かれたデータでも、データを失うことなく、さまざまなツール間で行き来することができます。

「グランツーリスモ」では車やコースなどのアセットを主にAutodesk Mayaで制作していますが、そのデータは非常に複雑です。様々なプラグインや仕様を設定するためのツールも多く、それらをHoudini用に再実装するのはコストがかかりました。

特にシェーダーは複雑でHoudiniでシェーダーのプレビューや編集を行う環境を新たに開発するのはコストがかかり、すぐに実装するのは難しい。しかし、USDでは、モデリング中にAutodesk Mayaでマテリアル設定を行い、マテリアルの割り付けはHoudiniで行うことが可能になりました。

 

他のファイルフォーマットではなく、USDを選んだ理由は何ですか?

複数のツールで非破壊かつプロシージャルにシーングラフを扱えることです。ゲームの場合、DCC(Digital Content Creation)ツールで様々な専用仕様が設定されています。従来のフォーマットでは、異なるツールで編集する場合、それぞれのツールでパラメータを扱わないと正しく扱えませんでした。

ゲーム制作においても映像制作と同様に、多くの人が同時に多くのアセットやショットを制作しながら、様々なゲーム仕様を追加していくことが可能です。USDはコンポジションが非破壊編集に使えるので、複数のツール間をスムーズに行き来することができ、こうした問題を解決しています。

 

USDを統合する過程で、どのような課題に直面したのでしょうか?

現在のパイプラインは巨大で、それを一度にUSD化するのは不可能でした。パイプラインの運用を維持しながら、部分的に移行を進めていく必要がありました。

 

最初に取るべき推奨される小さなステップは何でしょうか?

まず、実際のプロジェクトに導入する前に、独立したプロジェクト(できれば既存のシステムとは別に)を立ち上げて、USDの仕組みを理解する必要があります。

USDをゲームのアセットとして使用する場合、映像制作とは異なり、ゲーム制作に特化したスキーマや編集ツールが確立されていないことを理解することが重要です。USDの仕様やデータ構造、API仕様などを理解する必要があります。アセット制作に導入する前に、XMLやJSONなどのファイル形式を覚える必要があります。ゲームの仕様に合わせて自社で開発することが必要です。

変換パイプラインのパラメータを管理するフォーマットとして、USDを導入しました。アセットデータと違って、すべてが小さなASCIIファイルになっています。データの構造がわかりやすく、レイヤー、ステージ、スキーマといった概念も理解しやすい。この利点が、アセット制作におけるシステム導入の土台となりました。

 

今後のゲーム開発でも、USDを使い続ける予定ですか?

もちろん、そうしています。USDを採用した「グランツーリスモ7」でも、まだ実装は限定的でした。USDを前提としたアセットの仕組みや公開環境の構築に取り組んでいます。制作の反復性を高めるなど、チャレンジできるところはチャレンジしていく予定です。

 

ゲーム業界でUSDを普及させるために必要なことは何だと思われますか?

ゲーム制作では、映像制作のように確立されたスキーマが存在しません。KATANAやHoudini SOLARISのように、USDをレイアウトして、ライティングして、レンダリングして......という環境は存在しません。ゲームエンジンでレンダラーを使えるようにするには、レンダラーの代わりに変換パイプラインを用意するか、ゲームエンジンを使うしかない。

 

アーティスト、テクニカルアーティスト、アートディレクター、スタジオ幹部は、USDへの移行にどのような反応をしているのでしょうか?

MayaやSOLARISなどのDCCツールでUSD対応が進むなど、アーティストやテクニカルアーティストは、データ互換の柔軟性や安定性、効率性が向上したことに満足しています。また、オープンソースライブラリを積極的に活用することで、開発リソースを制作固有の課題に集中させることができ、経営面でも大きなメリットがあります。

 

USDの導入を皆に納得させた、最も説得力のある主張は何だったと思いますか?

USDであれば、すぐに対応した共通環境でテストができます。メタバースアプリケーションを構築・運用するためのリアルタイム設計連携・シミュレーションプラットフォーム「NVIDIA Omniverse」をはじめ、さまざまなツールの対応が進めば、今後さらにUSDを採用するメリットは大きくなると思います。

参考資料

3dsMax for V-Ray の Qt 化

3dsMax for V-RayのUIをQt化する話が紹介されていました。

3dsMaxのUIは長い間古いWin32ライブラリが使用されてきました。このため近代的なハード構成のPCでもUI描画が非常に遅くなっていました。特にパラメータの多いVrayのようなプラグインのUIでは遅さが顕著になり、「QTの描画ドライバーをDirect Xにすると少しだけUI速度が早くなる」というようなTipsが公開されるほどでした。

でそこでAutodeskは、PhotoShop、AfterEffects、Mayaなど本格的なプロ向けの製品で使用されるQtライブラリをMaxに導入したのですが、全然速く感じないどころか前よりも遅くなってる!と感じた人も多いと思います。
遅く感じるのは気のせいかと思ってましたが、実際に遅くなってたということが書かれててやっぱりかよ思いました。

そしてMax本体の多くのUIは、いまだに古いWin32で書かれた物が使われてえそうな気がします。

 

https://www.chaos.com/blog/the-qt-fication-of-v-ray

 

3D Studio Maxは、30歳を目前にした業界の老巨人です。

私たちは3D Studio Maxと強い絆で結ばれ、新しい技術が登場するたびに、ユーザーの手元に届くようにと、大切な思い出を共有してきました。

その一つがMaxのUIにQtライブラリが採用されたことです。Max内部の隠れた作業はバージョン2017くらいから始まり、バージョン2018には最初のQt UIが登場し、現在もいくつかの作業が進行中です。

Qtの導入は、老朽化したWin32ライブラリに代わって、最新の機能群、全体的な高速化、クロスプラットフォーム化などを目指すものです。

 

テストの様子

この記事で述べたことを証明するために、数年前に実施したテストと、最新のハードウェアとソフトウェアで再テストした結果を紹介します。

私は、3つの主要なマテリアルの完全なUIを再描画するのにかかる時間をベンチマークしてみました。V-Ray Material、ALSurface、FastSSS2です。これらは多くのワークフローの中心であり、多くのUIコントロールが含まれているからです。
マテリアルエディタは、可能な限りすべてのコントロールが描画されるように最大限の高さに引き伸ばされ、プレビューのレンダリングは無効にされました。

時間は100回計測され、平均化されました。その結果は、記事の中で適切な箇所に記載します。

 

金色に輝く過去......それはない

10年前に十分、あるいは速いと感じたのは、ハードウェアのスピードから私たちの期待まで、すべての体験がそれを許したからです。つまり、私たちはこの問題に対して、今よりずっと鈍感だったのです。

この理論を検証するために、私はV-Ray 3.xの最終バージョン(3.7)を使って、Max 2015上でベンチマークを行うように努めました。測定された速度はネイティブのWin32 Controlsのものであり、多かれ少なかれ過去最高の状態です。

VRayMtlクラスは再描画に1.6159秒を要しました。

VRayALSurfaceMtlは1.2955秒、VRayFastSSS2は1.2655秒とほぼ同じ時間がかかりました。

Maxでマテリアルエディタやレンダー設定ウィンドウをドラッグすると、ウィンドウがそれに追いつこうとする間にマウスカーソルが別の場所に移動してしまい、ひどいラグが発生します(現在の強力なハードウェアでは、そうするのに1秒近くかかります)。

これはパフォーマンスが不十分になっていることに気づき、早期にQtを導入したオートデスクの開発者の先見の明の賜物です。感謝。

 

成長期の痛み

Max の Qt 化が進む中、Max バージョン 2018 頃からUI のスローダウンの報告を受けるようになり、そのいくつかは単にユーザーの疲れたワークステーションに起因するものとは言えないほど大きなものでした。

この頃、私はさまざまなWin32 UIコンポーネントのパフォーマンスをベンチマークするようになり、それらが不安定な再描画速度を示すことがあることを発見したのです。
また、ウィンドウを開くのに数秒かかることもあり、MaxのUIを移動させると、さらにラグが発生しました。

この問題はMax が Win32 コントロールを Qt バージョンに自動変換しているためで、コアあたりのクロックが低いメニーコアマシンでは、ワークフローを阻害する問題になり、コアあたりのクロックが高い CPU では単なる迷惑行為にしかなりませんでした。

Qt への移行中は互換性を維持する必要があったのです。しかし、これはすべての UI コントロールに影響し、深刻な遅延や断続的なスローダウン、全体的な動作の遅れをもたらしました。

スローダウンの行き当たりばったりを示すグラフ例。縦軸は数千ミリ秒に達する。

 

落ち込みを数値化するために、同じV-Rayのバージョン(3.7)をMax 2018でテストした結果がこちらです。

  • VRayMtl:2.5436秒
  • VRayALSurfaceMtl:2.0685秒
  • VRayFastSSS2:1.9779秒

減速は比例しており、等しく約63%影響することに気づくことができます。

その間、最初のネイティブ Qt ダイアログが Autodesk Physical Material などに現れ、Win32 が遅れをとっているところでも例外的に速くなりました。スピナーやドロップダウンメニューなど、特定のコントロールタイプの再描画が最大で 10 倍速くなりました。

Qtコントロールの比較速度を示すグラフの例。縦軸は数百ミリ秒に達しています。

 

注意深い読者は、各実行がどんどん遅くなっていることにお気づきでしょう。

これは特定の Max のバージョンに関する別の問題で、特定の状況 (たとえば、長いルックデブセッション中) で私たちの惨状を悪化させるものでしたが、Qt の速度を著しく低下させるものではありませんでした。

なぜなら、その利点は無視できないほど大きく、いずれにせよ、私たちの古い家はすでに燃え尽きていたからです。

 

パラダイムシフト

Qt のネイティブなアプローチで UI を書くのは簡単ではありませんでした。古い Win32 とアプローチ、メソッド、コントロールがほとんど一致しないため、UI コードはゼロから作り直さなければなりません。

つまり、すべてのラベルを打ち直し、すべてのスピナーを配置し直し、すべての項目のデフォルトを設定し直し、さまざまなコントロールの動作をチューニングし、などなどです。もちろん、ユーザーエクスペリエンスや効率を損なわないことが理想ですが。

 

いじり倒した結果

開発者がUIを作り始めると、予期せぬ、そしてしばしば不当な動作が現れ、しばらくの間修正も不可能でした。様々な Qt コンポーネントは、古い Win32 コンポーネントと同じサイズにはならないので、アライメントがほとんど狂ってしまいます。

さらに、新しいコントロールのデフォルトのアプローチは、絶対的ではなく相対的な位置決めであり、コントロールのデフォルトのポリシーは自動スケーリングであり、Win32ライブラリの直接の継続としてそれらに期待されるものとは著しく異なる様々な動作(例えば、マテリアルやマップボタン)など。

私たちが直面した数々の災難は、Max 自体の統合と、統合された Qt ライブラリの成熟と、手を取り合って進める必要があることを明らかにしました。

UIの見た目と機能性を両立させるために、私たちは時間の余裕もなく、膨大な手間と手作業に頼りました。幸いなことにV-Rayの多くのUIレイアウトは自動的に生成され(例えば、ほとんどのレンダーエレメントのUI、VRayALSurfaceマテリアル、VRayDirtテクスチャー)、共通のコードを共有していたので少し楽になりました。

それでも、最初の概念実証のUIが完成する頃には、Qtへの移行をタイムリーに完了するために必要な作業量が膨大であることが明らかになりました。

 

総力戦だ

vMax チーム(3D Studio Max 用 V-Ray の開発者)全員が Qt 化作業に参加し、Update 1 のリリースに間に合うように最初の中間変換ステップを出荷するために、必要な作業に正面から取り組みました。

V-Rayの各ダイアログには非常に多くのUIコントロールがあるため、この作業はチーム全体で何日もかけて行う必要があり、その結果他の作業を待たせるわけにはいかず、彼らに負担がかかることになりました。

vMaxの開発者にとって、この作業は大変な期間であったと言えますが、その分質の高い結果を出すことができました。

 

プレイ状況

V-Ray 6.0 Update 1(または6.1)の時点で、Qtライブラリへの移行は基本的に完了しました。
マテリアル、マップ、様々なノード、モディファイア、そしてQtに変換できるすべての補助的なウィンドウが変換されました。

また、新しいコントロールのレイアウトや動作に関するユーザーからのフィードバックや意見を収集し、より良い翻訳を完成させ、ユーザーの生活の質を最大化するために、もう少し時間を確保することにしました。

また、QtライブラリのMaxへの統合が成熟してきたことによる副産物として、いくつかの動作の制限に対処する必要が残されています。この移行はまだ完全に完了していませんので、もう少し適応に時間がかかることを期待しています。

 

それは価値があったのでしょうか?

私たちはこの努力に報われたと感じるとともに、得られた数字にとても清々しさを感じています。

Max 2023とV-Ray 6.1のVRayMtlは0.4664秒(v3.7から再描画するコントロールが増えたとしても!)、VRayALSurfaceMtlは0.3621秒、VRayFastSSS2はわずか0.2857秒で描画されるようになったのです。

いずれの場合も、コントロールの再描画は目には見えないほど高速に行われます。同様に、ウィンドウのドラッグも瞬時に行われ、ウィンドウはマウスカーソルに釘付けになります。

 

つまり、現在のQt UIは、ネイティブのWin32よりも3~4倍、翻訳されたWin32よりも最大で7倍も速いのです。V-Ray 6 のアップデートを試してみて、Qt UI の新しい外観、スピード、使い勝手についてどう感じたか、ぜひ教えてください。

参考資料

背景に画像生成AIを使用した短編アニメ 「犬と少年」

全カットの背景にAI生成画像を使用した短編アニメ 「犬と少年」のインタビュー記事が公開されています。

背景にAIを使用していることを知ってて見たせいか、ぱっと見いい感じだけど背景の描き込みに目が引っぱられたりレイアウトが弱いと感じました。でもインタビュー見ると手描きのレイアウトそのままな背景で、手描きで修正してるみたいですね。

https://www.businessinsider.jp/post-265291

  • 人が足りていないので新しい制作方法を模索しなくてはいけない。技術的なテストとして短編のアニメ作品をつくることになった。
  • プロジェクトのためだけに「オリジナルのAI」を開発した。
  • 開発はマイクロソフトからスピンアウトしたAI企業rinna社。
  • OpenAIが公開したDALL-Eなどと同じTransformerベースの画像生成AI。
  • ネットで収集された権利関係が明確でない学習ソースを使うのはリスクがあるため、Production I.Gが手がけた「ネットフリックス・オリジナル作品」の背景美術をAI学習に使用。
  • AI絵をそのまま採用しているものはほとんどない。9割手間が削減できたところもあれば、1割しか使えなかったところもある。
  • AIで40~50%省力化できた。浮いた50%時間を使って手のかかるところの質を上げることに使えた。

 

参考資料

アバター2はなぜ48コマなのか。HFR映画がもたらす視覚効果とリアリティ

『アバター:ウェイ・オブ・ウォーター』で使用されるハイフレームレート(HFR)+HDR+4K+3D上映に関連して、映画のフレームレートはどうやって決められたのか、という歴史が書かれた記事が公開されています。

映画は通常24FPS(1秒間に24枚の絵が表示される)ですが、『アバター: ウェイ・オブ・ウォーター』では普通のドラマ場面は24FPSで上映し、アクションシーンや水中シーンは48FPSになるとのことです。手描きアニメのような可変フレームレートは、どんな印象になるのか楽しみですね。

https://av.watch.impress.co.jp/docs/topic/1461878.html

 

映画のフレームレートの話は定期的に見かけますが、今回の記事は詳細に書かれてて面白かったです。

 

ハイフレームレート上映する映画館の情報はこちら。

  • イオンシネマ : 94劇場全館
  • TOHOシネマズ : 9館
  • MOVIX : 10館
  • シネマサンシャイン
  • コロナワールド : 10館

https://av.watch.impress.co.jp/docs/news/1463723.html

 

参考資料

キャラクターアニメーションで避けるべき10の微妙なミス

ピクサーのアニメーターが、アーティストが見落としがちな10の微妙なエラーについて書いた記事が公開されています。

http://www.cgchannel.com/2022/03/10-subtle-mistakes-to-avoid-in-character-animation/

 

キャラクターアニメーションで避けるべき10の微妙なミス

ピクサーのアニメーターであるエディ・オクバが、手や足の非現実的なポーズから非現実的なまばたきや口パクまで、経験豊富なアーティストでも見落としがちな10の微妙なエラーを修正し、良いアニメーションを素晴らしいものに変えましょう。

小さなディテールがキャラクターアニメーションの良し悪しを左右します。この記事では、アニメーターが犯しがちな10の微妙なエラーを明らかにします。

これは私がスーパーバイザー、リード、同僚、そしてイルミネーション・マック・グフ、ソニー・ピクチャーズ・イメージワークス、ピクサーなどのスタジオで、「ミニオンズ」「スパイダーマン:イントゥ・ザ・スパイダーバース」「ライトイヤー」などの映画に関わった日々の経験などから学んだことです。自分の作品からそれらを排除することで、ポーズやアニメーションにさらに5~10%の磨きをかけることができます。

この記事の画像は、WindowsまたはmacOSのMaya 2017+で使用するために無料でダウンロードできるAnimSchoolのMalcolm 2.0 rigを使用して作成されました。しかし、ヒント自体はどのアニメーションソフトウェアにも適用できます。

 

1. 足首や手首が折れないようにする

キャラクターをポージングするときは、快適に過ごせるかどうか確認しましょう。パースビューでキャラクターの周りを回転させながら全体のポーズを確認し、足首や手首が不自然に曲がっていないことを確認します。

人間の場合は、自分の体の限界に合わせたポーズを確認します。手や足を自然にその位置に持っていけるか?
もし、そうでなければ変えてみましょう。例えば、冒頭の画像では、かかとを引き上げることで全体のポーズが整い、キャラクターがより地に足が着いたように見えます。

 

2.物をつかむときに拳を作らない

キャラクターがモノを持っているとき、ついつい拳のポーズを取りたくなりますよね。しかし、その誘惑に負けてはいけません。
こぶしの中に物を押し込むのではなく、手のひらと指で物を包み込むようにすると、自然に見えるポーズになります。手は、観客が目の次に注目する部分であり、そのキャラクターの全体的な態度をよく表しています。

おまけ:私はキャラクターの手をスケールアップするのが好きです。現実の手の大きさの1.1倍くらいにすると、より存在感が増します。マルコムの手はすでに大きいので、これでは大きすぎるかもしれませんが、子供のキャラクターをアニメートするときには、このトリックはとても効果的です。

 

3. 手足にチューブを使わない

CGキャラクターは、手足がまっすぐなチューブでできていて、とても硬いです。より自然に、より良いシルエットに仕上げるには、腕、前腕、太ももを少し曲げるようにします。
上腕の上腕三頭筋、前腕の橈骨と尺骨、大腿四頭筋など、本物の筋肉や骨のような錯覚を起こします。 (ふくらはぎも同様にできますが、マルコムリグのふくらはぎは、すでに美しいわずかなカーブを描いています。)

見る人は結果を見るのではなく、結果を感じなければなりません。そうでなければ手足に手を加えていることになります。

 

4. 硬い肩は避ける

肩を使うことを忘れてはいけません。よくある間違いはキャラクターの腕のポーズを決めるときに肩を動かさないことですが、特にキャラクターが腕を上げるとき、肩は実際に動きを出す場所です。

私は、キャラクターの腕が体から30°以上離れたところで回転するときは、必ず肩を使うことをお勧めします。肩は前後、上下に動かしてください。キャラクターが肩を高く上げている場合は、頭、首、胸も同様に回転させる必要があるかもしれません。全ては繋がっているのです。


 

5. アーモンド形の目を避ける

アーモンド型の目とは、下まぶたと上まぶたの間の正中線上に目尻がある状態を指します。魅力的な顔ではありません。

目尻を下げて、まぶたの山を瞳孔に近づけるとよいでしょう。これは、ニュートラルなポーズから目を見開いた状態まで、冷ややかな表情・退屈そうな表情など、どんな目のポーズでも有効です。

 

6. 目の正中線に沿ってまばたきをしないようにする

私たちがまばたきをするとき、まぶたは通常、目尻の間の正中線より下に降りてきます。しかし、一部のキャラクタリグには、ちょうど真ん中の中立的なまばたきが付属しています。このような場合は、まばたきの高さの値があればそれを変更するか、目を閉じた位置を再確認するようにしてください。

これは古典的な日常的なまばたきのためのものです。例えば、痛みを感じているキャラクターや、アニメスタイルの逆笑いの目など、特別な場合はこの値から逸脱することができます。

 

 

7. まばたき中に下を向かないようにする

アニメーターは、まばたきをするときにキャラクターの目の虹彩を下に動かし、目が開くときに上に戻すことがあります。
おそらく、白目だけが見えるフレームを作りたくないからでしょう(これはあまり魅力的に見えないと私は思います)。おそらく、より「アニメーション的」に見えるだけなのでしょう。

長い間、私自身もこの方法でアニメーションしていましたが、少なくとも何気ないまばたきにはリアリティがありません。私たちはまばたきをするとき、まったく下を向きません。何かを見ているのなら、それをずっと見ているのです。
キャラクターが激しい表情をしている場合、まばたきで目を動かせばその激しさが和らぎますし、すべてを一度に動かすと過剰なアニメーションに見えてしまいます。

とはいえ、まばたきで視線の方向を変える(例えば左から右へ)のも効果的ですので、ご自身のアニメーションに合った方法を試してみてください。

 

8. リップシンク時の口の大きさ、幅の狭さを避ける

ダイアログをアニメーション化する場合、キャラクターの口の幅を音素ごとにあまり変化させないようにします。

下の例(「Hello CG Channel」)では、「He」と「llo」では口の幅が広くなり、「C」は狭くなり、「G」は狭くなり、「cha」と「nnel」は広くなり、狭くなります。

 

Not good

キャラクターの口の幅や顎の位置が、アニメーション中に変化しすぎている。

 

口角とあごを見てください。「こんにちは」については、アニメーションがかなり効いています。強調が落ちるので、言うのに時間がかかります。しかし、「CGチャンネル」はかなり速く話すので、一つ一つの音素を表現すると、アニメーションがちらつくようになります。

実際には、私たちは音節ごとに完璧に口の形を変えているわけではありません。「オー」という音が、必ずしも完璧に丸い口を意味するわけではないのです。キャラクターが話すスピードや、全体の表情(笑顔、叫び、怒りなど)によって、同じ音でも全く違う形になることがあるのです。

 

Good

動きの振幅を小さくすることで、アニメーションがちらつくのを防ぐことができる。

 

このバージョンでは、「CGチャンネル」の場合、キャラクターが少し微笑んでいるので、口を少し広くしておきました。C-G-Cha」は同じ範囲で、「nnel」は狭くしています(狭すぎず)。

顎のコントロールも同じようにして、顎が上下に揺れないようにしたことに注目してください。キャラクターのあごがいつ、どのくらい開くかを感じるには、あごの下に手を置いて、自分で台詞を言ってみるのがよい方法です。

 

 

上のビデオでは、2つのバージョンを並べて見ることができます。

補足:リップシンクのアニメーションをタイムライン上で2フレーム左にオフセットして、キャラクターがセリフを言う前に口の形を整えるのが好きです。これが正当な方法なのか、それとも単なる個人的な好みなのかは、まだわかりません。自分でも試してみて、より自然に感じられるかどうか確かめてみてください。

 

9. カウンターバランスのねじれを避ける

アニメートしているとコントローラーがわからなくなりがちですが、キャラクターの体のさまざまな部分を逆回転させると、すぐに面倒なことになります。スプラインパスの際や、ディレクターやスーパーバイザーからのメモに対応する際にも、厳密であれば時間の節約になります。

ねじれを追跡する便利なトリックは、キャラクタの頭、胸、体に円柱を拘束することです。それらを別のレイヤーに配置し、可視性のオンオフを切り替えられるようにします。
同じことを、アニメーションを追跡するためにも行うことができ、その場合、円柱を互いに交差させる必要があるかもしれません。

 

10. ダーティなアニメーションを避ける

ラタトゥイユのリングイネにコレットが言った言葉です。「自分の持ち場をはっきりさせておくこと」。一般的なアドバイスに聞こえるかもしれませんが、事前にショットを計画し、きれいに作業することは、完全な創造性を発揮し、メモに素早く反応するためには本当に重要なことなのです。

私は、撮影を始めるときにすべてをキーイングして、すべてのポーズですべてのボディパーツのキーフレームを用意しておきたいと思っています。後でディレイやブレイクダウンもしますが、まずはカーブが浮かないように各ポーズをコントロールします。

 

コントローラには、頭、首、胸、背骨の重心(COG)など、シンプルなものを使用します。リグによっては、ボディコントロールと COG コントロールがあるものもありますが、どちらか一方だけを使用すると、どちらが何をするのか追跡しづらくなります。

IK/FK を使用する必要がある場合、軸が正しく設定されていることを確認してください。たとえば、キャラクターが特定の方向に歩く必要がある場合、軸がその方向に配置されていることを確認してください。

参考資料

「スマホでのコンテンツ視聴に占める広告の比率調査」主要Webサイトのデータ転送量、平均4割は広告

「スマホでのコンテンツ視聴に占める広告の比率調査」が公開されてたのでメモ。主要Webサイトのデータ転送量、平均4割は広告というデータになったそうです。

https://www.lab-kadokawa.com/release/detail.php?id=0099

調査結果 PDF

 

「スマホでのコンテンツ視聴に占める広告の比率調査」および「ブラウザーアプリによるWeb表示速度の調査」を実施し、その結果を取りまとめましたので、お知らせいたします。
新型コロナウイルス感染症流行の影響による外出自粛などによって、国内のインターネットのデータ転送量は、 月によっては例年より約5割増加しました(米アカマイ・テクノロジーズ調べ、2020年4月)。インターネットのデータ転送量には、コンテンツのデータだけでなく広告のデータも含まれ、その広告データの通信料金も、ユーザーが負担していることになります。そこで今回、Webをスマートフォンから利用する際のデータ転送量のうち、広告データがどの程度の比率を占めているのかを調査しました。
調査は、スマートフォン(iPhone)のWebブラウザーでアクセスできる主要な15のコンテンツサイトに実際にアクセスして、コンテンツを表示した際の全体のデータ転送量と、広告ブロックツールで広告を非表示にした際のデータ転送量を計測。その差を広告のデータ転送量と推計して、結果を集計しました。また、画像や動画など、転送されたデータの詳細な内訳も分析しました。そして、新しい「iOS14」より、iPhoneでも標準ブラウザーをユーザーが変更できるようになることから、Webブラウザーアプリによる表示速度の違いについて実測する調査も、併せて実施いたしました。結果の要点は以下の通りです。

 

調査結果の要点

スマホでコンテンツを視聴する際の、データ転送量の約4割が広告

今回調査した15の主要なコンテンツサイトの多くで、そのデータ転送量の半分以上を広告が占めていました。調査した15サイトの単純平均では、全データ転送量のうち約44%が広告と推計されます。これらの結果と、データ通信量の単価やWeb、SNS、動画サイト、メールといった項目ごとの利用時間・データ転送量等から類推すると、4人家族全員がスマートフォンを持っている場合、月々のデータ通信料金のうち約2,900円ぶんを広告のデータ転送に費やしていることになります。

画像データが主体だが、データ転送量全体では動画広告の比率が高い

データ転送量の内訳を見てみると、多くのコンテンツサイトは、JPEGやPNG、GIFといった画像データで広告が構成されています。一方、動画共有サイトや一部のポータルサイトではMP4動画が広告として表示され、そのデータ転送量が大きいため、広告のデータ転送量全体では、動画広告がかなりの比率を占めていると考えられます。

ブラウザーアプリによって広告表示量およびWeb表示速度は異なる

iPhoneで動作するWebブラウザーアプリはすべて、同じ「WebKit」というレンダリングエンジンを採用しています。しかし、今回調査した結果、広告の表示の有無などによって表示速度はかなり異なり、主要コンテンツサイトの表示速度では「Brave」が最速となりました。

 

参考資料

なぜ作ったゲームが面白くならないのか?基礎にして奥義「フロー理論」

ゲームの面白さや体験を「フロー理論」を使用して改善することができるという記事。なかなか面白くて興味深い。https://note.mu/kaerusanu/n/nc80f9523bb8e

フロー理論とは

https://ja.wikipedia.org/wiki/%E3%83%95%E3%83%AD%E3%83%BC_(%E5%BF%83%E7%90%86%E5%AD%A6)

フロー (英: Flow) とは、人間がそのときしていることに、完全に浸り、精力的に集中している感覚に特徴づけられ、完全にのめり込んでいて、その過程が活発さにおいて成功しているような活動における、精神的な状態をいう。ゾーン、ピークエクスペリエンス、無我の境地、忘我状態とも呼ばれる。

明確に列挙することができるフロー体験の構成要素。

  1. 明確な目的(予想と法則が認識できる)
  2. 専念と集中、注意力の限定された分野への高度な集中。(活動に従事する人が、それに深く集中し探求する機会を持つ)
  3. 自己に対する意識の感覚の低下、活動と意識の融合。
  4. 時間感覚のゆがみ - 時間への我々の主体的な経験の変更
  5. 直接的で即座な反応(活動の過程における成功と失敗が明確で、行動が必要に応じて調節される)
  6. 能力の水準と難易度とのバランス(活動が易しすぎず、難しすぎない)
  7. 状況や活動を自分で制御している感覚。
  8. 活動に本質的な価値がある、だから活動が苦にならない。
参考資料

Weta Digitalのフェイスパイプライン:アリータ バトルエンジェル

映画アリータのフェイシャルに関する記事が公開されています。一般向けなメイキング動画が公開されていましたが、より詳細な内容の記事です。

アリータは予告見たとき、実写を加工してるのかと思いましたがフルCGなんですね。国内の映像用途のディープラーニングは実験中な感じしますが、海外では普通にワークフローに組み込まれてるのが興味深いです。
https://www.fxguide.com/featured/weta-digitals-remarkable-face-pipeline-alita-battle-angel/

続きを読む

参考資料

アニマのプロダクションパイプライン構築

アニマのプロダクションパイプライン構築に関する記事が公開されてます。パイプラインについて「注力している点として、データフローをアプリケーションに依存しない」とありますがジオメトリキャッシュなのかな?

だいぶ前から海外プロダクションではAlembicを使用したパイプラインが主流になってるとの話を見かけますね。リグなどの複雑なデータが含まれてるファイルをレンダリングに回すとエラーやファイルのロード時間が長くなるため、Alembicを使用した方が映画のような大規模なシーンではメリットがあるようです。国内でも映像向けで増えるのかしら。
https://cgworld.jp/interview/201902-ren-kikuchi.html

続きを読む

参考資料

Spider-Versemの独創的なビジュアル

Spider-Versemのビジュアルに関する記事が公開されています。
https://www.fxguide.com/featured/why-spider-verse-has-the-most-inventive-visuals-youll-see-this-year/

Sony Pictures Imageworks(SPI)のアーティストとビジュアルエフェクトチームは、古い漫画本の外観に敬意を表している見事なビジュアルスタイルを実験しました。

映画の中の漫画要素は次のとおりです。

  • ピンぼけを暗示するための位置ずれ
  • グラフィック要素 - 「BOOM」や「POW」のように枠を埋めるために使用されます
  • パネル化 - アクションをパネルに分割し、アニメーションのフレームレートがあるパネルから次のパネルへのジャンプを模倣します。
  • ハーフトーンドット - トーンとテクスチャをレンダリングする
  • 色 - 定義された形状に分割して、よりわかりやすい感じにします
  • 手描き - 煙、火花、爆発などの特定の効果はアーティストによって手描きされます

 

ピンぼけ

カラーオフセットの不完全性をエミュレート。

 

モーションブラー

アニメーションの大部分は画像は1フレームではなく2フレームで保持されます。24ではなく1秒あたり12画像です。これはCGではめったにありません。監督は漫画本のスタイルに忠実であり続けるために一時停止したときに、フィルムの各フレームが絵画のように見えることを望んでいました。このトレインショットのようなシーンでは、電車の上に線が配置され、ロールシャッター効果が導入されて、動きのない場所でモーションブラーが発生するようになります。

 

漫画本のパネル

ストーリーのさまざまな時点で、フレームは複数の漫画本のフレームに分割されます。映画撮影の観点からは、これは本当に頭痛の種でした。

 

ハーフトーンとクロスハッチ

4色印刷の驚くべきデジタル版とクロスハッチインキングとハーフトーンドットの組み合わせを使用して、質感と視覚的な関心を高めています。

 

ライン アクション

コンピュータはすべて正しく処理するので、常に正しい視点とジオメトリを使用できます。アートで興味深く表現力があるのは、人間が創造するものと密接に関連するすべての不完全性です。デザインと感情は正確さとリアリズムよりも優先されました。

 

特別なモデリングの考慮事項

漫画のアーティストが遠近感を誇張することは珍しいことではありませんが、3Dでは新しいレベルの複雑さをもたらします。これは映画の中で、街の環境作業の中で大いに行われました。

映画の中でマイルが建物から飛び降りて街に戻ったとき、ニューヨークの建物はすべて彼の周りの輪のように方向づけられています。それらの建物は地面に対して垂直ではありません。ひどく傾いていて、その高さは5倍から8倍まで変わります。

 

異なるアニメーションスタイルの統合

この映画の驚くべき功績の1つは、スクリーン上にそのような異なるスタイルで非常に多くのまったく異なるキャラクターを提供しながら、それらがあたかもそれらが同じ光源によって照らされる同じ物理的空間にあるかのように感じさせることです。

アニメーターは通常1週間に約4秒のアニメーションを作成しますが、Spider-Man:Spider-Verseでは、パイプラインは非常に複雑で画期的なので、1週間に平均1秒のアニメーションしか作成できませんでした。このためより多くのアニメーターを雇ってワークロードを引き受け、独自のビジュアルスタイルを実現しました。結局、30以上の異なる国からのアーティストが異なったスタイルを統合して、映画の作品に貢献しました。

 

顔とリグ

キャラクターリグの大部分は、以前のリグやブレンドシェイプモデルとそれほど変わりませんでした。しかしPeniは大きな例外だ。

アニメの外観を実現するために彼女の顔は「デカール」として置き換えられました。Peniには正式な顔のジオメトリ形状はありません。彼女の外見はアニメーションによるものですが、完全に平らな、そして平らな陰影付きのデカールに変換されます。

 

クラシック漫画本ツール

この映画は、印刷された漫画本か高められた多くのデバイスやツールを使用しています。最も注目すべきことは、説明文や観客の指示としてスクリーン上のテキストを使用することです。これらのテキストボックスは、カメラの動きの一部としてオーバーレイまたは移動されます。

 

漫画のサウンドFX

焦点と深さを示すために、より絵画的なスタイルに移動することに加えて、効果音を強調するためにスクリーン上にクラシカルなテキストを追加します。

サウンドはアニメーション後に行われましたが、チームはサウンドの設計とサウンドエフェクトチームによるアクションの時間を考慮しています。

 

参考資料

「アニメ×会計」セミナーリポート

「アニメ×会計 〜アニメ制作会社における会計担当者の役割りと会計実務〜」というセミナーの記事が公開されています。なかなか興味深い。
https://cgworld.jp/feature/201812-kaikei1.html
https://cgworld.jp/feature/201812-kaikei2.html

アニメ制作会社による資金調達は難しいため、製作委員会が組成される。

銀行融資とエクイティファイナンス、アニメ制作に向くのはどちらか

アニメ1本の制作にかかる人件費・時間などを数字で把握する

人件費がメインのアニメ業界で重要なのは「管理会計」

デジタル化によりムダを省き、働く人の報酬体系を変えたい

会計処理と税務処理でちがう、利益に対するスタンス

参考資料

CGレイアウトを改善する10のヒント

ソニーピクチャーズイメージワークスのシニアレイアウトアーティストが、より良いCGレイアウトを作成するための10のヒントについて書いています。面白そうだったのでメモっておきます。
http://www.cgchannel.com/2018/10/10-essential-tips-to-improve-your-cg-layout-work/

 

レイアウトはプロダクションパイプラインの最初のステップで、画面に何が表示されるかを決定します。うまくいけば視聴者はカメラの存在に気付かないでしょう。しかし、うまく行かないと視聴者はストーリーから注意をそらすことになります。

この記事では、より良いカメラレイアウトを作成するためのいくつかのルールを実行します。初期のヒントは基本的な概念を紹介し、ストーリーボード、アニマティクス、ライブアクションのフィルム編集に共通しています。後のヒントは3Dアニメーションのレイアウト作業に特有のものです。

 

1.カメラの高さを使用してキャラクターの力関係を伝える

カメラが俯瞰すると視聴者は被写体を支配するように感じます。キャラクターに高いカメラアングルを使用すると、彼は無力かそれほど重要ではないように見えます。

ローアングルショットはキャラクターを支配的に見せつけ威圧的に見せます。ローアングルとハイアングルの間のカットは、2つのキャラクター間の力関係をしめすのに役立ちます。

目の高さの下にあるローアングルショットは、キャラクターを支配的に見せつけ、脅迫的に見せます。ローアングルとハイアングルの間のカットは、2つの文字の間のパワー関係を記述するのに役立ちます。

 

2.カメラの配置を使用して、視聴者とキャラクターの関係を制御します

POVショットは主観的です。カメラがキャラクターの軸上に配置されると、視聴者はそれを一人称視点として扱います。会話シーンではPOVショット間を切断することで、キャラクター間の感情的なつながりや会話の強さを高めることができます。

プロファイルショットは客観的です。カメラがキャラクターに垂直に配置されている場合、視聴者はそれを直接的には会話に参加せず、遠くから見ることで第三者の視点として扱います。

両方のタイプのショットを一緒に使用すると、会話の進行として視覚的な強さで遊ぶことができます。

 

3.ロングレンズを使用してキャラクターを集める

選択したカメラレンズによって視聴者の空間認識が決まります。 ロングレンズ(焦点距離が70mmを超えるもの)は空間を圧縮します。ワイドレンズ(焦点距離が35mm未満のもの)は空間を広げます。

これはキャラクターと環境との関係に対する視聴者の認識を決定します。 上記の画像ではキャラクターはシーンと同じ位置に配置されていますが、ロングレンズ(この場合は150mmのレンズ)で撮影すると、ロボットは少年のすぐ後ろに立っているように見えます。

別の顕著な違いは被写界深度です。 ワイドレンズはロングレンズと比較して浅い焦点を持っており、キャラクターをバックグラウンドから分離することが重要な場合に効果的に使用できます。

 

4.フレーミングキャラクター用の「すべきこと」と「すべきではないこと」

ショットをフレーミングするときに、キャラクターの頭の上にスペースを残してください。従来はキャラクターがフレームの上部に詰め込まれていないことを確認するために、頭の上に最小限のスペースを残す必要がありました。ヘッドルームが多いほどキャラクターは小さく見えます。頭がフレームの一番上に触れたら、キャラクターの顔をより窮屈にする方がいいです。額を切るのは正常に見える。

キャラクターが側面を見ている場合、彼らの凝視のためのスペースが必要です。彼らがより多くのプロファイルを持つほど、より多くの「ノーズ ルーム(鼻先方向の空間)」が必要になります。これは「リードルーム」または「ルッキング ルーム」とも呼ばれます。

クローズアップをフレーミングするときは、フレームをキャラクターの首に置かない方がいいです。生首に見えることがあります。

同様の不快な錯覚は、フレームの縁がキャラクタのジョイントの1つ以上を通過するときに起こります(膝、肘、足首など)。それは人が自分の体から何かが欠落しているように感じます。この問題を回避するにはカメラの幅を広げたり、よりぴったりとクロップしてください。

 

5. 180度ルールに従います

正しいカメラの配置は、視聴者がシーンのどこにいるのか、どの方向に見ているのか、動いているのかを混乱させないようにします。 ここでは向かい合っている2人のキャラクターのオーバーヘッドビューがあります。 それらの間に架空の線を引いてみましょう。

撮影したカメラをラインの片側に配置すると、カメラの視点がシームレスに切り取られます。


しかし、カメラの配置があるショットから次のショットにラインを横切ると連続性が失われます。キャラクターは画面の一方の側から他方の側に飛び、向き合っているようには見えません。

 

6. 20%と30°ルールに従って連続撮影を行う

同様のカメラアングルまたは2つのカメラビューを編集すると、ジャンプカットが作成されます。連続性の変化が激しくなり、視聴者はカメラがちょうど変化したことを知るようになります。 意図的な効果が得られない限り、これは映画制作にはお勧めできません。

ジャンプカットを避けるには、20%と30°ルールに従ってください。カッティングするときにはカメラ間で、被写体の大きさが少なくとも20%変化し、角度が30度ずれなければなりません。 図では2台の青色カメラの間のカッティングは自然に見えます。 青と赤をカッティングすることでジャンプカットが起こります。

例えば画像Aと画像Bはサイズが異なり、カットが自然に見えるようにカメラ角度は異なりますが、画像Aと画像Cはあまりにも似ています。 AとCを一緒に編集すると、結果はジャンプカットになります。

同じ理由から、あるショットから次のショットに同じレンズを使用することはお勧めしません。

 

7.キャラクターをカメラの動きに導く

これまでは映画撮影の基本的なルールについて論じました。 では3Dソフトウェアで仮想カメラを作成する方法について説明します。 基本的なルールはバーチャル世界に適用されますが、考慮すべき他の事項もあります。

私が多くの学生リールで見られる1つの間違いは、あたかもあらかじめ行動を予測したかのようにカメラがそれに従っているキャラクタの前に動き始めることです。

 

現実にはカメラオペレータは俳優がいつ動くのかを正確に予測することができないため、カメラの動きが数フレーム遅れるとアニメーションがより自然に見えます。

実際のカメラには重さがあることを覚えておくことが重要です。特に大きなフィルムカメラ。 オペレータがカメラをパンするとき、動きの開始時にわずかな遅れがある。 重さを考慮せずにカメラをアニメーションすると、その動きは機械的に見えるか、重力に反しているかのようになります。

 

8.目にプッシュ

プッシュショットでは、キャラクターの目に進むのが最善です。 これは、観客がキャラクターの気持ちに集中し続けるようにします。

 

プッシュポイントが口または他の身体の部位のとき、視聴者はその部位に自然に焦点を切り替え、彼らの集中が失われます。

 

9.カメラをグループ化して整理しておく

カメラを複数の軸で動かす必要がある場合は、3Dソフトウェアでカメラのプロパティをグループ化すると便利です。 一般的にグループにはマスターコントロール、平行移動、回転、揺れ、カメラ自体が含まれている必要があります。 それぞれには定義された役割があります。 たとえば階層のtranslateは、translateにキーを設定するだけです。

 

10.カメラを動かす前に回転軸を設定する

カメラがX軸またはZ軸の移動だけではなく対角線上に移動する場合は、カメラを移動方向に合わせて回転させるとアニメーションが簡単になります。 これはグラフエディタで2つではなく、1つの軸を管理する必要があるためです。

 

対照的にカメラを動かす前に回転させないのはもっと複雑ですが、結果はあまり自然ではありません。