Unreal Engine

参考資料

『アリス・ギア・アイギス』プロモーションムービー第3弾

アリスギア 5周年を記念して製作された公式PV第3弾だそうです。レンダリングにUE5、一部LightWaveらしいですよ。

 

CG News

ChaosがAXYZ designとArchvizの4Dヒューマンアニメーション技術を買収

V-Rayを開発するChaosが、人に特化した群集アニメーションツールAnimaを開発するAXYZの買収を発表しました。

建築ビュジュアライゼーション分野では、街中を歩いたり会話する群集の需要が高いようですね。3ds MaxもPopulateという群集ツールが搭載されています。

https://www.chaos.com/blog/chaos-acquires-axyz-design-and-its-4d-animated-human-technology-for-archviz

4D アニメーションとニューラル群衆の業界標準が Chaos の建築家・デザイナー向けプロフェッショナル 3D エコシステムに参画

カールスルーエ、ドイツ - 2023年7月11日 - 本日、Chaosは、建築ビジュアライゼーションにリアルな人物や群衆を追加する3D/4DアニメーションソフトウェアのリーディングカンパニーであるAXYZ designの買収を発表しました。この買収により、リアルタイム・ビジュアライゼーション・ツール、フォトリアリスティック・レンダラー、3Dアセット・ライブラリーのエコシステムが拡大し、世界中のチームが建築体験を実現できるようになります。

AXYZのソフトウェアanima 5は、HOKやGenslerのような大企業で使用されており、ビジュアライゼーションにダイナミックな3D/4D人物を導入する最も速い方法の1つです。animaは2,500以上のキャラクターをスキャンしており、デザイナーは歩いたり、走ったり、笑ったり、動いたりする忠実度の高いデジタル人物をシーンに加えることができます。ループやAI群衆を調整するツールが搭載されているため、ビジュアル・プロジェクトに信憑性のある動きを取り入れるのにこれ以上の方法はありません。

デジタルピープルの幅を広げることは、特に建築業界において、顧客からの最重要要望でした。animaの買収により、Chaosは顧客のニーズを満たすと同時に、高忠実度の3D/4D人物アセットをこれまで以上に利用しやすくする新たな方法を確立することができます。Chaosは現在、Chaos V-RayやChaos Coronaのような既存製品との最適な統合方法を計画中で、そのユーザーはすでに日常的にanimaを使用しています。

建築家がサステナビリティやバイオフィリック・アーバニズム(生物親和的都市主義)などを追求する新しい方法をデザインに取り入れるにつれ、さまざまな人々がこれらの空間をどのように使うかを関係者に感じさせることの重要性は増すばかりでしょう。ここ数年、AXYZは建築家が都市の人口動態に合わせた設計ができるよう、キャラクターの多様性を高めることにも特別な注意を払っています。

「AXYZの最先端アセットがプロジェクトに生命を与えることで、実際に人々とつながることができるのです」と、Chaos CEOのクリスチャン・ラングは言う。「建築に携わったことのある人なら誰でも、デジタル・ヒューマンが設計やマーケティング・プロセスにとってどれほどインパクトのあるものかを知っています。4Dピープルは、私たちの旅における次のステップです」

animaへのアクセスは、すべての新規および既存顧客に対して変更はありません。Chaosは、Chaos Vantage 2におけるanimaキャラクターのサポートに続き、AXYZとのコラボレーションを継続します。

「ビジュアライゼーションに関して、Chaosの製品は比類のないものです。力を合わせることで、私たちは迅速に行動し、デザイナーが仕事に行くのが楽しみになるような製品を作ることができます。最高はこれからだ!」

 

CG News

Modo2Unreal パブリックベータ版公開

Datasmithと Direct Linkのすべての機能を使用して、Unreal Engine とリアルタイムで通信するプラグイン「 Modo2Unreal」のベータ版がUnreal Engine マーケットプレイスで公開ました。
Modo2Unrealは去年Modoユーザー向けにクローズドベータ版を公開していましたが、今回Unreal Engine マーケットプレイスでのパブリックベータに移行したようです。

https://www.unrealengine.com/marketplace/en-US/product/modo2unreal

 

概要

Modo2Unrealは、Modoで構築したAssetsをUnreal Engineに自動的に転送します。Modo で変更を加えると、その変更が Unreal Engine に同期されます。アセット、レイアウト、およびシーンは、Unreal Engine で意図されたとおりに表示されます。手動でエクスポート/インポートする必要はありません。

ジオメトリ、メッシュ データ、マテリアル、テクスチャ、UV、環境、ライト、カメラ、トーン マッピング、インスタンス、ヒエラルキーはすべてサポートされています。

Modo2Unreal は、Epic の Datasmith と Direct Link のすべてのパワーを使用して、Unreal Engine とリアルタイムで通信します。

Modo2Unreal を使用すると、シーンの大きさ、密度、重さに関係なく、事前に構築されたシーン全体 (またはその一部) や複雑なアセンブリを Unreal に持ち込むことができます(しかも数秒のうちに)!FBX ファイルに煩わされることはありません。

Modo2Unreal では、1 台のマシンからネットワーク プロトコルまで、さまざまなセットアップでデータを共有することができます。Direct Link は、同じマシン上またはプライベート ネットワーク上の Unreal Engine インスタンスに作業を送信することができます。これにより、複数のステーションとアーティストからなる複雑な代理店や企業のワークフローがリアルタイムで連携し、多くの時間を節約することができます。

ModoからUnreal Engineへのパイプラインを強化し、トラックロードの時間を節約してください。

 

主な特徴

  • Datasmith Direct Link技術を活用
  • ModoとUnreal Engineの間で自動的に同期します。
  • ジオメトリ、メッシュ、バーテックスマップ、マテリアル、テクスチャ、メッシュインスタンス、階層、ライト、カメラの転送に対応
  • 同一ネットワーク上にあるサーバーとクライアントコンピューターが別々でも対応可能
  • 自動または手動で同期を取ることができます。
  • DatasmithのファイルをTwinmotionなど他の互換性のあるアプリケーションにエクスポートすることができます。

 

ベータ版の注意事項

現在このプラグインはオープンベータリリースであり、いくつかのバグを経験するかもしれません。しかし、私たちはこのプラグインをサポートするためにここにいます、そして、私たちはあなたのフィードバックに注意深く耳を傾けます。

通常のレビューと質問タブの他に、この製品のための専用メールを用意しています。

 

有効期限

ベータ版として30日間使用することができます。プラグインの価格やパッケージは、ベータ期間終了後に検討・設定されます。

 

インストール方法

MODO

  1. Modoにプラグインをアンパッカーでインストールする
  2. 右上に「Kits」ボタンがあるので、それを押す
  3. Modo2Unrealのボタンをクリック
  4. プラグインのUIが表示されます
  5. 'Export' - シーンをDatasmithファイル(.udatasmith)にエクスポートします

UE

  1. DatasmithのDatasmith DirectLinkをクリックします
  2. Modoアプリケーションを選択する
注意事項
  • このプラグインを使用するには、Unreal側でDatasmith DirectLinkが有効である必要があります。
  • IPとポートが開いている限り、ダイレクトマシン間でも接続は行われます。
  • Datasmithは、Modo>TwinMotionでも動作するはずです(未検証)。

参考資料

Epic が Metahuman Animator 発表

Epic が Metahuman Animator 発表しました。 iPhone やヘルメットに取り付けられたカメラを使用して、MetaHuman キャラクターのフェイシャルパフォーマンスを再現できる機能のようです。

https://www.unrealengine.com/ja/blog/new-metahuman-animator-feature-set-to-bring-easy-high-fidelity-performance-capture-to-metahumans

 

新しい MetaHuman 機能セットが間もなく登場することをお知らせできることを大変嬉しく思います。

MetaHuman Animator を使用すると、iPhone またはステレオ ヘルメット搭載カメラ (HMC) を使用して、顔のパフォーマンスを MetaHuman キャラクターの忠実度の高いアニメーションとして再現できます。これにより、アクタのパフォーマンスの個性、リアリズム、忠実度をキャプチャし、あらゆるディテールとニュアンスを MetaHuman に転送して、Unreal Engine で生き生きとさせることができます。

 

フォトリアルなデジタルヒューマンは、真に信頼できるパフォーマンスを提供するために高品質のアニメーションを必要としますが、これを作成するための専門知識と時間は、最も熟練したクリエイターにとってさえ困難です。
既存のパフォーマンスキャプチャソリューションでは、キャラクターに対する俳優のパフォーマンスのあらゆるニュアンスを忠実に再現することは非常に困難です。真にリアルなアニメーションを実現するには、熟練したアニメーターが、通常は骨の折れる時間のかかるプロセスで結果を丹念に微調整する必要があることがよくあります。

しかし、それは変わろうとしています!

今後数か月以内にリリースされる予定の MetaHuman Animator は、AAA ゲーム開発者やハリウッド映画製作者が必要とする高品質のフェイシャルアニメーションを制作すると同時に、インディーズスタジオや愛好家にもアクセスできるようにします。すでにポケットに入れている iPhone と標準の三脚を使用すると、MetaHuman 用に信頼できるアニメーションを作成して、自分がアニメーターではなくても、視聴者との感情的なつながりを構築できます。

 

また、MetaHuman Animator は、Technoprops 社製品など、より高品質の結果を実現できるプロフェッショナル レベルの垂直型ステレオ HMC キャプチャ ソリューションとも連動します。
さらに、ボディ キャプチャにモーキャップ システムをお使いの場合は、MetaHuman Animator のタイムコード サポートにより、フェイシャル パフォーマンス アニメーションとボディ モーション キャプチャおよびオーディオとを容易に揃えることが可能になり、フル キャラクター パフォーマンスを実現できます。このオーディオを使ってリアルな舌のアニメーションを作成することもできます。

では、この機能はどのような仕組みなのでしょうか?

重要なのは、システムがアクターの顔独特の生体構造を解析し、それをターゲット キャラクターにどのように関連付けるかを理解できるようにすることです。MetaHuman Animator では、最初にパフォーマーの MetaHuman Identity、つまり同様のトポロジを持ち、すべての MetaHuman と同じ標準リグを共有するメッシュを作成します。

Mesh to MetaHuman を使ったことのある方なら、そのプロセス中に 3D スキャンまたはスカルプトから MetaHuman Identity が作成されることをご存じでしょう。そのテクノロジーを基盤とする MetaHuman Animator では、キャプチャした少量のフッテージから MetaHuman Identity を構築します。このプロセスはほんの数分で完了し、それぞれのアクタに対して一度実行するだけで済みます。

 

このステップが完了すると、次は MetaHuman Identity を使って MetaHuman フェイシャル リグの各位置をトラックして解決することで、そのパフォーマンスが解析されます。
結果として、アクタと MetaHuman の特徴の違いにかかわらず、あらゆる細かな表現がターゲット MetaHuman キャラクター上で正確に再現されます。Unreal Engine ではこのパフォーマンス処理が可視化されて、フレームごとに、アニメート化された MetaHuman Identity をアクタのフッテージと比較することができます。

もう一つのメリットとして、クリーンなアニメーション データを得られることがあります。人間のアニメーターが行うのと同じように、コントロール カーブがフェイシャル リグ コントロール上の所定の位置に確実に配置されて、意味論的に正確になり、アート面のニーズに応じて調整することが容易になります。

MetaHuman Identity を最初から使用することで、将来的に MetaHuman に変更を加える場合や、他の MetaHuman で使用する場合も、今作成しているアニメーションが引き続き機能することが保証されます。

MetaHuman Animator の処理機能は、エンジンと同様に無料でダウンロード可能な Unreal Engine 向け MetaHuman プラグイン の一部となります。iPhone をお使いになる場合、MetaHuman Animator は iPhone 11 以降に対応しており、加えて無料の iOS 向けの Live Link Faceアプリ が必要になります。このアプリは、このワークフローをサポートするための追加のキャプチャ モードで更新されます。

参考資料

Unreal Engine 5.2 - Next-Gen Graphics Tech Demo

Unreal Engine 5.2のデモ映像が公開されています。

  • chaosダイナミクス、岩の上を運転すると岩が転がる
  • アンリアルのchaos車両モデルをセットアップし、トラックのサスペンションと電気モーターがどのように個々のホイールを駆動するかをシミュレート
  • chaosはタイヤがどのように圧縮および変形するかをシミュレート
  • メタ サウンドにより、電気モーターの音をジャングルのアンビソニックスとミックス
  • 約 7,100 万ポリゴンのポリゴンをリアルタイムでレンダリングできたのは、nanite のおかげ
  • 新しいマテリアルフレームワークを導入、オパールのデモ
  • ダート、シェーディング モデルを使用してこのようなマテリアルを作成し、それらの素材を構成してレイヤー化
  • Unreal Engine シェーディング モデルに似たマテリアルのコストはほぼ同じだが、アーティストはシネマティックスや映画のような非常に詳細なユース ケース向けにより複雑なマテリアルを自由にオーサリングできる
  • 手続き型アセンブリ
  • デモ映像はIntel 13900k CPU と Nvidia RTX 4090 GPU を搭載した開発者用マシンの Unreal Editor でリアルタイムに実行
参考資料

Epic Games Store セルフパブリッシングツールをリリース

誰でもEpic Games Storeに自分のゲームを出せるようになったそうです。Unreal Engineを使っている場合はエンジンの使用料無料。Unityなど別のゲームエンジンを使用している場合でも販売可能らしいです。

https://store.epicgames.com/ja/news/epic-games-store-launches-self-publishing-tools-for-game-developers-and-publishers
https://store.epicgames.com/ja/distribution?lang=ja

 

Epic Games Storeにて、ゲームデベロッパーとパブリッシャー向けのセルフパブリッシングツールをリリース

本日、Epic Games Storeにてセルフパブリッシング機能がリリースされます。 これらのツールを利用することで、デベロッパーやパブリッシャーは効率的にゲームをリリースできるようになり、ストアのプレゼンスを直接維持しつつ、6800万人以上もの月間アクティブユーザーという成長中のオーディエンスにアプローチできるようになります。

 

Epic Games Storeでゲームをリリースしましょう

Epicのデベロッパーポータルを利用すれば、新たに登場したセルフサービス パブリッシング ツールを使用してゲームをリリースできます。 これらのツールは、ストアの要件(詳細は後述)を満たすゲームを開発しているデベロッパーやパブリッシャーであればどなたでもご利用になれます。

 

Epic Games Storeの主な要件

ストアは、Epic Games Storeの要件を満たすタイトルを開発しているすべてのデベロッパーとパブリッシャーに開かれています。 これらの要件は、ひとつのストアに縛り付けることなく、最高の体験をプレイヤーに提供するためにデザインされています。 主な要件は以下の通りです。

 

  • マルチプレイヤーゲームのPCクロスプレイ
    マルチプレイヤーゲームは、すべてのPCストア間でのクロスプレイに対応している必要があります。 そうすることで、どのストアでマルチプレイヤーゲームを購入したプレイヤーも、ゲームの購入場所に関係なく、他のプレイヤーと簡単につながることができます。 これを実現するには、ご自分でクロスプレイシステムを実装するか、サードパーティ製のSDKを使用するか、Epic Online Servicesを無料で利用することができます。 詳細はこちらをご覧ください:PCのクロスプレイ機能の有効化
  • Epic Games Storeの実績
    2023年3月9日(米国時間)より後にEpic Games Storeのパブリッシングツールにオンボードされたすべてのゲームは、他のPC向けストアで実績が用意されている場合、Epic Games Storeでも実績を有効にする必要があります。 そうすることで、ゲームの購入場所に関係なく、プレイヤーの体験を統一できます。 詳細はこちらをご覧ください:実績の設定
  • 地域配信の年齢レーティング
    Epic Games Storeは国際年齢評価連合(IARC)と提携し、デベロッパーが必要に応じてレーティングを直接取得できるように支援しています。 こちらのサービスは、Epic Games Storeより無償で提供されます。 ゲームが公式のレーティングシステムによるレーティングをすでに取得している場合は、ストアのゲームページにレーティングを表示しなければなりません。 詳細はこちらをご覧ください:レーティング
  • 禁止されているコンテンツ
    特定の種類のコンテンツはストアで禁止されています。これには以下の行為を含みますが、これに限られるものではありません: 悪意のある、または差別的なコンテンツ、ポルノ、違法なコンテンツ、所有権または使用権利を持たない知的財産を侵害するコンテンツ、偽のゲームやマルウェアなどの詐欺や虚偽、不正行為。 詳細はこちらをご覧ください:禁止されているコンテンツ
  • ゲームの品質
    ゲームは、ゲームページで提供するアセットと説明通りにダウンロード、インストール、起動、機能する必要があります。 Epicは、品質と機能が基準を満たしていないと判断したゲームを拒否する権利を留保します。 詳細はこちらをご覧ください:コンテンツのガイドライン

Epic Games Storeでゲームをリリースするべき理由

  • 世界中の2億3000万人以上のユーザーにアクセスしましょう。 その他の統計は、こちらの2022年の総括ブログでご確認いただけます。
  • パブリッシャーは、Epic Games Storeで販売されたゲームの収益の88%を受け取ることができます。また、自社製またはサードパーティ制の決済方法を使用すれば、アプリ内課金による収益の100%を受け取ることができます。
  • Epicのデベロッパーポータルには、IARCのレーティング(一部の国では必須で、他の国でも非常に有用)を無償で取得するためのプロセスが統合されています。
  • Epicは、ゲームページのプロフェッショナルなローカライズを追加費用なしで提供しています。 こちらのサービスは、デベロッパーポータルのサポートチケットでお申し込みいただけます。
  • クリエイターサポートは、収益の一部をシェアしてコンテンツクリエイターにインセンティブを与えることで、ストアの外でゲームの売り上げを伸ばせるアフィリエイトプログラムです。
  • Unreal Engineで制作されたゲームは、Epicの決済代行会社を利用してストア内で購入された場合、エンジンの使用料が免除されます。 独自の決済代行会社を利用したアプリ内課金や製品は、エンジンの使用料が免除されません。
    さあ、準備はいいですか? 今すぐ登録しましょう
参考資料

オープンソース パイプライン プラットフォーム「AYON」早期アクセス開始

アニメーションおよび VFX スタジオでのワークフローを高速化するために設計されたオープンソース パイプライン プラットフォーム「AYON」の早期アクセスが開始されました。

https://ynput.io/early-access-to-ayon-available-now/

 

AYONのアーリーアクセスを開始しました

アニメ・VFXスタジオと共同で作られたクリエイティブチーム向けオープンソースパイプライン

 

アニメーションやVFXスタジオのワークフローを加速させるオープンソースのパイプラインプラットフォーム、AYONの早期アクセスリリースを発表します。2018年以降、AYONの派生版がOpenPypeの名で数百のプロジェクトで実稼働して使用されています。
AYONはアニメーションやVFXスタジオで見られる複雑なワークフローをサポートするスケーラブルなパイプラインを構築するために不可欠な基盤を提供します。モジュール式のアプローチで、強力なパイプラインツールは、業界標準の幅広いクリエイティブアプリケーションやプロダクショントラッキングソフトウェアへのデータ転送を自動化するのに役立ちます。

スタジオが小さなチームに分断されたり、新しい分野へのサービス拡大を目指す中で、制作実績があり、ハイブリッドワークにも柔軟に対応し、さまざまなプロジェクトタイプに対応できるパイプラインの必要性はますます高まっています。スタジオを一から立ち上げるには、複数の部署、場所、ソフトウェアパッケージ、データソース間のギャップを埋めることができるパイプラインが必要です。

Cloth Cat Animation の CEO である Jon Rennie 氏は述べています。

AYONは、私たちが使用しているツールが複数の企業で使用されていることに自信を与えてくれます。つまり、業界標準と他の場所でテストされ、すべてがオープンソースであることがわかります。Ynputがそばにいることで、私たちはアニメーションサービスとしてクライアントに提供できるものに、より自信を持つことができます。パイプラインが問題であることを心配する必要はありませんし、それがうまくいくこともわかっています。その代わり、当スタジオではアニメーションのクオリティに重点を置いており、それを実現できることもわかっています。

YnputのCEO兼創設者であるMilan Kolar氏は述べています。

当初からスタジオと密接に連携することで、堅牢なパイプラインの導入と維持に関連する複雑な課題を解決することができました。AYONのリリースにより、スタジオオーナー、スーパーバイザー、パイプラインTDは、パイプラインがテストされ、新しい規格が導入されるにつれて継続的に進化しているという確信を持って、ワークフローを完全に制御する機会を得ることができます。私たちは、クリエイティブスタジオが信頼できるオープンソースのパイプラインを提供できることを嬉しく思っています。

 

 

クリエイティブスタジオと一体となって作り上げた強力なパイプライン

AYONで利用できる機能は以下の通りです。

  • レディメイドテンプレート : 2Dアニメーション、3Dアニメーション、VFXなど、さまざまなプロジェクトタイプに合わせた設定済みのテンプレートで、簡単にプロジェクトを開始することができ、あらゆるタイプのプロジェクトに対して無限の可能性を創造し保存する柔軟性があります。
  • 迅速な導入とオンボード : スクリプトの知識がなくても設定可能なため、スーパーバイザーはTDが手元になくてもワークフローをカスタマイズできます。
  • 分離されたデータで柔軟なワークフローを実現します : Substance、Autodesk 3ds Max、Flame、Maya、Foundry Nuke、Toon Boom Harmony、TVPaint、Unreal Engineなど、Adobeの多くの業界標準アプリケーションと深く統合し、オンプレミス、クラウド、ハイブリッドワークフローをサポートします。
  • プロダクション・トラッキングと同時に使用できます : Autodesk ShotGrid、ftrack Studio、CGWire Kitsuなどのサポートにより、既存のプロダクショントラッキングツールをシームレスに使用し続けることができます。
  • USDとリアルタイムのワークフロー : リアルタイム制作のためのUniversal Scene Description(USD)およびUnreal Engineとすぐに互換性があるため、必要なときに柔軟に対応できます。
  • 無限の拡張性 : Python、REST、GraphQLをサポートするAPIを使用してカスタマイズすることで、AYONに含まれているものを超えて使用することができます。

AYONの早期アクセスは本日より開始され、無料でインストール、使用することができます。テクニカルサポート、パイプラインコンサルテーション、トレーニング、デプロイメント、メンテナンスなどの追加サービスは、Ynputのサービスチームを通じて提供されます。

CG News

UV-Packer for Unreal Engine リリース

UV-PackerのUnreal Engineバージョンがリリースされました。

https://www.3d-plugin.com/uv-packer-for-unreal-engine-released/

 

UV-Packer for Unreal Engine

3d-ioは、UVマップの自動パッキングを行うための無料、高速、正確なツールとして、Unreal Engine用のUV-Packerをリリースしました。UV-Packerは、Unreal Engineを終了したりアセットを再インポートすることなく、ワンクリックで巨大なジオメトリも最適にパックすることができます。

 

ダウンロード方法

公式ホームページから入手できます。
https://www.uv-packer.com/download/

またはUnreal Engine Marketplaceから直接ダウンロードできます。
https://www.unrealengine.com/marketplace/en-US/product/uv-packer

 

利点

UV-Packerの主な利点は、メッシュ上でカバーするサーフェスに対してUVクラスタを再スケーリングする自動ワークフローで、UVマップ上でできるだけ多くのスペースを利用するようにそれらを配置します。これにより、メッシュのテクスチャ品質が向上し、オーバーラップするUVが修正され、最適化されたライトマップが得られます。

 

技術的な詳細

特長

  • アクセス性 - StaticMesh Editor内から直接、ワンクリックでUVパッキングが可能です。
  • 高速 - 巨大なジオメトリや大量のUVチャートに対応する高いパフォーマンス。
  • カスタマイズ可能 - 均一なスケーリング、パディング、ローテーションステップのオプション。
  • 堅牢性 - オーバーラップがなく、損傷したメッシュの許容範囲。
  • 信頼性 - 数百万ものアセットでストレステストを行い、ヘビープロダクション環境で磨きをかけています。
  • 自動化 - カスタムエディタユーティリティの青写真が含まれています。
  • コードモジュール UVPacker (エディタ)、UVPackerLib (外部)
  • ブループリントの数 1
  • C++クラス数 12
  • ネットワーク・レプリケート なし
  • サポートされる開発プラットフォーム Win64
  • サポートされるターゲットビルドプラットフォーム。すべて

 

ドキュメント

https://docs.3d-plugin.com/uv-packer/unrealengine

CG News

Modo2Unreal ベータ版公開

4D Pipeline が開発する「Modo2Unreal」のベータ版が公開されています。Modo2UnrealはDatasmithとDirect Linkの機能を使用して、Unreal Engineとmodoをリアルタイムで通信するプラグインです。

プラグインはインストール後40日間完全に機能します。インストールはModo Public Beta Downloadページで提供されるMSIを使用して簡単に行うことができます。もし問題や質問があればフォーラムに投稿してくださいとのことです。

https://community.foundry.com/discuss/topic/160109/4d-pipeline-s-modo2unreal-plugin-is-now-available-for-testing

 

Modo2Unreal プラグイン

Modo2Unreal は、Modo で構築したアセットを Unreal Engine に自動的に転送します。Modo で変更を加えると、その変更が Unreal Engine に同期されます。アセット、レイアウト、シーンはUnreal Engine で意図されたとおりに表示されます。手動でのエクスポート/インポートは必要ありません。

ジオメトリ、メッシュ データ、マテリアル、テクスチャ、UV、環境、ライト、カメラ、トーン マッピング、インスタンス作成、階層構造はすべてサポートされています。

Modo2Unreal は、Epic の Datasmith と Direct Link のすべての機能を使用して、Unreal Engine とリアルタイムで通信します。

Modo2Unreal を使用すると、シーンの規模、密度、重さに関係なく、事前に構築されたシーン全体 (またはその一部) と複雑なアセンブリを Unreal に持ち込むことができます。FBX ファイルに煩わされることはありません。

Modo2Unreal では1 台のマシンからネットワーク プロトコルまで、さまざまなセットアップを使用してデータを共有することができます。Direct Link は、同じマシンまたはプライベート ネットワーク上の Unreal Engine インスタンスに作品を送信することができます。これにより、複数のステーションとアーティストで構成される複雑な代理店や企業のワークフローがリアルタイムで連携し、多くの時間を節約することができます。

Modo から Unreal Engine へのパイプラインを強化し、トラックロードの時間を節約します。

 

主な機能

  • Datasmith Direct Link 技術を使用しています。
  • Modo と Unreal Engine 間を自動的に同期し、Modo での変更はすべて Unreal Engine に転送されます。
  • ジオメトリ、メッシュ、頂点マップ、マテリアル、テクスチャを転送します。
  • メッシュ インスタンスの転送
  • 階層構造の転送
  • ライトの転送
  • カメラ、カメラ タイプ、カメラ位置の転送
  • 同じネットワーク上にある別のサーバーとクライアントコンピュータを使用したデータの転送。
  • 自動または手動での同期
  • Datasmith ファイルを、これをサポートする他のアプリケーション(Twinmotion など)用にエクスポートする機能

 

動作環境

Modo v15.2/16とUE5を使用してプラグインを構築し、テストしています。後方互換性がある可能性もありますがテストされていません。

参考資料

CARS | City Sample UE5

UE5を使用してレンダリングした車の動画が公開されていました。背景はマトリクスのデモ用に作成されたCity Sampleを使用しているようです。

反射やシェーディングが安定してるのでPath Tracer使ってるのかな?UnityもUE5もPath Tracer搭載してるので、ゲームエンジンと言ってもプリレンダリング向けのレンダラーと変わらない品質になってきましたね。

参考資料

The Third Floor スタイライズドアニメーションに進出

The Third FloorがUnreal Engineを使用したスタイライズドアニメーションに進出するとの記事が公開されています。

https://www.fxguide.com/quicktakes/the-third-floor-move-into-stylized-animation/

 

大手ビジュアライゼーション・スタジオのThe Third Floor(TTF)は、ゲームエンジン技術を利用したハリウッドレベルの様式化されたアニメーション・コンテンツの制作に着手することを発表しています。
同社は、Maya や Houdini などの従来のツールを使用しながら、主に Unreal Engine でのコンポジットとレンダリングを目的とした新しいパイプラインで、ショートデモを開発しました。

The Third Floor の共同設立者兼チーフ クリエイティブ オフィサーの Josh Wassung 氏に、この新しい動きと技術について話を聞きました。
UE4/UE5で仕上げることを目的としていますが、パイプラインは、レイヤーとAOVをFoundry Nukeで仕上げるのと同じように簡単にエクスポートできるように確立されています。ただ、番組によって異なります。パイプラインは、同じアセットとマテリアルで、完成したアニメーション映画、VR体験、またはインタラクティブなプロモーションを制作できるように構築されています。

同社は長年にわたり、撮影やレンダリングの前にシーンをプリビジュアライズするシネマティック・ツールを開発してきました。TTFは、このような初期の視覚的な実験や探求を、映画品質の完成されたアニメーション映画やテレビ番組に変換するプラットフォームを開発しました。ストーリーテラーやディレクターは、TTFのツールを使って、ストーリーボードのようなプリビジュアライゼーションを開発し、共同作業によってそのドラフトを改良し、4K Dolby Visionの完成品シーケンスにすることができるようになったのです。

 

 

Skytribeのショートデモは、これまで手作業で丹念に描かれ、オフラインのコンピュータで1フレームずつレンダリングされていたものと見分けがつかないほどです。

リアルタイム ゲーム エンジンの使用には、反復のスピード、インタラクティブ性、そしてレンダリング品質の向上など、多くの利点がありますが、Josh Wassung 氏は「当社の 30 のパイプライン プロジェクトの半分以上は、現在 Unreal Engine を使用しています」しかし、ハイエンドなゲームワークフローのニーズは、映画やシナリオのパイプラインとは重要な部分でかなり異なるため、TTF は Unreal を中心とした構造を拡張して構築する必要がありました。

 

映画の撮影準備では、ショットをカメラに着せます。映画の現実はショットごとのごまかしがたくさんある。椅子は長いレンズのショットの前景で持ち上げられた方がよく見えるかもしれません。現実世界ではクルーがその下にリンゴ箱を置くかもしれませんが、3Dでは地面から浮いているかもしれません。もちろん、マッチングされたワイドショットでは、このトリックは取り除かれ、視覚的な連続性があるように見える限り観客は何も気にしません。
それに対してゲームのパイプラインでは、世界を構築し、その中をプレイヤーが移動するのが一般的です。小道具はある視点から見たときに、魔法のように位置が変わるわけではありません。そのためTTFではデジタルシーンのスナップショットだけでなく、ショットごと、さらにはテイクごとの撮影を可能にするショット固有のツールやメタデータを開発する必要がありました。
監督は複数のテイクをバリエーションとして撮影し、いつでも以前のバージョンに戻せるようにすることができます。テイクを再読み込みする際には、たとえ後のテイクでアセットが変更されたとしても、その前にあったものと正確に一致させなければならない。

ほかにもいろいろな例があります。TTFは完全に再現可能なパイプラインを提供する必要があります。Josh Wassung氏は過去にゲームエンジンがリアルタイム性能を実現するために、微妙にアスペクトを変更するプロジェクトを経験したことがある。
「あるプロジェクトは素晴らしいものでしたが、通常の3Dアニメーションから来た私には理解不能でした。「アニメーターがキャラクターの足を特定のオブジェクトに乗せると、後で再生したときに足があるときとないときがあるんです。これは、エンジンが本当に重いシーンを最適化しようとしていたためです。数年前のことですが、本当に重いシーンでした。

その他、非リアルタイムの高品質なレンダリングができるなど、カットシーンやマーケティング資料を制作するためのエンジンではすでに広くサポートされています。しかし、TTFは後のNukeコンポジット(複雑なパスやAOVを含む)のために複数のパスをレンダリングしたり、ARやVRなど幅広いメディアオプションに適用するために再利用できる新しいアニメーションツールも構築しています。
ストーリー性のあるアニメーションの場合、レンダリングはすべてUnrealで行われますが、場合によっては一部の作業がNukeで外部的にコンポジットされることがあります。

 

新しいアニメーションツールはこのようなTTF映画製作のコアとなるゲーム技術を多く受け継ぐ一方で、ルックデヴや特に絵画的効果のための複雑なアニメーション専用ツールも開発されているのです。その好例が、キャラクターの顔のシェーディングです。カメラや光源に対する頭の角度によって変化し、かつ伝統的なメディアの絵画的な側面も取り入れているのです。
「私たちにとって重要なことのひとつは、顔の上で交換可能なアーティスティックなスタイルをどう実現するかということでした」とジョシュは説明します。「ダイナミックな照明とブレンドするための"ペイントオン照明"をいかに得るか」これらはTTFがエンジンを使って開発し、すでに素晴らしい既存のビジュアライゼーションの武器に追加した、より芸術的なツールの一部です。

 

TTFチームは『イントゥ・ザ・スパイダーバース』のような、実写と手描きの世界を融合させたスタイリッシュなアニメーションを制作したパイオニアとして、早くからその功績を称えています。技術的にはこれを実現するために、Maya の作業を UE4 とシームレスに行き来できるライブ リンクなどのツールを構築する必要がありました。チームは柔軟に対応しますが、Maya でアニメーションを制作し、アニメーション キャッシュを UE4 にインポートすることが多いそうです。また、強力なラウンドトリップツールを開発し、エンジン内で行われたカメラブロックや編集からの自動アップデートをフィードバックできるようにしました。
「シーン記述と呼ばれるものがあります」と彼は説明します。「私たちは、システムが同期し、エンジンにあるアセットを公開するための独自のコードを書きました。レンダリングするたびに、Mayaで完全に同期されたバージョンが作成されます。「同様のことは、Houdini のエフェクトにも対応しますが、TTF は非常に直感的で触感的なエフェクトのために Engine にインポートされる手描き要素にも同様に対応しています。

 

この新しい最終品質出力パイプラインは、バーチャル・プロダクションにおける TTF の作業への情報提供であると同時に、The Mandalorian のために開発した技術を基に構築されたものです。同社はすでにバーチャルアートデパートメント(VAD)に積極的に取り組んでおり、プロセスを通じてアセットを多様に変化させることができます。ポストプロダクションで2バージョン作るより、プリビズで200バージョン作る方が安上がりで簡単だという考えから、同社は設立されたのです。TTFの文化は変化と実験を奨励することです。しかし、多くの長編アニメーションの現実は、3回の修正というルールである。
「クライアントやアニメーションのディレクターと話をすると、彼らが一番に感じる制約、そして共通の不満は、3回のノートのみということでした」とジョシュは言います。私たちは "変化としての視覚化 "を重視しており、この哲学をアニメーションに取り入れたいと考えています。私たちは、クライアントを3回の修正で終わらせたくありません。私たちは、"ちょっと、この期間だけ "と言いたいのです。私たちは何でも変更することができます。あなたが望むだけ変更したいのです」と言いたいのです。そして、できるだけ早い段階で、高品質のステージに到達できるようにしたいのです」。

参考資料

Project Titan

Houdini のプロシージャルワークフローをUnreal Engine 5でテストするインハウス技術デモで「Project Titan」のページが公開されています。

https://www.sidefx.com/ja/titan/

PRODUCTION TECH DEMO

Project TitanはHoudini のプロシージャルワークフローを実制作環境でテストするためのインハウス技術デモで、3D 環境の生成に Unreal Engine 5 の最新テクノロジを活用しています。このデモ用に作成されたツールとテクニックは、学習資料やダウンロード可能なコンテンツとしてコミュニティに共有されます。

プロシージャルツールのサポートのため、 Kitbash3D によるジオメトリが大きな役割を果たし、Houdini ツールで再構成するテクスチャモデルを提供しています。

 

UNREAL ENGINE 5 PLUGIN | ALPHA

Unreal Engine 5 用の Houdini Engine は、対応すべき公式の UE5 リリースが未だのため、Houdini にはまだ付属しておりません。
試用には、Githubで取得し、最新の UE5 コミットに対し、手動でビルドする必要があります。

https://github.com/sideeffects/HoudiniEngineForUnreal/tree/Houdini19.0-Unreal5.00

 

PROJECT TITAN | Process

プロジェクト・タイタンへようこそ。この紹介ビデオではこのインハウス技術デモの開発プロセスを探り、コンセプトアートからプロシージャルツールまで、プロジェクトの範囲を理解することができます。

 

PROJECT TITAN | Tools

Project Titan には、Houdini Engine プラグインにより Unreal エディタ内で動作する、さまざまなツールが用意されています。これらのツールをエディタ内で使用することにより、環境アーティストは、アーティスティックなコントロールと演出性を維持しながら、より迅速にレベルを構築することができます。

建物の生成、フェンスの作成、プロップの追加など、このプロシージャルなワークフローにより、小規模なチームでも印象的なレベルのディテールをすばやく実現することが可能になります。

 

 

 

参考資料

UnityがZivaDynamicsを買収

Unityが機械学習を使用したフェイシャル作成や、筋肉シミュレーションをおこなうMaya用プラグインを開発しているZivaDynamicsを買収しました。

Unityの技術買収が続いてますね、プリレンダーの技術を取り入れるならQuad Poly読み込みとOpenSubdivに標準対応して欲しい。

https://blog.unity.com/technology/welcome-ziva-dynamics
https://zivadynamics.com/

 

ユニティは高度なシミュレーションと変形、機械学習、リアルタイムキャラクタークリエーションのリーダーであるZiva Dynamicsを買収しました。
ユニティは、クリエイターのためのツールの民主化に力を注いでおり、業界で最も輝かしい逸品を、一部の人だけでなく、すべての人が利用できるようにしています。そして、アーティストが夢を実現するための支援に力を注ぎ続けています。

Weta Digital、SpeedTree、SyncSketch、Pixyz、RestARといった最近の買収企業の背後にある並外れた才能とツールに見られるものは、アーティストやすべてのクリエイターがビジョンをより簡単に、より速く、より安く実現するための中核技術なのです。私たちは、コンテンツクリエイターをスーパーヒーローにしたいと考え、それを実現するためのツールやサービスを提供するつもりです。

本日、Ziva Dynamicsの買収により、アーティストへのコミットメントが倍増したことを発表できることを誇りに思います。

私たち人間は、人の動きに反応するユニークな性質を持っています。私たちの脳の中には、顔や表情を高速で処理するための領域があります。私たちの心を満たすクオリティと自然なダイナミクスを備えたデジタルヒューマンを作るには、専門的な知識と根気強さが必要で、複雑で苦しい作業となります。

その問題を解決するのが、Ziva Dynamicsです。Zivaチームは、複雑な解剖学的シミュレーションとリアルタイムアーティストリーツールに関する深い専門知識と理解を持っています。彼らの素晴らしい技術は、リアルタイムのキャラクターと、スケーラブルでアクセスしやすいワークフローへの道を切り開いているのです。

 

Zivaは自らを語る...文字通り

Zivaのデジタルヒューマンであるエマが、今回の発表に協力してくれました。

 

Emmaは、最先端の機械学習を搭載し、Unityでリアルタイムに動作しています。彼女のモデルは、ZRT Trainerを使用して30テラバイト以上のユニークな4Dデータでトレーニングされ、72,000以上のトレーニングされたシェイプをエモーションし、全く新しい顔のポーズを実現することができます。
これは驚くほどリアルなアニメーションと、驚くほど感情的なパフォーマンスを実現するディープテックであり、要求の厳しいリアルタイム環境においても、キャラクターを輝かせることができます。そしてまもなく、あらゆるレベルのアーティストやクリエイターが、この技術にアクセスできるようになります。

このような忠実度をリアルタイムで実現することは、画期的なことです。機械学習、ディープラーニング、バイオメカニクスの先進的な技術を活用した高度な技術の成果です」とエマは語っています。キャラクターの作り方を根本的に変えるものです。Zivaの技術は、コンシューマー向けハードウェア上で、人間、クリーチャー、衣服、リアルなもの、様式化されたもの、高忠実度なものなど、あらゆるサイズの変形を、リアルタイムで実現できるように設計されているのです。

 

Zivaの魔法をUnityへ

Zivaはリアルタイムおよびゲーム向けの主要な変形およびシミュレーションアーティストツールとして、高品質のクリーチャー作品の新しい標準となり、Ninja TheoryのSenua's Saga: Hellblade IIなどのタイトル、Game of ThronesやGodzilla vs. Kongなどの映画やテレビで何百もの映画やゲームスタジオにアートとリアリティの境界をぼやかしています。

Zivaを買収することで、ユニティはZivaのクラス最高のツールをさらに民主化し、スキルレベルに関係なく、アーティストが簡単かつ迅速に、これまでにないデジタルキャラクターを作成できるようにすることを目指します。
さらに今回の買収により、ユニティは、機械学習の力を借りて、クラウドを通じてWetaツールをリアルタイム3Dにするプロセスを加速させることも可能になります。Zivaはすでに、複雑な映画品質のシミュレーションをRT3Dにもたらすという課題を解決しています。私たちは共に信憑性のあるデジタルキャラクターの作成を、幅広いプラットフォームやアーティストが、大規模に利用できるようにする予定です。

 

Zivaの技術の裏側

当社の主力ソフトウェアであるZiva VFXは、筋肉、脂肪、皮膚などの軟部組織の物理的・物質的特性をデジタルで再現・結合し、アーティストが最もリアルなCGIキャラクターを作成するために使用されています。この強力なテクノロジーは、エンジニアリングとバイオメカニクスの最先端技術を基に構築されており、Zivaはこれらの複雑なプロセスを、建物の複雑さを最小限に抑えるフレンドリーなアーティストツールに抽出することに成功しました。
使いやすさ、破壊されないワークフロー、そして派生アセットの作成に重点を置いています。完全な動的解剖学により、バーチャルな動物や人間は現実と同じように動き、伸び、曲がるので、キャラクターワークフローから何週間もの芸術的労力を取り除くことができます。Zivaのユーザーには、学生、インディーズ、小規模スタジオ、大規模なVFX施設などがあります。

Zivaのシミュレーションデータは、ZivaRTを使用して、あらゆる種類のクリーチャーやキャラクターをリアルタイム環境で動作させるためのトレーニングに使用することができます。ZivaRTはゲームエンジン内の非線形変形の挙動を正確に再現するために設計されました。ZivaRTの多層古典機械学習モデルは、学習入力の制約を尊重しながら、予測可能な実行時間と軽快なメモリ割り当てを一貫して達成しています。
ZivaRTは、民生用ハードウェア(GPUまたはCPU)であっても、リアルタイム変形で真に比類のない品質を提供します。ZivaRTはすでに、クラス最高のキャラクターで広く認知されているAAAゲームに搭載されています。

また、Zivaの強力な機械学習技術は、キャラクター制作を合理化し、アーティストの時間とコストを節約するクラウドベースの制作を可能にします。

 

アカデミー賞受賞チームをバックに

Zivaを買収したことで、ユニティはさらに多くの優秀な人材にアクセスできるようになりました。彼らの経営陣には、科学技術アカデミー賞の受賞者やVFX、物理、変形、機械学習などの専門家がずらりと並んでいます。このような素晴らしいリーダーたちとともに働き、彼らから学ぶことができることに、私たちはとてもわくわくしています。

Zivaはアカデミー賞受賞者でUSCビタビ工学部教授、MIT TR35受賞者のJames Jacobs(CEO)、Jernej Barbic(CTO)、カナダの実業家Chris Godsallによって共同設立されました。Zivaのチームには、クリエイティブ担当副社長のSimon Clutterbuckもいます。彼はWetaでクリーチャー部門の責任者を務め、Weta在籍中にJames JacobsとともにTissue(物理ベースのキャラクターシミュレーションフレームワーク)を開発し、アカデミー科学技術賞を受賞しています。Crawford Doran、Essex Edwards、Ravi Agrawalなどの業界のエキスパートが、彼らの深い専門知識をUnityにもたらし、すべてのアーティストにこれらのツールを普及させる手助けをしてくれるでしょう。

ユニティとジーバは、共に成長しながら、ユニティの技術を使用する多くの革新的なチーム、クリエイター、エンジンに貢献し続け、デジタルヒューマンやクリーチャーのためのユニティツールの進化に強く投資していきます。

参考資料

Unreal LiveLink for Maya

MayaとUnrealの間でアニメーションデータを交換するための新しいライブリンクプラグイン「Unreal LiveLink for Maya」が公開されています。

もともとEpicGamesによって開発されたLiveLinkを、オートデスクと提携してツールの機能を拡張して、アーティストやスタジオのニーズをより適切に満たすように更新した物のようです。

https://apps.autodesk.com/MAYA/en/Detail/Index?id=3726213941804942083&appLang=en&os=Win64

 

概要

Unreal Live Link プラグインを使用すると、Maya から Unreal へアニメーション データをリアルタイムでストリーミングすることができます。
バーチャルプロダクション環境で 2 つのツール間で作業を行っている場合でも、次のゲームを作成している場合でも、Maya でキャラクタ アセットを処理し、変更を加えるとすぐに Unreal に反映されるプレビューを確認することができます。

 

主な機能

  • 簡素化されたインストール環境により、数分で使用開始することができます
  • 新しい合理的なインターフェイスにより、Unreal にストリーミングする Maya アセットを簡単に定義および管理することができます
  • ジョイント階層トランスフォームを接続することで、キャラクタ間のアニメーション ストリーミングを可能にします
  • ブレンドシェイプがサポートされているため、顔の表情やリップシンクなどのキャラクタの変更を行い、Unreal でその変更をコンテクストで確認することができます
  • トランスフォーム、画角、焦点距離、フィルム ゲート、カメラ アパーチャ、フィルム アスペクト比、被写界深度、フォーカス距離、fStop などのカメラ属性がサポートされています
  • 色、強度、コーン角、ペナンブラ角などの照明調整もサポートされています
  • シーンのタイムコードは、メタデータとして Unreal にストリーミングされるため、Maya と Unreal 間でプレイヘッドの同期をとることができます
  • バックバージョン対応により、Maya 2018からMaya 2022までプラグインを使用することができます

Live Link を使用して Unreal Engine 4 を Maya に接続する
https://docs.unrealengine.com/4.27/en-US/AnimatingObjects/SkeletalMeshAnimation/LiveLinkPlugin/ConnectingUnrealEngine4toMayawithLiveLink/

Unreal Live Link for Autodesk  Maya プラグインを使用する方法 (リンクが機能していないっぽい)
https://www.autodesk.com/unreal-livelink-docs

Maya ラーニング チャンネル
https://www.youtube.com/playlist?list=PL8hZ6hQCGHMWtAxA5TQAjgeWmZ9MeVRtF


参考資料

The Matrix is Unreal

先日公開された映画マトリックスを題材にしたUnreal Engine 5 のデモのインタビュー記事が公開されています。

車に人が反射してるなと思ってましたが、リアルタイムレイトレースだったんですね。ネオとトリニティが掛け合うシーンと、街のワイドショットがプリレンダーで他はリアルタイムらしいですが、車内の掛け合いがリアルタイムだったなら凄い。

https://www.fxguide.com/fxfeatured/the-matrix-is-unreal/

1999年、キム・リブレリはマトリックスのオリジナル映画でバレットタイムのスーパーバイザーを務めました。現在、彼はEpic GamesのCTOを務めており、彼とチームはマトリックスに帰ってきたところです。
UE5で示された技術的な進歩と新作「The Matrix Awakens」との驚くべき結びつきで、新しい技術デモAn Unreal Engine 5 Experienceが開始されました。この最先端のショーケースは、PlayStation5とXbox Series X/Sで無料でダウンロードできます。

この境界を越える技術デモは、WarnerBrosのThe Matrix Awakensの世界におけるオリジナルコンセプトピースです。ラナ・ウォシャウスキーが監督・脚本を手がけた、ウィットに富んだ巧妙なシネマティックです。キアヌ・リーブスとキャリー・アン・モスのデジタルバージョンが登場し、二人の俳優がスキャンされて複製され、1999年のネオとトリニティの役をそのまま再現しています。

編注:この体験は映画の一部ではなく、UE5 でできることを紹介するための技術デモです。

 

今週初め、チームにインタビューした際、シニアキャラクターアーティストのLana Lanは、「このプロジェクトは、UE5の進化、優れた芸術性と技術、そしてキャラクターに関する新しいスキャン技術の多くを表しています」とコメントしました。
Epicチームの目標は、新しく進化した技術をすべてテストして押し進め、UE5がクリエイターのために準備万端であることを本当に確認することでした。「学んだことの多くはツールに折り返されると思いますし、また来年にはこの多くをコンテンツサンプルとしてリリースする予定です」と付け加えています。

ゲーム機のダウンロードパッケージは約28ギガで、当初は国内のゲーム機で何ができるかをリアルタイムに見せるためのものです。その後、都市などのアセットパーツは、Epicのメインサイトからダウンロードできるようになり、デスクトップパソコンで探索できるようになる予定です。

 

このプロジェクトには、James McTeigue、Kym Barrett、John Gaeta、Jerome Platteaux、George Borshukov、Michael F Gayが参加し、SideFX、Evil Eye Pictures、The Coalition、WetaFX(旧称Weta Digital)などのパートナーやEpic Games全体のチームと共同しています。

ワコウスキー、リブレリ、ゲータの3人は、3部作の時代からの友人です。「私が Matrix の新作を作ることを彼らに告げると、Epic のサンドボックスで遊ぼうと提案されました」と Wachowski 氏は語ります。「そして、なんということでしょう、このサンドボックスは!」とWachowski氏は言います。

映像はプリレンダリングされた2つのショットを除き、すべてリアルタイムでレンダリングされています。ネオとトリニティが掛け合うシーンと、街のワイドショットの2つです。
これはデータが膨大なため、アセットの読み込みに時間がかかり、体験のテンポが崩れてしまうからです。これらのショット以外は、標準的なゲーム機でリアルタイムにレンダリングされます。

 

デジタルアクター

デモではキアヌ・リーブスとキャリー・アン・モスが、驚くほどリアルなデジタルヒューマンとして演技と肖像画を披露しています。これを実現するためにEpicの3Lateralチームは、Novi Sadのスタジオで俳優の顔の高忠実度3Dスキャンとパフォーマンスの4Dキャプチャを行いました。リーブズとモスはドイツにいたため、セルビアに飛び1日かけて顔と4Dスキャンを行いました。

「EpicのシニアテクニカルアーティストであるPete Sumanaseniは「このプロジェクトは本当にタフでした」CG のキアヌ・リーブスを、本物のキアヌと同じショットに登場させたのです。
ティーザー予告編が公開された直前の1週間、人々はデジタル キアヌを見ているのか、それとも実際の俳優を見ているのか混乱していましたが、ツイッターの驚くべき反応から判断すると、Epicチームは成功したのです。

今でも、人々は何度も映像を見て混乱しています。「初めて見る古いキアヌは、私たち(Epic)が撮影した彼のビデオ撮影でした」とPeteは説明します。「モーフィアスを追って戻ってきた後は、すべてCGバージョンです。同じに見えるように色調補正をしたんだ。
また、鏡に映った映像が見える箇所がありますが、これはUE5でコンプした本物のフィルム映像でした。モーフィアスの最初のショットもCGではなく、その後、若き日のトーマス・アンダーソン(ネオ)が登場するとCGになる。冒頭のアンダーソンが寝ている机のシーンも、オリジナル映画のシーンをリアルタイムに再現したものです。

 

Epicのチームは、さまざまな新しい技術をたくさん使いました。3Lateralチームは、さまざまなスキャンソリューションとシナリオを使用しました。彼らは7台のステレオペアのカメラを搭載したモバイル4Dスキャナーを使用し、このデータは特に価値のあるものであることが証明されました。
また、EpicのCubic Motonチームによって作られたHMC IIリグと、よりクラシックな交差偏光スキャンアレイも使用しました。特に、IO用にキャプチャされたダイアログに対してオフラインで実行されるポーズベースのソルバーを使用したそうです。

しかし、スキャンが進歩しても、CG素材やリグ、そして背景のキャラクターはすべて、現行のMetahumanの技術です。主な違いは、特定の衣装や髪が必要なことです。
例えば、IOは標準的なメタヒューマンの編み込みではない、複雑な髪の手入れをしています。ヘアについては、グルーミングを外部で行い、インポートしています。

オリジナルのミートマイクのプロジェクトに携わっていたアダムは、UEのヘアが時代とともにどのように変化してきたかを説明します。
「Digital Mikeの時はXgenを使用し、小さなジオメトリストリップをエンジンにインポートしました。それ以来、私たちはより良いワークフローとシステムを作るために多くの努力を払ってきました。今ではジオメトリストリップを持ち込むのではなく、スプラインを持ち込んで、そのガイドスパインヘアからヘアが作成されるようになっています。インポートされるとすべてのヘア ダイナミクスが Engine でリアルタイムに生成されます」

 

体験者の台詞はすべて、セルビア滞在時に録音された本人の声です。ほとんどの場合3Lateralのチームは、俳優が言ったセリフの一つひとつを4Dキャプチャーアレイで撮影しました。
メインの台本に加えて、俳優たちはROM(レンジ・オブ・モーション)を行いました。変更されたセリフもありましたが、その場合は機械学習プロセスで顔の動きを推測し、3Lateralのリグを駆動させました。

3Lateral Studioのリードテクニカルアニメーターのマルコ・ブルコヴィッチは「しかし、新しい4Dキャプチャ技術を使ってキャプチャされリファレンスされなかった、カメラの近くで配信されたセリフはありませんでした」と説明しています。

 

主役のキャラクターはルックデヴが多く行われましたが、通常の3Lateral Metahumansがベースになっています。「彼らは他のキャラクターと同じメタヒューマンのフレームワークに基づいており、すべてのLOD(詳細レベル)とすべてのフェイシャルコントロールを担当するシステムは、すべてのキャラクターで同じです」

例えばキャラクターの目は、角膜の膨らみと強膜への移行方法をより正確にモデル化するために、ベースモデルにいくつかの調整を加えた、すべてメタヒューマンの目です。
ベーススキャンはEpic GameのChris Evansの目をベースにしています。Lana Lan 氏は「眼球のさまざまな軸をすべて把握するために、眼科の論文のウサギの穴に入り込みました。チームは目のモデルを作り、それをクリスの目のスキャン画像と比較しました。そこから、キアヌとキャリー・アンの目を正確に表現できるように調整したのです」

 

キアヌのディージングの実現は、より困難なことのひとつでした。Epic Gamesのシニアキャラクターアーティスト、アダム・スカット氏。
キアヌがスキャンを受けるために3Lateralを訪れたとき、彼はメインユニットでの撮影を終えており、髭も剃っていました。しかし、57歳の俳優の若返りは、1999年当時の完璧なリファレンスがなかったため、複雑なものとなりました。「完璧なニュートラルポーズがなく、さらに1999年のユニバーサルキャプチャーを参考にしました」とアダムはコメントします。

オリジナルのマトリックスでは、主要な俳優たちはHDカメラをサイドマウント(9:16)して撮影されました。しかし、Sony F900sのISOの関係で、マルチカメラのパフォーマンスキャプチャーは非常に強い照明を使用していました。「彼は非常に暑く、明るい照明の下にいたので、目を細めていたと思うし、屋外のリファレンスもあったが、サングラスをかけていました」

衣装は実際にトリニティスーツを作ってもらい、モデルに着せました。その後、スキャンしてリファレンスしました。デジタル衣装は、アダム・スカットが担当しました。
「また、ワーナー・ブラザーズから大量のアーカイブを入手し、オリジナル映画のキャリー・アン・モスのリファレンスも用意しました。このリファレンスを使って、Marvelous Designerで彼女の服を作りました」

 

 

メタヒューマン クリエイター

オープンワールドの都市環境には、『MetaHuman Creator』の発売当初に2人いたローンチキャラクターのうちの1人である主人公のIOが登場します。

エクスペリエンスの制作にあたっては、CPU、グラフィックス、パフォーマンスの予算がありました。例えば、CGキャラクターが白地にいるときは背景がないため「レイトレースされたエリアライトをより多く使うことができました」とピートは振り返る。

「一方、車に乗り込むときは、複雑な背景のためにバッジェットを割かなければならなかったので、ライトの数を減らさなければならなかったのです。プロジェクト開始当初は15fpsで動作していましたが、最適化されるにつれてフレームレートが急速に上がりました。4Kテクスチャを多用し、ジオメトリを多用し、Lumenを使い、それ自体にコストがかかり、太陽光のための新しいシャドウマップ技術を使い、もともとすべての限界に挑戦していたのです」

ただし、最終的なエクスペリエンスは、PS5またはXBoxシリーズX / Sで実行されているゲームで何が可能かを示しており、ゲームデザイナーがゲームの通常のメカニズムを実行できるようにするCPUヘッドルームがまだたくさんあります。チームは新しいAAAゲームで実現できることに対して非現実的なデモを作成することを望んでいませんでした。

 

 

ワールドビルディング

サンプルプロジェクトのValleyof the Ancientが、UE5で利用可能な新しいテクノロジーのいくつかを垣間見せたところ、The Matrix Awakens:Unreal Engine5 Experienceは、インタラクティブなデモゲームであり、誰でもリアルタイムで実行できるエクスペリエンスであるため、さらに一歩進んでいます。

すぐにダウンロードしてください。 体験はカットシーン、最初のシューティングゲームのデモセクションで構成され、最後にユーザーは探索できる都市があります。

デモのアクションシーンの多くは、エキサイティングなショットをキャプチャするために街中を車で運転する乗組員から始まりました。 チームはシミュレートされた宇宙を使用して、実写映画製作者が都市を偵察してストーリーを伝えるのに最適な通りを見つけるなど、映画のコンテンツを作成することができました。

テクニカルデモでは、以前に紹介されたUE5の機能であるNaniteとLumenも展示されています。 インタラクティブな追跡シーケンスの後、ユーザーはUE5の仮想化されたマイクロポリゴンジオメトリシステムを使用して、密集したオープンワールドの都市環境を歩き回ることができます。

260 kmの道路、512 kmの歩道、1,248の交差点、27,848のランプポスト、12,422のマンホールが、実際のロサンゼルスのダウンタウンよりもわずかに大きい仮想世界にあります。
さらに、街をドライブしたり歩き回ったりすると、35,000人のメタヒューマンが日常業務を行っているところを通り過ぎることができます。

「確かに、私たちに最も近いものが実際のメタヒューマンであり、遠くにあるものは、メタヒューマンから生成された頂点アニメーションの静的メッシュであるという近接性があります」とLanaLan氏は説明します。

建物は法線マップではなく、Naniteの何十億ものトライアングルでできているため、非常に精細です。 建物にはすべてのディテールが組み込まれているため、ユーザーは任意の建物まで歩いて行き、完全にディテールになっていることを確認できます。

「ジオメトリに含まれるものはすべてモデル化されており、法線マップではありません。 高解像度モデルです」とラナは言います。 平均ポリゴン数は7000kで、建物は1000のアセットで構成されており、各アセットは最大で数百万のポリゴンになる可能性があるため、都市の建物だけを構成する数十億のポリゴンがあります。

街には、ナンバープレートから主要な開発者のショップまで、イースターエッグが用意されています。ラナは宝石店、ピートは何を売っているのか忘れてしまったのです!結局、この街は幅4,138km、長さ4.968kmもあるので、迷子になるのは簡単です。

 

ライティング

Unreal Engine 5 の完全ダイナミック グローバル イルミネーション システム Lumen は、リアルタイム レイトレーシングを活用して、デモのインタラクティブな部分全体でリアルな照明と反射を実現します。
リアルタイム レイトレーシングは、シネマティックな要素にも使用され、キャラクターの美しくリアルなソフトシャドウを生成しています。

ワールド全体の照明は、メッシュ上の太陽、空、放射性マテリアルのみで行われています。数万個ある街灯やヘッドライトの光源は配置していません。夜間モードでは、ほぼすべての照明が、数百万個の発光する建物の窓から照らされています。

このプロジェクトは1年以上前に始まり、60人から100人ほどのアーティストが参加し、多くはリモートで作業していた巨大なものでした。 マトリックスの覚醒 An Unreal Engine 5 Experience はゲームではありませんし、今後ゲームとしてリリースされることもありませんが、この技術デモは、インタラクティブ コンテンツの将来像を示すものであり、最先端のコンソール向けビジュアルの水準を示すものとなっています。

「キアヌ、キャリー、そして私は、このデモの制作をとても楽しみました。Epicのサンドボックスは、実験と大きな夢が大好きな彼らにとって、かなり特別なものです。シネマティック・ストーリーテリングの未来がどうであれ、Epicはその進化に少なからず貢献してくれるでしょう」

この新しい体験の舞台となるのは、広大で探索可能なオープンワールドの都市で、豊かで複雑な世界です。16キロメートル四方のフォトリアルで素早く移動できるこの街には、リアルな住民や交通機関が存在します。