参考資料

参考資料

Tor Frick チュートリアルが無料化

Tor Frickさんのチュートリアルが無料になりました。割引コード「Free」を使用して無料で入手できます。

https://snefer.gumroad.com/

Automatic materials and Rendering in Modo

このチュートリアルは、ModoでUVなしの自動マテリアルをゼロから作成する方法と、それらをレンダリングしてPhotoshopで合成し、最終的に表示されるレンダリングを作成する方法についての詳細なウォークスルーとなっています。

マテリアルの設定方法、シェーダーツリーの使い方、タイリングを隠すトリック、さまざまな種類のマスキングを最大限に活用する方法、プロシージャルテクスチャの使い方、MODOのアセンブリの使い方、さらにレンダリング、レンダリング時間の最適化、照明の基本トリック、合成の仕方、レンダリングのチーティングとPhotoshopでのテクスチャペイントの方法を解説しています。

  • 3.5時間以上のナレーション付きビデオ
  • Modoのシーン、テクスチャ、Photoshopのファイル例

 

Transport vehicle tutorial

このチュートリアルでは、ModoでこのSF車両のブロックアウトからハイポリレンダリングまでの全過程を説明します。ブロックアウトの段階から、キットバッシングセットの組み立て、車両全体のモデリング、さらにデカールの作成、マテリアルの作成、Modoでのレンダリングに至るまで説明します。このチュートリアルは、Modoの中級ユーザー向けですが、Modoとそのツールの使い方をある程度知っていることが前提です。

  • 8.5時間以上のビデオ映像
  • 完成したモデル+レンダリングに使用したテクスチャ
  • ブロックアウトモデル

 

Transport lowpoly tutorial

このチュートリアルでは、前回のチュートリアルで作成したトランスポートビークルをローポリで作成し、Modoでアンラップしてベイクし、フォトショップでテクスチャを組み合わせてからUE4/marmosetに取り込みます。

3時間以上のナレーション付きビデオと、さらに2.5時間のタイムラプスビデオがあります。また、ローポリのソースファイル、フル解像度のテクスチャ、テクスチャシートの1つのソーステクスチャの例も入手できます。

 

How to get faster in Modo

このチュートリアルでは、Modoでのモデリングをより速く行うための方法について、私のプロセスと考えを説明します。

ホットキーの設定方法、特定のツール内でホットキーを設定する方法、マクロやピーマンの作成方法、さらに設定ファイルの編集や独自の自己完結型設定ファイルの作成について詳しく説明します。また、より速くするための新しい方法を見つけたり、モデリングプロセスの遅い部分を改善したりするために行っていることについても少しお話ししています。

  • 48分ナレーション付きビデオ
  • 動画にある自己完結型のコンフィグ例
  • ホットキー設定ファイルの例

 

Introduction to Modo

このビデオは、完全な初心者を対象とした、Modoでのモデリングに関する基本的な入門書です。インターフェイスやモデリングからUVやレンダリングに至るまで、非常に基本的なレベルで説明します。

このビデオは、Modoの簡単な紹介と、どこに何があるのか、どのように動くのか、また一般的なヒントやトリックを知りたい人を主な対象としています。特定のツールについて深く掘り下げることはしませんが、modoを使いこなすために知っておく必要があると思われる基本的なことをカバーするように努めています。

  • ナレーション付きビデオ: 1時間7分

 

Transport tutorial bundle

このバンドルでは、2つの輸送用チュートリアルのすべてのコンテンツが提供されます。この輸送用車両をデザイン段階からハイポリレンダリング、そしてUnreal Engine 4とMarmosetビューワーで作成します。

ブロックアウトの段階から、キットバッシングセットの組み立て、車両全体のモデリング、ハイポリレンダリング用のデカールとプロシージャル素材の作成、ローポリの作成、アンラッピング、アンリアルとマーモセットへの取り込みまで、一貫して行います。

このチュートリアルは、modoの中級者向けで、modoとそのツールの使い方をある程度知っていることが前提です。

  • 14時間以上のビデオ映像(うち11.5時間はナレーション付き)
  • 完成したハイポリモデルとローポリモデルのソースファイル+レンダリングに使用したテクスチャ
  • テクスチャシートの1つのソーステクスチャ
  • ブロックアウトモデル

 

Hardsurface Kitbashset 01

このハードサーフェイスキットには、私の最新のメカプロジェクトの作成に使用された100のモデルが含まれています。

すべてのモデルはウェイトサブDジオメトリで、Modoプリセットファイル(lxl)、他の3DアプリケーションにインポートするためのAlembic、FBX、フローズンOBJファイルの両方として利用できます。41のプリセットは、polysteinキットで動作するようにセットアップされていますが、通常のプリセットとしても問題なく動作します。

  • 59種類の通常プリセット
  • 41種類のポリステインプリセット

を以下のフォーマットで提供します。

  • LXL、FBX、Alembic、OBJ、Zbrush用のIMMブラシの3セット

このパックの購入者は、modo用polysteinキットも15%割引で購入できます:

http://pushingpoints.com/v2/the-pushing-points-polystein-kit-for-modo/

これらの資産を転売することはできませんが、それ以外は私的・商業的に自由に使用することができます。

参考資料

Local & LAN Copy-Paste for 3ds Max

LAN ネットワーク内のPC、または1台のPC内で3Dエレメントをコピー&ペーストできる無料スクリプトが公開されています。
似たスクリプトだとローカルPC限定ですが「OD_CopyPasteExternal」が便利です。

https://brovar64.gumroad.com/l/copypastebybrovar

 

3Dアーティストやチームのコピーペースト作業を効率化するために設計されたこの汎用性の高い3ds Maxスクリプトで、生産性を最大化しましょう。
同じサーバーに接続された複数のコンピュータで作業したり、1台のマシンでシーン間の要素を転送したりするのに理想的なこのスクリプトは、あなたのツールキットに追加する必需品となります。

 

主な特徴

  • コンピュータをまたいだコピーペースト: 同じサーバー上のコンピュータ間で3Dエレメントを簡単にコピー&ペーストできるので、コラボレーションやリソース共有がこれまで以上に簡単になります。
  • ローカルコピーペースト: コンピュータ上の異なるシーン間でオブジェクトを簡単に転送できるため、時間を節約し、ワークフローを改善することができます。
  • ユーザーフレンドリーなインターフェイス: 直感的なUIにより、あらゆる経験レベルのアーティストがスクリプトの強力な機能を簡単に利用することができます。
  • 互換性 このスクリプトは、3ds Maxとシームレスに動作するように設計されており、既存のソフトウェアとのスムーズな統合を実現します。
  • 定期的なアップデートとサポート: スクリプトが将来の 3ds Max リリースとの互換性を維持できるよう、継続的な改善と専用サポートをご利用ください。

今すぐ生産性に投資して、3Dプロジェクトを新たな高みへと導いてください。今すぐダウンロードし、その違いを体験してください!

 

インストール方法

  1. ES_CopyPaste.mcr を 3ds Max のビューポートにドラッグ&ドロップします。
  2. scripts フォルダを 3ds Max のルート フォルダにコピーします。
  3. Local フォルダを AppData にコピーします。
  4. 3ds Max を再読み込みします。
  5. 新しいツールバーを作成し、カテゴリー "ES_CopyPaste" のスクリプトで埋める。
  6. Settingsアイコンをクリックし、保存先のローカルおよびリモート(ファイルサーバー上)のフォルダーを選択します。

 

クリティカルな修正 v1.1

  • 設定でフォルダを選択すると、保存先のフォルダが正しく保存されるようになりました。
  • 貼り付け後にオブジェクトが選択されるようになりました。
  • 保存されたオブジェクトの名称が誤解されないように修正されました。
参考資料

Epic が Metahuman Animator 発表

Epic が Metahuman Animator 発表しました。 iPhone やヘルメットに取り付けられたカメラを使用して、MetaHuman キャラクターのフェイシャルパフォーマンスを再現できる機能のようです。

https://www.unrealengine.com/ja/blog/new-metahuman-animator-feature-set-to-bring-easy-high-fidelity-performance-capture-to-metahumans

 

新しい MetaHuman 機能セットが間もなく登場することをお知らせできることを大変嬉しく思います。

MetaHuman Animator を使用すると、iPhone またはステレオ ヘルメット搭載カメラ (HMC) を使用して、顔のパフォーマンスを MetaHuman キャラクターの忠実度の高いアニメーションとして再現できます。これにより、アクタのパフォーマンスの個性、リアリズム、忠実度をキャプチャし、あらゆるディテールとニュアンスを MetaHuman に転送して、Unreal Engine で生き生きとさせることができます。

 

フォトリアルなデジタルヒューマンは、真に信頼できるパフォーマンスを提供するために高品質のアニメーションを必要としますが、これを作成するための専門知識と時間は、最も熟練したクリエイターにとってさえ困難です。
既存のパフォーマンスキャプチャソリューションでは、キャラクターに対する俳優のパフォーマンスのあらゆるニュアンスを忠実に再現することは非常に困難です。真にリアルなアニメーションを実現するには、熟練したアニメーターが、通常は骨の折れる時間のかかるプロセスで結果を丹念に微調整する必要があることがよくあります。

しかし、それは変わろうとしています!

今後数か月以内にリリースされる予定の MetaHuman Animator は、AAA ゲーム開発者やハリウッド映画製作者が必要とする高品質のフェイシャルアニメーションを制作すると同時に、インディーズスタジオや愛好家にもアクセスできるようにします。すでにポケットに入れている iPhone と標準の三脚を使用すると、MetaHuman 用に信頼できるアニメーションを作成して、自分がアニメーターではなくても、視聴者との感情的なつながりを構築できます。

 

また、MetaHuman Animator は、Technoprops 社製品など、より高品質の結果を実現できるプロフェッショナル レベルの垂直型ステレオ HMC キャプチャ ソリューションとも連動します。
さらに、ボディ キャプチャにモーキャップ システムをお使いの場合は、MetaHuman Animator のタイムコード サポートにより、フェイシャル パフォーマンス アニメーションとボディ モーション キャプチャおよびオーディオとを容易に揃えることが可能になり、フル キャラクター パフォーマンスを実現できます。このオーディオを使ってリアルな舌のアニメーションを作成することもできます。

では、この機能はどのような仕組みなのでしょうか?

重要なのは、システムがアクターの顔独特の生体構造を解析し、それをターゲット キャラクターにどのように関連付けるかを理解できるようにすることです。MetaHuman Animator では、最初にパフォーマーの MetaHuman Identity、つまり同様のトポロジを持ち、すべての MetaHuman と同じ標準リグを共有するメッシュを作成します。

Mesh to MetaHuman を使ったことのある方なら、そのプロセス中に 3D スキャンまたはスカルプトから MetaHuman Identity が作成されることをご存じでしょう。そのテクノロジーを基盤とする MetaHuman Animator では、キャプチャした少量のフッテージから MetaHuman Identity を構築します。このプロセスはほんの数分で完了し、それぞれのアクタに対して一度実行するだけで済みます。

 

このステップが完了すると、次は MetaHuman Identity を使って MetaHuman フェイシャル リグの各位置をトラックして解決することで、そのパフォーマンスが解析されます。
結果として、アクタと MetaHuman の特徴の違いにかかわらず、あらゆる細かな表現がターゲット MetaHuman キャラクター上で正確に再現されます。Unreal Engine ではこのパフォーマンス処理が可視化されて、フレームごとに、アニメート化された MetaHuman Identity をアクタのフッテージと比較することができます。

もう一つのメリットとして、クリーンなアニメーション データを得られることがあります。人間のアニメーターが行うのと同じように、コントロール カーブがフェイシャル リグ コントロール上の所定の位置に確実に配置されて、意味論的に正確になり、アート面のニーズに応じて調整することが容易になります。

MetaHuman Identity を最初から使用することで、将来的に MetaHuman に変更を加える場合や、他の MetaHuman で使用する場合も、今作成しているアニメーションが引き続き機能することが保証されます。

MetaHuman Animator の処理機能は、エンジンと同様に無料でダウンロード可能な Unreal Engine 向け MetaHuman プラグイン の一部となります。iPhone をお使いになる場合、MetaHuman Animator は iPhone 11 以降に対応しており、加えて無料の iOS 向けの Live Link Faceアプリ が必要になります。このアプリは、このワークフローをサポートするための追加のキャプチャ モードで更新されます。

参考資料

Unreal Engine 5.2 - Next-Gen Graphics Tech Demo

Unreal Engine 5.2のデモ映像が公開されています。

  • chaosダイナミクス、岩の上を運転すると岩が転がる
  • アンリアルのchaos車両モデルをセットアップし、トラックのサスペンションと電気モーターがどのように個々のホイールを駆動するかをシミュレート
  • chaosはタイヤがどのように圧縮および変形するかをシミュレート
  • メタ サウンドにより、電気モーターの音をジャングルのアンビソニックスとミックス
  • 約 7,100 万ポリゴンのポリゴンをリアルタイムでレンダリングできたのは、nanite のおかげ
  • 新しいマテリアルフレームワークを導入、オパールのデモ
  • ダート、シェーディング モデルを使用してこのようなマテリアルを作成し、それらの素材を構成してレイヤー化
  • Unreal Engine シェーディング モデルに似たマテリアルのコストはほぼ同じだが、アーティストはシネマティックスや映画のような非常に詳細なユース ケース向けにより複雑なマテリアルを自由にオーサリングできる
  • 手続き型アセンブリ
  • デモ映像はIntel 13900k CPU と Nvidia RTX 4090 GPU を搭載した開発者用マシンの Unreal Editor でリアルタイムに実行
参考資料

ShutterstockがNVIDIAと組んでジェネレーティブ3DのためのAIモデルを構築

ShutterstockがNVIDIAと組んでジェネレーティブ3DのためのAIモデルを構築が発表されました。テキストから3Dモデルを作成するサービスです。

Shutterstockの素材で学習したモデルを使用して、最初の段階では1つのオブジェクトに1つのメッシュを作成し、シンプルなカラーテクスチャのみを作成する予定とのこと。将来的には、部品の分割、サブディビジョンや、高度なテクスチャリングオプションを含むように拡張される予定らしい。

https://www.fxguide.com/quicktakes/gtc-shutterstock-teams-with-nvidia-to-build-ai-models-for-generative-3d/
https://investor.shutterstock.com/news-releases/news-release-details/shutterstock-teams-nvidia-build-ai-foundation-models-generative

 

GTCでは機械学習に基づく興味深い発表が数多くありました。例えば、クリエイティブ・プラットフォームとストック・ライブラリのリーディングカンパニーであるShutterstockとNVIDIAは本日、シンプルなテキストプロンプトから生成的3Dツールでカスタム3Dモデルを作成する機械学習プラットフォームをトレーニングするために提携すると発表しました。
3Dモデルは、NVIDIA Picasso生成AIクラウドサービスを使ってShutterstockの資産でトレーニングされ、テキストを高忠実度の新しい3Dコンテンツに変換し、作成時間を数時間から数分に短縮します。

 

新しいText-to-3Dモデルは、Shutterstock.comのCreative Flowツールキットの一部として、今後数ヶ月で導入される予定です。また、Turbosquid.comでもText-to-3D機能を提供し、NVIDIA Omniverseプラットフォームでは、3D産業メタバースアプリケーションの構築と運用に使用するために導入される予定です。

高品質で詳細な3Dモデルをゼロから構築することは、しばしば困難で時間のかかる作業となります。これは、VFXにおいても、デジタルツインシミュレーションでの使用などの産業用途においても同様です。3Dはしばしば精度を必要とし、その作業の複雑さゆえに、モデルの仕様によっては何日も、あるいはそれ以上かかることもあります。

NVIDIA Picasso ジェネレーティブAIサービスでカスタムモデルを作成することで、Shutterstockは3Dアーティストが数分でアイデアを出し、新しい形を模索することを支援します。
NVIDIA Picassoは、ジェネレーティブAIベースの画像、動画、3Dアプリケーションを構築、展開するためのクラウドサービスです。NVIDIA DGXスーパーコンピューティングクラウドを介して、生成AIビジュアルのための最高のトレーニングおよび推論性能を提供するように最適化されています。

アーティスト、TD、アニメーターは、オブジェクトの形状の作成、オブジェクトのアンラッピングの支援、ハイエンドでのテクスチャやマテリアルの生成、そして3D非力なユーザーにとっては、新しい3Dモデルを様々なアプリケーションやプラットフォームで簡単に使用できるようになります。

 

 

当初は、1つのオブジェクトに1つのメッシュを作成し、シンプルなUVカラーテクスチャのみを作成する予定です。将来的には、モデルを論理的な部品に分割する複雑なサブディビジョンや、より高度なテクスチャリングオプションを含むように拡張される予定です。

ShutterstockのTurbosquidは、貴重なデジタルバックロット資産ですが、明らかに現在のライブラリは、一般的に使用される3Dオブジェクトの作成に有利です。新しいテキストから3Dへの変換は、複雑なオーダーメイドの新しいモデルを作ることを可能にします。
このような珍しいモデルや専門的なモデルを作るには、費用と時間がかかるでしょう。現代のアジャイルなプロジェクトアプローチでは、ベースとなるモデルを作成し、それをさらに洗練された詳細なテクスチャ資産に改良する前に、クライアントに対して素早くデザインを反復することが可能になります。

NVIDIAのデベロッパープログラム担当副社長であるグレッグ・エステスは、「ジェネレーティブAIの変革能力により、ソフトウェアメーカーや企業は、デジタルツイン、シミュレーション、デザイン用の3D資産を作成するために簡単なテキストプロンプトを使用するツールを構築し、アーティストが膨大な時間と労力を節約することが可能になります」と述べています。
「ShutterstockのカスタムモデルをNVIDIA Picasso生成AIクラウドサービスでトレーニングすることで、開発者はアーティストにとって面倒な作業の多くを自動化できるツールを手に入れ、新しいコンセプトの探求やアイデアの洗練に多くの時間を割くことができるようになります」

アーティストに対して倫理的かつ公平であるために、Text-to-3Dへの統合プランは、アーティストから作品を「盗む」ことなく、また通常のTurbosquidマーケットプレイスを通じてジェネレーティブに作られた資産を販売することもできないように構築されています。また、両社は、フリーランスの3Dアーティストを支援し、彼らを公平に扱えるようにすることを強く望んでいます。

Shutterstockは、責任あるAIへの取り組みの一環として、また、Shutterstockのプラットフォームでカスタマイズされた3Dモデルの販売に関連して、ジェネレーティブ技術のトレーニングにおいて彼らのIPが果たす役割に対して、コントリビューターファンドを通じてアーティストに補償を行う予定です。

参考資料

ゲーム開発パイプラインにUSDを実装する。ポリフォニー・デジタル社インタビュー

グランツーリスモにUSD採用のインタビューが公開されています。CEDEC 2022の方が詳細な話だった気がするけど、とりあえずメモ。
どうしてNVIDIA?と思ったらOmniverse関連なのか。

https://developer.nvidia.com/blog/implementing-usd-for-game-development-pipelines-an-interview-with-polyphony-digital/?ncid=so-twit-535123

 

株式会社ソニー・インタラクティブエンタテインメントの子会社で、『グランツーリスモ』を開発したポリフォニー・デジタルは、30年にわたるプレイステーション用ソフトウェアタイトルの累計セルスルー売上が90M本を突破しました。2022年に発売された『グランツーリスモ7』は、シリーズ開始から25周年を迎え、「Universal Scene Description(USD)」の実装が行われました。USDは、3Dワールド内の描写、合成、シミュレーション、コラボレーションを行うためのAPIを備えたオープンシーン記述です。

Tools Pipeline Engineering Leadの安藤 恵美は、NVIDIAの最新リリースにおける統合プロセス、およびポリフォニーのゲーム開発パイプラインにおける採用計画について、NVIDIAと対談しました。

 

ゲーム開発のパイプラインにUSDを採用した理由は?

USDの技術は、映像制作のための大規模でマルチユーザー、多様なアセットパイプラインをサポートしています。映像制作用に設計されたライブラリですが、大規模で複雑なパイプラインをサポートするUSDの仕組みは、ゲーム内制作にも活用できると考えています。USDには、コンポジション、アセットリゾルバー、ファイルフォーマットプラグイン、カスタムスキーマなど、パイプライン構築に必要な機能がすでに用意されているため、私たちのパイプラインに合うように対応しました。

 

USDに変更することで、これまでできなかったことができるようになったのでしょうか?

USDは、Houdiniなどの異なるツールで編集できるという点で、以前のフォーマットとは異なります。USDのコンポジションはこれまでのフォーマットとは異なり、非破壊でデータを編集することが可能です。ゲーム独自の仕様が書かれたデータでも、データを失うことなく、さまざまなツール間で行き来することができます。

「グランツーリスモ」では車やコースなどのアセットを主にAutodesk Mayaで制作していますが、そのデータは非常に複雑です。様々なプラグインや仕様を設定するためのツールも多く、それらをHoudini用に再実装するのはコストがかかりました。

特にシェーダーは複雑でHoudiniでシェーダーのプレビューや編集を行う環境を新たに開発するのはコストがかかり、すぐに実装するのは難しい。しかし、USDでは、モデリング中にAutodesk Mayaでマテリアル設定を行い、マテリアルの割り付けはHoudiniで行うことが可能になりました。

 

他のファイルフォーマットではなく、USDを選んだ理由は何ですか?

複数のツールで非破壊かつプロシージャルにシーングラフを扱えることです。ゲームの場合、DCC(Digital Content Creation)ツールで様々な専用仕様が設定されています。従来のフォーマットでは、異なるツールで編集する場合、それぞれのツールでパラメータを扱わないと正しく扱えませんでした。

ゲーム制作においても映像制作と同様に、多くの人が同時に多くのアセットやショットを制作しながら、様々なゲーム仕様を追加していくことが可能です。USDはコンポジションが非破壊編集に使えるので、複数のツール間をスムーズに行き来することができ、こうした問題を解決しています。

 

USDを統合する過程で、どのような課題に直面したのでしょうか?

現在のパイプラインは巨大で、それを一度にUSD化するのは不可能でした。パイプラインの運用を維持しながら、部分的に移行を進めていく必要がありました。

 

最初に取るべき推奨される小さなステップは何でしょうか?

まず、実際のプロジェクトに導入する前に、独立したプロジェクト(できれば既存のシステムとは別に)を立ち上げて、USDの仕組みを理解する必要があります。

USDをゲームのアセットとして使用する場合、映像制作とは異なり、ゲーム制作に特化したスキーマや編集ツールが確立されていないことを理解することが重要です。USDの仕様やデータ構造、API仕様などを理解する必要があります。アセット制作に導入する前に、XMLやJSONなどのファイル形式を覚える必要があります。ゲームの仕様に合わせて自社で開発することが必要です。

変換パイプラインのパラメータを管理するフォーマットとして、USDを導入しました。アセットデータと違って、すべてが小さなASCIIファイルになっています。データの構造がわかりやすく、レイヤー、ステージ、スキーマといった概念も理解しやすい。この利点が、アセット制作におけるシステム導入の土台となりました。

 

今後のゲーム開発でも、USDを使い続ける予定ですか?

もちろん、そうしています。USDを採用した「グランツーリスモ7」でも、まだ実装は限定的でした。USDを前提としたアセットの仕組みや公開環境の構築に取り組んでいます。制作の反復性を高めるなど、チャレンジできるところはチャレンジしていく予定です。

 

ゲーム業界でUSDを普及させるために必要なことは何だと思われますか?

ゲーム制作では、映像制作のように確立されたスキーマが存在しません。KATANAやHoudini SOLARISのように、USDをレイアウトして、ライティングして、レンダリングして......という環境は存在しません。ゲームエンジンでレンダラーを使えるようにするには、レンダラーの代わりに変換パイプラインを用意するか、ゲームエンジンを使うしかない。

 

アーティスト、テクニカルアーティスト、アートディレクター、スタジオ幹部は、USDへの移行にどのような反応をしているのでしょうか?

MayaやSOLARISなどのDCCツールでUSD対応が進むなど、アーティストやテクニカルアーティストは、データ互換の柔軟性や安定性、効率性が向上したことに満足しています。また、オープンソースライブラリを積極的に活用することで、開発リソースを制作固有の課題に集中させることができ、経営面でも大きなメリットがあります。

 

USDの導入を皆に納得させた、最も説得力のある主張は何だったと思いますか?

USDであれば、すぐに対応した共通環境でテストができます。メタバースアプリケーションを構築・運用するためのリアルタイム設計連携・シミュレーションプラットフォーム「NVIDIA Omniverse」をはじめ、さまざまなツールの対応が進めば、今後さらにUSDを採用するメリットは大きくなると思います。

参考資料

Epic Games Store セルフパブリッシングツールをリリース

誰でもEpic Games Storeに自分のゲームを出せるようになったそうです。Unreal Engineを使っている場合はエンジンの使用料無料。Unityなど別のゲームエンジンを使用している場合でも販売可能らしいです。

https://store.epicgames.com/ja/news/epic-games-store-launches-self-publishing-tools-for-game-developers-and-publishers
https://store.epicgames.com/ja/distribution?lang=ja

 

Epic Games Storeにて、ゲームデベロッパーとパブリッシャー向けのセルフパブリッシングツールをリリース

本日、Epic Games Storeにてセルフパブリッシング機能がリリースされます。 これらのツールを利用することで、デベロッパーやパブリッシャーは効率的にゲームをリリースできるようになり、ストアのプレゼンスを直接維持しつつ、6800万人以上もの月間アクティブユーザーという成長中のオーディエンスにアプローチできるようになります。

 

Epic Games Storeでゲームをリリースしましょう

Epicのデベロッパーポータルを利用すれば、新たに登場したセルフサービス パブリッシング ツールを使用してゲームをリリースできます。 これらのツールは、ストアの要件(詳細は後述)を満たすゲームを開発しているデベロッパーやパブリッシャーであればどなたでもご利用になれます。

 

Epic Games Storeの主な要件

ストアは、Epic Games Storeの要件を満たすタイトルを開発しているすべてのデベロッパーとパブリッシャーに開かれています。 これらの要件は、ひとつのストアに縛り付けることなく、最高の体験をプレイヤーに提供するためにデザインされています。 主な要件は以下の通りです。

 

  • マルチプレイヤーゲームのPCクロスプレイ
    マルチプレイヤーゲームは、すべてのPCストア間でのクロスプレイに対応している必要があります。 そうすることで、どのストアでマルチプレイヤーゲームを購入したプレイヤーも、ゲームの購入場所に関係なく、他のプレイヤーと簡単につながることができます。 これを実現するには、ご自分でクロスプレイシステムを実装するか、サードパーティ製のSDKを使用するか、Epic Online Servicesを無料で利用することができます。 詳細はこちらをご覧ください:PCのクロスプレイ機能の有効化
  • Epic Games Storeの実績
    2023年3月9日(米国時間)より後にEpic Games Storeのパブリッシングツールにオンボードされたすべてのゲームは、他のPC向けストアで実績が用意されている場合、Epic Games Storeでも実績を有効にする必要があります。 そうすることで、ゲームの購入場所に関係なく、プレイヤーの体験を統一できます。 詳細はこちらをご覧ください:実績の設定
  • 地域配信の年齢レーティング
    Epic Games Storeは国際年齢評価連合(IARC)と提携し、デベロッパーが必要に応じてレーティングを直接取得できるように支援しています。 こちらのサービスは、Epic Games Storeより無償で提供されます。 ゲームが公式のレーティングシステムによるレーティングをすでに取得している場合は、ストアのゲームページにレーティングを表示しなければなりません。 詳細はこちらをご覧ください:レーティング
  • 禁止されているコンテンツ
    特定の種類のコンテンツはストアで禁止されています。これには以下の行為を含みますが、これに限られるものではありません: 悪意のある、または差別的なコンテンツ、ポルノ、違法なコンテンツ、所有権または使用権利を持たない知的財産を侵害するコンテンツ、偽のゲームやマルウェアなどの詐欺や虚偽、不正行為。 詳細はこちらをご覧ください:禁止されているコンテンツ
  • ゲームの品質
    ゲームは、ゲームページで提供するアセットと説明通りにダウンロード、インストール、起動、機能する必要があります。 Epicは、品質と機能が基準を満たしていないと判断したゲームを拒否する権利を留保します。 詳細はこちらをご覧ください:コンテンツのガイドライン

Epic Games Storeでゲームをリリースするべき理由

  • 世界中の2億3000万人以上のユーザーにアクセスしましょう。 その他の統計は、こちらの2022年の総括ブログでご確認いただけます。
  • パブリッシャーは、Epic Games Storeで販売されたゲームの収益の88%を受け取ることができます。また、自社製またはサードパーティ制の決済方法を使用すれば、アプリ内課金による収益の100%を受け取ることができます。
  • Epicのデベロッパーポータルには、IARCのレーティング(一部の国では必須で、他の国でも非常に有用)を無償で取得するためのプロセスが統合されています。
  • Epicは、ゲームページのプロフェッショナルなローカライズを追加費用なしで提供しています。 こちらのサービスは、デベロッパーポータルのサポートチケットでお申し込みいただけます。
  • クリエイターサポートは、収益の一部をシェアしてコンテンツクリエイターにインセンティブを与えることで、ストアの外でゲームの売り上げを伸ばせるアフィリエイトプログラムです。
  • Unreal Engineで制作されたゲームは、Epicの決済代行会社を利用してストア内で購入された場合、エンジンの使用料が免除されます。 独自の決済代行会社を利用したアプリ内課金や製品は、エンジンの使用料が免除されません。
    さあ、準備はいいですか? 今すぐ登録しましょう
参考資料

オープンソース パイプライン プラットフォーム「AYON」早期アクセス開始

アニメーションおよび VFX スタジオでのワークフローを高速化するために設計されたオープンソース パイプライン プラットフォーム「AYON」の早期アクセスが開始されました。

https://ynput.io/early-access-to-ayon-available-now/

 

AYONのアーリーアクセスを開始しました

アニメ・VFXスタジオと共同で作られたクリエイティブチーム向けオープンソースパイプライン

 

アニメーションやVFXスタジオのワークフローを加速させるオープンソースのパイプラインプラットフォーム、AYONの早期アクセスリリースを発表します。2018年以降、AYONの派生版がOpenPypeの名で数百のプロジェクトで実稼働して使用されています。
AYONはアニメーションやVFXスタジオで見られる複雑なワークフローをサポートするスケーラブルなパイプラインを構築するために不可欠な基盤を提供します。モジュール式のアプローチで、強力なパイプラインツールは、業界標準の幅広いクリエイティブアプリケーションやプロダクショントラッキングソフトウェアへのデータ転送を自動化するのに役立ちます。

スタジオが小さなチームに分断されたり、新しい分野へのサービス拡大を目指す中で、制作実績があり、ハイブリッドワークにも柔軟に対応し、さまざまなプロジェクトタイプに対応できるパイプラインの必要性はますます高まっています。スタジオを一から立ち上げるには、複数の部署、場所、ソフトウェアパッケージ、データソース間のギャップを埋めることができるパイプラインが必要です。

Cloth Cat Animation の CEO である Jon Rennie 氏は述べています。

AYONは、私たちが使用しているツールが複数の企業で使用されていることに自信を与えてくれます。つまり、業界標準と他の場所でテストされ、すべてがオープンソースであることがわかります。Ynputがそばにいることで、私たちはアニメーションサービスとしてクライアントに提供できるものに、より自信を持つことができます。パイプラインが問題であることを心配する必要はありませんし、それがうまくいくこともわかっています。その代わり、当スタジオではアニメーションのクオリティに重点を置いており、それを実現できることもわかっています。

YnputのCEO兼創設者であるMilan Kolar氏は述べています。

当初からスタジオと密接に連携することで、堅牢なパイプラインの導入と維持に関連する複雑な課題を解決することができました。AYONのリリースにより、スタジオオーナー、スーパーバイザー、パイプラインTDは、パイプラインがテストされ、新しい規格が導入されるにつれて継続的に進化しているという確信を持って、ワークフローを完全に制御する機会を得ることができます。私たちは、クリエイティブスタジオが信頼できるオープンソースのパイプラインを提供できることを嬉しく思っています。

 

 

クリエイティブスタジオと一体となって作り上げた強力なパイプライン

AYONで利用できる機能は以下の通りです。

  • レディメイドテンプレート : 2Dアニメーション、3Dアニメーション、VFXなど、さまざまなプロジェクトタイプに合わせた設定済みのテンプレートで、簡単にプロジェクトを開始することができ、あらゆるタイプのプロジェクトに対して無限の可能性を創造し保存する柔軟性があります。
  • 迅速な導入とオンボード : スクリプトの知識がなくても設定可能なため、スーパーバイザーはTDが手元になくてもワークフローをカスタマイズできます。
  • 分離されたデータで柔軟なワークフローを実現します : Substance、Autodesk 3ds Max、Flame、Maya、Foundry Nuke、Toon Boom Harmony、TVPaint、Unreal Engineなど、Adobeの多くの業界標準アプリケーションと深く統合し、オンプレミス、クラウド、ハイブリッドワークフローをサポートします。
  • プロダクション・トラッキングと同時に使用できます : Autodesk ShotGrid、ftrack Studio、CGWire Kitsuなどのサポートにより、既存のプロダクショントラッキングツールをシームレスに使用し続けることができます。
  • USDとリアルタイムのワークフロー : リアルタイム制作のためのUniversal Scene Description(USD)およびUnreal Engineとすぐに互換性があるため、必要なときに柔軟に対応できます。
  • 無限の拡張性 : Python、REST、GraphQLをサポートするAPIを使用してカスタマイズすることで、AYONに含まれているものを超えて使用することができます。

AYONの早期アクセスは本日より開始され、無料でインストール、使用することができます。テクニカルサポート、パイプラインコンサルテーション、トレーニング、デプロイメント、メンテナンスなどの追加サービスは、Ynputのサービスチームを通じて提供されます。

参考資料

CGキャラを自動的にアニメ、ライティング、合成する AI ツール「Wonder Studio」

CGキャラクターを自動的にアニメーション、ライティング、合成する AI ツール「Wonder Studio」の情報が公開されています。投資家向けな感じがするサイトですね。

https://wonderdynamics.com/

 

ワンダースタジオ

実写のシーンにCGキャラクターを自動でアニメーションさせ、照明や合成を行うAIツール

 

ブラウザで見るVFXスタジオへようこそ

 

デコレーション

MoCapも、複雑な3Dソフトウェアも、高価なプロダクションハードウェアも不要で、アーティストに必要なのはカメラだけです。

 

ショット単位で作業する必要がない

ショット全体またはシーン全体をアップロードすると、システムは自動的にカットを検出し、シーケンス全体を通して俳優を追跡します。

 

フレーム単位の重厚なVFX作業は不要

シングルカメラで撮影された映像をもとに、俳優の演技を自動検出します。そして、その演技を、自動でアニメーション、照明、合成されたお好みのCGキャラクターに移植します。

体モーキャップ
ライティングとコンポジット
ReID
手モーキャップ
アドバンスド・リターゲティング

 

既存のパイプラインへの適応

Wonder Studio AIは、「客観的」なVFX作業の80%~90%を自動化し、アーティストには残りの「主観的」な作業を残し、すでに使用しているソフトウェアにエクスポートすることができます。

個々の要素をエクスポートする

モーションキャプチャー
キャラクターパス
アルファマスク
クリーンプレート
カメラ軌道
Blenderファイル
最終レンダリング

 

宇宙人でもできるほど簡単

複雑な3Dソフトウェアや時間のかかる学習曲線に別れを告げましょう。

 

複数のキャラクター

複数のキャラクターを割り当ててSF世界を作る。

 

ハードな VFX ショットを過去のものに

ダイナミックカメラ
ダイナミックライティング

 

独自のスタイルを与える

独自の定型化されたキャラクターを実写ショットでシームレスに構成する

 

アーティストコミュニティからの無料キャラクター

Wonder Studioで無料で使える、アーティストが制作したキャラクターの一部をご紹介します。

 

 

 

 

 

 

Wonder Studioを今すぐ入手する

3Dアーティストの方で、ご自身のキャラクターを当社のプラットフォームで紹介したい方は、お問い合わせください。

参考資料

3dsMax for V-Ray の Qt 化

3dsMax for V-RayのUIをQt化する話が紹介されていました。

3dsMaxのUIは長い間古いWin32ライブラリが使用されてきました。このため近代的なハード構成のPCでもUI描画が非常に遅くなっていました。特にパラメータの多いVrayのようなプラグインのUIでは遅さが顕著になり、「QTの描画ドライバーをDirect Xにすると少しだけUI速度が早くなる」というようなTipsが公開されるほどでした。

でそこでAutodeskは、PhotoShop、AfterEffects、Mayaなど本格的なプロ向けの製品で使用されるQtライブラリをMaxに導入したのですが、全然速く感じないどころか前よりも遅くなってる!と感じた人も多いと思います。
遅く感じるのは気のせいかと思ってましたが、実際に遅くなってたということが書かれててやっぱりかよ思いました。

そしてMax本体の多くのUIは、いまだに古いWin32で書かれた物が使われてえそうな気がします。

 

https://www.chaos.com/blog/the-qt-fication-of-v-ray

 

3D Studio Maxは、30歳を目前にした業界の老巨人です。

私たちは3D Studio Maxと強い絆で結ばれ、新しい技術が登場するたびに、ユーザーの手元に届くようにと、大切な思い出を共有してきました。

その一つがMaxのUIにQtライブラリが採用されたことです。Max内部の隠れた作業はバージョン2017くらいから始まり、バージョン2018には最初のQt UIが登場し、現在もいくつかの作業が進行中です。

Qtの導入は、老朽化したWin32ライブラリに代わって、最新の機能群、全体的な高速化、クロスプラットフォーム化などを目指すものです。

 

テストの様子

この記事で述べたことを証明するために、数年前に実施したテストと、最新のハードウェアとソフトウェアで再テストした結果を紹介します。

私は、3つの主要なマテリアルの完全なUIを再描画するのにかかる時間をベンチマークしてみました。V-Ray Material、ALSurface、FastSSS2です。これらは多くのワークフローの中心であり、多くのUIコントロールが含まれているからです。
マテリアルエディタは、可能な限りすべてのコントロールが描画されるように最大限の高さに引き伸ばされ、プレビューのレンダリングは無効にされました。

時間は100回計測され、平均化されました。その結果は、記事の中で適切な箇所に記載します。

 

金色に輝く過去......それはない

10年前に十分、あるいは速いと感じたのは、ハードウェアのスピードから私たちの期待まで、すべての体験がそれを許したからです。つまり、私たちはこの問題に対して、今よりずっと鈍感だったのです。

この理論を検証するために、私はV-Ray 3.xの最終バージョン(3.7)を使って、Max 2015上でベンチマークを行うように努めました。測定された速度はネイティブのWin32 Controlsのものであり、多かれ少なかれ過去最高の状態です。

VRayMtlクラスは再描画に1.6159秒を要しました。

VRayALSurfaceMtlは1.2955秒、VRayFastSSS2は1.2655秒とほぼ同じ時間がかかりました。

Maxでマテリアルエディタやレンダー設定ウィンドウをドラッグすると、ウィンドウがそれに追いつこうとする間にマウスカーソルが別の場所に移動してしまい、ひどいラグが発生します(現在の強力なハードウェアでは、そうするのに1秒近くかかります)。

これはパフォーマンスが不十分になっていることに気づき、早期にQtを導入したオートデスクの開発者の先見の明の賜物です。感謝。

 

成長期の痛み

Max の Qt 化が進む中、Max バージョン 2018 頃からUI のスローダウンの報告を受けるようになり、そのいくつかは単にユーザーの疲れたワークステーションに起因するものとは言えないほど大きなものでした。

この頃、私はさまざまなWin32 UIコンポーネントのパフォーマンスをベンチマークするようになり、それらが不安定な再描画速度を示すことがあることを発見したのです。
また、ウィンドウを開くのに数秒かかることもあり、MaxのUIを移動させると、さらにラグが発生しました。

この問題はMax が Win32 コントロールを Qt バージョンに自動変換しているためで、コアあたりのクロックが低いメニーコアマシンでは、ワークフローを阻害する問題になり、コアあたりのクロックが高い CPU では単なる迷惑行為にしかなりませんでした。

Qt への移行中は互換性を維持する必要があったのです。しかし、これはすべての UI コントロールに影響し、深刻な遅延や断続的なスローダウン、全体的な動作の遅れをもたらしました。

スローダウンの行き当たりばったりを示すグラフ例。縦軸は数千ミリ秒に達する。

 

落ち込みを数値化するために、同じV-Rayのバージョン(3.7)をMax 2018でテストした結果がこちらです。

  • VRayMtl:2.5436秒
  • VRayALSurfaceMtl:2.0685秒
  • VRayFastSSS2:1.9779秒

減速は比例しており、等しく約63%影響することに気づくことができます。

その間、最初のネイティブ Qt ダイアログが Autodesk Physical Material などに現れ、Win32 が遅れをとっているところでも例外的に速くなりました。スピナーやドロップダウンメニューなど、特定のコントロールタイプの再描画が最大で 10 倍速くなりました。

Qtコントロールの比較速度を示すグラフの例。縦軸は数百ミリ秒に達しています。

 

注意深い読者は、各実行がどんどん遅くなっていることにお気づきでしょう。

これは特定の Max のバージョンに関する別の問題で、特定の状況 (たとえば、長いルックデブセッション中) で私たちの惨状を悪化させるものでしたが、Qt の速度を著しく低下させるものではありませんでした。

なぜなら、その利点は無視できないほど大きく、いずれにせよ、私たちの古い家はすでに燃え尽きていたからです。

 

パラダイムシフト

Qt のネイティブなアプローチで UI を書くのは簡単ではありませんでした。古い Win32 とアプローチ、メソッド、コントロールがほとんど一致しないため、UI コードはゼロから作り直さなければなりません。

つまり、すべてのラベルを打ち直し、すべてのスピナーを配置し直し、すべての項目のデフォルトを設定し直し、さまざまなコントロールの動作をチューニングし、などなどです。もちろん、ユーザーエクスペリエンスや効率を損なわないことが理想ですが。

 

いじり倒した結果

開発者がUIを作り始めると、予期せぬ、そしてしばしば不当な動作が現れ、しばらくの間修正も不可能でした。様々な Qt コンポーネントは、古い Win32 コンポーネントと同じサイズにはならないので、アライメントがほとんど狂ってしまいます。

さらに、新しいコントロールのデフォルトのアプローチは、絶対的ではなく相対的な位置決めであり、コントロールのデフォルトのポリシーは自動スケーリングであり、Win32ライブラリの直接の継続としてそれらに期待されるものとは著しく異なる様々な動作(例えば、マテリアルやマップボタン)など。

私たちが直面した数々の災難は、Max 自体の統合と、統合された Qt ライブラリの成熟と、手を取り合って進める必要があることを明らかにしました。

UIの見た目と機能性を両立させるために、私たちは時間の余裕もなく、膨大な手間と手作業に頼りました。幸いなことにV-Rayの多くのUIレイアウトは自動的に生成され(例えば、ほとんどのレンダーエレメントのUI、VRayALSurfaceマテリアル、VRayDirtテクスチャー)、共通のコードを共有していたので少し楽になりました。

それでも、最初の概念実証のUIが完成する頃には、Qtへの移行をタイムリーに完了するために必要な作業量が膨大であることが明らかになりました。

 

総力戦だ

vMax チーム(3D Studio Max 用 V-Ray の開発者)全員が Qt 化作業に参加し、Update 1 のリリースに間に合うように最初の中間変換ステップを出荷するために、必要な作業に正面から取り組みました。

V-Rayの各ダイアログには非常に多くのUIコントロールがあるため、この作業はチーム全体で何日もかけて行う必要があり、その結果他の作業を待たせるわけにはいかず、彼らに負担がかかることになりました。

vMaxの開発者にとって、この作業は大変な期間であったと言えますが、その分質の高い結果を出すことができました。

 

プレイ状況

V-Ray 6.0 Update 1(または6.1)の時点で、Qtライブラリへの移行は基本的に完了しました。
マテリアル、マップ、様々なノード、モディファイア、そしてQtに変換できるすべての補助的なウィンドウが変換されました。

また、新しいコントロールのレイアウトや動作に関するユーザーからのフィードバックや意見を収集し、より良い翻訳を完成させ、ユーザーの生活の質を最大化するために、もう少し時間を確保することにしました。

また、QtライブラリのMaxへの統合が成熟してきたことによる副産物として、いくつかの動作の制限に対処する必要が残されています。この移行はまだ完全に完了していませんので、もう少し適応に時間がかかることを期待しています。

 

それは価値があったのでしょうか?

私たちはこの努力に報われたと感じるとともに、得られた数字にとても清々しさを感じています。

Max 2023とV-Ray 6.1のVRayMtlは0.4664秒(v3.7から再描画するコントロールが増えたとしても!)、VRayALSurfaceMtlは0.3621秒、VRayFastSSS2はわずか0.2857秒で描画されるようになったのです。

いずれの場合も、コントロールの再描画は目には見えないほど高速に行われます。同様に、ウィンドウのドラッグも瞬時に行われ、ウィンドウはマウスカーソルに釘付けになります。

 

つまり、現在のQt UIは、ネイティブのWin32よりも3~4倍、翻訳されたWin32よりも最大で7倍も速いのです。V-Ray 6 のアップデートを試してみて、Qt UI の新しい外観、スピード、使い勝手についてどう感じたか、ぜひ教えてください。

参考資料

ANIME ROCK, PAPER, SCISSORS

AIのImg2Img使用して実写をアニメ風に変換したショートフィルムが公開されています。チラつきを軽減するためにDaVinci ResolveのDeflickerを使用している。背景はアンリアルエンジン。アニメのバンパイアハンターを学習ソースに使用しているということで炎上気味です。