参考資料

参考資料

Neuralangeloによる携帯電話からのニューラルサーフェス再構成

先日Nvidiaが発表したNeuralangeloに関する記事が公開されています。

https://www.fxguide.com/quicktakes/neural-surface-reconstruction-from-a-phone-with-neuralangelo/

 

Neuralangeloによる携帯電話からのニューラルサーフェス再構成

fxguideでは、NeRFの来るべきパワーについて書いてきましたが、NVIDIAはこの分野でのリーダー的存在です。多くの場合、アーティストは、デジタルツイン、コピー、またはデジタル複製を作成するために、環境や小道具をサンプリングする必要があります。
写真測量は、必要な画像の数という点で、現実的な問題を提起しています。NVIDIAは、NeRF技術を使用して3Dモデルを作成するために、携帯電話からのビデオを使用する研究を発表したばかりです。

ニューラルサーフェス再構成は、画像ベースのニューラルレンダリングを使用して高密度の3Dサーフェイスを回復する強力な方法であることがすでに示されていますが、現在の多くの方法は、十分に詳細なサーフェス構造を持つモデルを提供することに苦労しています。

 

この問題に対処するため、NVIDIA は多解像度 3D ハッシュグリッドのパワーとニューラルサーフェスレンダリングを組み合わせた Neuralangelo をリリースしました。このアプローチは、2つの重要な要素によって実現されています。

1つ目は、スムージング操作として高次導関数を計算するための数値勾配を使用することです。次に、Neuralangeloは、生成されたハッシュグリッドに対して、異なるレベルのディテールを制御する粗から細への最適化を使用しています。

Neuralangeloは深度マップのような追加のカメラ入力がなくても、従来の手法よりもはるかに優れた忠実度で、クリップから高密度の3D表面構造を効果的に生成することができます。これにより、ドローンや携帯電話の動画などのビデオキャプチャから、詳細な大規模シーンの再構成が可能になります。

Neuralangeloは、複雑なディテールやテクスチャを持つ3D構造を生成するので、VFXプロフェッショナルは、これらの3Dオブジェクトをお気に入りの3Dアプリケーションやデザインアプリケーションにインポートし、さらにプロダクション用に編集することができます。

 

なぜフォトグラメトリーではダメなのか?

通常の画像ベースのフォトグラメトリー技術では、キャプチャするシーンを表現するために「ボリューメトリック・オキュパンシー・グリッド」を使用します。

フォトグラメトリーの各ボクセルには、様々なオリジナルカメラビューからの対応する投影画像ピクセルの間に厳密な色の一貫性がある場合、それを「占有」とマークされます。この測光学的整合性の仮定は、自動露出を使用する場合や、反射面(非ランバートリアン)材料を撮影する場合に、一般的に失敗します(もちろん、現実世界では極めて一般的です)。

NeRF技術では、NeRF 3D再構成を行う際に、複数のビューにわたってこの色の恒常性制約を必要としなくなりました。比較すると、NeRFはビュー依存の効果でフォトリアリスティックな結果を達成します。つまり、フォトグラメトリーとは異なり、サーフェスは見る角度によって変化する様を捉えているようです。

 

どのように動作するのでしょうか?

マルチビューステレオ技術を使って点群を構築することもできますが、これはしばしばサーフェスの欠落やノイズにつながり、非ランバートゥアンの材料に苦労します。NeRFは、座標ベースの多層パーセプトロン(MLP)を使用してシーンを暗黙の関数として表現するため、ビュー依存の効果を持つフォトリアリスティックな画像を実現します。3Dの空間位置を色と体積の密度でマッピングするMLPで3Dシーンを符号化します。MLPの固有の連続性をニューラルボリュームレンダリングで活用することで、空間位置間を補間する最適化されたサーフェスを実現し、滑らかで完全なサーフェス表現が可能になります。これらのMLPニューラルレンダリングの問題点は、スケール感がないことでした。しかし、最近の論文Instant neural graphics primitives with a multiresolution hash encodingがこれに対処しました。この新しいスケーラブルな表現は、Instant NGP(Neural Graphics Primitives)と呼ばれています。

Instant NGPは、マルチ解像度ハッシュエンコーディングと軽量MLPを用いたハイブリッド3Dグリッド構造を導入しており、スケーラブルな表現が可能です。このハイブリッド表現は、ニューラルフィールドのパワーを大幅に向上させ、オブジェクトの非常に細かいディテールを表現することに大きな成功を収めました。NVIDIAの新作では、この新技術を用いた高忠実度のサーフェス再構成として、Neuralangeloを提供しています。Neuralangeloは、3Dシーンのニューラルレンダリング表現としてInstant NGPを採用し、ニューラルサーフェスレンダリングによって複数の異なるビューから作業するように最適化されています。

Neuralangeloはマルチビュー画像からシーンを再構築します。Neuralangeloは、ビデオクリップからカメラビューに沿って3D位置をサンプリングし、マルチ解像度ハッシュエンコーディングを使用して位置を符号化します。高次微分の数値勾配と粗から細への最適化戦略を用いて、ニューラル・サーフェス再構成のためのマルチ解像度ハッシュ・エンコーディングの力を提供するのです。

Neuralangeloは、物体中心のキャプチャや屋内外の大規模なシーンの濃密なシーン情報を極めて高い精度で効果的に復元し、通常の映像から詳細な大規模シーンの復元を可能にします。

 

Neuralangelo'sは、屋根の板、ガラスの窓ガラス、滑らかに輝く大理石など、実世界の複雑なテクスチャや複雑な素材を持つオブジェクトを翻訳することができます。 このメソッドの忠実度の高い出力により、その3D再構成はより有用なものとなります。
「Neuralangeloが提供する3D再構成機能は、クリエイターにとって大きなメリットとなり、デジタル世界で現実世界を再現するのに役立ちます」と、研究部門のシニアディレクターで論文の共著者であるMing-Yu Liuは語っています。「このツールにより、開発者は最終的に、小さな彫像から巨大な建物まで、詳細なオブジェクトを取り込んで、仮想環境、セットリファレンス再構成やゲーム、デジタルツインで使用できるようになります」

参考資料

2D ビデオから 3D シーンを再構築する「NVIDIA Neuralangelo」

2D動画から 3Dシーンを再構築する「NVIDIA Neuralangelo」の映像が公開されています。
現在よく見かけるマルチビュー ステレオ アプローチ(複数の写真から3D形状を復元するやつ)に代わるAI ベースの研究成果らしいです。

https://blogs.nvidia.com/blog/2023/06/01/neuralangelo-ai-research-3d-reconstruction/?ncid=so-yout-296458#cid=nr01_so-yout_en-us

NVIDIA Researchが開発したニューラルネットワークを用いた3D再構成のための新しいAIモデル「Neuralangelo」は、2Dのビデオクリップを詳細な3D構造に変換し、建物、彫刻、その他の現実世界のオブジェクトのリアルなバーチャルレプリカを生成します。

ミケランジェロが大理石の塊から驚くほどリアルなビジョンを彫るように、Neuralangeloは複雑なディテールやテクスチャを持つ3D構造を生成します。クリエイターは、これらの3Dオブジェクトをデザインアプリケーションに取り込み、さらに編集して、アート、ビデオゲーム開発、ロボット工学、産業用デジタルツインに使用することができます。

屋根板、ガラス板、滑らかな大理石など、複雑な素材の質感を2D動画から3D資産に変換するNeuralangeloの能力は、従来の方法を大きく上回ります。この高い忠実度により、開発者やクリエイターがスマートフォンで撮影した映像を使って、プロジェクトで使用可能な仮想オブジェクトを迅速に作成することが容易になりました。

「Neuralangeloが提供する3D再構成機能は、クリエイターにとって大きなメリットとなり、デジタル世界で現実世界を再現するのに役立ちます」と、研究部門のシニアディレクターで論文の共著者であるMing-Yu Liuは述べています。「このツールによって、開発者は最終的に、小さな像であれ巨大な建物であれ、詳細なオブジェクトをビデオゲームや産業用デジタルツインの仮想環境に取り込むことができるようになるでしょう」

NVIDIAの研究者はデモで、このモデルがミケランジェロのダビデ像のような象徴的なものからフラットベッドトラックのようなありふれたものまで再現できることを紹介しました。Neuralangeloは、建物の内部や外観を再現することもできます。NVIDIAのベイエリア・キャンパスにある公園の詳細な3Dモデルで実証されました。

 

ニューラルレンダリングで見る3Dモデル

3Dシーンを再構築する先行するAIモデルは、反復するテクスチャパターン、均質な色、強い色のバリエーションを正確に捉えることに苦労してきました。Neuralangeloは、NVIDIA Instant NeRFを支える技術であるインスタントニューラルグラフィックスプリミティブを採用し、これらの微細なディテールを捉えることができるようにしました。

オブジェクトやシーンをさまざまな角度から撮影した2D映像を使い、アーティストが被写体を複数の側面から見て奥行きやサイズ、形状の感覚を得るように、異なる視点を捉えた複数のフレームを選択します。

各フレームのカメラ位置を決定すると、彫刻家が被写体の形を彫り始めるように、NeuralangeloのAIはシーンのラフな3D表現を作成します。

彫刻家が石を削って布や人物の質感を再現するように、レンダリングを最適化し、細部を鮮明にします。

最終的には、バーチャルリアリティやデジタルツイン、ロボット開発などに利用できる3Dオブジェクトや大規模なシーンが完成します。

参考資料

Research / Data PostProcessing

レンダリングが綺麗。写真テクスチャとCGっぽい質感が混在してる感じがいいですね。

参考資料

ECOFLOW | Isaev Workshop

ワークショップ用のビデオらしいです。質感やモデルの雰囲気がいいですね。

参考資料

画像を SVG に変換する「Vectorizer.ai」ベータ版

JPEGやPNGを SVG ベクターデータに変換するサービス「Vectorizer.ai」のベータ版が公開されています。ベータ期間中は無料です。

https://vectorizer.ai/

 

フルカラーでピクセルをベクトルにトレース

  • JPEG および PNG ビットマップを SVG ベクターにすばやく簡単に変換
  • 全自動。AI の使用
  • ベータ期間中は無料

 

使い方

1. 選択

ベクター化したいビットマップ画像を選び、ページ上にドラッグ&ドロップします。
JPEGやPNGなどのビットマップ画像は、「ピクセル」と呼ばれる小さな正方形の格子で表現され、それぞれが独自の色を持っています。

2.プロセス

当社のサーバーは、強力なGPUとマルチコアCPUを使用して、画像を分析、処理し、ピクセルから幾何学的形状に変換します。
出来上がったベクター画像は、ぼやけることなくどんな解像度にも拡大縮小でき、印刷、カット、刺繍などに使用できます!

3.ダウンロード

結果のフルプレビューを閲覧し、気に入ったものがあればダウンロードすることができます。ベータ版の間は、ダウンロードは無料です。
現在、SVG、PDF、EPS、DXF、PNGをサポートしており、さらに多くのフォーマットをサポートしています。

 

フル機能

ディープベクトルエンジン

15年の経験をもとに、ディープラーニングネットワークと古典的アルゴリズムを構築し、Vectorizer.AIのコア機能を構成しています。本サービスを支えるAIネットワークは、当社が独自に開発したデータセットをもとに、ゼロから学習させています。

ベクターグラフ: 独自の計算幾何学フレームワークにより、従来のベクトル画像表現では不可能であった自動編集や局所的な最適化を実現。

フルシェイプフィッティング

単純なベジェ曲線だけでなく、複雑な幾何学的形状全体を可能な限りフィットさせ、完璧なフィットと比類ない一貫性を実現します。完全にパラメータ化された円、楕円、丸みを帯びた長方形、星形をサポートし、オプションで角丸や任意の回転角度を付けることができます。

曲線のサポート

ベクター形状は、幾何学的形状全体に加えて、直線、円弧、楕円弧、2次曲線や3次曲線のベジェ曲線から構築することができます。一般化された曲線をモデリングする場合、ほとんどのベクターグラフィックソフトウェアアプリは、3次ベジェ曲線のみを含むように物事を単純化しようとしますが、これは便利ですが限られた近似値です。Vectorizer.AIは、すべてのカーブタイプをサポートし、適切な場合に使用します。

きれいなコーナー

シェイプのアウトラインは、直線的な部分や滑らかに変化する部分で構成されていることが多いのですが、そのような部分にはコーナーがあり、互いに離れています。ベクターグラフでは、すべてのコーナーを分析、モデル化、最適化することで、他のベクターライザーよりも自然な仕上がりになっています。

高いパフォーマンスを発揮する

誰も待つのは好きではありません。私たちはあなたの時間を尊重し、ディープラーニングのために最先端のGPUをフル活用し、マルチコアCPUで慎重に調整された超並列の古典的アルゴリズムを実行して、業界で最高のベクターを早急に提供することを確認します。

サブピクセルの精度

1ピクセル以下の幅の特徴を抽出し、アンチエイリアスのピクセル値に応じて境界を配置します。細部にこだわる。

完全自動

ユーザーの入力を必要とせず、結果を出すことができます。

画像の種類

ロゴなどのラスタライズされたベクターアートのために設計されたアルゴリズムですが、スケッチなどの描かれたアートワークや写真のスキャンや写真にも非常によく機能するようになっています。

プリクロップ

ビットマップには最大限の解像度が設定されていますが、その解像度を最大限に活用するために、ベクター化したいビットマップの一部をクロップすることができます。切り取った部分だけが解像度の上限としてカウントされるため、最大限のクオリティで仕上げることができます。

フルカラー&トランスパランシー

最初から一流のコンセプトとして取り入れたアルファチャンネルを含む32ビットフルカラーをサポートしています。部分的に透明な領域やアンチエイリアスも完全にサポートされています。

 

よくある質問

Vectorizer.AIが他社より優れている点は何ですか?

ひとつだけ挙げるとすれば、AIでしょう。私たちは15年間この分野で仕事をしてきましたが、AIを加えることでゲームチェンジャーになりました。従来の方法では見逃してしまうようなディテールを引き出すことができ、ピクセルデータが曖昧な場合でも賢明な推測を行うことができるのです。この製品のディープラーニングモデルは完全に自社で開発し、独自に開発したデータセットで学習させています。

しかし、AIベクタライザーの出力をクリーンアップして改善するために、私たちがより良くすることは他にもたくさんあります。幾何学的な形状のフィット、コーナーのクリーンアップ、タンジェントマッチング、カーブフェアリングなど、さまざまな改良があります。私たちのベクターグラフは、競合他社の多くが弱点としている形状間の整合性を維持しながら、これらの変更を行うことを可能にします。

そして、私たちはまだ始まったばかりです。サイト全体が活発に開発されており、多くのエキサイティングな機能が準備されています。

JPGやPNGをベクターに変換するためのオンラインツールを探していると、ウェブ上で多くの選択肢を見つけることができます。そのほとんどは、何十年も前からあるような古いアルゴリズムに基づいており、率直に言ってあまりうまく機能しません。Vectorizer.AIは、ベクター化への新しいアプローチであり、その結果に感動していただけると確信しています。

 

ファイル形式は?

現在、入力としてJPEG、PNG、WEBP、BMP、GIFをサポートし、出力としてSVG、PDF、EPS、DXF、PNGを生成します。より多くの出力フォーマットとオプションが近日中に登場する予定です!

サポートしてほしいファイル形式があれば、ぜひ教えてください。

 

設定オプションは追加されるのでしょうか?

私たちは、完全自動の結果がほとんどの場合正しくなるように、AIを十分に賢くするために努力しています。しかし、好みの問題もありますので、そのような場合はオプションを追加する予定です。

出力される色の数をコントロールする方法を追加してほしいという要望が一番多かったので、近々追加する予定です。その他、必ず必要な機能を思いついたら、ぜひ教えてください。

 

解像度は?

画像の最大画素数は2メガピクセルです。最大画像ファイルサイズは30メガバイトです。

 

透明度は?

32ビットARGBのフル入力に対応していますので、完全透過、部分透過のどちらでも大丈夫です。

 

価格は?

ベータ版の間は無料でご利用いただけます。

 

ベータ版終了後の価格は?

まだわかりません。アルゴリズムとウェブサイトの構築に取り組んでおり、特に前者については、かなり先にならないとコストがわからず、価格を決めることができません。

 

ベータ版はいつ終了するのですか?

おそらく2023年の第3四半期か第4四半期になります。

 

課金開始のお知らせはどのようにするのですか?

課金開始のかなり前に、API登録時に使用したアドレスにメールを送信します。そのアドレスが最新であるよう、ご注意ください。

 

AIで生成された画像でも使えるのですか?

はい。実際、それらは人気のあるカテゴリーであるようで、私たちはそれらの画像で私たちのアルゴリズムがうまく機能するのを見て満足しています!

 

ベクトル化と埋め込みは違うのでしょうか?

はい、ビットマップをベクトル化することと、単にベクトルファイルに埋め込むことには大きな違いがあります。

ベクトル芸術にビットマップ画像を自動的に変換するプロセスは、vectorizing、vectoring、トレース、ベクトルにビットマップ、ラスターからベクトル、ベクトルに変換、およびおそらく多くの他のものを含む様々なものと呼ばれる。このプロセスはイメージの形を検出し、それにカーブを当てはめ、そしてベクトル ファイルとして結果を輸出することを含んでいます。最終結果はピクセル データを含まないし、質の損失なしであらゆるサイズに拡大することができます。

しかし、ベクトル ファイルはまたちょうどそれらの中のビットマップのコピーを含むことができ、ベクトル ファイルにビットマップを置くことは埋め込まれると呼ばれます。埋め込むだけのサービスもありますが、Vectorizer.AIは実際にベクター化を行っています。

 

ベクター画像は何に使えるの?

ベクター画像は幾何学的な図形で構成されており、品質の損失なしに任意のサイズに拡大縮小することができます。それらは印刷されたグラフィックに一般に使用され、高DPIスクリーンが標準になり、SVGイメージのブラウザサポートがどこにでもなった今、ますますWebグラフィックに。また、レーザー彫刻、ビニールカット、スクリーン印刷などの印刷工程でも必要とされる。

また、ベクターグラフィックは、ベクターエディターで簡単に編集・変更できるため便利です。一方、ビットマップ画像は、画像に存在するグラフィックがピクセルの1つまたは複数のレイヤーを平坦化されているため、編集が困難で時間がかかるものである。ピクセルの編集は面倒で、間違えやすく、小さな欠陥やアーティファクトが残ることも少なくありません。

 

入力画像やベクトル化された結果について、何か主張することはありますか?

当社の利用規約は、お客様にサービスを提供し、当社の製品を改善するために必要な権利を付与しているだけです。また、お客様が明示的に許可した場合を除き、お客様の画像を第三者と共有することはありません。

詳細については、当社の利用規約をご覧ください。

 

データ保持のポリシーは?

現在、画像と結果はアップロード後5日間保持され、その後永久に削除されます。当社のデータ保持ポリシーは時間の経過とともに変更される可能性があり、この現在のポリシーが将来的に当社を拘束したり、変更に際してお客様の肯定的な同意を必要とするものではないことにご留意ください。

参考資料

株式会社モーションアクターによるイラストやゲームで利用可能な動画

株式会社モーションアクターがイラストやゲーム、アニメなどへの利用が可能な動画を多数公開しています。これは参考になりそうです。

https://www.youtube.com/@MotionActorInc/videos

 

チャンネル内の動画はトレスフリー・アレンジフリーです。
イラストやゲーム、アニメなどへの利用はご自由にどうぞ〜
(ご利用いただいた旨を紹介いただけたら嬉しいです!)

 

参考資料

Tor Frick チュートリアルが無料化

Tor Frickさんのチュートリアルが無料になりました。割引コード「Free」を使用して無料で入手できます。

https://snefer.gumroad.com/

Automatic materials and Rendering in Modo

このチュートリアルは、ModoでUVなしの自動マテリアルをゼロから作成する方法と、それらをレンダリングしてPhotoshopで合成し、最終的に表示されるレンダリングを作成する方法についての詳細なウォークスルーとなっています。

マテリアルの設定方法、シェーダーツリーの使い方、タイリングを隠すトリック、さまざまな種類のマスキングを最大限に活用する方法、プロシージャルテクスチャの使い方、MODOのアセンブリの使い方、さらにレンダリング、レンダリング時間の最適化、照明の基本トリック、合成の仕方、レンダリングのチーティングとPhotoshopでのテクスチャペイントの方法を解説しています。

  • 3.5時間以上のナレーション付きビデオ
  • Modoのシーン、テクスチャ、Photoshopのファイル例

 

Transport vehicle tutorial

このチュートリアルでは、ModoでこのSF車両のブロックアウトからハイポリレンダリングまでの全過程を説明します。ブロックアウトの段階から、キットバッシングセットの組み立て、車両全体のモデリング、さらにデカールの作成、マテリアルの作成、Modoでのレンダリングに至るまで説明します。このチュートリアルは、Modoの中級ユーザー向けですが、Modoとそのツールの使い方をある程度知っていることが前提です。

  • 8.5時間以上のビデオ映像
  • 完成したモデル+レンダリングに使用したテクスチャ
  • ブロックアウトモデル

 

Transport lowpoly tutorial

このチュートリアルでは、前回のチュートリアルで作成したトランスポートビークルをローポリで作成し、Modoでアンラップしてベイクし、フォトショップでテクスチャを組み合わせてからUE4/marmosetに取り込みます。

3時間以上のナレーション付きビデオと、さらに2.5時間のタイムラプスビデオがあります。また、ローポリのソースファイル、フル解像度のテクスチャ、テクスチャシートの1つのソーステクスチャの例も入手できます。

 

How to get faster in Modo

このチュートリアルでは、Modoでのモデリングをより速く行うための方法について、私のプロセスと考えを説明します。

ホットキーの設定方法、特定のツール内でホットキーを設定する方法、マクロやピーマンの作成方法、さらに設定ファイルの編集や独自の自己完結型設定ファイルの作成について詳しく説明します。また、より速くするための新しい方法を見つけたり、モデリングプロセスの遅い部分を改善したりするために行っていることについても少しお話ししています。

  • 48分ナレーション付きビデオ
  • 動画にある自己完結型のコンフィグ例
  • ホットキー設定ファイルの例

 

Introduction to Modo

このビデオは、完全な初心者を対象とした、Modoでのモデリングに関する基本的な入門書です。インターフェイスやモデリングからUVやレンダリングに至るまで、非常に基本的なレベルで説明します。

このビデオは、Modoの簡単な紹介と、どこに何があるのか、どのように動くのか、また一般的なヒントやトリックを知りたい人を主な対象としています。特定のツールについて深く掘り下げることはしませんが、modoを使いこなすために知っておく必要があると思われる基本的なことをカバーするように努めています。

  • ナレーション付きビデオ: 1時間7分

 

Transport tutorial bundle

このバンドルでは、2つの輸送用チュートリアルのすべてのコンテンツが提供されます。この輸送用車両をデザイン段階からハイポリレンダリング、そしてUnreal Engine 4とMarmosetビューワーで作成します。

ブロックアウトの段階から、キットバッシングセットの組み立て、車両全体のモデリング、ハイポリレンダリング用のデカールとプロシージャル素材の作成、ローポリの作成、アンラッピング、アンリアルとマーモセットへの取り込みまで、一貫して行います。

このチュートリアルは、modoの中級者向けで、modoとそのツールの使い方をある程度知っていることが前提です。

  • 14時間以上のビデオ映像(うち11.5時間はナレーション付き)
  • 完成したハイポリモデルとローポリモデルのソースファイル+レンダリングに使用したテクスチャ
  • テクスチャシートの1つのソーステクスチャ
  • ブロックアウトモデル

 

Hardsurface Kitbashset 01

このハードサーフェイスキットには、私の最新のメカプロジェクトの作成に使用された100のモデルが含まれています。

すべてのモデルはウェイトサブDジオメトリで、Modoプリセットファイル(lxl)、他の3DアプリケーションにインポートするためのAlembic、FBX、フローズンOBJファイルの両方として利用できます。41のプリセットは、polysteinキットで動作するようにセットアップされていますが、通常のプリセットとしても問題なく動作します。

  • 59種類の通常プリセット
  • 41種類のポリステインプリセット

を以下のフォーマットで提供します。

  • LXL、FBX、Alembic、OBJ、Zbrush用のIMMブラシの3セット

このパックの購入者は、modo用polysteinキットも15%割引で購入できます:

http://pushingpoints.com/v2/the-pushing-points-polystein-kit-for-modo/

これらの資産を転売することはできませんが、それ以外は私的・商業的に自由に使用することができます。

参考資料

Local & LAN Copy-Paste for 3ds Max

LAN ネットワーク内のPC、または1台のPC内で3Dエレメントをコピー&ペーストできる無料スクリプトが公開されています。
似たスクリプトだとローカルPC限定ですが「OD_CopyPasteExternal」が便利です。

https://brovar64.gumroad.com/l/copypastebybrovar

 

3Dアーティストやチームのコピーペースト作業を効率化するために設計されたこの汎用性の高い3ds Maxスクリプトで、生産性を最大化しましょう。
同じサーバーに接続された複数のコンピュータで作業したり、1台のマシンでシーン間の要素を転送したりするのに理想的なこのスクリプトは、あなたのツールキットに追加する必需品となります。

 

主な特徴

  • コンピュータをまたいだコピーペースト: 同じサーバー上のコンピュータ間で3Dエレメントを簡単にコピー&ペーストできるので、コラボレーションやリソース共有がこれまで以上に簡単になります。
  • ローカルコピーペースト: コンピュータ上の異なるシーン間でオブジェクトを簡単に転送できるため、時間を節約し、ワークフローを改善することができます。
  • ユーザーフレンドリーなインターフェイス: 直感的なUIにより、あらゆる経験レベルのアーティストがスクリプトの強力な機能を簡単に利用することができます。
  • 互換性 このスクリプトは、3ds Maxとシームレスに動作するように設計されており、既存のソフトウェアとのスムーズな統合を実現します。
  • 定期的なアップデートとサポート: スクリプトが将来の 3ds Max リリースとの互換性を維持できるよう、継続的な改善と専用サポートをご利用ください。

今すぐ生産性に投資して、3Dプロジェクトを新たな高みへと導いてください。今すぐダウンロードし、その違いを体験してください!

 

インストール方法

  1. ES_CopyPaste.mcr を 3ds Max のビューポートにドラッグ&ドロップします。
  2. scripts フォルダを 3ds Max のルート フォルダにコピーします。
  3. Local フォルダを AppData にコピーします。
  4. 3ds Max を再読み込みします。
  5. 新しいツールバーを作成し、カテゴリー "ES_CopyPaste" のスクリプトで埋める。
  6. Settingsアイコンをクリックし、保存先のローカルおよびリモート(ファイルサーバー上)のフォルダーを選択します。

 

クリティカルな修正 v1.1

  • 設定でフォルダを選択すると、保存先のフォルダが正しく保存されるようになりました。
  • 貼り付け後にオブジェクトが選択されるようになりました。
  • 保存されたオブジェクトの名称が誤解されないように修正されました。
参考資料

Epic が Metahuman Animator 発表

Epic が Metahuman Animator 発表しました。 iPhone やヘルメットに取り付けられたカメラを使用して、MetaHuman キャラクターのフェイシャルパフォーマンスを再現できる機能のようです。

https://www.unrealengine.com/ja/blog/new-metahuman-animator-feature-set-to-bring-easy-high-fidelity-performance-capture-to-metahumans

 

新しい MetaHuman 機能セットが間もなく登場することをお知らせできることを大変嬉しく思います。

MetaHuman Animator を使用すると、iPhone またはステレオ ヘルメット搭載カメラ (HMC) を使用して、顔のパフォーマンスを MetaHuman キャラクターの忠実度の高いアニメーションとして再現できます。これにより、アクタのパフォーマンスの個性、リアリズム、忠実度をキャプチャし、あらゆるディテールとニュアンスを MetaHuman に転送して、Unreal Engine で生き生きとさせることができます。

 

フォトリアルなデジタルヒューマンは、真に信頼できるパフォーマンスを提供するために高品質のアニメーションを必要としますが、これを作成するための専門知識と時間は、最も熟練したクリエイターにとってさえ困難です。
既存のパフォーマンスキャプチャソリューションでは、キャラクターに対する俳優のパフォーマンスのあらゆるニュアンスを忠実に再現することは非常に困難です。真にリアルなアニメーションを実現するには、熟練したアニメーターが、通常は骨の折れる時間のかかるプロセスで結果を丹念に微調整する必要があることがよくあります。

しかし、それは変わろうとしています!

今後数か月以内にリリースされる予定の MetaHuman Animator は、AAA ゲーム開発者やハリウッド映画製作者が必要とする高品質のフェイシャルアニメーションを制作すると同時に、インディーズスタジオや愛好家にもアクセスできるようにします。すでにポケットに入れている iPhone と標準の三脚を使用すると、MetaHuman 用に信頼できるアニメーションを作成して、自分がアニメーターではなくても、視聴者との感情的なつながりを構築できます。

 

また、MetaHuman Animator は、Technoprops 社製品など、より高品質の結果を実現できるプロフェッショナル レベルの垂直型ステレオ HMC キャプチャ ソリューションとも連動します。
さらに、ボディ キャプチャにモーキャップ システムをお使いの場合は、MetaHuman Animator のタイムコード サポートにより、フェイシャル パフォーマンス アニメーションとボディ モーション キャプチャおよびオーディオとを容易に揃えることが可能になり、フル キャラクター パフォーマンスを実現できます。このオーディオを使ってリアルな舌のアニメーションを作成することもできます。

では、この機能はどのような仕組みなのでしょうか?

重要なのは、システムがアクターの顔独特の生体構造を解析し、それをターゲット キャラクターにどのように関連付けるかを理解できるようにすることです。MetaHuman Animator では、最初にパフォーマーの MetaHuman Identity、つまり同様のトポロジを持ち、すべての MetaHuman と同じ標準リグを共有するメッシュを作成します。

Mesh to MetaHuman を使ったことのある方なら、そのプロセス中に 3D スキャンまたはスカルプトから MetaHuman Identity が作成されることをご存じでしょう。そのテクノロジーを基盤とする MetaHuman Animator では、キャプチャした少量のフッテージから MetaHuman Identity を構築します。このプロセスはほんの数分で完了し、それぞれのアクタに対して一度実行するだけで済みます。

 

このステップが完了すると、次は MetaHuman Identity を使って MetaHuman フェイシャル リグの各位置をトラックして解決することで、そのパフォーマンスが解析されます。
結果として、アクタと MetaHuman の特徴の違いにかかわらず、あらゆる細かな表現がターゲット MetaHuman キャラクター上で正確に再現されます。Unreal Engine ではこのパフォーマンス処理が可視化されて、フレームごとに、アニメート化された MetaHuman Identity をアクタのフッテージと比較することができます。

もう一つのメリットとして、クリーンなアニメーション データを得られることがあります。人間のアニメーターが行うのと同じように、コントロール カーブがフェイシャル リグ コントロール上の所定の位置に確実に配置されて、意味論的に正確になり、アート面のニーズに応じて調整することが容易になります。

MetaHuman Identity を最初から使用することで、将来的に MetaHuman に変更を加える場合や、他の MetaHuman で使用する場合も、今作成しているアニメーションが引き続き機能することが保証されます。

MetaHuman Animator の処理機能は、エンジンと同様に無料でダウンロード可能な Unreal Engine 向け MetaHuman プラグイン の一部となります。iPhone をお使いになる場合、MetaHuman Animator は iPhone 11 以降に対応しており、加えて無料の iOS 向けの Live Link Faceアプリ が必要になります。このアプリは、このワークフローをサポートするための追加のキャプチャ モードで更新されます。

参考資料

Unreal Engine 5.2 - Next-Gen Graphics Tech Demo

Unreal Engine 5.2のデモ映像が公開されています。

  • chaosダイナミクス、岩の上を運転すると岩が転がる
  • アンリアルのchaos車両モデルをセットアップし、トラックのサスペンションと電気モーターがどのように個々のホイールを駆動するかをシミュレート
  • chaosはタイヤがどのように圧縮および変形するかをシミュレート
  • メタ サウンドにより、電気モーターの音をジャングルのアンビソニックスとミックス
  • 約 7,100 万ポリゴンのポリゴンをリアルタイムでレンダリングできたのは、nanite のおかげ
  • 新しいマテリアルフレームワークを導入、オパールのデモ
  • ダート、シェーディング モデルを使用してこのようなマテリアルを作成し、それらの素材を構成してレイヤー化
  • Unreal Engine シェーディング モデルに似たマテリアルのコストはほぼ同じだが、アーティストはシネマティックスや映画のような非常に詳細なユース ケース向けにより複雑なマテリアルを自由にオーサリングできる
  • 手続き型アセンブリ
  • デモ映像はIntel 13900k CPU と Nvidia RTX 4090 GPU を搭載した開発者用マシンの Unreal Editor でリアルタイムに実行
参考資料

ShutterstockがNVIDIAと組んでジェネレーティブ3DのためのAIモデルを構築

ShutterstockがNVIDIAと組んでジェネレーティブ3DのためのAIモデルを構築が発表されました。テキストから3Dモデルを作成するサービスです。

Shutterstockの素材で学習したモデルを使用して、最初の段階では1つのオブジェクトに1つのメッシュを作成し、シンプルなカラーテクスチャのみを作成する予定とのこと。将来的には、部品の分割、サブディビジョンや、高度なテクスチャリングオプションを含むように拡張される予定らしい。

https://www.fxguide.com/quicktakes/gtc-shutterstock-teams-with-nvidia-to-build-ai-models-for-generative-3d/
https://investor.shutterstock.com/news-releases/news-release-details/shutterstock-teams-nvidia-build-ai-foundation-models-generative

 

GTCでは機械学習に基づく興味深い発表が数多くありました。例えば、クリエイティブ・プラットフォームとストック・ライブラリのリーディングカンパニーであるShutterstockとNVIDIAは本日、シンプルなテキストプロンプトから生成的3Dツールでカスタム3Dモデルを作成する機械学習プラットフォームをトレーニングするために提携すると発表しました。
3Dモデルは、NVIDIA Picasso生成AIクラウドサービスを使ってShutterstockの資産でトレーニングされ、テキストを高忠実度の新しい3Dコンテンツに変換し、作成時間を数時間から数分に短縮します。

 

新しいText-to-3Dモデルは、Shutterstock.comのCreative Flowツールキットの一部として、今後数ヶ月で導入される予定です。また、Turbosquid.comでもText-to-3D機能を提供し、NVIDIA Omniverseプラットフォームでは、3D産業メタバースアプリケーションの構築と運用に使用するために導入される予定です。

高品質で詳細な3Dモデルをゼロから構築することは、しばしば困難で時間のかかる作業となります。これは、VFXにおいても、デジタルツインシミュレーションでの使用などの産業用途においても同様です。3Dはしばしば精度を必要とし、その作業の複雑さゆえに、モデルの仕様によっては何日も、あるいはそれ以上かかることもあります。

NVIDIA Picasso ジェネレーティブAIサービスでカスタムモデルを作成することで、Shutterstockは3Dアーティストが数分でアイデアを出し、新しい形を模索することを支援します。
NVIDIA Picassoは、ジェネレーティブAIベースの画像、動画、3Dアプリケーションを構築、展開するためのクラウドサービスです。NVIDIA DGXスーパーコンピューティングクラウドを介して、生成AIビジュアルのための最高のトレーニングおよび推論性能を提供するように最適化されています。

アーティスト、TD、アニメーターは、オブジェクトの形状の作成、オブジェクトのアンラッピングの支援、ハイエンドでのテクスチャやマテリアルの生成、そして3D非力なユーザーにとっては、新しい3Dモデルを様々なアプリケーションやプラットフォームで簡単に使用できるようになります。

 

 

当初は、1つのオブジェクトに1つのメッシュを作成し、シンプルなUVカラーテクスチャのみを作成する予定です。将来的には、モデルを論理的な部品に分割する複雑なサブディビジョンや、より高度なテクスチャリングオプションを含むように拡張される予定です。

ShutterstockのTurbosquidは、貴重なデジタルバックロット資産ですが、明らかに現在のライブラリは、一般的に使用される3Dオブジェクトの作成に有利です。新しいテキストから3Dへの変換は、複雑なオーダーメイドの新しいモデルを作ることを可能にします。
このような珍しいモデルや専門的なモデルを作るには、費用と時間がかかるでしょう。現代のアジャイルなプロジェクトアプローチでは、ベースとなるモデルを作成し、それをさらに洗練された詳細なテクスチャ資産に改良する前に、クライアントに対して素早くデザインを反復することが可能になります。

NVIDIAのデベロッパープログラム担当副社長であるグレッグ・エステスは、「ジェネレーティブAIの変革能力により、ソフトウェアメーカーや企業は、デジタルツイン、シミュレーション、デザイン用の3D資産を作成するために簡単なテキストプロンプトを使用するツールを構築し、アーティストが膨大な時間と労力を節約することが可能になります」と述べています。
「ShutterstockのカスタムモデルをNVIDIA Picasso生成AIクラウドサービスでトレーニングすることで、開発者はアーティストにとって面倒な作業の多くを自動化できるツールを手に入れ、新しいコンセプトの探求やアイデアの洗練に多くの時間を割くことができるようになります」

アーティストに対して倫理的かつ公平であるために、Text-to-3Dへの統合プランは、アーティストから作品を「盗む」ことなく、また通常のTurbosquidマーケットプレイスを通じてジェネレーティブに作られた資産を販売することもできないように構築されています。また、両社は、フリーランスの3Dアーティストを支援し、彼らを公平に扱えるようにすることを強く望んでいます。

Shutterstockは、責任あるAIへの取り組みの一環として、また、Shutterstockのプラットフォームでカスタマイズされた3Dモデルの販売に関連して、ジェネレーティブ技術のトレーニングにおいて彼らのIPが果たす役割に対して、コントリビューターファンドを通じてアーティストに補償を行う予定です。

参考資料

ゲーム開発パイプラインにUSDを実装する。ポリフォニー・デジタル社インタビュー

グランツーリスモにUSD採用のインタビューが公開されています。CEDEC 2022の方が詳細な話だった気がするけど、とりあえずメモ。
どうしてNVIDIA?と思ったらOmniverse関連なのか。

https://developer.nvidia.com/blog/implementing-usd-for-game-development-pipelines-an-interview-with-polyphony-digital/?ncid=so-twit-535123

 

株式会社ソニー・インタラクティブエンタテインメントの子会社で、『グランツーリスモ』を開発したポリフォニー・デジタルは、30年にわたるプレイステーション用ソフトウェアタイトルの累計セルスルー売上が90M本を突破しました。2022年に発売された『グランツーリスモ7』は、シリーズ開始から25周年を迎え、「Universal Scene Description(USD)」の実装が行われました。USDは、3Dワールド内の描写、合成、シミュレーション、コラボレーションを行うためのAPIを備えたオープンシーン記述です。

Tools Pipeline Engineering Leadの安藤 恵美は、NVIDIAの最新リリースにおける統合プロセス、およびポリフォニーのゲーム開発パイプラインにおける採用計画について、NVIDIAと対談しました。

 

ゲーム開発のパイプラインにUSDを採用した理由は?

USDの技術は、映像制作のための大規模でマルチユーザー、多様なアセットパイプラインをサポートしています。映像制作用に設計されたライブラリですが、大規模で複雑なパイプラインをサポートするUSDの仕組みは、ゲーム内制作にも活用できると考えています。USDには、コンポジション、アセットリゾルバー、ファイルフォーマットプラグイン、カスタムスキーマなど、パイプライン構築に必要な機能がすでに用意されているため、私たちのパイプラインに合うように対応しました。

 

USDに変更することで、これまでできなかったことができるようになったのでしょうか?

USDは、Houdiniなどの異なるツールで編集できるという点で、以前のフォーマットとは異なります。USDのコンポジションはこれまでのフォーマットとは異なり、非破壊でデータを編集することが可能です。ゲーム独自の仕様が書かれたデータでも、データを失うことなく、さまざまなツール間で行き来することができます。

「グランツーリスモ」では車やコースなどのアセットを主にAutodesk Mayaで制作していますが、そのデータは非常に複雑です。様々なプラグインや仕様を設定するためのツールも多く、それらをHoudini用に再実装するのはコストがかかりました。

特にシェーダーは複雑でHoudiniでシェーダーのプレビューや編集を行う環境を新たに開発するのはコストがかかり、すぐに実装するのは難しい。しかし、USDでは、モデリング中にAutodesk Mayaでマテリアル設定を行い、マテリアルの割り付けはHoudiniで行うことが可能になりました。

 

他のファイルフォーマットではなく、USDを選んだ理由は何ですか?

複数のツールで非破壊かつプロシージャルにシーングラフを扱えることです。ゲームの場合、DCC(Digital Content Creation)ツールで様々な専用仕様が設定されています。従来のフォーマットでは、異なるツールで編集する場合、それぞれのツールでパラメータを扱わないと正しく扱えませんでした。

ゲーム制作においても映像制作と同様に、多くの人が同時に多くのアセットやショットを制作しながら、様々なゲーム仕様を追加していくことが可能です。USDはコンポジションが非破壊編集に使えるので、複数のツール間をスムーズに行き来することができ、こうした問題を解決しています。

 

USDを統合する過程で、どのような課題に直面したのでしょうか?

現在のパイプラインは巨大で、それを一度にUSD化するのは不可能でした。パイプラインの運用を維持しながら、部分的に移行を進めていく必要がありました。

 

最初に取るべき推奨される小さなステップは何でしょうか?

まず、実際のプロジェクトに導入する前に、独立したプロジェクト(できれば既存のシステムとは別に)を立ち上げて、USDの仕組みを理解する必要があります。

USDをゲームのアセットとして使用する場合、映像制作とは異なり、ゲーム制作に特化したスキーマや編集ツールが確立されていないことを理解することが重要です。USDの仕様やデータ構造、API仕様などを理解する必要があります。アセット制作に導入する前に、XMLやJSONなどのファイル形式を覚える必要があります。ゲームの仕様に合わせて自社で開発することが必要です。

変換パイプラインのパラメータを管理するフォーマットとして、USDを導入しました。アセットデータと違って、すべてが小さなASCIIファイルになっています。データの構造がわかりやすく、レイヤー、ステージ、スキーマといった概念も理解しやすい。この利点が、アセット制作におけるシステム導入の土台となりました。

 

今後のゲーム開発でも、USDを使い続ける予定ですか?

もちろん、そうしています。USDを採用した「グランツーリスモ7」でも、まだ実装は限定的でした。USDを前提としたアセットの仕組みや公開環境の構築に取り組んでいます。制作の反復性を高めるなど、チャレンジできるところはチャレンジしていく予定です。

 

ゲーム業界でUSDを普及させるために必要なことは何だと思われますか?

ゲーム制作では、映像制作のように確立されたスキーマが存在しません。KATANAやHoudini SOLARISのように、USDをレイアウトして、ライティングして、レンダリングして......という環境は存在しません。ゲームエンジンでレンダラーを使えるようにするには、レンダラーの代わりに変換パイプラインを用意するか、ゲームエンジンを使うしかない。

 

アーティスト、テクニカルアーティスト、アートディレクター、スタジオ幹部は、USDへの移行にどのような反応をしているのでしょうか?

MayaやSOLARISなどのDCCツールでUSD対応が進むなど、アーティストやテクニカルアーティストは、データ互換の柔軟性や安定性、効率性が向上したことに満足しています。また、オープンソースライブラリを積極的に活用することで、開発リソースを制作固有の課題に集中させることができ、経営面でも大きなメリットがあります。

 

USDの導入を皆に納得させた、最も説得力のある主張は何だったと思いますか?

USDであれば、すぐに対応した共通環境でテストができます。メタバースアプリケーションを構築・運用するためのリアルタイム設計連携・シミュレーションプラットフォーム「NVIDIA Omniverse」をはじめ、さまざまなツールの対応が進めば、今後さらにUSDを採用するメリットは大きくなると思います。

参考資料

Epic Games Store セルフパブリッシングツールをリリース

誰でもEpic Games Storeに自分のゲームを出せるようになったそうです。Unreal Engineを使っている場合はエンジンの使用料無料。Unityなど別のゲームエンジンを使用している場合でも販売可能らしいです。

https://store.epicgames.com/ja/news/epic-games-store-launches-self-publishing-tools-for-game-developers-and-publishers
https://store.epicgames.com/ja/distribution?lang=ja

 

Epic Games Storeにて、ゲームデベロッパーとパブリッシャー向けのセルフパブリッシングツールをリリース

本日、Epic Games Storeにてセルフパブリッシング機能がリリースされます。 これらのツールを利用することで、デベロッパーやパブリッシャーは効率的にゲームをリリースできるようになり、ストアのプレゼンスを直接維持しつつ、6800万人以上もの月間アクティブユーザーという成長中のオーディエンスにアプローチできるようになります。

 

Epic Games Storeでゲームをリリースしましょう

Epicのデベロッパーポータルを利用すれば、新たに登場したセルフサービス パブリッシング ツールを使用してゲームをリリースできます。 これらのツールは、ストアの要件(詳細は後述)を満たすゲームを開発しているデベロッパーやパブリッシャーであればどなたでもご利用になれます。

 

Epic Games Storeの主な要件

ストアは、Epic Games Storeの要件を満たすタイトルを開発しているすべてのデベロッパーとパブリッシャーに開かれています。 これらの要件は、ひとつのストアに縛り付けることなく、最高の体験をプレイヤーに提供するためにデザインされています。 主な要件は以下の通りです。

 

  • マルチプレイヤーゲームのPCクロスプレイ
    マルチプレイヤーゲームは、すべてのPCストア間でのクロスプレイに対応している必要があります。 そうすることで、どのストアでマルチプレイヤーゲームを購入したプレイヤーも、ゲームの購入場所に関係なく、他のプレイヤーと簡単につながることができます。 これを実現するには、ご自分でクロスプレイシステムを実装するか、サードパーティ製のSDKを使用するか、Epic Online Servicesを無料で利用することができます。 詳細はこちらをご覧ください:PCのクロスプレイ機能の有効化
  • Epic Games Storeの実績
    2023年3月9日(米国時間)より後にEpic Games Storeのパブリッシングツールにオンボードされたすべてのゲームは、他のPC向けストアで実績が用意されている場合、Epic Games Storeでも実績を有効にする必要があります。 そうすることで、ゲームの購入場所に関係なく、プレイヤーの体験を統一できます。 詳細はこちらをご覧ください:実績の設定
  • 地域配信の年齢レーティング
    Epic Games Storeは国際年齢評価連合(IARC)と提携し、デベロッパーが必要に応じてレーティングを直接取得できるように支援しています。 こちらのサービスは、Epic Games Storeより無償で提供されます。 ゲームが公式のレーティングシステムによるレーティングをすでに取得している場合は、ストアのゲームページにレーティングを表示しなければなりません。 詳細はこちらをご覧ください:レーティング
  • 禁止されているコンテンツ
    特定の種類のコンテンツはストアで禁止されています。これには以下の行為を含みますが、これに限られるものではありません: 悪意のある、または差別的なコンテンツ、ポルノ、違法なコンテンツ、所有権または使用権利を持たない知的財産を侵害するコンテンツ、偽のゲームやマルウェアなどの詐欺や虚偽、不正行為。 詳細はこちらをご覧ください:禁止されているコンテンツ
  • ゲームの品質
    ゲームは、ゲームページで提供するアセットと説明通りにダウンロード、インストール、起動、機能する必要があります。 Epicは、品質と機能が基準を満たしていないと判断したゲームを拒否する権利を留保します。 詳細はこちらをご覧ください:コンテンツのガイドライン

Epic Games Storeでゲームをリリースするべき理由

  • 世界中の2億3000万人以上のユーザーにアクセスしましょう。 その他の統計は、こちらの2022年の総括ブログでご確認いただけます。
  • パブリッシャーは、Epic Games Storeで販売されたゲームの収益の88%を受け取ることができます。また、自社製またはサードパーティ制の決済方法を使用すれば、アプリ内課金による収益の100%を受け取ることができます。
  • Epicのデベロッパーポータルには、IARCのレーティング(一部の国では必須で、他の国でも非常に有用)を無償で取得するためのプロセスが統合されています。
  • Epicは、ゲームページのプロフェッショナルなローカライズを追加費用なしで提供しています。 こちらのサービスは、デベロッパーポータルのサポートチケットでお申し込みいただけます。
  • クリエイターサポートは、収益の一部をシェアしてコンテンツクリエイターにインセンティブを与えることで、ストアの外でゲームの売り上げを伸ばせるアフィリエイトプログラムです。
  • Unreal Engineで制作されたゲームは、Epicの決済代行会社を利用してストア内で購入された場合、エンジンの使用料が免除されます。 独自の決済代行会社を利用したアプリ内課金や製品は、エンジンの使用料が免除されません。
    さあ、準備はいいですか? 今すぐ登録しましょう
参考資料

オープンソース パイプライン プラットフォーム「AYON」早期アクセス開始

アニメーションおよび VFX スタジオでのワークフローを高速化するために設計されたオープンソース パイプライン プラットフォーム「AYON」の早期アクセスが開始されました。

https://ynput.io/early-access-to-ayon-available-now/

 

AYONのアーリーアクセスを開始しました

アニメ・VFXスタジオと共同で作られたクリエイティブチーム向けオープンソースパイプライン

 

アニメーションやVFXスタジオのワークフローを加速させるオープンソースのパイプラインプラットフォーム、AYONの早期アクセスリリースを発表します。2018年以降、AYONの派生版がOpenPypeの名で数百のプロジェクトで実稼働して使用されています。
AYONはアニメーションやVFXスタジオで見られる複雑なワークフローをサポートするスケーラブルなパイプラインを構築するために不可欠な基盤を提供します。モジュール式のアプローチで、強力なパイプラインツールは、業界標準の幅広いクリエイティブアプリケーションやプロダクショントラッキングソフトウェアへのデータ転送を自動化するのに役立ちます。

スタジオが小さなチームに分断されたり、新しい分野へのサービス拡大を目指す中で、制作実績があり、ハイブリッドワークにも柔軟に対応し、さまざまなプロジェクトタイプに対応できるパイプラインの必要性はますます高まっています。スタジオを一から立ち上げるには、複数の部署、場所、ソフトウェアパッケージ、データソース間のギャップを埋めることができるパイプラインが必要です。

Cloth Cat Animation の CEO である Jon Rennie 氏は述べています。

AYONは、私たちが使用しているツールが複数の企業で使用されていることに自信を与えてくれます。つまり、業界標準と他の場所でテストされ、すべてがオープンソースであることがわかります。Ynputがそばにいることで、私たちはアニメーションサービスとしてクライアントに提供できるものに、より自信を持つことができます。パイプラインが問題であることを心配する必要はありませんし、それがうまくいくこともわかっています。その代わり、当スタジオではアニメーションのクオリティに重点を置いており、それを実現できることもわかっています。

YnputのCEO兼創設者であるMilan Kolar氏は述べています。

当初からスタジオと密接に連携することで、堅牢なパイプラインの導入と維持に関連する複雑な課題を解決することができました。AYONのリリースにより、スタジオオーナー、スーパーバイザー、パイプラインTDは、パイプラインがテストされ、新しい規格が導入されるにつれて継続的に進化しているという確信を持って、ワークフローを完全に制御する機会を得ることができます。私たちは、クリエイティブスタジオが信頼できるオープンソースのパイプラインを提供できることを嬉しく思っています。

 

 

クリエイティブスタジオと一体となって作り上げた強力なパイプライン

AYONで利用できる機能は以下の通りです。

  • レディメイドテンプレート : 2Dアニメーション、3Dアニメーション、VFXなど、さまざまなプロジェクトタイプに合わせた設定済みのテンプレートで、簡単にプロジェクトを開始することができ、あらゆるタイプのプロジェクトに対して無限の可能性を創造し保存する柔軟性があります。
  • 迅速な導入とオンボード : スクリプトの知識がなくても設定可能なため、スーパーバイザーはTDが手元になくてもワークフローをカスタマイズできます。
  • 分離されたデータで柔軟なワークフローを実現します : Substance、Autodesk 3ds Max、Flame、Maya、Foundry Nuke、Toon Boom Harmony、TVPaint、Unreal Engineなど、Adobeの多くの業界標準アプリケーションと深く統合し、オンプレミス、クラウド、ハイブリッドワークフローをサポートします。
  • プロダクション・トラッキングと同時に使用できます : Autodesk ShotGrid、ftrack Studio、CGWire Kitsuなどのサポートにより、既存のプロダクショントラッキングツールをシームレスに使用し続けることができます。
  • USDとリアルタイムのワークフロー : リアルタイム制作のためのUniversal Scene Description(USD)およびUnreal Engineとすぐに互換性があるため、必要なときに柔軟に対応できます。
  • 無限の拡張性 : Python、REST、GraphQLをサポートするAPIを使用してカスタマイズすることで、AYONに含まれているものを超えて使用することができます。

AYONの早期アクセスは本日より開始され、無料でインストール、使用することができます。テクニカルサポート、パイプラインコンサルテーション、トレーニング、デプロイメント、メンテナンスなどの追加サービスは、Ynputのサービスチームを通じて提供されます。