Texture

CG News

Substance 3D SDKs

AdobeがSubstance 3Dマテリアル、ジオメトリエンジンを任意のアプリケーションで使用できるようにするSDKを公開しました。

Substance for Modo 開発終了のアナウンスのとき、「オープンソースではありませんが、サードパーティアプリでSubstanceを活用するためのツールをコミュニティに提供するための新しい方法を検討しています」との書き込みがありましたが、このSDKのことだったんですね。

https://developer.adobe.com/substance3d-sdk/

 

Substance 3D SDKs

Substance 3D SDKを使用すると、フォトリアリスティックな3Dコンテンツや画像を大規模に作成することができます。
Substance 3Dマテリアルやジオメトリエンジンなどのテクノロジーを活用して、パラメトリックなマテリアルや3Dモデルをアプリケーションで直接扱えます。Substance 3Dのパワーを活用するプラグインやインテグレーションを構築して、クリエイティブなワークフローを変革できます。

 

あらゆるユースケースに対応するSDK

Substance 3D SDKを使用して、お好みのツールのための次世代3Dプラグインを作成できます。
開発者は、あらゆるアプリケーションにSubstance 3Dのパワーをもたらし、フォトリアリスティックなアセットやバリエーションの作成、高品質なテクスチャの取り込み、既存のパイプラインの効率化を実現できます。

 

Substance 3D マテリアルSDK

Substance 3Dのパラメトリックマテリアルを簡単にインポートし、任意のアプリケーション内でリアルタイムにパラメータを調整できます。ゲーム、建築ビジュアライゼーション、バーチャルリアリティのいずれにおいても、Substance 3Dマテリアルは、作業の迅速化と生産性の向上を支援します。

https://developer.adobe.com/console/servicesandapis

 

Substance 3D Models SDK

Substance 3D Designerで作成したパラメトリックモデルをあらゆる3Dアプリケーションで活用し、汎用性の高い多目的な3Dアセットを作成できます。

近日公開予定

 

今すぐビルドを開始

Substance 3Dが提供するSDKを調べたり、開発者コンソールでドキュメントを見ることができます。

 

パートナーシップ

プロフェッショナルなソフトウェア開発者の方で、さらなるサポートが必要な方。
Substance 3Dマテリアルのネイティブサポートに関するパートナーシップの締結。

substance-3d-partnership@adobe.com までご連絡ください。

参考資料

フォトリアリスティックな3Dポートレートを作成するための5つのステップ

フォトリアリスティックな3Dポートレートを作成のコツについて書かれた記事が公開されています。

http://www.cgchannel.com/2022/01/5-steps-to-creating-convincing-photorealistic-3d-portraits/

 

リアルな3Dキャラクターのモデリング、テクスチャ、ライティングの方法を、グノモンワークショップの2人の講師がワークフローで行っている手順と、リアルな似顔絵を描くためのコツを紹介します。

人間の顔は、筋肉、組織、骨の塊であり、毛穴、シワ、髪の束など、複雑なディテールに富んでいます。このディテールをCGでリアルに再現することは、業界最大の課題の一つであり、一歩間違えれば不気味の谷に転落してしまう。
しかし、今日のテクノロジーとそれを操る才能あるアーティストのおかげで、フォトリアリズムはかつてないほど簡単に実現できるようになりました。ただ、そのためには時間と労力と教育が必要です。

以下では、非常に優れたキャラクターアーティストであるŞefki IbrahimとAdam Springの2人が、人間のフォトリアリスティックな肖像画にどのようにアプローチしているかを明らかにします。彼らがどのようにイメージから始め、どのように彫刻し、テクスチャを貼り、光を当てるのか、そしてどのようにピクセルをポートレートに昇華させるための仕上げをするのかをご覧ください。

300以上のCGアートチュートリアルを提供するThe Gnomon Workshopに加入すれば、両氏の完全なチュートリアルを見ることができます。

 

ステップ1: 基礎を作る

まず最初に、人物の特徴を表すリファレンスを集めます。GoogleやGetty Imagesからできるだけ多くのリファレンスを入手し、PureRefのシーンにドラッグします。被写体をできるだけ多くの角度から撮影した写真を集めます。可能であれば、照明や焦点距離が同じで、被写体の年齢が同じである、同じ撮影現場から異なる写真を入手します。

ポートレートを作るときは、まずベースとなるメッシュを作ります。私のモデルは良いトポロジーを持ち、処理に十分なUVを持つ必要があります。その後、モデルをZBrushにインポートして、スカルプトに取り掛かります。

ベースメッシュは、画像の土台となるものです。この段階でも、全体のフォルムが人間らしく、プロポーションが正しく見える必要があります。トポロジーとUVがしっかりしていれば、後でディテールを追加するのも楽になります。

 

正面、横、縦など、あらゆる角度から撮影した顔の写真をたくさん集めてください。ローアングルで見上げると、鼻孔の形や鼻梁の幅、上顎の出っ張りがよくわかります。

また、さまざまな照明を参考にすることも重要です。ドラマチックなライティングは、フラットなライティングセットよりも、顔の構造に関する多くの情報を明らかにしてくれます。

肖像画の場合は、特定の年齢の被写体に焦点を当てたリファレンスを作成するようにしてください。顔は時間の経過とともに大きく変化しますし、被写体が長年にわたって顔に手を加えてきたかもしれません。

また、画家や写真家、他の3Dアーティストの作品を参考にするのもよいでしょう。雰囲気、構図、ポージング、ライティングなど、彼らの作品で気に入ったところをメモしておきましょう。

もしあなたがまだ始めたばかりなら、長いプロジェクトに巻き込まれないように、物事を緩やかに保つようにしてください。私は、最初から短いプロジェクトに取り組むことで、より多くのことを学びました。素早く練習用のスケッチをすることで、人間の頭の構造に慣れることができます。

すぐに素晴らしい作品にならなくても、心配しないでください。私のプロジェクトのほとんどは、最後にようやくまとまったものです。その苦労を楽しむことができれば、すべてのプロセスがより楽しくなるはずです。

解剖学に取り組み続けること。長年にわたり、皮膚の下で何が起こっているのか、顔の主要なランドマークや筋肉がどこにあるのかを理解することがいかに重要であるかを学びました。これを正しく理解することで、説得力のあるキャラクターモデルを実現することができます。

また、さまざまな表情を作るときに、顔の筋肉がどのように変形するかを理解しておくとよいでしょう。笑顔やしかめっ面を作るためにどの筋肉が使われるかを調べ、それが顔全体の形にどのように影響し、異なるボリュームやしわのパターンを作り出すかを確認します。シワは、筋肉の動きに対して常に直角に現れるます。

 

ステップ2:フォルムを彫る

最初のブロッキングの段階が一番楽しくて自由なことが多いですね。私は、ZBrushのClayBuildupブラシを使って、モデルにボリュームを追加したり削除したりして、参考写真で観察した顕著な顔のランドマークを定義するのが好きなんです。
被写体によっては、非常に目立つ特徴があり、スカルプトプロセスの初期に捉えるのが簡単な場合もあります。また、微妙な特徴を持つ被写体もあり、正しく表現するのに多くの時間を要する場合もあります。この時間を使って、観察力と解剖学の知識を鍛えましょう。

しかし、人間の脳は人間の顔の複雑さをすべて認識しているわけではなく、ほとんど象徴的に、全体として見ていることを忘れてはいけません。したがって、優れたキャラクターアーティストやポートレートアーティストになるためには、細部にこだわる癖をなくすことが重要です。その代わりに、より大きな要素がどのように組み合わされているかに焦点を当てる必要があります。

顔の造形を上達させる一つの方法は、ヘッドスキャンをダウンロードまたは購入することです。デッサンや絵画を学ぶ場合、2次元のリファレンスをコピーして練習することがありますが、スカルプティングの練習のためにスキャンをコピーしてみてはどうでしょうか。顔の奥行き、空洞、平面の変化など、3Dとしての顔についての知識を得るには最適です。

Şefkiが5週間かけて制作した3D人間。Maya、Wrap、Mudbox、ZBrush、Mari、Photoshopで作られています。このプロジェクトの詳細は、彼のArtStationプロファイルで見ることができます。

 

顎を下げて、目、鼻、口の3本の水平線をマークし、頬骨アーチの上下にある顔の側面に、頬と側頭骨の2つの平面を作成するんだ。

次に、主な形状をブロックアウトし、目、鼻、口の位置をマークします。頭蓋骨の形が整ったら、頬骨アーチ、鼻唇溝、上顎の湾曲など、顔の主要なランドマークを追加していきます。
顔のパーツ間の距離や角度を研究します。口角の高さ、顎の角度、眼窩の距離など。

行き詰まったときは、モデルのシルエットに着目して、違和感のある部分がないかを確認することもあります。また、そもそも、顔のさまざまな面を誇張するのも効果的だと思います。各平面が接する角度は、特に遠くから見たときに、視線を固定し、モデルをより読みやすくすることができます。

球体から3D頭部を開発する段階。まず基本的なプロポーションを確立し、次に主要な形状をブロック化し、徐々に細かいディテールを追加し、最後に表面のテクスチャを追加します。

 

モデルのベースが固まったら、目の周りや額のシワなど、二次的なフォルムを追加していきます。三次シワや毛穴などの細かいディテールに入る前に、一次と二次がある程度できていることが重要だと思います。もちろん、各レベルを行き来してもいいのですが、あまり急がず、大きなフォルムに挑戦したほうが、やり直しが少なくてすむと思います。

もうひとつの方法は、写真測量です。スキャンは、モデルの素晴らしいベースを提供してくれますし、プロダクションでは、早く結果を出すためによく使われます。しかし、個人的な仕事でそれを使いすぎると、キャラクターモデラーになるために必要な最も重要なスキルのいくつかを開発する、スケッチの段階を逃してしまうことになるのです。

Adamが暇つぶしに作ったFACSリグ。このプロジェクトの詳細は、彼のArtStationプロファイルで見ることができます。

 

リアルな結果を得るためには、モデルを非対称にすることが重要です。現実の世界では、顔は完全に対称ではないので、非対称であることがわかると、キャラクターに生命力と信憑性が加わります。この考え方は、キャラクターのポージングにも応用できます。肩をひねったり、頭を傾けたりすることで、一般的なAポーズよりもずっと自然に見えるようになります。

正しいカメラ設定でモデルを見るのも良いアイデアです。顔がフレームいっぱいに写るようなクローズアップの場合は、100〜200mmの焦点距離で撮影してください。全身を写すのであれば、50-85mmがよいでしょう。

 

ステップ3:キャラクターのテクスチャ

私はMariを使ってキャラクターのテクスチャを作るのが好きで、主にTexturing.xyzのリソースを使って、拡散マップとディスプレイスメントマップを作っています。

ディフューズマップの重要性は計り知れません。当たり前のことですが、ある3Dキャラクターから別の3Dキャラクターにディフューズマップを差し替えると、そのキャラクターが元にしている人物に見えなくなってしまうのです。Texturing.xyzを使ったとしても、再現しようとしている人物の似顔絵をエミュレートするための作業が残っています。

Texturing.xyzのデータをモデルに投影したら、Mariでそばかすやクマ、赤みなど、リファレンスで観察した特徴をハンドペイントで描きます。それをMayaやArnoldに取り込んで、何度もレンダリングテストを行い、納得のいくものに仕上げます。

テクスチャリングは、肌の毛穴や唇のシワ、うぶ毛などのディテールによって、画像に生命を吹き込むことができるのです。

 

テクスチャリングを行う際、モデルに手描きするか、スキャンデータを使用するかを選択することができます。

人間の肌の質感を再現するのは大変なので、ディフューズマップをハンドペイントする場合は、肌の色調にノイズやブレイクアップ、バリエーションを何層にも重ねる必要があります。顔全体の肉付きの良い部分と骨のある部分に注目してください。骨が表面に近いほど、その部分の血流は少なくなります。

スキャンを使えば手っ取り早くフォトリアリスティックな仕上がりになるので、制作現場ではスキャンを使うのが一般的です。3Dモデルのトポロジーをスキャンにラップし、そのサーフェスカラーを自分のUVに転送することがすぐにできます。その後、毛や、サブサーフェススキャッタリングやオクルージョンのような焼き込み照明効果を除去して、テクスチャマップをクリーンアップすることができます。

このプロセスをよりよく理解するために、スキャンなしでテクスチャを作成する方法を学ぶ価値は十分にあると思います。これは後でスキャンを使用するようになった場合、よりクリエイティブになることができます。スキャンが提供するマップの上で作業し、あなたのキャラクターのデザインに合うようにそれらを調整することができるからです。

ベースメッシュをスキャンにラッピングすることで、3Dポートレートに驚くべきディテールを与えつつ、きれいなトポロジーを維持することができます。

 

 

ステップ4:照明の設定

照明はポートレートに命を吹き込むものです。テストするときは、照明のセットを非常にシンプルにするのが好きです。時には、長方形や円盤状のライトを1つだけ使うこともあります。また、Arnold Skydomeを使って、Poly HavensIBL Archiveから入手したさまざまなHDRIに対して、モデルをテストすることもあります。

モデルに対してルックデヴを行う際には、ライトのサイズ、被写体との距離、画像の露出を考慮します。これらの要素はすべて、肌の見た目に影響します。
また、1つのライティングセットにこだわらないようにしましょう。フォトリアリズムを追求する場合は、お世辞にも美しいとは言えない照明条件でモデルをテストしてください。その結果を誰かに見せる必要はありませんが、モデルやテクスチャにもっと手を加えるべき点があることに気づくはずです。その後、再び適切な照明に戻して、自分の作品を披露することができます。

繰り返し行うことを忘れないでください。リファレンスを見ながら、モデルを作り直し、テクスチャを修正し、ルックデヴを調整し、ライトの設定を変更します。これは繰り返し行うことです。この繰り返しの中で、あなたの作品は明らかに向上していきます。

俳優エド・ハリスの素晴らしいポートレートは、MayaとArnoldを使用してライティングとレンダリングを行いました。このプロジェクトでは、ReallusionのキャラクタークリエイターソフトウェアのSkinGenを使用してベイクされたテクスチャが使用されています。

 

ライティングは最も重要なステップの1つです。これがうまくいくと、モデルを本当に売り込むことができます。様々なアーティストや写真家が、どのように照明を使って様々なムードを作り出しているかを研究してみてください。

アダムが描いたデビッド・アッテンボロー卿の肖像画。彼のArtStationのプロフィールで、舞台裏の画像をもっと見ることができます。

光は、被写体をどの程度照らすか、どの方向から照らすかによって、実にさまざまな効果を生み出すことができます。顔の形が変わったように見せることもできますし、被写体によっては、よりお洒落に見せることもできますし、その反対もできます。技術的な練習として、さまざまな照明の下でモデルをテストするのもよいでしょう。そうすることで、モデルがうまく機能しているかどうか、あるいは解剖学的に改善する必要があるかどうかを確認することができます。

 

 

ステップ5:最後の5%

5%とは?最終的なレンダリングに進む前に、いくつかのことを考えましょう。モデルのポーズを変えたり、カメラアングルを変えたりして、ポートレートにもっと興味を持たせることはできないでしょうか?焦点距離は、似顔絵に役立っているか?(私は50-70mmの焦点距離で、モデルをカメラに少し近づけるのが好きで、そうすることでキャラクターとの親密度が増すと感じます)

ライティングでどんなストーリーを語ろうとしているのか?スタジオライティングのセットであっても、ライティングを変えることでポートレートに深みと迫力を与えることは可能でしょうか?被写界深度、ノイズ、色収差を最終レンダリングに加えることで、より写真的なクオリティが得られるか?

私は、ポートレートを仕上げる際に、このような自問自答をするのが好きです。結局のところ、アーティストは自分の作品に対して意識的な決断をしているのです。そうやって、時間をかけて自分のスタイルを作り上げていくのです。

俳優でコメディアンのジム・キャリーのポートレートを制作。詳しくはArtStationのプロフィールをご覧ください。

 

モデルが完成し、ルックを微調整したら、レンダーパスの合成方法を試し、被写界深度やモーションブラー(アニメーションを使用する場合)を加え、結果をカラーグレーディングしてください。これらを行うことで、作品にさらなるリアルさが加わります。

キャラクターの背景は慎重に選んでください。私は、キャラクターとその周囲をある程度分離しながら、キャラクターのデザインを引き立てるような色やパターンを選ぶのがベストだと考えています。背景はシンプルなものが一番いい場合もあります。あまりに多くのものを入れすぎると、キャラクターからフォーカスが離れてしまいます。

3Dモデルを新しい文脈で使用することで、より多くのものを得ることができます。AdamのFACSリグは、51のブレンドシェイプ、9の補正シェイプ、そしてスキンシェーダのカラーと変位チャンネルに18のブレンドテクスチャを使用しています。

例えば、フェイシャルリギングのテストに使用したり、3Dプリントに再利用したりします。

私自身のキャラクター制作プロセスの詳細をご覧になりたい方は、私のInstagramページのハイライトで、各プロジェクトの最初から最後までを記録しています。

 

著者

ŞefkiIbrahim

CubicMotionの3Dキャラクターアーティストです。彼は以前、ILMでシニアルック開発者として働いており、ハイエンドのデジダブルを専門としています。彼の以前の仕事には、スキャンデータテクスチャのクリーンアップ、digi-doubleモデリング、テクスチャリング、グルーミング、および広告とデジタルヒューマンデモのルック開発が含まれます。

 

Adam Spring

視覚効果とアニメーションの分野で10年以上の経験を持つシニア3Dアーティストです。過去5年間、彼はBlur Studio、Activision、Ubisoftなどのクライアント向けのキャラクターパイプラインに取り組み、特に顔のモデリングとFACSパイプラインに焦点を当ててきました。

参考資料

Substance for Modo 開発終了

Substance for Modoの開発終了がアナウンスされました。サードパーティアプリでSubstanceを活用するためのツールを検討しているとのことですが残念ですね。

https://community.foundry.com/discuss/topic/158397/state-of-substance-for-modo

皆さん、こんにちは。
あまり良いニュースではありませんが、Modo用Substanceの状況についてお知らせします。

私たちは、ModoにおけるSubstanceのサポートを一時停止することを決定しました。残念ながら、Modoプラグインに対する需要と利用があまりにも少ないため、新しいリリースのためにプラグインを更新するための私たち側の継続的な開発努力を正当化することができないのです。
とはいえ、どんな決定も最終的なものではありません。このニュースに対するフィードバックや反応をお待ちしています。

本日現在、Modo 14はSubstanceを公式にサポートする最新バージョンです。

 

オープンソースではありませんが、サードパーティアプリでSubstanceを活用するためのツールをコミュニティに提供するための新しい方法を検討しています。近々、より多くのニュースがあることを期待しています。

 


 

Substance in Modo

https://substance3d.adobe.com/plugins/substance-in-modo/

Substanceの素材をModoで直接編集することができる

Substanceプラグインを使用すると、Modoで直接Substanceのマテリアルを使用することができます。ゲーム、デザイン、建築ビジュアライゼーション、VFXのいずれの分野でも、Substanceは生産性向上のために最適化された機能で、ユニークな体験を提供します。

 

Substance Kitメニュー

より速く、より生産的に。Substanceのパラメータにより、マテリアルの変更やテクスチャの更新をリアルタイムで行うことができます。

  • Substance SourceまたはSubstance DesignerからSubstanceマテリアルをインポート
  • Modo Unreal、Unity、glTF のカスタム マテリアルと、物理ベースのプリンシプル シェーディング モデルを使用できます
  • デフォルトおよびアドバンスドビューポートを使用して、Substance のパラメータをインタラクティブに調整可能
  • Substanceプリセットの作成と保存
  • インストールは、LPKをModoにドラッグ&ドロップするだけです

 

対応バージョン

Modo 11,12,13,14

CG News

Substance3D Painter7.3 リリース

AdobeがSubstance3D Painter7.3をリリースしました。ワープ機能がステキですね。

https://substance3d.adobe.com/magazine/warp-mode-enters-the-new-substance-3d-painter/
https://substance3d.adobe.com/documentation/spdoc/version-7-3-220857184.html

 

新しい投影モード:あらゆるものをワープさせる

新しい3Dワーププロジェクションモードを使えば、完全に非破壊的な方法で、あらゆるジオメトリの周りにあらゆるマテリアルやイメージをワープさせることができます。
このクールな機能は、デカールをモデルに合わせたり、傷跡を脚に合わせたり、スキャンした顔をキャラクターモデルに合わせたりしたい場合に、非常に役立つものです。

 

画像リソースをビューポートにドラッグ&ドロップするだけで、適用したいチャンネルを選択するだけで、自動的にレイヤーが作成されます。ワープツールは投影モードのドロップダウンにもあります。

 

ご覧のように、ワープモードはスキャンをコンテキストで編集するのに役立ちます。頂点を移動させることで、マテリアルをモデルに合わせることができます。これらのコントロールポイントは自動的にサーフェイスに密着するので、どんなテクスチャやマテリアルでも素早く正確にマッピングすることが超簡単にできます。
また、より詳細な作業を行うために、より多くの頂点が必要な場合は、グリッドをローカルに分割して微調整することができます。

さらにコントロールやディテールが必要な場合は、複数のローカルスキャンをレイヤー化してブレンドすることができますが、すべてのレイヤーはライブで再編集可能です。

 

これは、モデルにマテリアルを適用するための直感的な方法で、常に状況に応じて作業を行い、最終的なレンダリングをコントロールすることができます。また、この手法はVFXのワークフロー以外でも非常に有効です。例えば、衣服のパターンをワープさせることができます。肌の上のタトゥーをワープさせることもできます。スーツケースに貼られたステッカーをワープさせる......可能性は無限大です。

このチュートリアルでは、ワープモードの使い方をご紹介します。

 

さらなるプロジェクト

まだまだあります。この機会に、円筒形の投影モードが登場し、投影モードの多様性がさらに高まりました。

 

ボトルのような円筒形のものにシールや素材を巻き付けたり、腕にスリーブタトゥーを施したりする場合に有効な投影モードです。

 

すべての色を選ぶ

カラーマネジメントに焦点を当てた今後のアップデートに向けて、いくつかの基礎的な作業にも力を入れています。その第一弾として、カラーピッカーが改良され、他の機能に加えて、色見本を内部に保存できるようになりました。

また、カラーピッカーは、フロート値と整数値(0〜255)の間で選択でき、表示方法もリニアとsRGBの間で選択できます。また、カラーピッカーは、同じレイヤーでペイントしている間も開いているので、ペイントを中断することなく、新しい色をすばやく選んだり、色見本を交換したりすることができます。

 

Stagerであなたのアートをアピール

Substance 3DのStagerを試してみましたか?当社のメインレンダリングはStagerで作られています。

 

また、このキャラクターは、カスタムライティングと少しのコンポジットで輝かせて見せたいと思いました。そのためにはUDIMを使わずに作業する必要がありましたが、アセットをテクスチャセットに変換した後は、ワンクリックで「Send to Stager」と書き出すことができました。

また、カラーピッカーは、フロート値と整数値(0〜255)の間で選択でき、表示方法もリニアとsRGBの間で選択できます。また、カラーピッカーは、同じレイヤーでペイントしている間も開いているので、ペイントを中断することなく、新しい色をすばやく選んだり、色見本を交換したりすることができます。

Substance 3D Painterの新バージョンには、さらに多くの機能があります。パフォーマンスが向上したほか、Python APIに新しい関数が追加されました(メッシュの再読み込み機能が追加されました)。

詳細については、リリースノートをご覧ください。

CG News

AdobeがSubstance3Dコレクションを発表

AdobeがSubstance Suiteの代わりとなるSubstance3D Collectionを発表しました。製品名が変更され、新しいアドビの3Dブランディングとして緑色のアイコンに統一されました。
Designerにプロシージャルモデリング機能が搭載されたのと、VRスカルプトモデラーSubstance Modelerが公開されたのが驚きですね。

  • Substance Designer
  • Substance Painter
  • Substance 3DStager (旧Dimension)
  • Substance 3D Sampler (旧Substance Alchemist)
  • Substance Modeler (ベータ版)

https://www.adobe.com/creativecloud/3d-augmented-reality.html
https://blog.adobe.com/en/publish/2021/06/23/announcing-adobe-substance-3d-tools-for-the-next-generation-of-creativity.html#gs.4yxei3

このコレクションは、プロジェクトの最初から最後まで、3Dクリエイティビティをサポートする相互運用可能なツールとサービスのスイートです。

このコレクションは3Dコミュニティにおいて非常に優れた伝統を持っています。Substanceは、「Half Life Alyx」や「Microsoft Flight Simulator」をはじめとするAAAゲームタイトルの大半や、「Star Wars: Episode IX」や「Blade Runner 2049」などの映画、デザイン、建築などの制作に長年にわたって使用されてきました。Substanceを開発したチームは2年前にアドビに入社して以来、パワフルで使いやすく、統合された3Dツール群の構築に取り組んでいます。

チームが目指したのは簡単に学べて成長できないツールを作り、創造性に限界を与えないことでした。Substance 3Dはベテランの3Dアーティストが必要とする最先端の技術を提供する一方で、新しい3D愛好家がアクセスできるメディアでもあります。
人工知能の力を利用して3Dデザインの技術的な複雑さの多くを排除し、アーティストがPhotoshopやIllustratorで慣れ親しんだ「見たままが得られる」インターフェースを採用しています。このコレクションにはツールだけでなく、何千ものモデル、テクスチャ、照明システム、その他のアセットが含まれており、プロジェクトのスタートに利用することができます。

 

Substance 3D Collectionには以下が含まれます。

Substance 3D Stager

Adobe Dimensionで確立された基盤の上に構築されたStagerは、モデル、マテリアル、ライトを3Dシーンに簡単に組み立て、魅力的なバーチャル写真やレンダリングを作成することができます。

https://www.adobe.com/products/substance3d-stager.html

 

Substance 3D Painter

3DのPhotoshopとも呼ばれるPainterでは、3Dオブジェクトにテクスチャやマテリアルを適用することができます。手を伸ばして触ってみたくなるようなリアルな3Dオブジェクトを実現するには、細かくカスタマイズ可能なテクスチャーが鍵となります。

https://www.adobe.com/products/substance3d-painter.html

 

Substance 3D Sampler

Substance Alchemistの基盤の上に構築されたSamplerは、マテリアルの作成をさらにシンプルにします。写真を持ってきて、すぐにフィルターをかけたり、要素を混ぜたりしてあっという間にテクスチャーなどの素材を作ることができます。

https://www.adobe.com/products/substance3d-sampler.html

 

Substance 3D Designer

Designerではカスタマイズ可能な独自のテクスチャ、マテリアル、さらには3Dモデルをゼロから作成することができます。

https://www.adobe.com/products/substance3d-designer.html

 

Substance 3D アセットライブラリ

当社のコンテンツチームは、モデル、ライト、マテリアルなど、カスタマイズ可能な数千の3Dアセットを作成しました。錆びたドライバーから飛行機の客室の壁まで、ファッション、自動車デザイン、建築、ゲームなど、さまざまな用途に応じたモデルが用意されており、企画中のプロジェクトを一足先に進め、ディテールやニュアンスに富んだシーンを作るために必要なものばかりです。また、これらの高度なアセットがどのように作られたかを見ることができるので、自分の作品に同じテクニックを応用することができます。

 

このコレクションは、私たちの3Dイノベーションの始まりに過ぎません。また、Substance 3D Modelerという次期ツールのプライベートベータ版を公開しました。これは、独自の3Dオブジェクトを作成できるモデリングツールです。Modelerは、VRインターフェースを用いて、粘土を手で彫るような自然で有機的な感覚を再現します。また、デスクトップ上でモデルを操作できるので、マウスやタブレットの精密な操作性を活用することができます。

 

3Dクリエイティブの魅力の一つは、その汎用性の高さです。現在、多くのデザイナーがマーケティングイメージや製品カタログを作成するために3Dを使用していますが、仮想現実や拡張現実の中に、クリエイティブな人の想像力だけで、没入感のある世界を作り出すことも可能です。私たちの未来の体験の多くは、3Dの没入型インターフェースを通してもたらされると思います。アーティストは、この新しいメディアで何が可能かを発見する夢想家であり、リスク・テイカーでもあります。

参考資料

Snappers Wrinkles Designer

しわをすばやく作成できるMayaの新しいツールのビデオプレビューらしい。

Snappers Wrinkles Designer(Snappers Character Designer Suiteの一部)を使って、高品質でリアルなシワマップのフルセットを数分で作成するための新しいモデリングコンセプト(パラメータ化されたカーブモデリング)をご紹介します。トポロジーやUVレイアウトに関係なく、あらゆるモデルと互換性があります。

Tips

ZBrushで作成したディスプレイスメントマップをmodoで使用する方法

ZBrushで作成したディスプレイスメントマップをmodoで使用する方法について書いてみます。使用バージョンはmodo 14.0、ZBrush 2020.1.4です。

 

ZBrushでディスプレイスメントマップを作成する方法

ディスプレイスメントマップ作成 オプション

ZBrushからディスプレイスメントマップを出力する場合の設定です。「スケール」1、「中央値」0.5であることが重要です。それ以外のオプションは必要に応じて設定します。

 

 

アダプティブ

アダプティブはポリゴンの領域計算が正確になります。しかし、このオプションは信頼性が低く大きな解像度では不要という情報を見かけます。使用するデータに合わせて見比べるのがよさそうです。

 

DPSubPix

DPSubPixはサブピクセルの精度で、値を上げると滑らかなピクセルになります。4が望ましいですが値を高くするとレンダリング時間が長くなります。高解像度のメッシュ(16mil以上)や、マップサイズが2048以下と小さい場合は2でも十分なようです。

中央値

ディスプレイスメントの押し出し基準となる値です。16bit画像はマイナス値を持つことが出来ないので、中央値がディスプレイスメントしないグレー色、凸が白色、凹を黒色のピクセルとして出力されます。

 

垂直反転

垂直反転はUVのV軸を反転します。modoからGozを使用してZBrushにメッシュを転送した場合、UVはmodoのUV方向と一致します。objやfbx形式でメッシュをインポートした場合はUVが「垂直反転」します。必要に応じて使用します。

 

マップを作成してエクスポート

「ディスプレイスメントマップ作成」で作成されるマップは16bitフロート固定です。16bitでも十分な結果が得られますが、32bitのマップが必要な場合は「マップを作成してエクスポート」を使用します。

 

32Bit

32bitをONにすると32bitフロート画像でファイル出力することができます。OFFの場合は16bit画像として出力します。32bit出力する場合は「3チャンネル」「32Bit」ONにして「マップを作成してエクスポート」を実行します。

「3チャンネル」がOFFの場合はグレースケールのファイルとして出力されるのですが正常です。しかし、「マップを作成してエクスポート」を使用した場合は以下の問題があります。

  • tif形式を使用した場合、壊れたtifが出力されます。
  • exr形式を使用した場合、Rチャンネルにマップを書き込むためmodoに読み込んだとき赤い画像になってしまいディスプレイスメントとして使用することができません。

マルチマップエクスポーター」はtifのグレースケール出力が正常に動作してるので、基本的にマップ作成はマルチマップエクスポーターを使用するのがいいと思います。UDIMを使用したモデルのマップを作成するときもマルチマップエクスポーターを使用します。

 

modoのメッシュにディスプレイスメントマップを適用する場合のマップ作成

modoで作成したメッシュをZBrushでスカルプトしてマップを作成し、そのマップをmodoのメッシュに適用する場合はモーフターゲットを使用した状態でディスプレイスメントマップを作成する必要があります。

ZBrushからGoZでmodoに転送したメッシュを使用する場合、この作業は必要ありません。

 

モーフターゲットを使用したマップの作成方法

  1. モーフターゲットサブパレットで「MT格納」をクリック
  2. 「インポート」を使用して元のメッシュを読み込みます
  3. 「切り替え」でモーフターゲットの状態になってることを確認して「ディスプレイスメントマップ作成」を行います

 

ZBrushで「ディバイド」したりスカルプトした場合、低SubDivのメッシュも変形します。このため元のメッシュにディスプレイスメントマップを設定する場合は、元のメッシュとスカルプトで変形したメッシュとの差をなくす必要があります。

モーフターゲットを使用してマップを作成することで、元のメッシュで正しい変形結果を得られるディスプレイスメントマップを作成することができます。

 

オリジナルメッシュ
立方体と平面

 

スカルプトしたメッシュ SubDiv7
立方体のみスカルプトで凹凸を作成

 

スカルプトしたメッシュの SubDiv1
スカルプトの影響で低SubDiv時のメッシュが変形している

 

モーフターゲットを使用しない状態で作成したディスプレイスメントマップ。立方体の角が膨らんでしまいます。

 

モーフターゲットを使用した状態で作成したディスプレイスメントマップ。ZBrushと同じ形状でレンダリングできます。

 

 

modoでディスプレイスメントマップを設定する方法

ZBrushから出力したディスプレイスメントマップをmodoで使用する方法です。modoでディスプレイスメントマップを正しくレンダリングするにはいくつか設定が必要です。

  • 画像レイヤーとマテリアルを設定
  • サブディビジョンをCatmull-Clarkにする
  • UV補間をリニアにする

 

画像レイヤーとマテリアル設定

画像が16bitと32bitで設定方法が異なります。

 

16bit画像

画像レイヤーで「下限値」「上限値」にZBrushのディスプレイスメントサブパレットの「強度」×100を設定し、マテリアルの「ディスプレイスメント距離」を500 mmに設定します。これはGoZを使用したときに設定される方法と同じです。

デフォルトのレンダリング設定だとポリゴンが荒いので、レンダー設定の「ディスプレイスメント評価間隔」に小さい値を設定します。「ディスプレイスメント評価間隔」は小さいほど良好な結果になりますが、レンダリング時間が長くなります。

ZBrushのディスプレイスメントサブパレットの「強度」の値。「強度」はZBrushが作成する画像ファイル名にも追加されます。

 

32bit画像

画像レイヤーの「下限値」-100%、「上限値」100%に設定して、「ディスプレイスメント距離」を500 mmに設定します。ただし、マップに保存されている値が1より大きい場合、デフォルトではディスプレイスメントがクランプされてしまいます。

 

このような場合はチャンネルビューポートで「source High」の値を高く設定します。「source High」はプロパティに表示されないチャンネルなので、ちょっと不親切ですね。

 

ディスプレイスメント距離の「500 mm」という値は、modoのレンダラーが使用するディスプレイスメントの基準値と思われます。

3Dソフトはソフト内で使用する基準となる大きさがあり、modoの場合は1 mが基準になっています。ディスプレイスメントマップには何センチのように絶対的な距離が保存されているわけではないので、ディスプレイスメントの押し出し方向 ±500 mm の基準値+マップの値でディスプレイスメントされます。

 

 

サブディビジョンをCatmull-Clarkにする

modoには2種類のサブディビジョンが搭載されています。modoオリジナルのサブディビジョン(Tab)と、Catmull-Clarkサブディビジョン(Shift+Tab)です。
ZBrushの「ディバイド」はCatmull-Clarkサブディビジョンを使用しているので、ZBrushからディスプレイスメントマップを出力してmodoで使用する場合は、Catmull-Clarkサブディビジョンを使用すると形状が一致します。

下の画像はmdooのCatmull-Clarkサブディビジョン(白色)と、ZBrushでディバイドしたメッシュ(赤色)を同じ位置に重ねてレンダリングしたものです。形状が一致してるのが確認できます。

まだら模様に見えるのはレンダラーの特性によるものと思われます。ポリゴンが同じ位置にある場合どちらのポリゴンを前面にレンダリングするか優先順位がポリゴンごとに変わっているため、まだら模様が発生しています。Dキーを使用して細分化したメッシュや、ジオメトリキャッシュを比較すると頂点位置が一致していることが確認できます。

 

MayaのArnoldでメッシュスムーズプレビューをレンダリングした画像、同じく形状が一致してます。

ZBrushのSubDiv4はmodoの「レンダーレベル」3に対応します。同様にMayaのMesh Smoothも3になります。

 

UV補間をリニアにする

modoはサブディビジョンをONにしている場合、UVマップに対してもサブディビジョンを適用します。ZBrushから出力したマップを使用する場合は、メッシュのプロパティで「リニア UV」をONにします。

 

ZBrushのマップ作成オプションに「スムーズUV」というオプションがありますが、modoでUVを一致させるには「スムースUV」をOFFの状態でマップを作成する必要があります。

 

ZBrushの「スムーズUV」は他のソフトでも基本OFFがいいように思います。3dsMaxはOpenSubdivモディファイヤにUV補間に関するオプションがあります。Mayaも同様にUV境界のスムーズ設定があるのですが、ZBrushの「スムーズUV」とは計算が一致しません。ZBrushの「スムーズUV」と同じような補間が出来るのは、Arnoldの「pin_borders」が近いように思います(試したけど微妙にずれる気がする)。

 

メッシュの比較

modoでディスプレイスメントマップを適用したモデル(白色)と、ZBrushから出力したハイメッシュ(青色)の比較です。だいたい同じような形状になってるのが確認できます。

 

 

ノーマルマップを作成/使用する方法

おまけでZBrushからノーマルマップマップを出力する場合の設定です。

 

Gozで読み込んだ法線マップはカラースペースの設定が「デフォルト」になってます。この状態だと法線マップによるシェーディングがおかしな状態になることがあります(カラーマネジメントの設定によります)。そんな時はカラースペースを「リニア」にすると解決します。

 

 

参考

ZBRUSH DISPLACEMENT IN MODO

modoのチュートリアル。
http://www.xuanprada.com/blog/2014/7/30/zbrush-displacement-in-modo

このチュートリアルではマップ作成時に「中央値」0、modoのレイヤー設定では「下限値」0%「上限値」100%、「ディスプレイスメント距離」1mに設定しています。

私の記事で「中央値」0.5を使用したのは16bitと32bit画像で共通して使用する設定にするためです。Arnoldと設定を合わせたい場合は「中央値」0の方がいいかもしれません(ArnoldのScalar Zero Valueで合わせられる気もします)。

 

ACCURATE DISPLACEMENT WORKFLOW

ディスプレイスメントの基本的から解説されてます。
https://www.cggallery.com/tutorials/displacement/

Tips

modoでUDIMを使う方法

modoのUDIMの使い方について書いてみます。AfterEffectsやPremiereなどの動画編集ソフトでは連番画像を1つの素材として扱いますが、UDIMを使用すると複数のテクスチャ画像を1つの画像レイヤーとして扱うことができるので便利です。

 

UDIMとは

UDIM (U-Dimensionの略称)は、UV空間の整数ブロックに番号を割り振って管理する方法です。UVブロックと画像は1001、1002、1003...のような4桁の番号を使用してペアとして扱い管理されます。

UDIMは既存のUV作業工程と大きく変わりません。一般的なUVは0~1の範囲にメッシュを配置していましたが、UDIMでは0~1の外側の領域も使用します。UV空間の0~1の範囲を1001、1~2の範囲を1002のように番号で管理します。画像も同様にUV範囲に対応した番号をファイル名に含めることでUVとペアとして管理する仕組みです。

 

UVブロック

 

画像のファイル名称

 

UDIMの歴史は思いのほか古く、Weta Digitalが2002年公開の映画「ロード・オブ・ザ・リング/二つの塔」制作時に開発しました。その後Weta DigitalのインハウスツールだったMARIMudboxが一般販売されたことから、広く使用されることになります。

 

UDIMのメリット

UDIMのメリットは大きく2つあります。

  • 高解像度の画像を1枚だけ使う代わりに、複数の画像を使用できる
  • 単一の画像レイヤーとして管理できる

 

複数の画像を使用して高解像度化

高解像度の画像を1枚だけ使う代わりに、そこそこの大きさの画像をいくつも並べて、結果的に解像度の高いテクスチャにすることができます。
PhotoShop等で画像を編集するときも高解像度の画像1枚より、そこそこの大きさの画像複数枚のほうが取り回しが楽です。

 

1枚の画像レイヤーとして管理

複数のUVマップを使用する方法だと、画像レイヤーが複数必要でした。または、画像ごとにマテリアルを分ける必要がありました。UDIMを使用すると1レイヤーで済むようになり管理が楽になります。

 

複数のUVマップを使用した例(従来のUV設定方法)

1つのメッシュ内で複数のUVマップを使用した場合、シェーダーツリーではUVマップと同じ数の画像レイヤーが必要になります。画像レイヤーでは1枚ごとに使用するUVマップを指定する必要があり、画像枚数が多いと設定するのが手間です。

 

UDIMを使用した例

UDIMを使用した場合、シェーダーツリーは画像レイヤー1枚ですみます。下の画像ではディフューズ色のみの設定ですが、スペキュラー、ディスプレイスメント、法線など複数種類のマップを使用する場合は、UDIMを使用した方が管理が楽になります。

UDIMは元々は高解像度で大量のテクスチャを使用するWetaのインハウスツールに適した仕様として考えられたのだと思いますが、ゲームエンジンでもテクスチャのストリーミング等でメモリ使用量を少なくできるなどのメリットがあるようです。

 

modoでUDIM画像を読み込む方法

UDIM画像の読み込みには「新規UDMIの読み込み」を使用します。

  1. シェーダーツリー の「レイヤー追加」から「新規UDMIの読み込み」をクリックしします。
  2. ファイルオープンダイアログから、使用する画像を選択して「開く」をクリックします。
    開いた画像は自動的にフォルダにまとめられ「ファイル名称からUDIM番号を設定」が実行されます。
    画像レイヤーでは「画像」にフォルダが設定されることにより、UDIMとして動作するようになります。

 

UDIMはZBrushのように複数のUVマップに対応していないソフトでも使用できるので覚えておくと便利です。

ゲームではUDIMが使われることは少ないようですが、先日Substance PainterがUDIMに対応したので今後ゲームでの利用も増えたりするかもしれません。

 

参考

UDIMワークフロー
https://learn.foundry.com/modo/14.0/content/help/pages/uving/udim_workflow.html

CG News

Epic GamesがQuixelを買収

Epic Gamesはフォトグラメトリーによる3Dスキャンデータライブラリを公開しているQuixelを買収したようです。

1万点を超えるMegascansアセットはUnreal Engineユーザーが無料で利用できるようになり、UE4以外のユーザーのアセットコストは削減されます。当初ベータ終了時に$99のスタンドアロンアプリケーションになる予定だったMixerBridgeは無料でリリースされます。最初の無料バージョンであるMixer 2020とBridge 2020は今年後半に出荷予定。

Quixelは元の名前を残し、6か国で100名を超える従業員全員がEpic Gamesに参加します。
https://www.unrealengine.com/en-US/blog/epic-games-and-quixel-join-forces-to-empower-creators

https://quixel.com/blog/2019/11/12/quixel-joins-forces-with-epic-games

MegascansがUnreal Engineで使用できるようになります

Megascansライブラリは、Unreal Engineで使用するために完全に無料になりました。

つまりMegascansをUE4で使用している場合、BridgeとMixerおよびUnreal Engine Marketplaceの豊富なMegascansパックを介して、すべてのMegascansに無料で無制限に即座にアクセスできます。10の高解像度パックが本日、Unreal Engine Marketplaceで無料で共有され、追加のアセットパックはUnreal Engine 4.24のリリース期間内にMarketplaceで無料で利用できるようになります。これにより好きな方法でコンテンツにアクセスできます。

UE4でのみMegascansを使用している場合、2019年のすべてのサブスクリプションを払い戻します。アクティブなサブスクリプションをお持ちの場合は、ログインして払い戻しを取得する方法を確認してください。2019年にMegascansを購入したが、有効なサブスクリプションがない場合は払い戻しについて連絡します。

Megascansサブスクリプションの価格がすべての人に対して低下しました

Epic Gamesの支援により、Megascansの価格設定を即座に削減し、ダウンロードするコンテンツをほぼ2倍にし、解像度キャップを削除します。サブスクリプション期間の残りの期間についても払い戻しを行っており、新しいプランのいずれかに飛び乗ることができます。有効なサブスクリプションをお持ちの場合は、ログインして払い戻しを取得する方法を確認してください。

Bridge と Mixer 2020はすべての人に100%無料です

Epicは今後の2020バージョンのBridgeとMixerをすべての人に100%無料で提供するのに役立ちます。サブスクリプションは不要で両方とも完全に機能します。私たちは新しい無料バージョンを今から数週間以内にリリースします、そして最終的にあなたと今後のアップデートを共有できることを嬉しく思います。

Bridge 2020

Bridge 2020は大幅に改善されたブラウジングエクスペリエンスをもたらし、時間を可能な限り節約し、創造性を刺激するように設計されています。

閲覧はより視覚的で関連性が高く、楽しくなりました。ほぼ100の新しいコレクションが追加され、検索バーがよりスマートになり、強力なフィルタリングが導入されました。さらにフィードする画像内のすべてのアセットを検索するAI検索機能を実装しました。これにより、現実世界のリファレンスやコンセプトアートがあるかどうかに関係なく、環境計画が大幅に容易になります。

Mixer 2020

Mixer 2020は3Dペインティング、リアルタイム3D Curvature、スマートマテリアルなどを導入しました。

このアップデートでは最終的にMixerを究極にするための別のステップとして、3Dブラー、グループ化、マップ固有のブレンド、高度なAOミキシング、ボックス投影、マテリアルIDマスキング、3D位置グラデーション、3D法線も導入しました。現在、無料のテクスチャアプリです。

つまりスマートマテリアル、3Dペイントメッシュの設計、タイル化可能なサーフェスの作成をすべて1つのアプリで行うことができます。QuixelMixer 2020はスキャンデータ、PBRペインティング、手続きオーサリングをシームレスに融合し、毎日10,000回のスキャンと新しいコンテンツのローリング。Mixer 2020はオーガニック、ハードサーフェス、フォトリアル、または定型化されたテクスチャリングを対象としても、3Dまたは2Dで作業していても、最終的にカバーします。

参考資料

Lightbrush Cloud

画像からテクスチャマップをキャプチャしてテクスチャとイルミネーションに分けて画像操作ができるツールが、Webアプリケーションとしてサービス開始しました。現在アルファ版で提供されています。https://lightbrush.org/

価格
  • 1画像 $1
  • 100画像 $30/月
  • 500画像 $95/月

 

光と質感をトータルコントロール

Lightbrush Cloudを使用すると、画像のイルミネーションとその表面の色をさまざまなレイヤーに分割して編集できます。テクスチャマップの作成から写真の変更まで可能性は無限です。

 

3Dグラフィックスやビデオゲーム用のテクスチャマップを簡単に作成

 

正確なイルミネーションを維持しながら表面の色を変える

 

元の表面色を維持しながらイルミネーションを変更する

 

新しいLightbrush Cloud

新しいLightbrush Cloudアプリケーションにより、PCとインターネットにアクセスできる人なら誰でもLightbrushの背後にある強力なテクノロジにアクセスできるようになります。この新しいプラットフォームに依存しないアプリケーションを使用すると、画像をアップロードしてGoogle Cloud Computer Networkの機能で数秒で処理できます。

参考資料

CGモデルにディテールを追加するツール「Nexture」

フランスのCronobo VFXが開発するディテール生成ツール「Nexture」。
NextureはCGモデルにディテールを追加する方法を提供することを目的としたまったく新しいツールです。人工ニューラルネットワーク(ANN)とカスタム画像合成アルゴリズムを組み合わせて、参照パターンバンクからCGテクスチャマップにディテールを転送します。
https://cronobo.com/

AIを使用したディテール生成というと、映画アリータ毛穴生成を思い出しますね。以下のURLインタビューが公開されています。元々VFXとは関係ないエンジニアの方がテクスチャ転写技術に興味を持って作ったのが始まりのようです。数週間以内にインターフェースがあるソフトウェアをリリース予定らしい。
https://beforesandafters.com/2019/06/20/ever-felt-you-might-need-a-texture-micro-details-synthesizer/

概要

NextureはAIを使用して単一のテクスチャから多数のバリアントを合成します。最も細かい部分を統合しながら、テクスチャの構造に合った新しい画像レイヤーを生成します。

4Kディスプレイスメント