参考資料

参考資料

The Matrix is Unreal

先日公開された映画マトリックスを題材にしたUnreal Engine 5 のデモのインタビュー記事が公開されています。

車に人が反射してるなと思ってましたが、リアルタイムレイトレースだったんですね。ネオとトリニティが掛け合うシーンと、街のワイドショットがプリレンダーで他はリアルタイムらしいですが、車内の掛け合いがリアルタイムだったなら凄い。

https://www.fxguide.com/fxfeatured/the-matrix-is-unreal/

1999年、キム・リブレリはマトリックスのオリジナル映画でバレットタイムのスーパーバイザーを務めました。現在、彼はEpic GamesのCTOを務めており、彼とチームはマトリックスに帰ってきたところです。
UE5で示された技術的な進歩と新作「The Matrix Awakens」との驚くべき結びつきで、新しい技術デモAn Unreal Engine 5 Experienceが開始されました。この最先端のショーケースは、PlayStation5とXbox Series X/Sで無料でダウンロードできます。

この境界を越える技術デモは、WarnerBrosのThe Matrix Awakensの世界におけるオリジナルコンセプトピースです。ラナ・ウォシャウスキーが監督・脚本を手がけた、ウィットに富んだ巧妙なシネマティックです。キアヌ・リーブスとキャリー・アン・モスのデジタルバージョンが登場し、二人の俳優がスキャンされて複製され、1999年のネオとトリニティの役をそのまま再現しています。

編注:この体験は映画の一部ではなく、UE5 でできることを紹介するための技術デモです。

 

今週初め、チームにインタビューした際、シニアキャラクターアーティストのLana Lanは、「このプロジェクトは、UE5の進化、優れた芸術性と技術、そしてキャラクターに関する新しいスキャン技術の多くを表しています」とコメントしました。
Epicチームの目標は、新しく進化した技術をすべてテストして押し進め、UE5がクリエイターのために準備万端であることを本当に確認することでした。「学んだことの多くはツールに折り返されると思いますし、また来年にはこの多くをコンテンツサンプルとしてリリースする予定です」と付け加えています。

ゲーム機のダウンロードパッケージは約28ギガで、当初は国内のゲーム機で何ができるかをリアルタイムに見せるためのものです。その後、都市などのアセットパーツは、Epicのメインサイトからダウンロードできるようになり、デスクトップパソコンで探索できるようになる予定です。

 

このプロジェクトには、James McTeigue、Kym Barrett、John Gaeta、Jerome Platteaux、George Borshukov、Michael F Gayが参加し、SideFX、Evil Eye Pictures、The Coalition、WetaFX(旧称Weta Digital)などのパートナーやEpic Games全体のチームと共同しています。

ワコウスキー、リブレリ、ゲータの3人は、3部作の時代からの友人です。「私が Matrix の新作を作ることを彼らに告げると、Epic のサンドボックスで遊ぼうと提案されました」と Wachowski 氏は語ります。「そして、なんということでしょう、このサンドボックスは!」とWachowski氏は言います。

映像はプリレンダリングされた2つのショットを除き、すべてリアルタイムでレンダリングされています。ネオとトリニティが掛け合うシーンと、街のワイドショットの2つです。
これはデータが膨大なため、アセットの読み込みに時間がかかり、体験のテンポが崩れてしまうからです。これらのショット以外は、標準的なゲーム機でリアルタイムにレンダリングされます。

 

デジタルアクター

デモではキアヌ・リーブスとキャリー・アン・モスが、驚くほどリアルなデジタルヒューマンとして演技と肖像画を披露しています。これを実現するためにEpicの3Lateralチームは、Novi Sadのスタジオで俳優の顔の高忠実度3Dスキャンとパフォーマンスの4Dキャプチャを行いました。リーブズとモスはドイツにいたため、セルビアに飛び1日かけて顔と4Dスキャンを行いました。

「EpicのシニアテクニカルアーティストであるPete Sumanaseniは「このプロジェクトは本当にタフでした」CG のキアヌ・リーブスを、本物のキアヌと同じショットに登場させたのです。
ティーザー予告編が公開された直前の1週間、人々はデジタル キアヌを見ているのか、それとも実際の俳優を見ているのか混乱していましたが、ツイッターの驚くべき反応から判断すると、Epicチームは成功したのです。

今でも、人々は何度も映像を見て混乱しています。「初めて見る古いキアヌは、私たち(Epic)が撮影した彼のビデオ撮影でした」とPeteは説明します。「モーフィアスを追って戻ってきた後は、すべてCGバージョンです。同じに見えるように色調補正をしたんだ。
また、鏡に映った映像が見える箇所がありますが、これはUE5でコンプした本物のフィルム映像でした。モーフィアスの最初のショットもCGではなく、その後、若き日のトーマス・アンダーソン(ネオ)が登場するとCGになる。冒頭のアンダーソンが寝ている机のシーンも、オリジナル映画のシーンをリアルタイムに再現したものです。

 

Epicのチームは、さまざまな新しい技術をたくさん使いました。3Lateralチームは、さまざまなスキャンソリューションとシナリオを使用しました。彼らは7台のステレオペアのカメラを搭載したモバイル4Dスキャナーを使用し、このデータは特に価値のあるものであることが証明されました。
また、EpicのCubic Motonチームによって作られたHMC IIリグと、よりクラシックな交差偏光スキャンアレイも使用しました。特に、IO用にキャプチャされたダイアログに対してオフラインで実行されるポーズベースのソルバーを使用したそうです。

しかし、スキャンが進歩しても、CG素材やリグ、そして背景のキャラクターはすべて、現行のMetahumanの技術です。主な違いは、特定の衣装や髪が必要なことです。
例えば、IOは標準的なメタヒューマンの編み込みではない、複雑な髪の手入れをしています。ヘアについては、グルーミングを外部で行い、インポートしています。

オリジナルのミートマイクのプロジェクトに携わっていたアダムは、UEのヘアが時代とともにどのように変化してきたかを説明します。
「Digital Mikeの時はXgenを使用し、小さなジオメトリストリップをエンジンにインポートしました。それ以来、私たちはより良いワークフローとシステムを作るために多くの努力を払ってきました。今ではジオメトリストリップを持ち込むのではなく、スプラインを持ち込んで、そのガイドスパインヘアからヘアが作成されるようになっています。インポートされるとすべてのヘア ダイナミクスが Engine でリアルタイムに生成されます」

 

体験者の台詞はすべて、セルビア滞在時に録音された本人の声です。ほとんどの場合3Lateralのチームは、俳優が言ったセリフの一つひとつを4Dキャプチャーアレイで撮影しました。
メインの台本に加えて、俳優たちはROM(レンジ・オブ・モーション)を行いました。変更されたセリフもありましたが、その場合は機械学習プロセスで顔の動きを推測し、3Lateralのリグを駆動させました。

3Lateral Studioのリードテクニカルアニメーターのマルコ・ブルコヴィッチは「しかし、新しい4Dキャプチャ技術を使ってキャプチャされリファレンスされなかった、カメラの近くで配信されたセリフはありませんでした」と説明しています。

 

主役のキャラクターはルックデヴが多く行われましたが、通常の3Lateral Metahumansがベースになっています。「彼らは他のキャラクターと同じメタヒューマンのフレームワークに基づいており、すべてのLOD(詳細レベル)とすべてのフェイシャルコントロールを担当するシステムは、すべてのキャラクターで同じです」

例えばキャラクターの目は、角膜の膨らみと強膜への移行方法をより正確にモデル化するために、ベースモデルにいくつかの調整を加えた、すべてメタヒューマンの目です。
ベーススキャンはEpic GameのChris Evansの目をベースにしています。Lana Lan 氏は「眼球のさまざまな軸をすべて把握するために、眼科の論文のウサギの穴に入り込みました。チームは目のモデルを作り、それをクリスの目のスキャン画像と比較しました。そこから、キアヌとキャリー・アンの目を正確に表現できるように調整したのです」

 

キアヌのディージングの実現は、より困難なことのひとつでした。Epic Gamesのシニアキャラクターアーティスト、アダム・スカット氏。
キアヌがスキャンを受けるために3Lateralを訪れたとき、彼はメインユニットでの撮影を終えており、髭も剃っていました。しかし、57歳の俳優の若返りは、1999年当時の完璧なリファレンスがなかったため、複雑なものとなりました。「完璧なニュートラルポーズがなく、さらに1999年のユニバーサルキャプチャーを参考にしました」とアダムはコメントします。

オリジナルのマトリックスでは、主要な俳優たちはHDカメラをサイドマウント(9:16)して撮影されました。しかし、Sony F900sのISOの関係で、マルチカメラのパフォーマンスキャプチャーは非常に強い照明を使用していました。「彼は非常に暑く、明るい照明の下にいたので、目を細めていたと思うし、屋外のリファレンスもあったが、サングラスをかけていました」

衣装は実際にトリニティスーツを作ってもらい、モデルに着せました。その後、スキャンしてリファレンスしました。デジタル衣装は、アダム・スカットが担当しました。
「また、ワーナー・ブラザーズから大量のアーカイブを入手し、オリジナル映画のキャリー・アン・モスのリファレンスも用意しました。このリファレンスを使って、Marvelous Designerで彼女の服を作りました」

 

 

メタヒューマン クリエイター

オープンワールドの都市環境には、『MetaHuman Creator』の発売当初に2人いたローンチキャラクターのうちの1人である主人公のIOが登場します。

エクスペリエンスの制作にあたっては、CPU、グラフィックス、パフォーマンスの予算がありました。例えば、CGキャラクターが白地にいるときは背景がないため「レイトレースされたエリアライトをより多く使うことができました」とピートは振り返る。

「一方、車に乗り込むときは、複雑な背景のためにバッジェットを割かなければならなかったので、ライトの数を減らさなければならなかったのです。プロジェクト開始当初は15fpsで動作していましたが、最適化されるにつれてフレームレートが急速に上がりました。4Kテクスチャを多用し、ジオメトリを多用し、Lumenを使い、それ自体にコストがかかり、太陽光のための新しいシャドウマップ技術を使い、もともとすべての限界に挑戦していたのです」

ただし、最終的なエクスペリエンスは、PS5またはXBoxシリーズX / Sで実行されているゲームで何が可能かを示しており、ゲームデザイナーがゲームの通常のメカニズムを実行できるようにするCPUヘッドルームがまだたくさんあります。チームは新しいAAAゲームで実現できることに対して非現実的なデモを作成することを望んでいませんでした。

 

 

ワールドビルディング

サンプルプロジェクトのValleyof the Ancientが、UE5で利用可能な新しいテクノロジーのいくつかを垣間見せたところ、The Matrix Awakens:Unreal Engine5 Experienceは、インタラクティブなデモゲームであり、誰でもリアルタイムで実行できるエクスペリエンスであるため、さらに一歩進んでいます。

すぐにダウンロードしてください。 体験はカットシーン、最初のシューティングゲームのデモセクションで構成され、最後にユーザーは探索できる都市があります。

デモのアクションシーンの多くは、エキサイティングなショットをキャプチャするために街中を車で運転する乗組員から始まりました。 チームはシミュレートされた宇宙を使用して、実写映画製作者が都市を偵察してストーリーを伝えるのに最適な通りを見つけるなど、映画のコンテンツを作成することができました。

テクニカルデモでは、以前に紹介されたUE5の機能であるNaniteとLumenも展示されています。 インタラクティブな追跡シーケンスの後、ユーザーはUE5の仮想化されたマイクロポリゴンジオメトリシステムを使用して、密集したオープンワールドの都市環境を歩き回ることができます。

260 kmの道路、512 kmの歩道、1,248の交差点、27,848のランプポスト、12,422のマンホールが、実際のロサンゼルスのダウンタウンよりもわずかに大きい仮想世界にあります。
さらに、街をドライブしたり歩き回ったりすると、35,000人のメタヒューマンが日常業務を行っているところを通り過ぎることができます。

「確かに、私たちに最も近いものが実際のメタヒューマンであり、遠くにあるものは、メタヒューマンから生成された頂点アニメーションの静的メッシュであるという近接性があります」とLanaLan氏は説明します。

建物は法線マップではなく、Naniteの何十億ものトライアングルでできているため、非常に精細です。 建物にはすべてのディテールが組み込まれているため、ユーザーは任意の建物まで歩いて行き、完全にディテールになっていることを確認できます。

「ジオメトリに含まれるものはすべてモデル化されており、法線マップではありません。 高解像度モデルです」とラナは言います。 平均ポリゴン数は7000kで、建物は1000のアセットで構成されており、各アセットは最大で数百万のポリゴンになる可能性があるため、都市の建物だけを構成する数十億のポリゴンがあります。

街には、ナンバープレートから主要な開発者のショップまで、イースターエッグが用意されています。ラナは宝石店、ピートは何を売っているのか忘れてしまったのです!結局、この街は幅4,138km、長さ4.968kmもあるので、迷子になるのは簡単です。

 

ライティング

Unreal Engine 5 の完全ダイナミック グローバル イルミネーション システム Lumen は、リアルタイム レイトレーシングを活用して、デモのインタラクティブな部分全体でリアルな照明と反射を実現します。
リアルタイム レイトレーシングは、シネマティックな要素にも使用され、キャラクターの美しくリアルなソフトシャドウを生成しています。

ワールド全体の照明は、メッシュ上の太陽、空、放射性マテリアルのみで行われています。数万個ある街灯やヘッドライトの光源は配置していません。夜間モードでは、ほぼすべての照明が、数百万個の発光する建物の窓から照らされています。

このプロジェクトは1年以上前に始まり、60人から100人ほどのアーティストが参加し、多くはリモートで作業していた巨大なものでした。 マトリックスの覚醒 An Unreal Engine 5 Experience はゲームではありませんし、今後ゲームとしてリリースされることもありませんが、この技術デモは、インタラクティブ コンテンツの将来像を示すものであり、最先端のコンソール向けビジュアルの水準を示すものとなっています。

「キアヌ、キャリー、そして私は、このデモの制作をとても楽しみました。Epicのサンドボックスは、実験と大きな夢が大好きな彼らにとって、かなり特別なものです。シネマティック・ストーリーテリングの未来がどうであれ、Epicはその進化に少なからず貢献してくれるでしょう」

この新しい体験の舞台となるのは、広大で探索可能なオープンワールドの都市で、豊かで複雑な世界です。16キロメートル四方のフォトリアルで素早く移動できるこの街には、リアルな住民や交通機関が存在します。

参考資料

The Matrix Awakens: An Unreal Engine 5 Experience

映画マトリックスを題材にしたUnreal Engine 5 のデモがPSStoreで無料公開されています。ゲームっぽい技術デモとしてイベントシーンのガンシューティングとオープンワールド的な街の散策が楽しめます。

下のビデにある冒頭のカーチェイス部分が実写さながらで凄い。街中を歩くモードでは反射や遠くの建物がチラついてゲームだなとわかる感じですが、街がまるごと再現されてて物量が凄いです。コンフィグでカメラの設定いじったり、フィルターや時間を変更したり色々楽しめます。

https://store.playstation.com/ja-jp/product/UP1477-PPSA05753_00-MATRIXUNREALDEMO

参考資料

A Future Begins

農業に関するストップモーションアニメーション、雰囲気がいいです。

参考資料

Substance for Modo 開発終了

Substance for Modoの開発終了がアナウンスされました。サードパーティアプリでSubstanceを活用するためのツールを検討しているとのことですが残念ですね。

https://community.foundry.com/discuss/topic/158397/state-of-substance-for-modo

皆さん、こんにちは。
あまり良いニュースではありませんが、Modo用Substanceの状況についてお知らせします。

私たちは、ModoにおけるSubstanceのサポートを一時停止することを決定しました。残念ながら、Modoプラグインに対する需要と利用があまりにも少ないため、新しいリリースのためにプラグインを更新するための私たち側の継続的な開発努力を正当化することができないのです。
とはいえ、どんな決定も最終的なものではありません。このニュースに対するフィードバックや反応をお待ちしています。

本日現在、Modo 14はSubstanceを公式にサポートする最新バージョンです。

 

オープンソースではありませんが、サードパーティアプリでSubstanceを活用するためのツールをコミュニティに提供するための新しい方法を検討しています。近々、より多くのニュースがあることを期待しています。

 


 

Substance in Modo

https://substance3d.adobe.com/plugins/substance-in-modo/

Substanceの素材をModoで直接編集することができる

Substanceプラグインを使用すると、Modoで直接Substanceのマテリアルを使用することができます。ゲーム、デザイン、建築ビジュアライゼーション、VFXのいずれの分野でも、Substanceは生産性向上のために最適化された機能で、ユニークな体験を提供します。

 

Substance Kitメニュー

より速く、より生産的に。Substanceのパラメータにより、マテリアルの変更やテクスチャの更新をリアルタイムで行うことができます。

  • Substance SourceまたはSubstance DesignerからSubstanceマテリアルをインポート
  • Modo Unreal、Unity、glTF のカスタム マテリアルと、物理ベースのプリンシプル シェーディング モデルを使用できます
  • デフォルトおよびアドバンスドビューポートを使用して、Substance のパラメータをインタラクティブに調整可能
  • Substanceプリセットの作成と保存
  • インストールは、LPKをModoにドラッグ&ドロップするだけです

 

対応バージョン

Modo 11,12,13,14

参考資料

Battlefield 2042 Opening Cinematic

PS5で見るとエフェクトのグリッチなのか圧縮荒れなのかわからない個所があった。

参考資料

EpicGamesがHarmonixを買収

EpicGamesがRock Band、Dance Central、Guitar Heroシリーズの最初の開発者Harmonixを買収したようです。Guitar Heroシリーズははまったなー。

https://www.epicgames.com/site/en-US/news/harmonix-joins-epic-games-to-create-immersive-music-experiences
https://www.harmonixmusic.com/blog/harmonix-is-joining-the-epic-games-family

本日、HarmonixチームがEpic Gamesファミリーに加わることが発表、エキサイティングなニュースです。これはチームにとって記念すべき日であり、ファンの皆様からの長年のサポートなしには実現しなかったことです。

過去26年間、私たちは、人々が音楽を体験し、交流する方法を再定義するために、自らを奮い立たせてきました。初期のThe AxeからGuitar Hero、Rock Band、Dance Central、VRタイトル、FUSER、そしてその間にあるすべてのものに至るまで、我々は音楽ゲームのあり方を再定義することを志してきました。今回、Epicと協力して、再び期待に応えようと、当社独自の音楽ゲーム体験をメタバースに提供することになり、これ以上ないほど興奮しています。

このことが何を意味するのか、きっと皆さんも疑問に思っていることでしょう。そこで、簡単なFAQを作成し、最初の質問にお答えします。

 

Rock BandのDLCにはどんな意味があるのですか?

何もありません。2021年を終えて来年に突入するまでに、たくさんの素晴らしい楽曲をリリースする予定です。

 

Rivals Seasonsは続けるのでしょうか?

はい。シーズン25はすでに計画済みで、シーズン26やそれ以降もたくさんのアイデアがあります。

 

FUSERのイベントはどうですか?

こちらも変更ありません。

 

Rock Bandのインストゥルメントがもっとたくさん作られるということですか?

現在の計画にはありません。

 

FUSERや他のゲームはSteamで配信されますか?

はい、全てのゲームはSteamとコンソールで引き続きご利用いただけます。

 

INSERT HARMONIX GAME HERE]のサーバーはどうなりますか?オフラインになるのでしょうか?

当社の旧作ゲームのサポート方法を変更する予定はありません。

 

Harmonixチームは次に何に取り組むのでしょうか?

私たちのチームは、Epicと協力して、『Fortnite』の音楽の旅とゲームプレイを作り上げる予定です。まだ具体的なことは言えませんが、チーム全体が非常に楽しみにしています。ご期待ください。

参考資料

Tsugi製品全品50%OFF

Tsugi製品が全品50%OFFのブラックフライデーセール中です。各製品200ライセンス限定。

Tsugiはゲームやアニメーション向けの効果音をプロシージャルに生成する、ユニークな効果音作成ソフトウェアをリリースしてます。ペンタブ入力に合わせてSEを作成できるということで、簡単にゲームや映像用のSE作れるなら欲しいなと少し気になってました。

GameSynthを買えばDSPシリーズは買わなくていいのか、シリーズの違いが気になる。

http://tsugi-studio.com/web/jp/store.html

 

GameSynth

 

DSP Motion

 

DSP Action

参考資料

新しいレイヤーベースのコンポジットソフト「Autograph」

新しいレイヤーベースのコンポジットソフト「Autograph」のページが公開されています。2022年第2四半期に発売予定とのことです。

https://www.left-angle.com/#page=95

 

Autographはモーションデザイン、ビジュアルエフェクト(VFX)、ハイパーカスタマイズビデオの大量生産に特化した新しい2D/3Dオーサリング・合成ソフトウェアで、レイヤーベースのアプローチの利点とノーダルオーサリングのコントロールレベルを兼ね備えています。

高度に最適化されたレスポンシブなソリューションは、アーティストが創造性に集中できるよう、安定した生産性の高い環境を提供します。Autographは、数々の賞を受賞したRE:Vision Effects社によって独占的に配給されます。

正確で応答性の高いレンダラー

Autographのレンダリングエンジンは、速さと正確さを兼ね備えた設計になっており、リアルタイムに対応できる応答性を備えています。

マシンのリソースを最大限に活用し、プロセッサーのすべてのコアとGPUを利用します。すべての計算は32ビットのリニアフロートパイプラインで行われるため、処理の過程でディテールが失われることはありません。

AutographはOpenColorIOとACESを使用して、優れた色空間管理と高い画像忠実度を実現しています。また、中間的なラスタライズを制限し、最後まで変換や変形をベクトル形式で保存・蓄積します。

 

2Dと3Dの垣根がなくなる

この2つの側面を組み合わせることは、モーション・デザインにおいても、VFXやコンポジットにおいても、必ずしも容易なことではありません。

レフトアングルが開発したエンジンは、この2種類の要素を同じタイムライン上に混在させ、ハイエンドのPBRエンジンでレンダリングすることを可能にしました。あなたのプロジェクトの2Dと3Dのアニメーション要素は、すべての境界線が廃止された統一されたビューアに結合されます。

シーンや外部の3D要素を読み込み、プロシージャルオブジェクトを追加し、Autographで直接レンダリングした後、これらのグラフィック要素を2Dソースと混合して合成します。すべて同じソフトウェアで このようにして、アーティストは自由に、独立して、迅速かつ効率的に創作活動を行うことができるのです。

 

USDを介したDCCとの相互運用性

Autographは、PIXARが作成したUSDインターチェンジフォーマットを使用して、シーン全体を取り込むことができます。これにより、外部のソフトウェアを使用せずに、マテリアル、ライト、カメラを含むアニメーションモデルを取り込み、その場でレンダリングすることが可能になりました。

レンダリングパスは、ストレージデバイスに画像を書き込むことなく、合成スタックに直接利用できるため、レンダリング上で直接2Dレタッチを行うことができます。

また、モデルを単独でインポートしたり、Autographの内蔵ジェネレーターを使って、何もないシーンに何千もの動くシェイプを配置することも可能です。これらの要素は、他のUSDソースと融合させることができます。

 

2Dのための3D......その逆もまた然り

2Dパイプラインで3Dシーンを直接レンダリングすることだけが、この2つの世界を融合させるメリットではありません。

通常、3Dの表面に適用される素材は、ストレージにあらかじめ記録された画像やアニメーションをテクスチャとして使用します。
Autographでは、アニメーションをコンポジションの一部として構築し、それを素材のソースとして接続することが可能です。

コンポジションインスタンスのシステムのおかげで、その場でバリエーションを作成し、PBRシェーダのさまざまな入力に接続することも可能です。ディフューズ、メタルネス、ラフネス、ノーマルの各ソースを動的に生成し、アニメーション素材を作成することができます。

 

インテリジェントでマルチフォーマットなコンポジション

Autographでは、コンポジションは、異なるパラメータで呼び出すことができる関数のように動作します。そのため、同じ組成でもサイズを変えて2回計算することができます。

その中の要素を相対的に配置することで、AutographはレスポンシブWebデザインの原則を動画に適用した唯一のソフトウェアです。1つのプロジェクトの中で、1つのハイブリッドコンポジションから16:9、4:3、スクエア、9:16のバージョンを生成することが可能です。

これにより、リビングのテレビだけでなく、TwitterやFacebook、Instagramなどのソーシャルネットワーク向けのコンテンツをワンアクションで作成できるようになり、驚異的な時間短縮を実現しました。

 

マルチプラットフォームと柔軟性

Windows、MacOS、Linuxに対応したAutographは、RAW、WebM VP8/VP9、MP4 h.264/h.265、最近リリースされたAV1など、さまざまなコンテナやコーデックを使ってファイルを再生・エンコードすることができます。また、OpenEXRをはじめとする多くの静止画フォーマットの読み込みにも対応しています。

レンダリングマネージャーは、複数のフォーマットを同時に扱える革新的なシステムにより、異なるエンコーディングを使用して、同じハイブリッドコンポジションから複数のビデオを並行して作成することができます。現代の生産ニーズに対応するために必要なイノベーションです。

 

制限のない定義とFPS

フルHDで作業していたプロジェクトが、最後の最後で4Kや8Kで納品すべきだと判断することもあります。

Autographでは、ぼかしや相対的な位置関係など、空間的な値を使ったエフェクトを含め、プロジェクトのすべてのパラメータを再計算しますので、これが可能です。このような新しい制約に対応するために、ビューワやレンダリングマネージャーに依頼してください。

また、オプティカルフローやモーションベクトルの計算に基づく補間技術を用いて、ビデオファイルや画像シーケンスなど、25FPSで構成されたものを60FPSの新しいフレームレートに適応させることも可能です。

 

自分で作ったものも含め、何十種類ものエフェクトが用意されています。

Autographには数多くのエフェクトが搭載されていますが、Shadertoyの統合によりテックアーティストが独自のフィルターやジェネレーターを開発することも可能です。

これらの新しいエフェクトは、カスタマイズ可能なコントロールパネルに組み込むことができ、簡単な方法で配布して利用しやすくすることができます。

スーパーバイザーは、新しいツールを作成し、技術的に完全に抽象化された状態で、その専門知識をチームに活用させることができます。レフトアングルは、現在開発中のクラウドサービスの一環として、近い将来、これらのツールの交換や収益化を可能にするマーケットプレイスを構築しています。

 

VFXとコラボレーションのためのツール

2Dトラッカー、3Dトラッカー、フォトグラメトリーをベースにした3D再構築機能、高速で革新的なクロマキーヤー、モーションベクトルをベースにしたイメージインターポレーター、複雑なデフォーマ、数十種類のエフェクトなど、モーションデザイナーのために作られたツールであるだけでなく、ビジュアルエフェクトアーティストが必要とする機能もすべて搭載されています。

現在開発中のクラウドサービスの一環として、Left Angleはチームや最終顧客など、プロジェクトのさまざまな関係者間でより良いコミュニケーションを可能にするコラボレーション環境を提供します。

 

強力なプロシージャルジェネレータ

Autographには、グラフィック要素、数値やテキストの値、3Dでのレンダリングが可能な幾何学的な要素をその場で作成するジェネレーターのセットが付属しています。

一般的に有限サイズのグラフィック要素を生成するためのフレームワークを定義する必要がある競合他社とは異なり、ここでは無限サイズのプロシージャルイメージを生成し、それを支えるレイヤーの変換を行うことができます。

このようにして、巨大なフラクタルノイズを作成し、そのノイズを別のレイヤーに親和させることができ、空間的な限界を気にすることなく、そのノイズを利用することができます。これらの要素はすべてGPUによってリアルタイムに作成されるため、4Kや8Kであっても、素早く簡単に操作することができます。

 

画像と連動したオーディオパイプライン

グラフィックレイヤーの山の中にオーディオメディアを挿入しても意味がないので、Autographは編集ソフトのようにタイムラインを分割して表示します。

オーディオソース専用の2つ目のスタックでは、プロジェクトのサウンドトラック、複数のソースのマージ、エフェクトの追加、そして何よりもこのミックスを使ってパラメータをコントロールすることができます。

グラフィック・スタックに適用されたアナライザ・ジェネレータは、特定の周波数帯域を選択するために、スペクトル・フィルタを使ってこれらのプリミックスを供給することができます。これが抽出されると、その振幅を利用して、色や形、変形パラメータを変化させることができます。

 

コンポジションから独立したテンプレートへ

Autographのコンポジションは、複数のフォーマットに対応しているだけではありません。また、内部機構につながる隠れたパラメータを公開することもあります。

そのため、コンポジションを独立したテンプレートとしてエクスポートすることができ、その複雑さは、カプセル化されているため、ユーザーには見えません。

ここでも、現在開発中のMarketplaceによって、グラフィックデザインの収益化や、すぐに使えるプロジェクトの交換が可能になります。これは、Autographが外部データと接続し、Dataをフィードする機能を持っているからこそ可能な、パーソナライズされたビデオの制作に欠かせないポイントです。

 

接続と自動化

レフトアングルのチームは、構想当初からAutographを外部のデータを取り込み、常に情報源に接続されているソフトウェアと考えていました。テーブルという概念が統合されており、ExcelやCSVファイルだけでなく、様々なAPIを介してデータベースとの連携も可能です。

このように、テンプレートという概念を反復的に使用することで、同じグラフィック・プロジェクトに基づいて何千ものビデオを生成することが可能になります。

ドキュメント化されたAPIを介してソフトウェアを制御することで、テレビチャンネルの自動化ニーズや、超カスタマイズされたビデオの大量生産に対応することができます。

参考資料

AutodeskがTangentLabsを買収

Autodeskがクラウドベースのアニメーションパイプラインソフトウェア「LoUPE」を開発するTangentLabsを買収しました。
LoUPEは元々、Blenderを使用して大規模なアニメーションプロジェクト用に作成されましたが、Maya用のネイティブプラグインもあるらしいです。

https://www.tangent-labs.com/
https://adsknews.autodesk.com/news/acquisition-software-from-tangent-labs

 

LoUPEの紹介

LoUPEはクラウドベースのアニメーション制作パイプラインの新しい形であり、完全なオールインワンソリューションを組み込んだものです。

LoUPEは「アーティストのための、アーティストによる」というコンセプトのもとに開発され、アニメーターやスタジオが次の素晴らしいストーリーを創造する力を与えてくれます。
LoUPEがあれば、すべてのメディアアセットの管理、コラボレーション、レビュー、レンダリングを、クラウド上の1つの場所で行うことができます。これはとても素晴らしいことです。

 

特長

LoUPEはクラウドベースの技術を用いて、デジタル制作パイプラインのすべての主要コンポーネントを1つの強力なツールに統合しました。LoUPEは柔軟性とソフトウェアの統合性を提供し、アニメーターやスタジオがより協力的に、より効率的にクリエイティブな作品を作ることを可能にします。つまり、より多くの時間を創造に費やすことができるのです。

 

アセットマネジメント

すべてのアニメーション制作アセットの包括的なバージョニングがすぐに可能になります。クラウドベースのテクノロジーと当社のLoUPE「Transit Manager」を使用することで、チームは複数の場所にあるデジタルメディア資産のすべてのバージョンを簡単に追跡することができます。また、カスタムビューやフィルタを作成して、すべてのメディアアセットを管理、ソート、表示することができます。

 

プロジェクト管理

プロジェクト管理機能では、すべてのプロダクションタスクのトラッキングとデータセットを一元的に安全に管理できます。
プロジェクト管理機能では、リストビューやカンバンビューなど、複数の方法でタスクを表示することができます。
また、期日、メディアレビュー、アクティビティページを把握することができ、LoUPEのどこからでも簡単にタスクを作成することができます。モダンで直感的なインターフェースを使用しています。

 

レビュー&コラボレーション

世界中のさまざまな場所にいる協力者とリアルタイムでメディアレビューセッションを行うことができます。
LoUPEでメディアを見た場所から、ドラッグ&ドロップで簡単にプレイリストを作成できます。メディアを再生したり、スクラブしたり、マークアップしたり、メモを取ったりすることができます。ソフトウェアをダウンロードすることなく、チームのレビューセッション内で直接タスクを作成し、割り当てることができます。実際に体験してみてください。

 

レンダリング管理

社内でのレンダリングと、クラウドベースの強力な機能を統合することができます。
なんてことはありません。AWS Thinkbox Deadlineの手間のかからないハイブリッドレンダリング管理ツールがLoUPEに同梱されています。レンダリング時間の短縮、信頼性の向上、ハイパースケール機能、アニメーション制作の効率化を実現します。

 

レポーティング&アナリティクス

プロジェクトの報告は欠かせません。それにはデータが欠かせません。
LoUPEとOData接続を使用すると、一般的なビジネス生産性パッケージと統合して、生産性のインサイトを得ることができます。
ヒートマップ、ダッシュボード、ヘルス・ステータス・メトリクスなどのリアルタイム・レポートを作成し、プロジェクトの進捗状況を把握することができます。簡単にカスタマイズできる一目瞭然の戦略的な分析により、スタッフに力を与えることができます。

 

バーチャルワークステーション

PCoIPテクノロジーを使用したバーチャルワークステーションで、オフィスや世界をまたいだコラボレーションが可能になります。
つまり、オンプレミスのインフラをほとんど使わずに新しい制作スタジオを立ち上げたり、バーチャルオフィスを組み込んだりすることができます。クラウド上の1つの場所から、複数のプロダクションプロジェクトでの共同作業が容易になります。いつでも、どこからでも。

 

ンテグレーション

オープンソースのコンテンツ制作ソフトウェアであるBlender 3Dと完全に統合され、Autodesk  Maya のネイティブ・プラグインとしても利用可能な、柔軟でコラボレーティブなツールを提供できることを誇りに思います。
SideFx® Houdini、Epic Games® UnrealEd、Pixar® Universal Scene Description (USD)への追加サポートは今後のリリースを予定しています。

 

パートナー

LoUPEをシームレスに動作させるために、私たちはテクノロジー・パートナーの強力なネットワークに依存していますが、それぞれが独自の能力と専門知識を持っています。
LoUPEのような強力なプロダクション・パイプライン・ツールを構築し、サポートしていくためには、"It takes a village "という言葉がありますが、まさにその通りだと思います。
タンジェント・ラボはBlender Foundationとそのコミュニティの大きな支援者であり、私たちはBlender Foundationを未来とみなしています。Teradici、Independent Security Evaluators (ISE)、Blender、Intel、AWSとのパートナーシップは、LoUPEの高速性、効率性、拡張性、安全性を確保するために不可欠なものです。

参考資料

Janek Murd - AVA

レンダリングが綺麗。スライスハム好き。

参考資料

Sprite Fright - Blender Open Movie

Blenderで作られたショートムービーのようです。ストップモーションな雰囲気が良いですね。

Blender HQのクリエイティブ部門が制作した最新のオープンムービープロジェクトがオンラインで公開されました。

Sprite Frightは元ピクサーのストーリー・スーパーバイザーであるMatthew Luhn氏が脚本・監督を、Hjalti Hjálmarsson氏が共同監督を務めた、80年代にインスパイアされたホラー・コメディです。
また、最初のオープンムービープロジェクトであるElephants Dreamに携わったAndy Goralczyk氏がアートディレクターを務めました。

これまでのBlender Studioでの制作と同様に、このショートフィルムはBlenderの能力をさらに向上させることを意図して制作されました。今回はパイプラインの開発に主眼を置き、アーティストがより効率的に共同作業を行うためのツールやシステムを開発しました。

https://studio.blender.org/films/sprite-fright/