今年2月に発表されたOpenAI の新しいテキストからビデオ生成モデル「Sora」がリリースされました。
https://openai.com/sora/
https://openai.com/index/sora-is-here/
Soraがやってきた
私たちの動画生成モデルは、sora.comで展開されています。
今年初め、私たちはテキストからリアルな動画を生成するモデル「Sora」を紹介し、世界シミュレーションの初期研究の進捗を共有しました。Soraは、現実を理解しシミュレーションするAIの基礎となるもので、物理的な世界と相互作用できるモデルを開発するための重要なステップです。
私たちは、2月にプレビューしたモデルよりも大幅に高速な新バージョンのSora-Sora Turboを開発しました。本日、Sora.comにてChatGPT PlusとProのユーザー向けにスタンドアローン製品としてリリースします。
そらのためだけの新しいインターフェース
テクニカルレポートで初めて紹介した幅広い機能をリリースします。
最大解像度1080p、最大長さ20秒、ワイドスクリーン、縦長、正方形のアスペクト比の動画を生成することができます。独自のアセットを持ち込んで拡張、リミックス、ブレンドすることも、テキストからまったく新しいコンテンツを生成することもできます。
テキスト、画像、ビデオを使ったSoraのプロンプトをより簡単にするために、新しいインターフェースを開発しました。ストーリーボードツールでは、各フレームの入力を正確に指定することができます。
また、コミュニティからの作品で常に更新される注目のフィードと最近のフィードがあります。
Soraのご利用とサブスクリプション
SoraはPlusアカウントに追加料金なしで含まれています。毎月、480pの解像度で50本まで、または720pの解像度でそれ以下の動画を作成することができます。
より多くのSoraをご利用になりたい方には、10倍の使用量、より高解像度、より長時間のご利用が可能なProプランをご用意しています。私たちは、様々なタイプのユーザーに合わせた価格設定に取り組んでおり、来年早々に利用可能になる予定です。※1
デプロイメントへのアプローチ
私たちがデプロイしているSoraのバージョンには多くの制限があります。しばしば非現実的な物理演算を行い、長時間の複雑なアクションに苦労しています。Soraターボは2月のプレビュー版よりもはるかに高速ですが、私たちはまだこの技術を誰にでも手の届くものにするために取り組んでいます。
私たちは、社会にその可能性を探求する時間を与え、この分野が進歩するにつれて責任を持って使用されることを保証する規範と安全装置を共同開発するために、今ビデオ生成技術を導入しているのです。
Soraが生成したすべての動画にはC2PAメタデータが付与され、Soraが生成した動画であることを示す透明性を提供し、出所を確認するために使用することができます。不完全ではありますが、私たちはデフォルトで目に見える透かしのようなセーフガードを追加し、コンテンツがソラから来たものであるかどうかを確認するのに役立つ世代※2の技術的属性を使用する内部検索ツールを構築しました。
今日、私たちは、児童性的虐待の素材や性的なディープフェイク※3など、特に有害な形態の虐待をブロックしています。開始当初は、人物のアップロードは制限されますが、ディープフェイクの軽減策を改良するにつれて、より多くのユーザーにこの機能を展開する予定です。※4 安全性と監視に対する私たちのアプローチについては、システムカードやレッドチーム活動の詳細をご覧ください。※5
私たちは、このSoraの初期バージョンによって、世界中の人々が新しい創造性を探求し、ストーリーを語り、ビデオストーリーテリングで可能なことの限界を押し広げることができることを願っています。私たちは、世界中がSoraを使ってどのような作品を生み出すのか、とても楽しみにしています。
脚注
※1
SoraはChatGPT Team、Enterprise、Eduには含まれていません。また、18歳未満の方はご利用いただけません。現在、イギリス、スイス、欧州経済地域を除き、ChatGPTが利用可能な場所であればどこでもSoraにアクセスできます。今後数ヶ月のうちに、さらにアクセスを拡大する予定です。
※2
将来的には、NGOや研究機関とのパートナーシップの可能性を模索し、出所エコシステム(新しいウィンドウで開きます)を成長させ、改善していく予定です。このようなツールは、デジタルコンテンツに対する信頼を築き、ユーザーが本物の創作物を認識できるようにするために不可欠であると考えています。
※3
私たちの最優先事項は、児童性的虐待素材(CSAM)や性的ディープフェイクのような、特に有害な形態の虐待を防止することです。CSAMや児童の危険が確認された場合、その作成をブロックし、アップロードをフィルタリングして監視し、高度な検出ツールを使用し、NCMEC(National Center for Missing & Exploited Children)に報告書を提出します。
※4
肖像権は現在、少数の初期テスターを対象とした試験的な機能としてのみ提供されています。肖像権の不正流用やディープフェイクに関する懸念に対処するため、私たちは人物が登場するアップロードに対して特に厳しいモデレーション基準を設定し、ヌードを含むコンテンツを引き続きブロックしています。この機能にアクセスできるユーザーには、何が許可され、何が許可されないかなど、私たちのポリシーに関するリマインダーも製品内で表示されます。私たちは、悪用のパターンを積極的に監視し、それを発見した場合は、コンテンツを削除し、適切な措置を講じ、安全性へのアプローチを反復するためにこれらの初期の学習を使用します。
※5
Soraをより広範に利用できるようにするため、私たちは、偽情報、違法コンテンツ、安全性などの分野の専門家であるレッドチームと協力し、潜在的なリスクを特定するためにモデルを厳密にテストしました。彼らのフィードバックは、Soraを形作る上で重要な役割を果たし、モデルを可能な限り有用なものにする一方で、セーフガードを微調整するのに役立ちました。私たちはまた、ChatGPT、DALL-E、そしてAPI製品をサポートするために長年にわたって開発され、改良されてきた強固な安全システムを構築してきました。