CEDEC 2016のセッション「ノンゲームコンテンツの制作事例」の様子を紹介する。
- ほん怖プレゼンツ『乃木坂46 VRホラーハウス』
- シン・ゴジラスペシャデモコンテンツ制作事例
がどのように作られているのかについて、貴重な話を聞くことができた。
講師は、ソニー・インタラクティブエンターテインメントの秋山賢成氏。
ほん怖プレゼンツ『乃木坂46 VRホラーハウス』
全天球ムービー再生の課題
今回のコンテンツ制作は、正距円筒図法で行った。
それに加え、立体視のチャレンジとして、上下に右目左目でわけでエンコードという手法を行っている。
PSVRは視野角が広いため、左右に分割するより上下に分割したほうが横の広がりを実現できるためだ。
PSVRのリフレッシュレートは120Hz、90Hz。ムービー自体は60fpsだが、VR体験としては120Hzで動作するようになっている。
サラウンド vs バイノーラル
一般的なゲームやムービーなどは、サラウンドシステムを想定してサウンドをオーサリングしているが、PS4及びPSVRの3Dオーディオは、平面的な音ではなくHRTFを考慮した指向性があり距離感を感じるサウンドで、臨場感を提供することができる。
PSVRで3Dオーディオを実現するのには、モノラルの点音源データ+座標情報+音量で実現する方法と、アンビソニックにエンコードされたチャンネル情報を利用して方法があるが、ほん怖ではどちらの手法も使っていない。
それは、すでにミックスされて平面的になったサラウンドから、正確な3Dオーディオに戻すことができないからである。
しかし、撮影時に様々な音が別々に録音されていたので、それぞれを抽出して各音声の発音タイミングと方位の指示書を作成し、アプリ側にオーディを配置しすることで3Dオーディを実現している。
普通の動画は音と映像が一緒になっているが、ホラーハウスは絵と音がバラバラであり、そこに読み込みの差があったため、IO的にシビアな条件であった。
しかし、PSVRはメモリが多いため、ムービー・音声データの再生を先行しロードが行えた。
ホラーハウスにおいて、ホラー特有の音は3Dオーディオではなく環境音として通常の5.1chのサラウンドに入れて鳴らしているが、BGMの環境音にわずかなセリフが含まれていた。
それに対し、音を取り除くのではなく、逆にそれぞれの音を調整して合成することで、結果としてホラーコンテンツとしてはよい演出になった。
口の動きと音の動きが合わないと違和感が大きいので、全ての音をツールを駆使して波形を見ながらあうよに地道に調整もしている。
シン・ゴジラ
続いて、シン・ゴジラスペシャデモコンテンツ制作について
- 映画コンテンツからVRコンテンツにする際の絵コンテ
- リッチな映画コンテンツをどのようにして60FPSを最適化して実現したか
- 映像会社がリアルタイムVRコンテンツを作る際に苦労した話
の3つに絞って紹介。
絵コンテについて
映画と違いカット割りができないので、非常に難しかった。
VR化するにあたりゴジラの魅力をどこに持っていくのかに試行錯誤し、その結果、ゴジラ史上最大の大きさをVRでいかに表現するかということに注力した。
以下は、駅にいるゴジラが自分に向かってきているところの演出である。
しかし、VRは映画のカット割りができない、見せたいポイントを全ての人に見てもらうことはできないため、チーム間で演出、迫力の出し方を共有するために一連の流れがわかる動画をいくつも用意した。
実際に関係者が確認に使ったプリビズ動画が公開された。
シン・ゴジラの最適化について
快適なVR体験をするためには60fpsのフレームレートを崩してはいけない。
短期での最高級のフルCGアセットのリアルタイムレンダリングの実装を実現するために、Unreal Engine 4を採用した。
しかし、最適化をする前は24fps程度しか出ておらず、快適なフレームレートを達成できていなかった。
処理を解析した結果、650万ポリゴンの投入により、ジオメトリック描画だけで24msを有してしまっていた。
理由として、映画のアセットをそのまま流用したため、遠景のポリゴン密度が必要以上に高かったことがあげられる。
そこで、遠景のポリゴン数を整理してポリンゴンを削減することで、ジオメトリ関数処理だけで10ms以上の最適化が実現した。
しかし、それでもまだ60fpsにはほど遠いため、東京駅や瓦礫をさらに最適化させた。
屋根の飾り等、ほとんどピクセルを生成しない密度の細かいパーツがたくさんあり、東京駅単体だけで2.5ms以上の負荷があった。
また、岩や瓦礫などのモデルにも、かなりの頂点を割いていたケースもあった。
それらを最適化したが、ゴジラ本体の解像度を上げたため、2度目の最適化後のトータル負荷は変わらなかった。
3回目の最適化であまり効果のなかったSSRのカットなどを行うことで、60fpsを達成した。
さらに、パーティクルのライティングを最適化することで負荷をさらに下げ、その分解像度の向上を行った。
これにより、60fpsを実現しつつ解像度を140%にあげることに成功した。
GPUへの投入ポリゴン数の変遷をみると、初期から非常に削減されたことが分かる。
しかし、全てのコンテンツで同じことはできないため、コンテンツに合わせた最適化をするための試行錯誤は必要となる。
シン・ゴジラに関しては、瓦礫で動けないというシチュエーションなので、視点移動が少なく、コンテンツデザインの割り切りが可能だった。
映像会社の実装
SOLA DIGITAL ARTSの八木下氏が登壇。
VRムービーを作るにあたり、通常であれば見せたいカットを積んでいく絵コンテを作成するが、VRでは視聴者主観になるのでそこを表現するのが難しかった。
そこで、イベントを文字に起こした字コンテを使ったが、これは映像コンテンツだからできたことだろう。
以下は字コンテの例。演出と時間を文字に書き出している。
次に、VRのムービーのチェックだが、映像系の人間はリアルタイム再生でのチェックに慣れていなく、細かいチェックが難しかった。
しかし、今回は定点カメラだったので、ユーザーが見るカメラワークを想定し、そこにDCC側でスクリーンキャプチャを仕込んで確認をした。
以下がその様子となる。全体のムービーの他に、プレビュー用カメラが確認できる。
また、アニメーション指示についても絵コンテがないため明確な指示が必要だったりと、映像系としては難しかった。
これに関しては、尻尾のポーズを参考に出し、イメージの共有を行った。
以下が尻尾の参考ムービーとなる。Googleマップを利用も利用している。
音の配置に関しては、3D音響を使った結果、方向性がはっきりしすぎてゴジラの巨大感が伝わらないなどの違和感があったが、反響音を環境音にすることで対応している。
この他、スピード感もアニメーションとDCCでの差異がありUE4での調整を行っている。
さらに、ラストの盛り上がりは足音に合わせた振動及び画面ぶれを入れて迫力を出している。
映像会社がリアルタイムVRコンテンツを作ることで、
- 平面の画面から伝わるのとは別次元の映像体験を提供できる
- 映像メディアとは違うタイム感、演出方法が必要
- 映像制作とは違う制作フローが可能
といった発見があった。
VR動画として注目の2つのコンテンツの裏側、制作秘話を聞くことができた貴重なセッションだった。
これからの非ゲームVRコンテンツ作成のヒントにもなったであろう。
Copyright ©2016 VR Inside All Rights Reserved.