デスクトップ・ハリウッドの誘惑

前回の投稿から、3週間ほど経ってしまったが、その間にGoogleがLytroを買収する話が持ち上がったり、 Unreal Engine4で新機能「リアルタイムレイトレーシング」が発表されたり、MagicLeapが開発者向けSDKを公開したりと、目まぐるしい変化のスピードについて行けないが、逆に言うと、ある意味この先の方向性が見えやすくなってきたような気もする。もちろん私の場合、VR、AR界全体の話ではなくて、あくまでも「映画」に限定しての話だが。

まずゴーグルのコードレス一体化、高画質化、ライトフィールド技術によるリアルさの追求。そして敢えて今はVFX合成のリアルタイム性と言っておくが、要はヴァーチャル・リアリティ世界の現実化。物質的なリアルさと仮想的なリアルさが近づくことで、映画/映像制作の壁が取り外される。これまでの、プリプロダクション、撮影、ポストプロダクション作業が、区別なく一体になっていくだろう。そしてこれらの作業の民主化あるいはコンシューマー化は、デジイチがインディーズから中規模映画製作のワークフローを変えたように、現在の大規模予算ハリウッド・ブロックバスターとシームレスになっていくことが考えられる。それを映画のゲーム化と呼ぶのか、ゲームの映画化どうかは分からないが。

大状況は、リアルさを軸として推移していくのだと思う。映像をキャプチャ(インプット)するためのツールはカメラだが、切り取るのではなく、あくまでも空間全体を記録するものになるだろう。撮影が不必要になるのではなく、撮影者はこれまで以上に、プリプロとポスプロに係るようになるはずだ。そしてVR時空間内を、ARカメラで撮影するのだろう。これらを統合するシステムがゲームエンジンになる。いわば映画を撮影するスタジオと、絵コンテやセットを作成するプリプロ、編集や音響ダビングを行うポスプロまで全部一緒になったヴァーチャル空間で、一気通貫生産方式が可能になるはずだ。謂わばあらゆる場所で(もしかしたらクラウドか)、デスクトップハリウッドが出来上がる。映画製作からグリーン・バックが消えた時が、その完成の時だと考えている。同時に映画が二次元から解放され、もっと自由な存在に瞬間になるだろう。

Embed from Getty Images

追記:リアルタイム・レイトレーシング技術について開発者のインタビューが掲載された。レイトレーシング技術そのものは、CGをフィルムのようなリアルに見せる手法(フォトリアル)として使われていたが、リアルタイムになることが大きいと言う。未来の映画制作にインパクトを与えるだろうと予想している。上段のブログ記事に書いたようなことが起こるのだろう。ILMxLABでは、没入型(VR環境)のリアルタイム・ストーリーテリングの方向性を探っているようだ。

また『レディ・プレイヤー1』でモーションキャプチャーに採用されたVicon社は、Unreal Engine4を使ったリアルタイム・モーションキャプチャーのデモを行った。

Pocket
LINEで送る

カメラレス・シネマと映画時空間の多次元(nD)化

Embed from Getty Images
映画の未来/未来の映画を考える、と大上段から言っても、まあ後年振り返れば、80%は外れたことを言っているに違いないとは思うが、それでもなぜそんな壮言大語をするか、それは単に「面白いからだ」という以外に答えが思い浮かばない。それでは、今の映画じゃダメなのか。もちろん映画館の暗がりで見る、フィルムで撮影され、2Dのスクリーンに投射されるスタイリッシュな映画の表現は大好きだし感動することも確か。しかし社会ダーウィニズムが言うように、いまの映画が無くなるとは思っていない。そもそも映画が進化するなんて思っていない。これについてはまた後で書きたい。そう、これからさきも受動的な快楽の映画は無くならない、デジタル化になっても本や音楽が消えないように。ただ20世紀のはじめに、新興娯楽だった映画が、芝居小屋や寄席を駆逐したようなことは起きるとは思っているが。

映像関連のガジェット、テクノロジーの変化にマニアックな興味があるけど、こうやってひとりで勝手に騒いでいるうちに、どこからか同じ方向を見ている人が現れると楽しいな、と思ってやっているところもある。

過去のブログ記事を遡ると分かりますが、私は20年以上、ヴィデオで本格的に映画を撮り、デスクトップで完成させて発信するにはどうしたら良いかをずっと試行錯誤してきた。ネットを探し回って10年くらい前にたどり着いたのが、DOFアダプターの使用だった。8ミリあるいは16ミリ程度の大きさしかない、民生用ヴィデオカメラのCMOSセンサーで、適度な奥行きとボケができるDof(被写界深度)を得て、35ミリで撮影した映画に匹敵する映像を作ることができることが分かったときには、とても興奮した。それ以上に興奮したのが、ブログに書くと同好の士が集まってきたことだ。映画以外のゲームやWebデザインの分野からアマチュア的なDIY感覚で、DOFアダプターが生み出す映像を必死に楽しみながら、どんどん海外サイトを読み解きクオリティを上げて行くのにとても驚いた。DOFアダプター自体は目新しいアイディアではなく、機材レンタルで10万円/日で借りることができ、MVでは普通に使われていた。しかし、裾野の広いコミュニティが自然に形成されて行くのを見て、こういうのに食らいつくのは映画を目指す人だけだと思っていたのに、その思い込みが清々しいほど蹴散らされて行くのを見て、とても新鮮で時代の変化を肌身で感じた。しかし、この献身的でささやかなコミュニティは、Canon EOSデジタル一眼レフカメラの動画機能の登場によって消滅してしまうが、それでも私にとって得たものは大きかったと思っているし、今も考え方の根本にある。

2013年にスピルバーグがルーカスと共に登壇したイベントで、映画の未来はどうなるかという問いに対して、次のように答えている

ゲームコントローラーの代わりに、キネクトのような装置でゲームがコントロールされ、プレイヤーは完全にストーリの中に没入することができた時に本当の変化が起こるだろう。私は客席とスクリーンの枠を取り除くことが必要だと信じている。映画のスクリーンだろうが、コンピュータのモニターだろうが、四角い枠を見える限り、没入することは決してできないだろう。それが無くなったとき、体験の中にプレイヤーを置くことができる、三次元の体験に囲まれて、どこにいようと問題なく見ることができる。これが未来だ。

もちろんこの発言は、『レディ・プレイヤー1』の監督に決まる以前のこと。ちなみに最初スピルバーグは、もっと若い監督がやったほうが良いと辞退していた1)この記事では、スピルバーグは「私が作るから」と言っている。VRやARがそれほど一般的になる前だったと思うが、今ではもう普通に本質的な発言ではないだろうか。『レディ・プレイヤー1』を観るときのポイントは、現在のVR/AR技術ではまだ実現できていない映像をどうやって提示しているか。『ジュラシック・パーク』では、CGの恐竜はわずか10分くらいだったにも関わらず、CGを使ったVFX映画の未来を示したし、『マイノリティ・リポート』でも同じくMITをはじめとする、各研究機関にリサーチして、起こるだろう未来世界を創造した。それと同じようなことをすると思っている。話題作かつ問題作のゲーム「No Man’s Sky」の開発者とも会ったというしね。しかしキネクトが、去年で生産が終了という変化のスピードの速さには驚く。ダメになったのではなく、普及が終わってその役割を終えてしまったということか。

『レディ。プレイヤー1』の予告編で、スピルバーグが「原作を読んで驚いたことは、未来へも過去へも同時に行けたこと。VRはスーパードラッグ」という強烈な没入体験をアピールしているのは、現在の映画が、夢や魔法のアレゴリーであることに対し、これからのデジタルを介した映像表現は正にドラッグの幻覚になるのかと思った。

 

スピルバーグだけでなく、実際になにが起こっているか、将来どうなるかを考えてみたい。パソコンの父と呼ばれ、未来のコンピュータガジェットのありかたを予測した、アラン・ケイの有名な言葉に、「未来を予測する最善の方法は、それを発明することだ」がある。あと小説家ウィリアム・ギブソンの「未来はすでにここにある。ただ広く行き渡っていないだけだ」という言葉もある。未来は偶然に見えるかもしれないが、あとから見ると必然にしか考えられないとよく言われるように、いま何が起こっていて、それがどこから来て、どこへ向かっているのかを丹念に観察している必要があると思う。しかし、何をどうやって見ればよいのだろうか。なんでも全て観察しようとしても、情報に流され波にのまれてしまうだけだ。果たしてその時に何に注目すれば良いのか。未来へのアプローチはこれだという決定的な確証はないし、確実な方法論もない。正解など無いと身も蓋もないことを言い切ってしまったほうが良いかもしれない。では、どうするのか。わたしは、何にワクワクするかだと思っている、「誰も見たことが無いような、面白い映画が見たい」とも言っても良いだろう。より主観的、独断的に突っ走ってみたいと思っている。

この数年考えていると、3つの要素が気になって仕方がない。敢えて分類してみると

  1. カメラレスシネマと多次元(nD)化
  2. ゲームエンジンによる映画の民主化
  3. キャラあるいはアバターの人物化

となると考えている。この3つが統合/分離して未来の映画のストーリーテリングになっていくのだと思う。それぞれが複雑に絡み合っているので、まだボンヤリとした説明しかできないかもしれないが、わかっていることをとにかく書いてみたい。

今後、デジタル技術がさらに進むに連れて何が起こるのか、4K、8K、16K。32K…と高解像度はまだまだ続くだろう。その時、注目するのは画像がきれいになることじゃなくて、より極細密なデータが取れるようになることだ。あるシーンを撮影するときに、レンズを通してフレーミングされる映像だけでなく、フレーム外のシーン全体が三次元にXYZの座標軸で細かに設定されるようになる。だからある意味、フォーカスは重要じゃなくなる。1秒24枚の写真の連続の概念/限界から自由になることができる。数年前に、撮影した後でもフォーカスを決めることができるLytro社のカメラが登場したが、ギミックとしか思われず、すぐに飽きられて廃れてしまった。Lytroはその後、コンシューマー向けのカメラの開発を諦めて、プロ用シネマカメラの開発に向かい、2016年にLytro Cinemaが発表された(Lytro Cinema、それは光もモノも3次元的に記録する7億画素のビデオカメラ)。

Lytro Cinema from Lytro on Vimeo.

ライトフィールド撮影技術で、3D空間を取り込み、あとで好きなようにオブジェクトを三次元で切り取り、フォーカスを決めることができるし、3DCG(フォトリアリスティックな背景や小道具を含む)と合成することも可能だ。今後どういう形のガジェットになって出てくるのか楽しみだ。一方で現在の360°カメラがどこまで進化するかという点も、スマートフォンの映像が普及している現在のスタンダードになるかどうかも注目したいところ。それとは別のベクトルで、2次元の写真データを3次元にする方法も現われてきている(トラボルタとユマ・サーマンが映画から飛び出しARで踊る。2次元映像を機械学習で3D化する「Volume」)。

こういう比喩は適切じゃないと思うが、「過去の2Dが、3D化されて未来に拡張される」ように思える。

なんと形容していいかはわからないが、個人的にこれからは、レンズレスカメラ、カメラレス・シネマの方向に広がってのではないかと思っている。既存のカメラでは撮れない三次元撮影に突入していく。2009年頃から普及したデジタル3Dが、どうせまた1950年代のようにすぐに飽きられると言われたが、いや今度は違うと思っていたのは、デジタル3D技術の完成度もあるが、こういう流れを考えていたからで、3D映像技術がどこまで進化するのかなと思っていたところに、VR、ARが登場してきた。これはひとつの必然的な動きなんだと思う。それを複数のカメラで行い貼り合わせるのか、被写界深度の異なる映像を組み合わせるのか。絵画の彫刻化なのか、それともピカソ、デュシャン、ベーコンだけでなく、古典的な活人画でも行われた複数の時空間が、一つのキャンバスで展開するということと同じなのか。ゴダールは「映画史」の中で過激なディゾルブと音響(音声と音楽)の分離を行い、2Dで既に3Dとしての映画の歴史を表現していたと思う。そして絶えず問われるのは、「映画とは何か」なのだ。
Embed from Getty Images

 

Pocket
LINEで送る

注釈   [ + ]

1. この記事では、スピルバーグは「私が作るから」と言っている

ブログ再開(仮)

長らく休眠状態だったブログを、久しぶりに再開しようと考えたのは、去年の後半くらいから、映画と映像周りの動きが活発になってきたように思えるからというのが最大の理由だ。これより前の大きな動きは、7、8年前のデジタル一眼レフだった。本格的デジタルシネマカメラRED ONEが登場し、それから数年かけて、一気に映画のデジタル化が進み、一方で高画質のデジタル一眼レフの撮影によって、プロとアマの(機材の)差が曖昧になってきた。もちろん、スマートフォンと動画サイトの普及も見逃せない動きだった。

しかし、それらの動きも一周りして落ち着くと、結局何事もなかったかのよう以前の映画製作と変わらなくなってしまった。これから先8K超の高画質が現われ普及していっても、Blu-ray超えの映像配信が行われるようになっても、個人的にはあまり興奮することはないだろう。もはや数値を争うだけの話で、そこには驚きはないと思われる。これ以上の「リアル」な映像表現を追求しても、レンズ光学的には限界に来ているのではないか、その映像が作るリアルさは、未来の映画に貢献するとは考えられないと思うからだ。

私は、映画(広義のpicture)の歴史は、ある意味では「リアル」の獲得の変遷だと考えるようになった。絵画に於いては、古代エジプトの平面的な壁画が残されているが、あれは古代エジプト人がああいう風にしか見ることができなかったとか、技法が稚拙だったからではなく、現代人の考えるリアルとは違い、立体的に描いて横から見た時に、重なって見えなくなる部分が無い方が、現実的(リアル)だと考えたからだと言われる。またルネサンスの一点透視図法も、あの時代の前から遠近法の技法は知られていたが、当時はそれがリアルとは思われなかったということだ。その後、リアルの追求は光学機器カメラ・オブスクラを使う方法にたどり着く。しかし、それが生み出したリアルの行き着く先は、写真という表現でありメディアの利用だった。その一方でレンズを通したリアルの表現に対抗して、新たにリアルの概念を変えることで、更新しようという動きが19世紀の半ばからはじまる、印象派、未来派、シュルレアリスム、構成主義などの、絵画芸術運動の数々だった。これらは自然科学だけでなく、深層心理や主観性を含めてリアルを定義し直そうとした。
Embed from Getty Images
動く写真としてはじまった映画は、サイレント時代は絵画・演劇芸術運動と相俟って、リアルとは無縁の独自表現を追求していたが、トーキーの導入と共にトーキング・ピクチャーとなり、その歩みを止めた。モーターの回転速度が一秒24コマに固定され、カメラは正面から顔(唇)を撮ることのみが正解であり、リアルという法則(約束事)が成立した。ハリウッドを始めとする映画スタジオで作られたリアルは、大量生産大量消費の時代と重なり映画は黄金期を形成した。

やがて、50年代になるとハリウッドの外側から映画表現の更新が始まる。フェリーニ、ベルイマン、黒澤は、検閲されたリアルを蹴散らし、性、暴力、夢と映画表現の枠を拡げた。この前哨戦を引き継いで更なる破壊を行ったのが、テレビとヌーヴェルヴァーグ。この二つが獲得したリアルとは親密さだと思う。それは戦後の象徴としてのネオレアリズモの社会性とも違い、戦後文化の中の身近な生活の臭いがあり、ベビーブーマー世代の若者たちの感性に多大な影響を与えた。映画ではスターになれなかったルシル・ボールが「アイ・ラブ・ルーシー」で、TVスターになったことと、NYのメソッド・システムの薫陶を受けたマーロン・ブランドやジェームズ・ディーンが登場するのは、リアルの変遷を考える上では興味深い現象だと思う。このように考えると、ヌーヴェルヴァーグは、方法論的にはテレビの影響を受けてリアルを再想像した映画の運動だっだと言えるのではないか。それは彼らと同時期にイギリスではTV出身のリチャード・レスターが反映画的なビートルズ映画を製作していたのだから。日本でも小型16ミリカメラを使ってスタッフの自宅で撮られたTVドラマ「月光仮面」も、同じムーブメントに属していると思う。

ヌーヴェルヴァーグが70年代に飛び火したアメリカン・ニューシネマでも、同様なリアルに対する現象が見られる。しかし、この場合は、現実生活ではなく、過去の偏愛的なハリウッド映画の「リアル」の読み直しとして行われる。TV出身のウィリアム・フリードキンが『エクソシスト』『フレンチ・コネクション』で、スピルバーグが『ジョーズ』、ルーカスが『スター・ウォーズ』で、古典的ハリウッド映画の再構築が行われた。合言葉は「俺たちがテレビで見たハリウッド・クラッシックをリアルに撮りたい」だった。

その後もレンタル・ビデオやCATVチャンネルの普及によって、リアルは再々構築される。クエンティン・タランティーノの登場と、インディペンデントのアートハウス系の映画の人気が同時期だったことは、リアルの描かれ方としては大差なかったと言えるのではないか。

今世紀に入って、もはや新たなリアルの発見は期待出来なくなった。それを乗り越えるために間テクスト性を利用して、架空世界のリアルなユニバースを作ることと、予定調和を避けるために、作者するどこに行くか分からない「謎」というミスリードを濫用して、リアルなハプニング性の感覚を担保することができた。VFX技術の進歩も、この文脈で評価しなければならないだろうし、3D、4DX、ドルビーアトモス、VR、AR、MRも同様に、リアルの変遷の流れのなかで考えていく必要がある。単なる見世物としてのフィクション映画の延長ではないのだ。

さて、ということで、現在の映画と映像のメディアや技術の動きを見ていると、ようやく次のフェイズに入るのかなと思えてきた。ゲームエンジンのリアルタイム・プロダクションを使ったニール・ブロムカンプのスタジオの動きや、実力は謎だが、期待度が大きいマジックリープのゴーグルの登場。VR、AR、MRは毎日のように新しい動きが見られる。これらの動きが既存の光学的なリアルの限界を越えられるのではないかと思っている。でもまだ、どういったリアルを確保する方向に行くのかは分からない。これから公開される、スピルバーグの『レディ・プレイヤー1』がどこまで近未来を指向しているのかはとても楽しみだ。『マイノリティ・リポート』では、当時考えられていた、未来の映像インタラクティブ・ユーザーインターフェイスを見せたのだから、今回もどれくらいの先を行く表現が出てくるか徹底的に情報を漁りたい。

そんなことを考えながら、忘備録と勉強ノートを合わせてぼちぼちやっていきたいと思っています。

 

Pocket
LINEで送る

FiLMiC Proからのデータ取り出し

iOSのヴィデオ録画アプリFiLMIC Proで撮影したデータが、IPhone内で作動しなくなり困ったが、ネットで情報を探して復旧できたのでまとめておきます。

基本データ:

iPhone6Plus 64GB iOS9.0.2

FiLMIC Pro5.0.2

ムービーデータ 14.65GB (1920☓1080)約60分

状況:

FiLMIC Proで録画後のムービーデータ確認中に、データが大きすぎると思いデータ圧縮ボタン(Downsample Clip)を押す。しかし時間がかかり作業がどれくらい進んでいるか分からないときに誤って、アプリを終了してしまった(ホームボタンを2度押してサムネイルを上にスワイプした)。

その後、FiLMIC Proを改めて起動したがすぐに終了してしまい操作が何もできない。IPhone本体を再起動しても状況は変わらない。FiLMIC Proを一旦削除して再ダウンロードしても同じこと。

iPhone本体からデータを取り出すのは難しいので、iTunes経由で移動させることにする。

対策:

最初にiTunesにムービーデータを同期させておくこと。

iPhone本体をケーブルを介して、PC(iMac)のiTunesに接続する。

左上のメニューボタンから、iPhone > 設定 Appを選択。

名称未設定

画面を下にスクロールすると「ファイル共有 以下のAppでは、iPhoneとこのコンピュータとの間で書類を転送できます。」が現れるので、FiLMIC Proのアイコンをクリックして、ダウンロードしたい.movファイルを探して選択する。

名称未設定 2

さらに画面を下にスクロールすると、「保存先…」のボタンが現れるので、保存場所を選択してPCにムービーデータをダウンロードをする。

名称未設定 3

ダウンロードしたデータをムービー再生アプリで確認すると、データの破損は確認されなかった。

教訓:

トラブルの際にムービーデータを取り出しやすくするためには、FiLMIC Proの設定で「カメラロールとの同期」を選択しておいたほうが良いと思う。そうすればiPhone本体の別のムービー編集アプリやファイル転送アプリから開くことができるかもしれない。

 

 

Pocket
LINEで送る