ハイビジョン初期のドラマ「最後の弾丸」が、2010ー12ー28日にBSベストシリーズとしてBS-HIで再放送されたのを期に15年前の制作ノートを私のパソコンから取り出して振り返ってみました。今読んでも参考になるヒントがたくさんあります。
スタッフ構成を後で見てもらうと興味深いと思います。現在CM業界ならずマルチメディア展開で躍進中のTYOのHIRO YOSHIDA CEO自らが脚本をてがけ制作、現在ドワーフのCEOとなったNORI MATUMOTOさんがLINE PRODUCERとして若き情熱を注いだ作品でもあります。音響効果を担当した東洋音響 佐々木さんチームは、この時が初めてDAWというシステムで効果音を制作した記念碑でもあります。打ち合わせでこの時に「U-MATICの音声2トラックへ効果音を仕込んできますのであとはそれをシンクロ再生してください」といって私が「これはHD大画面でサウンドは3-2サラウンドでやりますのでそれでは太刀打ちできないでしょう」と返答しましたら、「TVドラマでしょう?」と返ってきたのが印象的でした。それから睡眠時間3時間で約一月のすさまじい!音声制作が始まったと言うわけです。
当時放送は、3-1サラウンドでした。しかしPCM-3348マスターを保管し、そこからデータをHDに移して我が家のPYRAMIXで5.1CH MIXを制作し、それをCPへ試写して3-1よりも改善されていることをアピールして、このマスターは、晴れて今日的な5.1chとしてアーカイブされることになりました。デジタルツールの恩恵は計り知れないものです。96年の第100回AES CONVENTION COPENHAGENでのHDTVとサラウンド音声制作というまだ世の中でHD-TVとサラウンド音声が十分認知されていない中で発表できたのもこの制作に関わったおかげでした。12-28日の放送を見ながら、また同じシーンで涙がでてきました!
MICK SAWAGUCHI 2010-12-31記
日豪共同制作 終戦50周年記念HDTV ドラマ
「最後の弾丸」3-2サラウンド 制作 1995-06 HDV-520 STUDIO MIX 95-08-13 放送 BS-HI
[ はじめに ]
この作品は、終戦50周年を記念して、NHKとオーストラリア「9CH」の作品として、監督以下オーストラリアの映画人が制作した90分のドラマです。
HD-ハンディカメラの無い時代にスタジオHDカメラと中継基地を設営しての過酷なしかし挑戦的な制作として国内外で多くの受賞もした作品です。
当時のTD/HDVEであった苗村、松林コンビの努力は、賞賛に値します。95%がオーストラリアのジャングルで95年2〜3月ロケーションされ、オフライン編集までをオーストラリアで行い、オンライン編集と音声ポストプロダクションがNHKで行われた、まさに様々なスタッフが参画をして作り上げられたドラマといえます。
1 ガイジンとチームを組み成功するためのポイント
Re-Mix note to Mick Sawaguchi 26th June 95
Director of Last Bullet Michal Pttinson
MP wish to re-adjust some spot sound . rest of those were very fine.
Reel-1
1 Reception Scene
Louder more thunder and heavy rain .
2 Track interior
Creaking more and feel bump .
3 Banzai Attack
Banzai of loop group wish to listen one shot earlier over Stanley close-up .
4 Stanley stand up
Thunder to crossover on to Yamamura's photo.
5 Jane [you dead]
Put reverb on voice. make it dream like.
6 Borneo Village
More atomos less chooks.
7 Atomos as patrol walk into ambush
Put same atomos no water FX.
8 Yamamura's gun shot
Less reverb and more crack.
9 Stanley shoot Kuroki
1 shot only and more crack.
10 Kuroki's rifle
Sound feel far away more close,bright sound.
11 Ricochet sound off log
Cut it seems to be crochet.
12 Stanley behind log it end of R-1
Cut surround atomos.
13 Stanley hooked his gun
Put clink touch sound since Yamamura what's hear .
14 Yamamura's gun shot slow motion R-2
More delay on Yamamura's bullet.
15 Yamamura's gun shot at R-1
More bigger sound it hit sandbag .
いきなり英文の議事録がでてきましたが、これは今回のドラマ「最後の弾丸」のプリMIX終了時点での監督の要望のノートです。
我々日本人が共同制作をする上でどんな点に注意すれば成功裏に共同プロジェクトを遂行できるかを私の経験則から述べてみたいと思います。93年に「山田が街にやってきた」でイギリスクルーと94年は「8月の叫び」でチェコのクルーとドラマ制作を経験しましたが、いずれも監督以下メインスタッフは、NHK側でした。今回のスタッフ構成が大きく前者と異なるのは、まさに95%監督以下ガイジンという構成で、初顔合わせの仕事と言う点です。ではプロジェクトが成功するためのポイントをあれこれ・・・・・
1-1 契約条項の中で、自分の役割は何か?を明確に
1-2 あれこれ文化Vs Exactly文化----ノートによる確認
1-3 Silence is not a golden !-----コミュニケーションを
1-4 自分を分からせる---分かってもらう待ちの姿勢をやめる
1-5 日本人の美徳 気配り 先読み行動は慎重に
1-6 ジョークで明るいスタジオ
1-1 契約と自分の役割の確認ということは、自分がこのプロジェクトにどのような形で参画できるのか?また何をして欲しいと明記されているのかを個人的な思いこみだけで判断しないようにするということです。
我々はいきおい、思いこみが先行する民族のため契約条項などは、深く確認もせず、音声担当といわれると、すぐに自分がミクサーをやるものと思いこみ、いざ仕事が始まると、実はミクサーは向こうのスタッフにいて、我々には機材のメンテナンスやシステム管理を頼んでいた。と言った事例があります。こうしたスタート段階のつまずきは、後々までしこりとして残り結果としてプロジェクトがうまく機能しないといった現象を生じがちになります。
また自分はどんな権限があるのかどうかもポイントです。
指示をだしても効力があるのか、または単なるアドバイザーとして参考意見以上の権限は持たないのか?と言った点です。一人一人の役割が厳格に規定され、その範囲内でプロフェッショナルとして能力を発揮するという考えに好き嫌いを別にして慣れる必要があるということですね!
1-2 あれこれ文化Vs Exactly文化----ノートによる確認
“曖昧な日本人“ということばが今年ノーベル賞でキャッチコピーとなりましたが、何事もアウンの呼吸で分かり合える優れた民族性を持つ我々に対して何事も事細かに、具体的な数値やデータで表現しなければ分からない民族がいっしょに仕事をすれば、どうしても我々の思考方法は、不思議に受け取られてしまいます。例えばミクシングの表現を例にしてみましょう。
「あそこをこんなふうにガーと盛り上げるのがいいよね」「さっきのタイミングはもう少し上げかな」「あれとこれを混ぜてちょっとレベルを落とせば良くなるね」・・・・こう言った会話は、彼らにとって何の意味もありません。
そこで、あらゆることがタイムコードベースで表され、何時何分何秒何フレームから何時何分何秒何フレームまでを+3dBアップ、とか1フレーム遅らせるといった具体的な表現をしなければなりません。
また各制作段階では、監督と打ち合わせやスケジュール、本日の作業予定などを議事録として文書にし、双方が確認をして合意の上で次に進む・・・・と言った段取りのクセをつけておかなくてはなりません。
先に挙げた英文は、彼らがクリエーティブ ノートと呼ぶメモの一例です。
今回は、映像のオンライン編集が終わった段階で、作品全体のサウンドデザインを監督がどうしたいかを我々音声スタッフと打ち合わせたメモ。
プリMIXが終了しファイナルMIXへ行く前の、プリMIX メモ。
作曲家ネリダ・タイソン・チューさんは彼女独自で監督と打ち合わせた音楽構成についてのメモ。
それに毎日のミクシング作業工程メモをつくりました。
映画の世界では、監督中心主義ですので、監督が全てを掌握しておきたいという欲求を我々も無視してはトラブルの原因になりますのでご用心を・・・!
1-3Silence is not a golden !-----コミュニケーションを
無口で黙々と仕事をやる・・・というのが我々の美学とされてきました。
しかし、ガイジンと一緒となるとこれは、不信感を招く要因以外の何者でもありません。彼らがスタジオにいる場合は極力彼らに今何をやっているのか、どこまで行っているのか、何が原因で時間を食っているのか、トラブルがあればどんな解決方法を取ろうとしているのか・・・・といったことを周知しながらスタジオワークを進めなくてはなりません。ついついおっくうになったり、後ろで見ていれば分かるだろう。といった一人合点は禁物です。
今回こんな行き違いがあり、あやうく一足即発の事態になるところだった例をひとつ・・・・・。
ADRテープ(アフレコが録音されたDATテープ)がイギリスとオーストラリアから届き、我々はタイミングの調整をとるのにamsのオーディオファイルにコピーするのが作業として能率的であろうと判断し。コピー作業を始めました。
その間私は何もないので、連日の疲れもあり、ソファーでのんびりしていました。それを見た監督のマイケル・パッチンソンは、我々が何もしないでスタジオを遊ばしてゴロゴロしていると判断し、突然不信感を露にした態度で、抗議を始め、コピーをしていた担当者一同シラーとする事態となりました。
ですから、今やっていることは何で、とかこれから作る音について、自分としてはこう考えながら組み立てていきたいと思うが監督としては、どう思うか?
といったコミュニケーションを逐一計りながら作業を進めるのがスムースで良い結果を生むということを体験しました。
1-4自分を分からせる---分かってもらう待ちの姿勢をやめる
これも我々日本人の謙譲の美徳のひとつですが・・・・
積極的に自分をアピールすることを嫌います。そんなことをせずとも時間がたてば自分がどんな人間か分かってもらえる・・・という受け身の姿勢が強いからです。長い間同じ人間とじっくりつきあう農耕民族の我々。しかし彼らは、一度会った段階で、相手の全貌を知りたいという行動特性があります。要するにこの相手は自分の作品を委せるに足る十分な資質を持っているのかどうかを即判断したいわけです。ですから、我々日本人どうしであればなんと厚顔な自己宣伝にたけた奴か・・・と思われるくらいにまず初対面の段階で自己アピールをしておくことが大事です。
自分の特徴や専門性、他の人に比べてどんな能力を持っているのかをまず始めに分からせる努力を自ら積極的に行うということです。また、海外の同業仲間などで友達がいればそんなことも話しておくと意外なところで繋がりが有ったりもする場合もでてきます。どんな業界も特殊で「SMALL WORLD」だといえるからです。今回偶然にもオーストラリアのDAWメーカでエディ・トラックというメーカのオーナーと監督のマイケルや作曲のネリダさんが友人で、その彼と私は、92〜3年頃のAESコンベンションで何度か話をしたという機会がありました。マイケル達が今度NHKで仕事をするんだと話したところ「俺はNHKなら沢口というミクサーを知っている」という話題になり、お互いの接点があったことで、初期段階のコミュニケーションが大変スムースになりました。
またネリダさんは、少し日本語が話せるので、こちらも親しみが湧き、いきおい世間話もティー、ブレイクに楽しむといったことができます。ガイジンも日本語の基礎会話くらいを勉強しておいてほしいものです。我々も苦労しながら彼らの言葉で意志疎通をはかっているのですから・・・・
ネリダさんは、オーストラリア人は、家族や家庭の話題をもちだすのを楽しむのだそうですが、相手がアメリカ人の場合は、絶対に話題にはしないそうです。
病めるアメリカのひとつの側面かもしれません。
彼女には、映画音楽の構成や今回のドラマの音楽の構成など、またいわゆる業界用語などを尋ねてみましたがとても親切に話しをしてくれました。
ひとりでスタジオに孤立感だけを感じるような空気にしないということもとても大切です。彼らもスタッフの一人としていつも参画したいと言う気持ちに変わりはありません。彼女は、アメリカの映画音楽家でジェリー ゴールドスミスという人がいますが、彼の元で映画音楽を勉強し、今はオーストラリアでTVや映画、テーマパークといった仕事をしているそうです。オーストラリアでも長編映画制作は年に2〜3本程度に減ってきており、優秀なスタッフもあまり仕事がない状況だといっていました。彼女は今回自費で来日し我々のMIXに参加をしているのですが、自分の音楽がどういじられるのか不安もあったでしょうし、これがヒットすれば彼女の音楽に今以上の要請がくるというチャンスに賭けてもいるのです。一度のチャンスを大切に、そこで出会った人たちとの出会いも大切にというのが基本にあるように感じます。
1-5 日本人の美徳 気配り 先読み行動は慎重に
我々は、周囲の状況を的確に判断してすばやく次の予測行動がとれる優秀な民族であることを誇りにできます。しかし、そうした思考性向のない人々にとってこの行動は、不信と懐疑をもたらす何者でもありません。
トラブルを起こさないためには、必ず彼らに事前に説明をして、そうした行動にでる必然性を納得してもらわなければなりません。彼らのプロ意識というのは、自分が与えられた範囲で与えられた要求を100%実現することにあります。我々の気配りは、いわばその領域を時として踏み越える行動になります。
親切のつもりが、あいてのプライドを傷つけたり、と言った事態になり、こちらは、“何だ親切でやってやったのにあの態度は”とおもい相手は、“自分の領域を勝手に犯す失礼な奴だ”と憤慨することになります。
国内で一部ロケがありましたが、監督のマイケルと撮影監督のロジャーは、撮影が終わると、車に乗り込んでさっさとホテルに引き上げてしまいます。
これが日本人だけのクルーであれば、きっと翌日から監督のいじめが始まることでしょう。“なんだ撤収を手伝いもしないで自分だけ帰ってしまうなどとんでもない”と言う感情からです。しかし彼らのルールではそれはそれぞれの専門家が自分たちの受け持ち範囲を完璧にこなせばそれのほうがいいのだ!という考え方です。こんな例もあります・・・・・海外のスタジオで録音をした日本のミクサーが撤収を手伝おうとフロアーのケーブルを巻き始めたところ。フロアー専門のスタッフから「あなたは我々の仕事を奪うのか」と抗議されたとか、自分たちの仕事が早く終わったのではかの機材撤収を手伝おうと、手をかけるとやはり迷惑そうな顔をされたとか、部屋の周りが汚いので掃除をしようとしたところ、掃除担当の人から抗議された・・・等などどうも気配りがマイナスに働くケースのほうが多いようです。これは言葉の問題もあり、我々がなにもいわずいきなりそうした行動にでることも原因のひとつです。必ず相手に状況を分からせてから行動に出るという鉄則をひとつ。
1-6 ジョークで明るいスタジオ
ネクラのプロはあまり好まれません。スタジオの雰囲気はいつも明るく。
といってもラテン系の人たちのように重大な過ちがあっても“ノープロブレム”を連発されるのもこまりますが・・・
日本コロムビアの穴澤さんに聞いた話ですが、フィリップスレコードのスタッフたちは、いつも一人ひとつの小話やジョークの披露合戦をやるそうで、そんな中に日本人が真面目一路で参加すると実に気まずい雰囲気になるといっていました。仕事の腕だけがよいというのは、かれらからみるとまだ完成されたプロとみないのでしょう。自分を印象づけるためにもまた時に落ち込みそうな仕事になるときもこの明るいジョークで乗り切りましょう。
今回の本論音声編を紹介したいとおもいます。
2 3-2/3-1ステレオのマルチマスター制作
HDTVのVTRは、8トラックのマスター音声が記録できます。これを有効に利用するためにはどのようなMIX をしておくのがよいか検討した結果私は、HDTVで制作したソフトの多メディア応用が可能な階層構造を持つマスターつくりとして以下のようなフォーマットで行うことにしています。
* 映画/イベント会場での再生方式 3-2サラウンド
* ハイビジョン放送方式 3-1サラウンド
* 現行ステレオ再生方式 2チャンネルステレオ
ですから、HDVTRには
1-CH L
2-CH R
3-CH C
4-CH S
5-CH S-L
6-CH S-R
7-CH Lt
8-CH Rt
と言った内容でマスタリングされ、ここからメディアに応じて使い分けが行えるようになります。大画面には、サラウンド これが原則です。
3 制作の流れ
3-1 プリプロダクション
基本はドラマ制作の一般的な流れと同じです。同録素材は、オーストラリアのプロダクション ミクサーのDATテープと録音シートをたよりに、必要とおもわれる素材をAMS-オーディオファイルにコピーしこれらは5インチのMO-ディスクで保存されます。
一方効果音は、チャンネル数の多いフェアライトMFX-3(16-ch)にワークのVCR タイムコードを元に素材を張り付けていきます。これも5インチMOディスクで保存されます。プリMIXが終了すると、フォーリー録音を行います。今回はていねいな音が欲しいとのマイケル監督の要望で、極力同録にあるアクションノイズでもさらにそれを補強する素材を多く録音しました。またライフルスコープ越しに見える松葉杖の少年の足音や雨で曇ったスコープを擦る音、落ち葉を払うと表れる蟻の足音、戦死者の死体にそよぐ竹笹や水音、狙撃する際の銃が塹壕の銃眼にこすれる音といったかすかな気配を注意して表すことにしました。
今回初めて仕事をした東洋音響の佐々木さん達は、映画でのフォーリー録音に豊富なキャリアをお持ちで、ひとつの音に4人が小物を分担して手際よく雰囲気を作り上げていきます。最近若い効果の人たちが、選曲や出来合いのCDから切り出して組み合わせることに意義を感じている傾向がみられますが、こうして本来の手作りで録音された生音ややはり力があります。
これも録音は、フェアライトのMO-ディスクにタイムコードとともに録音しました。同録 効果音の準備には我々のプリープロルームである、AP-812とAP-818を使用して10日間行いました。
3-2 プリMIX
各素材が仕込まれた段階で、音の加工合成を行うプリーMIXとなります。これにはCD-809でおもにベースノイズ系をそしてハイビジョン専用のポストプロダクションスタジオHVD-520へはいってからサラウンド系と同録の整音、国内分のアフレコ、をまとめる段取りとしました。HVD-520 では、メインのモニターをチャンネルあたりピンクノイズで、85dB、隣接プリプロルームの小型サラウンドモニターを83dB、そしてゲストルームにある一般TV用の小型ステレオモニターを78dBに規定してバランスの確認をすることにしました。これは前回の3-2MIX「8月の叫び」と同様です。
3-3 3-2サラウンドのデザイン
今回は、ジャングルの中の狙撃兵と生き残ったオーストラリア兵の1対1の駆け引きが中心です。サラウンドは、雨や雷、ジャングルのアンビエンスといった自然な雰囲気表現と前半の日本軍の万歳アタックの戦闘シーン、日本の狙撃兵山村の銃声のひろがり、そして回想や夢で出てくる声の表現とにわけてつかいました。
狙撃戦となる2人の切り返しを一方はサラウンドでもう一方はアップのモノーラルでとプリMIXで作ったのですが、マイケル監督から、これはお前のBIG TOYで人々を混乱させるだけだといわれやむなくサラウンド分は押さえることにしました。
3-4 MIX- ダウン
ミクシングのトラックシートを示します。HVD-520のコンソールはAMS/NEVEのLogic-2でこのオートメーションを活用してMIXが行われました。
私は規模の大きな作品は、2man MIXを採用しており今回も、私が台詞と音楽を東洋音響の小川さんが膨大なチャンネル数になる効果音を担当し進めました。音楽はL-C-R-Sの4-ch MIXでTASCAM DA-88にタイムコード付きで持ち込まれていますのでこれは単純にロックをとればOKです。今まで音楽はステレオ仕上げしか経験がありませんでしたので、台詞や効果音が入ることで特に音楽のセンターとサラウンドのレベルをフォローしなくてはならず「なるほどアメリカが3ーマンMIXをやるわけはここらへんかな・・・」と実地訓練で納得する状況もありました。
ミクシングの段取りは、以下のようにし数分単位のブロックでメモリーしていくことにしました。
* まず土台になる台詞トラックをOK に仕上げる。
* 次に音楽を固める。
* 効果音トラックを固める。
* 全体を3カ所のモニターで聞いてバランスチェック。
* 再度修正
* もう一度3カ所で聞いてOKなら次のブロックに進む。
この方法はあまり日本人に馴染みません。というのは全体をコントロールするのではなくひとつひとつを積み上げて、また修正するという方式だからです。我々は一気呵成にいきおいや流れのリズムを重視し、こうした細切れのMIXでは自分の流れが出来にくいと判断してきたからです。生放送という歴史を持つ放送制作では特にそうしたことがディティール以上に重視されてきました。
しかし、粘っこい彼らの論理は、ディティールの積み上げなのです。
ですからコンソールにもコンピュータアシストは必要不可欠の要素なのです。
あれは腕に自信のないやつが使うものだという傾向の強い国内の状況とも違います。でもそうやって細切れにMIXしてもいつも全体の設計を計算していればリズムをぎくしゃくすることもありません。現実にそうした作品が世界中でヒットしているわけです。
[ おわりに ]
原案構想から3年。準備から1年をかけて具体的な形になった本作品は、これまで当然のように行われてきた自社内完結主義から、それぞれの分野のエキスパートが参画してプロジェクトを組んで制作を行うという体制で行われました。これは、永年NHKで国際共同制作を担当してきたNOBUO ISOBE CPの哲学でもあります。すなわち放送という限られた条件下でベストであればいいといういいわけが通用しないメディア制作者が日本でも育って欲しいという思想です。わたしにとってもそのことを監督やスタッフから十二分に体験できましたし、音の責任はすべて引き受けると言う責任感を育成するのにも役に立ちました。最後に関係スタッフを紹介してお礼に変えたいと思います。(沢口真生 記)
[ 音声スタッフならびに関係者 ]
ミクサー 沢口真生(NHK)
アシスタント 会田裕二(NTS)
音響効果 佐々木英世 小川広美(東洋音響)
DAW フェアライト指導 岩崎進(NHK)
HVD-520 エンジニアリング 嶽間沢彰
監督 Micheael Pattinson
音楽 Nerida Tyson Chew
制作 吉田博昭(TYO)
Georgina Hope
Cris Noble(9-CH)
磯部信夫(NHK-HV)
制作補 松本紀子(TYO)
Mark Baron
広島発サラウンドドラマ「火の魚」:実践5.1ch サラウンド番組制作
「サラウンド制作情報」 Index にもどる
「サラウンド入門」は実践的な解説書です
Mick Sawguchi & 塾生が作る サラウンドクリエータのための最新制作勉強会です
http://surroundterakoya.blogspot.com
December 31, 2010
最後の弾丸 : HD-TVサラウンド ドラマ 15年ぶりの再放送を期に制作を振り返りました!
December 15, 2010
第69回サラウンド塾 3D映像とサラウンド音響 Part.2 WFS技術 原理とその応用 Max Holtmann
ツイート
By. Mick Sawaguchi
日時:2010年12月15日
場所:タックシステムショールーム
講師:Max Holtmann (RMEテクニカルアドバイザー)
テーマ:3D映像とサラウンド音響 Part.2 WFS技術 原理とその応用
* 2010-12-15のUSTREAMアーカイブを合わせてご覧ください。
沢口:2010年12月でサラウンド寺子屋塾は69回目になりました。先月と今月で3Dの映像とサラウンドはどういう接点があるのかをテーマにしました。先月はIMAGICAさんの試写室をお借りをして、実際に最近の3Dとサラウンドの作品を体験し、今回は、RME社のエンジニアの方が来日するということで、ヨーロッパで始まっているWave Field Synthesisというテクニックを日本に紹介してくれないかという事で、快く一日我々の為に時間を割いて頂きました。興味のあるテーマなので我が家では入りきれないと思い、TACセミナー共催という形で山本さんにご協力もいただきました。また今回寺子屋の様子をU-STREAMでライブ配信する試みも行いますので各地の皆さんは、楽しみにしてください。
Wave Field Synthesis(WFS)というプロジェクトは、ヨーロッパにEUREKAというプロジェクトがありましてこれは国家のプロジェクトで、カルーソというコード名がついているプロジェクトで、長い間WFSが研究をされてきてそれが実機として世の中に出すところまできました。
私は2年前にアメリカのTodd-AOという大きなダビングステージが3Dのファイナルダビングをする為のダビングステージを作ったというニュースを読み、写真を見たら壁全面にスピーカーが埋まっていてこれにWFSという技術が使われていてそれをインストールする機材面はRMEがやっているということでした。
今回は、是非そのWFSがどういう原理で我々が日頃制作をしている5.1chの方法とどういう違いがあるのか、メリットデメリットもあると思いますので、そういうところを講師のMax Holtmannさんからお話して頂けたら良いなと思います。それではMaxさんの紹介をシンタックスジャパンの村井さんからお願いします。
村井:シンタックスジャパンの村井です。講師役のMAXは、ビールで有名なミュンヘンのすぐ横ハイムヒューゼンという所にあるシンタックス本社で、ジュニアプロダクトマネージャーをしております。現在は、香港OFFICEで業務を行っています。いくつの専門用語や数学の方程式も出てくるので、10年ぶりという方もおられるかもしれませんけれども、是非お楽しみ下さい。
今年のフランクフルトミュージックメッセで、後ほどご説明致します、IOSONO社もsonic emotion社もブースを出しておりまして、Maxが卒業をしましたドイツの大学、デトモルト大学、そこも先ほど申し上げたEUREKAの1つのリサーチセンターになっておりまして、ほかにはベルリンの工科大学もそうですし、オランダとか、フランスとかいくつかあるように思うのですけれども、ヨーロピアンコミュニティ自身が新しい産業育成ということで投資をしてその結果がようやくここに巡ってきたのが、このWFSです。昨今の映像は3D映像が出てきている訳ですけれども、実際に映画館に行ってもスイートスポットは限られているのでなかなか端の席の人は良いかたちで楽しむ事が出来ない。どうしたら良いのかという事の一つのソリューションとしてWFSが注目されており、RMEはどちらかというと裏方でお手伝いをしております。WFS自身は1チャンネルあたり大量のスピーカーを使います。4面使いますから平均して128本とか500本とか、大きいところは720本とか使いますのでそういうところでご承知のMADIという技術を使いお手伝いしております。ではMAXよろしくです。
Max:本日はWFSについてお話をしたいと思います。私がいたデトモルト大学では2つのWFSシステムが入っています。ここでは、それをどのように使うかという研究を行っています。
本日のメニューですが、まず3D音響の単語とその背景について少しお話しをします。
その次に実際に使われている導入事例や、どうやってミックスを行うのかをお話しします。
最後に今後の見解などをお話しします。
[3D Sounds]
まず3D音響の実現方法にいくつかのアプローチがあります。
● Wave Field Synthesis(WFS)
● Higher Order Ambisonics(HOA)Multipoint Approachと呼ばれるもので5.1ch、7.1ch、22.2chのものがあります。
● Perceptually motivated approach。ここに書かれているのがVector Base Amplitude Panning(VBAP)とDirectional Audio Coding(DirAC)と呼ばれるものでとても重要なのがDynamic binaural synthesisというものです。ダミーヘッドやHRTFなどを応用しています。
[Evolution -from MONO to WFS]
音響の進化を最適リスニング位置(SWEET SPOT)と言う観点からお話しします。まず20世紀の前半にはグラモフォン蓄音機が部屋の隅っこに置いてあり、モノラルで音が流れてくるSWEET SPOTを探して、どこに座ろうとは考えなかったと思います。
その後20世紀半ばからステレオがポピュラーになり2つのスピーカーの間に座って聴くシステムが生まれました。今もステレオが一番流行している方法の理由としてはヘッドフォンですとか凄く簡単に音楽を聴く方法だからです。2つのスピーカーを置く場所があるのと価格帯もリーズナブルなものになります。ただ問題が一つありまして、スピーカー2つ、LchとRchのスピーカーの間に座らなければいけないという制限があります。その後5.1chサラウンド方式が出てきて、スピーカーの間に座らなければいけないだけではなく、部屋の真ん中に座らなければいけないという時代が起こってきました。 課題は、多くのリスナーへ広いSWEET SPOTをどう提供できるかにあります。
[Principles of Wave Field Synthesis]
今回お話しするのが、そのサラウンドで部屋の真中のスイートスポットをなくして、部屋のどこにいてもサラウンド体験が出来る環境の作り方です。まず1つのスピーカーが置かれているのを想像してみて下さい。私をスピーカーと思って頂ければ、そばに座っている人たちは私の方から音が流れている方向感覚を得ると思います。そういった環境で言うとやはり真ん中に座っている人しかサラウンドの感覚は得られないと思います。なのでスピーカーを10メートル、20メートル離す事でスイートスポットを大きくしてサラウンド感覚を広げる事が出来ます。しかしスピーカーを離してしまう事によって、高い周波数は減衰してしまいます。実際の音波の波形を見て頂きたいと思います。この波形の一部分を切り取ったものをご覧下さい。スピーカーに近い音波ほど球面波をしております。遠くにいけばいくほど平面波になります。我々の耳はこの球面波と平面波を聞き分ける事が出来ます。なのでWFSの基本原理はこの平面波を再現する事を目的としています。
すなわち小さな点音源スピーカを発音体として多数組み合わせることで平面波を作り出そうというわけです。この原理は17世紀にクリスチャン・ホイヘンス氏が発案した方法です。どんな波形も、より小さな波形で復元する事が可能だとおっしゃった方です。なので先ほどの図に戻りますと、壁に複数のスピーカーを備え付けます。これらのスピーカーにそれぞれ別々のディレイとアンプリチュードを流して、それを再生するとこのようになります。その波形を繋げると先ほど遠くの方にあった波形を復元する事が可能です。なので視聴者にとって方向性というのが生まれます。壁の外に音源があるような感覚になるのですが、その距離感というのは伝わらずに方向性だけが残ります。このようにしてすべてのスピーカーをすごく遠くに置く事によってスイートスポットを大きくする事が出来ます。課題は、音をスピーカーに当てはめるという事になります。20世紀に数学者によって色々考えられた方程式があるのですが、その一つは、部屋の隅々を小さなマイクで埋め尽くし、それでそれぞれのチャンネルを個々に録音をする。そのマイクを同じ数の小さいスピーカーに置き換えて再生を行うことでWave Fieldを再現する事が可能だという風に考えました。この部屋でいうと、私が立っている所で私が本当に話しているようにどこにいるひとにでも聴こえるという事です。これは素晴らしいのですけれども、経済的な恩恵を受けるのは、マイクとスピーカーメーカーのみだと思います。またとんでもないデータの数となってしまいます。さらに問題があって録音する部屋とプレイバックをする部屋が同じでなければいけません。
では、現実的な実現をどうすればいいのか。先程も言ったようにバーチャルなスピーカーを壁の後ろに配置したい、このモノスピーカーの為のモノファイルが存在します。そしてそのスピーカーの位置を記すテキストファイルがあります。その2つのデータをプロセッサーに送ります。プロセッサーで計算したそれぞれの信号を、1つ1つのスピーカーに流します。結果この図のように部屋の周りをぐるりと回すような事が出来ます。このためにはオーディオのファイルを変えるのではなく位置関係を表示するテキストファイルを変えるだけで可能になります。そして先程の部屋の内向き波形ではなくて、反対向き、外向きの波形を作りさらにスピーカーの数を多くする事によってバーチャルな音源を部屋の外側だけでなく中に置く事が出来ます。これが可能なのはデッドな部屋がある事と沢山のスピーカーが必要になります。この方法がスピーカーのモデリングを行う、音源のモデリングを行って再現をする方法です。なぜ本日WFSの話をしているかというと、これが代表的なモデルベースのテクニックとなるからです。
先ほどのPerceptually motivated approachとかは、モデリングベースではないアプローチとなります。まず音源のレコーディングを行います。例えばボーカリストをとてもドライな空間で1つのマイクロフォンで録音します。そして再現する時、プレイバックする時は、その人のモデリングを行うというような形になります。現在の研究ではこの位置関係をどのように保存するのかが問題になっています。今ご覧頂いているのがAudio Scene discription format(ASDF)というものになります。これは2つのファイルからなっています。まず上に表示されるのが最初のファイルです。まずこの上のファイルとオーディオファイルの2つを再生場所へ送ります。ファイルの指定と位置関係の指定でxとyが定義されているのが見られます。なのでプロセッサーが分からなければならないのはこのデータをどういった場所でプレイバックを行うかということなので2つ目のファイルにそれが記されています。ここに実際に書かれているのがスピーカーの数と位置です。1つ目のスピーカーの位置関係が書かれています。このフォーマットだと動きは再現できません。現在ベルリンの工科大学で研究が進められています。なのでプロダクションの段階ではまず最初にドライな空間でレコーディング、そしてその場所を保存をします。それの受け渡しを行うためにはWAVファイルで保存をして先ほどのxmlファイルのテキストファイルを作ります。受け取った側は5.1ch、7.1ch、バイノーラル、WFSなどどんな形のサラウンドでも再現できるような形をとることが目標となっております。なので、プレイバックの環境を問わずにプロセッサーの力だけで再生ができるような形が目標になります。
少しだけHigher Order Ambisonicsのテクノロジーと、Wave Field Synthesisのテクノロジーの違いを説明します。私が感じているのはドイツはどちらかというとWFS、そしてフランスはHOAに力を入れているのではないのかなと思います。実際にはそんなに音質の違いはありませんが実用性の部分では多くの違いが出てきます。WFSは様々なセットアップで使用する事ができます。HOAは円状に設置したスピーカーでのプレイバック方法しかサポートしません。HOAのレコーディングはサウンドフィールドマイクロフォンで行われます。WFSですと今持っているマイクを使うことができます。レンダリングの複雑さはHOAのほうが高いです。WFSはかなり単純化されているので、そんなにプロセッサーのパワーは使いません。ヨーロッパですとWFSは20以上の研究機関が研究し。実際の設備としてもワールドワイドで20ものエンターテイメントベニューで導入事例があります。
[ WFSの実用例 ]
1つはスイスから出ているsonic emotion社のsonic wave、もう1つが2週間前に発表されたドイツのIOSONO社から出ているSpatial Audio Processor IPC100になります。以前はIOSONO社は全くsonic emotion社とは違うアプローチをとっていて、IOSONO社はより完全な再現を目標としていました。仕様を見て頂いても分かるようにずっとsonic waveのほうがチャンネル数が少ないです。ただ凄く処理能力は速いです。私の大学では14台導入されていて、300ぐらいのスピーカーに流しています。レイテンシーは7ミリセカンドとすごく低く素晴らしいことだと思います。sonic emotionは他の機器との互換性もとても高くて様々なホールやミュージアム、ライブ等に導入事例があります。IOSONO社の新しいボックス(IPC100)を使うと先ほど説明したHOAやその他のサラウンドシステムとも互換性があり、ボタンひとつで5.1chのシステムに変えることができます。以前はIOSONO社は独自のスピーカーを作っていました。ロサンゼルスに導入されているシステムはとても高価なものになります。現在はポリシーを変えてどんなスピーカーでも使えるようにまた少ないスピーカー数でも使えるような形をとっています。先日見た導入事例では、10個ぐらいのスピーカーで再生ができる環境となっていました。以前は40から50ぐらいのスピーカーが必要でした。メーカとしてはオーディオクオリティー、効果、価格のバランスが大事なことです。
[ University, Cinemas and other applications ]
導入事例を主に見て行きたいと思います。私の大学では2つのどちらのシステムも入っています。これは私の大学のコンサートホールの例です。400ほどのスピーカーがぐるりとホールの周りを囲んでいます。この黒く見えるバンドが発砲スチロールのバーにそれぞれ8つのドライバーがついているものになります。これを作った当時にIOSONO社のものを導入しようと思っていたらすごく高価になっていたかと思います。今はそうでもありません。また、レイテンシーの部分でもsonic emotion社のものを導入する必要があったと思います。ここではMADIを使っています。地下にある14のプロセッサーでレベルとディレイを計算しています。MADIで送信するのはオーディオファイルのみとなります。コンピュータネットワークで送信するのが位置関係になります。これが実際の地下の写真で、これがsonic emotionのサーバーです。アンプが左側にあります。コンサートホールのなかに小さなデスクを用意して、Apple Logicのワークステーションのコントローラーを置いています。
ミキシングを行う一番最初の問題がどこで行えばよいのかが分からなかったということです。解決策はなく、現場のなかで動き回ってミキシングをしなければなりません。Logicのプラグインはこのようなインターフェイスになっています。個々のソースが小さな点で表示されています。コンサートホールの形をしているのが壁を囲ったスピーカーになります。先ほど映像に映っていたオルガンのところにギャップがあります。そこにはスピーカーがありません。
ではどのように使用しているのでしょうか?一例として、Raphael Cendoという現代音楽を作っているクラシック音楽家がいます。コンサートを行う会場に図のように5つのスピーカーを周りに配置しなければならないというような作品を作りました。なのでその構成としてはライブのドラムセットがあるだけでなく同時にスピーカーからも5つのサウンドが流れるような曲を作りました。この5chのスピーカーをWFSと置き換えて、そのため小さなホールで聴いているお客様みなさんが同時にライブのドラムとサラウンドの感覚を得ることができるような環境づくりに成功しました。
私の大学は音楽大学なので作曲家は他にもいます。今見て頂いているスコアは、WFSを使うことを前提としたスコアを実際に作り始めています。これは1人のシンガーと12個の別の楽器のスコアになっています。このスコアはライブで聞きながらプレイバックも行われている少し不思議な作品になっています。このような作品に使うだけでなく、リバーブの環境を変えるというような試みも行っています。オランダの製品でSIAP MKというプロセッサーがあります。コンサートホールの中に小さなディスプレイがあって、ホール全体の音響環境を瞬間的に変えてしまうというものです。オルガン奏者としてはすごく必要なことで、大きなホールですとオルガン奏者はとても長いリバーブタイムが必要なのでオーケストラとはだいぶ違う環境が必要になります。図のようなセットアップになっていてステージの上に複数のマイクロフォンが備わっています。プロセッサーがそのマイクの信号をWFS用に計算をします。一瞬で環境が変わります。
私の大学以外でも様々なところでWFSは使われています。たとえばsonic emotion社の製品で言うとsonic waveのプロセッサーをcoolux社Pandoras Boxと一緒に使うことでライブイベントができます。他には大規模な映画館でも使われています。ここで見ているのがフランスのシネマ展示会「Cinemateque」になります。IOSONO社は独自のシステムを使って独自の映画館を作ったことがあります。ひとつはロサンゼルスにあります。もうひとつはドイツにあってどちらかというとデモンストレーション用のべニューとなっています。私が実際に体験した映画では大きな木がお客さんに向かって倒れてくるというものがあります。客席の左側に座っているお客様は、右側に木が倒れてくる感覚を得て、右側に座っているお客様は左側に木が倒れてくる音が聞こえます。他には、製品発表会など様々なイベントでも使われています。これはシアターです。これはモナコ。フランス、パリのCentre Pompidouという現代アートのエキシビジョンです。香港のショールームでは実際に座って、音源をジョイスティックを使って動かす事ができるような部屋があります。私が知っている限りで一番大きなWFSの導入事例としては、ベルリン工科大学です。これはIOSONO社のシステムで白く見えるのがスピーカーになります。2年前にこのセットアップですごく面白い試みがありました。300km離れたケルンからのライブ転送です。ケルンの教会のWave Fieldをそのままこのホールで再現しました。ベルリン工科大学の外ではケルンのコンサートへのチケットを売っていましたので、お客さんの反応は様々で半分ぐらいはベルリンにいるのになぜこのような感じがするのか戸惑ってしまう方もいらっしゃいました。
[How to create WFS mixes]
次に、IOSONO社のプロセッサーを使用したワークフローを紹介します。スポットマイクをそれぞれのミュージシャンに置きます。そして部屋の環境を複数のマイクで録音をします。オーサリングツール、この場合はSteinberg Nuendoを使います。プレイバックではスポットマイクでレコーディングしたものを前の方に置き、部屋の音響を録った信号は四隅から鳴らすような形をとりました。これがその時のマイクセットアップ図です。IOSONOのワークステーションでは次のような図で表示されました。これのプレイバックを一度行ったとき、実際に録ったのと同じぐらいの大きさの部屋で行いました。なので部屋の前の方に立つと実際にオーケストラの中で聞いているような形になり部屋の後ろの方で聞いているとディフューズサウンドフィールドにいるような形になります。リスナーが慣れている音というのはその間の感覚です。部屋の後ろに座っていてあまりダイレクト音が聞こえないのは不思議な感覚でした。またあまりにも速く動くサウンドよりはゆっくりと動くソースのほうが感覚としては凄く良いものだと思います。
IOSONO社のプロセッサーには映画用の設定があります。最初にお話したセンタースピーカーを部屋の外に置いてしまうということがここで表示されています。ダイアログチャンネルが真ん中に表示されています。レフトスピーカーがあり、ライトスピーカーがあり、サラウンドスピーカーが部屋の後ろのほうに配置してあります。今ある5.1chなどのサラウンドミックスを表現するようなプリセットになります。これにより、より多くの人がサラウンド体験ができるような環境ができます。映画のプロデューサーがWFSを自身のスタジオで作ることができるのであれば、独自のソースを外ではなくて部屋の中に持って来て動かすことができるようになります。もちろんオートメーションもサポートしています。映像がなくても音声だけでも面白い効果が得られます。これは音楽でビートがゆっくり部屋の中を動くような形になっています。IOSONOのデモクリップで目の前で家が燃えているのがあります。もちろん見えないです、音だけなので。家が燃えている音がします。後ろから消防車がアプローチしてくるので後ろを観るような形になります。なので消防車が止まって消防士たちが出てきて叫び声ですとかドアが閉まる音とかがします。その大変な事態の真ん中にいるような感覚になります。
[ 課題 ]
たくさんのスピーカーを使うのでスピーカーのやはり質は落とさなければいけない。そんなことをすると、やはり音質的には良くありません。なのでセットアップにも関係ありますが、私の大学の音はそんなに良くありません。ただ、エフェクトは音質の欠点を忘れてしまうほどとても面白く、ここもバランスが重要だと思います。WFSの正確な再現には、デッドな部屋が必要だと先ほども述べましたが、私のいた大学では、空間が大きく響きも大きいのとスピーカーの質がそこまで良くないので音源を部屋の中に持ってくることができないのが問題です。それでもやはり5.1chよりははるかに面白いです。なぜならば、サイドの、例えば右サイドのフロントからリアに音が動くときのギャップがなくなるからです。
機材の選択は何をしたいのかによって様々です。なので使い方によってsonic emotionの方が適切であったり、IOSONO社のものの方が適切であったりします。今サウンドエンジニアとって一番問題なのが、IOSONO社のデータをsonic emotionに持っていくことができない互換性の問題です。なぜならばsonic emotionはIOSONOで使っているASDFファイルが読めないからです。なので我々の期待としてはひとつのオープンソースの方法、コンテナを開発してもらってさまざまなプロセッサーでどのようなモデリングベースの再現でも使えるような形を期待しています。また今後、オーサリングツールの充実も期待しています。sonic emotionは現在LogicとPyramixでしか使えません。IOSONO社のものはNuendoでしか使えません。数週間前にベルリン工科大学で発表された独自のWFSのプロセッサがあります。WFSだけでなくHRTF、バイノーラルですとかアンビソニックもサポートしています。そして素晴らしいのはこのソフトウェアは無料だということです。今からお見せするビデオがすごくおもしろくて、このプロセッサを使ってどういったことができるか見て頂くことができるかと思います。IOSONOのようにベルリン工科大学はこのASDFのフォーマットも開発した機関なので、今後出来ることとしては本当にIOSONO社と同じようなことができるようになります。今からお見せするのはAndroidのアプリケーションを使用していてスピーカーの配置がそこに表示されます。その効果というのはヘッドフォンを使って聞くことができます。それと同時にWFSとして流すこともできます。ご覧ください。
[ 動画視聴 ]
Max:今後の期待としてはもっとオープンソースで互換性が必要です。そうすればエンジニアとしてはコンテンツがすごく作りやすくなり、どんなところでもどんな環境でも再生できるようなことになると思います。これが私の考える今後の3D音響の未来です。では、質問などあれば、どうぞ。
[Q&A]
Q:高さ方向の表現は可能でしょうか?
A:IOSONO社ではもうすでにそういった試みもあって2段構成で少し高さも表現できるような、今ご覧頂いたサウンドスケープレンダラーでも高さが表現できると思います。もちろん他でもできるとは思うんですけれども複雑なテクノロジーになっていくことと思います。WFSでは不可能ではなくて要するにスピーカーの数の問題というところになります。我々の耳の働きは、高さより横の動きのほうに敏感ですので少しのスピーカーで高さというのは感じ取ることができます。
Q:プロダクションの段階でオーサリングしてから16chマスターでプロセッサーに行くという事なのですが、その16chはどういう構成になっているんでしょう。
A:制限はなく、要するにモノ音源が16chという事になります。なのでオーディオファイルのモノチャンネルが16個ということなので、例えばギターとボーカルとなにかが1つのチャンネルに合わさっていることもできます。ただそれが再現されるときはその3つが一緒に動くような形になります。
Q:ものすごく複雑にすると大変ということですか?
A:やはりそこまで16でも32でも、人間の脳が32個もの違うチャンネルを判別できるかというのはわかりません。もしかしたら予備として取っておくチャンネルとしてはいいかもしれないです。
Q:WFSでは、ひとつの仮想音源を作るのにいくつのスピーカーが必要になりますか?
A:最低でもこのくらいの部屋の大きさで、50〜60個のスピーカーが必要です。
Q:例えば3Dを表現するのではなくして、一方向から音が来るということを表現するにはどうですか?
A:やはりひとつのソースだったとしてもすべてのスピーカーにすべての方向から音を流さなければならないので、すべての壁を埋め尽くす必要があります。
Q:通常の5.1chの再生の場合は、スピーカーがLRCLsRsとチャンネルと場所が明確に分かれています。(スピーカーを多く設置する)WFSで5.1chの音源を再生するときに、エリア分けといった考えはあるのです?
A:明確なエリア分けはありません。例えばLchだけにある音源であったとしてもデータは、すべてのスピーカーで再生されます。実際にWFSでミックスするときは、WFSプロセッサーに、LchはL方向の遠くに、CchはC方向の遠くに、R、Ls、Rsと設定します。そうするとことで、サラウンドのスイートスポットが、コンサートホールのように広がります。
Q:5.1chの作品を作る場合は、WFSのプロセッサーまかせで、注意する点はないのでしょうか?
村井:この理論の一番のポイントは、再生周波数特性が半分になります。各社は、アルゴリズムを使って周波数を上げることをやっています。人間の耳は高域特性が敏感ですから、
A:あなたがサウンドエンジニアなら、5.1chミックスを心配する必要はありません。モデルベースミックス(WFS)では、5.1chの制限はありません。すべての楽器のファイル個別に用意し、リバーブを使い、それをどの位置から再生するか指示することができます。
村井:実際にホールでオーサリングしてみると、Logicの画面でパンニングできます。
A:楽器を個別のファイルで用意し、位置情報を指示します。(WFSの)サウンドレンダラーは、5.1ch、ヘッドフォン再生、WFSなど、それぞれの再生環境に合わせて変換します。
Q:すでにある5.1chのコンテンツから、WFSのコンテンツを作ることは可能ですか?
A:できます。もし、サックスだけを(WFSで)パンニングするには、先ほど紹介したプラグインを使う必要があります。複雑なパンニングは上手く表現できません。5.1chのミックスにパンニングする楽器を追加すると効果的かもしれません。
Q:例えば、 既存の5.1chのスタジオで、WFSの劇場向けのコンテンツを作るにはなにが必要ですか?
A:それは簡単です。5.1chのマスターを用意し、劇場に設置されたIOSONOプロセッサーを5.1chモードに設定すればWFSで5.1chの再生が可能です。また、どのようなコンテンツを提供するのかでも変わります。しかし3D映画で、飛び出してきた映像に同期して突然声が観客の目の前に出るような場合は、WFSでミックスする必要があります。
Q:その場合は、どのような機材が必要ですか?
A:WFSプロセッサー、NuendoなどのPCが必要です。
WFSプロセッサー、ヘッドフォン、5.1chの再生環境、NuendoとNuendoのプラグインを組み合わて作業する必要があります。もちろん、映画のようなWFSの効果を得るには、WFSの再生環境(プロセッサーとスピーカー)が必要です。何故ならば、5.1チャンの再生環境では限界があるからです。
Q:WFS専用のコンソールが必要ですか?
A:いいえ。既存のコンソールを使い、例えばダイアローグ1、ダイアローグ2を作りIOSONOレンダーに送り、リンクされた2台目のPCのNuendoのプラグインで、映画を見ながらマウスの操作でコントロールできます。
Q:高さ方向を表現するには、スピーカーをもう一列追加すると説明がありましたが、天井や床に設置する方法はありますか?
A:いいえ。現在のオーサリングツールでも大変複雑で、さらに機材が必要になるので、もう少し先になるのではないでしょうか。重要なことはWFSには限界がなく、オーサリングでの制限であることです。
Q:先ほど話にあった、木が倒れてくる作品の話がありましたが、それはWFSの環境で作られたものですか?
A:WFSの環境で作られたものです。
Q:わたしは、チャイニーズシアターでIOSONOで作られた映画を聞きました。個人的に映像の3Dだけではだめでこの情報化社会で映画館にお客さんを呼ぶには音の3D立体化しかないと思いIOSONOには注目しています。しかし、映像のデジタル化に費用がかかり、音にお金を使うのは大変です。映像が3D化されても、お客さんは20年前の5.1chの音で我慢しています。普通の5.1chフォーマットをIOSONOで聞いてもたいしたことはなく、IOSONOでミックスされたものはすばらしいです。なので(IOSONOの)36chや2階層になったシステムはいいと思います。(映画館、スタジオ、音響監督がIOSONOをひとつのフォーマットとして取り入れるには、どんな障害がありますか?
A:興味深いことがありました。IOSONOのこれまで高価でしたが、1ヶ月ほど前にポリシーを変更しました。オーサリングがスピーカー設置がなくても、モデリングベースで行えるようになり、これば個人の考えですが、費用がかからず、多くの人に高品質な3Dサウンドの提供が可能になるのではないでしょか。新しいIOSONOのオーサリングツールでは、映画用のWFSだけでなく、映画をiPhoneとヘッドフォンで聞いている人や、映画をの5.1や7.1スピーカーで向けに作ることができます。
Q:作り手側が3Dサウンドに興味をもってコンテンツを作ることが必要ですね。携帯からどうやってリンクしているのですか?
A:プロセスはLinuxのサーバーで行われ、そのIPネットワークにワイヤレスLAN経由のアンドロイド携帯電話でリモート操作します。
Q:WFSで、部屋の中で音のない空間は作るとこできますか?
A:残念ながら困難です。部屋には壁かあり、壁には反射があるので、完全に反射のない空間は不可能です。
Q:無響室では可能ですか?
A:無音を再生すれば可能です。(一同笑い)
Q:60個のスピーカーを使うことが想像できないのですか、WFSのコンテンツを作る環境を教えてください。
A:ミキシングコンソールは通常、5.1アウトだけではなく、サブミックスを作るためのステムアウトがあります。例えば、コンソールは15サブミックスを作ることができます。5.1chではなく、それのステムをIOSONOレンダーに送り、映像に合わせて動かします。それを最後に5.1chのミックスにしたい場合は、IOSONOレンダーで変換が可能です。(スピーカーごとではなく)音のソースごとで考えて下さい。
Q:プロセッサーの後に60個のアンプが必要なんですか?
A:はい。60個のスピーカーには60個のアンプが必要です。(一同笑い)
Q:60個のスピーカーが動作しているかチェックする簡単なシステムはありますか?
A:わかりませんが、私の大学では24個のスピーカーに動作確認の青いランプがありました。sonic emotionのプロセッサーにはスピーカー補正の機能があります。IOSONOの新しいプロセッサーにも同じ機能があるのではないでしょうか。
沢口:どうもありがとうございました。WFSの技術背景と実際の実用現場の話が聞けたのは、大変貴重な機会だったとおもいます。共同開催として会場を提供していただきましたTACシステム山本さん、そして講演の時間を寺子屋のためにアレンジいただきましたシンタックスJAPANの皆さんどうもありがとうございました。(一同拍手) この後TAC山崎さんからMADIに関連したTAC取り扱い製品の紹介、シンタックスJAPANから最新のFireFace UFXと同軸ニアフィールドモニターSP KSデジタルの紹介がありました。
[ 関連リンク ]
sonic emotion
http://www.sonicemotion.com/
IOSONO Sound
http://www.iosono-sound.com/
シンタックスジャパン・RME製品
http://www.synthax.jp/
「サラウンド寺子屋報告」 Index にもどる
「サラウンド入門」は実践的な解説書です
By. Mick Sawaguchi
日時:2010年12月15日
場所:タックシステムショールーム
講師:Max Holtmann (RMEテクニカルアドバイザー)
テーマ:3D映像とサラウンド音響 Part.2 WFS技術 原理とその応用
* 2010-12-15のUSTREAMアーカイブを合わせてご覧ください。
沢口:2010年12月でサラウンド寺子屋塾は69回目になりました。先月と今月で3Dの映像とサラウンドはどういう接点があるのかをテーマにしました。先月はIMAGICAさんの試写室をお借りをして、実際に最近の3Dとサラウンドの作品を体験し、今回は、RME社のエンジニアの方が来日するということで、ヨーロッパで始まっているWave Field Synthesisというテクニックを日本に紹介してくれないかという事で、快く一日我々の為に時間を割いて頂きました。興味のあるテーマなので我が家では入りきれないと思い、TACセミナー共催という形で山本さんにご協力もいただきました。また今回寺子屋の様子をU-STREAMでライブ配信する試みも行いますので各地の皆さんは、楽しみにしてください。
Wave Field Synthesis(WFS)というプロジェクトは、ヨーロッパにEUREKAというプロジェクトがありましてこれは国家のプロジェクトで、カルーソというコード名がついているプロジェクトで、長い間WFSが研究をされてきてそれが実機として世の中に出すところまできました。
私は2年前にアメリカのTodd-AOという大きなダビングステージが3Dのファイナルダビングをする為のダビングステージを作ったというニュースを読み、写真を見たら壁全面にスピーカーが埋まっていてこれにWFSという技術が使われていてそれをインストールする機材面はRMEがやっているということでした。
今回は、是非そのWFSがどういう原理で我々が日頃制作をしている5.1chの方法とどういう違いがあるのか、メリットデメリットもあると思いますので、そういうところを講師のMax Holtmannさんからお話して頂けたら良いなと思います。それではMaxさんの紹介をシンタックスジャパンの村井さんからお願いします。
村井:シンタックスジャパンの村井です。講師役のMAXは、ビールで有名なミュンヘンのすぐ横ハイムヒューゼンという所にあるシンタックス本社で、ジュニアプロダクトマネージャーをしております。現在は、香港OFFICEで業務を行っています。いくつの専門用語や数学の方程式も出てくるので、10年ぶりという方もおられるかもしれませんけれども、是非お楽しみ下さい。
今年のフランクフルトミュージックメッセで、後ほどご説明致します、IOSONO社もsonic emotion社もブースを出しておりまして、Maxが卒業をしましたドイツの大学、デトモルト大学、そこも先ほど申し上げたEUREKAの1つのリサーチセンターになっておりまして、ほかにはベルリンの工科大学もそうですし、オランダとか、フランスとかいくつかあるように思うのですけれども、ヨーロピアンコミュニティ自身が新しい産業育成ということで投資をしてその結果がようやくここに巡ってきたのが、このWFSです。昨今の映像は3D映像が出てきている訳ですけれども、実際に映画館に行ってもスイートスポットは限られているのでなかなか端の席の人は良いかたちで楽しむ事が出来ない。どうしたら良いのかという事の一つのソリューションとしてWFSが注目されており、RMEはどちらかというと裏方でお手伝いをしております。WFS自身は1チャンネルあたり大量のスピーカーを使います。4面使いますから平均して128本とか500本とか、大きいところは720本とか使いますのでそういうところでご承知のMADIという技術を使いお手伝いしております。ではMAXよろしくです。
Max:本日はWFSについてお話をしたいと思います。私がいたデトモルト大学では2つのWFSシステムが入っています。ここでは、それをどのように使うかという研究を行っています。
本日のメニューですが、まず3D音響の単語とその背景について少しお話しをします。
その次に実際に使われている導入事例や、どうやってミックスを行うのかをお話しします。
最後に今後の見解などをお話しします。
[3D Sounds]
まず3D音響の実現方法にいくつかのアプローチがあります。
● Wave Field Synthesis(WFS)
● Higher Order Ambisonics(HOA)Multipoint Approachと呼ばれるもので5.1ch、7.1ch、22.2chのものがあります。
● Perceptually motivated approach。ここに書かれているのがVector Base Amplitude Panning(VBAP)とDirectional Audio Coding(DirAC)と呼ばれるものでとても重要なのがDynamic binaural synthesisというものです。ダミーヘッドやHRTFなどを応用しています。
[Evolution -from MONO to WFS]
音響の進化を最適リスニング位置(SWEET SPOT)と言う観点からお話しします。まず20世紀の前半にはグラモフォン蓄音機が部屋の隅っこに置いてあり、モノラルで音が流れてくるSWEET SPOTを探して、どこに座ろうとは考えなかったと思います。
その後20世紀半ばからステレオがポピュラーになり2つのスピーカーの間に座って聴くシステムが生まれました。今もステレオが一番流行している方法の理由としてはヘッドフォンですとか凄く簡単に音楽を聴く方法だからです。2つのスピーカーを置く場所があるのと価格帯もリーズナブルなものになります。ただ問題が一つありまして、スピーカー2つ、LchとRchのスピーカーの間に座らなければいけないという制限があります。その後5.1chサラウンド方式が出てきて、スピーカーの間に座らなければいけないだけではなく、部屋の真ん中に座らなければいけないという時代が起こってきました。 課題は、多くのリスナーへ広いSWEET SPOTをどう提供できるかにあります。
[Principles of Wave Field Synthesis]
今回お話しするのが、そのサラウンドで部屋の真中のスイートスポットをなくして、部屋のどこにいてもサラウンド体験が出来る環境の作り方です。まず1つのスピーカーが置かれているのを想像してみて下さい。私をスピーカーと思って頂ければ、そばに座っている人たちは私の方から音が流れている方向感覚を得ると思います。そういった環境で言うとやはり真ん中に座っている人しかサラウンドの感覚は得られないと思います。なのでスピーカーを10メートル、20メートル離す事でスイートスポットを大きくしてサラウンド感覚を広げる事が出来ます。しかしスピーカーを離してしまう事によって、高い周波数は減衰してしまいます。実際の音波の波形を見て頂きたいと思います。この波形の一部分を切り取ったものをご覧下さい。スピーカーに近い音波ほど球面波をしております。遠くにいけばいくほど平面波になります。我々の耳はこの球面波と平面波を聞き分ける事が出来ます。なのでWFSの基本原理はこの平面波を再現する事を目的としています。
すなわち小さな点音源スピーカを発音体として多数組み合わせることで平面波を作り出そうというわけです。この原理は17世紀にクリスチャン・ホイヘンス氏が発案した方法です。どんな波形も、より小さな波形で復元する事が可能だとおっしゃった方です。なので先ほどの図に戻りますと、壁に複数のスピーカーを備え付けます。これらのスピーカーにそれぞれ別々のディレイとアンプリチュードを流して、それを再生するとこのようになります。その波形を繋げると先ほど遠くの方にあった波形を復元する事が可能です。なので視聴者にとって方向性というのが生まれます。壁の外に音源があるような感覚になるのですが、その距離感というのは伝わらずに方向性だけが残ります。このようにしてすべてのスピーカーをすごく遠くに置く事によってスイートスポットを大きくする事が出来ます。課題は、音をスピーカーに当てはめるという事になります。20世紀に数学者によって色々考えられた方程式があるのですが、その一つは、部屋の隅々を小さなマイクで埋め尽くし、それでそれぞれのチャンネルを個々に録音をする。そのマイクを同じ数の小さいスピーカーに置き換えて再生を行うことでWave Fieldを再現する事が可能だという風に考えました。この部屋でいうと、私が立っている所で私が本当に話しているようにどこにいるひとにでも聴こえるという事です。これは素晴らしいのですけれども、経済的な恩恵を受けるのは、マイクとスピーカーメーカーのみだと思います。またとんでもないデータの数となってしまいます。さらに問題があって録音する部屋とプレイバックをする部屋が同じでなければいけません。
では、現実的な実現をどうすればいいのか。先程も言ったようにバーチャルなスピーカーを壁の後ろに配置したい、このモノスピーカーの為のモノファイルが存在します。そしてそのスピーカーの位置を記すテキストファイルがあります。その2つのデータをプロセッサーに送ります。プロセッサーで計算したそれぞれの信号を、1つ1つのスピーカーに流します。結果この図のように部屋の周りをぐるりと回すような事が出来ます。このためにはオーディオのファイルを変えるのではなく位置関係を表示するテキストファイルを変えるだけで可能になります。そして先程の部屋の内向き波形ではなくて、反対向き、外向きの波形を作りさらにスピーカーの数を多くする事によってバーチャルな音源を部屋の外側だけでなく中に置く事が出来ます。これが可能なのはデッドな部屋がある事と沢山のスピーカーが必要になります。この方法がスピーカーのモデリングを行う、音源のモデリングを行って再現をする方法です。なぜ本日WFSの話をしているかというと、これが代表的なモデルベースのテクニックとなるからです。
先ほどのPerceptually motivated approachとかは、モデリングベースではないアプローチとなります。まず音源のレコーディングを行います。例えばボーカリストをとてもドライな空間で1つのマイクロフォンで録音します。そして再現する時、プレイバックする時は、その人のモデリングを行うというような形になります。現在の研究ではこの位置関係をどのように保存するのかが問題になっています。今ご覧頂いているのがAudio Scene discription format(ASDF)というものになります。これは2つのファイルからなっています。まず上に表示されるのが最初のファイルです。まずこの上のファイルとオーディオファイルの2つを再生場所へ送ります。ファイルの指定と位置関係の指定でxとyが定義されているのが見られます。なのでプロセッサーが分からなければならないのはこのデータをどういった場所でプレイバックを行うかということなので2つ目のファイルにそれが記されています。ここに実際に書かれているのがスピーカーの数と位置です。1つ目のスピーカーの位置関係が書かれています。このフォーマットだと動きは再現できません。現在ベルリンの工科大学で研究が進められています。なのでプロダクションの段階ではまず最初にドライな空間でレコーディング、そしてその場所を保存をします。それの受け渡しを行うためにはWAVファイルで保存をして先ほどのxmlファイルのテキストファイルを作ります。受け取った側は5.1ch、7.1ch、バイノーラル、WFSなどどんな形のサラウンドでも再現できるような形をとることが目標となっております。なので、プレイバックの環境を問わずにプロセッサーの力だけで再生ができるような形が目標になります。
少しだけHigher Order Ambisonicsのテクノロジーと、Wave Field Synthesisのテクノロジーの違いを説明します。私が感じているのはドイツはどちらかというとWFS、そしてフランスはHOAに力を入れているのではないのかなと思います。実際にはそんなに音質の違いはありませんが実用性の部分では多くの違いが出てきます。WFSは様々なセットアップで使用する事ができます。HOAは円状に設置したスピーカーでのプレイバック方法しかサポートしません。HOAのレコーディングはサウンドフィールドマイクロフォンで行われます。WFSですと今持っているマイクを使うことができます。レンダリングの複雑さはHOAのほうが高いです。WFSはかなり単純化されているので、そんなにプロセッサーのパワーは使いません。ヨーロッパですとWFSは20以上の研究機関が研究し。実際の設備としてもワールドワイドで20ものエンターテイメントベニューで導入事例があります。
[ WFSの実用例 ]
1つはスイスから出ているsonic emotion社のsonic wave、もう1つが2週間前に発表されたドイツのIOSONO社から出ているSpatial Audio Processor IPC100になります。以前はIOSONO社は全くsonic emotion社とは違うアプローチをとっていて、IOSONO社はより完全な再現を目標としていました。仕様を見て頂いても分かるようにずっとsonic waveのほうがチャンネル数が少ないです。ただ凄く処理能力は速いです。私の大学では14台導入されていて、300ぐらいのスピーカーに流しています。レイテンシーは7ミリセカンドとすごく低く素晴らしいことだと思います。sonic emotionは他の機器との互換性もとても高くて様々なホールやミュージアム、ライブ等に導入事例があります。IOSONO社の新しいボックス(IPC100)を使うと先ほど説明したHOAやその他のサラウンドシステムとも互換性があり、ボタンひとつで5.1chのシステムに変えることができます。以前はIOSONO社は独自のスピーカーを作っていました。ロサンゼルスに導入されているシステムはとても高価なものになります。現在はポリシーを変えてどんなスピーカーでも使えるようにまた少ないスピーカー数でも使えるような形をとっています。先日見た導入事例では、10個ぐらいのスピーカーで再生ができる環境となっていました。以前は40から50ぐらいのスピーカーが必要でした。メーカとしてはオーディオクオリティー、効果、価格のバランスが大事なことです。
[ University, Cinemas and other applications ]
導入事例を主に見て行きたいと思います。私の大学では2つのどちらのシステムも入っています。これは私の大学のコンサートホールの例です。400ほどのスピーカーがぐるりとホールの周りを囲んでいます。この黒く見えるバンドが発砲スチロールのバーにそれぞれ8つのドライバーがついているものになります。これを作った当時にIOSONO社のものを導入しようと思っていたらすごく高価になっていたかと思います。今はそうでもありません。また、レイテンシーの部分でもsonic emotion社のものを導入する必要があったと思います。ここではMADIを使っています。地下にある14のプロセッサーでレベルとディレイを計算しています。MADIで送信するのはオーディオファイルのみとなります。コンピュータネットワークで送信するのが位置関係になります。これが実際の地下の写真で、これがsonic emotionのサーバーです。アンプが左側にあります。コンサートホールのなかに小さなデスクを用意して、Apple Logicのワークステーションのコントローラーを置いています。
ミキシングを行う一番最初の問題がどこで行えばよいのかが分からなかったということです。解決策はなく、現場のなかで動き回ってミキシングをしなければなりません。Logicのプラグインはこのようなインターフェイスになっています。個々のソースが小さな点で表示されています。コンサートホールの形をしているのが壁を囲ったスピーカーになります。先ほど映像に映っていたオルガンのところにギャップがあります。そこにはスピーカーがありません。
ではどのように使用しているのでしょうか?一例として、Raphael Cendoという現代音楽を作っているクラシック音楽家がいます。コンサートを行う会場に図のように5つのスピーカーを周りに配置しなければならないというような作品を作りました。なのでその構成としてはライブのドラムセットがあるだけでなく同時にスピーカーからも5つのサウンドが流れるような曲を作りました。この5chのスピーカーをWFSと置き換えて、そのため小さなホールで聴いているお客様みなさんが同時にライブのドラムとサラウンドの感覚を得ることができるような環境づくりに成功しました。
私の大学は音楽大学なので作曲家は他にもいます。今見て頂いているスコアは、WFSを使うことを前提としたスコアを実際に作り始めています。これは1人のシンガーと12個の別の楽器のスコアになっています。このスコアはライブで聞きながらプレイバックも行われている少し不思議な作品になっています。このような作品に使うだけでなく、リバーブの環境を変えるというような試みも行っています。オランダの製品でSIAP MKというプロセッサーがあります。コンサートホールの中に小さなディスプレイがあって、ホール全体の音響環境を瞬間的に変えてしまうというものです。オルガン奏者としてはすごく必要なことで、大きなホールですとオルガン奏者はとても長いリバーブタイムが必要なのでオーケストラとはだいぶ違う環境が必要になります。図のようなセットアップになっていてステージの上に複数のマイクロフォンが備わっています。プロセッサーがそのマイクの信号をWFS用に計算をします。一瞬で環境が変わります。
私の大学以外でも様々なところでWFSは使われています。たとえばsonic emotion社の製品で言うとsonic waveのプロセッサーをcoolux社Pandoras Boxと一緒に使うことでライブイベントができます。他には大規模な映画館でも使われています。ここで見ているのがフランスのシネマ展示会「Cinemateque」になります。IOSONO社は独自のシステムを使って独自の映画館を作ったことがあります。ひとつはロサンゼルスにあります。もうひとつはドイツにあってどちらかというとデモンストレーション用のべニューとなっています。私が実際に体験した映画では大きな木がお客さんに向かって倒れてくるというものがあります。客席の左側に座っているお客様は、右側に木が倒れてくる感覚を得て、右側に座っているお客様は左側に木が倒れてくる音が聞こえます。他には、製品発表会など様々なイベントでも使われています。これはシアターです。これはモナコ。フランス、パリのCentre Pompidouという現代アートのエキシビジョンです。香港のショールームでは実際に座って、音源をジョイスティックを使って動かす事ができるような部屋があります。私が知っている限りで一番大きなWFSの導入事例としては、ベルリン工科大学です。これはIOSONO社のシステムで白く見えるのがスピーカーになります。2年前にこのセットアップですごく面白い試みがありました。300km離れたケルンからのライブ転送です。ケルンの教会のWave Fieldをそのままこのホールで再現しました。ベルリン工科大学の外ではケルンのコンサートへのチケットを売っていましたので、お客さんの反応は様々で半分ぐらいはベルリンにいるのになぜこのような感じがするのか戸惑ってしまう方もいらっしゃいました。
[How to create WFS mixes]
次に、IOSONO社のプロセッサーを使用したワークフローを紹介します。スポットマイクをそれぞれのミュージシャンに置きます。そして部屋の環境を複数のマイクで録音をします。オーサリングツール、この場合はSteinberg Nuendoを使います。プレイバックではスポットマイクでレコーディングしたものを前の方に置き、部屋の音響を録った信号は四隅から鳴らすような形をとりました。これがその時のマイクセットアップ図です。IOSONOのワークステーションでは次のような図で表示されました。これのプレイバックを一度行ったとき、実際に録ったのと同じぐらいの大きさの部屋で行いました。なので部屋の前の方に立つと実際にオーケストラの中で聞いているような形になり部屋の後ろの方で聞いているとディフューズサウンドフィールドにいるような形になります。リスナーが慣れている音というのはその間の感覚です。部屋の後ろに座っていてあまりダイレクト音が聞こえないのは不思議な感覚でした。またあまりにも速く動くサウンドよりはゆっくりと動くソースのほうが感覚としては凄く良いものだと思います。
IOSONO社のプロセッサーには映画用の設定があります。最初にお話したセンタースピーカーを部屋の外に置いてしまうということがここで表示されています。ダイアログチャンネルが真ん中に表示されています。レフトスピーカーがあり、ライトスピーカーがあり、サラウンドスピーカーが部屋の後ろのほうに配置してあります。今ある5.1chなどのサラウンドミックスを表現するようなプリセットになります。これにより、より多くの人がサラウンド体験ができるような環境ができます。映画のプロデューサーがWFSを自身のスタジオで作ることができるのであれば、独自のソースを外ではなくて部屋の中に持って来て動かすことができるようになります。もちろんオートメーションもサポートしています。映像がなくても音声だけでも面白い効果が得られます。これは音楽でビートがゆっくり部屋の中を動くような形になっています。IOSONOのデモクリップで目の前で家が燃えているのがあります。もちろん見えないです、音だけなので。家が燃えている音がします。後ろから消防車がアプローチしてくるので後ろを観るような形になります。なので消防車が止まって消防士たちが出てきて叫び声ですとかドアが閉まる音とかがします。その大変な事態の真ん中にいるような感覚になります。
[ 課題 ]
たくさんのスピーカーを使うのでスピーカーのやはり質は落とさなければいけない。そんなことをすると、やはり音質的には良くありません。なのでセットアップにも関係ありますが、私の大学の音はそんなに良くありません。ただ、エフェクトは音質の欠点を忘れてしまうほどとても面白く、ここもバランスが重要だと思います。WFSの正確な再現には、デッドな部屋が必要だと先ほども述べましたが、私のいた大学では、空間が大きく響きも大きいのとスピーカーの質がそこまで良くないので音源を部屋の中に持ってくることができないのが問題です。それでもやはり5.1chよりははるかに面白いです。なぜならば、サイドの、例えば右サイドのフロントからリアに音が動くときのギャップがなくなるからです。
機材の選択は何をしたいのかによって様々です。なので使い方によってsonic emotionの方が適切であったり、IOSONO社のものの方が適切であったりします。今サウンドエンジニアとって一番問題なのが、IOSONO社のデータをsonic emotionに持っていくことができない互換性の問題です。なぜならばsonic emotionはIOSONOで使っているASDFファイルが読めないからです。なので我々の期待としてはひとつのオープンソースの方法、コンテナを開発してもらってさまざまなプロセッサーでどのようなモデリングベースの再現でも使えるような形を期待しています。また今後、オーサリングツールの充実も期待しています。sonic emotionは現在LogicとPyramixでしか使えません。IOSONO社のものはNuendoでしか使えません。数週間前にベルリン工科大学で発表された独自のWFSのプロセッサがあります。WFSだけでなくHRTF、バイノーラルですとかアンビソニックもサポートしています。そして素晴らしいのはこのソフトウェアは無料だということです。今からお見せするビデオがすごくおもしろくて、このプロセッサを使ってどういったことができるか見て頂くことができるかと思います。IOSONOのようにベルリン工科大学はこのASDFのフォーマットも開発した機関なので、今後出来ることとしては本当にIOSONO社と同じようなことができるようになります。今からお見せするのはAndroidのアプリケーションを使用していてスピーカーの配置がそこに表示されます。その効果というのはヘッドフォンを使って聞くことができます。それと同時にWFSとして流すこともできます。ご覧ください。
[ 動画視聴 ]
Max:今後の期待としてはもっとオープンソースで互換性が必要です。そうすればエンジニアとしてはコンテンツがすごく作りやすくなり、どんなところでもどんな環境でも再生できるようなことになると思います。これが私の考える今後の3D音響の未来です。では、質問などあれば、どうぞ。
[Q&A]
Q:高さ方向の表現は可能でしょうか?
A:IOSONO社ではもうすでにそういった試みもあって2段構成で少し高さも表現できるような、今ご覧頂いたサウンドスケープレンダラーでも高さが表現できると思います。もちろん他でもできるとは思うんですけれども複雑なテクノロジーになっていくことと思います。WFSでは不可能ではなくて要するにスピーカーの数の問題というところになります。我々の耳の働きは、高さより横の動きのほうに敏感ですので少しのスピーカーで高さというのは感じ取ることができます。
Q:プロダクションの段階でオーサリングしてから16chマスターでプロセッサーに行くという事なのですが、その16chはどういう構成になっているんでしょう。
A:制限はなく、要するにモノ音源が16chという事になります。なのでオーディオファイルのモノチャンネルが16個ということなので、例えばギターとボーカルとなにかが1つのチャンネルに合わさっていることもできます。ただそれが再現されるときはその3つが一緒に動くような形になります。
Q:ものすごく複雑にすると大変ということですか?
A:やはりそこまで16でも32でも、人間の脳が32個もの違うチャンネルを判別できるかというのはわかりません。もしかしたら予備として取っておくチャンネルとしてはいいかもしれないです。
Q:WFSでは、ひとつの仮想音源を作るのにいくつのスピーカーが必要になりますか?
A:最低でもこのくらいの部屋の大きさで、50〜60個のスピーカーが必要です。
Q:例えば3Dを表現するのではなくして、一方向から音が来るということを表現するにはどうですか?
A:やはりひとつのソースだったとしてもすべてのスピーカーにすべての方向から音を流さなければならないので、すべての壁を埋め尽くす必要があります。
Q:通常の5.1chの再生の場合は、スピーカーがLRCLsRsとチャンネルと場所が明確に分かれています。(スピーカーを多く設置する)WFSで5.1chの音源を再生するときに、エリア分けといった考えはあるのです?
A:明確なエリア分けはありません。例えばLchだけにある音源であったとしてもデータは、すべてのスピーカーで再生されます。実際にWFSでミックスするときは、WFSプロセッサーに、LchはL方向の遠くに、CchはC方向の遠くに、R、Ls、Rsと設定します。そうするとことで、サラウンドのスイートスポットが、コンサートホールのように広がります。
Q:5.1chの作品を作る場合は、WFSのプロセッサーまかせで、注意する点はないのでしょうか?
村井:この理論の一番のポイントは、再生周波数特性が半分になります。各社は、アルゴリズムを使って周波数を上げることをやっています。人間の耳は高域特性が敏感ですから、
A:あなたがサウンドエンジニアなら、5.1chミックスを心配する必要はありません。モデルベースミックス(WFS)では、5.1chの制限はありません。すべての楽器のファイル個別に用意し、リバーブを使い、それをどの位置から再生するか指示することができます。
村井:実際にホールでオーサリングしてみると、Logicの画面でパンニングできます。
A:楽器を個別のファイルで用意し、位置情報を指示します。(WFSの)サウンドレンダラーは、5.1ch、ヘッドフォン再生、WFSなど、それぞれの再生環境に合わせて変換します。
Q:すでにある5.1chのコンテンツから、WFSのコンテンツを作ることは可能ですか?
A:できます。もし、サックスだけを(WFSで)パンニングするには、先ほど紹介したプラグインを使う必要があります。複雑なパンニングは上手く表現できません。5.1chのミックスにパンニングする楽器を追加すると効果的かもしれません。
Q:例えば、 既存の5.1chのスタジオで、WFSの劇場向けのコンテンツを作るにはなにが必要ですか?
A:それは簡単です。5.1chのマスターを用意し、劇場に設置されたIOSONOプロセッサーを5.1chモードに設定すればWFSで5.1chの再生が可能です。また、どのようなコンテンツを提供するのかでも変わります。しかし3D映画で、飛び出してきた映像に同期して突然声が観客の目の前に出るような場合は、WFSでミックスする必要があります。
Q:その場合は、どのような機材が必要ですか?
A:WFSプロセッサー、NuendoなどのPCが必要です。
WFSプロセッサー、ヘッドフォン、5.1chの再生環境、NuendoとNuendoのプラグインを組み合わて作業する必要があります。もちろん、映画のようなWFSの効果を得るには、WFSの再生環境(プロセッサーとスピーカー)が必要です。何故ならば、5.1チャンの再生環境では限界があるからです。
Q:WFS専用のコンソールが必要ですか?
A:いいえ。既存のコンソールを使い、例えばダイアローグ1、ダイアローグ2を作りIOSONOレンダーに送り、リンクされた2台目のPCのNuendoのプラグインで、映画を見ながらマウスの操作でコントロールできます。
Q:高さ方向を表現するには、スピーカーをもう一列追加すると説明がありましたが、天井や床に設置する方法はありますか?
A:いいえ。現在のオーサリングツールでも大変複雑で、さらに機材が必要になるので、もう少し先になるのではないでしょうか。重要なことはWFSには限界がなく、オーサリングでの制限であることです。
Q:先ほど話にあった、木が倒れてくる作品の話がありましたが、それはWFSの環境で作られたものですか?
A:WFSの環境で作られたものです。
Q:わたしは、チャイニーズシアターでIOSONOで作られた映画を聞きました。個人的に映像の3Dだけではだめでこの情報化社会で映画館にお客さんを呼ぶには音の3D立体化しかないと思いIOSONOには注目しています。しかし、映像のデジタル化に費用がかかり、音にお金を使うのは大変です。映像が3D化されても、お客さんは20年前の5.1chの音で我慢しています。普通の5.1chフォーマットをIOSONOで聞いてもたいしたことはなく、IOSONOでミックスされたものはすばらしいです。なので(IOSONOの)36chや2階層になったシステムはいいと思います。(映画館、スタジオ、音響監督がIOSONOをひとつのフォーマットとして取り入れるには、どんな障害がありますか?
A:興味深いことがありました。IOSONOのこれまで高価でしたが、1ヶ月ほど前にポリシーを変更しました。オーサリングがスピーカー設置がなくても、モデリングベースで行えるようになり、これば個人の考えですが、費用がかからず、多くの人に高品質な3Dサウンドの提供が可能になるのではないでしょか。新しいIOSONOのオーサリングツールでは、映画用のWFSだけでなく、映画をiPhoneとヘッドフォンで聞いている人や、映画をの5.1や7.1スピーカーで向けに作ることができます。
Q:作り手側が3Dサウンドに興味をもってコンテンツを作ることが必要ですね。携帯からどうやってリンクしているのですか?
A:プロセスはLinuxのサーバーで行われ、そのIPネットワークにワイヤレスLAN経由のアンドロイド携帯電話でリモート操作します。
Q:WFSで、部屋の中で音のない空間は作るとこできますか?
A:残念ながら困難です。部屋には壁かあり、壁には反射があるので、完全に反射のない空間は不可能です。
Q:無響室では可能ですか?
A:無音を再生すれば可能です。(一同笑い)
Q:60個のスピーカーを使うことが想像できないのですか、WFSのコンテンツを作る環境を教えてください。
A:ミキシングコンソールは通常、5.1アウトだけではなく、サブミックスを作るためのステムアウトがあります。例えば、コンソールは15サブミックスを作ることができます。5.1chではなく、それのステムをIOSONOレンダーに送り、映像に合わせて動かします。それを最後に5.1chのミックスにしたい場合は、IOSONOレンダーで変換が可能です。(スピーカーごとではなく)音のソースごとで考えて下さい。
Q:プロセッサーの後に60個のアンプが必要なんですか?
A:はい。60個のスピーカーには60個のアンプが必要です。(一同笑い)
Q:60個のスピーカーが動作しているかチェックする簡単なシステムはありますか?
A:わかりませんが、私の大学では24個のスピーカーに動作確認の青いランプがありました。sonic emotionのプロセッサーにはスピーカー補正の機能があります。IOSONOの新しいプロセッサーにも同じ機能があるのではないでしょうか。
沢口:どうもありがとうございました。WFSの技術背景と実際の実用現場の話が聞けたのは、大変貴重な機会だったとおもいます。共同開催として会場を提供していただきましたTACシステム山本さん、そして講演の時間を寺子屋のためにアレンジいただきましたシンタックスJAPANの皆さんどうもありがとうございました。(一同拍手) この後TAC山崎さんからMADIに関連したTAC取り扱い製品の紹介、シンタックスJAPANから最新のFireFace UFXと同軸ニアフィールドモニターSP KSデジタルの紹介がありました。
[ 関連リンク ]
sonic emotion
http://www.sonicemotion.com/
IOSONO Sound
http://www.iosono-sound.com/
シンタックスジャパン・RME製品
http://www.synthax.jp/
「サラウンド寺子屋報告」 Index にもどる
「サラウンド入門」は実践的な解説書です
December 1, 2010
第75回 長野朝日放送の7 時間生番組・今年も全編サラウンド!:実践5.1ch サラウンド番組制作
ツイート
By Satoshi Inoue 井上 哲
“「ヘッドフォンサラウンドミキシングで確実に放送を成立させれば、放送サラウンド普及の足がかりとなる」と、この環境でのサラウンドヘッドフォン使用に踏み切った。(中略) 今年も間違いなく、最も過酷で、しかしミキサー冥利につきる仕事となった。終了後の打ち上げで「来年はもっと凄い事やるからよろしく」と笑って話す統括プロデューサー氏の言葉がまた、不気味ではあるが。(苦笑)” 月刊FDI 2010/12(PDF)より
SVS・サラウンドヘッドフォン:実践5.1ch サラウンド番組制作
「実践5.1ch サラウンド番組制作」目次へもどる
「Let's Surround(基礎知識や全体像が理解できる資料)」
「サラウンド入門」は実践的な解説書です
担当サラウンド寺子屋サポーター:Go HaseGawa、Kazuki Kobayashi、NSSJP
By Satoshi Inoue 井上 哲
“「ヘッドフォンサラウンドミキシングで確実に放送を成立させれば、放送サラウンド普及の足がかりとなる」と、この環境でのサラウンドヘッドフォン使用に踏み切った。(中略) 今年も間違いなく、最も過酷で、しかしミキサー冥利につきる仕事となった。終了後の打ち上げで「来年はもっと凄い事やるからよろしく」と笑って話す統括プロデューサー氏の言葉がまた、不気味ではあるが。(苦笑)” 月刊FDI 2010/12(PDF)より
SVS・サラウンドヘッドフォン:実践5.1ch サラウンド番組制作
「実践5.1ch サラウンド番組制作」目次へもどる
「Let's Surround(基礎知識や全体像が理解できる資料)」
「サラウンド入門」は実践的な解説書です
担当サラウンド寺子屋サポーター:Go HaseGawa、Kazuki Kobayashi、NSSJP
November 20, 2010
第68回サラウンド塾 体感3D映像とサラウンド音響 村越宏之、冨里幸太郎、佐々木孝徳、喜多 真一
By. Mick Sawaguchi
日時:2010年11月20日
場所:IMAGICA東京映像センター 第2試写室
講師:村越宏之、冨里幸太郎、佐々木孝徳(株式会社IMAGICA)喜多 真一(Sony PCL)
テーマ:3D映像とサラウンドの親和性を体感する
冨里幸太郎(株式会社IMAGICA)
村越宏之(株式会社IMAGICA)
喜多 真一(Sony PCL)
佐々木孝徳(株式会社IMAGICA)
のみなさん
沢口:2010年11月のサラウンド寺子屋は3Dとサラウンド音響の親和性を体感してみようと言う企画です。3Dとサラウンド音響というのは大変ホットな話題ですが、いい環境で聴ける条件が難しくなかなか開催できませんでした。今回はIMAGICAさんのご協力で素晴らしい環境で3Dとサラウンドを体験できることができましたので、多いに楽しんで頂けると思います。それでは、宜しくお願いします。
冨里:おはようございます。IMAGICAの3D推進室の冨里と申します。まず私のほうからIMAGICAの3Dへの取り組みの概要をお話しさせて頂きます。最初に3Dに関連する市場概況です。我々は、コンテンツ、ディストリビューション流通配信、ディバイス表示上映装置というこの3つを切り口にマーケティングをしております。
コンテンツ
ご存知の通りアバターを始めとする3D映画の興行的な成功、こちらがキーとなって来年も全米で30本以上の3D映画が公開される状況になりました。国内におきましてもすでに10本以上の3D映画が公開すると決まっております。そしてスポーツ中継、あるいはコンサート、ライブといったイベントの3D制作がいま非常に活発化しております。
ディストリビューション流通配信
作ったコンテンツをお客様にお届けする、その分野におきましてやはり有料の放送局様、ならびに配信の事業者様が積極的に取り組みをされています。スカパーさんに関しましては6月に3D専門チャンネル、スカチャン3D169、こちらを開局後、連日3D番組の放送を生中継を含めて放送をされているという現状です。またパッケージソフトBlu-rayに関しても、規格がようやく決まりまして最新のBlu-ray 3Dによる高画質、高音質作品のリリースが始まったという現状です。
3Dを表示、上映する環境
やはり今3Dの立体映像を観てサラウンド音声を聴くというところで、一番良いクオリティで聴ける環境の映画館、こちらの3D対応も急速に伸び続けています。私どもの調べですが、世界でだいたい15000スクリーン位、日本国内におきましても全体3400スクリーンのうちの約15%、500スクリーン以上が3D対応になっているという現状です。そしてホームエンタテイメント部門への波及という事でも電機メーカー様各社3Dテレビを市場投入され、2010年度4月から9月の国内出荷台数が約13万台という数字が出ております。これは薄型テレビの全体に占める割合としましては1.3%という事でまだまだ少ない状況ではあるのですが徐々に普及が始まってきています。そしてテレビ以外の個人向けの、いわゆるスマートフォンや高機能携帯端末に関しても3D表示の対応が始まっているという事で色々な出口が徐々に広がってきているという現状かと思います。
IMAGICAの3D映像技術ワークフロー
コンテンツのプランニング、プリプロダクション段階から、実際の画像を生成するプロダクション段階、それを仕上げ加工するポストプロダクション段階、そしてそれを各種用途に応じたアウトプットをするという一連の行程をサポートするというところをコンセプトに色々なサービスメニューを用意しています。やはり3Dに関して、これは通常の2Dのコンテンツ制作でも変わりはないのですが、特に重要となるのが実際にプロダクションに入る前のミーティングあるいはプリビズ(3D映像絵コンテ)を使った準備段階がその後の状況を左右すると言っても過言ではないくらい大事な工程になります。この段階で経験豊冨な3Dスーパーバイザーが参加し最適なワークフローのご提案とアドバイス等を行うという態勢です。
3Dの画像を生み出す方法として、3D撮影をするか、2Dを3Dに変換するか、3DのCG空間上で立体視を作るという、大きく分けて3つの方法論があります。3D撮影については後ほど詳しく説明します。ポスプロにおいても3D対応の編集機、そして色調整、カラーグレーディング、もちろんサラウンド設備を備えたMA室も各種用意をし用途に応じたアウトプットも万全の態勢で備えております。
3ality DigitalTS-2撮影
IMAGICAではこの3ality DigitalのTS-2というシステムを使って、3D撮影を行っています。今日ご覧頂く映像も一部こちらを使っております。3ality Digital TS-2は立体撮影業界では画期的な特徴をもっておりまして、立体視ということでLとRの2台のカメラを取り付けて撮影をする仕組みになっていますが、この2台のカメラがきちんと同期します。これは一見当たり前のようなことに聴こえてしまうかもしれませんが、今までの立体撮影機器は非常に難しかった事が出来るようになったということで、非常に画期的なシステムと言われています。ここをしっかり同期しないと、後でご覧になる一般のお客様も目が疲れてしまう、頭が痛くなってしまうということに直結する要因となっておりますので、精度よく3D撮影をするために欠かせない要素となっております。そしてこの2台のカメラが撮影しながらリアルタイムで視差の調節が出来るというところも非常に大きな特徴の一つです。立体撮影では2台のカメラの距離と角度、これを調節していく事で奥行きと飛び出し感を作っていくのですが、この調節が撮影をしながらリアルタイムで出来るということで生中継にも十分対応可能であるという事と、従来に比べて現場でのセッティング時間が掛からないという事で、2D作品と同等の収録が実現できるという特徴を持っております。
3D作品の上映環境
今回は、HDCAM-SRテープから再生します。今日は24pのものと60iのもの両方ありますが、HDCAM-SRテープのDual streamという方式で記録された映像信号の左目の映像と右目の映像、これをVTR、Sony SRW-5800を使って再生それをBarco DP 100DLRプロジェクターを使って投影しています。立体視のために赤外線も出ているフレームシーケンシャル+液晶シャッター方式という上映仕様なのですが、実際には画像が左目、右目、左目、右目と高速で144Hz、1秒間に144コマ、左目72コマ、右目72コマという、当然人間の目では察知出来ないスピードで画が出力されています。ここでL、R、L、Rと出ている映像信号と同期する形で赤外線が発射されています。それをスクリーンから反射して皆さんのお手元のメガネ受光部分で赤外線を受光すると、出力と同期する形でメガネがL、R、L、Rとシャッターを切って右目の映像は右目だけに、左目の映像は左目だけに届けるということで立体視が成立する仕組みになっています。
通常こちらの第2試写室は、映画の場合、Dolby 3Dという3Dシステムを採用しておりデジタルシネマパッケージ、劇場用映画のデジタルシネマの規格である、DCPのファイルの再生をしています。同じく左目の映像ソースと右目の映像ソースが出てるのですけれども、Dolby 3Dの場合、INFITECという特殊な技術を使って右目左目に特殊な光を届けているという仕組みとなっております。これはRGBの光の波長を分割して左目用のRGB、右目用のRGBという分割されたものが特殊なメガネを使って見ると立体に見えます。
上映3D作品
IMAGICAからは、3本です。まず最初にGR75 オープニング映像という2分程のショートクリップを上映。
次に東京島という映画の予告編の3Dバージョンを。
最後に弦楽五重奏とピアノソロの演奏の模様を3D撮影した映像を上映します。
GR75オープニング映像これは、IMAGICA、創業75周年記念イベントを先月開催しました。この時のオープニング映像として作ったものを上映致します。この映像はあらゆる3D画像生成方法を駆使して、最新の技術をふんだんに取り入れて作った映像になっております。先ほどもワークフローの紹介で説明しましたが、3Dの撮影と、2Dから3Dへの変換、そして3DCGと色々なアプローチを取り入れて作ったものとなっております。(一同拍手)
[ 作品視聴 ]
村越:次に邦画の予告編で「東京島」という邦画の30秒トレーラーを制作しました。本編はLCRSの4チャンネルと2D映像ですが、3Dの劇場でこの予告が上映されるとのことなので、この予告編も3D&サラウンドで作りたいとの依頼がありました。みて頂ければ分かると思いますが、布というか旗を振っている部分は新たに3Dで撮影したものです。本編の音楽はステレオですが、それをサラウンドにしました。それではご覧下さい。これは、セリフはすでに収録されたものを、私がミックスしました。
[ 作品視聴 ]
村越:次に、IMAGICAの3ality Digitalで撮影した、弦楽五重奏とピアノソロを教会で収録したクリップを再生します。
制作フロー
収録は、2010年1月28日で、1日で収録しました。場所は、(東京都)品川区のグローリア・チャペルで、御殿山の品川教会と呼ばれているコンサートや録音で使われることもある場所です。IMAGICAの3DデモのためとスカパーJSATさんの素材用に共同で撮りました。撮影は、3alityDigitalカメラを使いHDCAM-SRに60i Dual Streamで撮っています。カメラは3Dカメラ1セットです。カメラが片方は正面に、もう一方は下に向いているものを、ハーフミラーを使い撮影する、3ality DigitalのTS-2と呼ばれる方式です。カメラはクレーンを使用しました。打ち合わせのときに、音は現場で録りたいとか、いやCDのプレイバックでいいと、打ち合わせでは結構バタバタしていました。私は、せっかく教会での撮影なので、サラウンド収録すると言い張っていましたが、直前までCDのプレイバックでいいよとのことでした。最終的に勝手にサラウンド収録の機材を持って行きました。当日は、プロディーサーの方にいきなり、「今日の録音はサラウンドだよね?」と言われ、「もちろんそうです。」と答えました。
手順としてまず先に音楽を収録し、アーティストの方のOKがでた後、それをプレイバックしながら撮影しました。通常のように、事前にプレイバック素材を用意するのではなく、その場で収録したものを再生しました。基本的にはクリックなどを使っていませんので1曲通してOKテークにできるようミュージシャンにお願いしました。録音の機材をどうするか悩んでいたのですが、手持ち機材でできるのか検討し、Digidesign Digi003を使い、サラウンド+弦楽五重奏なので10チャンネル必要になります。 Digi003のアナログ入力8チャンネルとADAT入力8チャンネルにHAを組み合わせることにしました。噂に聞いていた、RMEのoctamic IIをシンタックスジャパンさんから、もう一台は、Metric halo ULN-8をロックオンプロさんからレンタルしました。マイクは、サラウンドのLCRにノイマンKM 140(単一指向)LsRsにノイマンKM 131(無指向)を使い、ヴァイオリンはSennheiser MHK80、それに合うように、ヴィオラとチェロにSennheiser MKH 8040を、ピアノのオンマイクにはAKG C414B TLIIを使いました。ハンドリングが楽なようにSPL Tree(サラウンドマイクアレー)を使いました。
映像の撮影もあるので、同期も含めこれらをどう接続するか考えました。
[ セッティング図 ]
弦楽五重奏のオンマイクはMetric halo ULN-8を使い、SEND OUTからDigi003のアナログの入力に入っています。サラウンドツリーのマイクはRMEのOctamic IIを使い、ADAT OUTからオプティカルでDigi003に接続しています。図にSGとありますが、ビデオ撮影するのでシンクジェネレーターが必要となります。3値シンク(Tri-level Sync)をカメラに、48KHzのワードクロックをDigi003に入れて、スルーをMetric haloとRMEに送ります。最初、ワードクロックのスルーはうまくいくのだろうかと思っていましたが、実験したところノイズが出ることもなく安定してロックしていたのでこの方法を採用しました。同期に関しては、このシステム内でカメラも含めシンクしたシステムが構築できています。
Pro Toolsで編集用ステレオミックスを作り、RMEの空いている7と8チャンネルに入れ、AESアウトから、VTRに返しています。後でサラウンドの音貼りをするときのガイドや、チェック用であるとか、撮ったものをその場ですぐにプレイバックするときはにはVTRだけできるようになっています。Metric halo ULN-8はアナログしかPro Toolsに接続していないのでゲンロックしてなくてもいいように思いますが、AESで送る必要がありますので、ロックしています。なぜAES送りなのかと言うと、VTRの入り口がAESだったからです。サラウンドツリーのマイクは、すべて単一指向のマイクを使いたかったのですが、機材調達の関係で、フロントが単一指向でリアが無指向です。
次にピアノの系統ですが、基本的には同じ場所で同じように録っているので、大きくは変わっていません。何処が違うかっていうと、ピアノのオンマイクの2本、ハイとローになっています。あとの系統は全て同じです。VTRに2ミックスを送るであるとか、オンマイクの方はMetric halo ULN-8を使いサラウンドマイクの方はRME Octamic IIを使い、サウンドマイクに関しては全く同じです。
このホールは、一般的な長方形の教会で、ここIMAGICA 第2試写室より横幅は1.5倍で長さは2倍で高さは天井高4mぐらいあるような、いわゆる長方形で回りは木でステージが若干40~50cm高く上がっているというような所でした。ステージの上で録ったのですが、教会の人のアドバイスで何処で録ったら一番音がいいかだけを聴いて、ちょっとステージの前の面から下がった位置になるのですが、その位置でピアノであるとか、ミュージシャンに立って頂いて録りました。そこからサラウンドマイクは3mぐらい前のステージの面からちょっと前に出した位置、そしてステージから2m70cm上げた位置に最終的になりました。色々テストして、そこが一番サラウンド感が録れるのでそこにしました。これから4曲分を弦楽五重奏で2曲、ピアノのソロで2曲聴いて頂きます。これに関してはIMAGICAのMA室で7chミックスないしは10chミックスしています。サブウーハーは使ってません。4曲とも5.0ミックスになってます。これはスカパーさんと一緒に録ったということもあり、HD60iになっています。
[ 作品視聴 ]
ミックスについて
基本的には弦楽五重奏の方は5チャンネルのオンマイクと5チャンネルのサラウンドツリーの10チャンネルのミックスです。わかりやすく動いてる感じが欲しいというのがあったので、特に弦楽五重奏の方は右行ったり左行ったり結構はっきりしてたり、リアも結構大きめです。ピアノの方はそこまで動かないです。プロデューサーの方と方針を決めながらざっと作っておいて、微調整をしていく感じです。基本はミックスの時点ではNo EQ、No Compです。若干低域を切ってるぐらいです。それと少しだけ5.1chのリバーブの「Church」を出してます。TC Erectronic system6000の中の6.1のリバーヴのアルゴリズムを使ったものを若干加えています。ピアノの方も同じパラメーターで加えています。今回のテーマは空間を切り取るという事だったので、基本的に後処理はオンとサラウンド側の足し加減のみということで、これはもう録るときから決めていたので、その方向でミックスしました。IMAGICAからのデモは以上です。次にSony PCLの喜多さんがもってきてくれました作品について説明して頂きます。
喜多:Sony PCLの喜多です。今日は、SONY PCLで昨年の夏SONY銀座ビル用に作ったOPUSシアターの3DのコンテンツとTOSTEMさんのイベントがパシフィコ横浜であった時に制作した映像2本再生します。銀座Sonyビル用の物は、視差調整等が現在健康被害等を言われてる次元の前のものですので、かなり3D感を出しています。もし気持ち悪くなる方がいたら大変だなと思いまして、先に話しておきます。 では、Sonyビルの3Dアクアリウムを再生します。
[ 作品視聴 ]
昨年の夏休みに子供向けとしてSony銀座ビルの7階OPUSシアターという所で、期間限定で2週間程上映したものです。見ておわかりの通り、IMAGICAさんの3ality Digital撮影のものとはかなり手法も異なっています。映像はSony PCL独自の撮影リグを用いておりまして、横長いシアター向けを意識して、わざと視差を大きくつけてあります。サウンドトラックは、完全に5.1chのポストプロダクションでMIXしました。次はTOSTEMさんのエコ博というのが9月の中旬にありまして、そのイベント用映像です。ドラマ仕立てでかなり楽しめこういうコマーシャルがあってもおもしろいんじゃないかと私は思っています。
では、TOSTEMインプラスマンを再生します。
[ 作品視聴 ]
村越:それでは、Q&Aに移りたいと思います。
Q:喜多さんの作品は、音の高さや厚さがあるのはシステムが違うからでしょうか?2作品とも高さも奥行き感も全然違うと感じました。
A:美海水族館に関しては、本来、作曲の方と直接ポストプロダクションで5.1chで音楽を作ろうというアプローチだったので、我々ポストプロダクションのエンジニアが音楽のミックスダウンをしてもいいのだろうかというところも疑問に思いながらも、お互いで相談していくという形でやりましたので、音像は意外とふっていたりするのですね。
Q:映画館で聞いてるみたいな感じがしました。
A:ありがとうございます。インプラズマンに関しては劇場というものがパシフィコ横浜の中で組まれたので、その場所がどういう環境なのかということを一応確認し実は布一枚で覆ってあるようなところで、外の音が以外と入り込んでくる環境なので、なるべくセリフなどがちゃんと聞こえるようにMIXしました。アプローチとしては、Sony PCL405というスタジオでプリミックスでパンニングは全部やってしまいました。
Q:音ではなく、3D映像の制作に携わっている佐々木さんにお聞きしたいのですが、3Dの映像として2種類あると思います。ひとつはスクリーンは正面に限って3D映像を出すというパターンともうひとつは2Dなのだけれど、全周囲、ドーム型の映像で全方向に画があるパターンと、2種類が方向性としてあると思うのですが、どちらのほうが、それぞれのメリット、デメリットも考えて見ている人に対して有効的とお考えですか?
A:たしかにそうですね。巨大なドーム型映像の立体館と今流行っているメガネかけて見る2眼方式の3Dということですね。どちらにも良いところがあって、どちらにも少し苦手なところもあるのですが、今流行っているのはやっぱりメガネをかけてLRそれぞれ違う映像を見て立体感を感じるという方が、リアルさというか、生々しさというものがあると思います。臨場感的には人間は常に右左違う映像を見て生活をして、立体感を感じているので、それに近いところの臨場感というものは得られると思います。
Q:正面だけに3Dすると画が見切れてしまいますよね。凄い大きなスクリーンを前面に用意すれば良いのですが、そのデメリットとそれが無い2Dのものを音に照らし合わせて考えると今の3Dというのはいわゆるバイノーラルで立体音響を作っているようなものなので、「左の音に左の音、右の耳に右の音」そのパターンと2Dなんだけれど、全方向スピーカーを用意してという、これがサラウンドの音響だと思うので、今、なんとなく映像はバイノーラルで音はサラウンドで、という違う方式でお互いやっているような感じなので、映像の方からすると、どっちのほうが臨場感だとか考えをお持ちなのかなと思ってお聞きしました。最終的には全方向に3Dというウェイブシンセシスではないですけれど、音でいうと、そういう方向が一番なのですけれど、なかなか今はまだ、未来の話なのかもしれません。
A:会場によっては3Dのスクリーンをマルチ画面で何画面も立体的に横に並べてみる3Dとか、そういうのも展示会とかでやられているものもあって、そういう時は臨場感は格別なものがありますね。
Q:さきほどの3Dのメガネのシステムのところで144Hzという話をされたのですが、24pと60iの同期の関係がどうなっているのですか?
A:24pのときは144Hzでトリプルフラッシュという、1秒間に144コマで左72コマ右72コマ。60iのときにおそらく96pです。なので、厳密にはこの部屋で最適に見ようとすると24Pで見るのが最も最適な視聴方法ではあるのですが、放送をターゲットに作られたコンテンツということもあって、60iの素材しかなかったということです。今回は60iの素材も24pに最適な環境で上映を行いました。
Q:そこのズレというか、144Hz、72Hzと24pというのは倍数の関係にあるということでしょうか?
A:そういうことですね。なのでそれが最適ということで、家庭用のテレビでは122Hzまたは244Hzということで放送のコンテンツに関しては最適に見られるようにTVが発売されているということですね。
Q:村越さんにお尋ねします。最初のピアノと弦楽五重奏なのですが、録音時のモニターはどのような方法ですか?
A:モニターは、ヘッドフォンで聞いています、基本的にはVTRに送るダウンミックスを聞いたり、後はいわゆるDigi003をお使いになった方は分かると思うのですが、ヘッドフォン端子にAUXで音を選んで送っておいて、各チャンネルをソロで聞いて見たりだとか、両サイドのものを聞いてみたりだとか、チェロを聞いて見たりしています。ピアノのほうは元々はONマイクが2つ立ててありましたので、それをLRで聞いたり、サラウンド側のマイクを通して聞いたり等はしていますが、空間の確認は録っているときにとれていません。
Q:喜多さんと村越さんに質問なのですが、ミキシングをするときに、通常は2Dの画を見てミキシングをされることが多いと思うのですが、やはり3Dを見ながらミックスしたほうがいいかなと思うときがありますか? もうひとつは、3Dというのはもちろん昔から、私もSonyにいたころからいろいろとやらさせて頂いたのですが、はるかに違うのは、前に飛び出すということではなく、奥行き感だと思うのですが、こういった状況の3Dが登場したことによって、果たしてこのままの5.1chなどの音響システムで実際にそれが表現できるかと言う点です。
A:3Dの仕事のときは、だいたい編集室で一回、MA前に映像をなるべく確認をできるようにしています。さすがに今の現状のMA室では3D映像を見ながらMAをするのは不可能なので、今後作業量とともに考えていかなくてはいけない課題なのかもしれませんが、メガネをかけたままコンソール見たときに気持ち悪くならないだろうかどうかなどその辺の問題が作業環境にどう影響を及ぼすのかまでは今のところ研究をしておりません。それから2番目の質問に関してですが、「ひっこむ音はサラウンドにとって苦手ですよね」という話をよくしていまして、私が最近、実験したのですが、ハードCの後ろ側、1mぐらい後ろに遠いC勝手にFCと名前をつけてやってみたのですが、パンフォーマットがコンソールに無かったので、LCRSのパンフォーマットを借りて、Sチャンネルを遠いハードCのような扱いで、フロントの「ツラ」と「遠い」というのを試したら、はるかにEQとかリバーブとかレベルとかでいじるよりも、遠くに行くのですね。ONの小さい音は近い。小さいだけで。遠くにどうやってもならないというのをずっと思っていて、ひっこむサラウンドはどうすれば良いのだろうかということを個人的には実験していますが、そんなフォーマットはないので、LCRの後ろにもうひとつLCRを立てたかったのですが、そこまで物理的に用意ができなかったというのもありまして、変則的な三角形というものはやったのですが、やっぱり遠くに逃げるのですね。体感上。これはちょっと良いなと思っているのですが、どこにもフォーマットがないので、今後どうするのだろうということは思っています。
A:非常に難しい質問を頂いたなと個人的には思っています。まずひとつ目の質問は3Dを見ながらですよね。それはスケジューリングと打ち合わせとの兼ね合いによって大きく左右されるものが大きいので、私の場合は、終わってから必ず確認をするということをやります。もう一点は打ち合わせを密にさせて頂くことをなるべくするようにしています。ただし、美海水族館のように、音源ソースが非常に少ないものに関しては、音楽の作家の方であるだとか、そういったところの打ち合わせでとどまってしまうことが多いですね。仕上がった映像を見る機会というのは現場のOPUSシアターに行っての調整が最終段階だったりするので、基本的にはやっぱり2Dの環境のところできっちり作れる事が一番良いと思っています。まずサラウンドとしてきちんと作品を壊さないものがちゃんと作られているかということが第一前提だと思っています。コンテンツとサウンドトラックのマッチングについては、奥行きのレイヤーというのを音場層で作るべきかどうかというのを議論したことがあるのですが、ケンカの寸前まで話し合ったことがあるのですが(笑い)、「スピーカーが物理的に置けない」ということもあるので、私は村越さんとは違うアプローチでリバーブを使ったりEQ処理だったりとかで奥行き感はどうやったら作れるかな、という実験はしているのですが、村越さんほど体感できるところまで、「これだ」という方向はまだ発見できていないですね。確かにフォーマットも含め今後は、今年のAESでも言われていたような、縦方向の空間を優先させるべきなのか奥行きなのかというところが悩ましいところだと思っています。
Q:今の話の続きになるのかもしれないのですが、最後のコンテンツは、LCRの画面に映っている奥行き感の音像と、音楽と効果音のサラウンド感というのはわりと分離ができているように感じています。フロントのLRにあまり音楽がいなくて、ワイドにいる感じのミックスを感じたのですが、それは意図的にされているのですか?
A:実はあれはコンテンツとして映画館仕様では作っていないので、後ろを85dBでやっているのですね。今回は3dB上げてもらいました。そしたら音量が大きかったというのもあって、かなりそういう感覚は錯覚されたかなと思ったのですが、実はちゃんとフロントにもいます。音楽に関しては実は2チャンネルです。予算の都合で、監督が持っている音源ライブラリから、今は監督が音源ライブラリを持つ時代なんだなとすごく驚いているんですけれども(笑い)、そこから持ってきた編集済みの音楽をさらにトリートメントしてきれいに編集点を作って(5.1chに)アップミックスする手法で、いちおうリアは作っておいた方が包まれ感は出るし、もし良くなかったらやめようということで、あと効果音がスピーカーの外側までいくようなパンニングをしてあげると出やすいのかなとは思っています。セリフはわりときれいに録られていたのでそういう音のソースカテゴリごとのレイヤー構造みたいなものは出来たと思っています。
Q:ピアノソロの作品で、画面左に鍵盤が並んだ時にその角度に音が定位していたように感じたのですが、何か特別な処理をされたのですか?
A:ピアノを録音する時に、ピアノの反射板が客席に向けて置くと音が良いという教会の方のアドバイスがあり、オンマイクを通常の発想で立てるとサラウンドマイクとどうやって整合性をとったらいいのかと悩んでいる間に、録りますと言われて、そのままいわゆる一般的なステレオ録音のハンマーに近いオンマイクで立てました。それだけでもステレオで成立するように録ってそれにアドオンする形でサラウンドツリーの音をのせる方法しか無いと思っていたところもありました。それで結果論ですが意外とマッチングが良かった。その効果を出しているのが、サラウンドツリーの5本を1組として、ステレオオンマイクのレベルを決めたあとに(サラウンドツリーの音を)足したり引いたりフェーダーをいじっていたら「ここが気持ちいい」というところがあったのでそこに落とし込んでいます。全体に聴いて変なディレイ感や位相感が出ないことは確認して。今回は5.1ではなく5.0でやるということだったので低域に関しても過不足無くおかしなことにならないようにというところだけ注意して、それにほんの少しだけリバーブがのっているだけです。
Q:サラウンドツリーの2.7mの高さが忠実に出ていると思うのですが、その高さは色々試してみて決めたのですか?
A:そうです。テスト録音の時に3名で行ったのですが、計算では3m強の高さにしようと思って行ったんですが、LCRをステレオに畳み込んでモニターしたときにちょっとオフっぽいかなと感じて、リアのLRだけを聴いた時にオフすぎるという印象を、無指向性のわりにこんなにオフでいいのかなと思ったので前後位置も高さも変えました。それは録りながら上げて、下げてといわゆる撮影の時に照明さんがやるようなアナログチックにやりました。想定した場所からはちょっとずれましたがやはり現場で調整するのがいいのかなと思います。
Q:それはDigi003のヘッドフォンアウトで聴いてということですね?
A:そうです。それは5チャンネル分をテレビ方式のダウンミックスにかけて聴いていて、それと、オンマイクの2本を足したり足さなかったりして空間を頭の中で想定しているというか、オンオフの感じはなんとなくわかるのであとは全体の空間の感じをスタジオで作れば良いかなということと、もし空間が足りないようであれば、MAというかミックスの時にリアチャンネルだけディレイするのもありかなと考えてもいましたが試した結果それはやっていません。
Q:せっかくなのでカメラの方に質問です。3Dで撮影する時に、クレーンなどの特機というのは現状あるものをそのまま使えるのですか?
A:リグを使って撮影すると、カメラ自体が大きくなるので、IMAGICAのリグですと軽いもので30kg、重たくなると5、60kgかかってくるのでクレーンのアームの耐久加重に耐えれるもの、あとはクレーンのヘッド部分に収まりきるかどうかをクリアすれば現状のものでいけます。やはり3Dは撮影しながら動きがあるとすごい立体感が出てくるので特機とセットで撮影するということがすごく多いです。
Q:ということは3Dのカメラのセットは今後小さいものになればなるほどカメラマンとしては嬉しい?
A:できればそうですね。ただ現状のリグと使うレンズにもよるのですがやはりワイドめで撮りたいとなるとリグがどんどん大きくなってきたりするので、その辺は今後に期待というか小さくなれば機動性は上がります。
Q:カメラの視野の広い狭いという調整の方法は3Dの方式によって違うのですか?
A:方式によっては変わらないです。例えば収録は右目左目のLRをそれぞれフルHDの状態で撮って、そのあと劇場で色々違う方式に変えるのは一旦マスターを作ればそこから変換するだけなのでそこは問題ないです。
Q:ではカメラマンとしては、上映の方式とか記録の方式とか関係なしに一定のもので撮っておけばいいのでしょうか?
A:特殊な環境、例えば上映する劇場や設備が決まっている場合などはそこ用に、例えばメガネをかけて暗くなるから少し明るめに撮っておこうなどはあるかもしれませんが基本的には一般的な方式で作って各劇場に渡すというだけです。プロジェクターとメガネによって、今かけているXpanDやRealD、DolbyDなど各方式で微妙な明るさの変化があり、劇場の違いにもよってくるので難しいところなんですけれども、それは再生側の調整の話ですね。
Q:我々は音のサイドなので、ステレオで表現する音場とサラウンドで表現する音場に大きな違いと楽しみを見つけているんですが、カメラマンの方は従来の2Dでやるのと今回のように3Dでの撮影を経験されたのとでどんな感想をお持ちなんでしょうか?
A:3Dは今までの2Dと映像の演出方法が変わってくるところがあります。例えば2Dの音楽ものやライブものだとカット割りがすごい短く短くやっているのを、3Dで同じように短くしてしまうと立体感を目で確認して感じるまでに人間にディレイがあるので、出来る限り短いカット割りはせずに長く回してつないでいくやり方のほうが3Dとしては見やすくて面白かったりするようです。3D映像としての見せ方というか演出方法は研究されているところなんですが、今後は変わってくると思います。
Q:カメラで撮られている時は3Dの映像を見られているのですか?
A:今のIMAGICAの方式だと片面のRchのカメラの2Dのビューファインダーで確認しながらやっています。
Q:それを頭の中で3Dに合成しながらでしょうか?
A:そうです。また3Dは3Dで別個にコントロールする人がVEのような形で調節していますので。現状はそういうやり方になっています。
喜多:Sony PCLの場合は、クライアントモニターには仮合成した3Dのパネルを見ています。ただし小さいものです。
Q:視差というのは個人差がありますか?
A:あります。3D映像は個人差がものすごく大きいです。強烈な視差をつけた映像に関してもものずごい立体的に見える方もいればそんなに立体的に見えない方も全然立体感を感じない方もいて本当にバラバラです。そこに関して作り方としては今は最小公約数といいますか、誰もが自然にあまり行き過ぎない3Dをつくるような設計をするのが主流です。
Q:映画館の座る場所によって、見え方が変わったりすることはあるのですか?
A:劇場によって座る場所によっても立体感は変わってきます。やはり人間の目の幅とスクリーンの視差の相対関係が座る距離によって変わってくるので、後ろに座れば座るほど立体感は強調して見えます。飛び出しや奥行きも、スクリーンは相対的に小さく見えてしまいますが、強く感じるようになります。
Q:音声だとスクリーンから2/3の位置を中心と考えてミックスするなどありますが、映像にはそういった基準のようなものはありますか?
A:出来る限りスクリーンの正面で見た方が設計者の意図は忠実に再現される形になります。3Dを見ながら頭を動かすと欠像する部分が変わってくるので背景がぐわっと動くようになるのでそういう意味でも正面から見て頂くのがベストです。
参加者:3DでもIMAXの3Dなどドームシアターの本格的な3Dで見ると視野がすべて覆われているので没入感は最高に良いと思います。ただ2Dでも視野が覆われていると没入感は,良いと思います。
参加者:今の3D映像は,音の世界でいうとバーチャルサラウンドと一緒で2つのスピーカーで信号処理して左の音は左耳だけ右の音は右耳だけという方式に近いなと思うのですが、音の方では、現在全方向2Dのサラウンドに移行していったので、映像はどうなるのかなというのは大変興味があります。
沢口:みなさんどうもありがとうございました。今回は、すばらしい映像/音響の3Dを体感していただきました。会場を提供していただき多くの3D映像を用意していただきましたIMAGICA/SONYPCLのみなさんにあらためて感謝いたします。(一同拍手)
[ 関連リンク ]
株式会社IMAGICA:3D関連サービス・技術情報
3ality Digital:TS-2 Studio Beamsplitter Rig
ソニーPCL株式会社:3D/4K
「サラウンド寺子屋報告」 Index にもどる
「サラウンド入門」は実践的な解説書です
日時:2010年11月20日
場所:IMAGICA東京映像センター 第2試写室
講師:村越宏之、冨里幸太郎、佐々木孝徳(株式会社IMAGICA)喜多 真一(Sony PCL)
テーマ:3D映像とサラウンドの親和性を体感する
冨里幸太郎(株式会社IMAGICA)
村越宏之(株式会社IMAGICA)
喜多 真一(Sony PCL)
佐々木孝徳(株式会社IMAGICA)
のみなさん
沢口:2010年11月のサラウンド寺子屋は3Dとサラウンド音響の親和性を体感してみようと言う企画です。3Dとサラウンド音響というのは大変ホットな話題ですが、いい環境で聴ける条件が難しくなかなか開催できませんでした。今回はIMAGICAさんのご協力で素晴らしい環境で3Dとサラウンドを体験できることができましたので、多いに楽しんで頂けると思います。それでは、宜しくお願いします。
冨里:おはようございます。IMAGICAの3D推進室の冨里と申します。まず私のほうからIMAGICAの3Dへの取り組みの概要をお話しさせて頂きます。最初に3Dに関連する市場概況です。我々は、コンテンツ、ディストリビューション流通配信、ディバイス表示上映装置というこの3つを切り口にマーケティングをしております。
コンテンツ
ご存知の通りアバターを始めとする3D映画の興行的な成功、こちらがキーとなって来年も全米で30本以上の3D映画が公開される状況になりました。国内におきましてもすでに10本以上の3D映画が公開すると決まっております。そしてスポーツ中継、あるいはコンサート、ライブといったイベントの3D制作がいま非常に活発化しております。
ディストリビューション流通配信
作ったコンテンツをお客様にお届けする、その分野におきましてやはり有料の放送局様、ならびに配信の事業者様が積極的に取り組みをされています。スカパーさんに関しましては6月に3D専門チャンネル、スカチャン3D169、こちらを開局後、連日3D番組の放送を生中継を含めて放送をされているという現状です。またパッケージソフトBlu-rayに関しても、規格がようやく決まりまして最新のBlu-ray 3Dによる高画質、高音質作品のリリースが始まったという現状です。
3Dを表示、上映する環境
やはり今3Dの立体映像を観てサラウンド音声を聴くというところで、一番良いクオリティで聴ける環境の映画館、こちらの3D対応も急速に伸び続けています。私どもの調べですが、世界でだいたい15000スクリーン位、日本国内におきましても全体3400スクリーンのうちの約15%、500スクリーン以上が3D対応になっているという現状です。そしてホームエンタテイメント部門への波及という事でも電機メーカー様各社3Dテレビを市場投入され、2010年度4月から9月の国内出荷台数が約13万台という数字が出ております。これは薄型テレビの全体に占める割合としましては1.3%という事でまだまだ少ない状況ではあるのですが徐々に普及が始まってきています。そしてテレビ以外の個人向けの、いわゆるスマートフォンや高機能携帯端末に関しても3D表示の対応が始まっているという事で色々な出口が徐々に広がってきているという現状かと思います。
IMAGICAの3D映像技術ワークフロー
コンテンツのプランニング、プリプロダクション段階から、実際の画像を生成するプロダクション段階、それを仕上げ加工するポストプロダクション段階、そしてそれを各種用途に応じたアウトプットをするという一連の行程をサポートするというところをコンセプトに色々なサービスメニューを用意しています。やはり3Dに関して、これは通常の2Dのコンテンツ制作でも変わりはないのですが、特に重要となるのが実際にプロダクションに入る前のミーティングあるいはプリビズ(3D映像絵コンテ)を使った準備段階がその後の状況を左右すると言っても過言ではないくらい大事な工程になります。この段階で経験豊冨な3Dスーパーバイザーが参加し最適なワークフローのご提案とアドバイス等を行うという態勢です。
3Dの画像を生み出す方法として、3D撮影をするか、2Dを3Dに変換するか、3DのCG空間上で立体視を作るという、大きく分けて3つの方法論があります。3D撮影については後ほど詳しく説明します。ポスプロにおいても3D対応の編集機、そして色調整、カラーグレーディング、もちろんサラウンド設備を備えたMA室も各種用意をし用途に応じたアウトプットも万全の態勢で備えております。
3ality DigitalTS-2撮影
IMAGICAではこの3ality DigitalのTS-2というシステムを使って、3D撮影を行っています。今日ご覧頂く映像も一部こちらを使っております。3ality Digital TS-2は立体撮影業界では画期的な特徴をもっておりまして、立体視ということでLとRの2台のカメラを取り付けて撮影をする仕組みになっていますが、この2台のカメラがきちんと同期します。これは一見当たり前のようなことに聴こえてしまうかもしれませんが、今までの立体撮影機器は非常に難しかった事が出来るようになったということで、非常に画期的なシステムと言われています。ここをしっかり同期しないと、後でご覧になる一般のお客様も目が疲れてしまう、頭が痛くなってしまうということに直結する要因となっておりますので、精度よく3D撮影をするために欠かせない要素となっております。そしてこの2台のカメラが撮影しながらリアルタイムで視差の調節が出来るというところも非常に大きな特徴の一つです。立体撮影では2台のカメラの距離と角度、これを調節していく事で奥行きと飛び出し感を作っていくのですが、この調節が撮影をしながらリアルタイムで出来るということで生中継にも十分対応可能であるという事と、従来に比べて現場でのセッティング時間が掛からないという事で、2D作品と同等の収録が実現できるという特徴を持っております。
3D作品の上映環境
今回は、HDCAM-SRテープから再生します。今日は24pのものと60iのもの両方ありますが、HDCAM-SRテープのDual streamという方式で記録された映像信号の左目の映像と右目の映像、これをVTR、Sony SRW-5800を使って再生それをBarco DP 100DLRプロジェクターを使って投影しています。立体視のために赤外線も出ているフレームシーケンシャル+液晶シャッター方式という上映仕様なのですが、実際には画像が左目、右目、左目、右目と高速で144Hz、1秒間に144コマ、左目72コマ、右目72コマという、当然人間の目では察知出来ないスピードで画が出力されています。ここでL、R、L、Rと出ている映像信号と同期する形で赤外線が発射されています。それをスクリーンから反射して皆さんのお手元のメガネ受光部分で赤外線を受光すると、出力と同期する形でメガネがL、R、L、Rとシャッターを切って右目の映像は右目だけに、左目の映像は左目だけに届けるということで立体視が成立する仕組みになっています。
通常こちらの第2試写室は、映画の場合、Dolby 3Dという3Dシステムを採用しておりデジタルシネマパッケージ、劇場用映画のデジタルシネマの規格である、DCPのファイルの再生をしています。同じく左目の映像ソースと右目の映像ソースが出てるのですけれども、Dolby 3Dの場合、INFITECという特殊な技術を使って右目左目に特殊な光を届けているという仕組みとなっております。これはRGBの光の波長を分割して左目用のRGB、右目用のRGBという分割されたものが特殊なメガネを使って見ると立体に見えます。
上映3D作品
IMAGICAからは、3本です。まず最初にGR75 オープニング映像という2分程のショートクリップを上映。
次に東京島という映画の予告編の3Dバージョンを。
最後に弦楽五重奏とピアノソロの演奏の模様を3D撮影した映像を上映します。
GR75オープニング映像これは、IMAGICA、創業75周年記念イベントを先月開催しました。この時のオープニング映像として作ったものを上映致します。この映像はあらゆる3D画像生成方法を駆使して、最新の技術をふんだんに取り入れて作った映像になっております。先ほどもワークフローの紹介で説明しましたが、3Dの撮影と、2Dから3Dへの変換、そして3DCGと色々なアプローチを取り入れて作ったものとなっております。(一同拍手)
[ 作品視聴 ]
村越:次に邦画の予告編で「東京島」という邦画の30秒トレーラーを制作しました。本編はLCRSの4チャンネルと2D映像ですが、3Dの劇場でこの予告が上映されるとのことなので、この予告編も3D&サラウンドで作りたいとの依頼がありました。みて頂ければ分かると思いますが、布というか旗を振っている部分は新たに3Dで撮影したものです。本編の音楽はステレオですが、それをサラウンドにしました。それではご覧下さい。これは、セリフはすでに収録されたものを、私がミックスしました。
[ 作品視聴 ]
村越:次に、IMAGICAの3ality Digitalで撮影した、弦楽五重奏とピアノソロを教会で収録したクリップを再生します。
制作フロー
収録は、2010年1月28日で、1日で収録しました。場所は、(東京都)品川区のグローリア・チャペルで、御殿山の品川教会と呼ばれているコンサートや録音で使われることもある場所です。IMAGICAの3DデモのためとスカパーJSATさんの素材用に共同で撮りました。撮影は、3alityDigitalカメラを使いHDCAM-SRに60i Dual Streamで撮っています。カメラは3Dカメラ1セットです。カメラが片方は正面に、もう一方は下に向いているものを、ハーフミラーを使い撮影する、3ality DigitalのTS-2と呼ばれる方式です。カメラはクレーンを使用しました。打ち合わせのときに、音は現場で録りたいとか、いやCDのプレイバックでいいと、打ち合わせでは結構バタバタしていました。私は、せっかく教会での撮影なので、サラウンド収録すると言い張っていましたが、直前までCDのプレイバックでいいよとのことでした。最終的に勝手にサラウンド収録の機材を持って行きました。当日は、プロディーサーの方にいきなり、「今日の録音はサラウンドだよね?」と言われ、「もちろんそうです。」と答えました。
手順としてまず先に音楽を収録し、アーティストの方のOKがでた後、それをプレイバックしながら撮影しました。通常のように、事前にプレイバック素材を用意するのではなく、その場で収録したものを再生しました。基本的にはクリックなどを使っていませんので1曲通してOKテークにできるようミュージシャンにお願いしました。録音の機材をどうするか悩んでいたのですが、手持ち機材でできるのか検討し、Digidesign Digi003を使い、サラウンド+弦楽五重奏なので10チャンネル必要になります。 Digi003のアナログ入力8チャンネルとADAT入力8チャンネルにHAを組み合わせることにしました。噂に聞いていた、RMEのoctamic IIをシンタックスジャパンさんから、もう一台は、Metric halo ULN-8をロックオンプロさんからレンタルしました。マイクは、サラウンドのLCRにノイマンKM 140(単一指向)LsRsにノイマンKM 131(無指向)を使い、ヴァイオリンはSennheiser MHK80、それに合うように、ヴィオラとチェロにSennheiser MKH 8040を、ピアノのオンマイクにはAKG C414B TLIIを使いました。ハンドリングが楽なようにSPL Tree(サラウンドマイクアレー)を使いました。
映像の撮影もあるので、同期も含めこれらをどう接続するか考えました。
[ セッティング図 ]
弦楽五重奏のオンマイクはMetric halo ULN-8を使い、SEND OUTからDigi003のアナログの入力に入っています。サラウンドツリーのマイクはRMEのOctamic IIを使い、ADAT OUTからオプティカルでDigi003に接続しています。図にSGとありますが、ビデオ撮影するのでシンクジェネレーターが必要となります。3値シンク(Tri-level Sync)をカメラに、48KHzのワードクロックをDigi003に入れて、スルーをMetric haloとRMEに送ります。最初、ワードクロックのスルーはうまくいくのだろうかと思っていましたが、実験したところノイズが出ることもなく安定してロックしていたのでこの方法を採用しました。同期に関しては、このシステム内でカメラも含めシンクしたシステムが構築できています。
Pro Toolsで編集用ステレオミックスを作り、RMEの空いている7と8チャンネルに入れ、AESアウトから、VTRに返しています。後でサラウンドの音貼りをするときのガイドや、チェック用であるとか、撮ったものをその場ですぐにプレイバックするときはにはVTRだけできるようになっています。Metric halo ULN-8はアナログしかPro Toolsに接続していないのでゲンロックしてなくてもいいように思いますが、AESで送る必要がありますので、ロックしています。なぜAES送りなのかと言うと、VTRの入り口がAESだったからです。サラウンドツリーのマイクは、すべて単一指向のマイクを使いたかったのですが、機材調達の関係で、フロントが単一指向でリアが無指向です。
次にピアノの系統ですが、基本的には同じ場所で同じように録っているので、大きくは変わっていません。何処が違うかっていうと、ピアノのオンマイクの2本、ハイとローになっています。あとの系統は全て同じです。VTRに2ミックスを送るであるとか、オンマイクの方はMetric halo ULN-8を使いサラウンドマイクの方はRME Octamic IIを使い、サウンドマイクに関しては全く同じです。
このホールは、一般的な長方形の教会で、ここIMAGICA 第2試写室より横幅は1.5倍で長さは2倍で高さは天井高4mぐらいあるような、いわゆる長方形で回りは木でステージが若干40~50cm高く上がっているというような所でした。ステージの上で録ったのですが、教会の人のアドバイスで何処で録ったら一番音がいいかだけを聴いて、ちょっとステージの前の面から下がった位置になるのですが、その位置でピアノであるとか、ミュージシャンに立って頂いて録りました。そこからサラウンドマイクは3mぐらい前のステージの面からちょっと前に出した位置、そしてステージから2m70cm上げた位置に最終的になりました。色々テストして、そこが一番サラウンド感が録れるのでそこにしました。これから4曲分を弦楽五重奏で2曲、ピアノのソロで2曲聴いて頂きます。これに関してはIMAGICAのMA室で7chミックスないしは10chミックスしています。サブウーハーは使ってません。4曲とも5.0ミックスになってます。これはスカパーさんと一緒に録ったということもあり、HD60iになっています。
[ 作品視聴 ]
ミックスについて
基本的には弦楽五重奏の方は5チャンネルのオンマイクと5チャンネルのサラウンドツリーの10チャンネルのミックスです。わかりやすく動いてる感じが欲しいというのがあったので、特に弦楽五重奏の方は右行ったり左行ったり結構はっきりしてたり、リアも結構大きめです。ピアノの方はそこまで動かないです。プロデューサーの方と方針を決めながらざっと作っておいて、微調整をしていく感じです。基本はミックスの時点ではNo EQ、No Compです。若干低域を切ってるぐらいです。それと少しだけ5.1chのリバーブの「Church」を出してます。TC Erectronic system6000の中の6.1のリバーヴのアルゴリズムを使ったものを若干加えています。ピアノの方も同じパラメーターで加えています。今回のテーマは空間を切り取るという事だったので、基本的に後処理はオンとサラウンド側の足し加減のみということで、これはもう録るときから決めていたので、その方向でミックスしました。IMAGICAからのデモは以上です。次にSony PCLの喜多さんがもってきてくれました作品について説明して頂きます。
喜多:Sony PCLの喜多です。今日は、SONY PCLで昨年の夏SONY銀座ビル用に作ったOPUSシアターの3DのコンテンツとTOSTEMさんのイベントがパシフィコ横浜であった時に制作した映像2本再生します。銀座Sonyビル用の物は、視差調整等が現在健康被害等を言われてる次元の前のものですので、かなり3D感を出しています。もし気持ち悪くなる方がいたら大変だなと思いまして、先に話しておきます。 では、Sonyビルの3Dアクアリウムを再生します。
[ 作品視聴 ]
昨年の夏休みに子供向けとしてSony銀座ビルの7階OPUSシアターという所で、期間限定で2週間程上映したものです。見ておわかりの通り、IMAGICAさんの3ality Digital撮影のものとはかなり手法も異なっています。映像はSony PCL独自の撮影リグを用いておりまして、横長いシアター向けを意識して、わざと視差を大きくつけてあります。サウンドトラックは、完全に5.1chのポストプロダクションでMIXしました。次はTOSTEMさんのエコ博というのが9月の中旬にありまして、そのイベント用映像です。ドラマ仕立てでかなり楽しめこういうコマーシャルがあってもおもしろいんじゃないかと私は思っています。
では、TOSTEMインプラスマンを再生します。
[ 作品視聴 ]
村越:それでは、Q&Aに移りたいと思います。
Q:喜多さんの作品は、音の高さや厚さがあるのはシステムが違うからでしょうか?2作品とも高さも奥行き感も全然違うと感じました。
A:美海水族館に関しては、本来、作曲の方と直接ポストプロダクションで5.1chで音楽を作ろうというアプローチだったので、我々ポストプロダクションのエンジニアが音楽のミックスダウンをしてもいいのだろうかというところも疑問に思いながらも、お互いで相談していくという形でやりましたので、音像は意外とふっていたりするのですね。
Q:映画館で聞いてるみたいな感じがしました。
A:ありがとうございます。インプラズマンに関しては劇場というものがパシフィコ横浜の中で組まれたので、その場所がどういう環境なのかということを一応確認し実は布一枚で覆ってあるようなところで、外の音が以外と入り込んでくる環境なので、なるべくセリフなどがちゃんと聞こえるようにMIXしました。アプローチとしては、Sony PCL405というスタジオでプリミックスでパンニングは全部やってしまいました。
Q:音ではなく、3D映像の制作に携わっている佐々木さんにお聞きしたいのですが、3Dの映像として2種類あると思います。ひとつはスクリーンは正面に限って3D映像を出すというパターンともうひとつは2Dなのだけれど、全周囲、ドーム型の映像で全方向に画があるパターンと、2種類が方向性としてあると思うのですが、どちらのほうが、それぞれのメリット、デメリットも考えて見ている人に対して有効的とお考えですか?
A:たしかにそうですね。巨大なドーム型映像の立体館と今流行っているメガネかけて見る2眼方式の3Dということですね。どちらにも良いところがあって、どちらにも少し苦手なところもあるのですが、今流行っているのはやっぱりメガネをかけてLRそれぞれ違う映像を見て立体感を感じるという方が、リアルさというか、生々しさというものがあると思います。臨場感的には人間は常に右左違う映像を見て生活をして、立体感を感じているので、それに近いところの臨場感というものは得られると思います。
Q:正面だけに3Dすると画が見切れてしまいますよね。凄い大きなスクリーンを前面に用意すれば良いのですが、そのデメリットとそれが無い2Dのものを音に照らし合わせて考えると今の3Dというのはいわゆるバイノーラルで立体音響を作っているようなものなので、「左の音に左の音、右の耳に右の音」そのパターンと2Dなんだけれど、全方向スピーカーを用意してという、これがサラウンドの音響だと思うので、今、なんとなく映像はバイノーラルで音はサラウンドで、という違う方式でお互いやっているような感じなので、映像の方からすると、どっちのほうが臨場感だとか考えをお持ちなのかなと思ってお聞きしました。最終的には全方向に3Dというウェイブシンセシスではないですけれど、音でいうと、そういう方向が一番なのですけれど、なかなか今はまだ、未来の話なのかもしれません。
A:会場によっては3Dのスクリーンをマルチ画面で何画面も立体的に横に並べてみる3Dとか、そういうのも展示会とかでやられているものもあって、そういう時は臨場感は格別なものがありますね。
Q:さきほどの3Dのメガネのシステムのところで144Hzという話をされたのですが、24pと60iの同期の関係がどうなっているのですか?
A:24pのときは144Hzでトリプルフラッシュという、1秒間に144コマで左72コマ右72コマ。60iのときにおそらく96pです。なので、厳密にはこの部屋で最適に見ようとすると24Pで見るのが最も最適な視聴方法ではあるのですが、放送をターゲットに作られたコンテンツということもあって、60iの素材しかなかったということです。今回は60iの素材も24pに最適な環境で上映を行いました。
Q:そこのズレというか、144Hz、72Hzと24pというのは倍数の関係にあるということでしょうか?
A:そういうことですね。なのでそれが最適ということで、家庭用のテレビでは122Hzまたは244Hzということで放送のコンテンツに関しては最適に見られるようにTVが発売されているということですね。
Q:村越さんにお尋ねします。最初のピアノと弦楽五重奏なのですが、録音時のモニターはどのような方法ですか?
A:モニターは、ヘッドフォンで聞いています、基本的にはVTRに送るダウンミックスを聞いたり、後はいわゆるDigi003をお使いになった方は分かると思うのですが、ヘッドフォン端子にAUXで音を選んで送っておいて、各チャンネルをソロで聞いて見たりだとか、両サイドのものを聞いてみたりだとか、チェロを聞いて見たりしています。ピアノのほうは元々はONマイクが2つ立ててありましたので、それをLRで聞いたり、サラウンド側のマイクを通して聞いたり等はしていますが、空間の確認は録っているときにとれていません。
Q:喜多さんと村越さんに質問なのですが、ミキシングをするときに、通常は2Dの画を見てミキシングをされることが多いと思うのですが、やはり3Dを見ながらミックスしたほうがいいかなと思うときがありますか? もうひとつは、3Dというのはもちろん昔から、私もSonyにいたころからいろいろとやらさせて頂いたのですが、はるかに違うのは、前に飛び出すということではなく、奥行き感だと思うのですが、こういった状況の3Dが登場したことによって、果たしてこのままの5.1chなどの音響システムで実際にそれが表現できるかと言う点です。
A:3Dの仕事のときは、だいたい編集室で一回、MA前に映像をなるべく確認をできるようにしています。さすがに今の現状のMA室では3D映像を見ながらMAをするのは不可能なので、今後作業量とともに考えていかなくてはいけない課題なのかもしれませんが、メガネをかけたままコンソール見たときに気持ち悪くならないだろうかどうかなどその辺の問題が作業環境にどう影響を及ぼすのかまでは今のところ研究をしておりません。それから2番目の質問に関してですが、「ひっこむ音はサラウンドにとって苦手ですよね」という話をよくしていまして、私が最近、実験したのですが、ハードCの後ろ側、1mぐらい後ろに遠いC勝手にFCと名前をつけてやってみたのですが、パンフォーマットがコンソールに無かったので、LCRSのパンフォーマットを借りて、Sチャンネルを遠いハードCのような扱いで、フロントの「ツラ」と「遠い」というのを試したら、はるかにEQとかリバーブとかレベルとかでいじるよりも、遠くに行くのですね。ONの小さい音は近い。小さいだけで。遠くにどうやってもならないというのをずっと思っていて、ひっこむサラウンドはどうすれば良いのだろうかということを個人的には実験していますが、そんなフォーマットはないので、LCRの後ろにもうひとつLCRを立てたかったのですが、そこまで物理的に用意ができなかったというのもありまして、変則的な三角形というものはやったのですが、やっぱり遠くに逃げるのですね。体感上。これはちょっと良いなと思っているのですが、どこにもフォーマットがないので、今後どうするのだろうということは思っています。
A:非常に難しい質問を頂いたなと個人的には思っています。まずひとつ目の質問は3Dを見ながらですよね。それはスケジューリングと打ち合わせとの兼ね合いによって大きく左右されるものが大きいので、私の場合は、終わってから必ず確認をするということをやります。もう一点は打ち合わせを密にさせて頂くことをなるべくするようにしています。ただし、美海水族館のように、音源ソースが非常に少ないものに関しては、音楽の作家の方であるだとか、そういったところの打ち合わせでとどまってしまうことが多いですね。仕上がった映像を見る機会というのは現場のOPUSシアターに行っての調整が最終段階だったりするので、基本的にはやっぱり2Dの環境のところできっちり作れる事が一番良いと思っています。まずサラウンドとしてきちんと作品を壊さないものがちゃんと作られているかということが第一前提だと思っています。コンテンツとサウンドトラックのマッチングについては、奥行きのレイヤーというのを音場層で作るべきかどうかというのを議論したことがあるのですが、ケンカの寸前まで話し合ったことがあるのですが(笑い)、「スピーカーが物理的に置けない」ということもあるので、私は村越さんとは違うアプローチでリバーブを使ったりEQ処理だったりとかで奥行き感はどうやったら作れるかな、という実験はしているのですが、村越さんほど体感できるところまで、「これだ」という方向はまだ発見できていないですね。確かにフォーマットも含め今後は、今年のAESでも言われていたような、縦方向の空間を優先させるべきなのか奥行きなのかというところが悩ましいところだと思っています。
Q:今の話の続きになるのかもしれないのですが、最後のコンテンツは、LCRの画面に映っている奥行き感の音像と、音楽と効果音のサラウンド感というのはわりと分離ができているように感じています。フロントのLRにあまり音楽がいなくて、ワイドにいる感じのミックスを感じたのですが、それは意図的にされているのですか?
A:実はあれはコンテンツとして映画館仕様では作っていないので、後ろを85dBでやっているのですね。今回は3dB上げてもらいました。そしたら音量が大きかったというのもあって、かなりそういう感覚は錯覚されたかなと思ったのですが、実はちゃんとフロントにもいます。音楽に関しては実は2チャンネルです。予算の都合で、監督が持っている音源ライブラリから、今は監督が音源ライブラリを持つ時代なんだなとすごく驚いているんですけれども(笑い)、そこから持ってきた編集済みの音楽をさらにトリートメントしてきれいに編集点を作って(5.1chに)アップミックスする手法で、いちおうリアは作っておいた方が包まれ感は出るし、もし良くなかったらやめようということで、あと効果音がスピーカーの外側までいくようなパンニングをしてあげると出やすいのかなとは思っています。セリフはわりときれいに録られていたのでそういう音のソースカテゴリごとのレイヤー構造みたいなものは出来たと思っています。
Q:ピアノソロの作品で、画面左に鍵盤が並んだ時にその角度に音が定位していたように感じたのですが、何か特別な処理をされたのですか?
A:ピアノを録音する時に、ピアノの反射板が客席に向けて置くと音が良いという教会の方のアドバイスがあり、オンマイクを通常の発想で立てるとサラウンドマイクとどうやって整合性をとったらいいのかと悩んでいる間に、録りますと言われて、そのままいわゆる一般的なステレオ録音のハンマーに近いオンマイクで立てました。それだけでもステレオで成立するように録ってそれにアドオンする形でサラウンドツリーの音をのせる方法しか無いと思っていたところもありました。それで結果論ですが意外とマッチングが良かった。その効果を出しているのが、サラウンドツリーの5本を1組として、ステレオオンマイクのレベルを決めたあとに(サラウンドツリーの音を)足したり引いたりフェーダーをいじっていたら「ここが気持ちいい」というところがあったのでそこに落とし込んでいます。全体に聴いて変なディレイ感や位相感が出ないことは確認して。今回は5.1ではなく5.0でやるということだったので低域に関しても過不足無くおかしなことにならないようにというところだけ注意して、それにほんの少しだけリバーブがのっているだけです。
Q:サラウンドツリーの2.7mの高さが忠実に出ていると思うのですが、その高さは色々試してみて決めたのですか?
A:そうです。テスト録音の時に3名で行ったのですが、計算では3m強の高さにしようと思って行ったんですが、LCRをステレオに畳み込んでモニターしたときにちょっとオフっぽいかなと感じて、リアのLRだけを聴いた時にオフすぎるという印象を、無指向性のわりにこんなにオフでいいのかなと思ったので前後位置も高さも変えました。それは録りながら上げて、下げてといわゆる撮影の時に照明さんがやるようなアナログチックにやりました。想定した場所からはちょっとずれましたがやはり現場で調整するのがいいのかなと思います。
Q:それはDigi003のヘッドフォンアウトで聴いてということですね?
A:そうです。それは5チャンネル分をテレビ方式のダウンミックスにかけて聴いていて、それと、オンマイクの2本を足したり足さなかったりして空間を頭の中で想定しているというか、オンオフの感じはなんとなくわかるのであとは全体の空間の感じをスタジオで作れば良いかなということと、もし空間が足りないようであれば、MAというかミックスの時にリアチャンネルだけディレイするのもありかなと考えてもいましたが試した結果それはやっていません。
Q:せっかくなのでカメラの方に質問です。3Dで撮影する時に、クレーンなどの特機というのは現状あるものをそのまま使えるのですか?
A:リグを使って撮影すると、カメラ自体が大きくなるので、IMAGICAのリグですと軽いもので30kg、重たくなると5、60kgかかってくるのでクレーンのアームの耐久加重に耐えれるもの、あとはクレーンのヘッド部分に収まりきるかどうかをクリアすれば現状のものでいけます。やはり3Dは撮影しながら動きがあるとすごい立体感が出てくるので特機とセットで撮影するということがすごく多いです。
Q:ということは3Dのカメラのセットは今後小さいものになればなるほどカメラマンとしては嬉しい?
A:できればそうですね。ただ現状のリグと使うレンズにもよるのですがやはりワイドめで撮りたいとなるとリグがどんどん大きくなってきたりするので、その辺は今後に期待というか小さくなれば機動性は上がります。
Q:カメラの視野の広い狭いという調整の方法は3Dの方式によって違うのですか?
A:方式によっては変わらないです。例えば収録は右目左目のLRをそれぞれフルHDの状態で撮って、そのあと劇場で色々違う方式に変えるのは一旦マスターを作ればそこから変換するだけなのでそこは問題ないです。
Q:ではカメラマンとしては、上映の方式とか記録の方式とか関係なしに一定のもので撮っておけばいいのでしょうか?
A:特殊な環境、例えば上映する劇場や設備が決まっている場合などはそこ用に、例えばメガネをかけて暗くなるから少し明るめに撮っておこうなどはあるかもしれませんが基本的には一般的な方式で作って各劇場に渡すというだけです。プロジェクターとメガネによって、今かけているXpanDやRealD、DolbyDなど各方式で微妙な明るさの変化があり、劇場の違いにもよってくるので難しいところなんですけれども、それは再生側の調整の話ですね。
Q:我々は音のサイドなので、ステレオで表現する音場とサラウンドで表現する音場に大きな違いと楽しみを見つけているんですが、カメラマンの方は従来の2Dでやるのと今回のように3Dでの撮影を経験されたのとでどんな感想をお持ちなんでしょうか?
A:3Dは今までの2Dと映像の演出方法が変わってくるところがあります。例えば2Dの音楽ものやライブものだとカット割りがすごい短く短くやっているのを、3Dで同じように短くしてしまうと立体感を目で確認して感じるまでに人間にディレイがあるので、出来る限り短いカット割りはせずに長く回してつないでいくやり方のほうが3Dとしては見やすくて面白かったりするようです。3D映像としての見せ方というか演出方法は研究されているところなんですが、今後は変わってくると思います。
Q:カメラで撮られている時は3Dの映像を見られているのですか?
A:今のIMAGICAの方式だと片面のRchのカメラの2Dのビューファインダーで確認しながらやっています。
Q:それを頭の中で3Dに合成しながらでしょうか?
A:そうです。また3Dは3Dで別個にコントロールする人がVEのような形で調節していますので。現状はそういうやり方になっています。
喜多:Sony PCLの場合は、クライアントモニターには仮合成した3Dのパネルを見ています。ただし小さいものです。
Q:視差というのは個人差がありますか?
A:あります。3D映像は個人差がものすごく大きいです。強烈な視差をつけた映像に関してもものずごい立体的に見える方もいればそんなに立体的に見えない方も全然立体感を感じない方もいて本当にバラバラです。そこに関して作り方としては今は最小公約数といいますか、誰もが自然にあまり行き過ぎない3Dをつくるような設計をするのが主流です。
Q:映画館の座る場所によって、見え方が変わったりすることはあるのですか?
A:劇場によって座る場所によっても立体感は変わってきます。やはり人間の目の幅とスクリーンの視差の相対関係が座る距離によって変わってくるので、後ろに座れば座るほど立体感は強調して見えます。飛び出しや奥行きも、スクリーンは相対的に小さく見えてしまいますが、強く感じるようになります。
Q:音声だとスクリーンから2/3の位置を中心と考えてミックスするなどありますが、映像にはそういった基準のようなものはありますか?
A:出来る限りスクリーンの正面で見た方が設計者の意図は忠実に再現される形になります。3Dを見ながら頭を動かすと欠像する部分が変わってくるので背景がぐわっと動くようになるのでそういう意味でも正面から見て頂くのがベストです。
参加者:3DでもIMAXの3Dなどドームシアターの本格的な3Dで見ると視野がすべて覆われているので没入感は最高に良いと思います。ただ2Dでも視野が覆われていると没入感は,良いと思います。
参加者:今の3D映像は,音の世界でいうとバーチャルサラウンドと一緒で2つのスピーカーで信号処理して左の音は左耳だけ右の音は右耳だけという方式に近いなと思うのですが、音の方では、現在全方向2Dのサラウンドに移行していったので、映像はどうなるのかなというのは大変興味があります。
沢口:みなさんどうもありがとうございました。今回は、すばらしい映像/音響の3Dを体感していただきました。会場を提供していただき多くの3D映像を用意していただきましたIMAGICA/SONYPCLのみなさんにあらためて感謝いたします。(一同拍手)
[ 関連リンク ]
株式会社IMAGICA:3D関連サービス・技術情報
3ality Digital:TS-2 Studio Beamsplitter Rig
ソニーPCL株式会社:3D/4K
「サラウンド寺子屋報告」 Index にもどる
「サラウンド入門」は実践的な解説書です
Subscribe to:
Posts (Atom)