December 15, 2010

第69回サラウンド塾 3D映像とサラウンド音響 Part.2 WFS技術 原理とその応用 Max Holtmann


By. Mick Sawaguchi
日時:2010年12月15日
場所:タックシステムショールーム
講師:Max Holtmann (RMEテクニカルアドバイザー)
テーマ:3D映像とサラウンド音響 Part.2 WFS技術 原理とその応用

* 2010-12-15のUSTREAMアーカイブを合わせてご覧ください。


沢口:2010年12月でサラウンド寺子屋塾は69回目になりました。先月と今月で3Dの映像とサラウンドはどういう接点があるのかをテーマにしました。先月はIMAGICAさんの試写室をお借りをして、実際に最近の3Dとサラウンドの作品を体験し、今回は、RME社のエンジニアの方が来日するということで、ヨーロッパで始まっているWave Field Synthesisというテクニックを日本に紹介してくれないかという事で、快く一日我々の為に時間を割いて頂きました。興味のあるテーマなので我が家では入りきれないと思い、TACセミナー共催という形で山本さんにご協力もいただきました。また今回寺子屋の様子をU-STREAMでライブ配信する試みも行いますので各地の皆さんは、楽しみにしてください。



Wave Field Synthesis(WFS)というプロジェクトは、ヨーロッパにEUREKAというプロジェクトがありましてこれは国家のプロジェクトで、カルーソというコード名がついているプロジェクトで、長い間WFSが研究をされてきてそれが実機として世の中に出すところまできました。
私は2年前にアメリカのTodd-AOという大きなダビングステージが3Dのファイナルダビングをする為のダビングステージを作ったというニュースを読み、写真を見たら壁全面にスピーカーが埋まっていてこれにWFSという技術が使われていてそれをインストールする機材面はRMEがやっているということでした。

今回は、是非そのWFSがどういう原理で我々が日頃制作をしている5.1chの方法とどういう違いがあるのか、メリットデメリットもあると思いますので、そういうところを講師のMax Holtmannさんからお話して頂けたら良いなと思います。それではMaxさんの紹介をシンタックスジャパンの村井さんからお願いします。


村井:シンタックスジャパンの村井です。講師役のMAXは、ビールで有名なミュンヘンのすぐ横ハイムヒューゼンという所にあるシンタックス本社で、ジュニアプロダクトマネージャーをしております。現在は、香港OFFICEで業務を行っています。いくつの専門用語や数学の方程式も出てくるので、10年ぶりという方もおられるかもしれませんけれども、是非お楽しみ下さい。
今年のフランクフルトミュージックメッセで、後ほどご説明致します、IOSONO社もsonic emotion社もブースを出しておりまして、Maxが卒業をしましたドイツの大学、デトモルト大学、そこも先ほど申し上げたEUREKAの1つのリサーチセンターになっておりまして、ほかにはベルリンの工科大学もそうですし、オランダとか、フランスとかいくつかあるように思うのですけれども、ヨーロピアンコミュニティ自身が新しい産業育成ということで投資をしてその結果がようやくここに巡ってきたのが、このWFSです。昨今の映像は3D映像が出てきている訳ですけれども、実際に映画館に行ってもスイートスポットは限られているのでなかなか端の席の人は良いかたちで楽しむ事が出来ない。どうしたら良いのかという事の一つのソリューションとしてWFSが注目されており、RMEはどちらかというと裏方でお手伝いをしております。WFS自身は1チャンネルあたり大量のスピーカーを使います。4面使いますから平均して128本とか500本とか、大きいところは720本とか使いますのでそういうところでご承知のMADIという技術を使いお手伝いしております。ではMAXよろしくです。

Max:本日はWFSについてお話をしたいと思います。私がいたデトモルト大学では2つのWFSシステムが入っています。ここでは、それをどのように使うかという研究を行っています。
本日のメニューですが、まず3D音響の単語とその背景について少しお話しをします。
その次に実際に使われている導入事例や、どうやってミックスを行うのかをお話しします。
最後に今後の見解などをお話しします。

[3D Sounds]
まず3D音響の実現方法にいくつかのアプローチがあります。
● Wave Field Synthesis(WFS)
● Higher Order Ambisonics(HOA)Multipoint Approachと呼ばれるもので5.1ch、7.1ch、22.2chのものがあります。
● Perceptually motivated approach。ここに書かれているのがVector Base Amplitude Panning(VBAP)とDirectional Audio Coding(DirAC)と呼ばれるものでとても重要なのがDynamic binaural synthesisというものです。ダミーヘッドやHRTFなどを応用しています。

[Evolution -from MONO to WFS]
音響の進化を最適リスニング位置(SWEET SPOT)と言う観点からお話しします。まず20世紀の前半にはグラモフォン蓄音機が部屋の隅っこに置いてあり、モノラルで音が流れてくるSWEET SPOTを探して、どこに座ろうとは考えなかったと思います。
その後20世紀半ばからステレオがポピュラーになり2つのスピーカーの間に座って聴くシステムが生まれました。今もステレオが一番流行している方法の理由としてはヘッドフォンですとか凄く簡単に音楽を聴く方法だからです。2つのスピーカーを置く場所があるのと価格帯もリーズナブルなものになります。ただ問題が一つありまして、スピーカー2つ、LchとRchのスピーカーの間に座らなければいけないという制限があります。その後5.1chサラウンド方式が出てきて、スピーカーの間に座らなければいけないだけではなく、部屋の真ん中に座らなければいけないという時代が起こってきました。 課題は、多くのリスナーへ広いSWEET SPOTをどう提供できるかにあります。

[Principles of Wave Field Synthesis]
今回お話しするのが、そのサラウンドで部屋の真中のスイートスポットをなくして、部屋のどこにいてもサラウンド体験が出来る環境の作り方です。まず1つのスピーカーが置かれているのを想像してみて下さい。私をスピーカーと思って頂ければ、そばに座っている人たちは私の方から音が流れている方向感覚を得ると思います。そういった環境で言うとやはり真ん中に座っている人しかサラウンドの感覚は得られないと思います。なのでスピーカーを10メートル、20メートル離す事でスイートスポットを大きくしてサラウンド感覚を広げる事が出来ます。しかしスピーカーを離してしまう事によって、高い周波数は減衰してしまいます。実際の音波の波形を見て頂きたいと思います。この波形の一部分を切り取ったものをご覧下さい。スピーカーに近い音波ほど球面波をしております。遠くにいけばいくほど平面波になります。我々の耳はこの球面波と平面波を聞き分ける事が出来ます。なのでWFSの基本原理はこの平面波を再現する事を目的としています。
すなわち小さな点音源スピーカを発音体として多数組み合わせることで平面波を作り出そうというわけです。この原理は17世紀にクリスチャン・ホイヘンス氏が発案した方法です。どんな波形も、より小さな波形で復元する事が可能だとおっしゃった方です。なので先ほどの図に戻りますと、壁に複数のスピーカーを備え付けます。これらのスピーカーにそれぞれ別々のディレイとアンプリチュードを流して、それを再生するとこのようになります。その波形を繋げると先ほど遠くの方にあった波形を復元する事が可能です。なので視聴者にとって方向性というのが生まれます。壁の外に音源があるような感覚になるのですが、その距離感というのは伝わらずに方向性だけが残ります。このようにしてすべてのスピーカーをすごく遠くに置く事によってスイートスポットを大きくする事が出来ます。課題は、音をスピーカーに当てはめるという事になります。20世紀に数学者によって色々考えられた方程式があるのですが、その一つは、部屋の隅々を小さなマイクで埋め尽くし、それでそれぞれのチャンネルを個々に録音をする。そのマイクを同じ数の小さいスピーカーに置き換えて再生を行うことでWave Fieldを再現する事が可能だという風に考えました。この部屋でいうと、私が立っている所で私が本当に話しているようにどこにいるひとにでも聴こえるという事です。これは素晴らしいのですけれども、経済的な恩恵を受けるのは、マイクとスピーカーメーカーのみだと思います。またとんでもないデータの数となってしまいます。さらに問題があって録音する部屋とプレイバックをする部屋が同じでなければいけません。


では、現実的な実現をどうすればいいのか。先程も言ったようにバーチャルなスピーカーを壁の後ろに配置したい、このモノスピーカーの為のモノファイルが存在します。そしてそのスピーカーの位置を記すテキストファイルがあります。その2つのデータをプロセッサーに送ります。プロセッサーで計算したそれぞれの信号を、1つ1つのスピーカーに流します。結果この図のように部屋の周りをぐるりと回すような事が出来ます。このためにはオーディオのファイルを変えるのではなく位置関係を表示するテキストファイルを変えるだけで可能になります。そして先程の部屋の内向き波形ではなくて、反対向き、外向きの波形を作りさらにスピーカーの数を多くする事によってバーチャルな音源を部屋の外側だけでなく中に置く事が出来ます。これが可能なのはデッドな部屋がある事と沢山のスピーカーが必要になります。この方法がスピーカーのモデリングを行う、音源のモデリングを行って再現をする方法です。なぜ本日WFSの話をしているかというと、これが代表的なモデルベースのテクニックとなるからです。

 

先ほどのPerceptually motivated approachとかは、モデリングベースではないアプローチとなります。まず音源のレコーディングを行います。例えばボーカリストをとてもドライな空間で1つのマイクロフォンで録音します。そして再現する時、プレイバックする時は、その人のモデリングを行うというような形になります。現在の研究ではこの位置関係をどのように保存するのかが問題になっています。今ご覧頂いているのがAudio Scene discription format(ASDF)というものになります。これは2つのファイルからなっています。まず上に表示されるのが最初のファイルです。まずこの上のファイルとオーディオファイルの2つを再生場所へ送ります。ファイルの指定と位置関係の指定でxとyが定義されているのが見られます。なのでプロセッサーが分からなければならないのはこのデータをどういった場所でプレイバックを行うかということなので2つ目のファイルにそれが記されています。ここに実際に書かれているのがスピーカーの数と位置です。1つ目のスピーカーの位置関係が書かれています。このフォーマットだと動きは再現できません。現在ベルリンの工科大学で研究が進められています。なのでプロダクションの段階ではまず最初にドライな空間でレコーディング、そしてその場所を保存をします。それの受け渡しを行うためにはWAVファイルで保存をして先ほどのxmlファイルのテキストファイルを作ります。受け取った側は5.1ch、7.1ch、バイノーラル、WFSなどどんな形のサラウンドでも再現できるような形をとることが目標となっております。なので、プレイバックの環境を問わずにプロセッサーの力だけで再生ができるような形が目標になります。
少しだけHigher Order Ambisonicsのテクノロジーと、Wave Field Synthesisのテクノロジーの違いを説明します。私が感じているのはドイツはどちらかというとWFS、そしてフランスはHOAに力を入れているのではないのかなと思います。実際にはそんなに音質の違いはありませんが実用性の部分では多くの違いが出てきます。WFSは様々なセットアップで使用する事ができます。HOAは円状に設置したスピーカーでのプレイバック方法しかサポートしません。HOAのレコーディングはサウンドフィールドマイクロフォンで行われます。WFSですと今持っているマイクを使うことができます。レンダリングの複雑さはHOAのほうが高いです。WFSはかなり単純化されているので、そんなにプロセッサーのパワーは使いません。ヨーロッパですとWFSは20以上の研究機関が研究し。実際の設備としてもワールドワイドで20ものエンターテイメントベニューで導入事例があります。

[ WFSの実用例 ]
1つはスイスから出ているsonic emotion社のsonic wave、もう1つが2週間前に発表されたドイツのIOSONO社から出ているSpatial Audio Processor IPC100になります。以前はIOSONO社は全くsonic emotion社とは違うアプローチをとっていて、IOSONO社はより完全な再現を目標としていました。仕様を見て頂いても分かるようにずっとsonic waveのほうがチャンネル数が少ないです。ただ凄く処理能力は速いです。私の大学では14台導入されていて、300ぐらいのスピーカーに流しています。レイテンシーは7ミリセカンドとすごく低く素晴らしいことだと思います。sonic emotionは他の機器との互換性もとても高くて様々なホールやミュージアム、ライブ等に導入事例があります。IOSONO社の新しいボックス(IPC100)を使うと先ほど説明したHOAやその他のサラウンドシステムとも互換性があり、ボタンひとつで5.1chのシステムに変えることができます。以前はIOSONO社は独自のスピーカーを作っていました。ロサンゼルスに導入されているシステムはとても高価なものになります。現在はポリシーを変えてどんなスピーカーでも使えるようにまた少ないスピーカー数でも使えるような形をとっています。先日見た導入事例では、10個ぐらいのスピーカーで再生ができる環境となっていました。以前は40から50ぐらいのスピーカーが必要でした。メーカとしてはオーディオクオリティー、効果、価格のバランスが大事なことです。


[ University, Cinemas and other applications ]
導入事例を主に見て行きたいと思います。私の大学では2つのどちらのシステムも入っています。これは私の大学のコンサートホールの例です。400ほどのスピーカーがぐるりとホールの周りを囲んでいます。この黒く見えるバンドが発砲スチロールのバーにそれぞれ8つのドライバーがついているものになります。これを作った当時にIOSONO社のものを導入しようと思っていたらすごく高価になっていたかと思います。今はそうでもありません。また、レイテンシーの部分でもsonic emotion社のものを導入する必要があったと思います。ここではMADIを使っています。地下にある14のプロセッサーでレベルとディレイを計算しています。MADIで送信するのはオーディオファイルのみとなります。コンピュータネットワークで送信するのが位置関係になります。これが実際の地下の写真で、これがsonic emotionのサーバーです。アンプが左側にあります。コンサートホールのなかに小さなデスクを用意して、Apple Logicのワークステーションのコントローラーを置いています。

ミキシングを行う一番最初の問題がどこで行えばよいのかが分からなかったということです。解決策はなく、現場のなかで動き回ってミキシングをしなければなりません。Logicのプラグインはこのようなインターフェイスになっています。個々のソースが小さな点で表示されています。コンサートホールの形をしているのが壁を囲ったスピーカーになります。先ほど映像に映っていたオルガンのところにギャップがあります。そこにはスピーカーがありません。


ではどのように使用しているのでしょうか?一例として、Raphael Cendoという現代音楽を作っているクラシック音楽家がいます。コンサートを行う会場に図のように5つのスピーカーを周りに配置しなければならないというような作品を作りました。なのでその構成としてはライブのドラムセットがあるだけでなく同時にスピーカーからも5つのサウンドが流れるような曲を作りました。この5chのスピーカーをWFSと置き換えて、そのため小さなホールで聴いているお客様みなさんが同時にライブのドラムとサラウンドの感覚を得ることができるような環境づくりに成功しました。


私の大学は音楽大学なので作曲家は他にもいます。今見て頂いているスコアは、WFSを使うことを前提としたスコアを実際に作り始めています。これは1人のシンガーと12個の別の楽器のスコアになっています。このスコアはライブで聞きながらプレイバックも行われている少し不思議な作品になっています。このような作品に使うだけでなく、リバーブの環境を変えるというような試みも行っています。オランダの製品でSIAP MKというプロセッサーがあります。コンサートホールの中に小さなディスプレイがあって、ホール全体の音響環境を瞬間的に変えてしまうというものです。オルガン奏者としてはすごく必要なことで、大きなホールですとオルガン奏者はとても長いリバーブタイムが必要なのでオーケストラとはだいぶ違う環境が必要になります。図のようなセットアップになっていてステージの上に複数のマイクロフォンが備わっています。プロセッサーがそのマイクの信号をWFS用に計算をします。一瞬で環境が変わります。
私の大学以外でも様々なところでWFSは使われています。たとえばsonic emotion社の製品で言うとsonic waveのプロセッサーをcoolux社Pandoras Boxと一緒に使うことでライブイベントができます。他には大規模な映画館でも使われています。ここで見ているのがフランスのシネマ展示会「Cinemateque」になります。IOSONO社は独自のシステムを使って独自の映画館を作ったことがあります。ひとつはロサンゼルスにあります。もうひとつはドイツにあってどちらかというとデモンストレーション用のべニューとなっています。私が実際に体験した映画では大きな木がお客さんに向かって倒れてくるというものがあります。客席の左側に座っているお客様は、右側に木が倒れてくる感覚を得て、右側に座っているお客様は左側に木が倒れてくる音が聞こえます。他には、製品発表会など様々なイベントでも使われています。これはシアターです。これはモナコ。フランス、パリのCentre Pompidouという現代アートのエキシビジョンです。香港のショールームでは実際に座って、音源をジョイスティックを使って動かす事ができるような部屋があります。私が知っている限りで一番大きなWFSの導入事例としては、ベルリン工科大学です。これはIOSONO社のシステムで白く見えるのがスピーカーになります。2年前にこのセットアップですごく面白い試みがありました。300km離れたケルンからのライブ転送です。ケルンの教会のWave Fieldをそのままこのホールで再現しました。ベルリン工科大学の外ではケルンのコンサートへのチケットを売っていましたので、お客さんの反応は様々で半分ぐらいはベルリンにいるのになぜこのような感じがするのか戸惑ってしまう方もいらっしゃいました。





[How to create WFS mixes]
次に、IOSONO社のプロセッサーを使用したワークフローを紹介します。スポットマイクをそれぞれのミュージシャンに置きます。そして部屋の環境を複数のマイクで録音をします。オーサリングツール、この場合はSteinberg Nuendoを使います。プレイバックではスポットマイクでレコーディングしたものを前の方に置き、部屋の音響を録った信号は四隅から鳴らすような形をとりました。これがその時のマイクセットアップ図です。IOSONOのワークステーションでは次のような図で表示されました。これのプレイバックを一度行ったとき、実際に録ったのと同じぐらいの大きさの部屋で行いました。なので部屋の前の方に立つと実際にオーケストラの中で聞いているような形になり部屋の後ろの方で聞いているとディフューズサウンドフィールドにいるような形になります。リスナーが慣れている音というのはその間の感覚です。部屋の後ろに座っていてあまりダイレクト音が聞こえないのは不思議な感覚でした。またあまりにも速く動くサウンドよりはゆっくりと動くソースのほうが感覚としては凄く良いものだと思います。
IOSONO社のプロセッサーには映画用の設定があります。最初にお話したセンタースピーカーを部屋の外に置いてしまうということがここで表示されています。ダイアログチャンネルが真ん中に表示されています。レフトスピーカーがあり、ライトスピーカーがあり、サラウンドスピーカーが部屋の後ろのほうに配置してあります。今ある5.1chなどのサラウンドミックスを表現するようなプリセットになります。これにより、より多くの人がサラウンド体験ができるような環境ができます。映画のプロデューサーがWFSを自身のスタジオで作ることができるのであれば、独自のソースを外ではなくて部屋の中に持って来て動かすことができるようになります。もちろんオートメーションもサポートしています。映像がなくても音声だけでも面白い効果が得られます。これは音楽でビートがゆっくり部屋の中を動くような形になっています。IOSONOのデモクリップで目の前で家が燃えているのがあります。もちろん見えないです、音だけなので。家が燃えている音がします。後ろから消防車がアプローチしてくるので後ろを観るような形になります。なので消防車が止まって消防士たちが出てきて叫び声ですとかドアが閉まる音とかがします。その大変な事態の真ん中にいるような感覚になります。

[ 課題 ]
たくさんのスピーカーを使うのでスピーカーのやはり質は落とさなければいけない。そんなことをすると、やはり音質的には良くありません。なのでセットアップにも関係ありますが、私の大学の音はそんなに良くありません。ただ、エフェクトは音質の欠点を忘れてしまうほどとても面白く、ここもバランスが重要だと思います。WFSの正確な再現には、デッドな部屋が必要だと先ほども述べましたが、私のいた大学では、空間が大きく響きも大きいのとスピーカーの質がそこまで良くないので音源を部屋の中に持ってくることができないのが問題です。それでもやはり5.1chよりははるかに面白いです。なぜならば、サイドの、例えば右サイドのフロントからリアに音が動くときのギャップがなくなるからです。
機材の選択は何をしたいのかによって様々です。なので使い方によってsonic emotionの方が適切であったり、IOSONO社のものの方が適切であったりします。今サウンドエンジニアとって一番問題なのが、IOSONO社のデータをsonic emotionに持っていくことができない互換性の問題です。なぜならばsonic emotionはIOSONOで使っているASDFファイルが読めないからです。なので我々の期待としてはひとつのオープンソースの方法、コンテナを開発してもらってさまざまなプロセッサーでどのようなモデリングベースの再現でも使えるような形を期待しています。また今後、オーサリングツールの充実も期待しています。sonic emotionは現在LogicとPyramixでしか使えません。IOSONO社のものはNuendoでしか使えません。数週間前にベルリン工科大学で発表された独自のWFSのプロセッサがあります。WFSだけでなくHRTF、バイノーラルですとかアンビソニックもサポートしています。そして素晴らしいのはこのソフトウェアは無料だということです。今からお見せするビデオがすごくおもしろくて、このプロセッサを使ってどういったことができるか見て頂くことができるかと思います。IOSONOのようにベルリン工科大学はこのASDFのフォーマットも開発した機関なので、今後出来ることとしては本当にIOSONO社と同じようなことができるようになります。今からお見せするのはAndroidのアプリケーションを使用していてスピーカーの配置がそこに表示されます。その効果というのはヘッドフォンを使って聞くことができます。それと同時にWFSとして流すこともできます。ご覧ください。



[ 動画視聴 ]

Max:今後の期待としてはもっとオープンソースで互換性が必要です。そうすればエンジニアとしてはコンテンツがすごく作りやすくなり、どんなところでもどんな環境でも再生できるようなことになると思います。これが私の考える今後の3D音響の未来です。では、質問などあれば、どうぞ。

[Q&A]
Q:高さ方向の表現は可能でしょうか?
A:IOSONO社ではもうすでにそういった試みもあって2段構成で少し高さも表現できるような、今ご覧頂いたサウンドスケープレンダラーでも高さが表現できると思います。もちろん他でもできるとは思うんですけれども複雑なテクノロジーになっていくことと思います。WFSでは不可能ではなくて要するにスピーカーの数の問題というところになります。我々の耳の働きは、高さより横の動きのほうに敏感ですので少しのスピーカーで高さというのは感じ取ることができます。

Q:プロダクションの段階でオーサリングしてから16chマスターでプロセッサーに行くという事なのですが、その16chはどういう構成になっているんでしょう。
A:制限はなく、要するにモノ音源が16chという事になります。なのでオーディオファイルのモノチャンネルが16個ということなので、例えばギターとボーカルとなにかが1つのチャンネルに合わさっていることもできます。ただそれが再現されるときはその3つが一緒に動くような形になります。

Q:ものすごく複雑にすると大変ということですか?
A:やはりそこまで16でも32でも、人間の脳が32個もの違うチャンネルを判別できるかというのはわかりません。もしかしたら予備として取っておくチャンネルとしてはいいかもしれないです。

Q:WFSでは、ひとつの仮想音源を作るのにいくつのスピーカーが必要になりますか?
A:最低でもこのくらいの部屋の大きさで、50〜60個のスピーカーが必要です。

Q:例えば3Dを表現するのではなくして、一方向から音が来るということを表現するにはどうですか?
A:やはりひとつのソースだったとしてもすべてのスピーカーにすべての方向から音を流さなければならないので、すべての壁を埋め尽くす必要があります。

Q:通常の5.1chの再生の場合は、スピーカーがLRCLsRsとチャンネルと場所が明確に分かれています。(スピーカーを多く設置する)WFSで5.1chの音源を再生するときに、エリア分けといった考えはあるのです?
A:明確なエリア分けはありません。例えばLchだけにある音源であったとしてもデータは、すべてのスピーカーで再生されます。実際にWFSでミックスするときは、WFSプロセッサーに、LchはL方向の遠くに、CchはC方向の遠くに、R、Ls、Rsと設定します。そうするとことで、サラウンドのスイートスポットが、コンサートホールのように広がります。

Q:5.1chの作品を作る場合は、WFSのプロセッサーまかせで、注意する点はないのでしょうか?
村井:この理論の一番のポイントは、再生周波数特性が半分になります。各社は、アルゴリズムを使って周波数を上げることをやっています。人間の耳は高域特性が敏感ですから、
A:あなたがサウンドエンジニアなら、5.1chミックスを心配する必要はありません。モデルベースミックス(WFS)では、5.1chの制限はありません。すべての楽器のファイル個別に用意し、リバーブを使い、それをどの位置から再生するか指示することができます。
村井:実際にホールでオーサリングしてみると、Logicの画面でパンニングできます。
A:楽器を個別のファイルで用意し、位置情報を指示します。(WFSの)サウンドレンダラーは、5.1ch、ヘッドフォン再生、WFSなど、それぞれの再生環境に合わせて変換します。


Q:すでにある5.1chのコンテンツから、WFSのコンテンツを作ることは可能ですか?
A:できます。もし、サックスだけを(WFSで)パンニングするには、先ほど紹介したプラグインを使う必要があります。複雑なパンニングは上手く表現できません。5.1chのミックスにパンニングする楽器を追加すると効果的かもしれません。

Q:例えば、 既存の5.1chのスタジオで、WFSの劇場向けのコンテンツを作るにはなにが必要ですか?
A:それは簡単です。5.1chのマスターを用意し、劇場に設置されたIOSONOプロセッサーを5.1chモードに設定すればWFSで5.1chの再生が可能です。また、どのようなコンテンツを提供するのかでも変わります。しかし3D映画で、飛び出してきた映像に同期して突然声が観客の目の前に出るような場合は、WFSでミックスする必要があります。

Q:その場合は、どのような機材が必要ですか?
A:WFSプロセッサー、NuendoなどのPCが必要です。
WFSプロセッサー、ヘッドフォン、5.1chの再生環境、NuendoとNuendoのプラグインを組み合わて作業する必要があります。もちろん、映画のようなWFSの効果を得るには、WFSの再生環境(プロセッサーとスピーカー)が必要です。何故ならば、5.1チャンの再生環境では限界があるからです。

Q:WFS専用のコンソールが必要ですか?
A:いいえ。既存のコンソールを使い、例えばダイアローグ1、ダイアローグ2を作りIOSONOレンダーに送り、リンクされた2台目のPCのNuendoのプラグインで、映画を見ながらマウスの操作でコントロールできます。

Q:高さ方向を表現するには、スピーカーをもう一列追加すると説明がありましたが、天井や床に設置する方法はありますか?
A:いいえ。現在のオーサリングツールでも大変複雑で、さらに機材が必要になるので、もう少し先になるのではないでしょうか。重要なことはWFSには限界がなく、オーサリングでの制限であることです。

Q:先ほど話にあった、木が倒れてくる作品の話がありましたが、それはWFSの環境で作られたものですか?
A:WFSの環境で作られたものです。

Q:わたしは、チャイニーズシアターでIOSONOで作られた映画を聞きました。個人的に映像の3Dだけではだめでこの情報化社会で映画館にお客さんを呼ぶには音の3D立体化しかないと思いIOSONOには注目しています。しかし、映像のデジタル化に費用がかかり、音にお金を使うのは大変です。映像が3D化されても、お客さんは20年前の5.1chの音で我慢しています。普通の5.1chフォーマットをIOSONOで聞いてもたいしたことはなく、IOSONOでミックスされたものはすばらしいです。なので(IOSONOの)36chや2階層になったシステムはいいと思います。(映画館、スタジオ、音響監督がIOSONOをひとつのフォーマットとして取り入れるには、どんな障害がありますか?
A:興味深いことがありました。IOSONOのこれまで高価でしたが、1ヶ月ほど前にポリシーを変更しました。オーサリングがスピーカー設置がなくても、モデリングベースで行えるようになり、これば個人の考えですが、費用がかからず、多くの人に高品質な3Dサウンドの提供が可能になるのではないでしょか。新しいIOSONOのオーサリングツールでは、映画用のWFSだけでなく、映画をiPhoneとヘッドフォンで聞いている人や、映画をの5.1や7.1スピーカーで向けに作ることができます。


Q:作り手側が3Dサウンドに興味をもってコンテンツを作ることが必要ですね。携帯からどうやってリンクしているのですか?
A:プロセスはLinuxのサーバーで行われ、そのIPネットワークにワイヤレスLAN経由のアンドロイド携帯電話でリモート操作します。

Q:WFSで、部屋の中で音のない空間は作るとこできますか?
A:残念ながら困難です。部屋には壁かあり、壁には反射があるので、完全に反射のない空間は不可能です。

Q:無響室では可能ですか?
A:無音を再生すれば可能です。(一同笑い)

Q:60個のスピーカーを使うことが想像できないのですか、WFSのコンテンツを作る環境を教えてください。
A:ミキシングコンソールは通常、5.1アウトだけではなく、サブミックスを作るためのステムアウトがあります。例えば、コンソールは15サブミックスを作ることができます。5.1chではなく、それのステムをIOSONOレンダーに送り、映像に合わせて動かします。それを最後に5.1chのミックスにしたい場合は、IOSONOレンダーで変換が可能です。(スピーカーごとではなく)音のソースごとで考えて下さい。

Q:プロセッサーの後に60個のアンプが必要なんですか?
A:はい。60個のスピーカーには60個のアンプが必要です。(一同笑い)

Q:60個のスピーカーが動作しているかチェックする簡単なシステムはありますか?
A:わかりませんが、私の大学では24個のスピーカーに動作確認の青いランプがありました。sonic emotionのプロセッサーにはスピーカー補正の機能があります。IOSONOの新しいプロセッサーにも同じ機能があるのではないでしょうか。


沢口:どうもありがとうございました。WFSの技術背景と実際の実用現場の話が聞けたのは、大変貴重な機会だったとおもいます。共同開催として会場を提供していただきましたTACシステム山本さん、そして講演の時間を寺子屋のためにアレンジいただきましたシンタックスJAPANの皆さんどうもありがとうございました。(一同拍手) この後TAC山崎さんからMADIに関連したTAC取り扱い製品の紹介、シンタックスJAPANから最新のFireFace UFXと同軸ニアフィールドモニターSP KSデジタルの紹介がありました。




[ 関連リンク ]
sonic emotion
http://www.sonicemotion.com/

IOSONO Sound
http://www.iosono-sound.com/

シンタックスジャパン・RME製品
http://www.synthax.jp/

「サラウンド寺子屋報告」 Index にもどる
「サラウンド入門」は実践的な解説書です

No comments:

Post a Comment