May 16, 2010

第66回サラウンド塾 NHKスペシャルドラマ「坂の上の雲」サラウンド制作 とワークフロー 野原恒典

By. Mick Sawaguchi
日時:2010年05月16日
場所:三鷹 沢口スタジオ
講師:野原 恒典(NHK 制作技術センター 番組制作技術部 音声)
テーマ:NHKスペシャルドラマ「坂の上の雲」サラウンド制作 とワークフロー

沢口:2010年5月のサラウンド寺子屋は、サラウンドのドラマ作品「坂の上の雲」です。地道な準備期間をかけ実現し、3年かけて13作を完成するという非常に息の長い大作ドラマです。今日は音声担当のNHK野原さんにドラマの音声制作、フローやサラウンド制作についてお話して頂きます。それでは宜しくお願いします。

野原:NHKの野原です。「坂の上の雲」に関わって、去年放送しましたが、そのミキサーを担当しました。この番組はどのような番組なのかということなのですが、司馬遼太郎さんの「坂の上の雲」という小説をドラマ化するということで、司馬遼太郎財団というものがあるのですが、映像化されることに関して非常に交渉に時間がかかりました。そして難しい話かなと。明治の時代、それから日清、日露戦争と、戦争をテレビで描く。ハリウッド映画なんかでは、よくみなさんご覧になっているでしょうが、テレビドラマで戦争を描くということ、それからNHKにとって、大河ドラマなどをやっていて江戸城の壁やセットなどこれまでに作ったこともあったりしてノウハウもあるでしょうが、明治の時代でということがあって作り始める最初から実写だけでは撮りきれない、CGやVFXに頼らなくてはいけないということが分かっていて作り始めた作品です。実現するまでに非常に時間がかかったということもあり、局内ではかなり大きなプロジェクトになっていて映像も音声も精鋭を集めましたので、せっかくこうやって大きな規模でやる番組なのだから最先端のワークフローで番組を作ろうじゃないかということにチャレンジをした番組です。音声に関しては、NHKの連続ドラマで初めてのサラウンド制作です。単発ドラマでは、サラウンドを作ってきたことは、これまでにもありますが、連続ドラマで初めてサラウンドで作ったというところが我々としての作品のキモになっています。

先ほど沢口さんからも話がありましたが、以前から動いていたプロジェクトで制作発表をしたのは2003年1月にNHKの会長が定例の記者会見で発表をしました。そこから台本の検討ですとか映像化に関しての諸々の課題がありまして、実際にクランクインできたのは2007年の11月です。今日も石川県の小松市でロケをしています。私以外のメンバーは石川県でロケをやっている最中です。明治時代の建物や風景、それから戦艦や基地を探し求めて本当に日本全国あちらこちらへ行きました。日本だけでなく、海外も、ロシア、中国、フランス、イギリス、マルタ、ラトビア、エストニア、フィンランドと8カ国行きました。明治のころの塀埸だとか建物だとか戦艦だとかというのは日本に残っていない。それを求めて海外へ行きました。2007年11月から始めて去年の年末に1話から5話まで放送しました。それでは、私がチーフを担当した第5話を見て頂きます。

<坂の上の雲 第5話 鑑賞>

野原:90分の番組なので見るのも時間がかかりますし大変ですが、「ここをサラウンドで作ったんだよね。」とシーン毎で紹介するよりもストーリー全体を見てもらいました。

映像制作機材について
この番組はCGだとかVFXとかというのが重要なポイントなので、映像系の話をします。
レンズはいわゆる映画で使うようなものを使っています。実際、デジタルシネマだとか、最近ハリウッドとかでも合成前提とかCG前提とかになっているとフィルムで撮るのではなくてデジタルのカメラで撮ったりするのですが、ほぼそういったシステムに準じています。レンズも映画用のレンズを使っていて、ズームレンズではなくてDigiPrimeの単焦点のカメラ。それを何本もセットの状態で揃えているのですが、そのメリットはCGなどを合成するときに、3Dで映像をレンダリングをするときに、レンズの長さのデータを入れてやらないと正しく3Dでレンダリングができないのでその親和性を高めるためにも単焦点のカメラを使っています。

普通のニュース等で使っているようなレンズを使ってしまうと、レンズの周辺がぼけてしまってCGもかえってややこしくなるので、キレの良いシネレンズだとか単焦点のレンズを使っています。カメラはSONYのHDC-1500を使っています。これが他のカメラと違うところがγカーブを変えられるところです。フィルムの感度、暗いところではフィルムならどうやって映るのか、明るいところがフィルムならどうやって映るのか、などを似せたカーブを自分の好みも含めて作って映像出力ができるという機能を持ったカメラです。狙っているのはフィルムルックというところですね。それと、プログレッシブ(スキャン)で撮っています。普通の日本のテレビ方式というのはインターレース(スキャン)と言って飛び越し捜査をしていて、1枚の画を作るのにくし状に歯抜けになった映像を2枚重ね合わせて1枚にしているのですが、プログレッシブ(スキャン)とはデジタルカメラでパシャと写真を撮るのと同じように、1秒間に30枚、正確に言うと1秒間に29.97枚ですが、パシャパシャと写真を撮るという撮影方法です。それをすることによって、飛び越し捜査で歯抜けになっていないので、CGとの親和性が良いのです。よく言う映画のコマ数=24コマというところで言うと、なんとなく"パラパラ感"、テレビに比べて"パラパラ感"があるとよく言われるのですけれど、それを少しでも再現をするために29.97枚のインターレース(スキャン)で撮るよりもプログレッシブで撮った方がフィルムの感覚に近いということでそういう撮り方をしています。

VTRなのですが(撮影は)、デジタルの映画ではよく使うSONY HDCAM-SRを使っています。できるだけ映像の情報を圧縮しない、切り捨てないということで、R:G:B 4:4:4にしています。普通はデータを圧縮するために人間の目で鈍感な色信号の部分を間引いてしまってから圧縮をかけるのですが、それもしないで色信号もすべてフルで取り込みあまり圧縮しないという映像システムです。その分テープ速度は速いです。多分普通に放送局のレベルで選択できる最高スペックのものを選んでいます。映像系はこれぐらいにして次に音声機材についてお話します。

音声機材
野原:私たちの音声ロケに行っているシステムです。一番上にあるのがハイビジョンの液晶モニターです。その下にあるのがレコーダーです。Sound Devicesの744T、4chのレコーダーを使っています。これがSonosaxのSXSTというミキサーなのですが、インプットが8ch、アウトのバスが8chあります。それからここにMbox 2 Miniを置いています。そしてMacintoshがあります。なにをやっているかというと、現場でプレスコをしてそしてということが何度か、今日見て頂いたシーンの中には出て来ていないのですが、現場でPro Tools LEを使うことがまあまああります。それからマイクなのですが、オーソドックスなところでSennheiser MKH-416TとMKH-816T。ワイヤレスマイクはNHKで多く使っているRamsaのワイヤレスマイク。それからSennheiserのMKE 2を使っています。どうしてもカメラが3台、4台というふうにマルチなカメラで撮ったり二手に分かれて撮らなくてはならないことなどがあるので、それ用にSigmaのポータブルの4chのアンプとRolandのR-4 Proを一応タイムコードが付けられる簡易なシステムとして用意しています。

この回のロケをしている風景なのですが、これはロシアです。ロシアのセンクトペテルブルクで、これが片岡鶴太郎さんで、これが藤本さんという広瀬役の方なのですけれど、MKH-816Tです。もちろんふたりともワイヤレスマイクを仕込んでいます。これは新聞売りの少年達なのですが、ワーと駆け上がってきてこの2人に新聞を売りつけるというシーンなのですが、この2人にもワイヤレスを仕込みました。
これは、ニューヨークのシーンなのですが、実際に撮ったのはイギリスのリバプールです。そのリバプールにニューヨーク風な古い建物がありますので、イギリスで撮りました。カメラがここと、ここ。こっちは普通の三脚なのですが、こっちはクレーンに乗っています。これもやっぱりMKH-816Tですね。

野原:音楽録音は、ミキサーは、深田が担当しました。
テーマ曲とか主なものは2009年、去年の4月にN響でNHK放送センターにあるCR-509スタジオで録音しました。ちなみにこれは久石 譲さんの後ろ姿です。あともうCR-506というマルチブースのスタジオでもN響よりは編成小さめな曲に関してはこちらで録っています。このトラックダウンはNHKの渋谷のCP-604という5.1ch対応のトラックダウンスタジオでやっています。最後、エンドテーマにボーカルというかコーラスというかスキャットというか入っていたのですが、サラ・ブライトマンさんなのですね。さすがに日本に来て一緒に録ってくれたということはなく、いわゆるカラオケの状態で作り向こうに送って、ボーカルを録ってもらいそのデータを持って帰ってきてトラックダウンし直したという形です。

PRE-MIXフロー
野原:編集が上がったあとの作業なのですけれど、フォーリー、生音ですね。足音や動作音などの録音というものを局内でやっています。これも生音を録るためのスタジオ、渋谷の放送センターにCR-300というスタジオがあるのですがそこで録りました。基本的にはモノラルで録っています。

野原:「さあ、放送をします」というときに我々技術側、制作、演出側それから局で番組を何曜日の何時に放送するのかということを編成をするセクションがあるのですが、協議の結果こういう形の放送フォーマットになりました。

具体的に言うと、今やっている「龍馬伝」の大河ドラマと同じ枠です。日曜日の18時から衛星ハイビジョン、それから日曜日の8時に総合テレビ、日曜日の10時に衛生第2、翌日の昼間に実はワンセグ独自番組というのをやっていたり、5分に縮めたダイジェストをやっていたりして、それから土曜日の昼間に再放送しているのですが、大河ドラマですと、ここもステレオ+ステレオ解説(副音声)、つまりすべてステレオです。我々はこの作品を作るにあたり、「なんとかサラウンドで作りたい」という話が音声側だけではなくて、制作、演出側にもありましていろいろ協議をしました。この際に問題になる点というのがデジタル放送の字幕放送とか解説副音声。字幕放送と解説副音声は、聴覚、視覚に障害を持っていらっしゃる方々のためのサービスなのでそれをNHKとしては軽視できない。大河ドラマでずっと解説副音声の放送を実施しているのに大河放送と同じ枠で放送する「坂の上の雲」がそれをやらないということは許されないという判断もありましたが、協議した結果総合テレビと衛生第二に関しては今までの大河ドラマと同じフォーマット、解説副音声付きのステレオというフォーマットを取りBSハイビジョンはサラウンドで放送ということになりました。もともとステレオで作ってくださいよと言われていた番組でしたので、サラウンドにすると「制作日数かかるんじゃないのですか」など色々な話がありましたが、そこは私たちの努力で頑張りますという話でして、基本的にステレオの作り方をベースとして、我々としてもできるだけ制作日数を圧縮する努力をするということでなんとかサラウンドの制作が実現しました。

テープレス ポストプロダクションの導入
野原:それではどういう方針でやっていこうかと。ポスプロのワークフローを考えましょうと。これはサラウンドだからということだけではなく、映像系にCG、VFXがたくさんあるということを含めなのですがテープレスにこだわりますと。さきほどロケ映像システムの説明でHDCAM-SRという説明をしましたがあれは確かにテープです。局内に持って帰ってきてハードディスクに映像を取り込んだ後はずっとテープを使いません。映像データのやりとりと音声データのやりとりをするために音声側でサーバを用意しました。録ってきた後はAvidのオフライン編集室に映像音声データが行くのですが、そこと音声スタジオそ、れから最終的なオンライン編集というところの間にネットワークをひいてサーバーを立てました。なので全ての映像音声はサーバーを経由してやりとりをします。

野原:それからどうやったら早く出来るか、どうやったら我々サラウンドを作らせてもらえるか、5.1サラウンドとステレオをとにかく同時に作りますよと。今日は5.1サラウンドのミックスの日です、明日はステレオのミックスの日ですよということではなく、同時に作りますという考え方にしました。SE素材などもサラウンドでベースノイズとか海の音だとかをサラウンドでロケしてきてくださいよということではなく、基本的にはステレオ制作をメインにしてSEの素材もステレオではじめるという方針でやっています。どれぐらい早かったのかと言われると、難しいのですが実際には早くなかったです。(笑い)
大河ドラマ、ほとんど局内のスタジオで撮影しているという条件は良いのですが、毎週放送できるようにそのノウハウの中でそういう作り方になっていて事前の準備に3日かけて生音に1日かけてたり、ミックスに3日程度かけてますという日数だったのが、今回我々の音声の事前準備は10日ぐらいかかってます。オールロケでとにかく思ったように音が録れていないのを今日聞いて頂いた程度まで台詞を整理するのに10日程度かけています。テレビドラマとしては今回非常に丁寧に生音をつけてまして3日程度かけました。実際のMAスタジオに行ってのミックスの時間は8日+5日と書いてありますが、なぜこれは足し算の話なのかというとテレビの場合プリミックスからファイナルミックスまで怒濤に流れて行くのが普通のスタイルなのですが、今回先ほどから言ってますようにCGとかVFXの作業が非常に多く、我々がプリミックスだとか生音だとかというものにかかる日数だとかを逆算するとCGが完成するまで待っているとMAがオンエアに間に合わないということで、2回に分けました。CGとかは完成していないけれどある程度まではプリミックスするのに前半8日程度です。CG、VFX、映像加工、色補正、全部終わってほぼ映像が完成系になった後、実際にはSEと映像が変わったことでSEの直しや最終的にバランスをとるファイナルミックスをとるということに5日程度かけました。

サーバーとネットワークについて
先ほどのサーバーやネットワークというあたりをもう少し説明していこうと思います。MAスタジオのマシンルームの片隅にサーバーを立てているのですが、いま容量は24TBです。映像データも扱うので実際には12TB分しか使っていません。というのは、半分はバックアップでパラに動いているので、実容量は12TB分使っていますね。まずロケが終わると、キャプチャーされてAvidの部屋に映像が来ました。それに関しては実は別ネットワークで来ています。この部屋にはテープで来ています。映像系のネットワークも別にあるので。ここで編集が終わりました、というとその編集データがサーバーに投げ入れられます。そのデータを使って、我々は準備作業に入ります。そのデータは、VFXルームと書いてありますが、オンライン編集の部屋です。ここのオンライン編集の人たちも、ここの編集データに従って、オンライン画質の映像データの編集加工をしています。ここで映像が出来上がると、我々はMAで使うワーク用の映像データを作ってもらいます。HDのムービーなのですが、作ってもらいます。我々はワーク映像を基に、MAをします。終わると、その音声ファイルをサーバーを経由してオンライン編集室に渡す、という流れです。

音声ファイルを渡すだけです。もう少しだけ具体的に説明しておくと、Avidから映像データ。Avid編集室はHDではないAvidを使っているのでNTSCのAvidコーデックなのですけども。NTSCの映像データと共に、音声に関しては48KHz24bitということでオンラインでそのまま使える形での編集データをAAFデータで貰っています。それをサーバーを経由して貰ってProToolsで作業しています。モーションSDIというものを使っておりまして、Avidの映像データをそのまま再生できるので、Pro Tools上でNTSCではありますがワーク映像付きで音の編集作業ができる、ということをうちの準備室でやっています。最近スピーカーも設置して。センタースピーカーとLR、あと写っていないところに一応リアスピーカーもあります(苦笑)。ProToolsでAvidから貰った映像データがそのテレビモニターに映っているという環境でやっています。上がってきた編集データから、整音、いわゆる台詞のならしをしますが、ここではオートメーションを書く形にしています。(音声データを)綺麗に作って、ファイルにてMAの部屋に持っていくというのではなく、ここではオートメーションだけにしています。 出力バスはミックスするときにやりやすいようにということで4系統に分けています。というのは、MAの部屋でやっぱりここの台詞のトーンはもう少しなど思ったときに、ファイルになってしまっているよりもオートメーションデータだったらイコライザーのオートメーションをもう少し上げるなど、オートメーション上で直せるので、オートメーションデータとして整音作業をするというやり方にしています。

その準備作業が終わりますとMAの部屋、NHKのCD-809というサラウンド対応のMAスタジオでProToolsからマスターDAWとしているFairlight社のCC-1というDAWにも、保険のためにそこにデータを吐き出しておきます。

効果音素材は、NUENDOで
SEは、音響デザインスタッフがNuendoを持ち込んでいます。SE素材を、主にステレオなんですけども出力し、卓側で何かしらの加工をしてもう一台のNuendoにミックスしやすいようにSEやフォーリーをまとめていくという形にしています。CC-1に先ほど流し込んでおいたナレーションや台詞関係、それからNuendoの一台目で深田Mixの音楽。それから卓を通して加工して作ったSEというのを音卓側でミックスします。その結果として、ミックス、ダウンミックス、ステムと一応色々録っていますが、重要なのはミックスとダウンミックスが同時に録っていますということです。 ミックスデータはまたサーバーを経由してオンライン編集の部屋に渡し、そこに貼り付けて、最後にオンエア用のVTRのテープに吐き出して完成です。

今回こだわったのはステレオで聴いている人と、衛星ハイビジョンは5.1chで放送していますけども、それを家のテレビ、モニター環境はステレオもしくはテレビのスピーカーというステレオで聴いた人、それから総合テレビ、衛星第2放送、もともとステレオ放送しているものを聞いた人とで完全に同じミックスを提供しましょうと。BSハイビジョンの分だけサラウンドで作っているのだから、サラウンド用のミックスをして、総合用にステレオ、というようにはしていないという事です。そのためにはどうするかというと、スタジオ側でも衛星ハイビジョンを受信したテレビがテレビ側でダウンミックスをしている。そのダウンミックスと同じようにスタジオ側でもダウンミックスをして、それをスタジオからのステレオのアウトだというようにすることになります。

今日見ていただいたのは、BSハイビジョンの放送の録画なのですが、DVDとBlu‐rayが発売されています。
今日現在も、石川県でロケをしていますけれども、この後ですね、今年の11月中旬・下旬の函館市のロケまで、まだロケをします。最後が北海道・函館市のロケですね。そのちょっと前に今回の舞台の中心になっている愛媛県松山市にもロケに行きますけれども。今年の11月なので結局、2007年の11月から始めて3年間ロケをします。今年の分の放送予定ですけれども、いま見てもらった5話の後、6話から9話までを12月5日の日曜日から4週連続。で、残り10話から13話は、来年の12月の放送となっております。

サラウンドの音声表現
野原:どういう風に考えてサラウンドを作ったのかをお話したいと思います。キーになるという何かアピールしたいところを出来るだけサラウンド的な効果を狙ったりサラウンド表現にするという形にして、他はリアスピーカーが全く鳴ってない時間が相当あります。音楽は5.1chでリアも使った形のミックスになっているので、音楽があればリアは鳴るんですが、リアスピーカーを実は積極的には使っていないと言われてしまうかも知れない作り方をしました。

[Q&A]
Q:ステレオで作る分、サラウンドで作る分というのは、素材はステレオだとして、プランニングというかそのストーリーの中のここっていうのは事前に打ち合わされて、この部分はサラウンドで構成しようとかステレオで構成しようっていうのはどのタイミングでプランニングされたんでしょうか?
A:オフライン編集が上がりました、で我々がその映像の編集データを受け取って音響効果のほうでも受け取ってそれぞれが見て検討します。編集データが届いて一週間経ったか経ってないか位ですかね。

Q:ロケ中に、ここはもうサラウンドだよねっていうところは、サラウンドマイクで収録しましたか?
A:ロケでサラウンドで録ってきたのは1カットもないです。これ例えば上の写真、ロシアのサンクトペテルブルグ、昔の首都だったところで、日本で言えば京都の市街地の、これ博物館になってる所なのですが、ど真ん中でもう車ばんばんです。でその右のイギリスのシーンでもこの絵の、写真の右側にパンするともう国道みたいのが通っていて、全然あの当時の音としては使えない環境ばかりなんでだいたいが。日本国内でやったロケもそうですけど、今日ロケに行っている石川県の小松市の戦艦三笠のオープンセット、戦艦を作ってるセットがあるのですが、そこは別に海沿いじゃない、すぐ脇が山になっていて、なんかテーマパークになっていて、遊園地みたいなとこに立っているオープンセットでサラウンドで録っても使えないので、現場ではとにかく台詞、アクションノイズみたいのを録る事に専念しているってのが実際です。

Q:それではアフレコも大変ですか?
A:アフレコはあんまりやりたくないけれど、多少やってます。

Q:BSハイビジョンで受信された方がステレオでしか聞こえなかった場合はLFEが聞こえないですよね、ステレオミックスはLFEを入れた状態でのステレオミックスなんですか?
A:いえ、入れてないです。

Q:それでは5.1(ch)を聴いた人だけが聴こえる音というのが存在しますか?
A:そうですね、ええもちろん普通のフロントのスピーカーでロー(低音)の成分出して、おまけでLFEで音が鳴っているっていう作り方にしてます。
隠し味程度に。サラウンドで見た人だけがちょっと得する的な扱いになってますね。

Q:足音みたいなのがそうとう低音感あって聴こえたのはあれは普通のチャンネルに入っている低音を聴いてるってことですか?
A:そうです。足音でLFEに送ったのは一個もないので、多めの足音そのままフロントのスピーカーが再現してるという事です。

Q:サラウンドと映像の話も含めてなんですが、これが第5回目の放送という事なんですが、例えばターニングポイントとなるシーンでサラウンドを使うという、演出としてサラウンドを使うとなった場合に、映像を撮る方とか映像をメインに演出される方にとってフィードバック的な事はあったりするんでしょうか?
A:実はあんまりしていません。サラウンドの音場だけにこだわるとあんまりカットバックして欲しくない訳ですよね。右後ろで鳴ってたものがカットバックされると、えっと次はって言ってカットごとに変えなきゃいけないのかそのまま放置していいのかって悩む事になるんで、でもまぁそれで縛ることもないかという話を音声チームの中でしてまして、それに対してどうこう言う事はなく、映像上の都合でどうぞ切り返してお好きに撮ってくださいと。後から一緒に考えましょうっていう感じで撮ってましたね。今日見なかった、ロシアで舞踏会シーンがあったんですけども、これはサラウンド的な表現にしたいねってことで。今のテレビドラマでいうとあんまりそういう撮り方はしないですね。

Q:Quick TimeはHDの新しいフォーマットですか?
A:フォーマットを比較したのですが、H.264とそれからAVC、いやDVCProHDとか比較したんですけども、さっき(言ったように)フェアライト社CA1というDAWを使ってこのワーク映像を再生しているのですが、CPU負荷が重くなりがちなのですね。結局、一番軽かったのはjpegだったんで、jpegでその分ビットレートをたくさんとっちゃえばいいじゃないと。ビットレートをたくさんとっても、ハードディスクのコントロールとCPU計算の問題は別なので、ハードディスクの速度さえ追いついていれば、ビットレート高くして計算は簡単なほうがCPU、システム全体の負荷が低かったので、結果、jpegにしました。



Q:NHKのピーク規定について教えて下さい。
A:ピークの方はフルビットから-6dBというところがピークのリミットです。NHKの基準レベルが-18dB、フルビットから-18dBのところが0VUっていう規定になっています。でダウンミックスと両方経験ある方は分かると思うのですが、このダウンミックスの係数でハードセンターに置いている台詞、ナレーションを、ナレーションはトーンが安定しているのでいいのですが、例えば絶叫の台詞とかで、VU計でレッドゾーンにちょっと行った+3dBだっていうところまでいくっていうと、5.1chMIXだと振り切ってしまいます。テレビの業界でサラウンドを作るときには、ダイバージェンスをする事が多いので、レベルを5.1chのほうで振り切らない。ステレオにダウンミックスの方でVUもほどほどにという妥協というか、作り方でダイバージェンスをして、VUの振れ具合を稼ぐというか、実際には音圧を稼いでいます。

Q:スタジオでは5.1chも一応VUも見られて。5.1chのピークと、ダウンミックスのピークを見ていたのですか?
A:両方見て、モニターもそうですし、メーターも両方見ながら、要するに妥協を。実際、今回の台詞でハードセンターをメインにしているのですけれど、ナレーションもほぼ一緒ですけれど、-10dBにしたぐらいのレベルのものがLRで鳴っています。フロントのLRのスピーカーの側で聞かれたかたは「ずっと鳴っているな」と思ったと思いますけれど。

Q:ミックスしているときのモニターは主にサラウンドで聞かれていて、ダウンミックスのステレオとの整合性って結構悩まれるところだと思うのですけれど、どんなところで折り合いをつけられているのかなと。
A:SEを作ったりとか、音を作っている作業のときは、ほとんど5.1chしか聞いていなかったですね。ファイナルミックスのときは大体ダウンミックスを聞いて、バランスをとって、ある程度バランスが録れたところでサラウンドで通して聞いて修正するといった方法です。

Q:ミックスのときのSPLのレベルはどれぐらいですか?
A:78dBです。

Q:メーターの規定を守るためのリミッターは5.1chで挿入と書いてあるのですけれど、このリミッターはどのようなものを使っていますか。
A:マスターにSYSTEM6000のブリックウォールリミッターを入れました。あれが一番、結局キレイに止まってくれました。

Q:マスターバスにリミッター通して、ステムにもそれはかかっているのですか。
A:ステムは一応フルビットを超えすぎないように、ステムの系統のバスのあとにマスターバスに行っているので、ステムの領域でフルビット超えすぎない程度にリミッターを入れたあと、5.1のマスターバスに入れています

沢口:他の回もサラウンドデザインで参考になるシーンがあれば、再生してみてください。

<プレイバック>

野原:今見てもらった陸戦のシーンも海戦のシーンも、さっき私の図で説明したような、コンソールを通してパンを決めてステレオ素材入れていってるだけでなく銃弾が右後ろ、左上通るとかいうパンはNuendoのパンのオートメーションで作ってます。

Q:リバーブの処理とか色々工夫されたところとか、さっきの象徴的な耳が聞こえない、心の中の描写のところとか色々工夫されてるな、と思ったんですけど。
A:(人物が)撃たれました。で、耳が聞こえなくてみんな耳鳴りみたいなキーンという音も、元々の音としてステレオだったものも定位として真ん中にして、あとサラウンドリバーブで他にも、で多少動かして、というふうにやっていったのと、あと生音、足音とかだけは聞こえます。で、それが、それもそれにもサラウンドリバーブ足していって、ていう感じです。

Q:サラウンドの素材っていうのは今後ライブラリー化を考えていますか?
A:音響デザインの部署では定期的に、サラウンドのロケっていうのをやっていて、素材は増やしていく予定です...

Q:音響効果の人が割とこういうビジョンを持っていて心理的にこうしたいということを伝えてそれが反映されることもありますか?
A:あのシーンの足音と豆を踏んじゃってつぶれる音は、音響効果担当がこのシーンはそういうふうにしたいから象徴的な足音にしたいし象徴的な豆の殻が割れる音にしたいのでどうやって録ろうと相談されて録音し、それをプレゼンテーションをして、演出はこれでいこうっていうことで、この方向になっています。

沢口:3年間という長期の制作に関わる機会は,大変貴重だと思います。またトータルテープレスを制作フローに導入するなどのエンジニアリングも実現までは,地道な努力をされたことと思います。みなさんも今年の12月の放送をどうぞ楽しみにしてください。今日は、野原さんどうもありがとうございました(一同拍手)

[ 関連リンク ]
「坂の上の雲」公式サイト

「サラウンド寺子屋報告」 Index にもどる
「サラウンド入門」は実践的な解説書です

No comments:

Post a Comment