Tuesday, May 01, 2007

ここ数日、圧縮率を上げてはアップロードし、モノラルに変換されているのを確認しては削除し、また圧縮率を上げてはアップロードしを繰り返しています。少々疲れました。
YouTubeはアップロード時、「ステレオであることを優先して映像の質を落とすか?」というチェックボックスを是非つけるべきだと思います。私は間違いなくチェックを入れます。
というわけで、未だにYouTubeには新宿のデモが上げられずにいます。音質はMP3/128bps未満には落としたくないので、どうしてもここをこだわると画質を落として行かざるを得ません。
痛し痒しです。
しかしながら、ニコニコ動画に上げた方は意外に好評みたいで、たまに覗いてはコメントを読むのが楽しみになっています。
あちらにコメントしたくなる気持ちをぐっとこらえてこちらに書きますが、「音が前で聞こえない」という書き込みを見ました。実は、前に音が回ってこないというのはよくあることです。前方定位というのは方式を問わず昔からいろいろと試行錯誤が行われてきたという歴史もあります。
有名なホロフォニクスに於いてすら、前方定位は完全なものではありません。こと日本人などのアジア人では前方の音が認識できなくなるケースが多かったと聞いています(自動車やロケットカーが通過する時などに顕著)。
理由の一つは頭部形状にあります。人間が音を認識する際、バイノーラルでも言われている通り、頭部形状を音声加工用のフィルタとして用いています。これが前方の音になると、音波が耳介に到達するまでの頭部形状が左右対象形になるために、ほぼ同じ加工が行われるため、音が前方で鳴っているのか頭内で鳴っているのかが区別しづらくなるという現象が起こります。
これを補うために人間は視覚を補助に用い、前方に見えているものと前方で鳴っているかもしれない音声を結びつけ、前方定位を行っている傾向があります。
無論それは一面的な見方で、otophonicsでもこれとは異なる方向(音波干渉の利用)で前方定位を学習によって意識しやすくなるような加工を施しています。
いずれにしても、頭部や耳介の形状が録音に用いているユニットと大きく異なる場合、脳がこちらのユニットの頭部形状を把握するまでは定位が曖昧になることは充分に考えられることです。
従って、otophonicsCDであれば解説を読みながらイメージすることで。また動画デモであれば動画を注意深く見ながら前方の映像と音を結びつけるようにイメージすることで、比較的速く学習を行うことができ、脳のモードを切り替えやすくすることができます。
興味のある方はぜひお試しください。

なお、ウェブ経由ではデモできないのが残念ですが、Experience Equalizerによる動画を見れば、それは映像が立体になっていますので、より速く的確に定位の把握ができます。

No comments: