ネットワーク・レイテンシーと音楽

Ustream 上でのセッションやガジェ音等のイベントを通して感じたのは,ネットワークを介した音楽コラボレーションというのはどの程度のことまでが可能なのか,という疑問だった。それを既に研究している人は沢山いるはずだから,調べてみれば何か得られるものがあるだろうとも考えていた。

例えば,スタンフォード大学CCRMA (Center for Computer Research in Music and Acoustics) の SoundWIRE 研究室などは,ネットワークを介した音楽コラボレーションに関して研究を行っているグループのひとつとして挙げることができる。

ネットワーク上で音楽コラボレーションを行うにあたって,最も大きな問題として現れるのは,「レイテンシーによるタイミングのずれ」だと思う。この問題のせいで,遠隔地の演奏者の間でリアルタイム性を保ちつつ「同じ音楽」を共有することが難しくなっている。

この問題への対策には,いくつかのパターンがあるように思われる。

レイテンシーに合わせて BPM を設定する

あらかじめレイテンシーの大きさを特定できる場合は,そのレイテンシーから「きりのいい BPM」算出し,その BPM で演奏を行うという方法が考えられる。例えば 2008 年の Stanford Pan-Asian Music Festival において行われたコンサート Pacific Rim of Wire においては,この方法がとられた。

会場となったスタンフォードと北京の間には 6,000 マイルもの距離がある。その間に構築された IPv6 ネットワーク上の JackTrip 接続には約 220 ms のラウンドトリップタイムがあったという。そこから 60/0.222 = 272.73 という最適 BPM を算出した。この BPM を使用することで,レイテンシーはあれどもリズム感は保たれる,という状態を作り出すことができる。下図は,スタンフォードにおいて聴かれる演奏と,北京において聴かれる演奏の関係性を表している。


レイテンシーをきりのいい長さに延ばす

Pacific Rim of Wire で用いられた方法が「音楽をレイテンシーに合わせる」手法だとすれば,こちらは「レイテンシーを音楽に合わせる」手法と言える。レイテンシーを1小節ないしは2小節などの長時間(3〜4秒)に延ばし,それぞれのホストにおいて小節の始まるタイミングを同期させるようにする。すると,それぞれのホストにおいて聴かれる演奏は小節単位でのずれが発生しているものの,音楽的な構造は保たれているという状態になる。小学校の音楽授業でやった輪唱のようなものを思い浮かべてみると,分かりやすいと思う。

NINJAM は,この方法を利用したネットワークセッション用のサーバー・クライアントソフトウェアだ。サンプルのページにある録音を聴いてみると,これがかなり上手く機能していることが分かる。従来的な音楽との適合性で言うならば,この手法が最も無難であり,音楽構造を保ちやすいものだと言えると思う。

レイテンシーを音響として取り込む

これは個人的に最も過激な方法だと思う。

ネットワークを介さないセッションにおいても,物理的な距離が離れていればレイテンシーは発生する(距離 340m あたり 1 秒の遅延)。また,その周辺の環境によって,音の反響やこもりのような音響効果が発生する。ネットワークを介することによって発生するレイテンシーや,フィードバックによって生じてしまうエコーなども,結局はそういった音響効果の一種として考えられるのかもしれない。

それならば,むしろその音響効果を上手に使う方向性というのを考えてみよう。「ネットワークの持つ音の響き」を音楽的要素として取り込む方法を考えてみよう ― そうした試みを行っている研究者が一部に存在するようだ。

僕個人としては,この方向性にメリットを見いだすことができないのだけれど, SoundWIRE においては既に様々な試みがなされている。興味があれば論文動画を覗いてみるといいと思う。