ここから本文です

メンバーに人工生命!? --「SjQ++」映像と音楽が融合したパフォーマンスの裏側

SENSORS 5月16日(月)12時30分配信

人間とプログラムがセッションするプロジェクト「SjQ++」。生演奏に反応し、背景の映像と音が変化。予測不可能な音と映像が融合したライブパフォーマンスを行っている。 リーダー魚住勇太氏、映像作家の神田竜氏にSJQ++のコンセプトや未来について伺った。

パフォーマンスの特徴はひとつひとつのエージェント(人工生命)が音と映像を奏でる仕組み。それぞれ違う音と個性を持っている。 エージェント同士がコミュニケーションすることで、音が奏でられる。その仕組みとは。

映像が連動することで、演奏する時のコミュニケーションが密になり、お客さんとも共有できる

魚住:SjQ++は、一言で言うと音と映像の織物です。音が出たときに反応する映像が反応して動いたときに、また音が反応するという形、つまり生地で言うと縦糸と横糸のお互いが反応しあうことで分けることができないパフォーマンスが生まれます。どちらも個別には存在しているんですが、音と画、音と画というように交互にピースが並んでいて、それがずっと伝言ゲームのように伝播していくのです。

--編成としてはどのようになっているのでしょうか?

魚住:キーボードが魚住勇太で、トロンボーンが米子匡司、ドラムがアサダワタル、ギターがナカガイトイサオで ベースが大谷シュウヘイ。で映像で神田竜、六人ですね。そして、マルチエージェントシステム。 マルチエージェントシステムとはコンピューターシステムの方法論にのっとっています。
一つのAIがすごく賢くふるまうというのではなく、 小さな複数のプログラムがシンプルなルールにのっとってそれ同士が反応したりする結果、問題を解決したりするシステムです。この方法論に思想的な影響を受けていて、全部がうまく回りだしたとき、あるタイミングでパターンが出てきて、それがリズムになったりするという仕組みなんです。 例えば僕が使用する【GISMO(ギズモ)】という、音を与えた単純な動きをするプログラムが最初ふらふら歩いていて、相手を見ると追いかけて行って食べようとしたり逃げたりというような簡単なやり取りを再現しているソフトウェアがあります。そこのパラメーターをうまく設定してあげるとリズムが作り出せます。いわば、音の情報を持っているミジンコをドンドン放り込んだりとか、抜いたりして生き物たちの様相をコントロールしていく結果、何か音楽が出てくるというイメージですね。

--SjQ++で使われているマルチエージェントシステムは、魚住さんが作られたのでしょうか?

魚住:もともと僕が先ほどのGISMOと呼ばれる音のマルチエージェントシステムを作りました。 SjQ++ではそのシステムを発展させたものを使っています。 恵比寿映像祭の公演で使っているマルチエージェントシステムは音の部分が僕、 映像の部分は神田君が作っていて【PHONICELL(フォニセル)】と呼んでいます。 パソコンを使って演奏する場合マウスとキーボードだけでできることは非常に限られているんですが、音を与えたミジンコのようなものの反応からリズムが出来てくる。それを神様からのような視点で微生物を抜いたりとか、全体の流れを作用しながら演奏していくというところができたらいいなと思い作りました。

1/3ページ

最終更新:5月16日(月)12時30分

SENSORS