イベント

IAMAS DSPコースプロジェクト展「ぐらぐら」

March 22, 2010

Shinobu Toma ? Ghost in the Space

Kazuomi Eshima ? Remind

Kei Shiratori ? twist suburbia

Daichi Misawa ? Skies

Leo Kikuchi ? Landscape in my Arms

Kaori Takemoto ? Hunter-gatherer Colorist

Kanna Komaki ? Utopian Babble

Jane Rigler − IAMASレクチャー

November 30, 2009

フルート奏者と作曲家のJane Rigler氏が先週の金曜日にIAMASでレクチャーとパフォーマンスを行いました。彼女はソロモン諸島などの民族音楽がどういうふうに自身の作曲と演奏法に影響を及ぼしたかについて話を聞かせて下さいました。また、ライブ・パフォーマンスで使用するMaxパッチを見せて頂きました。最後に身体障害や認知障害を抱えている子供が音楽演奏を楽しめるシステム、「Music Cre8tor」を紹介しました。

Jane and I, providing the Japanese translation
リグラー氏と通訳中の私

DSC_0015-small

写真撮影:河村陽介

動画の可聴化@慶應義塾大学Open Research Forum 2009

November 25, 2009

「PictureSynth」以外にも、今年のORFで私が所属している研究室「サイバーサウンドプロジェクト」のブースで、動画の可聴化についての展示もさせて頂きました。この研究について既に紹介ページを作りましたので、興味がある方はこちらをご覧になってください。

PictureSynth@慶應義塾大学SFC Open Research Forum 2009

2009年11月23・24日に六本木ヒルズのアカデミーヒルズ40で開催された「慶應義塾大学SFC Open Research Forum 2009」が無事に閉幕しました。

私は、湘南藤沢学会のコーナーで、最新のプロジェクトの「PictureSynth」を披露しました。「PictureSynth」とは、写真と音楽を融合した作品です。最近、Brian Enoの「Bloom」や「Trope」で話題になっているジェネレーティブ・ミュージックのiPhoneアプリと似ているプロジェクトですが、「PictureSynth」では、タッチなどによるユーザー・インタラクションではなく、体験者が写真を撮る事によって音楽が変わる仕組みになっています。例えば、リズミカルな雰囲気にしたい時に、整列された模様を写します。

PhotoSynthKeyboard

ぼやけた写真を撮れば、音楽がそれに合わせてよりアンビエントな曲に変身します。ベーズになる曲は予め作曲家(私)に用意されていますので、写真ごとに全く新しい曲が生まれるというよりも、既存の曲の一つのバリエーションが生成されます。ジャズの様に、作曲家が曲の骨組みを決めて、演奏家が即興で無数の異なるバージョンを実現させるに近い訳です。

写真で音楽を作る事はいうまでも無く非常に恣意的な行為ですが、その方法を応用した理由がちゃんとあります。曲の決められていない部分を偶然に委ねるより、自然ならではの秩序された複雑さに委ねた方が豊富な種類のバリエーションを生み出します。そして、操作する人間が音楽の特徴と写真の特徴の関連性を認識する事ができますから、面白い音楽が出たら、また同じような写真を撮ってその体験を再現しようという楽しみもあります。

今回のデモで、時にブルースっぽい、時にインドっぽい曲を用意しました。以下のトラックは23日の夕方に特に気に入ったパターンが出た時に録音しました。

[soundcloud]http://soundcloud.com/jmpelletier/photosynth-orf2009[/soundcloud]

IAMASオープンハウス 2009

August 1, 2009

International Computer Music Conference 2009

July 24, 2009

2009年8月16-21日 マギル大学、モントリオール(カナダ)

「Perceptually Motivated Sonification of Moving Images」という論文を発表する予定。動画の可聴化についての論文ですので音と動画のサンプルも体験できる。

ICMC 2009の公式サイト

OpenCV and Computer Vision in Art Workshop

2009年4月28日 ソンシル大学、ソウル(韓国)

4時間程のワークショップで、画像解析が芸術に於いてどういう風に利用されてきたか、歴史的な観点を紹介した後にOpenCVライブラリーの基礎的な使い方に移った。

Soongsil2009

このワークショップは、IAMASのDSPコースとソンシル大学のBK21 Media Divisionが共催となったHome Partyというイベントの催しだった。

Les Journ?es de l’Infomatique Musicale 2009 (JIM ’09)

2009年4月1-3日 Phelma、グルノーブル(フランス)

JIMはフランス・コンピュータ・音楽協会(AFIM)が毎年指揮する会議で、2009年にグルノーブルにある研究所、ACROEによって開催された。 動画の可聴化についての論文発表と口頭発表を行った。

JIM2009-Minatec

会議の公式サイト

Computer Vision and Interactive Art with Jitter Workshop

2009年3月25-27 ミラノ新美術アカデミー(NABA)、ミラノ(イタリア)

デジタル環境デザイン修士の為に行った3日間の集中ワークショプだった。Jitterとcv.jitを使って画像解析とインタラクティブ・アートの基礎を紹介した。

NABA2009-cafe

NIME2008ルポ(3)コンサート

June 23, 2008

NIME2008は例年通り、コンサート・ホールで行われるコンサートとクラブ・イベントが開催されました。それに加えて、レストランで行われたのはカフェNIMEというイベントでした。残念ながら時差ぼけのせいでクラブ・イベントを訪れられなかったのですが他のコンサートのいくつかの作品を紹介したいと思います。

オープニング・コンサート

第1ルポでも書きましたがオープニング・コンサートはCasa Paganiniの旧礼拝堂で行われました。イタリアの作曲家による作品とイタリアのコンクールの入賞作品が発表されました。

「Mappe per Affetti Erranti」というインスタレーションをアレンジしてライブ・パフォーマンスとして発表されました。インスタレーションのコンセプトは体験者が空間を歩いて体を動かす事によって音楽作品を「探検」する事です。具体的に説明すると、体験場所(Casa Paganiniの礼拝堂のステージ)の空間が幾つかの見えないゾーンで区切られています。それぞれのゾーンに音楽のパートが割り当てられていて体験者またはパフォーマーがあるゾーンに入ったら該当するパートが再生されます。空間に入っている人の動きがEyesWebで分析され、動きが表している感情が評価されます。その評価によってパートの再生が影響されます。複数の人が同時に空間に入って踊れば多声の既存の作品がリアルタイムで再構築される事になります。インスタレーションの時はジョン・ダウランドの歌が使われたそうですが、コンサートではバッハの聖歌でした。

コンサート作品はインスタレーションと違ってパフォーマーが自由に、即興的に踊っていたのではなくGiovanni Di ?Ciccoによる振り付けでした。タイトルはシェークスピアのリア王の引用で安西徹雄の訳で「弓は引き絞られておる」となっています。リア王が娘のコーディリアを勘当した際放った怒りの言葉です。音楽を再構築再編集することによってリア王の狂気を表しているそうです。

歌がこの作品の素材となった理由は礼拝堂の音響を作品の一部として取り入れたかったそうです。確かに生の声も録音された歌でも礼拝堂の響きに非常に良く合うのです。「ホールは楽器」というのはヨーロッパの声楽界で、ある意味で当然な意識です。教会や礼拝堂は人間の声を聞きやすく奇麗に強調する為に作られ、聖歌もまた教会の響きを最大限生かす為に作曲され演奏されます。ヴィヴァルディのスターバト・マーテルを中世時代の教会で聴いた事がありますが、伴奏の弦楽器のパートが長いリバーブにあまり良くない風にぼやかされていましたのに対してカウンターテナーの声と教会の響きの融合は泣くほど美しかったです。

「The Bow is Bent and Drawn」の最大の問題点はやはりインテラクションにありました。プログラム・ノートを読まなくても音楽がダンスによって制御されている事が誰にもわかるでしょう。ダンサーが一人でステージに立ったら声部が一つ聴こえて、もう一人が登場すればもう一つの声が聴こえてきます。そう言った単純な関係には問題がないと思います。逆に単純だからこそ良いのです。問題になっているのは高度な分析と動きの評価です。心理学や舞踊理論に基づいて比較的高度なアルゴリズムを用いて人の感情や感性といった非常に曖昧且つ複雑な現象を評価して、その情報を基にまた高度なレベルで音楽をコントロールしようとしていますが、客席から観れば音楽とダンスは全くニュアンスのない繋がりでした。ダンサーが断続的な動きをすればCDがスキップするように音楽が断片的に再生されます。滑らかな動きになれば再生も直線的になります。もっと複雑な関係を見いだそうとしましたがやはり無理でした。

Pascal Baltazar – Pyrogenesis

この作品は純粋なフランス流ミュージック・コンクレットだといっていいでしょう。僕が大学時代学んだスタイルですのでちょっと懐かしかったです。一般的にこのような作品は絵画や彫刻のようにスタジオで作り上げるものです。コンサートではスピーカ・オーケストラというサラウンド環境で固定された作品が再生されます。「演奏」とはスペーシャライゼーション(空間化)といって音をサラウンド空間内で動かす事です。しかしBaltazarさんはタブレットなどを使ってそのばで音を作っています。本来ない即興の要素を取り入れましたが、肝心の音の質は固定された音楽に近くてしかも全体の構造がしっかりとしていました。上出来。ここにビデオがありますがNIMEのライブの迫力があまり伝わらないような気がします。

Martin MessierとJacques Poulin-Denis – The Pencil Project

モントリオールの二人組による演出にこだわったパフォーマンスです。二人が勉強机の前に座って向かい合って紙に書いて、鉛筆の芯の音がコンタクト・マイクロホーンで録ってその音が処理されます。計算機に見せかけたコントローラもあってユーモアのある作品でした。半分ジョークですが、それがとてもモントリオールらしくて、ただのジョークではなくて日常の中の非日常性を表現していると思います。退屈から解放を求めて幻想的な音の夢を演出してくれました。記録映像はこちら

美山 千香士 – Keo

おそらく最も熱い拍手をいただいたのは美山さんのKeoでした。彼が使うインターフェイス、Qgoはそれほどすごいものだと思いません。ジャイロセンサー、赤外線距離センサーやボタンを搭載する2枚のコントローラです。ぎりぎり手で持てるサイズです。Wiiリモコンには同じような機能がありますが、Qgoの手作り感が作品に合うと思いました。しかし拍手の理由はさすがにコントローラではなくて熱いパフォーマンスでした。他のパフォーマンスで感じなかったエネルギーが美山さんから観客に伝わりました。舞台に立つならこの情熱が必要だなと思いました。こちらに映像が見られますが生じゃなければエネルギーが伝わりません。

MoPhO

MoPhOはMobile Phone Orchestraの略です。(声を出して読むとスラングのMo-foにも聞こえます。)携帯電話を楽器として使うスタンフォード大学のCCRMAのプロジェクトです。NIMEでは4つの小曲が演奏されました:Ge WangのDrone In/Drone Out、Georg EsslのTamaG、Jeff CooperとHenri PenttinenのThe Phones of FuryそしてGe WangのChatter。音の出力はすべて電話のスピーカーでした。それが結局最もいい点だと思いました。電子音楽では出力が殆どの場合スピーカーで全ての作品がそのスピーカーの音に染められてしまいます。エレキギターであればプレーヤーがアンプにかなりこだわるのが当然ですがコンピュータ音楽などでこのようなこだわりはあまり見られないのです。携帯電話の音はしょぼいけれど個性があります。携帯を使っている時点でユーモラスな要素は避けられませんがThe Pencil Projectのように、そのユーモアで何かを表現する事もできず美山さんのような熱気も全く感じられませんでした。

Jane Rigle ? Traces/Huellas

こちらのパフォーマンスはカフェNIMEで発表されました。会場の彼女のMySpaceピージ24分音フルートを使った作品はかなりトランス状態になりそうです。2009年にアーティストインレジデンスで来日するそうです。

pasta1

garibaldi1