XでANUNA(作曲家のmichael mcglynnさん)が、flyawayをいいねしてリツイートして下さいました。
うれしや〜〜(≧▽≦)
みなさんありがとうございます!
メジャーにいた当時、barfoutっていう雑誌にインタビュー受けた事がありました。
「デジタルとアナログの融合」みたいな話になった気がします(うろ覚え)。
当時は、デスクトップミュージックが本格的になってきた時代でした。
バンドブームが終わってサンプラーが出てきて、みんな「サウンド&レコーディング」片手に作曲する、みたいな。
でもこれ、どうやってライブで表現するの?っていうのが大きな課題でした。
ビョークとかboom boom satelitesとか、色んな素晴らしいアーティストが人生かけて追求してきたと思います。
私もライブでサンプラー仕込んたり、映像流したりしましたが、
やはりプレイヤーの生の音と、デジタルで準備した音がステージで同時に鳴ると、
どーーしたって生の音の方が強く出るし、何より準備ばっかりで孤独だし、やってて飽きるのでした(笑)。
あれから20年くらい経って、今回のflyawayは
「私が出来るデジタルとアナログの融合」としては一旦の「最適解」が出せたかなと思いました。
ぶっちゃけ、めちゃくちゃPCでエディットしています。
本当は合唱なんだから、ホールでみんなで一発録音ってのが普通だけど、
ピアノだって音源だし、合唱なのに1人ずつ録って、音程もリズムもボリュームも直しました。
あんまり直したらボカロと変わらなくなるじゃんっていう、ギリギリのライン。
でも多分ボカロ8本立てても、今回のようには出来ないと思う。
じゃぁそのギリギリのラインはどこだったのか。
曲への愛情や、思いっきり歌いたい!という歌心、
あとは他のメンバーの歌への敬意、
だったなぁと思います。
まぁやってみたら「そうだったかも」っていう感想です。
メンバーですでに何度か練習し、演奏会を教会で行なえていたのが反映されていたのかも。
この曲はここで盛り上がるんだ!みたいなものが共有出来ていたし、
練習回数があった時点で曲への愛着が沸いたと思います。
また、普段から「この人はブレスマスター」のように、メンバー内で主軸となる人を決めてあるのも反映されてたかも。
これは比較してみないと分からないとこです。
プロは初見で8割完璧を出せちゃうので、
そんなプロが8人集まって、それぞれ一発録音したのと、
すでに練習を終えたグループを一人一人録音したのでは、
どのくらいの温度感の差が出るんだろうか。
そこ抽出したいところだなー。
興味深い。
(しつこく猫!)
最初の「じゃぁライブどーすんだ」って話に戻るんですが。
その「抽出したい所」が存分に出てくれれば失敗しててもいっかな、と思ってます。
ま、うまいに越したことないですが。
台湾アーティストの「シカーダ」ってグループのコンサートを聞きましたが、
ピアノの音とかバイオリンの音とかに、高音低音分けて、
シアターミュージックばりの尋常でない深いリバーブをPAでかけてました。
クリックや、映像の決められた尺に「パフォーマンス」が合わせるんじゃなくて、
「パフォーマンス」は自由にやってるのを、
PAとかVJとか、デジタル技術の方がリアルタイムにがサポートして、
まるで映画館のようにな空間にする。
演奏者は演奏に没頭する。
うーん。理想的!
めっちゃ金かかります!笑)
とにかく、歌ごころを消したくないです。
デジタルとアナログの融合を極めるにあたって、
「歌ごころがなんなのか?」を追求する必要があると思います。
デジタルに、歌ごころを合わせるんじゃなくて、
歌ごころに合わせて、デジタルが演出サポートするのが理想だと思います。
そんな感じで、20年くらいかけてよーやっとある程度の結論が出たかなー、と思いました。
まだまだ、まーだまだ実験していく事はあるのですが。
て、思ってたらですね。
長男が大学のAO入試の真っ最中ですが、
彼の論文の軸は「AIとアートの可能性」なようです。
アートがAIに侵略されるのではなく、
AIがあるから新たなアート表現が生まれるし、
誰もがAIを通してアート表現できる世界を実現するんだ!
みたいな生意気な事を書いてました。
私は「デジタルとアナログ」ってテーマでしたが、
彼は「AIと人間」ってテーマなのかもしれません。
やれやれ、同じようなテーマを一歩進めばまた一歩と。
なんか事態はどんどん深刻になってる気もするけど・・(- -)
これも、
AIに人間が合わせんじゃなくて、
人間が歩くのにAIが技術サポートする、ってのが
解だと思うけどね〜。
人間がゾンビになっちゃいかんよ。
とはいえ、それを追求するのは息子世代なので。
頑張っていただきたいと思います。笑