真鍋大度さんが率いるライゾマティックス
によるデジタルアートの演出が有名だ。
個人的には、河口洋一郎さんなどの世代から、
CG アートやデジタルアートには
興味を持っていている。
残念ながら Perfume のライブを
生で見たことはないのだが、
最近だと、チームラボのボーダレスは
何度か見に行っているし、
プロジェクション・マッピングも大好きだ。
リアルとサイバーのインタラクション
という点は、まだまだ今後の発展の余地は大きい
と感じているので、
ライゾマティックスの HP にも書かれているように、
今回の事態が、新しい遠隔ライブの形を
考えたり、試したりするきっかけになると良いと思う。
Perfume についていえば、
3D スキャンはもう使っているので、
サイバー空間で3人を
精緻に生成することはできる。
問題はそこで何をするかだが、
背景を変える、衣装を変える、
ノイズ的なエフェクトを加える、などの他だと、
たとえば「分身」だろうか?
リアルの動きをキーにして、
サイバーの中でコピーの群れが、半自律で、
シンクロして、マスゲーム的に動く
というようなのはどうだろう?
あるいは「モーフィング」?
3人の間を3D モーフィングで埋める。
容姿も、踊りも。しかも、時を遡って?
今回の「再生」の MV が示唆しているように。
そういうリアルを反映した合成を VR で配信して、
みんなで、自由に動き回りながら、自由視点で見る。
見ている人の生理信号や入力を
ステージの背景やエフェクトにリアルタイムで反映させて、
全体をヒートアップさせてゆく?
自分の 3D スキャンデータを送ると、
彼女たちの動きにシンクロして躍らせてもらえる
というのもありかもしれない。
もちろん、同じ技術で、遠隔コラボレーションも
可能になるだろう。
GAN系の技術は、まだまだリアルタイム生成・変換には
使えないと思うが、5G の時代でもあるし、
そのうちには、結構面白いものができそうだ。
リアルでの動きをキーにした合成と言う意味では、
下の「だいじょばない」動画のリアルタイム配信が見事だ。
これができるなら、「レーザービーム」の動画の
冒頭のようなエフェクトも、
リアルタイムで可能だし、
壊すだけでなくて、踊り終わると、
その動きで何かが出来上がっている、
みたいなことも面白いかもしれない。
Perfume - 「だいじょばない」 Live at Coachella 2019
最新の画像もっと見る
最近の「発明」カテゴリーもっと見る
最近の記事
カテゴリー
バックナンバー
人気記事