スピード

3月末に制作や業務フローを棚卸しして、全面的にAIを使うようになった。個人的に大きな驚きだったのは、2〜3月に大きなアップデートがあったClaude Codeのプログラミングスキルだ。修士研究で開発したARアプリなんかは、2日で作れてしまうような実感があった。

200年形が変わらないテクノロジーである自転車に乗りながら、自らを取り巻くメディア環境の凄まじい変化の速さに慄く。身の回りのテクノロジーを分類してみると、自転車やハサミなど身体に直接接しているテクノロジーは変わらないが、コロナ禍のリモートワークやLLMの登場など、非身体的な技術はたった数年で様変わりし、ライフスタイルすらも大きく変えてしまった。

そんな折に、20世紀初頭にイタリアで生まれた前衛アートのムーブメント「未来派」について考える。彼らは自動車や飛行機といった当時の最新テクノロジーや「スピード」そのものを熱狂的に讃美し、「過去の遺物である美術館や図書館なんて破壊してしまえ!」と叫んだ過激な連中だった。産業革命に後押しされた彼らは、技術礼賛を作品の主題とし、文字通り過去を置き去りにするほどの凄まじいスピードで「前へ、前へ」と進むことだけを望んだ。

しかし、翻って今回のAIによる技術革新はどうだろうか。一見すると未来派のような爆速の進化に見えるが、その実態は「データ」という過去の蓄積によって為されている。ただ膨大なコンテンツが機械的に量産されていくことにより、過去が数の暴力に埋もれていく。未来派が過去を「破壊」しようとしたのに対し、今は無限の過去を「食い荒らして増殖」しているような状態だ。

すごい速さの時代の流れと、戦争や資源のことを考えると、もう5年先のことなんてさっぱり分からない。明日世界が終わるなら、オマエは何をする?????????

こんな時代だからこそ、花の美しさを愛でよう

ワークフローを変更してから、打ち合わせ前にプロトタイプを作り、打ち合わせから数時間後にはAIがシステムの大枠を組み上げている。自然言語で指示をすると、AIが直接コードの塊を編集し、GitHubへのcommitとpushまで行ってくれる。pushされた内容を直接URLに紐づくウェブサイトへ反映する設定をしているので、AIのコーディングが動的にサービスの形を変える。LLM誕生前の自分ならおそらく1ヶ月近くかかっていた実装が、食事を作っている間に終わっているのだ。AIの仕様上限が来たら眠り、解除される頃にスマートフォンのアラームが鳴って起きて即指示を出す。ソシャゲに課金してレベル上げしているような廃人っぷりを、AIとのコーディングで魅せる。

それはそうと、これは今週開発したMIKOSHI SOUND(仮)というアプリケーション。

https://mikoshi-sound-production.up.railway.app

スマートフォンが、自転車走行中の周囲の環境や音、スマホの傾き、カメラが取得した映像によって、祭りのお囃子のような音楽を奏でる。複数台のスマートフォンが同時に音声を奏でることが可能で、演奏は共有され、サイトにアクセスしているスマホが増えるほど音は多層的になる。

開発したアプリケーションを実際に使い、自転車に乗ってみる。ここは「今はまだ」AIに代替できない。

実際にライドしてみて分かった。音の設計がまだまだ未成熟だ。要件に対して理想の音を追求すること。ここは長年磨かれた感性によって決定するもの。「志村翔太」が時間をかけて、この自転車を使った楽器のサウンドを考えていく。

まあしかし、2年後とかにはそれすらAIが「答え」を用意して提示してくるのかもしれない。そしてきっと、価値観のコペルニクス的転回! 今の価値基準では、そういう時代が良いのか悪いのかすら判断することができない。

以下はClaudeに説明させたアプリケーションの機能である。

神輿サウンド — お祭りの「熱」をリアルタイムで音楽に変えるシステム

お祭りの神輿担ぎは、担ぎ手・神輿・観客が一体になって生まれる体験だ。その一体感を、離れた場所にいる人にも、あるいは祭り全体の「いま」として可視化・可聴化できないか——そんな問いから生まれたのが 神輿サウンド というプロジェクトだ。

何ができるシステムなのか

神輿サウンドは、2種類のデバイスが協調して動く多デバイス対応のリアルタイム音楽生成システムだ。

神輿側(担ぎ手が持つスマートフォン) 担ぎ手のスマートフォンが、神輿の揺れ・傾き・照明の変化・周囲の音を常時センシングする。その情報がそのまま音楽のトリガーになる。担ぐリズムが太鼓を叩き、揺れの激しさが笛のビブラートを揺らす。神輿の動きがそのまま音楽の動きになる。

観客側(会場のスクリーンや観客のスマートフォン) 神輿側のカメラ映像をリアルタイムで受信しながら、パッド音・鉦・笛などのアンビエント楽器が鳴り続ける。観客のマイクが歓声や拍手を検出すると、リバーブが深まり、鉦の連打が速くなる。観客も参加者として音楽を変化させることができる。

どんな音が出るのか

音のコンセプトは祭囃子。屋台囃子や神田囃子を参考に、以下の楽器をすべてリアルタイム合成している(サンプルは使っていない)。

  • 太鼓:担ぎのリズムと連動するメイン打楽器。自律的なループも持ち、動きがなくても鳴り続ける。
  • 小鼓:裏拍を担当する高域打音。太鼓の合間を縫うように入り、祭囃子らしいグルーヴを生む。
  • 締太鼓:タイトで短い打音のフィル。
  • :非調和倍音による金属的な余韻音。チンチキチンの連打パターンも実装。
  • :四七抜き短音階(D・E・G・A・C)を使った2声の旋律。担ぎ手のテンポを学習して音符の進行スピードが変わる。
  • :わずかにデチューンした正弦波を重ねた揺れる鈴の音。
  • 拍子木:乾いた木の打音。まれに挿入される。

仕組みのポイント

センサーから音楽へ スマートフォンの加速度センサーが担ぎのリズムを検出し、そのピーク間隔からテンポを推定する。テンポが安定してくると笛のフレーズがそのリズムに引き寄せられ、より祭囃子らしい演奏になっていく。

観客の反応が音楽を変える 観客側のマイクが歓声・拍手のエネルギーを常時計測し、サーバー経由で全端末に配信する。会場が盛り上がるほどリバーブが深まり、鉦の連打が激しくなる。観客の「声」が音楽に直接影響する。

インターネット越しの協調 神輿側と観客側はWebRTCによるP2P通信で映像と音声を直接やり取りし、Socket.ioで状態を共有している。物理的に離れた場所でも、同じ神輿の「いま」をリアルタイムで体験できる。

技術スタックについて

サーバーはNode.js + Express + Socket.io(Railway上で動作)、音声はWeb Audio APIのみでゼロから合成している。外部の音源ライブラリは一切使用していない。映像・音声の配信はWebRTCのP2P通信で実現している。

祭りの「音」は偶然の積み重ねでできている。担ぎ手それぞれのリズム、観客の歓声、神輿の揺れ——神輿サウンドはそれらをセンサーで拾い、リアルタイムで音楽として再構成することで、「その場の熱」を記録ではなく演奏として残そうとしている

Leave a Reply

メールアドレスが公開されることはありません。 が付いている欄は必須項目です