「作れない」から「試せる」へ ― AI時代に音楽活動を始めた理由

音楽は、ずっと「向こう側」の世界だった

ずっと憧れだった音楽制作。

正直に言うと、自分が音楽を作れるようになるとは考えたこともなかった。

仕事はWeb制作。かれこれ長いことやっている。

デザインして、コード書いて、サイトを組む。

「作る」という行為自体には慣れているほうだと思う。

でも音楽は完全に別世界。

ギターのコードひとつ知らない。

楽譜も読めない。

DTMという言葉は知っていたけど、DAWの画面を見ても「これは自分の来る場所じゃないな」と思って閉じた。

そんな経験、一度や二度じゃない。

音楽が好きじゃなかったわけじゃない。

むしろ好きだった。

Spotifyのプレイリストにはこだわりもある。

ただ、「聴く側」と「作る側」の間には、とんでもなく深い溝があるように見えていた。

才能、知識、経験、機材。どれも持っていない自分には、越えられる気がしなかった。

AI音楽との出会い ― Sunoで景色が変わった

2024年の夏、Sunoというサービスを見つけた。

テキストでプロンプトを書くと、AIが曲を生成してくれる。

最初は「まあ、おもちゃみたいなものだろう」くらいに思っていた。

実際に生成された曲を聴いて、その認識は完全にひっくり返った。

普通に、聴ける。

もちろん粗さはある。

でも「楽器が弾けない人間が5分前に作った音楽」として考えると、ちょっと信じられないクオリティだった。

それまで「音楽を作る」というのは、楽器を練習して、音楽理論を学んで、DAWの操作を覚えて――という長い階段の先にあるものだった。

その階段が、いきなり数段になった感覚。

ゼロにはなっていない。

でも「登ってみようかな」と思える高さにはなった。

試してみたら、思ったより楽しい

最初にSunoで作ったのは、和楽器っぽいエレクトロニカ。

三線の音色とシンセが混ざったような曲。

なぜそのジャンルだったのかと聞かれると、単純に「聴きたかったから」かな。

自分が聴きたい音楽を、自分で作れる。

この感覚が思った以上に強烈だった。

そこからは早い。

プロンプトの書き方を変えて、尺八の音を混ぜてみたり、和太鼓のリズムを加えてみたり。

「江戸時代のサイバーパンク」みたいな世界観が頭の中に浮かんで、それをそのまま音にしてみた。

Neo Edo Festivalと名付けたその世界は、今の活動の核になっている。

Sunoだけで完結するわけじゃない。

生成された音源をAbleton Live 12に取り込んで、構成を整えたり、ミキシングを調整したりする工程が出てくる。

映像をつけたいと思ったらMidjourneyで画を作って、DaVinci Resolveで編集する。

ひとつのAIツールで完結するんじゃなく、いくつものツールを組み合わせて、自分の頭の中にあるイメージに近づけていく。

これ、Web制作と似てるなと思った。

素材を集めて、構成を考えて、ひとつの形にまとめる。

使うツールが違うだけで、やっていることの本質は近い。

「AI音楽はお前が作ってるわけじゃない」と言われたら

ここまで読んで「それはAIが作ってるだけだろ」と思う人もいると思う。

正直、その気持ちはわかる。自分でも最初はそう思った。

でも実際にやってみると、AIはあくまで「出発点」なんだと気づく。

Sunoが出してきた曲をそのまま出すことはほぼない。

テンポを変えたり、構成を入れ替えたり、別の楽器パートを足したり。

何十回もリジェネして、「これだ」と思える1曲を選ぶ。

その選ぶ行為自体が、もう表現になっている。

音楽は「作れる人の世界」だと思っていた。

理論を知っている人、楽器を弾ける人、幼い頃から音楽に触れてきた人。

そういう人たちだけが入れる場所だと。

AIが変えたのは、その入口の広さだ。

「作れる」まではいかなくても、「試せる」にはなった。

試して、聴いて、「違うな」と思ったら変えて、また試す。

そのサイクルを回せるようになった。

才能がなくても、理論を知らなくても、「やってみようかな」と思えたらそこがスタートライン。

だから、AI時代に音楽活動を始めた

試しているうちに、曲が溜まってきた。

10曲、20曲と作っていくうちに「これ、ちゃんとリリースしてみたいな」と思うようになった。

DistroKitを使って、SpotifyやApple Musicに配信した。

DJ Albatrossという名前で。

自分の作った曲がストリーミングサービスに並んでいるのを見たとき、初めて作ったWebサイトが公開されたときの感覚に近かった。

派手な感動じゃない。

「あ、本当にできるんだ」という、静かな驚き。

YouTubeにも手を広げた。

Music Filmと呼んでいるシリーズでは、AIで生成した映像と音楽を組み合わせて、ひとつの世界観を作っている。

「Street Festival Symphony」は祭囃子とエレクトロニカが交差する映像作品だし、「Firefly Canal」は蛍が飛ぶ水路のアンビエント。

どちらも自分の頭の中にあったイメージを形にしたもの。

活動を始めて気づいたのは、「完璧じゃなくていい」ということ。

プロのミュージシャンと比べたら技術は足りない。

でも、自分にしか作れない組み合わせがあるかもしれない。

和楽器とエレクトロニカ、江戸とサイバーパンク、実写とAI映像。

その掛け合わせは、自分の中にある好奇心から生まれたもので、誰かの真似じゃない。

AI音楽を始めた理由は「やってみようかな」だけだった

この記事を読んでくれている人の中にも、「何か作ってみたいけど、自分には無理だ」と思っている人がいるかもしれない。

少し前の自分がまさにそうだった。

楽器は弾けないし、音楽理論も知らない。

でもSunoを触ってみたら、「試す」ことはできた。

試しているうちに楽しくなって、楽しいから続けて、気づいたらアルバムをリリースしていた。

必要だったのは才能でも知識でもなく、「やってみようかな」という、たったそれだけの気持ち。

AIは人間の表現を奪うものだという議論がある。

でも自分みたいに、AIがなかったら一生表現を始めなかった人間もいる。

奪うんじゃなくて、入口を増やしてくれた。少なくとも自分にとってはそうだった。

DJ Albatrossの楽曲やMusic Filmは、YouTubeチャンネルで公開している。

和楽器 × エレクトロニカ、江戸 × サイバーパンクの世界を覗いてみてほしい。

DJ Albatross – YouTubeチャンネル