耳が先、理論は後 ― なぜ耳トレアプリが必要なのか
AIが正確な音を出しても
MUEDearの開発ストーリーは「手早く作るはずだった」で語られてますよね。DSP自前実装の話。今回は別の角度から聞きたいんですが、そもそもなぜ「耳トレ」なんですか。
AIマスタリングがどんどん普及してるのは知ってるでしょ。AIミキシングもMUEDialでやろうとしてる。で、AIの出力精度は上がっていく一方なのよ。
はい。
でもさ、AIが正確な音を出してきたとして、それが「良い」か「悪い」かを判断するのは誰?
……人間。
“AIが100点の処理をしても、聴く側が50点の耳しかなかったら、違いがわからない。”
— kimny
そう。AIが100点の処理をしても、聴く側が50点の耳しかなかったら、違いがわからない。「なんか良くなった気がする」で終わる。それってAIの性能を活かせてないのよ。
ツールの精度が上がっても、使う側の解像度が追いつかなければ意味がない。
critical listeningは人間の仕事。Sonarworksが2026年に出した調査でもそう言ってる。AIがどれだけ進化しても、最終的に「これでOK」と判断する耳は人間のもの。
理論を知ってても聴こえない
理論を勉強すれば解決しないんですか。EQの帯域特性とか、コンプレッサーの動作原理とか。
知識と聴力は別物なんだよ。
どう別なんですか。
「2kHzをブーストするとボーカルのプレゼンスが上がる」って知識としては知ってる。でも実際に2kHzが3dB上がった音と上がってない音を並べて、「あ、これ2kHz上がってるな」って聴き分けられるかは別の話。
知ってることと、聴こえることのギャップ。
僕自身がそうだったのよ。理論は本とネットで学べた。でも「聴こえる」ようになったのは、何年もスタジオで音を聴き続けた後だった。
時間がかかった。
めちゃくちゃかかった。しかもその過程に効率的な方法がなかった。ひたすら聴く。比べる。また聴く。体系的なトレーニング方法なんてなくて、現場で叩き上げるしかなかった。
耳は身体スキル
そこをアプリで効率化する。
でもここが大事で、AIに「俺の耳を鍛えて」って頼んでも鍛わらないのよ。
なぜ?
耳のトレーニングは身体スキルだから。筋トレと同じ。AIが「腕立て伏せのフォームはこうです」って教えてくれても、実際に腕立てするのは自分。聴き分ける力も、自分の耳で繰り返し聴いて初めて身につく。
AIが代替できない領域。
LMSの機能を2〜3年かけて削っていった時に、最後まで消せなかったのが耳トレだった。認証もサーバーもAIに吸収される。でも耳トレだけは残った。身体を使うものだけは、自分でやるしかないから。
「削っていったら残ったもの」の話は、「作曲家がなぜアプリを作っているのか」でも語ってましたね。
同じ結論に何度もたどり着くのよ。替えの効かないものだけが残る。
自分の耳を鍛えた方法
kimnyさん自身はどうやって耳を鍛えたんですか。
実際のレコーディング現場で。
具体的には?
レコーディングやミックスチェックなどで「ここ、ちょっとだけ変わった?」って気づけるかどうかが信頼に直結する。気づけないと「この人に任せて大丈夫か?」ってなる。だから聴くのよ、必死に。
プレッシャー駆動。
プレッシャーっていうか、職業的な生存本能。ミックスのリテイクが返ってきた時に「あ、ここ変えたな」って即座にわかるかどうか。わからないと仕事にならない。
その感覚を、アプリで再現しようとしている。
“プロが何年もかけて現場で身につけた聴力の「基礎部分」を、アプリで圧縮体験させる。”
— kimny
全部は無理。現場の緊張感はアプリで再現できない。でも「AとBを聴いて違いを当てる」っていう基本動作は、アプリで何百回も繰り返せる。現場だと1曲で数回しかできない比較が、アプリなら1分で10回できる。
反復の密度を上げる。
そう。プロが何年もかけて現場で身につけた聴力の「基礎部分」を、アプリで圧縮体験させる。上澄みは現場じゃないと身につかないけど、土台はアプリで作れる。
AIが進化するほど耳が要る
ここで逆説的な話になるんですが、AIが進化するほど耳トレの需要は増えるんですか。
増えると思う。
なぜ?
AIマスタリングとかAIミキシングが普及すると、作業自体はAIがやってくれるようになる。でもAIが出してきた結果を「これでいい」って判断するのは人間でしょ。その判断力がなかったら、AIが何を出しても「なんかいい感じ?」で終わる。
ツールが進化するほど、使う側の耳が問われる。
プラグインが増えてもそうだったのよ。EQ 50種類持ってても、「この曲に合うのはどれか」を判断する耳がなきゃ意味がない。AIになっても同じ。むしろAIの出力精度が上がるほど、「微妙な違いを聴き分けて判断する力」が差になる。
そこがMUEDearの領域。
そう。MUEDearはクリエイター自身が判断力を持つためのツール。AIに任せるか自分でやるかは別の話で、どっちにしても「自分の耳で良し悪しがわかる」のが前提。その前提を作るのがMUEDear。
「記憶の反芻」との接続
「脳は再生装置である」で語った「記憶の反芻」の話とも繋がりますよね。
聴力も蓄積された経験に基づいてる。何千回も「この音はこう聴こえる」っていうパターンを脳に刻んで、新しい音を聴いた時にそのパターンと照合してる。
記憶のデータベースから検索して照合する。
だから初心者は「なんか違う気がするけど、何が違うかわからない」ってなる。データベースが少ないから、照合先がない。MUEDearは、そのデータベースを効率的に構築するためのツール。
練習(Melete)→ 記憶(Mneme)→ 創作(Aoide)。MUEDの記事で語ったMuseの原型と同じ流れですね。
そうそう。MUEDearは Melete——練習のMuse——を体現してるアプリなんだよね。何度も繰り返し聴いて、パターンを脳に刻む。神秘じゃなくて方法論。
この記事は、複数回にわたるAI(Claude)との対話をもとに再構成したものです。