情報量という観点からの楽曲分析

この記事には広告を含む場合があります。

記事内で紹介する商品を購入することで、当サイトに売り上げの一部が還元されることがあります。

分かりやすさ、というのは作曲における重要な要素です。

基本的には分かりにくいよりも分かりやすい方が良いとされますが、曲のコンセプトによってはあえて分かりにくい方へ寄せることも珍しくはありません。

分かりやすいかどうかは個人的または文化的な背景に依存する部分も少なからずありますが、ある程度客観的に分析することは可能であると思いますし、情報量という観点からの分析も有効なのではないでしょうか。

すでに音楽を情報処理的な観点から数値化する試みは行われていますが、音楽界のアナリーゼも含めどうも楽譜に表されている情報に大きく依存している気がします。

今回の記事は、楽譜から読み取れることやそれ以外のことも大事ですよ、という内容になります。

楽譜じゃダメなの?

大前提として、実際に聴いて知覚した音楽と楽譜上に表されている音楽ではデータ量に大きな差があります

音楽を楽譜に記する段階で必ずデータの欠落がおきますので、楽譜から音楽を起こすことはそのデータを補うことであり、それを解釈と呼んだりするわけです。

当然、その補う作業には多くの前提知識が必要になってきます。

そのことから、楽譜に記されている音高や音価の変化などだけでは実際の音楽の情報量を正確に導き出すことは難しいと考えます。

そこで、1音楽家の視点から「音楽には楽譜上の音高や音価以外にこういった要素もある」という提言のようなものをしてみたいと思います

私は情報処理の専門家ではありませんので、その辺はプロの方お願いします。

また、作曲をされる方もぜひ参考にしてみてください。

指標となる要素の例

音数

まあ、これは言うまでもないかもしれませんね。

長い曲は必然的に音数も増えますが、短い曲でも速弾きや分厚い和音、多層的な曲はより処理の負荷が高いため情報量が多くなります。

また、時間あたりの音数(密度)という観点もありますね。

音色

ちょっと議論になりにくい要素かもしれませんが、そもそも音色によって内包するデータ量や聴き手の処理の負担が違うのではないかという考えもあります。

ヒットチャートがほとんど歌ものなのは偶然ではありませんよね。

それは人の声が一番情報量が多(自然に聴けるという意味では少な)いからだと思います。(歌詞があればなおさらです)

対極には一般的に耳障りな音とされるものが設定できるかもしれません。

あとはそれに近い音色か遠い音色かで増減してきますが、聴く側の言語や文化的な背景によっては多少前後する部分があるかもしれませんね。

音を持続できる楽器が普通に弾けば様になるようなメロディーを、減衰楽器で演奏する場合は装飾音を入れたりして補ったりするのが一つの例です。

音色の幅

楽曲あたりの音色の数も重要です。音色の幅が多ければ「多彩な音楽」みたいになりますよね。

例えば独奏曲は音色の幅が狭いので、その分音数やハーモニー、リズミックな要素で補う必要があるかもしれませんが、バンドやオーケストラのように楽器の種類が増えると音色の幅も広がりますので同じようにやると情報過多になってしまうかもしれません。

レイヤーによる奥行きのあるサウンドも単層より情報量が増えますので、DAWだったら単純にトラック数が多ければ「処理の負担がかかるのはCPUだけではないんだ」と考えてしまって良いと思います。

予測可能なバンドサウンドよりも、シンセメインな上トラック数の多いEDMが比較的シンプルな構成をしているのは自然なことです。

残響があると間が持つということがありますが、DAWだとエフェクト、生の音楽ならどこで演奏されるも重要になってきます。

残響の多い教会で演奏される宗教音楽はそれも想定して調整されています。

和声(ハーモニー)

テンションがどれくらい乗っかるかと、単純に1曲あたりの和音の種類の数が分かりやすい点ですが、コード進行という点も見逃せない要素になってきます。

例えば、カデンツや5度進行のような定型の進行は一般的に圧縮して知覚されますので処理の負担が少ないということで情報量としても少なく見積もっていいのではないでしょうか。

ただし、定型は知っている(聴いたことがある)のが前提なので、旋法をベースとする民族にとっては逆に負担になる可能もあります。

音階(スケール)

こちらも、単純に5音音階よりは7音音階、7音音階よりは8音といった感じで情報量は増えます。

これは、数の多い音階はより人工的であるということと、メロディーを知覚する際の予測可能な音の数が増えることも関わってくるかと思います。

人は曲を聴く際、無意識にパターンを探しながら聴きますので可能性が増えるほど理解しにくくなるものです。

また、1曲あたりのスケールの種類も重要ですね。

スケール同士の遠い近いもあると思います。

調(キー)

1曲あたりの転調の数や借用和音の数というのは割と数値化しやすい部分かもしれません。

が、これも「時間あたりの」というのが関わってくる問題です。

その調に定着する前に頻繁に転調を繰り返すと知覚的な負担も増えますので、同じ3つの調に飛ぶにしても長い時間をかけて行われるのと短い時間の中で行われるのとでは違いがあります。

もちろん調にも近い遠いがありますので、その辺りも大事な要素になってきますね。

モチーフ/リック

音楽は音の羅列ではありません。

その中にはちゃんと単語や熟語、定型文、文法のようなものがあります

知らない横文字を沢山使われると内容が頭に入ってこないように、知らない単語が多いまたは普通と違った言い回しや文法を使うと難しい印象になりがちです。

また、音楽にはモチーフというメロディーの最小単位のようなものがあり、このモチーフを展開してメロディーを形作る手法は昔からどのジャンルでも見られます。

登場するモチーフの数が少なければあとはそのモチーフのバリエーションになりますので、知覚する負担が減り情報量も少なくなります。

例えば、バッハの複雑なフーガもモチーフの少なさ、定型進行、有機的な転調、音色の幅の狭さ(独奏だったり弦楽オーケストラだったりすれば)などで情報量が圧縮されていると分析できるかもしれません。

リズムにもこれはあり、リズムパターンというのもリズムモチーフを最小単位とすることができます。

つまり、一つ一つの音のつながりを分析するよりもモチーフや単語を最小単位として分析した方がより正確な分析ができるのではないでしょうか。

あとがき

他にも色々な要素が絡み合って音楽は形作られていますし、受け取る側のバックグラウンドというのも無視できない要素になります。

したがって、ガチで分析しようとすると言語学や民俗学、宗教学など様々な分野と連携して進める必要があるでしょう。

というわけで、ぶっちゃけ期待値とデータ量の違いもちゃんと整理していない思いつきの記事ではありますが、聴き手の処理の負担という点ではどちらも大事ということで勘弁してください。

一つのアイディアとして音楽を分析する際の指標として取り入れてみたり、作曲時のバランス調整に活用したりと、何かのヒントになれば幸いです。

もちろん、楽曲の情報量の多い少ないはどちらが偉いということではありませんので、そのあたりは目的に合わせて調整すれば良いのかなと思います。

これらはバランス感覚の一言で片付けられる問題ではあるのでしょうけど、昨今の言語化、分析ブームでちょっと気になった部分ですので書いてみました。