今回は、サンプリングレートとビット深度(ビットデプスとも呼ぶ)について解説していきたいと思います。
DTMを始めたばかりで、これらについて何となくしか理解できていないという方も多いかと思います。僕もそうでした。
あくまで趣味で音楽をやっている方にとってはそこまで気にしなくても良いことかもしれませんが、音楽で何かしらのお仕事をするとなると、この辺りは気を遣わなくてはならないデリケートな部分だったりするんです。
楽曲制作時にこれらの設定を適切に行えるようになるためには、
サンプリングレートとビット深度について正しく理解しておくことが重要です。
今回はそれらを解説した上で、作曲段階ではどれくらいのサンプリングレートに設定するべきなのかを紐解いていきたいと思います。
サンプリングレートとは?
サンプリングレートについて、音質の良さを表す指標だと思われている方も結構多いです。
あながち間違いでもないのですが、実は微妙に違いますのでここで正しく理解しましょう。
正確には音質を表す指標ではなく、音の滑らかさを表す指標です。
アナログにおける音というのは、空気を振動させています。
水面に石を落とすと、着水点を中心に波紋が広がっていくと思いますが、似たような物だと思ってください。着水点を真上から見ると円形に波紋が広がっていきます。
それを真っ二つに割って、目線を水面と同じ高さに持ってくると、水面は石の着水点から外に向かって波打っています。その形がいわゆる波形です。
音においても同じことが言えます。
音を発すると、それが波のように空気を震わせ、波形を形成しているのです。
さて、僕たちDTMerはその波形がデジタル信号化された音を使って音楽を楽しんでいるわけですが、波形をデジタル化する際にはサンプリング(標本化)という処理をしています。
アナログの波形をデジタルで再現(つまりこれが標本化)した波形データを取り扱っているということです。
そのデジタル再現処理をするにあたり、
1秒間にサンプリング(標本化)する回数を表すのがサンプリングレートです。
例えば、一般的なCDだとサンプリングレートは44.1kHzに設定されています。
これは1秒間に44100回音をサンプリング処理することを表しています。
映像業界ではサンプリングレートを48kHzにすることが多いですが、
これは1秒間に48000回のサンプリングを行っているということです。
1秒あたりの処理数が多いというのは要するに、それだけ音を細かく計測しているわけですから、48kHzは44.1kHzよりも音像が滑らかになってきます。
つまり、サンプリングレートが高ければ高いほど、出来上がるデジタル波形は、よりオリジナルのアナログ波形に近づいていくということです。
人間の耳は音が滑らかであると音質が良いと感じやすいとされています。
だからこそ『サンプリングレートは音質を決めるものである』という考えに惑わされる方も多いのだと思いますが、元々音質の悪いトラックを高いサンプリングレートで書き出したところで、音質がよくなるわけではないことは想像に難くないでしょう。
どんなに高解像度であっても、元が悪ければ出てくるものも悪いです。
ただし、レコーディング段階で44.1kHzで録るのと48kHzで録るのとでは出来上がるトラックの質がそもそも異なるので、そういう意味では音質に大きく関わってきます。これがサンプリングレートへの理解をややこしくしてしまっている原因かもしれません。
近年ではハイレゾ音楽も流通するようになってきましたが、日本オーディオ協会が定義するハイレゾ音楽の基準は、96kHz/24bitであるとされています。
48kHzの倍の細かさで処理しているので、通常のCDやダウンロードデータよりも高価です。
ビット深度(デプス)とは?
サンプリングレートは時間的な音の解像度でしたが、ビット深度は音量の解像度です。
ビット深度が大きければ大きいほど、ある音に対してより広いダイナミックレンジ(音量の大小の範囲)で解像をすることができます。
「ダイナミックレンジが広くなる」と聴くと、より大きな音に対して処理ができると早合点しがちですが、絶対値としての音量や音圧が大きく変わるわけではありません。あくまで『解像度』が変わるだけです。音が大きくなったり小さくなったりするわけではありません。
なお、一般的なCDにおけるビット深度は16bitです。
S/N比という考え方
ビット深度についてもう少し切り込んでいく前に、S/N比という考え方について学んでいきましょう。
S/N比はご想像の通り略語で、元はSignal – Noise Ratioという言葉です。
つまり、信号(実音)と雑音(ノイズ)の比率のことを表しています。
アナログの音をデジタル化するには、原音の波形を機械で測定してデータ化することになるわけですが、やはりどうしても、原音の波形と完全に一致したデータを作ることはできません。
実際の波形に限りなく近しい形の波形となることでデジタル音声が出来上がるわけですが、その際、原音から再現しきれなかった音の成分はホワイトノイズとなって一緒にオーディオ化されます。
S/N比とはつまり、原音を再現できた部分と、再現しきれずにホワイトノイズになってしまった部分の割合のことを指しています。S/N比は高くなると、その分ノイズに対して再現できた音の割合が大きくなっていきます。つまり、S/N比が大きければ大きいほどノイズが少ないということです。
さて、ここでビット深度の話に戻ります。
ビット深度が異なると一体何が違うのかということです。
結論から言うと、ビット深度の差異はS/N比の差異につながってきます。
基本的に、どのような音をデジタル化する場合も、ホワイトノイズは必ず乗ってしまいます。これはデジタルオーディオの世界では避けることができません。
先ほど、ビットデプスが異なるとダイナミックレンジの広さが違ってくるとお伝えしました。
そのダイナミックレンジの範囲内には、どうしても避けられない一定数のホワイトノイズが必ず含まれます。
ダイナミックレンジが広いということは、ホワイトノイズ以外の、原音からサンプリングした音声の範囲が広くなるので、ホワイトノイズが占める割合が小さくなるということです。
つまり、ホワイトノイズが目立たなくなります。
しかし、ビット深度はノイズの大きさには関わりますが、ノイズを発生させる根本の要因ではありません。
サンプリングの目の荒い分がホワイトノイズになって現れるので、結局のところ、音質を左右するのはサンプリングをどれだけ高精度で行えるのか、ということになります。
単にサンプリングレートを上げれば良い、という話ではなく、どのような機材でどのように音をサンプリングしたのか、が重要になるという意味です。
とにもかくにも、ビット深度は音質を決定づけるものではなく、あくまでダイナミックレンジを決定づけるものである、ということを覚えていただければ大丈夫です。
それにより変わるのはS/N比、つまりノイズの大小であることも併せて覚えておきましょう。
作曲時にはサンプリングレートをいくつに設定したら良いのか
作曲段階のサンプリングレートをいくつに設定したら良いのかということですが、ハイレゾ音楽を作らない前提であれば、基本的に48kHzにしておくことをお勧めします。
これについては、後続の処理を考えると48kHz以上にしておくことが好ましいことがわかります。
一般的なCDレベルでのサンプリングレートは44.1kHzですが、それはエンドユーザーであるリスナーの耳に届けられる段階での話です。
最終的に44.1kHzに落ちるのであれば、制作段階ではそれより高いサンプリングレートに設定しておくことが理想であることは、考えてみれば当たり前のことと言えます。
音質を悪化させることはできても、すでに悪いものを良くすることはできません。
であれば、制作段階は高解像度で作っておいて、最終的にリスナーに適した形に下げてあげることが重要になってくるのです。
楽曲を書き出す際のサンプリングレート・ビット深度はいくつに設定するべき?
実際に制作した楽曲をオーディオデータとして書き出す際の設定についてですが、これはケースによって異なります。
ケース別にベターな設定を解説していきましょう。
数値は『サンプリングレート/ビット深度』で表記しています。
なお、ここでもハイレゾ音楽は作らない前提で話を進めていきます。
原則として、プロジェクトに設定されている数値を超えて書き出してはならない
DAWのプロジェクト上で設定されている数値を超えてオーディオデータを書き出すことはあまり良くありません。
例えば、DAWプロジェクトでは44.1kHzに設定しているのに、オーディオデータにする際に48kHzで書き出すことは基本的にNGです。
先にもお伝えした通り、根本の音質を改善することはできないので、サンプリングレートを上げたところで音質は良くはならないし、データサイズが大きくなるだけです。
CD化する場合
ここに至るまでに何回か出てきてますので「言わずもがな」といった感じですが、
44.1kHz/16bitに設定しましょう。
理由ももうご理解頂けていると思いますので、ここで改めて解説することはいたしません。
ストリーミングサービスに投稿する場合
今や音楽はCDではなくストリーミング時代ですから、この媒体での楽曲公開を考えている方も多いでしょう。
基本的には、CDと同じ設定で書き出してしまって大丈夫です。
ただし、iTunesにて販売する場合は、ハイレートで投稿することが可能です。
iTunesはマスター品質にこだわっているので、実はハイレゾ音楽にも対応しています。せっかく聴いてもらうのですから、良い状態で提供していきましょう
厳密には、 44.1kHz・48kHzの場合で16bitもしくは24bit、96kHz・176.4kHz・192kHzの場合で24bitに対応しています。
楽曲データをエンジニアに渡して後続処理をしてもらう場合
作曲のみを担当し、後の工程は専門のエンジニアに渡して対応してもらうケースもあるでしょう。
その場合は、基本的にプロジェクトと同じ設定で書き出しておけばOKです。
迷ったら、48kHz/24bitで書き出しましょう。
それで文句を言われることはないです。
これはミキシングエンジニアにパラデータを渡す場合にも、マスタリングエンジニアに2mixを渡す場合にも共通している設定なので、ここで覚えておきましょう。
なお、エンジニアに渡す場合には2mixのmp3データも併せて渡しておくことで、楽曲の表現の意図が伝わりやすいです。
書き出す際に一緒に用意しておくことをお勧めします。
【終わりに】すべてはリスナーに気持ちよく音楽を聴いていただくため
結構専門的な解説が多くなってしまいましたが、音楽活動をする上では切っても切り離せない重要な知識です。
なるべくわかりやすい解説を心がけたつもりですので、多くの方の勉強の一助となってくれれば幸いです。
結局のところこれらの設定は、エンドユーザーであるリスナーに気持ちよく音楽を聴いてもらいたいからこそ行うものです。
僕たちがここをおざなりにすることは簡単ですが、それはエンターテイナーとしては失格です。リスナーに心から楽しんでいただくためには、こういった細かな設定が大切になってくることをぜひ覚えておいてください。
それでは今回はこの辺で!
また次回の更新でお会いしましょう!