読者です 読者をやめる 読者になる 読者になる

ナツメグのサクっと作曲 ”コツを探れ”

音楽制作のTipsを中心に映画、旅の話題なども。

【コラム】今更だけどCD買わなくなった話、とハイレゾ音源の話。

f:id:natsumegu629:20170525110144j:plain

CDで音楽を聴かなくなったのは、聴きたい時に探すのが面倒だから。
 
 CDが売れないといわれてもうかなり時間が経つけど、CDを聴かなくなった理由で僕の場合一番なのは探すのが面倒だから。以前はCDが増えてラックにぎっしりCDが詰まっていくのに喜びを感じていた時期もありました。日本人て特に、そういうマニア魂みたいなとこありますよね。収集癖というか、これだけCD持ってる俺ってカッコイイ、立派に音楽マニアだしそこらの音楽好きとは格が違うぜ!的な。
 
 
しかしやっぱり聴きたい音楽へのアクセスの速さで言ったらPCです。
 
 今聴きたい、と思った曲が机に座ったままなんとなくのキーワードですぐ見つかるし(CD棚ひっくり返さなくて済む)、PCの中の音楽ライブラリの検索で見つからなければ、applemusicでだいたい見つかるし、なければyoutubeがある。
 youtubeで相当気に入り、CDが欲しくなればアマゾンで探して買うんだろうけど。そこまで進むはよっぽどのこと。
 
 ある意味本当に欲しいものにたどり着くまでにいくつもの段階があって、ふるいにかけられるので、これは悪いことではないな・・とも思います。
 
 音楽との出会いという視点では大型CDショップもかなりワクワクしたけど、今はapplemusicがガンガン勧めてくるし、新鮮な音楽が浴びるように聴けるサイトが他にもたくさんあります。
 
 
 
 
 
肝心な音質面は?
 
 CDと比べ音質も言うほど僕は気にならないです。(アナログレコードからCDへの移行時も、散々音が悪いだの温かみがないだの騒がれてました)
iTunes標準のAAC非可逆圧縮)でも特にストレスなくなく聴けます。
高音質で聴けることに越したことはありませんが、それよりも膨大な音楽に直感的に素早くたどり着けることの方がプライオリティが高いです。
 
(ちなみにCDをiTunesに取り込む時の設定はAppleロスレスエンコーダーにしてます)
 
 

f:id:natsumegu629:20170525111110j:plain

 
 
さてそんな中、
 
ハイレゾはどうだろう?
 
96k 24bitというハイサンプリングレートのメディア、ハイレゾ音源を実際聴き比べてみました。
2種類の曲をそれぞれ2つのサンプリングレート・ビットとファイル形態で比較。
 
48kHz16bit  m4a (圧縮)
96kHz24bit  flac  ハイレゾ可逆圧縮
 
 
SONYのお試し用ハイレゾ音源をダウンロードしてVOXというハイレゾプレーヤーで試聴し比較したのですが、
 
ごめんなさい、、正直あまり違いがわかりませんでした。
 
 
また、
iPhoneでやはりONKYOハイレゾプレーヤーでハイレゾ対応のイヤホンで試聴してけど結果は同じであまり違いがわかりませんでした。
 心理的な要因が大きく「コッチがハイレゾ」って聞かされると、ちょっとクリアに聴こえるかな?もしかして・・値段も高いしくらいな微妙な感じでした。
 
芸能人格付けチェックみたいにブラインドテストしたら、外す自信満々です・・・。
 
そんなこんなで
 
 現状で考えると、ハイレゾが今後メインの音楽メディアになるとは思えないなぁ。
一番音楽を聴くであろう若い層の人たちが、音は良いとされているが値段も高いハイレゾに食いつくとは思えません。
 
 しばらくは音質は一番耳に触れるのはAACがメインになりそうです。(Applemusicが一番聴く頻度が多い)
 
とは言いつつ、今ハイレゾでのリリースものの仕事をしてる真っ最中なので、まだまだハイレゾの世界をしばらく探り続けたいと思います。
 
 
 
 
 
 
 
 
 
 

【作曲仕事術】理想は曲に働いてもらう

 

f:id:natsumegu629:20170524112206j:plain

 せっかく長い時間かけて苦労して勉強して、自分は作曲家だ!と真に思えるようになったら次はやっぱり稼がないと・・と思うのが人情ですよね。
一口に音楽で稼ぐといってもその方法は本当に色々だけど、このブログは作曲をテーマにしているのでやはり作曲で今流行りの言葉”マネタイズ”していくことを考えていきます。
 

第一段階 キッカケ作り

 
 以前ブログにも書きましたが一番ハードルが低いのが著作権フリー音楽サイトへの投稿、他ライブラリ音源管理会社への登録でしょうね。
 しかしこれは相当な数をこなさないと”稼ぐ”という実感を得られる金額にはなりません。しかしながら、自分の音楽が必要とされた!という実感を得るには悪い方法ではないです。モチベーションは大切です!
 

第二段階 成長期

 
 次の段階で、少し実力がついて人脈ができたり、制作会社と関われるようになるとコンペに参加したり、アレンジやBGM仕事をもらえたりするようになります。
 だたしこれも最初のうちは、バイトなしで食べられるようになるまで結構なハードワークをこなさなければなりません。しかし名前を売ったり実力をつける上で大事なプロセスではあります。
 

第三段階 理想形

 
僕が考える理想の収入形態はやはり曲に働いてもらう(楽曲使用料・放送使用料など)ことです。
 
 現状でも、自曲がTV・ラジオなどでよく音楽が使われることがあるので、その収入プラス・買取の作曲・アレンジやBGM制作といった収入で食べてはいけるのですが、
正直、音楽制作って機材などにとってもお金がかかりますから普通に食べていけるだけでは仕事として長続きしないんですよね。お酒は飲まなきゃいけないしw、旅行もいきたいしで・・・(作曲以外ではストイックな世界とは無縁な生き方をしております)。
 
 ここでお話しした放送関連の使用料の良い点の一つは、収入が読みやすい点です。例えばある番組のテーマに曲が使われたとしてその番組が2年続いたとすれば、安定した収入になることがわかるので、設備投資したり、リスクを負ったチャレンジもできるのです。
長い番組なると10年続いたりしますからね。
あと、TVやラジオで自分の曲がかかるのはやはり純粋に嬉しいですよね。
 
 
 
そこでちょっと、収入形態別にメリット・デメリットを書いてみました。
 
 

制作費 (アレンジ・買取BGM制作など)

メリット: 現金化するまでのスパンが短い。金額が明確。
デメリット:その仕事を納品し入金が済めばそこで終わるので継続的収入にはならない。(継続したプロジェクトに関われるなど関係が築けていれば別)その後の収入には繋がらない。
 

印税

メリット:ヒットすれば莫大な収入になる。
デメリット:売れなければ引いちゃうほど金額がわずか・・・。相当アーティストパワーがある人への楽曲提供を除いては収入が読めない。最初の入金までのスパンが長い。
      
 
*印税とはCDの売上枚数に乗じて権利者に支払われるお金のことですが、現状の音楽業界の状況から、一部アイドルグループを除くと非常にCDの売り上げ的に厳しいと考えるので僕の場合は狙いから外しています(あくまで個人的見解)。印税よりケースによっては2次使用料の方が大きいかもしれませんね。
 

放送使用料 楽曲使用料

メリット:長い期間の収入になり得る。仕事が終わってからも収入は続く。
 放送使用料は放送が続いていれば収入が読みやすい。
デメリット:最初の入金までのスパンが長い(1年くらいかかることも)
 
まとめ
 
 僕の理想形としては将来的にも財産となりうる楽曲をどんどん書いて、放送・舞台・コンサート関連含め・いろんなシーンで曲に働いてもらことです。
そこである程度安定した収入を確保し、次のチャレンジにどんどん投資していくのです。
 ただ美味しい仕事はそうそうあるものでもないので普段、営業したり、いざ勝負仕事が来た時のための抜け目ない準備をすることが大切になってきますけどね。
 
 
 
 
 
 
 
 
 

【ミックスあれこれ】マスキング(帯域干渉)が怖く無くなるとっておきの方法

マスキングって聞いたことがありますよね。

ミックスに問題があるときに2つ以上の楽器の音がお互い音を打ち消しあって全体的に迫力に欠けるサウンドになってしまう現象です。
ベースが聴こえないからドラムを上げて、ドラムを上げたらベースが奥に引っ込んで聴こえなくなった・・気づけばメーターは真っ赤っか。
で、全然まとまらないし迫力に欠ける。
こんな経験ないですか? しょっちゅうある? ですよね。
 
今回はこの問題について書こうと思います。
 

マスキングの基本的な対処

 
 通常この問題をクリアするには、ぶつかる周波数帯域(特に中低音)をEQで削って各楽器のお互いの落ち着き場所をはっきりさせることによって、クリアで充実感あるミックスを作ることができるのですが、そうはいっても簡単そうじゃないですよね。
 色々試しているうちにわけわからなくなって袋小路パターンに・・。締め切り仕事の場合で何曲も終わらせなきゃいけないときに、そこだけに時間を割くのは厳しいです。
 
だからここはプラグインに頼る方法を一つ。
 
 

iZotopeの「Neutron」でマスキング解消

 
Neutronはトラックアシスタントと言ってそのトラックの音を自動解析して適性なEQを設定してくれる機能で最近騒がれてました。
 今回はその機能よりむ、マスキング機能に注目したいと思います。
 
例えばわかりやすい被りの例でいうと
 
キックとベース
ボーカルとバッキングギター
 
など。
被りそうな2つのトラックにNeotronを挿して「Masking」ボタンを押すと、どの周波数帯が被っているかがEQ画面の上で一目瞭然になる。
そこでEQ調整をすれば耳だけに頼らず視覚的に適切に処理できるわけです。
 
図で見てみます。
上の段がキックとスネアで、下の段がベースのNeutronの画面。周波数帯域がグラフで表示され、上の段の白みがかったところが大まかにベースと被っている帯域。
赤丸で囲ったところがぶつかっている箇所。
(ちなみに下段のベースはトラックアシスタント機能でEQがすでにかかった状態)
 

f:id:natsumegu629:20170523140235p:plain

 
 
さらに
「Inverse Link」というボタンが右側にあって、そこをクリックすれば、例えばベースをブーストすれば同じ帯域でキックが下がり、ベースを下げればキックが上がるというふうにお互いがぶつからないように強調できる機能があるのです。これは便利!
ミックスの勉強にもなるし是非試していただきたい機能です。
 
 
赤丸箇所がキックでEQを上げた箇所。同時に自動的に下のベースの同じ帯域がEQカットされているのがわかる。

f:id:natsumegu629:20170523113928j:plain

 
Neotron操作に関してはわかりやすい動画があるのでこちらでどうぞ!
 
 
 他にも2nd sence audioがリリースしているMixing Analyzerというプラグインは最大6トラックが自動でアナライザに追加されて、文字でもリスト化されます。被っている帯域は赤い帯で表示されるので一目瞭然。なんだかグラフがすごいことになっていますけど。
こちらはトライヤル版で試したのですがなかなか良さげでしたよ。
 

f:id:natsumegu629:20170523134912p:plain

 

 

おわりに

 

 何かと正体をつかむのに手こずるマスキングでしたが、視覚化できたら立ち向かうのが楽ですよね。便利なプラグインバンバン利用してスッキリした、でも迫力もあるミックスを目指しましょう♪

 

 
 
 
 
 
 

アレンジ中はMIDIトラックメインか、オーディオトラックメインか?

 

f:id:natsumegu629:20170522153230p:plain

 アレンジを進める中でMIDIトラックとオーディオトラックが混在する場面は多いと思います。どの段階でオーディオ化するかを含めトラックの扱いを考えたいと思います。
これにはぶっちゃけ正解がなく、本当に人それぞれなのですがそれを言っちゃブログにならないので僕の考えを書きます。
 
 僕的には、最後まで2種類のトラックは混在してていいんです。
根拠を記すためそれぞれのメリット・デメリットをあげます。
 

MIDIトラックとオーディオトラックの比較

 

MIDIトラック(音を出す指示を与える信号でデータ自体は音のするものではない)

 
メリット
フレーズを変えたりテンポを変えたりが簡単に正確にできる。
コントロールチェンジにより表情付けや奏法変更などいろいろな変化に対応出来る。
 
デメリット
MIDIはエラーもあり指定の音色がなぜか外れてしまい何の音をアサインしたのかわからなくなることがある。(僕だけか)
発音が遅れたりずれたりすることもある。ソフトシンセを使用する場合CPUに負荷がかかる。
 

オーディオトラック

 
メリット
プラグインエフェクトを使ったり波形を編集したりと音そのものの加工の自由度が高い。音の発音タイミング・再生が安定する。
 
デメリット
テンポ変更へのハードルが高い。
フレーズの編集ができない。ピッチ変更もMIDほど自由ではない。
 
 
以上特徴を鑑みて、
 

ジャンルによってトラック(MIDI or オーディオ)の扱い方を変える

 
オーケストレーションの曲はほぼ最後までMIDIで作業します。
MIDIトラックでバランスをとりそのままトラックダウンすることも多いです。
和音構成やメロディの推敲・ボリューム変化などアーティキュレーションにほとんどの時間を費やすので早々オーディオ化するのは適さないからです。
あとリスク回避として、楽器群ごとにグループでオーディオ化(ステム)しておくことは多いです。
 
これに対し、
ダンスミュージック系はどんどんMIDIデータをオーディオ化していきます。
最初から単発もののサンプルはオーディオ貼り付けが多いし、ループも加工しやすいようにオーディオ化してから作業することが多いです。
プラグインを使った面白いアイデアを生かしたいし、リズムがキモな部分が多いのでオーディオ化しても不便ではないし逆に扱いやすい面があります。
バンド系は、僕の場合ギターを入れることが多いので最初からオーディオトラック中心になります。ドラムは最後までフィルを変えたりスネアの散布を入れ替えたりするのでMIDIのままですが、パラでオーディオ化しやすいようにパーツごとにAUXに立ち上げて作業します。
 
 
まとめ
 

 

 オーケストレーション中心の楽曲は最後の最後までMIDIで作業する。
ダンスミュージック系は早々オーディオ化しオーディオ編集・加工のメリットを生かす。バンド系はその中間くらい。早々オーディオ化するものもあれば最後までMIDIで残しておくものもある。
 僕の作業方法としてはこんな感じです。こちらからは以上です♪
 
 
 

【ミックスあれこれ】モノリードを書き出す際、ステレオで書き出すのはダメなのか(違いはあるのか?)

 昨日に引き続きモノ・ステレオファイル書き出し問題です。
よく、モノで書き出すと音に芯がでる、とか定位感がはっきりする・・という意見を目にしたので、本当にそうかな?と試してみました。
だって、モノ音源はステレオファイルだろうがモノファイルだろうがファイルが2つか1つの違いであって理屈で言えば音が変わるはずないと思ったからです。でも当たり前のことだからこそ自分で調べてみないとモヤっとすることありますよね。
 

比較条件

 
 材料としてR&Bなどでよく使われる三角波リードで調べてみました。
OmnisphereのプリセットのRnB Triangle Leadという音色を使います。
 
 聴いた感じ完全にモノですし、Omnisphereのカテゴリ名も思いっき「SynthMono」の中に分類されています。
 
さて、
 
まずOmnisphereはステレオトラックでしか立ち上げること出来ないので、MIDIトラックで打ち込んだ音はステレオトラック(インストルメントトラック)から出ます。
そこで一旦ステレオのオーディオファイルに書き出してLRのパンを右40に合わせた分析が次です。メーターはWAVESのPAZ ANALYZERを使用しています。
 

f:id:natsumegu629:20170521113738p:plain

 
 
 
次に
上記のステレオファイルをモノに分割してLチャンのトラックだけをパン右40に振り再生してみます。
ただしステレオで鳴らしたぶんより6db、RMS値が下がったのでそのぶんボリューム補正します。
この条件での分析が次です。
 

f:id:natsumegu629:20170521113817p:plain

 

結果は、やはりモノでもステレオファイルでも変わらない

 
 2つのメーターで見比べても、定位も周波数帯域の分布も全く変わりませんね。当たり前と言えば当たり前ですが。ステレオの方が0.1db RMS値が上がってますが変化の範囲には入らないと思います。波形を拡大してみても当然2つの違いはありませんでした。
 
 では実際この二つを実際に聴き比べてみます。
前半がステレオトラック、後半がモノトラックを2ミックスバウンスしたものです。
 

 
全く定位感や音質・音色変わらないように思えます。
 
 わざわざ、ステレオで成り立っている音色をモノにして、新しい芯がある音色にするというのはワザとしてありな気がしますが、もともとモノの音色をステレオで書き出すか、モノで書き出すかの違いはやはり音量の違いの他にはないと結論が出ました。
 
 
 
おわりに
 モノファイルとステレオファイルの書き出し音の比較、いかがでしたでしょうか?
エンジニアさんの扱いやすさから考えるとモノはモノで書き出したほうが良さげな気はします。無意味にトラックが増えるのは効率上よくないですもんね。そのぶんエンジニアさんは本来の作業に時間が取れますから良いミックスができる可能性が高くなります。
 しかしながら、
”迷った時はステレオで”の僕の鉄則は今後も変える必要はないようです。
 
 
 
 
 
*「サクっと作るBGM」という動画シリーズを公開してますのでぜひご覧ください。

youtu.be

 
 

ベース打ち込み・モノとステレオどっちがいいの?

 仕事のアレンジが終わってパラデータの提出の際、特にベースとかの音色はモノファイルにするか、ステレオファイルにするか迷うことありませんか?
 
 結論は、はっきりとステレオ感がある場合(シンセベースなど)はもちろんステレオで、モノだとはっきりしたものはモノで、はっきりしない場合ステレオで、です。当たり前ですみません。でもイマイチ釈然としないので調べて見ました。
 
今回エレキベースを例にとって色々データをとってみました。
 
ステレオトラックとモノトラックの比較条件
 
KONTAKTのKOMPLETEシリーズに入っているベース音源をprotoolsで鳴らします。
KONTAKTはモノでもステレオでもインスツルメントトラックとして立ち上げることができますのでまずはこの2つの音を比べて見ました。
 
そこで気づいたのですが、
 
モノとステレオでそれぞれ同じ名前の楽器を立ち上げても、音色が違うものがありました。
 

ステレオで立ち上げるのとモノでたちあげるので音色が変わるものもあった 

 
例えば
Scarbee Jay-Bass - Both(KONPLETE11)
というサンプルです。ベロシティも音程も一緒ですが明らかに音色が違います。
 
最初にモノ、そのあとステレオで立ち上げた音。
 

 
ただし、同じベースでもScarbee MM- Bassではモノとステレオで音色の違いはわかりませんでした。
 
 

オーディオデータのステレオとモノの比較

 
次に先ほどの

Scarbee Jay-Bass - Both(ステレオトラック)を

 

1 ステレオでオーディオ化したトラック

2 そのステレオトラックをLRともセンターに定位したもの(事実上モノ)

3 ステレオトラックをモノに分割して、その左チャンネルだけをセンターの定位で鳴らしたもの
 
以上3つのアナライズ比較です。
RMSは音圧・音量を示す値です。
 
 1 ステレオオーディオトラック(RMS -6.8)
 f:id:natsumegu629:20170520152720p:plain
 
2 ステレオトラックの定位をLRともセンターに (事実上モノ)(RMS -3.8)
センターにしただけでRMS値が3db上がります。
 

f:id:natsumegu629:20170520153020p:plain

 
3 モノに分割したトラック左チャンネルをセンター定位 (RMS -8.2)
 

f:id:natsumegu629:20170520155206p:plain

 

 

 このベース音色に限るとモノで鳴らしてもステレオで鳴らしても音量感(RMS値)は変わるけど音色・周波数帯域の特徴は変わらないという予想通りの結論です。

 

 したがって音量だけ考慮してエンジニアに渡せばどちらでも問題はないかと思います。

LとRで波形も変わらないように見えました。

モノに聴こえるようで実際はステレオだったりするケースもあるのでその場合はステレオで渡してエンジニアの判断に委ねます。

 

この話、もう少し次回に続きます。

便利屋にはなりたくない。代わりのいない専門性を目指すこと。

ALWAYS 三丁目の夕日」劇伴で有名な佐藤直紀さんのインタビュー記事をネットで見ました。

www.miroc.co.jp

の記事です。

自分の専門性と価値観にこだわり抜いた仕事場とは

 
 見るからにものズゴイ、自宅スタジオを2年がかりで作られたようで写真がもう壮観!
でもご本人はスタジオと呼ぶのを嫌うらしく、ワークスペースなんだそうです。「スタジオにしたくなかった」とはっきりおっしゃってます。
なんだか衝撃的。
 
 これだけの設備(ぱっと見)なら、当然ミックス・マスタリング・ボーカルレコーディング含め完パケまでできるようなシステムかと思いきや、きっぱり「ミックスダウンはやらない」そうで、あくまで作曲のみにこだわったシステムだと。(ミックスダウンをやらないということ自体は珍しくありませんが)譜面を書く時間が一番長いから、そこの快適さに重きを置いたんでしょうね。
 
自分の中で何が大切で、何が核となる仕事かが見えている仕事場設計ですね。
 
 インタビューで印象的だったのは、今は制作の予算が少ないからボーカルくらいの録音やミックスダウンまで全てこなさなければいけないケースが多くなってきいて・・しかしそのやり方だと安い予算でいつまでも便利に使われてしまう・・と。
 
 まぁ、突き抜けた専門性(=個性)がない限り僕も含め、やはりなんでもやらなければ仕事にならないケースが多いというのは実感します。
 

f:id:natsumegu629:20170519132457j:plain

 
 

”脱”便利屋

 
 そういうやり方は、エンジニアリングの膨大な知識も必要となるし機材も揃えないといけません。しかしながら、頑張ってもプロのエンジニアには敵わず、プロエンジニアには劣るけどそこそこ通用する技術で乗り切る感じになります。たしかに商業パッケージレベルの作品はできるようになりますが、予想を超えて感動するような仕事はできない気がします。全部が平均点ちょいちょいという・・・。(たまにそうじゃない突き抜けた方もいらっしゃいますが)
 
 どうにかその環境を抜け出さないと、経済的にもモチベーション的にも一生の仕事として音楽を捉えるには不安要素が多すぎます。
 
 やはり思いっきり自分の専門性(=個性)が活かせる環境づくりが欠かせないのかなぁと感じます。機材もそうだし、受ける仕事、コンペのチョイス、スケジュール管理、クオリティ管、捨てるところは捨てる勇気。
 
佐藤さんはインタビューで
 
” 私自身は機材自体に全く興味がなく(云々)・・・音の良し悪しはエンジニアに任せています。響き自体に関してシビアというでもありません、ここでトラックダウンするわけでもありませんしね。”
 
とおっしゃてます。譜面の人と言ってしまえばそれまでですが、潔くてキモチイイですよね。なかなかここまで言い切れませんよ。でもMACは全部で12台使ってる!みたいな(笑)。
 
おわりに
 
 便利屋にならないため、専門性が強く・誰にも代わりができない仕事、自分の専門分野以外は他のプロに頼めるほどの予算が取れる仕事をこの先目指したいきたいと思える記事でした。